Regulamento de IA da Europa: uma tentativa de manter a IA humana

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Regulamento de IA da Europa: uma tentativa de manter a IA humana

CONSTRUÍDO PARA O FUTURISTA DE AMANHÃ

A plataforma Quantumrun Trends fornecerá insights, ferramentas e comunidade para explorar e prosperar com as tendências futuras.

OFERTA ESPECIAL

$ 5 POR MÊS

Regulamento de IA da Europa: uma tentativa de manter a IA humana

Texto do subtítulo
A proposta regulatória de inteligência artificial da Comissão Europeia visa promover o uso ético da IA.
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 13 de Junho de 2022

    Resumo do insight

    A Comissão Europeia (CE) está a tomar medidas para estabelecer padrões éticos para a inteligência artificial (IA), concentrando-se na prevenção da utilização indevida em áreas como a vigilância e os dados dos consumidores. Esta medida suscitou debate na indústria tecnológica e poderá levar a uma abordagem unificada com os EUA, visando uma influência global. No entanto, os regulamentos também podem ter consequências indesejadas, como limitar a concorrência no mercado e afetar as oportunidades de emprego no setor tecnológico.

    Contexto da regulamentação europeia da IA

    A CE tem-se concentrado ativamente na criação de políticas para salvaguardar a privacidade dos dados e os direitos online. Recentemente, este foco expandiu-se para incluir o uso ético de tecnologias de IA. A CE está preocupada com a potencial utilização indevida da IA ​​em vários setores, desde a recolha de dados dos consumidores até à vigilância. Ao fazê-lo, a Comissão pretende estabelecer um padrão para a ética da IA, não apenas na UE, mas potencialmente como um modelo para o resto do mundo.

    Em abril de 2021, a CE deu um passo significativo ao publicar um conjunto de regras destinadas a monitorizar aplicações de IA. Estas regras foram concebidas para impedir a utilização de IA para vigilância, perpetuação de preconceitos ou ações repressivas por parte de governos ou organizações. Especificamente, os regulamentos proíbem sistemas de IA que possam prejudicar indivíduos física ou psicologicamente. Por exemplo, os sistemas de IA que manipulam o comportamento das pessoas através de mensagens ocultas não são permitidos, nem os sistemas que exploram as vulnerabilidades físicas ou mentais das pessoas.

    Paralelamente, a CE também desenvolveu uma política mais rigorosa para o que considera sistemas de IA de “alto risco”. Trata-se de aplicações de IA utilizadas em setores que têm um impacto substancial na segurança e no bem-estar públicos, como os dispositivos médicos, os equipamentos de segurança e as ferramentas de aplicação da lei. A política descreve requisitos de auditoria mais rigorosos, um processo de aprovação e monitoramento contínuo após a implantação desses sistemas. Indústrias como identificação biométrica, infraestrutura crítica e educação também estão sob este guarda-chuva. As empresas que não cumpram estes regulamentos podem enfrentar multas pesadas, até 32 milhões de dólares ou 6% da sua receita anual global.

    Impacto disruptivo

    A indústria tecnológica manifestou preocupação com o quadro regulamentar da CE para a IA, argumentando que tais regras poderiam impedir o progresso tecnológico. Os críticos salientam que a definição de sistemas de IA de “alto risco” no quadro não é clara. Por exemplo, as grandes empresas tecnológicas que utilizam IA para algoritmos de redes sociais ou publicidade direcionada não são classificadas como “de alto risco”, apesar de estas aplicações terem sido associadas a vários problemas sociais, como a desinformação e a polarização. A CE contrapõe-se afirmando que as agências nacionais de supervisão dentro de cada país da UE terão a palavra final sobre o que constitui uma aplicação de alto risco, mas esta abordagem pode levar a inconsistências entre os Estados-Membros.

    A União Europeia (UE) não está a agir isoladamente; pretende colaborar com os EUA para estabelecer um padrão global para a ética da IA. A Lei da Concorrência Estratégica do Senado dos EUA, lançada em Abril de 2021, também apela à cooperação internacional para combater o “autoritarismo digital”, uma referência velada a práticas como a utilização da biometria pela China para vigilância em massa. Esta parceria transatlântica poderia definir o tom para a ética global da IA, mas também levanta questões sobre como tais normas seriam aplicadas em todo o mundo. Será que os países com opiniões diferentes sobre a privacidade de dados e os direitos individuais, como a China e a Rússia, adeririam a estas directrizes, ou isto criaria um panorama fragmentado da ética da IA?

    Se estes regulamentos se tornarem lei em meados da década de 2020, poderão ter um efeito cascata na indústria tecnológica e na força de trabalho na UE. As empresas que operam na UE podem optar por aplicar estas alterações regulamentares globalmente, alinhando toda a sua operação com as novas normas. No entanto, algumas organizações podem considerar os regulamentos demasiado onerosos e optar por sair completamente do mercado da UE. Ambos os cenários teriam implicações para o emprego no setor tecnológico da UE. Por exemplo, uma saída em massa de empresas poderia levar à perda de empregos, enquanto o alinhamento global com as normas da UE poderia tornar as funções tecnológicas baseadas na UE mais especializadas e potencialmente mais valiosas.

    Implicações para o aumento da regulamentação da IA ​​na Europa

    As implicações mais amplas do desejo crescente da CE de regulamentar a IA podem incluir:

    • A UE e os EUA estabelecem um acordo de certificação mútua para empresas de IA, conduzindo a um conjunto harmonizado de padrões éticos que as empresas devem seguir, independentemente da sua localização geográfica.
    • Crescimento no campo especializado de auditoria de IA, alimentado por uma maior colaboração entre empresas privadas e sectores públicos para garantir a conformidade com os novos regulamentos.
    • As nações e as empresas do mundo em desenvolvimento obtêm acesso a serviços digitais que aderem aos padrões éticos de IA estabelecidos pelas nações ocidentais, elevando potencialmente a qualidade e a segurança destes serviços.
    • Uma mudança nos modelos de negócios para priorizar práticas éticas de IA, atraindo consumidores cada vez mais preocupados com a privacidade dos dados e o uso ético da tecnologia.
    • Os governos adotam a IA em serviços públicos como cuidados de saúde e transportes com maior confiança, sabendo que estas tecnologias cumprem padrões éticos rigorosos.
    • Aumento do investimento em programas educativos centrados na IA ética, criando uma nova geração de tecnólogos bem versados ​​tanto nas capacidades da IA ​​como nas considerações éticas.
    • Pequenas startups tecnológicas enfrentam barreiras à entrada devido aos elevados custos de conformidade regulamentar, potencialmente sufocando a concorrência e levando à consolidação do mercado.

    Questões a considerar

    • Você acredita que os governos deveriam regular as tecnologias de IA e como elas são implantadas?
    • De que outra forma poderia o aumento da regulamentação na indústria tecnológica afectar a forma como as empresas do sector operam? 

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção: