Normativa europea sobre IA: un intento de manter a IA humana

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Normativa europea sobre IA: un intento de manter a IA humana

CONSTRUIDO PARA O FUTURISTA DE MAÑÁ

A plataforma de tendencias de Quantumrun darache información, ferramentas e comunidade para explorar e aproveitar as tendencias futuras.

OFERTA ESPECIAL

$5 POR MES

Normativa europea sobre IA: un intento de manter a IA humana

Texto do subtítulo
A proposta reguladora da intelixencia artificial da Comisión Europea ten como obxectivo promover o uso ético da IA.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Xuño 13, 2022

    Resumo de insight

    A Comisión Europea (CE) está a dar pasos para establecer estándares éticos para a intelixencia artificial (IA), centrándose na prevención do uso indebido en áreas como a vixilancia e os datos dos consumidores. Este movemento provocou debate na industria tecnolóxica e podería levar a un enfoque unificado con EE. Non obstante, a normativa tamén pode ter consecuencias non desexadas, como limitar a competencia no mercado e afectar ás oportunidades laborais no sector tecnolóxico.

    Contexto da regulación europea da IA

    A CE concentrouse activamente na creación de políticas para salvagardar a privacidade dos datos e os dereitos en liña. Recentemente, este enfoque ampliouse para incluír o uso ético das tecnoloxías de IA. A CE está preocupada polo posible uso indebido da IA ​​en varios sectores, desde a recollida de datos dos consumidores ata a vixilancia. Ao facelo, a Comisión pretende establecer un estándar para a ética da IA, non só dentro da UE, senón potencialmente como modelo para o resto do mundo.

    En abril de 2021, a CE deu un paso importante ao publicar un conxunto de regras destinadas a supervisar as aplicacións de IA. Estas regras están deseñadas para evitar o uso da IA ​​para a vixilancia, a perpetuación da parcialidade ou as accións represivas dos gobernos ou das organizacións. En concreto, a normativa prohibe os sistemas de IA que poidan prexudicar ás persoas física ou psicolóxica. Por exemplo, non están permitidos os sistemas de IA que manipulan o comportamento das persoas a través de mensaxes ocultas, nin os sistemas que exploten as vulnerabilidades físicas ou mentais das persoas.

    Xunto a isto, a CE tamén desenvolveu unha política máis rigorosa para o que considera sistemas de IA de "alto risco". Trátase de aplicacións de intelixencia artificial utilizadas en sectores que teñen un impacto substancial na seguridade e o benestar público, como os dispositivos médicos, os equipos de seguridade e as ferramentas de aplicación da lei. A política describe requisitos de auditoría máis estritos, un proceso de aprobación e un seguimento continuo despois da implantación destes sistemas. Industrias como a identificación biométrica, as infraestruturas críticas e a educación tamén están baixo este paraugas. As empresas que incumpran esta normativa poden enfrontarse a fortes multas, de ata 32 millóns de dólares ou o 6 por cento dos seus ingresos anuais globais.

    Impacto perturbador

    A industria tecnolóxica expresou preocupación polo marco normativo da CE para a IA, argumentando que tales regras poderían obstaculizar o progreso tecnolóxico. Os críticos sinalan que a definición de sistemas de IA de "alto risco" no marco non está clara. Por exemplo, as grandes empresas tecnolóxicas que usan a intelixencia artificial para algoritmos de redes sociais ou publicidade dirixida non se clasifican como "de alto risco", a pesar de que estas aplicacións estiveron vinculadas a varios problemas sociais como a desinformación e a polarización. A CE contrarresta isto afirmando que as axencias nacionais de supervisión de cada país da UE terán a última palabra sobre o que constitúe unha aplicación de alto risco, pero este enfoque pode provocar inconsistencias entre os estados membros.

    A Unión Europea (UE) non está a actuar de forma illada; pretende colaborar con EE. UU. para establecer un estándar global para a ética da IA. A Lei de Competencia Estratéxica do Senado dos Estados Unidos, publicada en abril de 2021, tamén pide a cooperación internacional para combater o "autoritarismo dixital", unha referencia velada a prácticas como o uso de biometría en China para a vixilancia masiva. Esta asociación transatlántica podería marcar o ton para a ética global da IA, pero tamén suscita preguntas sobre como se aplicarían tales estándares en todo o mundo. Os países con diferentes puntos de vista sobre a privacidade dos datos e os dereitos individuais, como China e Rusia, cumprirían estas directrices ou isto crearía un panorama fragmentado da ética da IA?

    Se estas normativas se converten en lei a mediados e finais da década de 2020, poderían ter un efecto dominó na industria tecnolóxica e na forza laboral da UE. As empresas que operan na UE poden optar por aplicar estes cambios normativos a nivel mundial, aliñando todo o seu funcionamento cos novos estándares. Non obstante, algunhas organizacións poden considerar a normativa demasiado gravosa e optar por saír do mercado da UE por completo. Ambos os escenarios terían implicacións para o emprego no sector tecnolóxico da UE. Por exemplo, unha saída masiva de empresas podería provocar perdas de emprego, mentres que o aliñamento global cos estándares da UE podería facer que os roles tecnolóxicos baseados na UE sexan máis especializados e potencialmente máis valiosos.

    Implicacións para unha maior regulación da IA ​​en Europa

    As implicacións máis amplas de que a CE queira cada vez máis regular a IA poden incluír:

    • A UE e os Estados Unidos forman un acordo de certificación mutua para as empresas de IA, que leva a un conxunto harmonizado de estándares éticos que as empresas deben seguir, independentemente da súa localización xeográfica.
    • Crecemento no campo especializado da auditoría de IA, impulsado pola maior colaboración entre empresas privadas e sectores públicos para garantir o cumprimento das novas normativas.
    • As nacións e as empresas do mundo en desenvolvemento acceden a servizos dixitais que cumpren os estándares éticos de IA establecidos polas nacións occidentais, o que pode aumentar a calidade e a seguridade destes servizos.
    • Un cambio nos modelos de negocio para priorizar prácticas éticas de IA, atraendo consumidores cada vez máis preocupados pola privacidade dos datos e o uso ético da tecnoloxía.
    • Os gobernos que adoptan a IA en servizos públicos como a saúde e o transporte con maior confianza, sabendo que estas tecnoloxías cumpren con rigorosos estándares éticos.
    • Aumento do investimento en programas educativos centrados na IA ética, creando unha nova xeración de tecnólogos que están ben versados ​​tanto en capacidades de IA como en consideracións éticas.
    • As empresas tecnolóxicas máis pequenas afrontan barreiras de entrada debido aos altos custos do cumprimento da normativa, que poden sufocar a competencia e levar á consolidación do mercado.

    Preguntas a ter en conta

    • Cres que os gobernos deberían regular as tecnoloxías de IA e como se implantan?
    • De que outra forma pode afectar o aumento da regulación na industria tecnolóxica ao funcionamento das empresas do sector? 

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: