Regulación de la IA en Europa: un intento de mantener la IA humana

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

Regulación de la IA en Europa: un intento de mantener la IA humana

CONSTRUIDO PARA EL FUTURISTA DEL MAÑANA

La plataforma Quantumrun Trends le brindará los conocimientos, las herramientas y la comunidad para explorar y prosperar a partir de tendencias futuras.

OFERTA ESPECIAL

$ 5 POR MES

Regulación de la IA en Europa: un intento de mantener la IA humana

Subtítulo de texto
La propuesta de regulación de inteligencia artificial de la Comisión Europea tiene como objetivo promover el uso ético de la IA.
    • Escrito por:
    • Nombre del autor
      Previsión Quantumrun
    • Sábado, Junio 13, 2022

    Resumen de información

    La Comisión Europea (CE) está dando grandes pasos para establecer estándares éticos para la inteligencia artificial (IA), centrándose en prevenir el uso indebido en áreas como la vigilancia y los datos de los consumidores. Esta medida ha provocado un debate en la industria tecnológica y podría conducir a un enfoque unificado con Estados Unidos, con el objetivo de lograr influencia global. Sin embargo, las regulaciones también pueden tener consecuencias no deseadas, como limitar la competencia en el mercado y afectar las oportunidades laborales en el sector tecnológico.

    Contexto europeo de la regulación de la IA

    La CE se ha centrado activamente en la creación de políticas para salvaguardar la privacidad de los datos y los derechos en línea. Recientemente, este enfoque se ha ampliado para incluir el uso ético de las tecnologías de IA. A la CE le preocupa el posible uso indebido de la IA en diversos sectores, desde la recopilación de datos de los consumidores hasta la vigilancia. Al hacerlo, la Comisión pretende establecer un estándar para la ética de la IA, no sólo dentro de la UE sino potencialmente como modelo para el resto del mundo.

    En abril de 2021, la CE dio un paso significativo al publicar un conjunto de reglas destinadas a monitorear las aplicaciones de IA. Estas reglas están diseñadas para evitar el uso de la IA con fines de vigilancia, perpetuando prejuicios o acciones represivas por parte de gobiernos u organizaciones. Específicamente, las regulaciones prohíben los sistemas de inteligencia artificial que puedan dañar a las personas física o psicológicamente. Por ejemplo, no se permiten sistemas de inteligencia artificial que manipulen el comportamiento de las personas a través de mensajes ocultos, ni sistemas que exploten las vulnerabilidades físicas o mentales de las personas.

    Paralelamente, la CE también ha desarrollado una política más rigurosa para lo que considera sistemas de IA de "alto riesgo". Se trata de aplicaciones de IA utilizadas en sectores que tienen un impacto sustancial en la seguridad y el bienestar públicos, como los dispositivos médicos, los equipos de seguridad y las herramientas para hacer cumplir la ley. La política describe requisitos de auditoría más estrictos, un proceso de aprobación y un monitoreo continuo después de que se implementen estos sistemas. Industrias como la identificación biométrica, la infraestructura crítica y la educación también se encuentran bajo este paraguas. Las empresas que no cumplan con estas regulaciones pueden enfrentar fuertes multas, de hasta 32 millones de dólares o el 6 por ciento de sus ingresos anuales globales.

    Impacto disruptivo

    La industria tecnológica ha expresado su preocupación por el marco regulatorio de la CE para la IA, argumentando que tales reglas podrían obstaculizar el progreso tecnológico. Los críticos señalan que la definición de sistemas de IA de "alto riesgo" en el marco no es clara. Por ejemplo, las grandes empresas de tecnología que utilizan IA para algoritmos de redes sociales o publicidad dirigida no se clasifican como de "alto riesgo", a pesar de que estas aplicaciones se han relacionado con diversos problemas sociales como la desinformación y la polarización. La CE responde a esto afirmando que las agencias nacionales de supervisión dentro de cada país de la UE tendrán la última palabra sobre lo que constituye una solicitud de alto riesgo, pero este enfoque podría generar inconsistencias entre los estados miembros.

    La Unión Europea (UE) no está actuando de forma aislada; Su objetivo es colaborar con Estados Unidos para establecer un estándar global para la ética de la IA. La Ley de Competencia Estratégica del Senado de Estados Unidos, publicada en abril de 2021, también exige la cooperación internacional para contrarrestar el "autoritarismo digital", una referencia velada a prácticas como el uso de la biometría por parte de China para la vigilancia masiva. Esta asociación transatlántica podría marcar la pauta para la ética global de la IA, pero también plantea interrogantes sobre cómo se harían cumplir esos estándares en todo el mundo. ¿Se adherirían a estas directrices los países con diferentes puntos de vista sobre la privacidad de los datos y los derechos individuales, como China y Rusia, o crearía esto un panorama fragmentado de la ética de la IA?

    Si estas regulaciones se convierten en ley a mediados o finales de la década de 2020, podrían tener un efecto dominó en la industria tecnológica y la fuerza laboral en la UE. Las empresas que operan en la UE pueden optar por aplicar estos cambios regulatorios a nivel global, alineando toda su operación con los nuevos estándares. Sin embargo, algunas organizaciones podrían considerar que las regulaciones son demasiado onerosas y optar por salir por completo del mercado de la UE. Ambos escenarios tendrían implicaciones para el empleo en el sector tecnológico de la UE. Por ejemplo, una salida masiva de empresas podría provocar pérdidas de empleos, mientras que la alineación global con los estándares de la UE podría hacer que los roles tecnológicos basados ​​en la UE sean más especializados y potencialmente más valiosos.

    Implicaciones para una mayor regulación de la IA en Europa

    Las implicaciones más amplias de que la CE quiera cada vez más regular la IA pueden incluir:

    • La UE y los EE. UU. firman un acuerdo de certificación mutua para empresas de IA, lo que da lugar a un conjunto armonizado de estándares éticos que las empresas deben seguir, independientemente de su ubicación geográfica.
    • Crecimiento en el campo especializado de la auditoría de IA, impulsado por una mayor colaboración entre empresas privadas y sectores públicos para garantizar el cumplimiento de las nuevas regulaciones.
    • Las naciones y las empresas del mundo en desarrollo obtienen acceso a servicios digitales que se adhieren a los estándares éticos de IA establecidos por las naciones occidentales, lo que potencialmente eleva la calidad y seguridad de estos servicios.
    • Un cambio en los modelos de negocio para priorizar las prácticas éticas de IA, atrayendo a consumidores cada vez más preocupados por la privacidad de los datos y el uso ético de la tecnología.
    • Los gobiernos adoptan la IA en servicios públicos como la atención médica y el transporte con mayor confianza, sabiendo que estas tecnologías cumplen con estándares éticos rigurosos.
    • Mayor inversión en programas educativos centrados en la IA ética, creando una nueva generación de tecnólogos bien versados ​​tanto en las capacidades de la IA como en las consideraciones éticas.
    • Las nuevas empresas tecnológicas más pequeñas enfrentan barreras de entrada debido a los altos costos del cumplimiento normativo, lo que podría sofocar la competencia y conducir a la consolidación del mercado.

    Preguntas a considerar

    • ¿Cree que los gobiernos deberían regular las tecnologías de IA y cómo se implementan?
    • ¿De qué otra manera podría afectar el aumento de la regulación dentro de la industria de la tecnología la forma en que operan las empresas del sector? 

    Referencias de información

    Se hizo referencia a los siguientes enlaces populares e institucionales para esta perspectiva: