Seguro de responsabilidade civil por intelixencia artificial: quen debería ser responsable cando a IA falla?

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Seguro de responsabilidade civil por intelixencia artificial: quen debería ser responsable cando a IA falla?

Seguro de responsabilidade civil por intelixencia artificial: quen debería ser responsable cando a IA falla?

Texto do subtítulo
A medida que a tecnoloxía de intelixencia artificial se fai máis sofisticada, as empresas corren cada vez máis risco de sufrir danos causados ​​por fallas de aprendizaxe automática.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Agosto 5, 2022

    Resumo de insight

    A medida que as empresas integran intelixencia artificial e aprendizaxe automática (AI/ML), están xurdindo pólizas de seguro especializadas para abordar riscos únicos como a corrupción de datos e o roubo de modelos. Estas políticas específicas de IA/ML difiren dos seguros cibernéticos tradicionais e teñen como obxectivo problemas máis aló dos fallos do sistema dixital, como os danos físicos inducidos pola IA. O uso crecente da IA ​​está a xerar novos marcos legais, funcións laborais especializadas e estándares intersectoriales, que inflúen en todo, desde a protección do consumidor ata as prioridades de investigación da IA.

    Contexto do seguro de responsabilidade civil da IA

    As empresas están a integrar cada vez máis a IA/ML nas súas operacións, o que leva á aparición de pólizas de seguro especializadas. Estas políticas están deseñadas para mitigar os riscos exclusivos das aplicacións de IA e ML. Aínda que aínda están en fases incipientes, estas pólizas de seguro específicas de IA/ML están a ser esenciais a medida que as empresas amplían o seu uso destas tecnoloxías. A cobertura exacta destas políticas aínda non está totalmente definida, pero espérase que aborden problemas como a corrupción de datos, o roubo de propiedade intelectual relacionado con modelos de IA e as perdas por ataques adversarios.

    Hai unha clara diferenza entre o seguro cibernético xeral e o seguro específico de IA/ML. O seguro cibernético tradicional adoita abordar os fallos do sistema dixital, abarcando aspectos como as interrupcións nas operacións comerciais e as responsabilidades relacionadas coa seguridade da información e as violacións da privacidade. Non obstante, o seguro específico de IA/ML céntrase nos riscos únicos que supón o uso de tecnoloxías de IA. Por exemplo, é posible que o seguro cibernético xeral non cubra os danos derivados de fallos do sistema de IA que causen danos físicos ou danos significativos á marca.

    Casos como o accidente do coche autónomo de Uber en Arizona, que resultou na morte dun peón, destacan a necesidade dunha cobertura específica da IA. Os seguros cibernéticos tradicionais, enraizados no seguro de liña financeira, adoitan excluír tales responsabilidades. Do mesmo xeito, cando o motor antivirus baseado en intelixencia artificial de Blackberry Security identificou por erro un ransomware prexudicial como benigno, o posible dano da marca derivado de tal incidente normalmente non estaría cuberto polo seguro cibernético convencional. 

    Impacto perturbador

    Os sistemas de intelixencia artificial non son perfectos. Por exemplo, poden identificar mal un rostro ou provocar que un vehículo autónomo choque contra outro coche. Cando isto ocorre, pódese dicir que o sistema de IA é "sesgado" ou "propenso a erros". Tales erros potenciais son os motivos polo que é crucial comprender como funciona a IA. Cando algo falla cun sistema de IA, quen é o responsable? Son as persoas que fixeron o sistema de IA ou os que o usaron? Estes casos representan unha cuestión desafiante nun campo emerxente do dereito. Ás veces está claro quen é o responsable, e outras non. Por exemplo, quen é o responsable se se usa un sistema de IA para tomar unha decisión financeira e perde diñeiro? Estes casos son nos que o seguro de IA/ML pode axudar a identificar ou aclarar responsabilidades.

    Hai moita discusión sobre como a IA será responsable das súas accións. Algúns analistas do sector suxiren que a IA debería ter personalidade xurídica para que poida posuír cousas e ser demandada nos tribunais. Outra proposta é que o goberno teña un sistema onde os expertos aproben algoritmos (dunha escala particular) antes de que se utilicen publicamente. Estes equipos de supervisión poderían garantir que os novos algoritmos comerciais ou do sector público cumpran estándares específicos. 

    Algunhas xurisdicións, como Estados Unidos e Europa, publicaron as súas propias normativas específicas sobre a IA que supervisan como se pode facer responsable da IA. Os EE. UU. teñen a Lei de Informes de Crédito Xusto e a Lei de Igualdade de Oportunidades de Crédito, que agora prohiben as actividades enganosas e fraudulentas relacionadas coa toma de decisións automatizada impulsada pola IA. Mentres tanto, a Unión Europea publicou unha proposta para a Lei de Intelixencia Artificial en 2021, un marco legal completo centrado na supervisión das aplicacións de IA de alto risco. Ademais, é necesario un seguro de responsabilidade civil da IA ​​para manter a confianza do público e pode ser requirido polos operadores de sistemas de IA de alto risco.

    Implicacións do seguro de responsabilidade civil da IA 

    As implicacións máis amplas do seguro de responsabilidade civil da IA ​​poden incluír:

    • Compañías de seguros que ofrecen amplos plans de seguro de responsabilidade civil de IA/ML, que permiten mellorar a xestión do risco para tecnoloxías emerxentes como os coches autónomos, a IA na asistencia sanitaria e os sistemas financeiros automatizados.
    • Os gobernos promulgan leis de responsabilidade de IA precisas, o que resulta en regulacións máis estritas para os provedores de servizos de IA estranxeiros e en multas potencialmente fortes para as empresas multinacionais en caso de incidentes relacionados coa IA.
    • Empresas que establecen equipos dedicados á supervisión da IA, mellorando a rendición de contas e a seguridade nos despregamentos de IA mediante a participación de científicos de datos, expertos en seguridade e xestores de riscos.
    • A formación de asociacións intersectoriales para establecer estándares de responsabilidade da IA, contribuíndo a un uso responsable da IA ​​e influíndo nas métricas ambientais, sociais e de goberno (ESG) para a orientación dos investidores.
    • Aumento do escepticismo público cara á IA, impulsado por fallas de alto perfil da IA, o que leva a un enfoque cauteloso para a adopción da IA ​​e a demanda dunha maior transparencia nas operacións da IA.
    • Un aumento das prácticas legais especializadas centradas en casos relacionados coa IA, que ofrecen experiencia para navegar polas complexidades da tecnoloxía da IA ​​e os seus impactos sociais.
    • Marcos de protección do consumidor mellorados para abordar os danos relacionados coa IA, garantindo unha compensación xusta e dereitos para as persoas afectadas por erros ou mal funcionamento da IA.
    • Unha evolución nos roles laborais e nos requisitos de habilidades, cunha necesidade crecente de profesionais formados en ética da IA, avaliación de riscos e cumprimento legal.
    • Un cambio nas prioridades de investigación da IA, facendo fincapé no desenvolvemento de sistemas de IA máis seguros e fiables en resposta ao aumento das preocupacións de responsabilidade e dos requisitos de seguro.
    • Cambios nos programas de educación e formación en IA, centrándose no desenvolvemento ético da IA ​​e na xestión de riscos para preparar os futuros profesionais para o panorama en evolución da IA ​​e as súas implicacións.

    Preguntas a ter en conta

    • Quen cres que debería ser responsable dos fallos do sistema de IA?
    • Como cres que se adaptaría a industria dos seguros ao aumento das responsabilidades da IA?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión:

    Dereito empresarial de Harvard O caso de AI Insurance