AI TRiSM: Garantir que a IA siga sendo ética

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

AI TRiSM: Garantir que a IA siga sendo ética

AI TRiSM: Garantir que a IA siga sendo ética

Texto do subtítulo
Instáselles ás empresas a crear estándares e políticas que definan claramente os límites da intelixencia artificial.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Outubro 20, 2023

    Resumo de insight

    En 2022, a empresa de investigación Gartner presentou AI TRiSM, que significa AI Trust, Risk, and Security Management, para garantir o goberno e a fiabilidade dos modelos de IA. O marco consta de cinco piares: explicabilidade, operacións do modelo, detección de anomalías de datos, resistencia aos ataques adversarios e protección de datos. O informe destaca que unha mala xestión dos riscos da IA ​​pode provocar perdas importantes e violacións de seguridade. A implementación de AI TRiSM require un equipo multifuncional de análise legal, de conformidade, de TI e de datos. O marco ten como obxectivo construír unha cultura de "IA responsable", centrándose en cuestións éticas e legais, e é probable que inflúa nas tendencias de contratación, as regulacións gobernamentais e as consideracións éticas na IA.

    Contexto AI TRiSM

    Segundo Gartner, hai cinco piares para AI TriSM: explicabilidade, Operacións de modelos (ModelOps), detección de anomalías de datos, resistencia ao ataque adversario e protección de datos. Con base nas proxeccións de Gartner, as organizacións que implementan estes piares verán un aumento do 50 por cento no rendemento do seu modelo de IA en relación coa adopción, os obxectivos comerciais e a aceptación dos usuarios para 2026. Ademais, as máquinas que funcionan con IA representarán o 20 por cento da forza de traballo mundial. e achegar o 40 por cento da produtividade económica global para 2028.

    Os resultados da enquisa de Gartner suxiren que moitas organizacións implementaron centos ou miles de modelos de IA que os executivos de TI non poden comprender nin interpretar. As organizacións que non xestionan adecuadamente os riscos relacionados coa IA son significativamente máis propensas a atopar resultados desfavorables e incumprimentos. É posible que os modelos non funcionen segundo o previsto, provocando violacións da seguridade e da privacidade e danos financeiros, individuais e reputacionais. A implementación inexacta da IA ​​tamén pode provocar que as organizacións tomen decisións comerciais erróneas.

    Para implementar con éxito AI TRiSM, requírese un equipo multifuncional de persoal legal, de cumprimento, de seguridade, de TI e de análise de datos. Establecer un equipo ou grupo de traballo dedicado con representación adecuada de cada área de negocio implicada no proxecto de IA tamén producirá resultados óptimos. Tamén é esencial asegurarse de que cada membro do equipo comprenda claramente os seus roles e responsabilidades, así como os obxectivos e obxectivos da iniciativa AI TRiSM.

    Impacto perturbador

    Para que a IA sexa segura, Gartner recomenda varios pasos vitais. En primeiro lugar, as organizacións deben comprender os riscos potenciais asociados á IA e como mitigalos. Este esforzo require unha avaliación integral do risco que considere non só a tecnoloxía en si, senón tamén o seu impacto nas persoas, os procesos e o medio ambiente.

    En segundo lugar, as organizacións deben investir no goberno da IA, que inclúe políticas, procedementos e controis para xestionar os riscos da IA. Esta estratexia inclúe garantir que os sistemas de IA sexan transparentes, explicables, responsables e cumpran coas leis e regulamentos pertinentes. Ademais, o seguimento e a auditoría continua dos modelos de IA son cruciais para identificar e mitigar os posibles riscos que poidan xurdir co paso do tempo. Finalmente, as organizacións deben desenvolver unha cultura de seguridade da IA, promovendo a concienciación, a educación e a formación entre os empregados e as partes interesadas. Estes pasos inclúen formación sobre o uso ético da IA, os riscos asociados á IA e como identificar e informar problemas ou preocupacións. 

    Estes esforzos probablemente farán que máis empresas creen os seus departamentos de IA responsable. Este marco de goberno emerxente aborda os obstáculos legais e éticos relacionados coa IA documentando como as organizacións abordan eles. O marco e as súas iniciativas asociadas queren eliminar a ambigüidade para evitar consecuencias negativas non desexadas. Os principios dun marco de IA responsable céntranse en deseñar, desenvolver e usar a IA de xeito que beneficie aos empregados, proporcione valor aos clientes e teña un impacto positivo na sociedade.

    Implicacións de AI TRiSM

    As implicacións máis amplas de AI TRiSM poden incluír: 

    • A medida que AI TRiSM se fai cada vez máis importante, as empresas terán que contratar traballadores máis cualificados e coñecedores neste campo, como analistas de seguridade de IA, xestores de riscos e éticos.
    • Novas consideracións éticas e morais, como a necesidade de transparencia, equidade e responsabilidade no uso de sistemas de IA.
    • Innovacións aumentadas con IA que son seguras, fiables e fiables.
    • Aumento da presión para que a regulación gobernamental protexa ás persoas e ás organizacións dos riscos asociados aos sistemas de IA.
    • Un maior enfoque en garantir que os sistemas de IA non estean sesgados contra determinados grupos ou individuos.
    • Novas oportunidades para aqueles con habilidades de IA e, potencialmente, desprazar aos que non as teñen.
    • Aumento do consumo de enerxía e da capacidade de almacenamento de datos para datos de adestramento constantemente actualizados.
    • Máis empresas multadas por non adoptar estándares globais de IA responsable.

    Preguntas a ter en conta

    • Se traballas en IA, como está a adestrar a túa empresa os seus algoritmos para que sexan éticos?
    • Cales son os retos de construír sistemas de IA responsables?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: