Aliñación da intelixencia artificial: os obxectivos de intelixencia artificial coinciden cos valores humanos

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Aliñación da intelixencia artificial: os obxectivos de intelixencia artificial coinciden cos valores humanos

Aliñación da intelixencia artificial: os obxectivos de intelixencia artificial coinciden cos valores humanos

Texto do subtítulo
Algúns investigadores consideran que se deben implementar medidas para garantir que a intelixencia artificial non prexudique á sociedade.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Xaneiro 25, 2023

    O aliñamento da intelixencia artificial (IA) é cando os obxectivos dun sistema de IA coinciden cos valores humanos. Empresas como OpenAI, DeepMind e Anthropic contan con equipos de investigadores cuxo único foco é estudar gardais para diferentes escenarios nos que isto poida ocorrer.

    Contexto de aliñamento da IA

    Segundo un estudo de investigación da Universidade de Cornell de 2021, varios estudos demostraron que as ferramentas ou modelos creados por algoritmos mostran sesgos procedentes dos datos nos que se adestraron. Por exemplo, no procesamento da linguaxe natural (PNL), documentáronse modelos seleccionados de PNL adestrados en conxuntos de datos limitados facendo predicións baseadas en estereotipos de xénero nocivos contra as mulleres. Do mesmo xeito, outros estudos descubriron que os algoritmos adestrados en conxuntos de datos manipulados deron lugar a recomendacións racialmente sesgadas, especialmente na policía.

    Hai moitos exemplos nos que os sistemas de aprendizaxe automática fixeron peor ás minorías ou aos grupos que sofren múltiples desvantaxes. En particular, as análises faciales automatizadas e os diagnósticos sanitarios normalmente non funcionan moi ben para as mulleres e as persoas de cor. Cando se usan sistemas críticos que deberían basearse en feitos e lóxica en lugar de emocións en contextos como a asignación da asistencia sanitaria ou a educación, poden facer máis dano ao dificultar a identificación do razoamento detrás destas recomendacións.

    Como resultado, as empresas tecnolóxicas están creando equipos de aliñamento de IA para centrarse en manter os algoritmos xustos e humanos. A investigación é esencial para comprender a dirección dos sistemas avanzados de IA, así como os retos aos que nos podemos enfrontar a medida que medran as capacidades de IA.

    Impacto perturbador

    Segundo Jan Leike, xefe de aliñamento de IA en OpenAI (2021), dado que os sistemas de IA só se fixeron capaces na década de 2010, é comprensible que a maioría das investigacións sobre o aliñamento de IA teñan unha gran cantidade de teoría. Cando se aliñan sistemas de IA inmensamente poderosos, un dos retos aos que se enfrontan os humanos é que estas máquinas poden crear solucións demasiado complicadas para revisar e avaliar se teñen sentido éticamente.

    Leike deseñou unha estratexia de modelado de recompensa recursiva (RRM) para solucionar este problema. Con RRM, ensínaselles varias IAs "axudantes" para axudar a un humano a avaliar o rendemento dunha IA máis complexa. É optimista sobre a posibilidade de crear algo ao que se refire como "MVP de aliñación". En termos de inicio, un MVP (ou produto mínimo viable) é o produto máis sinxelo posible que unha empresa pode construír para probar unha idea. A esperanza é que algún día, a IA coincida co rendemento humano na investigación da IA ​​e a súa aliñación cos valores á vez que sexa funcional.

    Aínda que o aumento do interese polo aliñamento da IA ​​é un neto positivo, moitos analistas no campo pensan que gran parte do traballo de "ética" nos principais laboratorios de IA son só relacións públicas deseñadas para que as empresas tecnolóxicas se vexan ben e eviten a publicidade negativa. Estes individuos non esperan que as prácticas de desenvolvemento ético se convertan nunha prioridade para estas empresas en breve.

    Estas observacións destacan a importancia dos enfoques interdisciplinarios para os esforzos de aliñamento de valores, xa que esta é unha área relativamente nova de investigación moral e técnica. As diferentes ramas do coñecemento deberían formar parte dunha axenda de investigación inclusiva. Esta iniciativa tamén sinala a necesidade de que os tecnólogos e os responsables políticos sigan conscientes do seu contexto social e das partes interesadas, aínda que os sistemas de IA se van facendo máis avanzados.

    Implicacións do aliñamento da IA

    As implicacións máis amplas do aliñamento da IA ​​poden incluír: 

    • Os laboratorios de intelixencia artificial contratan diversos consellos de ética para supervisar proxectos e cumprir as directrices éticas de IA. 
    • Os gobernos crean leis que obrigan ás empresas a presentar o seu marco de IA responsable e como planean desenvolver aínda máis os seus proxectos de IA.
    • Aumento das controversias sobre o uso de algoritmos na contratación, vixilancia pública e aplicación da lei.
    • Os investigadores son despedidos de grandes laboratorios de IA debido a conflitos de intereses entre a ética e os obxectivos corporativos.
    • Máis presión para que os gobernos regulen os sistemas avanzados de IA que son incriblemente poderosos pero que poden violar os dereitos humanos.

    Preguntas para comentar

    • Como se poden responsabilizar as empresas dos sistemas de IA que crean?
    • Cales son os outros perigos potenciais se hai un desaxuste da IA?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: