Alineación de IA: los objetivos de inteligencia artificial coincidentes con los valores humanos

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

Alineación de IA: los objetivos de inteligencia artificial coincidentes con los valores humanos

Alineación de IA: los objetivos de inteligencia artificial coincidentes con los valores humanos

Subtítulo de texto
Algunos investigadores creen que se deben implementar medidas para garantizar que la inteligencia artificial no perjudique a la sociedad.
    • Escrito por:
    • Nombre del autor
      Previsión Quantumrun
    • Enero 25, 2023

    La alineación de la inteligencia artificial (IA) es cuando los objetivos de un sistema de IA coinciden con los valores humanos. Empresas como OpenAI, DeepMind y Anthropic cuentan con equipos de investigadores cuyo único objetivo es estudiar las medidas de protección para diferentes escenarios en los que esto podría suceder.

    Contexto de alineación de IA

    Según un estudio de investigación de la Universidad de Cornell de 2021, varios estudios han demostrado que las herramientas o modelos creados por algoritmos muestran sesgos provenientes de los datos con los que fueron entrenados. Por ejemplo, en el procesamiento del lenguaje natural (PNL), se han documentado modelos seleccionados de PNL entrenados en conjuntos de datos limitados que hacen predicciones basadas en estereotipos de género dañinos contra las mujeres. De manera similar, otros estudios encontraron que los algoritmos entrenados en conjuntos de datos manipulados dieron como resultado recomendaciones racialmente sesgadas, particularmente en la vigilancia.

    Hay muchos ejemplos en los que los sistemas de aprendizaje automático han funcionado peor para minorías o grupos que sufren múltiples desventajas. En particular, el análisis facial automatizado y los diagnósticos de atención médica generalmente no funcionan muy bien para las mujeres y las personas de color. Cuando los sistemas críticos que deberían basarse en hechos y lógica en lugar de emociones se utilizan en contextos como la asignación de atención médica o educación, pueden causar más daño al dificultar la identificación del razonamiento detrás de estas recomendaciones.

    Como resultado, las empresas tecnológicas están creando equipos de alineación de IA para centrarse en mantener los algoritmos justos y humanos. La investigación es esencial para comprender la dirección de los sistemas avanzados de IA, así como los desafíos que podríamos enfrentar a medida que crecen las capacidades de IA.

    Impacto disruptivo

    Según Jan Leike, jefe de alineación de IA en OpenAI (2021), dado que los sistemas de IA solo se volvieron capaces en la década de 2010, es comprensible que la mayoría de las investigaciones de alineación de IA hayan tenido una gran cantidad de teoría. Cuando se alinean sistemas de IA inmensamente poderosos, uno de los desafíos que enfrentan los humanos es que estas máquinas pueden crear soluciones que son demasiado complicadas para revisar y evaluar si tienen sentido ético.

    Leike ideó una estrategia de modelado de recompensa recursiva (RRM) para solucionar este problema. Con RRM, se enseñan varias IA "auxiliares" para ayudar a un humano a evaluar qué tan bien se desempeña una IA más compleja. Es optimista sobre la posibilidad de crear algo a lo que se refiere como un "MVP de alineación". En términos de inicio, un MVP (o producto mínimo viable) es el producto más simple posible que una empresa puede crear para probar una idea. La esperanza es que algún día, la IA coincida con el desempeño humano en la investigación de la IA y su alineación con los valores y, al mismo tiempo, sea funcional.

    Si bien el creciente interés en la alineación de la IA es positivo, muchos analistas en el campo piensan que gran parte del trabajo de "ética" en los principales laboratorios de IA son solo relaciones públicas diseñadas para hacer que las empresas de tecnología se vean bien y evitar la publicidad negativa. Estas personas no esperan que las prácticas de desarrollo ético se conviertan en una prioridad para estas empresas en el corto plazo.

    Estas observaciones resaltan la importancia de los enfoques interdisciplinarios para los esfuerzos de alineación de valores, ya que esta es un área relativamente nueva de investigación moral y técnica. Las diferentes ramas del conocimiento deben formar parte de una agenda de investigación inclusiva. Esta iniciativa también señala la necesidad de que los tecnólogos y los encargados de formular políticas permanezcan conscientes de su contexto social y de las partes interesadas, incluso cuando los sistemas de IA se vuelven más avanzados.

    Implicaciones de la alineación de la IA

    Las implicaciones más amplias de la alineación de la IA pueden incluir: 

    • Laboratorios de inteligencia artificial que contratan diversos consejos de ética para supervisar proyectos y cumplir con las pautas éticas de IA. 
    • Gobiernos que crean leyes que requieren que las empresas presenten su marco de IA responsable y cómo planean desarrollar aún más sus proyectos de IA.
    • Aumento de las controversias sobre el uso de algoritmos en el reclutamiento, la vigilancia pública y la aplicación de la ley.
    • Investigadores despedidos de grandes laboratorios de IA debido a conflictos de intereses entre la ética y los objetivos corporativos.
    • Más presión para que los gobiernos regulen los sistemas avanzados de inteligencia artificial que son increíblemente poderosos pero que potencialmente pueden violar los derechos humanos.

    Preguntas para comentar

    • ¿Cómo se puede responsabilizar a las empresas por los sistemas de IA que crean?
    • ¿Cuáles son los otros peligros potenciales si hay una desalineación de la IA?

    Referencias de información

    Se hizo referencia a los siguientes enlaces populares e institucionales para esta perspectiva: