Sesgo de la inteligencia artificial: las máquinas no son tan objetivas como esperábamos

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

Sesgo de la inteligencia artificial: las máquinas no son tan objetivas como esperábamos

Sesgo de la inteligencia artificial: las máquinas no son tan objetivas como esperábamos

Subtítulo de texto
Todos están de acuerdo en que la IA debería ser imparcial, pero eliminar los sesgos está resultando problemático.
    • Escrito por:
    • Nombre del autor
      Previsión Quantumrun
    • Febrero 8, 2022

    Resumen de información

    Si bien las tecnologías basadas en datos prometen fomentar una sociedad justa, a menudo reflejan los mismos prejuicios que albergan los humanos, lo que conduce a posibles injusticias. Por ejemplo, los sesgos en los sistemas de inteligencia artificial (IA) pueden empeorar inadvertidamente estereotipos dañinos. Sin embargo, se están realizando esfuerzos para hacer que los sistemas de IA sean más equitativos, aunque esto plantea preguntas complejas sobre el equilibrio entre utilidad y justicia, y la necesidad de una regulación cuidadosa y diversidad en los equipos tecnológicos.

    Contexto general del sesgo de la IA

    La esperanza es que las tecnologías impulsadas por datos ayuden a la humanidad a establecer una sociedad donde la justicia sea la norma para todos. Sin embargo, la realidad actual pinta un panorama diferente. Muchos de los prejuicios que tenemos los humanos, que han llevado a injusticias en el pasado, ahora se reflejan en los algoritmos que gobiernan nuestro mundo digital. Estos sesgos en los sistemas de IA a menudo surgen de prejuicios de las personas que desarrollan estos sistemas, y estos sesgos con frecuencia se filtran en su trabajo.

    Tomemos, por ejemplo, un proyecto de 2012 conocido como ImageNet, que buscaba colaborar en el etiquetado de imágenes para el entrenamiento de sistemas de aprendizaje automático. Posteriormente, una gran red neuronal entrenada con estos datos pudo identificar objetos con una precisión impresionante. Sin embargo, tras una inspección más cercana, los investigadores descubrieron sesgos ocultos en los datos de ImageNet. En un caso particular, un algoritmo entrenado con estos datos estaba sesgado hacia la suposición de que todos los programadores de software son hombres blancos.

    Este sesgo podría potencialmente dar lugar a que se pase por alto a las mujeres para dichos roles cuando el proceso de contratación está automatizado. Los sesgos se abrieron paso en los conjuntos de datos porque el individuo que agregaba etiquetas a las imágenes de "mujer" incluía una etiqueta adicional que consistía en un término despectivo. Este ejemplo ilustra cómo los sesgos, ya sean intencionales o no, pueden infiltrarse incluso en los sistemas de inteligencia artificial más sofisticados, perpetuando potencialmente estereotipos y desigualdades dañinos.

    Impacto disruptivo 

    Investigadores de diversas organizaciones públicas y privadas han iniciado esfuerzos para abordar el sesgo en los datos y algoritmos. En el caso del proyecto ImageNet, por ejemplo, se recurrió al crowdsourcing para identificar y eliminar términos de etiquetado que arrojaran una luz despectiva sobre ciertas imágenes. Estas medidas demostraron que, de hecho, es posible reconfigurar los sistemas de IA para que sean más equitativos.

    Sin embargo, algunos expertos sostienen que eliminar el sesgo podría potencialmente hacer que un conjunto de datos sea menos efectivo, particularmente cuando hay múltiples sesgos en juego. Un conjunto de datos despojado de ciertos sesgos puede acabar careciendo de información suficiente para un uso eficaz. Plantea la cuestión de cómo sería un conjunto de datos de imágenes verdaderamente diverso y cómo podría utilizarse sin comprometer su utilidad.

    Esta tendencia subraya la necesidad de un enfoque reflexivo sobre el uso de la IA y las tecnologías basadas en datos. Para las empresas, esto podría significar invertir en herramientas de detección de prejuicios y promover la diversidad en los equipos tecnológicos. Para los gobiernos, podría implicar implementar regulaciones para garantizar el uso justo de la IA. 

    Implicaciones del sesgo de la IA

    Las implicaciones más amplias del sesgo de la IA pueden incluir:

    • Las organizaciones son proactivas para garantizar la equidad y la no discriminación al aprovechar la IA para mejorar la productividad y el rendimiento. 
    • Tener un especialista en ética de la IA en los equipos de desarrollo para detectar y mitigar los riesgos éticos en las primeras etapas de un proyecto. 
    • Diseñar productos de IA teniendo claramente en cuenta factores de diversidad como el género, la raza, la clase y la cultura.
    • Conseguir representantes de los diversos grupos que utilizarán el producto de IA de una empresa para probarlo antes de su lanzamiento.
    • Se restringen varios servicios públicos a ciertos miembros del público.
    • Ciertos miembros del público no pueden acceder o calificar para ciertas oportunidades de trabajo.
    • Las agencias de aplicación de la ley y los profesionales apuntan injustamente a ciertos miembros de la sociedad más que a otros. 

    Preguntas a considerar

    • ¿Es optimista de que la toma de decisiones automatizada será justa en el futuro?
    • ¿Qué pasa con la toma de decisiones de la IA que te pone más nervioso?

    Referencias de información

    Se hizo referencia a los siguientes enlaces populares e institucionales para esta perspectiva: