AI emocional: ¿Queremos que la IA comprenda nuestros sentimientos?

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

AI emocional: ¿Queremos que la IA comprenda nuestros sentimientos?

AI emocional: ¿Queremos que la IA comprenda nuestros sentimientos?

Subtítulo de texto
Las empresas están invirtiendo fuertemente en tecnologías de inteligencia artificial para sacar provecho de las máquinas que pueden analizar las emociones humanas.
    • Autor:
    • Nombre del autor
      Previsión Quantumrun
    • 6 de septiembre de 2022

    Publicar texto

    Los sistemas de inteligencia artificial (IA) están aprendiendo a reconocer las emociones humanas y aprovechar esa información en varios sectores, desde la atención médica hasta las campañas de marketing. Por ejemplo, los sitios web usan emoticonos para evaluar cómo responden los espectadores a su contenido. Sin embargo, ¿la IA emocional es todo lo que dice ser? 

    Contexto de inteligencia artificial emocional

    La IA emocional (también conocida como computación afectiva o inteligencia emocional artificial) es un subconjunto de la IA que mide, comprende, simula y responde a las emociones humanas. La disciplina se remonta a 1995, cuando la profesora del laboratorio de medios del MIT, Rosalind Picard, publicó el libro "Informática afectiva". Según el MIT Media Lab, la IA emocional permite una interacción más natural entre personas y máquinas. Emotion AI intenta responder a dos preguntas: ¿cuál es el estado emocional del ser humano y cómo reaccionará? Las respuestas recopiladas tienen un gran impacto en la forma en que las máquinas brindan servicios y productos.

    La inteligencia emocional artificial a menudo se intercambia con el análisis de sentimientos, pero son diferentes en la recopilación de datos. El análisis de sentimientos se centra en los estudios de idiomas, como determinar las opiniones de las personas sobre temas específicos de acuerdo con el tono de sus publicaciones, blogs y comentarios en las redes sociales. Sin embargo, la inteligencia artificial emocional se basa en el reconocimiento facial y las expresiones para determinar el sentimiento. Otros factores informáticos efectivos son los patrones de voz y los datos fisiológicos, como los cambios en el movimiento de los ojos. Algunos expertos consideran que el análisis de sentimientos es un subconjunto de la inteligencia artificial emocional, pero con menos riesgos para la privacidad.

    Impacto disruptivo

    En 2019, un grupo de investigadores interuniversitarios, incluida la Universidad Northeastern en los EE. UU. y la Universidad de Glasgow, publicaron estudios que revelan que la IA emocional no tiene una base científica sólida. El estudio destacó que no importa si los humanos o la IA están realizando el análisis; es un desafío predecir con precisión los estados emocionales en función de las expresiones faciales. Los investigadores argumentan que las expresiones no son huellas dactilares que brindan información definitiva y única sobre un individuo. Sin embargo, algunos expertos no están de acuerdo con este análisis. El fundador de Hume AI, Alan Cowen, argumentó que los algoritmos modernos habían desarrollado conjuntos de datos y prototipos que corresponden con precisión a las emociones humanas. Hume AI, que recaudó $ 5 millones de dólares en fondos de inversión, utiliza conjuntos de datos de personas de las Américas, África y Asia para entrenar su sistema de inteligencia artificial emocional. 

    Otros jugadores emergentes en el campo de la IA emocional son HireVue, Entropik, Emteq y Neurodata Labs. Entropik utiliza expresiones faciales, miradas, tonos de voz y ondas cerebrales para determinar el impacto de una campaña de marketing. Un banco ruso usa Neurodata para analizar los sentimientos de los clientes cuando llama a los representantes de servicio al cliente. 

    Incluso Big Tech está comenzando a capitalizar el potencial de la inteligencia artificial emocional. En 2016, Apple compró Emotient, una empresa de análisis de expresiones faciales con sede en San Diego. Alexa, el asistente virtual de Amazon, pide disculpas y aclara sus respuestas cuando detecta que su usuario está frustrado. Mientras tanto, la firma de IA de reconocimiento de voz de Microsoft, Nuance, puede analizar las emociones de los conductores en función de sus expresiones faciales.

    Implicaciones de la emoción AI

    Las implicaciones más amplias de la IA emocional pueden incluir: 

    • Big Tech compra más nuevas empresas para expandir su investigación y capacidades de IA, incluido el uso de IA emocional en vehículos autónomos.
    • Los departamentos de atención al cliente de los centros de atención telefónica utilizan AI emocional para anticipar el comportamiento del cliente en función del tono de su voz y los cambios en sus expresiones faciales.
    • Aumentar las inversiones en investigación de computación afectiva, incluida la ampliación de asociaciones con universidades e instituciones de investigación globales.
    • Aumento de la presión para que los gobiernos regulen cómo se recopilan, almacenan y utilizan los datos faciales y biológicos.
    • Profundización de la discriminación racial y de género a través de la desinformación o análisis erróneos.

    Preguntas para comentar

    • ¿Aceptaría que las aplicaciones de IA de emociones escaneen sus expresiones faciales y tono de voz para anticipar sus emociones?
    • ¿Cuáles son los posibles riesgos de que la IA interprete mal las emociones?

    Referencias de información

    Se hizo referencia a los siguientes enlaces populares e institucionales para esta perspectiva:

    Escuela Sloan de Gestión del MIT IA emocional, explicada