Emoción AI: Queremos que a IA comprenda os nosos sentimentos?
Emoción AI: Queremos que a IA comprenda os nosos sentimentos?
Emoción AI: Queremos que a IA comprenda os nosos sentimentos?
- autor:
- Setembro 6, 2022
Os sistemas de intelixencia artificial (IA) están aprendendo a recoñecer as emocións humanas e aproveitar esa información en varios sectores, desde a asistencia sanitaria ata as campañas de mercadotecnia. Por exemplo, os sitios web usan emoticonas para medir como responden os espectadores ao seu contido. Non obstante, é a IA a emoción todo o que di ser?
Contexto da IA da emoción
A IA emocional (tamén coñecida como computación afectiva ou intelixencia emocional artificial) é un subconxunto de IA que mide, comprende, simula e responde ás emocións humanas. A disciplina remóntase a 1995 cando a profesora do laboratorio de medios do MIT Rosalind Picard publicou o libro "Affective Computing". Segundo o MIT Media Lab, a IA das emocións permite unha interacción máis natural entre as persoas e as máquinas. Emotion AI intenta responder a dúas preguntas: cal é o estado emocional do humano e como reaccionarán? As respostas recollidas afectan moito a forma en que as máquinas ofrecen servizos e produtos.
A intelixencia emocional artificial adoita intercambiarse coa análise de sentimentos, pero son diferentes na recollida de datos. A análise de sentimentos céntrase nos estudos lingüísticos, como determinar as opinións das persoas sobre temas específicos segundo o ton das súas publicacións en redes sociais, blogs e comentarios. Non obstante, a IA das emocións depende do recoñecemento facial e das expresións para determinar o sentimento. Outros factores informáticos eficaces son os patróns de voz e os datos fisiolóxicos como os cambios no movemento dos ollos. Algúns expertos consideran que a análise de sentimentos é un subconxunto da intelixencia artificial emocional pero con menos riscos de privacidade.
Impacto perturbador
En 2019, un grupo de investigadores interuniversitarios, incluíndo a Northeastern University dos Estados Unidos e a Universidade de Glasgow, publicaron estudos que revelaban que a IA das emocións non ten unha base científica sólida. O estudo destacou que non importa se os humanos ou a IA están a realizar a análise; é un reto predicir con precisión os estados emocionais baseados nas expresións faciais. Os investigadores argumentan que as expresións non son pegadas dixitais que proporcionan información definitiva e única sobre un individuo. Non obstante, algúns expertos non están de acordo con esta análise. O fundador de Hume AI, Alan Cowen, argumentou que os algoritmos modernos desenvolveran conxuntos de datos e prototipos que corresponden con precisión ás emocións humanas. Hume AI, que recadou 5 millóns de dólares en fondos de investimento, utiliza conxuntos de datos de persoas de América, África e Asia para adestrar o seu sistema de intelixencia artificial para as emocións.
Outros xogadores emerxentes no campo da IA das emocións son HireVue, Entropik, Emteq e Neurodata Labs. Entropik usa as expresións faciais, a mirada dos ollos, os tons de voz e as ondas cerebrais para determinar o impacto dunha campaña de mercadotecnia. Un banco ruso usa Neurodata para analizar os sentimentos dos clientes cando chama aos representantes de atención ao cliente.
Incluso Big Tech está comezando a aproveitar o potencial da intelixencia artificial emocional. En 2016, Apple comprou Emotient, unha empresa con sede en San Diego que analiza as expresións faciais. Alexa, a asistente virtual de Amazon, pide desculpas e aclara as súas respostas cando detecta que o seu usuario está frustrado. Mentres tanto, a firma de intelixencia artificial de recoñecemento de voz de Microsoft, Nuance, pode analizar as emocións dos condutores en función das súas expresións faciais.
Implicacións da IA das emocións
As implicacións máis amplas da IA das emocións poden incluír:
- Big Tech compra máis startups para ampliar a súa investigación e as súas capacidades de IA, incluído o uso da IA de emocións en vehículos autónomos.
- Departamentos de atención ao cliente do centro de chamadas que usan a intelixencia artificial para anticipar o comportamento dos clientes en función do ton da súa voz e dos cambios nas súas expresións faciais.
- Aumento dos investimentos en investigación en computación afectiva, incluíndo asociacións ampliadas con universidades e institucións de investigación globais.
- Aumento da presión para que os gobernos regulen como se recollen, almacenan e usan os datos faciais e biolóxicos.
- Afondar na discriminación racial e de xénero mediante información errónea ou análises erróneas.
Preguntas para comentar
- Consentirías que as aplicacións de intelixencia artificial de emocións escaneen as túas expresións faciais e o ton de voz para anticipar as túas emocións?
- Cales son os posibles riscos de que a IA poida malinterpretar as emocións?
Referencias de insight
As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: