Emoción AI: Queremos que a IA comprenda os nosos sentimentos?

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Emoción AI: Queremos que a IA comprenda os nosos sentimentos?

Emoción AI: Queremos que a IA comprenda os nosos sentimentos?

Texto do subtítulo
As empresas están a investir moito en tecnoloxías de IA para sacar proveito de que as máquinas poidan analizar as emocións humanas.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Setembro 6, 2022

    Os sistemas de intelixencia artificial (IA) están aprendendo a recoñecer as emocións humanas e aproveitar esa información en varios sectores, desde a asistencia sanitaria ata as campañas de mercadotecnia. Por exemplo, os sitios web usan emoticonas para medir como responden os espectadores ao seu contido. Non obstante, é a IA a emoción todo o que di ser? 

    Contexto da IA ​​da emoción

    A IA emocional (tamén coñecida como computación afectiva ou intelixencia emocional artificial) é un subconxunto de IA que mide, comprende, simula e responde ás emocións humanas. A disciplina remóntase a 1995 cando a profesora do laboratorio de medios do MIT Rosalind Picard publicou o libro "Affective Computing". Segundo o MIT Media Lab, a IA das emocións permite unha interacción máis natural entre as persoas e as máquinas. Emotion AI intenta responder a dúas preguntas: cal é o estado emocional do humano e como reaccionarán? As respostas recollidas afectan moito a forma en que as máquinas ofrecen servizos e produtos.

    A intelixencia emocional artificial adoita intercambiarse coa análise de sentimentos, pero son diferentes na recollida de datos. A análise de sentimentos céntrase nos estudos lingüísticos, como determinar as opinións das persoas sobre temas específicos segundo o ton das súas publicacións en redes sociais, blogs e comentarios. Non obstante, a IA das emocións depende do recoñecemento facial e das expresións para determinar o sentimento. Outros factores informáticos eficaces son os patróns de voz e os datos fisiolóxicos como os cambios no movemento dos ollos. Algúns expertos consideran que a análise de sentimentos é un subconxunto da intelixencia artificial emocional pero con menos riscos de privacidade.

    Impacto perturbador

    En 2019, un grupo de investigadores interuniversitarios, incluíndo a Northeastern University dos Estados Unidos e a Universidade de Glasgow, publicaron estudos que revelaban que a IA das emocións non ten unha base científica sólida. O estudo destacou que non importa se os humanos ou a IA están a realizar a análise; é un reto predicir con precisión os estados emocionais baseados nas expresións faciais. Os investigadores argumentan que as expresións non son pegadas dixitais que proporcionan información definitiva e única sobre un individuo. Non obstante, algúns expertos non están de acordo con esta análise. O fundador de Hume AI, Alan Cowen, argumentou que os algoritmos modernos desenvolveran conxuntos de datos e prototipos que corresponden con precisión ás emocións humanas. Hume AI, que recadou 5 millóns de dólares en fondos de investimento, utiliza conxuntos de datos de persoas de América, África e Asia para adestrar o seu sistema de intelixencia artificial para as emocións. 

    Outros xogadores emerxentes no campo da IA ​​das emocións son HireVue, Entropik, Emteq e Neurodata Labs. Entropik usa as expresións faciais, a mirada dos ollos, os tons de voz e as ondas cerebrais para determinar o impacto dunha campaña de mercadotecnia. Un banco ruso usa Neurodata para analizar os sentimentos dos clientes cando chama aos representantes de atención ao cliente. 

    Incluso Big Tech está comezando a aproveitar o potencial da intelixencia artificial emocional. En 2016, Apple comprou Emotient, unha empresa con sede en San Diego que analiza as expresións faciais. Alexa, a asistente virtual de Amazon, pide desculpas e aclara as súas respostas cando detecta que o seu usuario está frustrado. Mentres tanto, a firma de intelixencia artificial de recoñecemento de voz de Microsoft, Nuance, pode analizar as emocións dos condutores en función das súas expresións faciais.

    Implicacións da IA ​​das emocións

    As implicacións máis amplas da IA ​​das emocións poden incluír: 

    • Big Tech compra máis startups para ampliar a súa investigación e as súas capacidades de IA, incluído o uso da IA ​​de emocións en vehículos autónomos.
    • Departamentos de atención ao cliente do centro de chamadas que usan a intelixencia artificial para anticipar o comportamento dos clientes en función do ton da súa voz e dos cambios nas súas expresións faciais.
    • Aumento dos investimentos en investigación en computación afectiva, incluíndo asociacións ampliadas con universidades e institucións de investigación globais.
    • Aumento da presión para que os gobernos regulen como se recollen, almacenan e usan os datos faciais e biolóxicos.
    • Afondar na discriminación racial e de xénero mediante información errónea ou análises erróneas.

    Preguntas para comentar

    • Consentirías que as aplicacións de intelixencia artificial de emocións escaneen as túas expresións faciais e o ton de voz para anticipar as túas emocións?
    • Cales son os posibles riscos de que a IA poida malinterpretar as emocións?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión:

    MIT Management Sloan School Emoción AI, explicou