Emotion AI: vogliamo che l'IA capisca i nostri sentimenti?

CREDITO IMMAGINE:
Immagine di credito
iStock

Emotion AI: vogliamo che l'IA capisca i nostri sentimenti?

Emotion AI: vogliamo che l'IA capisca i nostri sentimenti?

Testo del sottotitolo
Le aziende stanno investendo pesantemente nelle tecnologie di intelligenza artificiale per sfruttare le macchine in grado di analizzare le emozioni umane.
    • Autore:
    • Nome dell'autore
      Preveggenza quantistica
    • 6 settembre 2022

    Posta testo

    I sistemi di intelligenza artificiale (AI) stanno imparando a riconoscere le emozioni umane e a sfruttare tali informazioni in vari settori, dall'assistenza sanitaria alle campagne di marketing. Ad esempio, i siti Web utilizzano le emoticon per valutare il modo in cui gli spettatori rispondono ai loro contenuti. Tuttavia, l'intelligenza artificiale dell'emozione è tutto ciò che afferma di essere? 

    Contesto dell'IA delle emozioni

    L'intelligenza artificiale delle emozioni (nota anche come informatica affettiva o intelligenza emotiva artificiale) è un sottoinsieme dell'intelligenza artificiale che misura, comprende, simula e risponde alle emozioni umane. La disciplina risale al 1995 quando la professoressa di laboratorio del MIT Media Rosalind Picard pubblicò il libro "Affective Computing". Secondo il MIT Media Lab, l'IA delle emozioni consente un'interazione più naturale tra persone e macchine. Emotion AI tenta di rispondere a due domande: qual è lo stato emotivo dell'essere umano e come reagirà? Le risposte raccolte hanno un forte impatto sul modo in cui le macchine forniscono servizi e prodotti.

    L'intelligenza emotiva artificiale viene spesso scambiata con l'analisi del sentimento, ma sono diverse nella raccolta dei dati. L'analisi del sentiment si concentra sugli studi linguistici, come determinare le opinioni delle persone su argomenti specifici in base al tono dei loro post sui social media, blog e commenti. Tuttavia, l'IA delle emozioni si basa sul riconoscimento facciale e sulle espressioni per determinare il sentimento. Altri fattori di calcolo efficaci sono i modelli vocali e i dati fisiologici come i cambiamenti nel movimento degli occhi. Alcuni esperti considerano l'analisi del sentimento un sottoinsieme dell'IA delle emozioni ma con minori rischi per la privacy.

    Impatto dirompente

    Nel 2019, un gruppo di ricercatori interuniversitari, tra cui la Northeastern University negli Stati Uniti e l'Università di Glasgow, ha pubblicato studi che rivelano che l'IA emotiva non ha solide basi scientifiche. Lo studio ha evidenziato che non importa se gli esseri umani o l'IA stanno conducendo l'analisi; è difficile prevedere con precisione gli stati emotivi sulla base delle espressioni facciali. I ricercatori sostengono che le espressioni non sono impronte digitali che forniscono informazioni definitive e uniche su un individuo. Tuttavia, alcuni esperti non sono d'accordo con questa analisi. Il fondatore di Hume AI, Alan Cowen, ha affermato che gli algoritmi moderni hanno sviluppato set di dati e prototipi che corrispondono accuratamente alle emozioni umane. Hume AI, che ha raccolto $ 5 milioni di dollari in finanziamenti di investimento, utilizza set di dati di persone provenienti da Americhe, Africa e Asia per addestrare il suo sistema di intelligenza artificiale. 

    Altri attori emergenti nel campo dell'IA emotiva sono HireVue, Entropik, Emteq e Neurodata Labs. Entropik utilizza le espressioni facciali, lo sguardo, i toni della voce e le onde cerebrali per determinare l'impatto di una campagna di marketing. Una banca russa utilizza Neurodata per analizzare i sentimenti dei clienti quando chiama i rappresentanti del servizio clienti. 

    Anche Big Tech sta iniziando a sfruttare il potenziale dell'IA delle emozioni. Nel 2016, Apple ha acquistato Emotient, un'azienda con sede a San Diego che analizza le espressioni facciali. Alexa, l'assistente virtuale di Amazon, si scusa e chiarisce le sue risposte quando rileva che il suo utente è frustrato. Nel frattempo, la società di intelligenza artificiale di riconoscimento vocale di Microsoft, Nuance, può analizzare le emozioni dei conducenti in base alle loro espressioni facciali.

    Implicazioni dell'intelligenza artificiale

    Implicazioni più ampie dell'IA emotiva possono includere: 

    • Big Tech acquista più startup per espandere la propria ricerca e capacità sull'IA, incluso l'uso dell'IA emotiva nei veicoli a guida autonoma.
    • I dipartimenti del servizio clienti dei call center utilizzano l'IA delle emozioni per anticipare il comportamento dei clienti in base al tono della loro voce e ai cambiamenti nelle loro espressioni facciali.
    • Aumentare gli investimenti nella ricerca sull'informatica affettiva, comprese le partnership ampliate con università e istituti di ricerca globali.
    • Crescente pressione sui governi per regolamentare il modo in cui i dati facciali e biologici vengono raccolti, archiviati e utilizzati.
    • Approfondimento della discriminazione razziale e di genere attraverso disinformazione o analisi errate.

    Domande da commentare

    • Accosentiresti che le app di intelligenza artificiale per le emozioni scansionano le tue espressioni facciali e il tono della voce per anticipare le tue emozioni?
    • Quali sono i possibili rischi dell'intelligenza artificiale che potrebbe interpretare male le emozioni?

    Riferimenti di approfondimento

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa intuizione:

    Scuola di Sloan di gestione del MIT Emozione AI, spiegato