Emotion AI: Vil vi at AI skal forstå følelsene våre?

BILDEKREDITT:
Bilde kreditt
iStock

Emotion AI: Vil vi at AI skal forstå følelsene våre?

Emotion AI: Vil vi at AI skal forstå følelsene våre?

Underoverskriftstekst
Bedrifter investerer tungt i AI-teknologier for å utnytte maskiner som kan analysere menneskelige følelser.
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • September 6, 2022

    Legg ut tekst

    Kunstig intelligens (AI)-systemer lærer å gjenkjenne menneskelige følelser og utnytte denne informasjonen i ulike sektorer, fra helsetjenester til markedsføringskampanjer. For eksempel bruker nettsteder uttrykksikoner for å måle hvordan seerne reagerer på innholdet deres. Men er emotion AI alt det den hevder å være? 

    Emotion AI-kontekst

    Emotion AI (også kjent som affektiv databehandling eller kunstig emosjonell intelligens) er en undergruppe av AI som måler, forstår, simulerer og reagerer på menneskelige følelser. Disiplinen går tilbake til 1995 da MIT Media lab-professor Rosalind Picard ga ut boken "Affective Computing." I følge MIT Media Lab tillater emotion AI mer naturlig interaksjon mellom mennesker og maskiner. Emotion AI forsøker å svare på to spørsmål: hva er menneskets følelsesmessige tilstand, og hvordan vil de reagere? Svarene som er samlet inn har stor innvirkning på hvordan maskiner leverer tjenester og produkter.

    Kunstig emosjonell intelligens blir ofte byttet ut med sentimentanalyse, men de er forskjellige i datainnsamling. Sentimentanalyse er fokusert på språkstudier, for eksempel å bestemme folks meninger om spesifikke emner i henhold til tonen i sosiale medieinnlegg, blogger og kommentarer. Imidlertid er emotion AI avhengig av ansiktsgjenkjenning og uttrykk for å bestemme følelser. Andre effektive datafaktorer er stemmemønstre og fysiologiske data som endringer i øyebevegelser. Noen eksperter anser sentimentanalyse som en undergruppe av følelses-AI, men med færre personvernrisikoer.

    Forstyrrende påvirkning

    I 2019 publiserte en gruppe inter-universitetsforskere, inkludert Northeastern University i USA og University of Glasgow, studier som avslører at emotion AI ikke har et solid vitenskapelig grunnlag. Studien fremhevet at det ikke spiller noen rolle om mennesker eller AI utfører analysen; det er utfordrende å nøyaktig forutsi emosjonelle tilstander basert på ansiktsuttrykk. Forskerne hevder at uttrykk ikke er fingeravtrykk som gir definitiv og unik informasjon om et individ. Noen eksperter er imidlertid ikke enige i denne analysen. Grunnleggeren av Hume AI, Alan Cowen, hevdet at moderne algoritmer hadde utviklet datasett og prototyper som nøyaktig samsvarer med menneskelige følelser. Hume AI, som samlet inn 5 millioner USD i investeringsfinansiering, bruker datasett med mennesker fra Amerika, Afrika og Asia for å trene opp følelses-AI-systemet. 

    Andre nye spillere innen følelses-AI-feltet er HireVue, Entropik, Emteq og Neurodata Labs. Entropik bruker ansiktsuttrykk, øyeblikk, stemmetoner og hjernebølger for å bestemme effekten av en markedsføringskampanje. En russisk bank bruker Neurodata til å analysere kundenes følelser når de ringer kundeservicerepresentanter. 

    Selv Big Tech begynner å utnytte potensialet til emotion AI. I 2016 kjøpte Apple Emotient, et San Diego-basert firma som analyserer ansiktsuttrykk. Alexa, Amazons virtuelle assistent, beklager og avklarer svarene sine når den oppdager at brukeren er frustrert. I mellomtiden kan Microsofts talegjenkjennings-AI-firma, Nuance, analysere sjåførenes følelser basert på deres ansiktsuttrykk.

    Implikasjoner av emotion AI

    Større implikasjoner av emotion AI kan omfatte: 

    • Big Tech kjøper flere startups for å utvide sin AI-forskning og -evne, inkludert bruk av emotion AI i selvkjørende kjøretøy.
    • Kundeserviceavdelinger i kundesenteret bruker emotion AI for å forutse kundeadferd basert på tonen i stemmen deres og endringer i ansiktsuttrykkene deres.
    • Øke investeringer i affektiv databehandling, inkludert utvidede partnerskap med globale universiteter og forskningsinstitusjoner.
    • Økende press for myndigheter for å regulere hvordan ansikts- og biologiske data samles inn, lagres og brukes.
    • Utdype rase- og kjønnsdiskriminering gjennom feilinformasjon eller feilaktige analyser.

    Spørsmål å kommentere

    • Ville du samtykket til å la apper for AI-følelse skanne ansiktsuttrykk og stemmetone for å forutse følelsene dine?
    • Hva er de mulige risikoene for at AI potensielt feilleser følelser?

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten:

    MIT Management Sloan School Emotion AI, forklart