Emotion AI: Vil vi at AI skal forstå følelsene våre?

BILDEKREDITT:
Bilde kreditt
iStock

Emotion AI: Vil vi at AI skal forstå følelsene våre?

Emotion AI: Vil vi at AI skal forstå følelsene våre?

Underoverskriftstekst
Bedrifter investerer tungt i AI-teknologier for å utnytte maskiner som kan analysere menneskelige følelser.
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • September 6, 2022

    Oppsummering av innsikt

    Emotion kunstig intelligens (AI) transformerer hvordan maskiner forstår og reagerer på menneskelige følelser innen helsevesen, markedsføring og kundeservice. Til tross for debatter om dets vitenskapelige grunnlag og personvernhensyn, utvikler denne teknologien seg raskt, med selskaper som Apple og Amazon som integrerer den i produktene sine. Den økende bruken reiser viktige spørsmål om personvern, nøyaktighet og potensialet for dypere skjevheter, noe som fører til et behov for nøye regulering og etiske vurderinger.

    Emotion AI-kontekst

    Kunstig intelligens-systemer lærer å gjenkjenne menneskelige følelser og utnytte denne informasjonen i ulike sektorer, fra helsetjenester til markedsføringskampanjer. For eksempel bruker nettsteder uttrykksikoner for å måle hvordan seerne reagerer på innholdet deres. Men er emotion AI alt det den hevder å være? 

    Emotion AI (også kjent som affektiv databehandling eller kunstig emosjonell intelligens) er en undergruppe av AI som måler, forstår, simulerer og reagerer på menneskelige følelser. Disiplinen går tilbake til 1995 da MIT Media lab-professor Rosalind Picard ga ut boken "Affective Computing." I følge MIT Media Lab tillater emotion AI mer naturlig interaksjon mellom mennesker og maskiner. Emotion AI forsøker å svare på to spørsmål: hva er menneskets følelsesmessige tilstand, og hvordan vil de reagere? Svarene som er samlet inn har stor innvirkning på hvordan maskiner leverer tjenester og produkter.

    Kunstig emosjonell intelligens blir ofte byttet ut med sentimentanalyse, men de er forskjellige i datainnsamling. Sentimentanalyse er fokusert på språkstudier, for eksempel å bestemme folks meninger om spesifikke emner i henhold til tonen i sosiale medieinnlegg, blogger og kommentarer. Imidlertid er emotion AI avhengig av ansiktsgjenkjenning og uttrykk for å bestemme følelser. Andre effektive datafaktorer er stemmemønstre og fysiologiske data som endringer i øyebevegelser. Noen eksperter anser sentimentanalyse som en undergruppe av følelses-AI, men med færre personvernrisikoer.

    Forstyrrende påvirkning

    I 2019 publiserte en gruppe inter-universitetsforskere, inkludert Northeastern University i USA og University of Glasgow, studier som avslører at emotion AI ikke har et solid vitenskapelig grunnlag. Studien fremhevet at det ikke spiller noen rolle om mennesker eller AI utfører analysen; det er utfordrende å nøyaktig forutsi emosjonelle tilstander basert på ansiktsuttrykk. Forskerne hevder at uttrykk ikke er fingeravtrykk som gir definitiv og unik informasjon om et individ.

    Noen eksperter er imidlertid ikke enige i denne analysen. Grunnleggeren av Hume AI, Alan Cowen, hevdet at moderne algoritmer hadde utviklet datasett og prototyper som nøyaktig samsvarer med menneskelige følelser. Hume AI, som samlet inn 5 millioner USD i investeringsfinansiering, bruker datasett med mennesker fra Amerika, Afrika og Asia for å trene opp følelses-AI-systemet. 

    Andre nye spillere innen følelses-AI-feltet er HireVue, Entropik, Emteq og Neurodata Labs. Entropik bruker ansiktsuttrykk, øyeblikk, stemmetoner og hjernebølger for å bestemme effekten av en markedsføringskampanje. En russisk bank bruker Neurodata til å analysere kundenes følelser når de ringer kundeservicerepresentanter. 

    Selv Big Tech begynner å utnytte potensialet til emotion AI. I 2016 kjøpte Apple Emotient, et San Diego-basert firma som analyserer ansiktsuttrykk. Alexa, Amazons virtuelle assistent, beklager og avklarer svarene sine når den oppdager at brukeren er frustrert. I mellomtiden kan Microsofts talegjenkjennings-AI-firma, Nuance, analysere sjåførenes følelser basert på deres ansiktsuttrykk.

    Implikasjoner av emotion AI

    Større implikasjoner av emotion AI kan omfatte: 

    • Store teknologiselskaper kjøper opp mindre selskaper som spesialiserer seg på AI, spesielt innen emotion AI, for å forbedre sine autonome kjøretøysystemer, noe som resulterer i sikrere og mer empatiske interaksjoner med passasjerer.
    • Kundestøttesentre som inkorporerer emotion AI for å tolke stemme- og ansiktssignaler, noe som fører til mer personlige og effektive problemløsningsopplevelser for forbrukere.
    • Mer finansiering strømmer inn i affektiv databehandling, fremmer samarbeid mellom internasjonale akademiske organisasjoner og forskningsorganisasjoner, og akselererer dermed fremskritt innen menneskelig-AI-interaksjon.
    • Regjeringer som møter økende krav om å lage retningslinjer som styrer innsamling, lagring og anvendelse av ansikts- og biologiske data.
    • En risiko for dypere skjevheter knyttet til rase og kjønn på grunn av feil eller forutinntatt følelses-AI, som krever strengere standarder for AI-opplæring og distribusjon i offentlig og privat sektor.
    • Økt forbrukeravhengighet av følelser AI-aktiverte enheter og tjenester, noe som fører til at mer følelsesmessig intelligent teknologi blir integrert i dagliglivet.
    • Utdanningsinstitusjoner kan integrere emotion AI i e-læringsplattformer, tilpasse undervisningsmetoder basert på elevenes emosjonelle responser for å forbedre læringsopplevelser.
    • Helsepersonell som bruker emotion AI for å bedre forstå pasientbehov og følelser, for å forbedre diagnose og behandlingsresultater.
    • Markedsføringsstrategier som utvikler seg for å bruke emotion AI, slik at bedrifter kan skreddersy annonser og produkter mer effektivt til individuelle følelsesmessige tilstander.
    • Juridiske systemer kan muligens ta i bruk emotion AI for å vurdere vitners troverdighet eller følelsesmessige tilstander under rettssaker, noe som vekker etiske og nøyaktige bekymringer.

    Spørsmål å vurdere

    • Ville du samtykket til å la apper for AI-følelse skanne ansiktsuttrykk og stemmetone for å forutse følelsene dine?
    • Hva er de mulige risikoene for at AI potensielt feilleser følelser?

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten:

    MIT Management Sloan School Emotion AI, forklart