Emosie KI: Wil ons hê KI moet ons gevoelens verstaan?

BEELDKREDIET:
Image krediet
iStock

Emosie KI: Wil ons hê KI moet ons gevoelens verstaan?

Emosie KI: Wil ons hê KI moet ons gevoelens verstaan?

Subopskrif teks
Maatskappye belê baie in KI-tegnologieë om munt te slaan uit masjiene wat menslike emosies kan ontleed.
    • Author:
    • Author naam
      Quantumrun Foresight
    • September 6, 2022

    Insig opsomming

    Emosie kunsmatige intelligensie (KI) verander hoe masjiene menslike emosies verstaan ​​en daarop reageer in gesondheidsorg, bemarking en kliëntediens. Ten spyte van debatte oor sy wetenskaplike basis en kommer oor privaatheid, ontwikkel hierdie tegnologie vinnig, met maatskappye soos Apple en Amazon wat dit in hul produkte integreer. Die groeiende gebruik daarvan laat belangrike vrae oor privaatheid, akkuraatheid en die potensiaal vir dieper vooroordeel ontstaan, wat 'n behoefte aan noukeurige regulering en etiese oorwegings veroorsaak.

    Emosie KI konteks

    Kunsmatige intelligensie-stelsels leer om menslike emosies te herken en daardie inligting te benut in verskeie sektore, van gesondheidsorg tot bemarkingsveldtogte. Webwerwe gebruik byvoorbeeld emoticons om te bepaal hoe kykers op hul inhoud reageer. Is emosie AI egter alles wat dit beweer dat dit is? 

    Emosie KI (ook bekend as affektiewe rekenaar of kunsmatige emosionele intelligensie) is 'n subset van KI wat menslike emosies meet, verstaan, simuleer en daarop reageer. Die dissipline dateer terug na 1995 toe MIT Media-laboratoriumprofessor Rosalind Picard die boek "Affective Computing" vrygestel het. Volgens die MIT Media Lab maak emosie AI meer natuurlike interaksie tussen mense en masjiene moontlik. Emosie KI poog om twee vrae te beantwoord: wat is die mens se emosionele toestand, en hoe sal hulle reageer? Die antwoorde wat ingesamel is, het 'n groot impak op hoe masjiene dienste en produkte verskaf.

    Kunsmatige emosionele intelligensie word dikwels met sentimentanalise verwissel, maar hulle verskil in data-insameling. Sentimentanalise is gefokus op taalstudies, soos om mense se opinies oor spesifieke onderwerpe te bepaal volgens die toon van hul sosialemediaplasings, blogs en opmerkings. Emosie KI maak egter staat op gesigsherkenning en uitdrukkings om sentiment te bepaal. Ander effektiewe rekenaarfaktore is stempatrone en fisiologiese data soos veranderinge in oogbewegings. Sommige kenners beskou sentimentanalise as 'n subset van emosie-KI, maar met minder privaatheidsrisiko's.

    Ontwrigtende impak

    In 2019 het 'n groep interuniversitêre navorsers, insluitend die Northeastern University in die VSA en die Universiteit van Glasgow, studies gepubliseer wat aan die lig gebring het dat emosie-KI nie 'n soliede wetenskaplike grondslag het nie. Die studie het beklemtoon dat dit nie saak maak of mense of KI die ontleding doen nie; dit is uitdagend om emosionele toestande akkuraat te voorspel op grond van gesigsuitdrukkings. Die navorsers argumenteer dat uitdrukkings nie vingerafdrukke is wat definitiewe en unieke inligting oor 'n individu verskaf nie.

    Sommige kenners stem egter nie saam met hierdie ontleding nie. Die stigter van Hume AI, Alan Cowen, het aangevoer dat moderne algoritmes datastelle en prototipes ontwikkel het wat akkuraat ooreenstem met menslike emosies. Hume KI, wat USD $5 miljoen aan beleggingsbefondsing ingesamel het, gebruik datastelle van mense van die Amerikas, Afrika en Asië om sy emosie-KI-stelsel op te lei. 

    Ander opkomende spelers in die emosie-KI-veld is HireVue, Entropik, Emteq en Neurodata Labs. Entropik gebruik gesigsuitdrukkings, oogblik, stemtone en breingolwe om die impak van 'n bemarkingsveldtog te bepaal. ’n Russiese bank gebruik Neurodata om kliënte se sentimente te ontleed wanneer hulle kliëntediensverteenwoordigers bel. 

    Selfs Big Tech begin munt slaan uit die potensiaal van emosie-KI. In 2016 het Apple Emotient gekoop, 'n San Diego-gebaseerde firma wat gesigsuitdrukkings ontleed. Alexa, Amazon se virtuele assistent, vra om verskoning en verduidelik sy antwoorde wanneer dit agterkom dat sy gebruiker gefrustreerd is. Intussen kan Microsoft se spraakherkenning-KI-firma, Nuance, bestuurders se emosies analiseer op grond van hul gesigsuitdrukkings.

    Implikasies van emosie KI

    Wyer implikasies van emosie-KI kan die volgende insluit: 

    • Groot tegnologie-korporasies wat kleiner maatskappye wat spesialiseer in KI, veral in emosie-KI, verkry om hul outonome voertuigstelsels te verbeter, wat lei tot veiliger en meer empatiese interaksies met passasiers.
    • Kliënteondersteuningsentrums wat emosie-KI insluit om vokale en gesigsaanwysings te interpreteer, wat lei tot meer persoonlike en doeltreffende probleemoplossingservarings vir verbruikers.
    • Meer befondsing vloei na affektiewe rekenaars, wat samewerking tussen internasionale akademiese en navorsingsorganisasies bevorder, en daardeur vordering in mens-KI-interaksie versnel.
    • Regerings wat toenemende eise in die gesig staar om beleid te skep wat die versameling, berging en toepassing van gesigs- en biologiese data beheer.
    • 'n Risiko van verdiepende vooroordele wat verband hou met ras en geslag as gevolg van gebrekkige of bevooroordeelde emosie-KI, wat strenger standaarde vir KI-opleiding en -ontplooiing in openbare en private sektore vereis.
    • Verhoogde verbruikers vertroue op emosie KI-geaktiveerde toestelle en dienste, wat daartoe lei dat meer emosioneel intelligente tegnologie integraal in die daaglikse lewe word.
    • Opvoedkundige instellings kan emosie-KI in e-leerplatforms integreer, en onderrigmetodes aanpas gebaseer op studente se emosionele reaksies om leerervarings te verbeter.
    • Gesondheidsorgverskaffers wat emosie-KI gebruik om pasiëntbehoeftes en emosies beter te verstaan, om diagnose en behandelingsuitkomste te verbeter.
    • Bemarkingstrategieë wat ontwikkel om emosie-KI te gebruik, wat maatskappye in staat stel om advertensies en produkte meer effektief aan te pas by individuele emosionele toestande.
    • Regstelsels neem moontlik emosie-KI aan om getuies se geloofwaardigheid of emosionele toestande tydens verhore te bepaal, wat etiese en akkuraatheidskwessies wek.

    Vrae om te oorweeg

    • Sal jy instem dat emosie-KI-programme jou gesigsuitdrukkings en stemtoon skandeer om jou emosies te verwag?
    • Wat is die moontlike risiko's van KI wat moontlik emosies verkeerd lees?

    Insig verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie insig verwys:

    MIT Bestuur Sloan Skool Emosie KI, verduidelik