Kunsmatige intelligensies wat menslike emosies verstaan

BEELDKREDIET:
Image krediet
iStock

Kunsmatige intelligensies wat menslike emosies verstaan

Kunsmatige intelligensies wat menslike emosies verstaan

Subopskrif teks
Navorsers erken dat nadruklike tegnologie mense kan help om die daaglikse lewe te hanteer, maar hulle waarsku ook teen die beperkings en moontlike misbruik daarvan.
    • Author:
    • Author naam
      Quantumrun Foresight
    • November 1, 2021

    Die idee van virtuele assistente en slim toestelle wat moontlik menslike emosies kan ontleed en voorspel, is niks nuuts nie. Maar net soos die flieks gewaarsku het, kan dit verskriklike gevolge hê om masjiene volledige toegang tot menslike gevoelens en gedagtes te gee. 

    AI verstaan ​​emosies: Konteks

    Die konsep van affektiewe rekenaar, of tegnologie wat emosies kan aanvoel, verstaan ​​en selfs naboots, bestaan ​​sedert 1997. Maar dit is eers nou dat die stelsels kragtig genoeg geword het om affektiewe rekenaars moontlik te maak. Groot tegnologiefirmas soos Microsoft en Google het die volgende groot stap geneem ná gesigsherkenning en biometrie – die ontwikkeling van nadruklike kunsmatige intelligensie (KI). 

    Navorsers beweer dat daar baie potensiële voordele is. Selfone en ander draagbare toestelle kan uiteindelik as digitale terapeute dien, wat op sinvolle maniere op hul gebruikers se buie en gesprekke kan reageer. Virtuele assistente kan verder gaan as basiese reaksies om mense intuïtief te adviseer oor hoe om by die werk te fokus, stres, angsaanvalle en depressie te bestuur, en selfs selfmoordpogings te voorkom. 

    Ontwrigtende impak

    Terwyl die potensiaal van emosie-herkenningstegnologie geldig is, erken navorsers ook dat regulering baie nodig is. Tans word emosie-herkenning KI gebruik in die huurproses van afgeleë werkers en die toesig van openbare plekke, maar die beperkings daarvan is duidelik. Studies het getoon dat net soos mense vooroordele het, so het KI, waar dit (in sommige gevalle) swart mense se gesigsuitdrukkings as kwaad bespeur het, al het hulle geglimlag. 

    Navorsers waarsku ook dat die ontleding van emosies op grond van gesigsuitdrukkings en lyftaal misleidend kan wees, aangesien hierdie faktore ook van kultuur en konteks afhang. Daarom moet regulasies moontlik in plek gestel word om te verseker dat tegnologiefirmas nie oorreik nie en dat mense steeds die finale besluitnemers sal wees.

    Aansoeke vir empatiese KI 

    Voorbeeldtoepassings vir hierdie opkomende tegnologie kan insluit:

    • Geestesgesondheidsverskaffers wat dalk hul dienste en metodes moet aanpas om saam met virtuele terapeute te werk.
    • Slim toestelle/huise wat dalk beter kenmerke bied, soos om buie te verwag en proaktief lewenstylopsies voor te stel in plaas daarvan om bloot opdragte te volg.
    • Selfoonvervaardigers wat dalk emosieherkenningstoepassings en sensors moet insluit om beter by hul verbruikers se behoeftes en voorkeure aan te pas.

    Vrae om op kommentaar te lewer

    • Sou jy slim apparate en toestelle verkies wat jou emosies kan voorspel? Hoekom of hoekom nie?
    • Wat dink jy is die ander moontlike maniere waarop emosioneel intelligente masjiene ons emosies kan beheer?

    Insig verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie insig verwys: