Emocia AI: Ĉu ni volas, ke AI komprenu niajn sentojn?

BILDA KREDITO:
Bildo kredito
iStock

Emocia AI: Ĉu ni volas, ke AI komprenu niajn sentojn?

Emocia AI: Ĉu ni volas, ke AI komprenu niajn sentojn?

Subtitolo teksto
Firmaoj multe investas en AI-teknologioj por kapitaligi maŝinojn kapablajn analizi homajn emociojn.
    • Aŭtoro:
    • Aŭtora nomo
      Quantumrun Foresight
    • Septembro 6, 2022

    Enrigarda resumo

    Emocia artefarita inteligenteco (AI) transformas kiel maŝinoj komprenas kaj reagas al homaj emocioj en sanservo, merkatado kaj klientservo. Malgraŭ debatoj pri ĝia scienca bazo kaj privatecaj zorgoj, ĉi tiu teknologio rapide evoluas, kun kompanioj kiel Apple kaj Amazon integrante ĝin en siaj produktoj. Ĝia kreskanta uzo levas gravajn demandojn pri privateco, precizeco kaj la potencialo por profundigi biasojn, instigante bezonon de zorgema reguligo kaj etikaj konsideroj.

    Emocia AI-kunteksto

    Sistemoj de artefarita inteligenteco lernas rekoni homajn emociojn kaj utiligi tiujn informojn en diversaj sektoroj, de sanservo ĝis merkatigkampanjoj. Ekzemple, retejoj uzas miensimbolojn por taksi kiel spektantoj respondas al sia enhavo. Tamen, ĉu emocio AI estas ĉio, kion ĝi pretendas esti? 

    Emocia AI (ankaŭ konata kiel afekcia komputiko aŭ artefarita emocia inteligenteco) estas subaro de AI kiu mezuras, komprenas, simulas kaj respondas al homaj emocioj. La disciplino devenas de 1995 kiam MIT Media laboratorio profesoro Rosalind Picard publikigis la libron "Afekta Komputado." Laŭ la MIT Media Lab, emocia AI permesas pli naturan interagadon inter homoj kaj maŝinoj. Emocia AI provas respondi du demandojn: kio estas la emocia stato de la homo, kaj kiel ili reagos? La respondoj kolektitaj forte efikas kiel maŝinoj provizas servojn kaj produktojn.

    Artefarita emocia inteligenteco ofte estas interŝanĝita kun sentanalizo, sed ili estas malsamaj en datenkolektado. Sentanalizo estas koncentrita al lingvostudoj, kiel determini la opiniojn de homoj pri specifaj temoj laŭ la tono de iliaj sociaj amaskomunikiloj, blogoj kaj komentoj. Tamen, emocia AI dependas de vizaĝrekono kaj esprimoj por determini senton. Aliaj efikaj komputikfaktoroj estas voĉpadronoj kaj fiziologiaj datenoj kiel ŝanĝoj en okulmovo. Iuj spertuloj konsideras sentan analizon subaro de emocia AI sed kun malpli da privatecriskoj.

    Disrompa efiko

    En 2019, grupo de interuniversitataj esploristoj, inkluzive de Nordorienta Universitato en Usono kaj la Universitato de Glasgovo, publikigis studojn, kiuj malkaŝas, ke emocia AI ne havas solidan sciencan fundamenton. La studo emfazis, ke ne gravas ĉu homoj aŭ AI faras la analizon; estas defie precize antaŭdiri emociajn statojn bazitajn sur mimikoj. La esploristoj argumentas, ke esprimoj ne estas fingrospuroj, kiuj provizas definitivajn kaj unikajn informojn pri individuo.

    Tamen iuj spertuloj ne konsentas kun ĉi tiu analizo. La fondinto de Hume AI, Alan Cowen, argumentis ke modernaj algoritmoj evoluigis datumarojn kaj prototipojn kiuj precize egalrilatas al homaj emocioj. Hume AI, kiu akiris USD $5 milionojn en investfinancado, uzas datumajn arojn de homoj el Ameriko, Afriko kaj Azio por trejni sian emocian AI-sistemon. 

    Aliaj emerĝantaj ludantoj en la emocia AI-kampo estas HireVue, Entropik, Emteq kaj Neurodata Labs. Entropik uzas mimikojn, okulrigardon, voĉtonojn kaj cerbondojn por determini la efikon de merkatika kampanjo. Rusa banko uzas Neurodata por analizi klientajn sentojn kiam vokas klientservajn reprezentantojn. 

    Eĉ Big Tech komencas profiti la potencialon de emocia AI. En 2016, Apple aĉetis Emotient, San-Diego-bazitan firmaon analizantan mimikojn. Alexa, la virtuala asistanto de Amazon, pardonpetas kaj klarigas siajn respondojn kiam ĝi detektas, ke ĝia uzanto estas frustrita. Dume, la firmao de AI pri parolrekono de Mikrosofto, Nuance, povas analizi la emociojn de ŝoforoj surbaze de iliaj mimikoj.

    Implikoj de emocio AI

    Pli larĝaj implicoj de emocia AI povas inkluzivi: 

    • Gravaj teknologiaj korporacioj akirantaj pli malgrandajn kompaniojn specialiĝantajn pri AI, precipe pri emocia AI, por plibonigi siajn aŭtonomiajn veturilojn, rezultigante pli sekurajn kaj pli empatiajn interagojn kun pasaĝeroj.
    • Klientsubtenaj centroj korpigantaj emocian AI por interpreti voĉajn kaj vizaĝajn signalojn, kondukante al pli personigitaj kaj efikaj problemo-solvaj spertoj por konsumantoj.
    • Pli da financado fluas en afekcian komputadon, kreskigante kunlaborojn inter internaciaj akademiaj kaj esploraj organizoj, tiel akcelante progresojn en homa-AI-interago.
    • Registaroj alfrontas kreskantajn postulojn krei politikojn, kiuj regas la kolekton, stokadon kaj aplikon de vizaĝaj kaj biologiaj datumoj.
    • Risko profundigi biasojn rilate al raso kaj sekso pro misa aŭ partia emocio AI, postulante pli striktajn normojn por AI-trejnado kaj deplojo en publikaj kaj privataj sektoroj.
    • Pliigita konsumanta dependeco de emociaj AI-ebligitaj aparatoj kaj servoj, kondukante al pli emocie inteligenta teknologio iĝanta integrita en ĉiutaga vivo.
    • Instruejoj povas integri emocian AI en e-lernadajn platformojn, adaptante instrumetodojn bazitajn sur emociaj respondoj de studentoj por plibonigi lernajn spertojn.
    • Sanprovizantoj uzante emocian AI por pli bone kompreni pacientajn bezonojn kaj emociojn, plibonigante diagnozon kaj kuracajn rezultojn.
    • Merkatigaj strategioj evoluantaj por uzi emocian AI, permesante al kompanioj adapti reklamojn kaj produktojn pli efike al individuaj emociaj statoj.
    • Juraj sistemoj eble adoptante emocian AI por taksi atestantajn kredindecon aŭ emociajn statojn dum provoj, kaŭzante zorgojn pri etikaj kaj precizecoj.

    Konsiderindaj demandoj

    • Ĉu vi konsentus ke emociaj AI-aplikoj skanu viajn mimikojn kaj voĉtonon por antaŭvidi viajn emociojn?
    • Kio estas la eblaj riskoj, ke AI eble mislegu emociojn?

    Enrigardaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu kompreno:

    MIT Management Sloan School Emocio AI, klarigis