Emocia AI: Ĉu ni volas, ke AI komprenu niajn sentojn?

BILDA KREDITO:
Bildo kredito
iStock

Emocia AI: Ĉu ni volas, ke AI komprenu niajn sentojn?

Emocia AI: Ĉu ni volas, ke AI komprenu niajn sentojn?

Subtitolo teksto
Firmaoj multe investas en AI-teknologioj por kapitaligi maŝinojn kapablajn analizi homajn emociojn.
    • Aŭtoro:
    • Aŭtora nomo
      Quantumrun Foresight
    • Septembro 6, 2022

    Afiŝu tekston

    Sistemoj de Artefarita inteligenteco (AI) lernas rekoni homajn emociojn kaj utiligi tiujn informojn en diversaj sektoroj, de sanservo ĝis merkatigkampanjoj. Ekzemple, retejoj uzas miensimbolojn por taksi kiel spektantoj respondas al sia enhavo. Tamen, ĉu emocio AI estas ĉio, kion ĝi pretendas esti? 

    Emocia AI-kunteksto

    Emocia AI (ankaŭ konata kiel afekcia komputiko aŭ artefarita emocia inteligenteco) estas subaro de AI kiu mezuras, komprenas, simulas kaj respondas al homaj emocioj. La disciplino devenas de 1995 kiam MIT Media laboratorio profesoro Rosalind Picard publikigis la libron "Afekta Komputado." Laŭ la MIT Media Lab, emocia AI permesas pli naturan interagadon inter homoj kaj maŝinoj. Emocia AI provas respondi du demandojn: kio estas la emocia stato de la homo, kaj kiel ili reagos? La respondoj kolektitaj forte efikas kiel maŝinoj provizas servojn kaj produktojn.

    Artefarita emocia inteligenteco ofte estas interŝanĝita kun sentanalizo, sed ili estas malsamaj en datenkolektado. Sentanalizo estas koncentrita al lingvostudoj, kiel determini la opiniojn de homoj pri specifaj temoj laŭ la tono de iliaj sociaj amaskomunikiloj, blogoj kaj komentoj. Tamen, emocia AI dependas de vizaĝrekono kaj esprimoj por determini senton. Aliaj efikaj komputikfaktoroj estas voĉpadronoj kaj fiziologiaj datenoj kiel ŝanĝoj en okulmovo. Iuj spertuloj konsideras sentan analizon subaro de emocia AI sed kun malpli da privatecriskoj.

    Disrompa efiko

    En 2019, grupo de interuniversitataj esploristoj, inkluzive de Northeastern University en Usono kaj la Universitato de Glasgovo, publikigis studojn, kiuj malkaŝas, ke emocia AI ne havas solidan sciencan fundamenton. La studo emfazis, ke ne gravas ĉu homoj aŭ AI faras la analizon; estas malfacile antaŭdiri emociajn statojn surbaze de mimikoj. La esploristoj argumentas, ke esprimoj ne estas fingrospuroj, kiuj provizas definitivajn kaj unikajn informojn pri individuo. Tamen iuj spertuloj ne konsentas kun ĉi tiu analizo. La fondinto de Hume AI, Alan Cowen, argumentis ke modernaj algoritmoj evoluigis datumarojn kaj prototipojn kiuj precize egalrilatas al homaj emocioj. Hume AI, kiu enspezis $5 milionojn da USD en investfinancado, uzas datenojn de homoj el Amerikoj, Afriko kaj Azio por trejni sian emocian AI-sistemon. 

    Aliaj emerĝantaj ludantoj en la emocia AI-kampo estas HireVue, Entropik, Emteq kaj Neurodata Labs. Entropik uzas mimikojn, okulrigardon, voĉtonojn kaj cerbondojn por determini la efikon de merkatika kampanjo. Rusa banko uzas Neurodata por analizi klientajn sentojn kiam vokas klientservajn reprezentantojn. 

    Eĉ Big Tech komencas profiti la potencialon de emocia AI. En 2016, Apple aĉetis Emotient, San-Diego-bazitan firmaon analizantan mimikojn. Alexa, la virtuala asistanto de Amazon, pardonpetas kaj klarigas siajn respondojn kiam ĝi detektas, ke ĝia uzanto estas frustrita. Dume, la firmao de AI pri parolrekono de Mikrosofto, Nuance, povas analizi la emociojn de ŝoforoj surbaze de iliaj mimikoj.

    Implikoj de emocio AI

    Pli larĝaj implicoj de emocia AI povas inkluzivi: 

    • Big Tech aĉetas pli da noventreprenoj por vastigi siajn esplorojn kaj kapablojn pri AI, inkluzive de la uzo de emocia AI en memveturaj veturiloj.
    • Vokcentraj klientservaj fakoj uzante emocian AI por antaŭvidi klientan konduton bazitan sur la tono de sia voĉo kaj ŝanĝoj en siaj mimikoj.
    • Pliigante investojn en afekcia komputika esplorado, inkluzive de vastigitaj partnerecoj kun tutmondaj universitatoj kaj esplorinstitucioj.
    • Kreskanta premo por registaroj reguligi kiel vizaĝaj kaj biologiaj datumoj estas kolektitaj, stokitaj kaj uzataj.
    • Pliprofundigi rasan kaj seksan diskriminacion per misinformado aŭ eraraj analizoj.

    Demandoj por komenti

    • Ĉu vi konsentus ke emociaj AI-aplikoj skanu viajn mimikojn kaj voĉtonon por antaŭvidi viajn emociojn?
    • Kio estas la eblaj riskoj, ke AI eble mislegu emociojn?

    Enrigardaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu kompreno:

    MIT Management Sloan School Emocio AI, klarigis