АИ емоција: Да ли желимо да АИ разуме наша осећања?
АИ емоција: Да ли желимо да АИ разуме наша осећања?
АИ емоција: Да ли желимо да АИ разуме наша осећања?
- Аутор:
- Септембар 6, 2022
Сажетак увида
Вештачка интелигенција емоција (АИ) трансформише начин на који машине разумеју и реагују на људске емоције у здравству, маркетингу и служби за кориснике. Упркос дебатама о њеној научној основи и забринутости за приватност, ова технологија се брзо развија, а компаније као што су Аппле и Амазон је интегришу у своје производе. Његова све већа употреба поставља важна питања о приватности, тачности и потенцијалу за продубљивање пристрасности, што подстиче потребу за пажљивом регулацијом и етичким разматрањима.
Контекст АИ емоција
Системи вештачке интелигенције уче да препознају људске емоције и користе те информације у различитим секторима, од здравствене заштите до маркетиншких кампања. На пример, веб-сајтови користе емотиконе да би проценили како гледаоци реагују на њихов садржај. Међутим, да ли је емоција АИ све оно што тврди да јесте?
АИ емоција (позната и као афективно рачунарство или вештачка емоционална интелигенција) је подскуп вештачке интелигенције која мери, разуме, симулира и реагује на људске емоције. Ова дисциплина датира из 1995. године када је професорка Розалин Пикард у лабораторији МИТ Медиа објавила књигу „Афективно рачунарство“. Према МИТ Медиа Лаб, АИ емоција омогућава природнију интеракцију између људи и машина. Емотион АИ покушава да одговори на два питања: какво је емоционално стање човека и како ће реаговати? Прикупљени одговори у великој мери утичу на то како машине пружају услуге и производе.
Вештачка емоционална интелигенција се често замењује са анализом осећања, али се разликују у прикупљању података. Анализа сентимента је фокусирана на проучавање језика, као што је одређивање мишљења људи о одређеним темама према тону њихових постова на друштвеним мрежама, блогова и коментара. Међутим, вештачка интелигенција емоција се ослања на препознавање лица и изразе да би одредила осећај. Други ефективни рачунарски фактори су гласовни обрасци и физиолошки подаци као што су промене у кретању очију. Неки стручњаци сматрају анализу осећања подскупом АИ емоција, али са мање ризика по приватност.
Ометајући утицај
У 2019, група међууниверзитетских истраживача, укључујући Североисточни универзитет у САД и Универзитет у Глазгову, објавила је студије које откривају да АИ емоција нема чврсту научну основу. Студија је истакла да није важно да ли људи или АИ спроводе анализу; изазовно је тачно предвидети емоционална стања на основу израза лица. Истраживачи тврде да изрази нису отисци прстију који пружају дефинитивне и јединствене информације о појединцу.
Међутим, неки стручњаци се не слажу са овом анализом. Оснивач Хуме АИ, Алан Цовен, тврдио је да су модерни алгоритми развили скупове података и прототипове који тачно одговарају људским емоцијама. Хуме АИ, који је прикупио 5 милиона долара инвестиционог финансирања, користи скупове података људи из Америке, Африке и Азије да обучи свој систем вештачке интелигенције емоција.
Други играчи у настајању у пољу вештачке интелигенције емоција су ХиреВуе, Ентропик, Емтек и Неуродата Лабс. Ентропик користи изразе лица, поглед очију, тонове гласа и мождане таласе да би одредио утицај маркетиншке кампање. Руска банка користи Неуродату да анализира осећања клијената када позива представнике корисничке службе.
Чак и Биг Тецх почиње да користи потенцијал вештачке интелигенције емоција. Аппле је 2016. године купио Емотиент, фирму из Сан Дијега која анализира изразе лица. Алека, Амазон-ов виртуелни асистент, извињава се и појашњава своје одговоре када открије да је његов корисник фрустриран. У међувремену, Мајкрософтова фирма за вештачку интелигенцију за препознавање говора, Нуанце, може да анализира емоције возача на основу њиховог израза лица.
Импликације АИ емоција
Шире импликације АИ емоција могу укључивати:
- Велике технолошке корпорације преузимају мање компаније специјализоване за вештачку интелигенцију, посебно за вештачку интелигенцију, како би побољшале своје аутономне системе возила, што резултира безбеднијом и емпатичијом интеракцијом са путницима.
- Центри за корисничку подршку који укључују вештачку интелигенцију емоција за тумачење вокалних и фацијалних знакова, што доводи до персонализованијих и ефикаснијих искустава у решавању проблема за потрошаче.
- Више средстава улази у афективно рачунарство, подстичући сарадњу између међународних академских и истраживачких организација, чиме се убрзава напредак у интеракцији између људи и АИ.
- Владе се суочавају са растућим захтевима да креирају политике које регулишу прикупљање, складиштење и примену података о лицу и биолошким подацима.
- Ризик од продубљивања пристрасности у вези са расом и родом због мањкавих или пристрасних емоција АИ, који захтевају строже стандарде за обуку АИ и распоређивање у јавном и приватном сектору.
- Повећано ослањање потрошача на уређаје и услуге са АИ-ом за емоције, што доводи до тога да емоционално интелигентнија технологија постане саставни део свакодневног живота.
- Образовне институције могу да интегришу вештачку интелигенцију емоција у платформе за е-учење, прилагођавајући наставне методе засноване на емоционалним реакцијама ученика како би побољшале искуства учења.
- Пружаоци здравствених услуга који користе вештачку интелигенцију емоција да боље разумеју потребе и емоције пацијената, побољшавајући дијагнозу и исходе лечења.
- Маркетиншке стратегије се развијају тако да користе АИ емоције, омогућавајући компанијама да ефикасније прилагоде рекламе и производе индивидуалним емоционалним стањима.
- Правни системи који можда усвајају вештачку интелигенцију емоција за процену кредибилитета сведока или емоционалних стања током суђења, изазивајући забринутост за етику и тачност.
Питања која треба размотрити
- Да ли бисте пристали да АИ апликације за емоције скенирају ваше изразе лица и тон гласа да предвиде ваше емоције?
- Који су могући ризици да АИ потенцијално погрешно чита емоције?
Референце за увид
Следеће популарне и институционалне везе су референциране за овај увид: