Эмоциональный ИИ: хотим ли мы, чтобы ИИ понимал наши чувства?
Эмоциональный ИИ: хотим ли мы, чтобы ИИ понимал наши чувства?
Эмоциональный ИИ: хотим ли мы, чтобы ИИ понимал наши чувства?
- Автор:
- 6 сентября, 2022
Системы искусственного интеллекта (ИИ) учатся распознавать человеческие эмоции и использовать эту информацию в различных секторах, от здравоохранения до маркетинговых кампаний. Например, веб-сайты используют смайлики, чтобы оценить, как зрители реагируют на их контент. Однако является ли эмоциональный ИИ тем, за что он себя выдает?
Контекст эмоционального ИИ
Эмоциональный ИИ (также известный как аффективные вычисления или искусственный эмоциональный интеллект) — это подмножество ИИ, которое измеряет, понимает, имитирует человеческие эмоции и реагирует на них. Эта дисциплина восходит к 1995 году, когда профессор лаборатории MIT Media Розалинд Пикард выпустила книгу «Аффективные вычисления». По данным MIT Media Lab, эмоциональный ИИ обеспечивает более естественное взаимодействие между людьми и машинами. Эмоциональный ИИ пытается ответить на два вопроса: каково эмоциональное состояние человека и как он отреагирует? Собранные ответы сильно влияют на то, как машины предоставляют услуги и продукты.
Искусственный эмоциональный интеллект часто заменяют анализом настроений, но они отличаются сбором данных. Анализ настроений сосредоточен на языковых исследованиях, таких как определение мнений людей по конкретным темам в соответствии с тоном их сообщений в социальных сетях, блогов и комментариев. Однако эмоциональный ИИ полагается на распознавание лиц и выражения для определения настроения. Другими эффективными вычислительными факторами являются голосовые паттерны и физиологические данные, такие как изменения в движении глаз. Некоторые эксперты считают анализ настроений подмножеством эмоционального ИИ, но с меньшим риском для конфиденциальности.
Разрушительное воздействие
В 2019 году группа межуниверситетских исследователей, включая Северо-Восточный университет в США и Университет Глазго, опубликовала исследования, показывающие, что эмоциональный ИИ не имеет прочной научной основы. В исследовании подчеркивается, что не имеет значения, проводят анализ люди или ИИ; сложно точно предсказать эмоциональное состояние на основе выражения лица. Исследователи утверждают, что выражения не являются отпечатками пальцев, которые предоставляют окончательную и уникальную информацию о человеке. Однако некоторые эксперты не согласны с этим анализом. Основатель Hume AI Алан Коуэн утверждал, что современные алгоритмы разработали наборы данных и прототипы, которые точно соответствуют человеческим эмоциям. Hume AI, который привлек 5 миллионов долларов США в качестве инвестиционного финансирования, использует наборы данных людей из Америки, Африки и Азии для обучения своей системы эмоционального ИИ.
Другими новыми игроками в области эмоционального ИИ являются HireVue, Entropik, Emteq и Neurodata Labs. Entropik использует выражение лица, взгляд, тон голоса и мозговые волны, чтобы определить влияние маркетинговой кампании. Российский банк использует Neurodata для анализа настроений клиентов при звонках представителям службы поддержки.
Даже большие технологии начинают извлекать выгоду из потенциала эмоционального ИИ. В 2016 году Apple приобрела Emotient, фирму из Сан-Диего, занимающуюся анализом выражений лица. Alexa, виртуальный помощник Amazon, приносит свои извинения и разъясняет свои ответы, когда обнаруживает, что его пользователь расстроен. Между тем, фирма Microsoft по распознаванию речи Nuance может анализировать эмоции водителей на основе выражений их лиц.
Последствия эмоционального ИИ
Более широкие последствия эмоционального ИИ могут включать:
- Крупные технологические компании покупают больше стартапов для расширения своих исследований и возможностей в области искусственного интеллекта, включая использование эмоционального ИИ в беспилотных транспортных средствах.
- Отделы обслуживания клиентов колл-центра используют эмоциональный ИИ, чтобы прогнозировать поведение клиентов на основе тона их голоса и изменений в их выражении лица.
- Увеличение инвестиций в исследования в области аффективных вычислений, включая расширение партнерских отношений с глобальными университетами и исследовательскими институтами.
- Растущее давление на правительства с целью регулирования сбора, хранения и использования лицевых и биологических данных.
- Углубление расовой и гендерной дискриминации посредством дезинформации или ошибочного анализа.
Вопросы для комментариев
- Вы бы согласились на то, чтобы приложения с искусственным интеллектом для эмоций сканировали выражение вашего лица и тон голоса, чтобы предугадывать ваши эмоции?
- Каковы возможные риски того, что ИИ может неправильно интерпретировать эмоции?
Ссылки на статистику
Для этого понимания использовались следующие популярные и институциональные ссылки: