Emotion AI : Voulons-nous que l'IA comprenne nos sentiments ?
Emotion AI : Voulons-nous que l'IA comprenne nos sentiments ?
Emotion AI : Voulons-nous que l'IA comprenne nos sentiments ?
- Author:
- 6 septembre 2022
Les systèmes d'intelligence artificielle (IA) apprennent à reconnaître les émotions humaines et à exploiter ces informations dans divers secteurs, des soins de santé aux campagnes de marketing. Par exemple, les sites Web utilisent des émoticônes pour évaluer la façon dont les téléspectateurs réagissent à leur contenu. Cependant, l'IA émotionnelle est-elle tout ce qu'elle prétend être ?
Contexte de l'IA émotionnelle
L'IA émotionnelle (également connue sous le nom d'informatique affective ou d'intelligence émotionnelle artificielle) est un sous-ensemble de l'IA qui mesure, comprend, simule et répond aux émotions humaines. La discipline remonte à 1995 lorsque Rosalind Picard, professeur au laboratoire MIT Media, a publié le livre "Affective Computing". Selon le MIT Media Lab, l'IA émotionnelle permet une interaction plus naturelle entre les personnes et les machines. Emotion AI tente de répondre à deux questions : quel est l'état émotionnel de l'humain et comment réagira-t-il ? Les réponses recueillies ont un impact important sur la façon dont les machines fournissent des services et des produits.
L'intelligence émotionnelle artificielle est souvent confondue avec l'analyse des sentiments, mais elles sont différentes dans la collecte de données. L'analyse des sentiments se concentre sur les études linguistiques, telles que la détermination des opinions des gens sur des sujets spécifiques en fonction du ton de leurs publications sur les réseaux sociaux, de leurs blogs et de leurs commentaires. Cependant, l'IA émotionnelle s'appuie sur la reconnaissance faciale et les expressions pour déterminer le sentiment. D'autres facteurs informatiques efficaces sont les modèles de voix et les données physiologiques telles que les changements dans les mouvements oculaires. Certains experts considèrent l'analyse des sentiments comme un sous-ensemble de l'IA émotionnelle, mais avec moins de risques pour la confidentialité.
Impact perturbateur
En 2019, un groupe de chercheurs interuniversitaires, dont la Northeastern University aux États-Unis et l'Université de Glasgow, ont publié des études révélant que l'IA émotionnelle n'a pas de fondement scientifique solide. L'étude a mis en évidence que peu importe si les humains ou l'IA effectuent l'analyse ; il est difficile de prédire avec précision les états émotionnels en fonction des expressions faciales. Les chercheurs soutiennent que les expressions ne sont pas des empreintes digitales qui fournissent des informations définitives et uniques sur un individu. Cependant, certains experts ne sont pas d'accord avec cette analyse. Le fondateur de Hume AI, Alan Cowen, a fait valoir que les algorithmes modernes avaient développé des ensembles de données et des prototypes qui correspondent précisément aux émotions humaines. Hume AI, qui a levé 5 millions de dollars en financement d'investissement, utilise des ensembles de données de personnes des Amériques, d'Afrique et d'Asie pour former son système d'IA émotionnelle.
Les autres acteurs émergents dans le domaine de l'IA émotionnelle sont HireVue, Entropik, Emteq et Neurodata Labs. Entropik utilise les expressions faciales, le regard, les tons de voix et les ondes cérébrales pour déterminer l'impact d'une campagne de marketing. Une banque russe utilise Neurodata pour analyser les sentiments des clients lorsqu'ils appellent des représentants du service client.
Même Big Tech commence à capitaliser sur le potentiel de l'IA émotionnelle. En 2016, Apple a acheté Emotient, une entreprise basée à San Diego analysant les expressions faciales. Alexa, l'assistante virtuelle d'Amazon, s'excuse et précise ses réponses lorsqu'elle détecte que son utilisateur est frustré. Pendant ce temps, la société d'intelligence artificielle de reconnaissance vocale de Microsoft, Nuance, peut analyser les émotions des conducteurs en fonction de leurs expressions faciales.
Implications de l'IA émotionnelle
Les implications plus larges de l'IA émotionnelle peuvent inclure :
- Big Tech achète plus de startups pour étendre ses recherches et ses capacités sur l'IA, y compris l'utilisation de l'IA émotionnelle dans les véhicules autonomes.
- Les services clients des centres d'appels utilisent l'IA émotionnelle pour anticiper le comportement des clients en fonction du ton de leur voix et des changements dans leurs expressions faciales.
- Accroître les investissements dans la recherche sur l'informatique affective, y compris des partenariats élargis avec des universités et des instituts de recherche mondiaux.
- Pression croissante pour que les gouvernements réglementent la manière dont les données faciales et biologiques sont collectées, stockées et utilisées.
- Approfondir la discrimination raciale et sexuelle par la désinformation ou des analyses erronées.
Questions à commenter
- Accepteriez-vous que des applications d'intelligence artificielle analysent vos expressions faciales et le ton de votre voix pour anticiper vos émotions ?
- Quels sont les risques possibles que l'IA interprète potentiellement mal les émotions ?
Références Insight
Les liens populaires et institutionnels suivants ont été référencés pour cet aperçu :