Emotion AI : Voulons-nous que l'IA comprenne nos sentiments ?

CRÉDIT D'IMAGE:
Crédit image
iStock

Emotion AI : Voulons-nous que l'IA comprenne nos sentiments ?

Emotion AI : Voulons-nous que l'IA comprenne nos sentiments ?

Texte du sous-titre
Les entreprises investissent massivement dans les technologies d'intelligence artificielle pour tirer parti des machines capables d'analyser les émotions humaines.
    • Auteur :
    • Nom de l'auteur
      Prévision quantique
    • 6 septembre 2022

    Résumé des informations

    L’intelligence artificielle (IA) émotionnelle transforme la façon dont les machines comprennent et réagissent aux émotions humaines dans les domaines de la santé, du marketing et du service client. Malgré les débats sur ses fondements scientifiques et les préoccupations en matière de confidentialité, cette technologie évolue rapidement, des entreprises comme Apple et Amazon l'intégrant dans leurs produits. Son utilisation croissante soulève d’importantes questions sur la confidentialité, l’exactitude et le risque d’aggravation des préjugés, ce qui nécessite une réglementation prudente et des considérations éthiques.

    Contexte de l'IA émotionnelle

    Les systèmes d’intelligence artificielle apprennent à reconnaître les émotions humaines et à exploiter ces informations dans divers secteurs, des soins de santé aux campagnes marketing. Par exemple, les sites Web utilisent des émoticônes pour évaluer la réaction des internautes à leur contenu. Cependant, l’IA émotionnelle est-elle tout ce qu’elle prétend être ? 

    L'IA émotionnelle (également connue sous le nom d'informatique affective ou d'intelligence émotionnelle artificielle) est un sous-ensemble de l'IA qui mesure, comprend, simule et répond aux émotions humaines. La discipline remonte à 1995 lorsque Rosalind Picard, professeur au laboratoire MIT Media, a publié le livre "Affective Computing". Selon le MIT Media Lab, l'IA émotionnelle permet une interaction plus naturelle entre les personnes et les machines. Emotion AI tente de répondre à deux questions : quel est l'état émotionnel de l'humain et comment réagira-t-il ? Les réponses recueillies ont un impact important sur la façon dont les machines fournissent des services et des produits.

    L'intelligence émotionnelle artificielle est souvent confondue avec l'analyse des sentiments, mais elles sont différentes dans la collecte de données. L'analyse des sentiments se concentre sur les études linguistiques, telles que la détermination des opinions des gens sur des sujets spécifiques en fonction du ton de leurs publications sur les réseaux sociaux, de leurs blogs et de leurs commentaires. Cependant, l'IA émotionnelle s'appuie sur la reconnaissance faciale et les expressions pour déterminer le sentiment. D'autres facteurs informatiques efficaces sont les modèles de voix et les données physiologiques telles que les changements dans les mouvements oculaires. Certains experts considèrent l'analyse des sentiments comme un sous-ensemble de l'IA émotionnelle, mais avec moins de risques pour la confidentialité.

    Impact perturbateur

    En 2019, un groupe de chercheurs interuniversitaires, dont la Northeastern University aux États-Unis et l’Université de Glasgow, ont publié des études révélant que l’IA émotionnelle ne repose pas sur une base scientifique solide. L’étude a souligné que peu importe que ce soit des humains ou une IA qui effectuent l’analyse ; il est difficile de prédire avec précision les états émotionnels sur la base des expressions faciales. Les chercheurs affirment que les expressions ne sont pas des empreintes digitales fournissant des informations définitives et uniques sur un individu.

    Cependant, certains experts ne sont pas d’accord avec cette analyse. Le fondateur de Hume AI, Alan Cowen, a soutenu que les algorithmes modernes avaient développé des ensembles de données et des prototypes qui correspondent précisément aux émotions humaines. Hume AI, qui a levé 5 millions de dollars en financement d'investissement, utilise des ensembles de données de personnes des Amériques, d'Afrique et d'Asie pour former son système d'IA émotionnelle. 

    Les autres acteurs émergents dans le domaine de l'IA émotionnelle sont HireVue, Entropik, Emteq et Neurodata Labs. Entropik utilise les expressions faciales, le regard, les tons de voix et les ondes cérébrales pour déterminer l'impact d'une campagne de marketing. Une banque russe utilise Neurodata pour analyser les sentiments des clients lorsqu'ils appellent des représentants du service client. 

    Même Big Tech commence à capitaliser sur le potentiel de l'IA émotionnelle. En 2016, Apple a acheté Emotient, une entreprise basée à San Diego analysant les expressions faciales. Alexa, l'assistante virtuelle d'Amazon, s'excuse et précise ses réponses lorsqu'elle détecte que son utilisateur est frustré. Pendant ce temps, la société d'intelligence artificielle de reconnaissance vocale de Microsoft, Nuance, peut analyser les émotions des conducteurs en fonction de leurs expressions faciales.

    Implications de l'IA émotionnelle

    Les implications plus larges de l'IA émotionnelle peuvent inclure : 

    • Les grandes entreprises technologiques acquièrent de petites entreprises spécialisées dans l’IA, en particulier dans l’IA émotionnelle, pour améliorer leurs systèmes de véhicules autonomes, ce qui se traduira par des interactions plus sûres et plus empathiques avec les passagers.
    • Les centres de support client intègrent l’IA émotionnelle pour interpréter les signaux vocaux et faciaux, conduisant ainsi à des expériences de résolution de problèmes plus personnalisées et plus efficaces pour les consommateurs.
    • Davantage de financements sont consacrés à l'informatique affective, favorisant les collaborations entre les organismes universitaires et de recherche internationaux, accélérant ainsi les progrès dans l'interaction homme-IA.
    • Les gouvernements sont confrontés à des demandes croissantes pour créer des politiques régissant la collecte, le stockage et l’application des données faciales et biologiques.
    • Un risque d’aggravation des préjugés liés à la race et au sexe en raison d’une IA émotionnelle imparfaite ou biaisée, nécessitant des normes plus strictes pour la formation et le déploiement de l’IA dans les secteurs public et privé.
    • La dépendance accrue des consommateurs à l’égard des appareils et des services basés sur l’IA émotionnelle, ce qui conduit à ce qu’une technologie plus intelligente sur le plan émotionnel devienne partie intégrante de la vie quotidienne.
    • Les établissements d'enseignement peuvent intégrer l'IA émotionnelle dans les plateformes d'apprentissage en ligne, en adaptant les méthodes d'enseignement en fonction des réponses émotionnelles des étudiants pour améliorer les expériences d'apprentissage.
    • Les prestataires de soins de santé utilisent l'IA émotionnelle pour mieux comprendre les besoins et les émotions des patients, améliorant ainsi les résultats du diagnostic et du traitement.
    • Les stratégies marketing évoluent pour utiliser l'IA émotionnelle, permettant aux entreprises d'adapter plus efficacement les publicités et les produits aux états émotionnels individuels.
    • Les systèmes juridiques pourraient adopter l’IA émotionnelle pour évaluer la crédibilité des témoins ou leurs états émotionnels lors des procès, ce qui soulève des problèmes d’éthique et d’exactitude.

    Questions à considérer

    • Accepteriez-vous que des applications d'intelligence artificielle analysent vos expressions faciales et le ton de votre voix pour anticiper vos émotions ?
    • Quels sont les risques possibles que l'IA interprète potentiellement mal les émotions ?

    Références Insight

    Les liens populaires et institutionnels suivants ont été référencés pour cet aperçu :

    École de gestion Sloan du MIT L'IA émotionnelle, expliquée