Emotion AI: Wollen wir, dass KI unsere Gefühle versteht?

IMAGE CREDIT:
Bildnachweis
iStock

Emotion AI: Wollen wir, dass KI unsere Gefühle versteht?

Emotion AI: Wollen wir, dass KI unsere Gefühle versteht?

Untertiteltext
Unternehmen investieren stark in KI-Technologien, um davon zu profitieren, dass Maschinen menschliche Emotionen analysieren können.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 6. September 2022

    Zusammenfassung der Einblicke

    Emotionale künstliche Intelligenz (KI) verändert die Art und Weise, wie Maschinen menschliche Emotionen im Gesundheitswesen, im Marketing und im Kundenservice verstehen und darauf reagieren. Trotz Debatten über ihre wissenschaftliche Grundlage und Datenschutzbedenken entwickelt sich diese Technologie rasant weiter und Unternehmen wie Apple und Amazon integrieren sie in ihre Produkte. Seine zunehmende Nutzung wirft wichtige Fragen zum Datenschutz, zur Genauigkeit und zum Potenzial für die Vertiefung von Vorurteilen auf, was eine sorgfältige Regulierung und ethische Überlegungen erforderlich macht.

    Emotions-KI-Kontext

    Künstliche Intelligenzsysteme lernen, menschliche Emotionen zu erkennen und diese Informationen in verschiedenen Bereichen zu nutzen, vom Gesundheitswesen bis hin zu Marketingkampagnen. Beispielsweise verwenden Websites Emoticons, um zu messen, wie Zuschauer auf ihre Inhalte reagieren. Ist Emotions-KI jedoch alles, was sie zu sein vorgibt? 

    Emotions-KI (auch bekannt als Affective Computing oder künstliche emotionale Intelligenz) ist eine Teilmenge der KI, die menschliche Emotionen misst, versteht, simuliert und darauf reagiert. Die Disziplin geht auf das Jahr 1995 zurück, als Rosalind Picard, Professorin am MIT Media Lab, das Buch „Affective Computing“ veröffentlichte. Laut dem MIT Media Lab ermöglicht Emotions-KI eine natürlichere Interaktion zwischen Menschen und Maschinen. Emotion AI versucht, zwei Fragen zu beantworten: Wie ist der emotionale Zustand des Menschen und wie wird er reagieren? Die gesammelten Antworten haben großen Einfluss darauf, wie Maschinen Dienstleistungen und Produkte bereitstellen.

    Künstliche emotionale Intelligenz wird oft mit Stimmungsanalysen verwechselt, aber sie unterscheiden sich in der Datenerfassung. Die Stimmungsanalyse konzentriert sich auf Sprachstudien, z. B. um die Meinung von Menschen zu bestimmten Themen anhand des Tons ihrer Social-Media-Posts, Blogs und Kommentare zu bestimmen. Emotions-KI stützt sich jedoch auf Gesichtserkennung und -ausdrücke, um die Stimmung zu bestimmen. Andere effektive Rechenfaktoren sind Stimmmuster und physiologische Daten wie Änderungen der Augenbewegung. Einige Experten betrachten die Stimmungsanalyse als eine Teilmenge der Emotions-KI, jedoch mit geringeren Datenschutzrisiken.

    Störende Wirkung

    Im Jahr 2019 veröffentlichte eine Gruppe interuniversitärer Forscher, darunter die Northeastern University in den USA und die University of Glasgow, Studien, die zeigten, dass Emotions-KI keine solide wissenschaftliche Grundlage hat. Die Studie betonte, dass es keine Rolle spielt, ob Menschen oder KI die Analyse durchführen; Es ist eine Herausforderung, emotionale Zustände anhand von Gesichtsausdrücken genau vorherzusagen. Die Forscher argumentieren, dass Ausdrücke keine Fingerabdrücke seien, die definitive und einzigartige Informationen über eine Person liefern.

    Einige Experten sind jedoch mit dieser Analyse nicht einverstanden. Der Gründer von Hume AI, Alan Cowen, argumentierte, dass moderne Algorithmen Datensätze und Prototypen entwickelt hätten, die den menschlichen Emotionen genau entsprechen. Hume AI, das 5 Millionen US-Dollar an Investitionsmitteln eingeworben hat, nutzt Datensätze von Menschen aus Amerika, Afrika und Asien, um sein Emotions-KI-System zu trainieren. 

    Andere aufstrebende Akteure im Bereich Emotions-KI sind HireVue, Entropik, Emteq und Neurodata Labs. Entropik verwendet Gesichtsausdrücke, Blickrichtungen, Stimmlagen und Gehirnwellen, um die Wirkung einer Marketingkampagne zu bestimmen. Eine russische Bank verwendet Neurodata, um die Kundenstimmung zu analysieren, wenn sie Kundendienstmitarbeiter anruft. 

    Sogar Big Tech beginnt, das Potenzial der Emotions-KI zu nutzen. Im Jahr 2016 kaufte Apple Emotient, ein in San Diego ansässiges Unternehmen, das Gesichtsausdrücke analysiert. Alexa, der virtuelle Assistent von Amazon, entschuldigt sich und präzisiert seine Antworten, wenn er feststellt, dass sein Benutzer frustriert ist. Unterdessen kann Microsofts Spracherkennungs-KI-Firma Nuance die Emotionen der Fahrer anhand ihrer Gesichtsausdrücke analysieren.

    Auswirkungen der Emotions-KI

    Weitere Auswirkungen der Emotions-KI können sein: 

    • Große Technologiekonzerne übernehmen kleinere Unternehmen, die sich auf KI, insbesondere Emotions-KI, spezialisiert haben, um ihre autonomen Fahrzeugsysteme zu verbessern, was zu sichereren und einfühlsameren Interaktionen mit Passagieren führt.
    • Kundensupportzentren integrieren Emotions-KI, um Stimm- und Gesichtssignale zu interpretieren, was zu personalisierteren und effektiveren Problemlösungserlebnissen für Verbraucher führt.
    • Mehr Mittel fließen in Affective Computing, fördern die Zusammenarbeit zwischen internationalen akademischen und Forschungsorganisationen und beschleunigen dadurch Fortschritte in der Mensch-KI-Interaktion.
    • Regierungen sehen sich mit wachsenden Anforderungen konfrontiert, Richtlinien zu entwickeln, die die Erhebung, Speicherung und Verwendung von Gesichts- und biologischen Daten regeln.
    • Es besteht die Gefahr, dass sich Vorurteile in Bezug auf Rasse und Geschlecht aufgrund fehlerhafter oder voreingenommener Emotions-KI verschärfen, was strengere Standards für die KI-Schulung und den Einsatz im öffentlichen und privaten Sektor erfordert.
    • Die zunehmende Abhängigkeit der Verbraucher von emotionalen KI-fähigen Geräten und Diensten führt dazu, dass emotional intelligentere Technologien zu einem integralen Bestandteil des täglichen Lebens werden.
    • Bildungseinrichtungen können Emotions-KI in E-Learning-Plattformen integrieren und Lehrmethoden basierend auf den emotionalen Reaktionen der Schüler anpassen, um die Lernerfahrungen zu verbessern.
    • Gesundheitsdienstleister nutzen Emotions-KI, um die Bedürfnisse und Emotionen der Patienten besser zu verstehen und so Diagnose- und Behandlungsergebnisse zu verbessern.
    • Marketingstrategien entwickeln sich weiter, um Emotions-KI zu nutzen, was es Unternehmen ermöglicht, Werbung und Produkte effektiver an individuelle emotionale Zustände anzupassen.
    • Rechtssysteme setzen möglicherweise Emotions-KI ein, um die Glaubwürdigkeit von Zeugen oder emotionale Zustände während der Verhandlungen zu bewerten, was ethische und Genauigkeitsbedenken aufwirft.

    Fragen zu berücksichtigen

    • Würden Sie zustimmen, dass KI-Apps für Emotionen Ihre Gesichtsausdrücke und Ihren Stimmton scannen, um Ihre Emotionen vorherzusehen?
    • Was sind die möglichen Risiken, wenn KI Emotionen möglicherweise falsch interpretiert?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    MIT Management Sloan School Emotions-KI, erklärt