Künstliche Intelligenzen verstehen menschliche Emotionen

IMAGE CREDIT:
Bildnachweis
iStock

Künstliche Intelligenzen verstehen menschliche Emotionen

Künstliche Intelligenzen verstehen menschliche Emotionen

Untertiteltext
Forscher erkennen an, dass emphatische Technologie Menschen helfen kann, mit dem täglichen Leben fertig zu werden, aber sie warnen auch vor ihren Einschränkungen und potenziellem Missbrauch.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 1. November 2021

    Die Idee virtueller Assistenten und intelligenter Gadgets, die möglicherweise menschliche Emotionen analysieren und vorhersagen könnten, ist nichts Neues. Aber genau wie die Filme gewarnt haben, kann es schlimme Folgen haben, Maschinen vollständigen Zugang zu menschlichen Gefühlen und Gedanken zu geben. 

    KIs verstehen Emotionen: Kontext

    Das Konzept des Affective Computing oder einer Technologie, die Emotionen wahrnehmen, verstehen und sogar nachahmen kann, gibt es seit 1997. Aber erst jetzt sind die Systeme leistungsfähig genug geworden, um Affective Computing zu ermöglichen. Große Tech-Firmen wie Microsoft und Google haben nach Gesichtserkennung und Biometrie den nächsten großen Schritt getan – die Entwicklung einer emphatischen künstlichen Intelligenz (KI). 

    Forscher behaupten, dass es viele potenzielle Vorteile gibt. Mobiltelefone und andere tragbare Geräte könnten schließlich als digitale Therapeuten dienen, die in der Lage sind, auf sinnvolle Weise auf die Stimmungen und Gespräche ihrer Benutzer zu reagieren. Virtuelle Assistenten können über grundlegende Reaktionen hinausgehen und Menschen intuitiv beraten, wie sie sich bei der Arbeit konzentrieren, mit Stress, Angstattacken und Depressionen umgehen und sogar Selbstmordversuche verhindern können. 

    Störende Wirkung

    Während das Potenzial der Emotionserkennungstechnologie gültig ist, geben die Forscher auch zu, dass eine Regulierung dringend erforderlich ist. Derzeit wird KI zur Emotionserkennung bei der Einstellung von Remote-Mitarbeitern und der Überwachung öffentlicher Orte eingesetzt, aber ihre Grenzen sind offensichtlich. Studien haben gezeigt, dass KI ebenso wie Menschen Vorurteile hat, wo sie (in einigen Fällen) die Gesichtsausdrücke von Schwarzen als wütend erkannt hat, obwohl sie lächelten. 

    Forscher warnen auch davor, dass die Analyse von Emotionen anhand von Gesichtsausdrücken und Körpersprache irreführend sein könnte, da diese Faktoren auch von Kultur und Kontext abhängen. Daher müssen möglicherweise Vorschriften erlassen werden, um sicherzustellen, dass Technologieunternehmen nicht zu weit gehen und dass Menschen immer noch die letzten Entscheidungsträger sind.

    Anwendungen für empathische KI 

    Beispielanwendungen für diese neue Technologie können sein:

    • Anbieter psychischer Gesundheit, die möglicherweise ihre Dienste und Methoden anpassen müssen, um mit virtuellen Therapeuten zusammenzuarbeiten.
    • Intelligente Geräte/Haushalte, die möglicherweise bessere Funktionen bieten, wie z. B. das Vorhersehen von Stimmungen und das proaktive Vorschlagen von Lifestyle-Optionen, anstatt einfach nur Befehlen zu folgen.
    • Mobiltelefonhersteller, die möglicherweise Apps und Sensoren zur Emotionserkennung integrieren müssen, um sich besser an die Bedürfnisse und Vorlieben ihrer Verbraucher anzupassen.

    Fragen zum Kommentieren

    • Würden Sie intelligente Gadgets und Geräte bevorzugen, die Ihre Emotionen vorhersagen könnten? Warum oder warum nicht?
    • Was sind Ihrer Meinung nach die anderen Möglichkeiten, wie emotional intelligente Maschinen unsere Emotionen kontrollieren könnten?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen: