KI-Ausrichtung: Passende Ziele der künstlichen Intelligenz entsprechen menschlichen Werten

IMAGE CREDIT:
Bildnachweis
iStock

KI-Ausrichtung: Passende Ziele der künstlichen Intelligenz entsprechen menschlichen Werten

KI-Ausrichtung: Passende Ziele der künstlichen Intelligenz entsprechen menschlichen Werten

Untertiteltext
Einige Forscher glauben, dass Maßnahmen ergriffen werden sollten, um sicherzustellen, dass künstliche Intelligenz der Gesellschaft keinen Schaden zufügt.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 25. Januar 2023

    Die Ausrichtung der künstlichen Intelligenz (KI) liegt vor, wenn die Ziele eines KI-Systems mit menschlichen Werten übereinstimmen. Unternehmen wie OpenAI, DeepMind und Anthropic haben Forscherteams, deren einziger Fokus darauf liegt, Leitplanken für verschiedene Szenarien zu untersuchen, in denen dies passieren könnte.

    KI-Ausrichtungskontext

    Laut einer Forschungsstudie der University of Cornell aus dem Jahr 2021 haben mehrere Studien gezeigt, dass Tools oder Modelle, die von Algorithmen erstellt wurden, Verzerrungen aufweisen, die aus den Daten stammen, mit denen sie trainiert wurden. In der Verarbeitung natürlicher Sprache (NLP) wurde beispielsweise dokumentiert, dass ausgewählte NLP-Modelle, die auf begrenzten Datensätzen trainiert wurden, Vorhersagen auf der Grundlage schädlicher Geschlechterstereotype gegenüber Frauen treffen. In ähnlicher Weise fanden andere Studien heraus, dass Algorithmen, die auf manipulierten Datensätzen trainiert wurden, zu rassistisch voreingenommenen Empfehlungen führten, insbesondere bei der Polizeiarbeit.

    Es gibt viele Beispiele, in denen maschinelle Lernsysteme für Minderheiten oder mehrfach benachteiligte Gruppen schlechter abgeschnitten haben. Insbesondere automatisierte Gesichtsanalysen und Gesundheitsdiagnostik funktionieren in der Regel nicht sehr gut für Frauen und Farbige. Wenn kritische Systeme, die auf Fakten und Logik statt auf Emotionen basieren sollten, in Kontexten wie der Zuweisung von Gesundheitsversorgung oder Bildung verwendet werden, können sie mehr Schaden anrichten, indem sie es schwieriger machen, die Gründe für diese Empfehlungen zu identifizieren.

    Infolgedessen bilden Technologieunternehmen KI-Ausrichtungsteams, die sich darauf konzentrieren, Algorithmen fair und human zu halten. Forschung ist unerlässlich, um die Richtung fortschrittlicher KI-Systeme sowie die Herausforderungen zu verstehen, denen wir mit zunehmenden KI-Fähigkeiten gegenüberstehen könnten.

    Störende Wirkung

    Laut Jan Leike, Head of AI Alignment bei OpenAI (2021), ist es angesichts der Tatsache, dass KI-Systeme erst in den 2010er Jahren leistungsfähig geworden sind, verständlich, dass die meisten KI-Alignment-Forschungen theorielastig waren. Wenn immens leistungsstarke KI-Systeme ausgerichtet werden, besteht eine der Herausforderungen für Menschen darin, dass diese Maschinen möglicherweise Lösungen entwickeln, die zu kompliziert sind, um sie zu überprüfen und zu bewerten, ob sie ethisch sinnvoll sind.

    Leike entwickelte eine Strategie zur rekursiven Belohnungsmodellierung (RRM), um dieses Problem zu beheben. Mit RRM werden mehrere „Helfer“-KIs gelehrt, um einem Menschen zu helfen, zu beurteilen, wie gut eine komplexere KI funktioniert. Er ist optimistisch in Bezug auf die Möglichkeit, etwas zu schaffen, das er als „Alignment MVP“ bezeichnet. In Startup-Begriffen ist ein MVP (oder Minimum Viable Product) das einfachste mögliche Produkt, das ein Unternehmen bauen kann, um eine Idee zu testen. Die Hoffnung ist, dass KI eines Tages die menschliche Leistung bei der Erforschung von KI und ihrer Ausrichtung an Werten erreicht und gleichzeitig funktional ist.

    Während das zunehmende Interesse an der KI-Ausrichtung positiv ist, denken viele Analysten auf diesem Gebiet, dass ein Großteil der „Ethik“-Arbeit in führenden KI-Laboren nur Öffentlichkeitsarbeit ist, die darauf abzielt, Technologieunternehmen gut aussehen zu lassen und negative Publicity zu vermeiden. Diese Personen erwarten nicht, dass ethische Entwicklungspraktiken in absehbarer Zeit zu einer Priorität für diese Unternehmen werden.

    Diese Beobachtungen unterstreichen die Bedeutung interdisziplinärer Ansätze für Bemühungen zur Werteausrichtung, da dies ein relativ neues Gebiet der moralischen und technischen Forschung ist. Unterschiedliche Wissenszweige sollten Teil einer inklusiven Forschungsagenda sein. Diese Initiative weist auch auf die Notwendigkeit für Technologen und politische Entscheidungsträger hin, sich ihres sozialen Kontexts und ihrer Interessengruppen bewusst zu bleiben, auch wenn KI-Systeme immer fortschrittlicher werden.

    Auswirkungen der KI-Ausrichtung

    Weitere Auswirkungen der KI-Ausrichtung können Folgendes umfassen: 

    • Labore für künstliche Intelligenz stellen verschiedene Ethikkommissionen ein, um Projekte zu beaufsichtigen und ethische KI-Richtlinien zu erfüllen. 
    • Regierungen, die Gesetze erlassen, die Unternehmen dazu verpflichten, ihr verantwortungsvolles KI-Rahmenwerk vorzulegen und zu erläutern, wie sie ihre KI-Projekte weiterentwickeln wollen.
    • Zunehmende Kontroversen über den Einsatz von Algorithmen bei der Rekrutierung, öffentlichen Überwachung und Strafverfolgung.
    • Forscher werden aufgrund von Interessenkonflikten zwischen Ethik und Unternehmenszielen aus großen KI-Laboren entlassen.
    • Mehr Druck auf Regierungen, fortschrittliche KI-Systeme zu regulieren, die beide unglaublich leistungsfähig sind, aber möglicherweise Menschenrechte verletzen können.

    Fragen zum Kommentieren

    • Wie können Unternehmen für die von ihnen erstellten KI-Systeme zur Rechenschaft gezogen werden?
    • Was sind die anderen potenziellen Gefahren, wenn eine KI-Fehlausrichtung vorliegt?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen: