Franken-Algorithmen: Abtrünnige Algorithmen

IMAGE CREDIT:
Bildnachweis
iStock

Franken-Algorithmen: Abtrünnige Algorithmen

Franken-Algorithmen: Abtrünnige Algorithmen

Untertiteltext
Mit den Entwicklungen in der künstlichen Intelligenz entwickeln sich Algorithmen schneller als von Menschen erwartet.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 12. April 2023

    Da die Algorithmen des maschinellen Lernens (ML) immer fortschrittlicher werden, sind sie in der Lage, selbstständig zu lernen und sich an Muster in großen Datenmengen anzupassen. Dieser Prozess, der als „autonomes Lernen“ bekannt ist, kann dazu führen, dass der Algorithmus seinen eigenen Code oder eigene Regeln generiert, um Entscheidungen zu treffen. Das Problem dabei ist, dass der vom Algorithmus generierte Code für Menschen schwer oder unmöglich zu verstehen ist, was es schwierig macht, Vorurteile zu lokalisieren. 

    Kontext Franken-Algorithmen

    Franken-Algorithmen beziehen sich auf Algorithmen (die Regeln, denen Computer folgen, wenn sie Daten verarbeiten und auf Befehle reagieren), die so komplex und miteinander verflochten sind, dass Menschen sie nicht mehr entziffern können. Der Begriff ist eine Anspielung auf Mary Shelleys Science-Fiction über ein „Monster“, das von dem verrückten Wissenschaftler Dr. Frankenstein geschaffen wurde. Während Algorithmen und Codes die Bausteine ​​der Big Tech sind und es Facebook und Google ermöglicht haben, die einflussreichen Unternehmen zu sein, die sie heute sind, gibt es immer noch so viel über die Technologie, das die Menschen nicht wissen. 

    Wenn Programmierer Codes erstellen und sie durch Software ausführen, ermöglicht ML Computern, Muster zu verstehen und vorherzusagen. Während Big Tech behauptet, dass Algorithmen objektiv sind, weil menschliche Emotionen und Unvorhersehbarkeit sie nicht beeinflussen, können sich diese Algorithmen weiterentwickeln und ihre eigenen Regeln schreiben, was zu katastrophalen Ergebnissen führt. Der von diesen Algorithmen generierte Code ist oft komplex und undurchsichtig, was es Forschern oder Praktikern erschwert, die Entscheidungen des Algorithmus zu interpretieren oder etwaige Verzerrungen im Entscheidungsprozess des Algorithmus zu erkennen. Diese Hürde kann Unternehmen, die sich auf diese Algorithmen verlassen, um Entscheidungen zu treffen, vor erhebliche Herausforderungen stellen, da sie möglicherweise nicht in der Lage sind, die Gründe für diese Entscheidungen zu verstehen oder zu erklären.

    Störende Wirkung

    Wenn Franken-Algorithmen abtrünnig werden, kann es um Leben und Tod gehen. Ein Beispiel war ein Unfall im Jahr 2018, als ein selbstfahrendes Auto in Arizona eine Frau auf einem Fahrrad erfasste und tötete. Die Algorithmen des Autos konnten sie nicht korrekt als Mensch identifizieren. Experten waren über die eigentliche Unfallursache hin- und hergerissen – war das Auto falsch programmiert und wurde der Algorithmus zu komplex für sein eigenes Wohl? Programmierer können sich jedoch darauf einigen, dass es ein Aufsichtssystem für Softwareunternehmen geben muss – einen Ethikkodex. 

    Dieser Ethikkodex wird jedoch von Big Tech zurückgewiesen, da sie im Geschäft Daten und Algorithmen verkaufen und es sich nicht leisten können, reguliert zu werden oder transparent zu sein. Darüber hinaus ist eine neuere Entwicklung, die große Tech-Angestellte beunruhigt, der zunehmende Einsatz von Algorithmen innerhalb des Militärs, wie z. B. die Partnerschaft von Google mit dem US-Verteidigungsministerium zur Integration von Algorithmen in die Militärtechnologie, wie autonome Drohnen. Dieser Antrag hat dazu geführt, dass einige Mitarbeiter gekündigt haben und Experten Bedenken geäußert haben, dass Algorithmen immer noch zu unberechenbar sind, um als Tötungsmaschinen eingesetzt zu werden. 

    Eine weitere Sorge ist, dass Franken-Algorithmen aufgrund der Datensätze, auf denen sie trainiert werden, Verzerrungen aufrechterhalten und sogar verstärken können. Dieser Prozess kann zu verschiedenen gesellschaftlichen Problemen führen, darunter Diskriminierung, Ungleichheit und unrechtmäßige Verhaftungen. Aufgrund dieser erhöhten Risiken beginnen viele Technologieunternehmen, ihre ethischen KI-Richtlinien zu veröffentlichen, um transparent zu machen, wie sie ihre Algorithmen entwickeln, verwenden und überwachen.

    Weitergehende Implikationen für Franken-Algorithmen

    Mögliche Implikationen für Franken-Algorithmen können sein:

    • Entwicklung autonomer Systeme, die ohne menschliche Aufsicht Entscheidungen treffen und Maßnahmen ergreifen können, was Bedenken hinsichtlich Verantwortlichkeit und Sicherheit aufwirft. Solche Algorithmen können jedoch die Kosten für die Entwicklung von Software und Robotik senken, die die menschliche Arbeit in den meisten Branchen automatisieren können. 
    • Weitere Untersuchungen darüber, wie Algorithmen Militärtechnologie automatisieren und autonome Waffen und Fahrzeuge unterstützen können.
    • Erhöhter Druck auf Regierungen und Branchenführer, einen Ethikkodex und Vorschriften für Algorithmen zu implementieren.
    • Franken-Algorithmen wirken sich überproportional auf bestimmte demografische Gruppen aus, wie z. B. einkommensschwache Gemeinschaften oder Minderheiten.
    • Franken-Algorithmen könnten Diskriminierung und Vorurteile bei der Entscheidungsfindung, wie z. B. Einstellungs- und Kreditvergabeentscheidungen, aufrechterhalten und verstärken.
    • Diese Algorithmen werden von Cyberkriminellen verwendet, um Schwachstellen in Systemen, insbesondere in Finanzinstituten, zu überwachen und auszunutzen.
    • Politische Akteure, die betrügerische Algorithmen verwenden, um Marketingkampagnen mit generativen KI-Systemen auf eine Weise zu automatisieren, die die öffentliche Meinung beeinflussen und Wahlen beeinflussen kann.

    Fragen zu berücksichtigen

    • Wie werden sich Ihrer Meinung nach Algorithmen in Zukunft weiterentwickeln?
    • Was können Regierungen und Unternehmen tun, um Franken-Algorithmen zu kontrollieren?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    Eversheds Sutherland Folgen von unvorhersehbarem Code