Europäische KI-Verordnung: Ein Versuch, die KI human zu halten

IMAGE CREDIT:
Bildnachweis
iStock

Europäische KI-Verordnung: Ein Versuch, die KI human zu halten

GEBAUT FÜR DEN FUTURISTEN VON MORGEN

Die Quantumrun-Trends-Plattform bietet Ihnen die Einblicke, Tools und die Community, um zukünftige Trends zu erkunden und von ihnen zu profitieren.

ANGEBOT

5 USD pro Monat

Europäische KI-Verordnung: Ein Versuch, die KI human zu halten

Untertiteltext
Der Regulierungsvorschlag der Europäischen Kommission für künstliche Intelligenz zielt darauf ab, den ethischen Einsatz von KI zu fördern.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 13. Juni 2022

    Zusammenfassung der Einblicke

    Die Europäische Kommission (EK) unternimmt Schritte zur Festlegung ethischer Standards für künstliche Intelligenz (KI) und konzentriert sich dabei auf die Verhinderung von Missbrauch in Bereichen wie Überwachung und Verbraucherdaten. Dieser Schritt hat eine Debatte in der Technologiebranche ausgelöst und könnte zu einem einheitlichen Ansatz mit den USA führen, der auf globalen Einfluss abzielt. Allerdings können die Vorschriften auch unbeabsichtigte Folgen haben, wie z. B. eine Einschränkung des Marktwettbewerbs und eine Beeinträchtigung der Beschäftigungsmöglichkeiten im Technologiesektor.

    Kontext der europäischen KI-Regulierung

    Die Europäische Kommission hat sich aktiv auf die Ausarbeitung von Richtlinien zum Schutz des Datenschutzes und der Online-Rechte konzentriert. In jüngster Zeit hat sich dieser Schwerpunkt auf den ethischen Einsatz von KI-Technologien ausgeweitet. Die EG ist besorgt über den möglichen Missbrauch von KI in verschiedenen Bereichen, von der Erhebung von Verbraucherdaten bis zur Überwachung. Auf diese Weise möchte die Kommission einen Standard für KI-Ethik setzen, nicht nur innerhalb der EU, sondern möglicherweise als Modell für den Rest der Welt.

    Im April 2021 unternahm die Europäische Kommission einen wichtigen Schritt, indem sie eine Reihe von Regeln zur Überwachung von KI-Anwendungen veröffentlichte. Diese Regeln sollen den Einsatz von KI zur Überwachung, zur Aufrechterhaltung von Voreingenommenheit oder zu repressiven Maßnahmen durch Regierungen oder Organisationen verhindern. Insbesondere verbieten die Vorschriften KI-Systeme, die Personen physisch oder psychisch schädigen könnten. Beispielsweise sind KI-Systeme, die das Verhalten von Menschen durch versteckte Nachrichten manipulieren, nicht erlaubt, ebenso wenig wie Systeme, die die körperlichen oder geistigen Schwachstellen von Menschen ausnutzen.

    Daneben hat die Europäische Kommission auch eine strengere Richtlinie für KI-Systeme entwickelt, die sie als „hochriskant“ erachtet. Dabei handelt es sich um KI-Anwendungen, die in Bereichen eingesetzt werden, die einen erheblichen Einfluss auf die öffentliche Sicherheit und das Wohlbefinden haben, beispielsweise medizinische Geräte, Sicherheitsausrüstung und Instrumente zur Strafverfolgung. Die Richtlinie sieht strengere Prüfanforderungen, einen Genehmigungsprozess und eine fortlaufende Überwachung nach der Bereitstellung dieser Systeme vor. Auch Branchen wie biometrische Identifizierung, kritische Infrastruktur und Bildung fallen unter diesen Dachbereich. Unternehmen, die diese Vorschriften nicht einhalten, drohen hohe Geldstrafen von bis zu 32 Millionen US-Dollar oder 6 Prozent ihres weltweiten Jahresumsatzes.

    Störende Wirkung

    Die Technologiebranche hat Bedenken hinsichtlich des EU-Regulierungsrahmens für KI geäußert und argumentiert, dass solche Regeln den technologischen Fortschritt behindern könnten. Kritiker weisen darauf hin, dass die Definition von „Hochrisiko“-KI-Systemen im Rahmenwerk nicht eindeutig sei. Beispielsweise werden große Technologieunternehmen, die KI für Social-Media-Algorithmen oder gezielte Werbung nutzen, nicht als „hochriskant“ eingestuft, obwohl diese Anwendungen mit verschiedenen gesellschaftlichen Problemen wie Fehlinformationen und Polarisierung in Verbindung gebracht werden. Dem hält die Kommission entgegen, indem sie feststellt, dass die nationalen Aufsichtsbehörden in jedem EU-Land das letzte Wort darüber haben, was eine Anwendung mit hohem Risiko darstellt. Dieser Ansatz könnte jedoch zu Inkonsistenzen zwischen den Mitgliedstaaten führen.

    Die Europäische Union (EU) agiert nicht isoliert; Ziel ist es, mit den USA zusammenzuarbeiten, um einen globalen Standard für KI-Ethik zu etablieren. Auch der im April 2021 veröffentlichte Strategic Competition Act des US-Senats fordert internationale Zusammenarbeit zur Bekämpfung des „digitalen Autoritarismus“, einer verschleierten Anspielung auf Praktiken wie den Einsatz biometrischer Daten zur Massenüberwachung durch China. Diese transatlantische Partnerschaft könnte den Ton für die globale KI-Ethik vorgeben, wirft aber auch Fragen darüber auf, wie solche Standards weltweit durchgesetzt würden. Würden sich Länder mit unterschiedlichen Ansichten zum Datenschutz und zu individuellen Rechten wie China und Russland an diese Richtlinien halten, oder würde dies zu einer fragmentierten Landschaft der KI-Ethik führen?

    Sollten diese Vorschriften Mitte bis Ende der 2020er Jahre in Kraft treten, könnten sie weitreichende Auswirkungen auf die Technologiebranche und die Arbeitskräfte in der EU haben. Unternehmen, die in der EU tätig sind, können sich dafür entscheiden, diese regulatorischen Änderungen weltweit anzuwenden und ihren gesamten Betrieb an den neuen Standards auszurichten. Allerdings könnten einige Organisationen die Vorschriften als zu aufwändig empfinden und sich dafür entscheiden, den EU-Markt ganz zu verlassen. Beide Szenarien hätten Auswirkungen auf die Beschäftigung im Technologiesektor der EU. Beispielsweise könnte ein Massenausstieg von Unternehmen zu Arbeitsplatzverlusten führen, während die globale Angleichung an EU-Standards dazu führen könnte, dass in der EU ansässige Technologiefunktionen spezialisierter und potenziell wertvoller werden.

    Implikationen für eine verstärkte KI-Regulierung in Europa

    Weitere Auswirkungen des zunehmenden Wunsches der EG, KI zu regulieren, könnten sein:

    • Die EU und die USA schließen ein gegenseitiges Zertifizierungsabkommen für KI-Unternehmen, das zu harmonisierten ethischen Standards führt, die Unternehmen unabhängig von ihrem geografischen Standort befolgen müssen.
    • Wachstum im Spezialgebiet der KI-Prüfung, angetrieben durch eine verstärkte Zusammenarbeit zwischen privaten Unternehmen und dem öffentlichen Sektor, um die Einhaltung neuer Vorschriften sicherzustellen.
    • Nationen und Unternehmen aus Entwicklungsländern erhalten Zugang zu digitalen Diensten, die den ethischen KI-Standards westlicher Nationen entsprechen, was möglicherweise die Qualität und Sicherheit dieser Dienste erhöht.
    • Eine Verschiebung der Geschäftsmodelle hin zur Priorisierung ethischer KI-Praktiken, was Verbraucher anzieht, die sich zunehmend Sorgen um den Datenschutz und den ethischen Einsatz von Technologien machen.
    • Regierungen setzen KI in öffentlichen Diensten wie dem Gesundheitswesen und im Transportwesen mit größerem Selbstvertrauen ein, da sie wissen, dass diese Technologien strengen ethischen Standards entsprechen.
    • Erhöhte Investitionen in Bildungsprogramme mit Schwerpunkt auf ethischer KI, wodurch eine neue Generation von Technologen entsteht, die sich sowohl mit den Fähigkeiten der KI als auch mit ethischen Überlegungen bestens auskennt.
    • Kleinere Technologie-Startups sehen sich aufgrund der hohen Kosten für die Einhaltung gesetzlicher Vorschriften mit Eintrittsbarrieren konfrontiert, was möglicherweise den Wettbewerb erstickt und zu einer Marktkonsolidierung führt.

    Fragen zu berücksichtigen

    • Glauben Sie, dass Regierungen KI-Technologien und deren Einsatz regulieren sollten?
    • Wie könnte sich eine verstärkte Regulierung innerhalb der Technologiebranche sonst auf die Arbeitsweise von Unternehmen in der Branche auswirken? 

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen: