Europejska regulacja AI: próba zachowania humanitarnej AI

KREDYT WZROKU:
Image credit
iStock

Europejska regulacja AI: próba zachowania humanitarnej AI

ZBUDOWANY DLA FUTURYSTÓW JUTRA

Platforma Quantumrun Trends zapewni Ci wiedzę, narzędzia i społeczność, dzięki którym możesz odkrywać przyszłe trendy i czerpać z nich korzyści.

OFERTA SPECJALNA

5 USD ZA MIESIĄC

Europejska regulacja AI: próba zachowania humanitarnej AI

Tekst podtytułu
Wniosek Komisji Europejskiej dotyczący przepisów dotyczących sztucznej inteligencji ma na celu promowanie etycznego wykorzystania sztucznej inteligencji.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 13 czerwca 2022 r.

    Podsumowanie spostrzeżeń

    Komisja Europejska (KE) podejmuje kroki w celu ustanowienia standardów etycznych dla sztucznej inteligencji (AI), koncentrując się na zapobieganiu nadużyciom w obszarach takich jak nadzór i dane konsumenckie. Posunięcie to wywołało debatę w branży technologicznej i może doprowadzić do jednolitego podejścia z USA, mającego na celu uzyskanie globalnego wpływu. Regulacje mogą jednak mieć także niezamierzone konsekwencje, takie jak ograniczenie konkurencji na rynku i wpłynąć na możliwości zatrudnienia w sektorze technologii.

    Europejski kontekst regulacji SI

    Komisja Europejska aktywnie koncentruje się na tworzeniu polityk chroniących prywatność danych i prawa w Internecie. Ostatnio skupienie się na tym rozszerzyło się i obejmuje etyczne wykorzystanie technologii sztucznej inteligencji. KE jest zaniepokojona potencjalnym niewłaściwym wykorzystaniem sztucznej inteligencji w różnych sektorach, od gromadzenia danych konsumenckich po nadzór. W ten sposób Komisja zamierza ustanowić standardy etyki sztucznej inteligencji nie tylko w UE, ale potencjalnie jako wzór dla reszty świata.

    W kwietniu 2021 r. KE zrobiła znaczący krok, wydając zbiór przepisów mających na celu monitorowanie zastosowań sztucznej inteligencji. Zasady te mają na celu zapobieganie wykorzystywaniu sztucznej inteligencji do celów inwigilacji, utrwalania uprzedzeń lub działań represyjnych ze strony rządów lub organizacji. W szczególności przepisy zabraniają stosowania systemów sztucznej inteligencji, które mogłyby wyrządzić krzywdę fizyczną lub psychiczną osobom. Na przykład niedozwolone są systemy sztucznej inteligencji manipulujące zachowaniem ludzi za pomocą ukrytych wiadomości, ani systemy wykorzystujące słabość fizyczną lub psychiczną ludzi.

    Oprócz tego KE opracowała również bardziej rygorystyczną politykę dotyczącą systemów sztucznej inteligencji, które uważa za „wysokiego ryzyka”. Są to zastosowania sztucznej inteligencji stosowane w sektorach, które mają istotny wpływ na bezpieczeństwo i dobrostan publiczny, takich jak wyroby medyczne, sprzęt zapewniający bezpieczeństwo i narzędzia egzekwowania prawa. Polityka określa bardziej rygorystyczne wymagania dotyczące audytu, proces zatwierdzania i ciągłe monitorowanie po wdrożeniu tych systemów. Pod tym parasolem znajdują się również branże takie jak identyfikacja biometryczna, infrastruktura krytyczna i edukacja. Firmom, które nie zastosują się do tych przepisów, grożą surowe kary do 32 milionów dolarów lub 6 procent ich globalnych rocznych przychodów.

    Zakłócający wpływ

    Branża technologiczna wyraziła obawy dotyczące ram regulacyjnych WE dotyczących sztucznej inteligencji, argumentując, że takie zasady mogą utrudniać postęp technologiczny. Krytycy zwracają uwagę, że definicja systemów sztucznej inteligencji „wysokiego ryzyka” w ramach nie jest jednoznaczna. Na przykład duże firmy technologiczne, które wykorzystują sztuczną inteligencję do algorytmów mediów społecznościowych lub reklam ukierunkowanych, nie są klasyfikowane jako „wysokiego ryzyka”, mimo że aplikacje te powiązano z różnymi problemami społecznymi, takimi jak dezinformacja i polaryzacja. KE przeciwstawia się temu, stwierdzając, że krajowe agencje nadzorcze w każdym kraju UE będą miały ostatnie słowo w sprawie tego, co stanowi aplikację wysokiego ryzyka, ale takie podejście może prowadzić do niespójności w państwach członkowskich.

    Unia Europejska (UE) nie działa w izolacji; ma na celu współpracę ze Stanami Zjednoczonymi w celu ustanowienia globalnego standardu etyki sztucznej inteligencji. Ustawa Senatu USA o strategicznej konkurencji, wydana w kwietniu 2021 r., również wzywa do współpracy międzynarodowej w celu przeciwdziałania „cyfrowemu autorytaryzmowi”, co jest zawoalowanym odniesieniem do praktyk takich jak wykorzystywanie przez Chiny danych biometrycznych do masowej inwigilacji. To partnerstwo transatlantyckie mogłoby nadać ton globalnej etyce sztucznej inteligencji, ale rodzi również pytania o sposób egzekwowania takich standardów na całym świecie. Czy kraje o różnych poglądach na prywatność danych i prawa jednostki, takie jak Chiny i Rosja, zastosowałyby się do tych wytycznych, czy też stworzyłoby to fragmentaryczny krajobraz etyki sztucznej inteligencji?

    Jeżeli regulacje te wejdą w życie od połowy do końca 2020 r., mogą mieć ogromny wpływ na przemysł technologiczny i siłę roboczą w UE. Firmy działające w UE mogą zdecydować się na zastosowanie tych zmian regulacyjnych na całym świecie, dostosowując całą swoją działalność do nowych standardów. Niektóre organizacje mogą jednak uznać te regulacje za zbyt uciążliwe i zdecydować się na całkowite opuszczenie rynku UE. Obydwa scenariusze miałyby konsekwencje dla zatrudnienia w unijnym sektorze technologicznym. Na przykład masowe odejście przedsiębiorstw może prowadzić do utraty miejsc pracy, natomiast globalne dostosowanie do standardów UE może sprawić, że stanowiska technologiczne w UE będą bardziej wyspecjalizowane i potencjalnie bardziej wartościowe.

    Konsekwencje zwiększenia regulacji dotyczących sztucznej inteligencji w Europie

    Szersze konsekwencje rosnącej chęci KE do regulowania sztucznej inteligencji mogą obejmować:

    • UE i USA zawierają umowę o wzajemnej certyfikacji przedsiębiorstw zajmujących się sztuczną inteligencją, prowadzącą do zharmonizowanego zestawu standardów etycznych, których muszą przestrzegać firmy niezależnie od swojego położenia geograficznego.
    • Rozwój specjalistycznej dziedziny audytu sztucznej inteligencji, napędzany zwiększoną współpracą między firmami prywatnymi a sektorem publicznym w celu zapewnienia zgodności z nowymi przepisami.
    • Narody i przedsiębiorstwa z krajów rozwijających się uzyskują dostęp do usług cyfrowych zgodnych z etycznymi standardami sztucznej inteligencji określonymi przez kraje zachodnie, potencjalnie podnosząc jakość i bezpieczeństwo tych usług.
    • Zmiana modeli biznesowych polegająca na priorytetowym traktowaniu etycznych praktyk związanych ze sztuczną inteligencją, przyciągając konsumentów, którzy są coraz bardziej zaniepokojeni prywatnością danych i etycznym korzystaniem z technologii.
    • Rządy z większą pewnością wdrażają sztuczną inteligencję w usługach publicznych, takich jak opieka zdrowotna i transport, wiedząc, że technologie te spełniają rygorystyczne standardy etyczne.
    • Zwiększone inwestycje w programy edukacyjne skupiające się na etycznej sztucznej inteligencji, tworząc nowe pokolenie technologów, którzy są dobrze zorientowani zarówno w możliwościach sztucznej inteligencji, jak i w kwestiach etycznych.
    • Mniejsze start-upy technologiczne borykają się z barierami wejścia ze względu na wysokie koszty przestrzegania przepisów, co może dławić konkurencję i prowadzić do konsolidacji rynku.

    Pytania do rozważenia

    • Czy uważasz, że rządy powinny regulować technologie AI i sposób ich wdrażania?
    • W jaki inny sposób zwiększona regulacja w branży technologicznej może wpłynąć na sposób działania firm z tego sektora? 

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: