Algorytmy Frankena: Algorytmy zbuntowały się

KREDYT WZROKU:
Image credit
iStock

Algorytmy Frankena: Algorytmy zbuntowały się

Algorytmy Frankena: Algorytmy zbuntowały się

Tekst podtytułu
Wraz z rozwojem sztucznej inteligencji algorytmy ewoluują szybciej, niż przewidywali ludzie.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 12 kwietnia 2023 r.

    W miarę jak algorytmy uczenia maszynowego (ML) stają się coraz bardziej zaawansowane, są w stanie samodzielnie uczyć się i dostosowywać do wzorców w dużych zbiorach danych. Proces ten, znany jako „autonomiczne uczenie się”, może skutkować wygenerowaniem przez algorytm własnego kodu lub reguł podejmowania decyzji. Problem polega na tym, że kod generowany przez algorytm może być trudny lub niemożliwy do zrozumienia dla ludzi, co utrudnia wskazanie błędów. 

    Kontekst algorytmów Frankena

    Algorytmy Frankena odnoszą się do algorytmów (zasad, którymi kierują się komputery podczas przetwarzania danych i reagowania na polecenia), które stały się tak złożone i splecione, że ludzie nie są już w stanie ich rozszyfrować. Termin ten jest ukłonem w stronę science fiction Mary Shelley o „potworze” stworzonym przez szalonego naukowca, dr Frankensteina. Podczas gdy algorytmy i kody są budulcem wielkiej technologii i pozwoliły Facebookowi i Google być wpływowymi firmami, którymi są teraz, wciąż jest tak wiele o technologii, której ludzie nie wiedzą. 

    Gdy programiści tworzą kody i uruchamiają je w oprogramowaniu, uczenie maszynowe umożliwia komputerom zrozumienie i przewidywanie wzorców. Podczas gdy big tech twierdzi, że algorytmy są obiektywne, ponieważ ludzkie emocje i nieprzewidywalność nie mają na nie wpływu, algorytmy te mogą ewoluować i pisać własne reguły, co prowadzi do katastrofalnych rezultatów. Kod generowany przez te algorytmy jest często złożony i nieprzejrzysty, co utrudnia naukowcom lub praktykom interpretację decyzji algorytmu lub identyfikację wszelkich błędów, które mogą występować w procesie decyzyjnym algorytmu. Ta blokada może stanowić poważne wyzwanie dla firm, które polegają na tych algorytmach przy podejmowaniu decyzji, ponieważ mogą one nie być w stanie zrozumieć lub wyjaśnić uzasadnienia tych decyzji.

    Zakłócający wpływ

    Kiedy Franken-Algorytmy stają się nieuczciwe, może to być kwestia życia i śmierci. Przykładem był wypadek z 2018 roku, kiedy autonomiczny samochód w Arizonie uderzył i zabił kobietę jadącą na rowerze. Algorytmy samochodu nie były w stanie poprawnie zidentyfikować jej jako człowieka. Eksperci byli rozdarci co do pierwotnej przyczyny wypadku – czy samochód nie został niewłaściwie zaprogramowany i czy algorytm stał się zbyt skomplikowany dla własnego dobra? Jednak programiści mogą się zgodzić co do tego, że musi istnieć system nadzoru nad firmami programistycznymi — kodeks etyczny. 

    Jednak ten kodeks etyczny wiąże się z pewnym sprzeciwem ze strony dużych technologii, ponieważ zajmują się one sprzedażą danych i algorytmów i nie mogą sobie pozwolić na regulacje lub wymóg przejrzystości. Ponadto ostatnim wydarzeniem, które wzbudziło niepokój pracowników dużych technologii, jest coraz częstsze stosowanie algorytmów w wojsku, na przykład partnerstwo Google z Departamentem Obrony USA w celu włączenia algorytmów do technologii wojskowych, takich jak autonomiczne drony. Ta aplikacja doprowadziła do rezygnacji niektórych pracowników, a eksperci wyrazili obawy, że algorytmy są nadal zbyt nieprzewidywalne, aby można ich było używać jako maszyn do zabijania. 

    Innym problemem jest to, że algorytmy Frankena mogą utrwalać, a nawet wzmacniać uprzedzenia ze względu na zestawy danych, na których są szkolone. Proces ten może prowadzić do różnych problemów społecznych, w tym dyskryminacji, nierówności i bezprawnych aresztowań. Z powodu tych zwiększonych zagrożeń wiele firm technologicznych zaczyna publikować swoje wytyczne dotyczące etycznej sztucznej inteligencji, aby zapewnić przejrzystość w zakresie opracowywania, używania i monitorowania swoich algorytmów.

    Szersze implikacje dla algorytmów Frankena

    Potencjalne implikacje dla algorytmów Frankena mogą obejmować:

    • Rozwój autonomicznych systemów, które mogą podejmować decyzje i podejmować działania bez nadzoru człowieka, budząc obawy co do odpowiedzialności i bezpieczeństwa. Jednak takie algorytmy mogą obniżyć koszty opracowywania oprogramowania i robotyki, które mogą zautomatyzować ludzką pracę w większości branż. 
    • Więcej kontroli nad tym, w jaki sposób algorytmy mogą zautomatyzować technologię wojskową i wspierać autonomiczną broń i pojazdy.
    • Zwiększona presja na rządy i liderów branży, aby wdrożyli algorytmiczny kodeks etyczny i przepisy.
    • Algorytmy Frankena nieproporcjonalnie wpływają na niektóre grupy demograficzne, takie jak społeczności o niskich dochodach lub populacje mniejszościowe.
    • Algorytmy Frankena mogą utrwalać i wzmacniać dyskryminację i uprzedzenia w podejmowaniu decyzji, takich jak decyzje dotyczące zatrudniania i udzielania pożyczek.
    • Algorytmy te są wykorzystywane przez cyberprzestępców do monitorowania i wykorzystywania słabości systemów, zwłaszcza w instytucjach finansowych.
    • Aktorzy polityczni używają nieuczciwych algorytmów do automatyzacji kampanii marketingowych przy użyciu generatywnych systemów sztucznej inteligencji w sposób, który może wpływać na opinię publiczną i wpływać na wybory.

    Pytania do rozważenia

    • Jak myślisz, w jaki sposób algorytmy będą się dalej rozwijać w przyszłości?
    • Co mogą zrobić rządy i firmy, aby kontrolować algorytmy Franken?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: