Franken-Algorithms: algoritmi, ki so postali lopovski

KREDIT ZA SLIKO:
Image kredit
iStock

Franken-Algorithms: algoritmi, ki so postali lopovski

Franken-Algorithms: algoritmi, ki so postali lopovski

Besedilo podnaslova
Z razvojem umetne inteligence se algoritmi razvijajo hitreje, kot so ljudje pričakovali.
    • Avtor:
    • ime avtorja
      Quantumrun Foresight
    • April 12, 2023

    Ko postajajo algoritmi strojnega učenja (ML) naprednejši, se lahko sami učijo in prilagajajo vzorcem v velikih naborih podatkov. Ta proces, znan kot "avtonomno učenje", lahko povzroči, da algoritem ustvari lastno kodo ali pravila za sprejemanje odločitev. Težava pri tem je, da je koda, ki jo ustvari algoritem, morda težko ali nemogoča za ljudi razumeti, zaradi česar je težko določiti pristranskosti. 

    Kontekst Franken-Algorithms

    Franken-algoritmi se nanašajo na algoritme (pravila, ki jih računalniki upoštevajo pri obdelavi podatkov in odzivanju na ukaze), ki so postali tako zapleteni in prepleteni, da jih ljudje ne morejo več dešifrirati. Izraz je naklon znanstveni fantastiki Mary Shelley o "pošasti", ki jo je ustvaril nori znanstvenik dr. Frankenstein. Čeprav so algoritmi in kode gradniki velike tehnologije in so Facebooku in Googlu omogočili, da sta zdaj vplivni podjetji, je o tehnologiji še vedno toliko stvari, ki jih ljudje ne poznajo. 

    Ko programerji gradijo kode in jih izvajajo prek programske opreme, ML omogoča računalnikom razumevanje in predvidevanje vzorcev. Medtem ko velika tehnologija trdi, da so algoritmi objektivni, ker človeška čustva in nepredvidljivost ne vplivajo nanje, se lahko ti algoritmi razvijajo in pišejo svoja pravila, kar vodi do katastrofalnih rezultatov. Koda, ki jo ustvarijo ti algoritmi, je pogosto zapletena in nepregledna, kar raziskovalcem ali izvajalcem otežuje interpretacijo odločitev algoritma ali prepoznavanje morebitnih pristranskosti, ki so lahko prisotne v procesu odločanja algoritma. Ta ovira lahko povzroči znatne izzive za podjetja, ki se pri sprejemanju odločitev zanašajo na te algoritme, saj morda ne bodo mogla razumeti ali razložiti razlogov za te odločitve.

    Moteč vpliv

    Ko Franken-Algorithms zaidejo, je lahko vprašanje življenja in smrti. Primer je bila nesreča leta 2018, ko je samovozeči avtomobil v Arizoni zbil in ubil žensko, ki je vozila kolo. Algoritmi avtomobila je niso mogli pravilno prepoznati kot človeka. Strokovnjaki so bili razdvojeni glede temeljnega vzroka nesreče – ali je bil avto nepravilno programiran in ali je algoritem postal preveč zapleten za svoje dobro? Programerji pa se lahko strinjajo, da mora obstajati sistem nadzora za podjetja, ki se ukvarjajo s programsko opremo – etični kodeks. 

    Vendar pa je ta etični kodeks nekoliko zavrnjen s strani velikih tehnologij, ker se ukvarjajo s prodajo podatkov in algoritmov in si ne morejo privoščiti, da bi bili regulirani ali zahtevani, da so pregledni. Poleg tega je nedavni razvoj, ki je povzročil zaskrbljenost zaposlenih v veliki tehnologiji, vedno večja uporaba algoritmov v vojski, kot je Googlovo partnerstvo z ministrstvom za obrambo ZDA za vključitev algoritmov v vojaško tehnologijo, kot so avtonomni brezpilotni letalniki. Zaradi te aplikacije so nekateri zaposleni dali odpoved, strokovnjaki pa so izrazili zaskrbljenost, da so algoritmi še vedno preveč nepredvidljivi, da bi jih lahko uporabili kot stroje za ubijanje. 

    Druga skrb je, da lahko Franken-Algorithms ohranijo in celo povečajo pristranskosti zaradi naborov podatkov, na katerih se usposabljajo. Ta proces lahko vodi do različnih družbenih težav, vključno z diskriminacijo, neenakostjo in nezakonitimi aretacijami. Zaradi teh povečanih tveganj številna tehnološka podjetja začenjajo objavljati svoje etične smernice za umetno inteligenco, da bi bila pregledna glede tega, kako razvijajo, uporabljajo in spremljajo svoje algoritme.

    Širše posledice za Franken-algoritme

    Morebitne posledice za algoritme Franken lahko vključujejo:

    • Razvoj avtonomnih sistemov, ki lahko sprejemajo odločitve in ukrepajo brez človeškega nadzora, kar vzbuja pomisleke glede odgovornosti in varnosti. Vendar lahko takšni algoritmi zmanjšajo stroške razvoja programske opreme in robotike, ki lahko avtomatizira človeško delo v večini industrij. 
    • Več nadzora nad tem, kako lahko algoritmi avtomatizirajo vojaško tehnologijo in podpirajo avtonomno orožje in vozila.
    • Povečan pritisk na vlade in vodilne v industriji, da izvajajo etični kodeks in predpise algoritmov.
    • Algoritmi Franken nesorazmerno vplivajo na določene demografske skupine, kot so skupnosti z nizkimi dohodki ali manjšinsko prebivalstvo.
    • Algoritmi Franken bi lahko ohranili in okrepili diskriminacijo in pristranskost pri sprejemanju odločitev, kot so odločitve o zaposlovanju in posojanju.
    • Te algoritme uporabljajo kibernetski kriminalci za spremljanje in izkoriščanje slabosti v sistemih, zlasti v finančnih institucijah.
    • Politični akterji uporabljajo lažne algoritme za avtomatizacijo marketinških kampanj z uporabo generativnih sistemov umetne inteligence na načine, ki lahko vplivajo na javno mnenje in vplivajo na volitve.

    Vprašanja, ki jih je treba upoštevati

    • Kako se bodo po vašem mnenju algoritmi razvijali naprej?
    • Kaj lahko vlade in podjetja storijo za nadzor Franken-Algorithmov?

    Insight reference

    Za ta vpogled so bile navedene naslednje priljubljene in institucionalne povezave:

    Eversheds Sutherland Posledice nepredvidljive kode