Franken-Algoritmi: Algoritmi koji su postali skitnice

KREDIT ZA SLIKE:
Slika kreditne
Istockphoto

Franken-Algoritmi: Algoritmi koji su postali skitnice

Franken-Algoritmi: Algoritmi koji su postali skitnice

Tekst podnaslova
S razvojem umjetne inteligencije, algoritmi se razvijaju brže nego što su ljudi očekivali.
    • Autor:
    • ime autora
      Quantumrun Foresight
    • Travnja 12, 2023

    Kako algoritmi strojnog učenja (ML) postaju sve napredniji, oni mogu sami učiti i prilagođavati se obrascima u velikim skupovima podataka. Ovaj proces, poznat kao "autonomno učenje", može rezultirati time da algoritam generira vlastiti kod ili pravila za donošenje odluka. Problem s ovim je taj što kod koji generira algoritam ljudima može biti težak ili nemoguć za razumijevanje, zbog čega je teško odrediti pristranosti. 

    Franken-Algorithms kontekst

    Franken-Algoritmi se odnose na algoritme (pravila koja računala slijede pri obradi podataka i odgovaranju na naredbe) koji su postali toliko složeni i isprepleteni da ih ljudi više ne mogu dešifrirati. Izraz je naklon znanstvenoj fantastici Mary Shelley o "čudovištu" koje je stvorio ludi znanstvenik dr. Frankenstein. Iako su algoritmi i kodovi sastavni dijelovi velike tehnologije i omogućili su Facebooku i Googleu da budu utjecajne tvrtke kakve su sada, još uvijek ima toliko toga o tehnologiji što ljudi ne znaju. 

    Kada programeri izrađuju kodove i pokreću ih kroz softver, ML omogućuje računalima razumijevanje i predviđanje uzoraka. Dok velika tehnologija tvrdi da su algoritmi objektivni jer ljudske emocije i nepredvidivost ne utječu na njih, ti algoritmi mogu evoluirati i pisati vlastita pravila, što dovodi do katastrofalnih rezultata. Kod koji generiraju ti algoritmi često je složen i neproziran, što otežava istraživačima ili praktičarima tumačenje odluka algoritma ili prepoznavanje bilo kakvih pristranosti koje mogu biti prisutne u procesu donošenja odluka algoritma. Ova prepreka može stvoriti značajne izazove za tvrtke koje se oslanjaju na ove algoritme za donošenje odluka, jer možda neće moći razumjeti ili objasniti razloge koji stoje iza tih odluka.

    Razarajući učinak

    Kad Franken-Algorithms počnu skakati, to može biti pitanje života i smrti. Primjer je nesreća iz 2018. kada je samovozeći automobil u Arizoni udario i ubio ženu koja je vozila bicikl. Algoritmi automobila nisu je mogli ispravno identificirati kao čovjeka. Stručnjaci su bili razdvojeni oko uzroka nesreće - je li automobil bio neispravno programiran i je li algoritam postao presložen za vlastito dobro? Međutim, ono oko čega se programeri mogu složiti je da treba postojati sustav nadzora za softverske tvrtke - etički kodeks. 

    Međutim, ovaj etički kodeks dolazi uz malo odbijanja velikih tehnoloških kompanija jer se bave prodajom podataka i algoritama i ne mogu si priuštiti da budu regulirani ili da budu transparentni. Osim toga, nedavni razvoj događaja koji je izazvao zabrinutost velikih tehnoloških zaposlenika je sve veća upotreba algoritama unutar vojske, kao što je Googleovo partnerstvo s američkim Ministarstvom obrane za uključivanje algoritama u vojnu tehnologiju, poput autonomnih dronova. Ova je aplikacija dovela do toga da su neki zaposlenici dali otkaz, a stručnjaci su izrazili zabrinutost da su algoritmi još uvijek previše nepredvidivi da bi se koristili kao strojevi za ubijanje. 

    Još jedna zabrinutost je da Franken-Algoritmi mogu ovjekovječiti, pa čak i pojačati pristranosti zbog skupova podataka na kojima se obučavaju. Ovaj proces može dovesti do raznih društvenih problema, uključujući diskriminaciju, nejednakost i nezakonita uhićenja. Zbog ovih povećanih rizika, mnoge tehnološke tvrtke počinju objavljivati ​​svoje etičke smjernice za umjetnu inteligenciju kako bi bile transparentne u pogledu toga kako razvijaju, koriste i nadziru svoje algoritme.

    Šire implikacije za Franken-algoritme

    Potencijalne implikacije za Franken-algoritme mogu uključivati:

    • Razvoj autonomnih sustava koji mogu donositi odluke i poduzimati radnje bez ljudskog nadzora, što izaziva zabrinutost oko odgovornosti i sigurnosti. Međutim, takvi algoritmi mogu smanjiti troškove razvoja softvera i robotike koji mogu automatizirati ljudski rad u većini industrija. 
    • Više istraživanja o tome kako algoritmi mogu automatizirati vojnu tehnologiju i podržati autonomno oružje i vozila.
    • Povećani pritisak na vlade i čelnike industrije da provedu etički kodeks i propise algoritma.
    • Franken-Algoritmi koji nerazmjerno utječu na određene demografske skupine, poput zajednica s niskim prihodima ili manjinskog stanovništva.
    • Franken-Algoritmi bi mogli ovjekovječiti i pojačati diskriminaciju i pristranost u donošenju odluka, kao što su odluke o zapošljavanju i posuđivanju.
    • Ove algoritme kibernetički kriminalci koriste za praćenje i iskorištavanje slabosti u sustavima, posebno u financijskim institucijama.
    • Politički akteri koji koriste lažne algoritme za automatizaciju marketinških kampanja koristeći generativne AI sustave na načine koji mogu utjecati na javno mnijenje i utjecati na izbore.

    Pitanja za razmatranje

    • Što mislite kako će se algoritmi dalje razvijati u budućnosti?
    • Što vlade i tvrtke mogu učiniti da kontroliraju Franken-algoritme?

    Reference uvida

    Za ovaj uvid korištene su sljedeće popularne i institucionalne veze:

    Eversheds Sutherland Posljedice nepredvidivog koda