Franken-Algoritmi: Algoritmi su propali

KREDIT ZA SLIKU:
Image credit
iStock

Franken-Algoritmi: Algoritmi su propali

Franken-Algoritmi: Algoritmi su propali

Tekst podnaslova
Sa razvojem veštačke inteligencije, algoritmi se razvijaju brže nego što su ljudi očekivali.
    • Autor:
    • Ime autora
      Quantumrun Foresight
    • April 12, 2023

    Kako algoritmi mašinskog učenja (ML) postaju napredniji, oni su u stanju da sami uče i prilagođavaju se obrascima u velikim skupovima podataka. Ovaj proces, poznat kao "autonomno učenje", može rezultirati time da algoritam generira vlastiti kod ili pravila za donošenje odluka. Problem s ovim je u tome što kod koji generiše algoritam može biti težak ili nemoguć za ljude da shvate, što čini izazovom utvrđivanje predrasuda. 

    Kontekst Franken-Algoritama

    Franken-Algoritmi se odnose na algoritme (pravila kojih se kompjuteri pridržavaju prilikom obrade podataka i odgovaranja na komande) koji su postali toliko složeni i isprepleteni da ih ljudi više ne mogu dešifrirati. Izraz je znak naučne fantastike Mary Shelley o "čudovištu" koje je stvorio ludi naučnik dr Frankenštajn. Iako su algoritmi i kodovi gradivni blokovi velike tehnologije i omogućili su Facebooku i Guglu da budu uticajne kompanije kakve su sada, još uvijek postoji toliko toga o tehnologiji što ljudi ne znaju. 

    Kada programeri prave kodove i pokreću ih kroz softver, ML omogućava računarima da razumeju i predvide obrasce. Dok velika tehnologija tvrdi da su algoritmi objektivni jer ljudske emocije i nepredvidivost ne utječu na njih, ovi algoritmi mogu evoluirati i pisati vlastita pravila, što dovodi do katastrofalnih rezultata. Kod koji generišu ovi algoritmi je često složen i neproziran, što otežava istraživačima ili praktičarima da tumače odluke algoritma ili da identifikuju bilo kakve predrasude koje mogu biti prisutne u procesu donošenja odluka algoritma. Ova blokada puta može stvoriti značajne izazove za kompanije koje se oslanjaju na ove algoritme za donošenje odluka, jer možda neće moći razumjeti ili objasniti razloge iza tih odluka.

    Ometajući uticaj

    Kada Franken-algoritmi pokvare, to može biti pitanje života i smrti. Primjer je nesreća 2018. godine kada je samovozeći automobil u Arizoni udario i ubio ženu koja je vozila bicikl. Algoritmi automobila nisu bili u stanju da je ispravno identifikuju kao čoveka. Stručnjaci su bili uznemireni oko osnovnog uzroka nesreće – da li je automobil bio nepravilno programiran i da li je algoritam postao previše složen za njegovo dobro? Međutim, ono oko čega se programeri mogu složiti je da mora postojati sistem nadzora za softverske kompanije – etički kodeks. 

    Međutim, ovaj etički kodeks dolazi sa nekim odbijanjem velikih tehnologija jer se bave prodajom podataka i algoritama, i ne mogu si priuštiti da budu regulirani ili da budu transparentni. Osim toga, nedavni razvoj koji je izazvao zabrinutost kod velikih tehnoloških zaposlenika je sve veća upotreba algoritama u vojsci, kao što je Googleovo partnerstvo s Ministarstvom obrane SAD-a za inkorporiranje algoritama u vojnu tehnologiju, poput autonomnih dronova. Ova aplikacija je dovela do toga da su neki zaposlenici dali otkaz, a stručnjaci izrazili zabrinutost da su algoritmi još uvijek previše nepredvidivi da bi se mogli koristiti kao mašine za ubijanje. 

    Druga zabrinutost je da Franken-algoritmi mogu produžiti, pa čak i pojačati predrasude zbog skupova podataka na kojima su obučeni. Ovaj proces može dovesti do različitih društvenih problema, uključujući diskriminaciju, nejednakost i nezakonita hapšenja. Zbog ovih povećanih rizika, mnoge tehnološke kompanije počinju objavljivati ​​svoje etičke smjernice za umjetnu inteligenciju kako bi bile transparentne o tome kako razvijaju, koriste i nadgledaju svoje algoritme.

    Šire implikacije za Franken-algoritme

    Potencijalne implikacije za Franken-algoritme mogu uključivati:

    • Razvoj autonomnih sistema koji mogu donositi odluke i preduzimati akcije bez ljudskog nadzora, izazivajući zabrinutost za odgovornost i sigurnost. Međutim, takvi algoritmi mogu smanjiti troškove razvoja softvera i robotike koji mogu automatizirati ljudski rad u većini industrija. 
    • Više detalja o tome kako algoritmi mogu automatizirati vojnu tehnologiju i podržati autonomno oružje i vozila.
    • Povećan pritisak na vlade i lidere industrije da implementiraju algoritamski kodeks etike i propisa.
    • Franken-algoritmi neproporcionalno utiču na određene demografske grupe, kao što su zajednice sa niskim prihodima ili manjinsko stanovništvo.
    • Franken-algoritmi bi mogli produžiti i pojačati diskriminaciju i pristrasnost u donošenju odluka, kao što su odluke o zapošljavanju i pozajmljivanju.
    • Ove algoritme koriste sajber kriminalci za praćenje i iskorištavanje slabosti sistema, posebno u finansijskim institucijama.
    • Politički akteri koji koriste lažne algoritme za automatizaciju marketinških kampanja koristeći generativne AI sisteme na načine koji mogu utjecati na javno mnijenje i utjecati na izbore.

    Pitanja koja treba razmotriti

    • Šta mislite kako će se algoritmi dalje razvijati u budućnosti?
    • Šta vlade i kompanije mogu učiniti da kontrolišu Franken-algoritme?

    Insight reference

    Za ovaj uvid referencirane su sljedeće popularne i institucionalne veze:

    Eversheds Sutherland Posljedice nepredvidivog koda