Usklađivanje s umjetnom inteligencijom: Usklađivanje ciljeva umjetne inteligencije s ljudskim vrijednostima

KREDIT ZA SLIKE:
Slika kreditne
Istockphoto

Usklađivanje s umjetnom inteligencijom: Usklađivanje ciljeva umjetne inteligencije s ljudskim vrijednostima

Usklađivanje s umjetnom inteligencijom: Usklađivanje ciljeva umjetne inteligencije s ljudskim vrijednostima

Tekst podnaslova
Neki istraživači vjeruju da treba primijeniti mjere kako bi se osiguralo da umjetna inteligencija ne šteti društvu.
    • Autor:
    • ime autora
      Quantumrun Foresight
    • 25. 2023. XNUMX.

    Usklađivanje umjetne inteligencije (AI) je kada se ciljevi sustava AI podudaraju s ljudskim vrijednostima. Tvrtke kao što su OpenAI, DeepMind i Anthropic imaju timove istraživača čiji je jedini fokus proučavanje zaštitnih ograda za različite scenarije u kojima bi se to moglo dogoditi.

    AI kontekst usklađivanja

    Prema studiji istraživanja Sveučilišta Cornell iz 2021., nekoliko je studija pokazalo da alati ili modeli koje su izradili algoritmi pokazuju pristranost koja proizlazi iz podataka na kojima su obučavani. Na primjer, u obradi prirodnog jezika (NLP), dokumentirano je da odabrani NLP modeli obučeni na ograničenim skupovima podataka daju predviđanja na temelju štetnih rodnih stereotipa protiv žena. Slično tome, druge su studije otkrile da su algoritmi uvježbani na neovlaštenom skupu podataka rezultirali rasno pristranim preporukama, osobito u policiji.

    Postoji mnogo primjera u kojima su sustavi strojnog učenja bili lošiji za manjine ili skupine koje pate od višestrukih nedostataka. Konkretno, automatizirana analiza lica i zdravstvena dijagnostika obično ne funkcioniraju dobro za žene i obojene ljude. Kada se kritični sustavi koji bi se trebali temeljiti na činjenicama i logici umjesto na emocijama koriste u kontekstima kao što je dodjela zdravstvene skrbi ili obrazovanja, oni mogu učiniti više štete otežavajući prepoznavanje razloga koji stoje iza ovih preporuka.

    Kao rezultat toga, tehnološke tvrtke stvaraju timove za usklađivanje AI kako bi se usredotočili na održavanje algoritama poštenim i humanim. Istraživanje je ključno za razumijevanje smjera razvoja naprednih AI sustava, kao i izazova s ​​kojima bismo se mogli suočiti kako AI sposobnosti rastu.

    Razarajući učinak

    Prema Janu Leikeu, voditelju usklađivanja umjetne inteligencije u OpenAI-ju (2021.), s obzirom na to da su sustavi umjetne inteligencije postali sposobni tek 2010-ih, razumljivo je da je većina istraživanja usklađivanja umjetne inteligencije opterećena teorijom. Kada se neizmjerno moćni sustavi umjetne inteligencije usklade, jedan od izazova s ​​kojima se ljudi suočavaju je da bi ti strojevi mogli stvoriti rješenja koja su previše komplicirana za pregled i procjenu imaju li etički smisla.

    Leike je osmislio strategiju rekurzivnog modeliranja nagrađivanja (RRM) kako bi riješio ovaj problem. S RRM-om, nekoliko "pomoćnih" AI-ova uči se kako bi pomoglo čovjeku da procijeni koliko dobro radi složeniji AI. Optimističan je glede mogućnosti stvaranja nečega što naziva "najkorisnijim igračem usklađivanja". U terminima startupa, MVP (ili minimum održivi proizvod) je najjednostavniji mogući proizvod koji tvrtka može izgraditi da testira ideju. Nadamo se da će umjetna inteligencija jednog dana odgovarati ljudskim performansama u istraživanju umjetne inteligencije i njenom usklađivanju s vrijednostima, a istovremeno će biti funkcionalna.

    Dok je sve veći interes za usklađivanje AI-a neto pozitivan, mnogi analitičari na tom području misle da je velik dio "etičkog" rada u vodećim AI laboratorijima samo odnosi s javnošću osmišljeni kako bi tehnološke tvrtke izgledale dobro i izbjegle negativan publicitet. Ti pojedinci ne očekuju da će prakse etičkog razvoja uskoro postati prioritet za te tvrtke.

    Ova zapažanja naglašavaju važnost interdisciplinarnih pristupa za nastojanja usklađivanja vrijednosti, jer je to relativno novo područje moralnog i tehničkog istraživanja. Različite grane znanja trebale bi biti dio uključivog istraživačkog programa. Ova inicijativa također ukazuje na potrebu da tehnolozi i kreatori politika ostanu svjesni svog društvenog konteksta i dionika, čak i kada sustavi umjetne inteligencije budu napredovali.

    Implikacije usklađivanja umjetne inteligencije

    Šire implikacije usklađivanja umjetne inteligencije mogu uključivati: 

    • Laboratoriji umjetne inteligencije koji zapošljavaju različite etičke odbore za nadgledanje projekata i ispunjavanje etičkih smjernica za umjetnu inteligenciju. 
    • Vlade stvaraju zakone koji zahtijevaju od tvrtki da dostave svoj okvir za odgovornu umjetnu inteligenciju i kako planiraju dalje razvijati svoje projekte umjetne inteligencije.
    • Povećane kontroverze o korištenju algoritama pri zapošljavanju, javnom nadzoru i provođenju zakona.
    • Istraživači su otpušteni iz velikih laboratorija umjetne inteligencije zbog sukoba interesa između etike i korporativnih ciljeva.
    • Veći pritisak na vlade da reguliraju napredne AI sustave koji su nevjerojatno moćni, ali potencijalno mogu kršiti ljudska prava.

    Pitanja za komentar

    • Kako tvrtke mogu postati odgovorne za sustave umjetne inteligencije koje stvaraju?
    • Koje su druge potencijalne opasnosti ako postoji AI neusklađenost?

    Reference uvida

    Za ovaj uvid korištene su sljedeće popularne i institucionalne veze: