Usklađivanje AI: Usklađivanje ciljeva umjetne inteligencije odgovara ljudskim vrijednostima

KREDIT ZA SLIKU:
Image credit
iStock

Usklađivanje AI: Usklađivanje ciljeva umjetne inteligencije odgovara ljudskim vrijednostima

Usklađivanje AI: Usklađivanje ciljeva umjetne inteligencije odgovara ljudskim vrijednostima

Tekst podnaslova
Neki istraživači smatraju da treba poduzeti mjere kako bi se osiguralo da umjetna inteligencija ne šteti društvu.
    • Autor:
    • Ime autora
      Quantumrun Foresight
    • Januar 25, 2023

    Usklađivanje umjetne inteligencije (AI) je kada se ciljevi AI sistema podudaraju s ljudskim vrijednostima. Kompanije poput OpenAI, DeepMind i Anthropic imaju timove istraživača čiji je jedini fokus proučavanje zaštitnih ograda za različite scenarije u kojima bi se to moglo dogoditi.

    Kontekst AI usklađivanja

    Prema istraživačkoj studiji Univerziteta Cornell iz 2021. godine, nekoliko studija je pokazalo da alati ili modeli kreirani algoritmima pokazuju pristrasnost dobivenu iz podataka na kojima su obučeni. Na primjer, u obradi prirodnog jezika (NLP), odabrani modeli NLP-a obučeni na ograničenim skupovima podataka dokumentirani su da predviđaju na osnovu štetnih rodnih stereotipa prema ženama. Slično tome, druge studije su otkrile da algoritmi obučeni na neovlaštenom skupu podataka rezultiraju rasno pristrasnim preporukama, posebno u policiji.

    Postoji mnogo primjera u kojima su sistemi mašinskog učenja lošiji za manjine ili grupe koje pate od višestrukih nedostataka. Konkretno, automatska analiza lica i zdravstvena dijagnostika obično ne funkcionišu dobro za žene i obojene osobe. Kada se kritični sistemi koji bi trebali biti zasnovani na činjenicama i logici umjesto na emocijama koriste u kontekstima kao što su dodjela zdravstvene zaštite ili obrazovanja, oni mogu učiniti više štete tako što će otežati prepoznavanje razloga iza ovih preporuka.

    Kao rezultat toga, tehnološke firme stvaraju timove za usklađivanje AI kako bi se fokusirali na održavanje algoritama pravednim i humanim. Istraživanje je ključno za razumijevanje smjera naprednih AI sistema, kao i izazova s ​​kojima se možemo suočiti kako AI sposobnosti rastu.

    Ometajući uticaj

    Prema Jan Leikeu, šefu AI usklađivanja u OpenAI (2021), s obzirom na to da su AI sistemi postali sposobni tek 2010-ih, razumljivo je da je većina istraživanja usklađivanja umjetne inteligencije bila teška. Kada su neizmjerno moćni AI sistemi usklađeni, jedan od izazova s ​​kojima se ljudi suočavaju je taj da ove mašine mogu stvoriti rješenja koja su previše komplicirana da bi se pregledala i procijenila imaju li etički smisla.

    Leike je osmislio strategiju rekurzivnog modeliranja nagrađivanja (RRM) kako bi riješio ovaj problem. Uz RRM, nekoliko "pomoćnih" AI se podučava da pomognu čovjeku da procijeni koliko dobro radi složenija AI. On je optimističan u pogledu mogućnosti stvaranja nečega što naziva "MVP poravnanja". U smislu startup-a, MVP (ili minimalno održiv proizvod) je najjednostavniji mogući proizvod koji kompanija može napraviti da testira ideju. Nadamo se da će jednog dana AI uskladiti ljudske performanse u istraživanju umjetne inteligencije i njenom usklađivanju s vrijednostima, a istovremeno će biti funkcionalan.

    Iako je sve veći interes za usklađivanje AI-a čista pozitiva, mnogi analitičari u ovoj oblasti smatraju da je veliki dio "etičkog" rada u vodećim AI laboratorijima samo odnosi s javnošću osmišljeni kako bi tehnološke kompanije izgledale dobro i izbjegle negativan publicitet. Ovi pojedinci ne očekuju da će etička praksa razvoja uskoro postati prioritet za ove kompanije.

    Ova zapažanja naglašavaju važnost interdisciplinarnih pristupa za napore za usklađivanje vrijednosti, jer je ovo relativno nova oblast moralnog i tehničkog istraživanja. Različite grane znanja trebale bi biti dio inkluzivnog istraživačkog programa. Ova inicijativa također ukazuje na potrebu da tehnolozi i kreatori politike ostanu svjesni svog društvenog konteksta i dionika, čak i kada sistemi umjetne inteligencije postaju napredniji.

    Implikacije AI usklađivanja

    Šire implikacije AI usklađivanja mogu uključivati: 

    • Laboratorije za umjetnu inteligenciju zapošljavaju različite etičke odbore da nadgledaju projekte i ispunjavaju etičke smjernice AI. 
    • Vlade kreiraju zakone koji zahtijevaju od kompanija da podnesu svoj odgovorni AI okvir i kako planiraju dalje razvijati svoje AI projekte.
    • Povećane kontroverze o upotrebi algoritama u regrutaciji, javnom nadzoru i provođenju zakona.
    • Istraživači su otpušteni iz velikih AI laboratorija zbog sukoba interesa između etike i korporativnih ciljeva.
    • Veći pritisak na vlade da regulišu napredne sisteme veštačke inteligencije koji su i neverovatno moćni, ali potencijalno mogu da krše ljudska prava.

    Pitanja za komentar

    • Kako kompanije mogu biti odgovorne za AI sisteme koje kreiraju?
    • Koje su druge potencijalne opasnosti ako postoji neusklađenost AI?

    Insight reference

    Za ovaj uvid referencirane su sljedeće popularne i institucionalne veze: