Usklajevanje AI: Ujemanje ciljev umetne inteligence s človeškimi vrednotami

KREDIT ZA SLIKO:
Image kredit
iStock

Usklajevanje AI: Ujemanje ciljev umetne inteligence s človeškimi vrednotami

Usklajevanje AI: Ujemanje ciljev umetne inteligence s človeškimi vrednotami

Besedilo podnaslova
Nekateri raziskovalci menijo, da bi bilo treba sprejeti ukrepe za zagotovitev, da umetna inteligenca ne škodi družbi.
    • Avtor:
    • ime avtorja
      Quantumrun Foresight
    • Januar 25, 2023

    Usklajevanje z umetno inteligenco (AI) je, ko se cilji sistema AI ujemajo s človeškimi vrednotami. Podjetja, kot so OpenAI, DeepMind in Anthropic, imajo ekipe raziskovalcev, katerih edini cilj je preučevanje zaščitnih ograj za različne scenarije, v katerih bi se to lahko zgodilo.

    Kontekst usklajevanja AI

    Glede na raziskavo Univerze Cornell iz leta 2021 je več študij pokazalo, da orodja ali modeli, ustvarjeni z algoritmi, prikazujejo pristranskost, ki izvira iz podatkov, na podlagi katerih so bili usposobljeni. Na primer, pri obdelavi naravnega jezika (NLP) je dokumentirano, da izbrani modeli NLP, usposobljeni na omejenih nizih podatkov, napovedujejo na podlagi škodljivih spolnih stereotipov proti ženskam. Podobno so druge študije pokazale, da so algoritmi, usposobljeni na spremenjenem nizu podatkov, povzročili rasno pristranska priporočila, zlasti v policiji.

    Obstaja veliko primerov, v katerih so se sistemi strojnega učenja izkazali za slabše za manjšine ali skupine, ki trpijo zaradi številnih prikrajšanosti. Zlasti avtomatizirana analiza obraza in zdravstvena diagnostika običajno ne delujeta dobro pri ženskah in temnopoltih. Ko se kritični sistemi, ki bi morali temeljiti na dejstvih in logiki namesto na čustvih, uporabljajo v kontekstih, kot je dodeljevanje zdravstvenega varstva ali izobraževanja, lahko naredijo več škode, saj otežijo prepoznavanje razlogov za ta priporočila.

    Posledično tehnološka podjetja ustvarjajo skupine za usklajevanje AI, ki se osredotočajo na ohranjanje poštenih in humanih algoritmov. Raziskave so bistvenega pomena za razumevanje smeri naprednih sistemov umetne inteligence, pa tudi izzivov, s katerimi se lahko soočimo, ko se zmogljivosti umetne inteligence povečujejo.

    Moteč vpliv

    Po besedah ​​Jana Leikeja, vodje usklajevanja umetne inteligence pri OpenAI (2021), je glede na to, da so sistemi umetne inteligence postali sposobni šele v 2010-ih, razumljivo, da je večina raziskav o usklajevanju umetne inteligence temeljila na teoriji. Ko so izjemno zmogljivi sistemi umetne inteligence usklajeni, je eden od izzivov, s katerimi se soočajo ljudje, ta, da lahko ti stroji ustvarijo rešitve, ki so preveč zapletene, da bi jih pregledali in ocenili, ali so etično smiselne.

    Leike je razvil strategijo rekurzivnega modeliranja nagrajevanja (RRM), da bi rešil to težavo. Z RRM se nauči več "pomočnih" AI-jev, ki človeku pomagajo oceniti, kako dobro deluje kompleksnejši AI. Optimističen je glede možnosti ustvarjanja nečesa, kar imenuje "poravnava MVP." V smislu zagona je MVP (ali minimalno uspešen izdelek) najpreprostejši možni izdelek, ki ga lahko podjetje sestavi za preizkušanje ideje. Upamo, da bo nekega dne umetna inteligenca ustrezala človeški uspešnosti pri raziskovanju umetne inteligence in njeni usklajenosti z vrednotami, hkrati pa bo delovala.

    Medtem ko je vse večje zanimanje za usklajevanje z umetno inteligenco neto pozitivno, mnogi analitiki na tem področju menijo, da je večina "etičnega" dela v vodilnih laboratorijih za umetno inteligenco le odnosi z javnostmi, namenjeni temu, da tehnološka podjetja izgledajo dobro in se izogibajo negativni publiciteti. Ti posamezniki ne pričakujejo, da bodo etične razvojne prakse kmalu postale prednostna naloga teh podjetij.

    Ta opažanja poudarjajo pomen interdisciplinarnih pristopov za prizadevanja za usklajevanje vrednosti, saj je to relativno novo področje moralnega in tehničnega raziskovanja. Različne veje znanja bi morale biti del vključujoče raziskovalne agende. Ta pobuda prav tako kaže na potrebo, da se tehnologi in oblikovalci politik še naprej zavedajo svojega družbenega konteksta in deležnikov, čeprav sistemi umetne inteligence postajajo naprednejši.

    Posledice uskladitve AI

    Širše posledice uskladitve AI lahko vključujejo: 

    • Laboratoriji za umetno inteligenco najemajo različne etične odbore za nadzor projektov in izpolnjevanje etičnih smernic AI. 
    • Vlade, ki ustvarjajo zakone, ki od podjetij zahtevajo, da predložijo svoj okvir za odgovorno umetno inteligenco in kako načrtujejo nadaljnji razvoj svojih projektov umetne inteligence.
    • Povečane polemike o uporabi algoritmov pri zaposlovanju, javnem nadzoru in kazenskem pregonu.
    • Raziskovalci so odpuščeni iz velikih laboratorijev umetne inteligence zaradi navzkrižja interesov med etiko in cilji podjetja.
    • Več pritiska na vlade, da uredijo napredne sisteme umetne inteligence, ki so neverjetno zmogljivi, vendar lahko potencialno kršijo človekove pravice.

    Vprašanja za komentiranje

    • Kako lahko podjetja postanejo odgovorna za sisteme AI, ki jih ustvarijo?
    • Kakšne so druge morebitne nevarnosti, če pride do neusklajenosti AI?

    Insight reference

    Za ta vpogled so bile navedene naslednje priljubljene in institucionalne povezave: