Zarovnání AI: Shoda cílů umělé inteligence odpovídá lidským hodnotám

KREDIT OBRAZU:
Kredit
iStock

Zarovnání AI: Shoda cílů umělé inteligence odpovídá lidským hodnotám

Zarovnání AI: Shoda cílů umělé inteligence odpovídá lidským hodnotám

Text podnadpisu
Někteří vědci se domnívají, že by měla být zavedena opatření, která zajistí, že umělá inteligence nepoškodí společnost.
    • Autor:
    • jméno autora
      Quantumrun Foresight
    • Ledna 25, 2023

    Zarovnání umělé inteligence (AI) je, když cíle systému AI odpovídají lidským hodnotám. Společnosti jako OpenAI, DeepMind a Anthropic mají týmy výzkumníků, jejichž jediným cílem je studovat zábradlí pro různé scénáře, ve kterých by k tomu mohlo dojít.

    Kontext zarovnání AI

    Podle výzkumné studie University of Cornell z roku 2021 několik studií ukázalo, že nástroje nebo modely vytvořené algoritmy vykazují zkreslení pocházející z dat, na kterých byli trénováni. Například při zpracování přirozeného jazyka (NLP) bylo zdokumentováno, že vybrané modely NLP trénované na omezených souborech dat vytvářejí předpovědi založené na škodlivých genderových stereotypech vůči ženám. Podobně i jiné studie zjistily, že algoritmy trénované na zfalšovaných souborech dat vedly k rasově zaujatým doporučením, zejména v policejní práci.

    Existuje spousta příkladů, kdy systémy strojového učení dopadly hůře pro menšiny nebo skupiny trpící mnoha nevýhodami. Zejména automatická analýza obličeje a zdravotní diagnostika obvykle nefungují příliš dobře u žen a lidí s jinou barvou pleti. Když se kritické systémy, které by měly být založeny na faktech a logice místo emocí, používají v kontextech, jako je přidělování zdravotní péče nebo vzdělávání, mohou způsobit větší škody tím, že bude obtížnější identifikovat důvody těchto doporučení.

    V důsledku toho technologické firmy vytvářejí týmy pro zarovnání AI, které se zaměřují na zachování spravedlivých a humánních algoritmů. Výzkum je nezbytný pro pochopení směřování pokročilých systémů umělé inteligence a také výzev, kterým můžeme čelit s rostoucími schopnostmi umělé inteligence.

    Rušivý dopad

    Podle Jana Leikeho, vedoucího zarovnání AI v OpenAI (2021), vzhledem k tomu, že systémy AI se staly schopnými teprve v roce 2010, je pochopitelné, že většina výzkumu zarovnání AI byla náročná na teorii. Když jsou sladěny nesmírně výkonné systémy umělé inteligence, jedna z výzev, kterým lidé čelí, je, že tyto stroje mohou vytvářet řešení, která jsou příliš komplikovaná na to, aby je bylo možné přezkoumat a posoudit, zda dávají eticky smysl.

    Leike vymyslel strategii rekurzivního modelování odměn (RRM), aby tento problém vyřešil. S RRM se učí několik „pomocných“ AI, které pomáhají člověku vyhodnotit, jak dobře funguje složitější AI. Je optimistický, pokud jde o možnost vytvořit něco, co nazývá „zarovnání MVP“. Z hlediska spuštění je MVP (neboli minimální životaschopný produkt) nejjednodušším možným produktem, který může společnost postavit, aby otestovala nápad. Doufáme, že jednoho dne se umělá inteligence vyrovná lidskému výkonu při výzkumu umělé inteligence a jejího sladění s hodnotami a zároveň bude funkční.

    Zatímco rostoucí zájem o přizpůsobení umělé inteligence je čistým pozitivem, mnoho analytiků v této oblasti si myslí, že velká část „etické“ práce v předních laboratořích umělé inteligence je jen public relations navržená tak, aby technologické společnosti vypadaly dobře a vyhnuly se negativní publicitě. Tito jednotlivci neočekávají, že se postupy etického rozvoje stanou pro tyto společnosti v brzké době prioritou.

    Tato pozorování zdůrazňují důležitost interdisciplinárních přístupů pro úsilí o sladění hodnot, protože jde o relativně novou oblast morálního a technického bádání. Různé oblasti znalostí by měly být součástí komplexního výzkumného programu. Tato iniciativa také poukazuje na to, že je třeba, aby si technologové a tvůrci politik zůstali vědomi svého sociálního kontextu a zúčastněných stran, i když se systémy umělé inteligence stávají vyspělejšími.

    Důsledky zarovnání AI

    Širší důsledky zarovnání AI mohou zahrnovat: 

    • Laboratoře umělé inteligence, které najímají různé etické rady, aby dohlížely na projekty a plnily etické pokyny pro umělou inteligenci. 
    • Vlády vytvářejí zákony, které vyžadují, aby společnosti předložily svůj odpovědný rámec umělé inteligence a jak plánují dále rozvíjet své projekty umělé inteligence.
    • Zvýšené kontroverze o použití algoritmů při náboru, veřejném dohledu a vymáhání práva.
    • Výzkumníci byli propuštěni z velkých laboratoří umělé inteligence kvůli střetu zájmů mezi etikou a firemními cíli.
    • Větší tlak na vlády, aby regulovaly pokročilé systémy umělé inteligence, které jsou oba neuvěřitelně výkonné, ale mohou potenciálně porušovat lidská práva.

    Otázky ke komentáři

    • Jak lze přimět firmy k odpovědnosti za systémy umělé inteligence, které vytvářejí?
    • Jaká jsou další potenciální nebezpečí, pokud dojde k nesouososti AI?

    Statistikové reference

    Následující populární a institucionální odkazy byly uvedeny pro tento náhled: