Zosúladenie AI: Zhoda cieľov umelej inteligencie zodpovedá ľudským hodnotám

OBRÁZOK PRE OBRÁZOK:
Obrazový kredit
iStock

Zosúladenie AI: Zhoda cieľov umelej inteligencie zodpovedá ľudským hodnotám

Zosúladenie AI: Zhoda cieľov umelej inteligencie zodpovedá ľudským hodnotám

Text podnadpisu
Niektorí vedci sa domnievajú, že by sa mali zaviesť opatrenia, ktoré zabezpečia, že umelá inteligencia nepoškodí spoločnosť.
    • Autor:
    • meno autora
      Predvídavosť Quantumrun
    • Januára 25, 2023

    Zosúladenie umelej inteligencie (AI) je, keď ciele systému AI zodpovedajú ľudským hodnotám. Spoločnosti ako OpenAI, DeepMind a Anthropic majú tímy výskumníkov, ktorých jediným cieľom je študovať zábradlia pre rôzne scenáre, v ktorých by sa to mohlo stať.

    Kontext zarovnania AI

    Podľa výskumnej štúdie University of Cornell z roku 2021 niekoľko štúdií ukázalo, že nástroje alebo modely vytvorené algoritmami vykazujú zaujatosť pochádzajúcu z údajov, na ktorých boli trénovaní. Napríklad pri spracovaní prirodzeného jazyka (NLP) bolo zdokumentované, že vybrané modely NLP trénované na obmedzených súboroch údajov vytvárajú predpovede založené na škodlivých rodových stereotypoch voči ženám. Podobne iné štúdie zistili, že algoritmy trénované na sfalšovanom súbore údajov viedli k rasovo zaujatým odporúčaniam, najmä v policajnej práci.

    Existuje veľa príkladov, v ktorých systémy strojového učenia dopadli horšie pre menšiny alebo skupiny trpiace viacerými nevýhodami. Najmä automatizovaná analýza tváre a diagnostika v oblasti zdravotnej starostlivosti zvyčajne nefungujú veľmi dobre pre ženy a ľudí inej farby pleti. Keď sa kritické systémy, ktoré by mali byť založené na faktoch a logike namiesto emócií, používajú v kontextoch, ako je prideľovanie zdravotnej starostlivosti alebo vzdelávania, môžu spôsobiť viac škody tým, že sťažia identifikáciu zdôvodnenia týchto odporúčaní.

    Výsledkom je, že technologické firmy vytvárajú tímy na zosúlaďovanie AI, aby sa zamerali na udržanie spravodlivých a humánnych algoritmov. Výskum je nevyhnutný na pochopenie smerovania pokročilých systémov AI, ako aj výziev, ktorým môžeme čeliť s rastom schopností AI.

    Rušivý vplyv

    Podľa Jana Leikeho, vedúceho zosúlaďovania AI v OpenAI (2021), vzhľadom na to, že systémy AI sa stali schopnými až v roku 2010, je pochopiteľné, že väčšina výskumov zosúladenia AI bola náročná na teóriu. Keď sú zosúladené nesmierne výkonné systémy AI, jednou z výziev, ktorým ľudia čelia, je to, že tieto stroje môžu vytvárať riešenia, ktoré sú príliš komplikované na to, aby ich bolo možné preskúmať a posúdiť, či dávajú etický zmysel.

    Leike vymyslel stratégiu rekurzívneho modelovania odmien (RRM), aby tento problém vyriešil. S RRM sa učí niekoľko „pomocných“ AI, aby pomohli človeku vyhodnotiť, ako dobre funguje komplexnejšia AI. Je optimistický, pokiaľ ide o možnosť vytvoriť niečo, čo označuje ako „zarovnanie MVP“. Z hľadiska spustenia je MVP (alebo minimálny životaschopný produkt) najjednoduchším možným produktom, ktorý môže spoločnosť postaviť na otestovanie nápadu. Dúfame, že jedného dňa sa AI vyrovná ľudskej výkonnosti pri výskume AI a jej súladu s hodnotami a zároveň bude funkčná.

    Zatiaľ čo zvyšujúci sa záujem o zosúladenie AI je čistým pozitívom, mnohí analytici v tejto oblasti si myslia, že veľká časť „etiky“ práce v popredných laboratóriách AI sú len vzťahy s verejnosťou navrhnuté tak, aby technologické spoločnosti vyzerali dobre a vyhli sa negatívnej publicite. Títo jednotlivci neočakávajú, že sa postupy etického rozvoja stanú pre tieto spoločnosti v blízkej dobe prioritou.

    Tieto pozorovania zdôrazňujú dôležitosť interdisciplinárnych prístupov pre snahy o zosúladenie hodnôt, keďže ide o relatívne novú oblasť morálneho a technického skúmania. Rôzne oblasti vedomostí by mali byť súčasťou inkluzívneho výskumného programu. Táto iniciatíva tiež poukazuje na potrebu, aby technológovia a tvorcovia politík zostali informovaní o svojom sociálnom kontexte a zainteresovaných subjektoch, aj keď sa systémy AI stávajú vyspelejšími.

    Dôsledky zarovnania AI

    Širšie dôsledky zarovnania AI môžu zahŕňať: 

    • Laboratóriá umelej inteligencie, ktoré si najímajú rôzne etické rady, aby dohliadali na projekty a plnili etické smernice AI. 
    • Vlády vytvárajúce zákony, ktoré od spoločností vyžadujú, aby predložili svoj zodpovedný rámec AI a ako plánujú ďalej rozvíjať svoje projekty AI.
    • Zvýšené polemiky o používaní algoritmov pri nábore, verejnom dohľade a presadzovaní práva.
    • Výskumníci boli prepustení z veľkých laboratórií AI kvôli konfliktu záujmov medzi etikou a firemnými cieľmi.
    • Väčší tlak na vlády, aby regulovali pokročilé systémy AI, ktoré sú neuveriteľne výkonné, ale môžu potenciálne porušovať ľudské práva.

    Otázky na komentár

    • Ako môžu byť firmy zodpovedné za systémy AI, ktoré vytvárajú?
    • Aké sú ďalšie potenciálne nebezpečenstvá, ak dôjde k nesprávnemu nastaveniu AI?

    Prehľadové referencie

    Pre tento prehľad boli použité nasledujúce populárne a inštitucionálne odkazy: