AI joondamine: tehisintellekti eesmärkide sobitamine vastab inimlikele väärtustele

PILDIKrediit:
Pildikrediit
iStock

AI joondamine: tehisintellekti eesmärkide sobitamine vastab inimlikele väärtustele

AI joondamine: tehisintellekti eesmärkide sobitamine vastab inimlikele väärtustele

Alapealkirja tekst
Mõned teadlased leiavad, et tuleks rakendada meetmeid tagamaks, et tehisintellekt ei kahjusta ühiskonda.
    • Autor:
    • autori nimi
      Quantumrun Foresight
    • Jaanuar 25, 2023

    Tehisintellekti (AI) joondamine on siis, kui AI-süsteemi eesmärgid vastavad inimlikele väärtustele. Sellistel ettevõtetel nagu OpenAI, DeepMind ja Anthropic on teadlaste meeskonnad, kelle ainus eesmärk on uurida kaitsepiirdeid erinevate stsenaariumide jaoks, kus see võib juhtuda.

    AI joondamise kontekst

    2021. aasta Cornelli ülikooli uuringu kohaselt on mitmed uuringud näidanud, et algoritmide loodud tööriistad või mudelid kuvavad eelarvamusi, mis pärinevad nende andmete põhjal, mille kohta neid koolitati. Näiteks on loomuliku keele töötlemise (NLP) puhul dokumenteeritud piiratud andmekogumitel koolitatud valitud NLP-mudelid, mis teevad prognoose, mis põhinevad naiste vastu suunatud kahjulikel soostereotüüpidel. Sarnaselt leiti teistes uuringutes, et võltsitud andmekogumitele koolitatud algoritmid andsid rassiliselt kallutatud soovitusi, eriti politseitöös.

    On palju näiteid, mille puhul masinõppesüsteemid on vähemuste või mitme ebasoodsa olukorra all kannatavate rühmade jaoks halvemini läinud. Eelkõige ei tööta automaatne näoanalüüs ja tervishoiudiagnostika tavaliselt naiste ja värviliste inimeste puhul eriti hästi. Kui kriitilisi süsteeme, mis peaksid põhinema faktidel ja loogikal, mitte emotsioonidel, kasutatakse sellistes kontekstides nagu tervishoiu või hariduse eraldamine, võivad need teha rohkem kahju, muutes nende soovituste põhjuste tuvastamise raskemaks.

    Selle tulemusena loovad tehnoloogiaettevõtted tehisintellekti joondamise meeskondi, et keskenduda algoritmide ausatele ja humaansetele hoidmisele. Teadusuuringud on hädavajalikud, et mõista arenenud tehisintellektisüsteemide suunda ja väljakutseid, millega võime AI võimekuse kasvades silmitsi seista.

    Häiriv mõju

    OpenAI (2021) tehisintellekti joondamise juhi Jan Leike sõnul on tehisintellekti süsteemid muutunud võimekaks alles 2010. aastatel, on arusaadav, et enamik tehisintellekti joondamise uuringuid on olnud teooriarohke. Kui tohutult võimsad AI-süsteemid on joondatud, on üks inimeste ees seisvaid väljakutseid see, et need masinad võivad luua lahendusi, mis on liiga keerulised, et üle vaadata ja hinnata, kas need on eetiliselt mõttekad.

    Leike töötas selle probleemi lahendamiseks välja rekursiivse tasu modelleerimise (RRM) strateegia. RRM-iga õpetatakse mitut "abistajat" AI-d, mis aitavad inimesel hinnata, kui hästi keerulisem AI toimib. Ta on optimistlik võimaluse suhtes luua midagi, mida ta nimetab "joondamise MVP-ks". Käivitamise mõttes on MVP (või minimaalne elujõuline toode) kõige lihtsam toode, mida ettevõte saab idee katsetamiseks ehitada. Loodetavasti ühtib tehisintellekt kunagi inimeste jõudlust tehisintellekti uurimisel ja selle väärtustega vastavusse viimist, olles samas ka funktsionaalne.

    Kuigi kasvav huvi AI ühtlustamise vastu on positiivne, arvavad paljud valdkonna analüütikud, et suur osa juhtivates tehisintellekti laborites tehtavast eetikatööst on lihtsalt suhtekorraldus, mille eesmärk on panna tehnoloogiaettevõtted hea välja nägema ja vältida negatiivset reklaami. Need isikud ei oota, et eetilised arendustavad muutuvad nende ettevõtete jaoks niipea prioriteediks.

    Need tähelepanekud rõhutavad interdistsiplinaarsete lähenemisviiside tähtsust väärtuste ühtlustamisel, kuna see on moraalse ja tehnilise uurimise suhteliselt uus valdkond. Erinevad teadmiste valdkonnad peaksid olema osa kaasavast uurimiskavast. See algatus viitab ka vajadusele, et tehnoloogid ja poliitikakujundajad oleksid teadlikud oma sotsiaalsest kontekstist ja sidusrühmadest isegi siis, kui tehisintellektisüsteemid arenevad.

    AI joondamise tagajärjed

    AI joondamise laiemad tagajärjed võivad hõlmata järgmist: 

    • Tehisintellekti laborid, kes palkavad projektide järelevalveks ja tehisintellekti eetiliste juhiste täitmiseks erinevaid eetikanõukogusid. 
    • Valitsused loovad seadusi, mis nõuavad ettevõtetelt oma vastutustundliku tehisintellekti raamistiku esitamist ja seda, kuidas nad kavatsevad oma tehisintellekti projekte edasi arendada.
    • Kasvanud vaidlused algoritmide kasutamise üle värbamisel, avalikus järelevalves ja õiguskaitses.
    • Teadlased vallandati suurtest tehisintellekti laboritest eetika ja ettevõtte eesmärkide vahelise huvide konflikti tõttu.
    • Suurem surve valitsustele reguleerida arenenud tehisintellektisüsteeme, mis on mõlemad uskumatult võimsad, kuid võivad potentsiaalselt rikkuda inimõigusi.

    Küsimused, mida kommenteerida

    • Kuidas saab ettevõtteid nende loodud tehisintellektisüsteemide eest vastutama panna?
    • Millised on muud võimalikud ohud tehisintellekti kõrvalekaldumise korral?

    Insight viited

    Selle ülevaate jaoks viidati järgmistele populaarsetele ja institutsionaalsetele linkidele: