AI saskaņošana: mākslīgā intelekta mērķi atbilst cilvēka vērtībām

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

AI saskaņošana: mākslīgā intelekta mērķi atbilst cilvēka vērtībām

AI saskaņošana: mākslīgā intelekta mērķi atbilst cilvēka vērtībām

Apakšvirsraksta teksts
Daži pētnieki uzskata, ka ir jāīsteno pasākumi, lai nodrošinātu, ka mākslīgais intelekts nekaitē sabiedrībai.
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Janvāris 25, 2023

    Mākslīgā intelekta (AI) saskaņošana ir tad, kad AI sistēmas mērķi sakrīt ar cilvēka vērtībām. Tādos uzņēmumos kā OpenAI, DeepMind un Anthropic ir pētnieku komandas, kuru vienīgais mērķis ir izpētīt aizsargmargas dažādiem scenārijiem, kādos tas varētu notikt.

    AI izlīdzināšanas konteksts

    Saskaņā ar 2021. gada Kornela universitātes pētījumu, vairāki pētījumi ir parādījuši, ka algoritmu izveidotie rīki vai modeļi parāda novirzes, kas iegūtas no datiem, par kuriem tie tika apmācīti. Piemēram, dabiskās valodas apstrādē (NLP) ir dokumentēti atsevišķi NLP modeļi, kas apmācīti uz ierobežotām datu kopām, un tie sniedz prognozes, pamatojoties uz kaitīgiem dzimumu stereotipiem pret sievietēm. Tāpat citos pētījumos atklājās, ka algoritmi, kas apmācīti, izmantojot viltotu datu kopu, sniedza rasistiski neobjektīvus ieteikumus, jo īpaši policijas darbā.

    Ir daudz piemēru, kuros mašīnmācīšanās sistēmām ir klājies sliktāk minoritātēm vai grupām, kuras cieš no vairākiem trūkumiem. Jo īpaši automatizētā sejas analīze un veselības aprūpes diagnostika parasti nedarbojas ļoti labi sievietēm un krāsainiem cilvēkiem. Ja kritiskās sistēmas, kurām jābalstās uz faktiem un loģiku, nevis emocijām, tiek izmantotas tādos kontekstos kā veselības aprūpes vai izglītības piešķiršana, tās var nodarīt lielāku kaitējumu, apgrūtinot šo ieteikumu pamatojuma noteikšanu.

    Rezultātā tehnoloģiju uzņēmumi veido AI saskaņošanas komandas, lai koncentrētos uz to, lai algoritmi būtu godīgi un humāni. Pētniecība ir būtiska, lai izprastu progresīvo AI sistēmu virzienu, kā arī problēmas, ar kurām mēs varētu saskarties, pieaugot AI iespējām.

    Traucējoša ietekme

    Saskaņā ar OpenAI (2021) AI saskaņošanas nodaļas vadītāja Jana Leike teikto, ņemot vērā to, ka AI sistēmas ir kļuvušas spējīgas tikai 2010. gados, ir saprotams, ka lielākā daļa AI saskaņošanas pētījumu ir bijuši teorētiski smagi. Kad ārkārtīgi jaudīgas AI sistēmas ir saskaņotas, viens no izaicinājumiem, ar ko saskaras cilvēki, ir tas, ka šīs mašīnas var radīt risinājumus, kas ir pārāk sarežģīti, lai tos pārskatītu un novērtētu, vai tiem ir ētiska jēga.

    Leike izstrādāja rekursīvās atalgojuma modelēšanas (RRM) stratēģiju, lai atrisinātu šo problēmu. Izmantojot RRM, tiek mācīti vairāki "palīdzības" AI, lai palīdzētu cilvēkam novērtēt, cik labi darbojas sarežģītāks AI. Viņš ir optimistisks par iespēju izveidot kaut ko, ko viņš dēvē par "līdzināšanas MVP". Uzsākšanas ziņā MVP (vai minimālais dzīvotspējīgais produkts) ir vienkāršākais iespējamais produkts, ko uzņēmums var izveidot, lai pārbaudītu ideju. Cerams, ka kādreiz mākslīgais intelekts saskaņos cilvēka veiktspēju AI izpētē un tā saskaņošanu ar vērtībām, vienlaikus darbojoties.

    Lai gan pieaugošā interese par mākslīgā intelekta pielāgošanu ir pozitīva, daudzi analītiķi šajā jomā domā, ka liela daļa "ētikas" darba vadošajās AI laboratorijās ir tikai sabiedriskās attiecības, kas paredzētas, lai tehnoloģiju uzņēmumi izskatītos labi un izvairītos no negatīvas publicitātes. Šīs personas negaida, ka tuvākajā laikā ētiskas attīstības prakse kļūs par šo uzņēmumu prioritāti.

    Šie novērojumi uzsver starpdisciplināru pieeju nozīmi vērtību saskaņošanas centienos, jo šī ir salīdzinoši jauna morālās un tehniskās izpētes joma. Dažādām zināšanu nozarēm jābūt iekļautām iekļaujošā pētniecības programmā. Šī iniciatīva norāda arī uz to, ka tehnologiem un politikas veidotājiem ir jāapzinās savs sociālais konteksts un ieinteresētās personas, pat ja mākslīgā intelekta sistēmas kļūst arvien progresīvākas.

    AI izlīdzināšanas sekas

    Plašākas AI pielīdzināšanas sekas var ietvert: 

    • Mākslīgā intelekta laboratorijas, kas pieņem darbā dažādas ētikas padomes, lai pārraudzītu projektus un izpildītu ētikas AI vadlīnijas. 
    • Valdības izstrādā likumus, kas pieprasa uzņēmumiem iesniegt atbildīgo AI sistēmu un to, kā tie plāno turpināt attīstīt savus AI projektus.
    • Pastiprinājušās domstarpības par algoritmu izmantošanu darbā pieņemšanā, publiskajā uzraudzībā un tiesībaizsardzībā.
    • Pētnieki tiek atlaisti no lielām AI laboratorijām interešu konflikta dēļ starp ētiku un korporatīvajiem mērķiem.
    • Lielāks spiediens uz valdībām, lai tās regulētu progresīvas AI sistēmas, kas ir gan neticami spēcīgas, bet potenciāli var pārkāpt cilvēktiesības.

    Jautājumi komentēšanai

    • Kā uzņēmumus var saukt pie atbildības par to radītajām AI sistēmām?
    • Kādas ir citas iespējamās briesmas, ja ir AI novirzes?

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites: