AI lerrokatzea: adimen artifizialaren helburuak bat etortzea giza balioekin

IRUDIAREN KREDITUA:
Irudiaren kreditu
iStock

AI lerrokatzea: adimen artifizialaren helburuak bat etortzea giza balioekin

AI lerrokatzea: adimen artifizialaren helburuak bat etortzea giza balioekin

Azpitituluaren testua
Ikertzaile batzuek uste dute neurriak ezarri behar direla adimen artifizialak gizarteari kalterik ez egiteko.
    • Egilea:
    • Egilearen izena
      Quantumrun Prospektiba
    • Urtarrilaren 25, 2023

    Adimen artifiziala (AI) lerrokatzea da AI sistema baten helburuak giza balioekin bat datozenean. OpenAI, DeepMind eta Anthropic bezalako enpresek ikertzaile-taldeak dituzte, eta hori gerta daitekeen agertoki desberdinetarako baranda aztertzea dute helburu bakarra.

    AI lerrokatzearen testuingurua

    2021eko Cornell Unibertsitateko ikerketa baten arabera, hainbat ikerketek frogatu dute algoritmoek sortutako tresnek edo ereduek trebatutako datuetatik sortutako alborapena erakusten dutela. Esaterako, hizkuntza naturalaren prozesamenduan (NLP), datu multzo mugatuetan trebatutako NLP eredu hautatuak dokumentatu dira emakumeen aurkako genero estereotipo kaltegarrietan oinarritutako iragarpenak egiten. Era berean, beste ikerketek aurkitu zuten datu-multzo manipulatuetan trebatutako algoritmoek arraza-alborapenezko gomendioak eman zituztela, batez ere polizian.

    Adibide ugari daude ikaskuntza automatikoko sistemek okerragoa izan duten gutxiengoei edo hainbat desabantaila jasaten dituzten taldeei. Bereziki, aurpegiko analisi automatizatuak eta osasun-diagnostikoak normalean ez dute oso ondo funtzionatzen emakumeentzat eta kolorezko pertsonentzat. Emozioan beharrean gertakarietan eta logikan oinarritu behar diren sistema kritikoak osasun-laguntza edo hezkuntza esleitzea bezalako testuinguruetan erabiltzen direnean, kalte gehiago egin dezakete gomendio horien atzean dauden arrazoiak identifikatzea zailduz.

    Ondorioz, teknologia-enpresek AI lerrokatze-taldeak sortzen ari dira algoritmoak bidezkoak eta gizatiarrak mantentzen zentratzeko. Ikerketa ezinbestekoa da AI sistema aurreratuen nondik norakoak ulertzeko, baita AI gaitasunak hazten diren heinean izan ditzakegun erronkak ere.

    Eragin disruptiboa

    Jan Leike OpenAI-ko (2021) AI lerrokatze-buruaren arabera, AI sistemak 2010eko hamarkadan baino ez direla izan gai, ulergarria da AI lerrokatze-ikerketa gehienak teorian astunak izan direla. AI sistema izugarri indartsuak lerrokatzen direnean, gizakiek jasaten duten erronketako bat da makina hauek konponbide konplikatuegiak sor ditzaketela etikoki zentzurik ote duten berrikusteko eta ebaluatzeko.

    Leike-k sari eredu errekurtsiboa (RRM) estrategia bat asmatu zuen arazo hau konpontzeko. RRM-rekin, hainbat AI "laguntzaile" irakasten dira gizaki bati AI konplexuago batek nola funtzionatzen duen ebaluatzen laguntzeko. "Lerrokatze MVP" gisa aipatzen den zerbait sortzeko aukerarekin baikor dago. Startup terminoetan, MVP bat (edo gutxieneko produktu bideragarria) enpresa batek ideia bat probatzeko eraiki dezakeen produkturik errazena da. Itxaropena da, noizbait, AI gizakiaren errendimendua bat etortzea IA ikertzean eta balioekin lerrokatzea ere funtzionala izanik.

    AI lerrokatzearekiko interesa areagotzea positiboa den arren, arloko analista askok uste dute AI laborategi nagusietako "etika" lanaren zati handi bat teknologia-enpresek itxura ona izan dezaten eta publizitate negatiboa saihesteko diseinatutako harreman publikoak besterik ez direla. Pertsona hauek ez dute espero garapen etikoko praktikak laster enpresa hauentzako lehentasun bihurtuko direnik.

    Behaketa hauek balioak lerrokatzeko ahaleginetarako diziplinarteko ikuspegien garrantzia azpimarratzen dute, ikerketa moral eta teknikoaren arlo berri samarra baita. Ezagutza adar ezberdinek ikerketa-agenda inklusibo baten parte izan behar dute. Ekimen honek teknologoek eta arduradun politikoek beren gizarte-testuinguruaren eta interes-taldeen berri izan behar dutela ere adierazten du, nahiz eta AI sistemak aurreratuagoak izan.

    AI lerrokatzearen ondorioak

    AI lerrokatzearen ondorio zabalagoak izan daitezke: 

    • Adimen artifizialaren laborategiek etika batzorde ezberdinak kontratatzen dituzte proiektuak gainbegiratzeko eta AIaren jarraibide etikoak betetzeko. 
    • Enpresei beren AI-esparru arduratsua aurkeztea eta beren AI proiektuak gehiago garatzeko asmoa duten legeak sortzen dituzten gobernuek.
    • Kontratazioan, zaintza publikoan eta legea betearazteko algoritmoen erabilerari buruzko eztabaidak areagotu dira.
    • Ikertzaileak AI laborategi handietatik kaleratzen ari dira etikaren eta helburu korporatiboen arteko interes gatazkak direla eta.
    • Presio gehiago gobernuek AI sistema aurreratuak arautzeko, izugarri indartsuak diren baina potentzialki giza eskubideak urratu ditzaketenak.

    Iruzkintzeko galderak

    • Nola egin daitezke enpresak sortzen dituzten AI sistemen erantzukizuna?
    • Zeintzuk dira beste arrisku potentzialak AI desegokia badago?

    Insight erreferentziak

    Ikuspegi honetarako honako lotura ezagun eta instituzional hauei erreferentzia egin zaie: