Prestakuntza-datu problematikoak: AI datu alboratuak irakasten direnean

IRUDIAREN KREDITUA:
Irudiaren kreditu
iStock

Prestakuntza-datu problematikoak: AI datu alboratuak irakasten direnean

Prestakuntza-datu problematikoak: AI datu alboratuak irakasten direnean

Azpitituluaren testua
Adimen artifizialaren sistemak batzuetan datu subjektiboekin sartzen dira, eta horrek nola jokatu eta erabakiak hartzen ditu.
    • Egilea:
    • Egilearen izena
      Quantumrun Prospektiba
    • Urriaren 14, 2022

    Ikuspegiaren laburpena

    Gu gara ikasten eta barneratzen duguna; diktamen hau adimen artifizialari (AI) ere aplikatzen zaio. Datu osatugabe, alboragarri eta etikoez elikatzen diren ikaskuntza automatikoko (ML) ereduek erabaki eta iradokizun problematikoak hartuko dituzte azkenean. Algoritmo indartsu hauek erabiltzaileen moralean eta pertzepzioan eragina izan dezakete ikertzaileak kontuz ibili ezean.

    Prestakuntza-datuen testuinguru problematikoa

    2010eko hamarkadaz geroztik, ikerketa-taldeak aztertzen ari dira eduki desegokia duten prestakuntza-datu multzoak erabiltzeagatik edo modu etikoan bildutakoak. Adibidez, 2016an, Microsoft-en MS-Celeb-1M datu-baseak 10 pertsona ospetsuren 100,000 milioi irudi biltzen zituen. Hala ere, ikuskapen gehiago egin ondoren, berriemaileek jabearen baimenik edo ezagutzarik gabe hainbat webgunetatik ateratako pertsona arruntenak zirela aurkitu zuten.

    Konturatu arren, datu-multzoa enpresa handiek erabiltzen jarraitu zuten, hala nola Facebook eta SenseTime, estatuko poliziarekin loturak dituen aurpegi-ezagutzarako Txinako konpainiak. Era berean, Duke Unibertsitateko campusean (DukeMTMC) ibiltzen zirenen argazkiak biltzen zituen datu multzo batek ere ez zuen baimenik jaso. Azkenean, bi datu multzoak kendu ziren. 

    Prestakuntza-datu arazotsuen efektu kaltegarriak nabarmentzeko, Massachusettseko Teknologia Institutuko (MIT) ikertzaileek Norman izeneko AI bat sortu zuten, indarkeria grafikoa nabarmentzen zuen azpi-erredizio batetik irudien azpitituluak egiten irakatsi zutena. Ondoren, taldeak Norman jarri zuen ohiko datuak erabiliz trebatutako neurona-sare baten aurka. Ikertzaileek bi sistemak Rorschach-eko tintaz hornitu zituzten eta ikusi zutena deskribatzeko eskatu zieten AIei. Emaitzak harrigarriak izan ziren: sare neuronal estandarrak "beisbol eskularru baten zuri-beltzeko argazki bat" ikusi zuen tokian, Normanek "egun argitan metrailadore batek eraildako gizon bat" ikusi zuen. Esperimentuak frogatu zuen AI ez dela automatikoki alboratuta, baina datuak sartzeko metodo horiek eta haien sortzaileen motiboek eragin handia izan dezakete AI baten portaeran.

    Eragin disruptiboa

    2021ean, Allen Institute for AI ikerketa-erakundeak Ask Delphi sortu zuen, edozein galdera etikorako erantzunak algoritmikoki erantzunak sortzen dituen ML softwarea. Proiektuaren atzean dauden ikertzaileek adierazi zuten AI pixkanaka indartsuagoa eta ezagunagoa bihurtzen ari dela, beraz, zientzialariek ML sistemen etika irakatsi behar diete. Unicorn ML eredua Delphiren oinarria da. "Zentzuzko" arrazoibideak egiteko formulatu zen, hala nola, testu-kate baten amaiera probableena hautatzea. 

    Gainera, ikertzaileek 'Commonsense Norm Bank' erabili zuten. Banku honek Reddit bezalako tokietako pertsonen ebaluazio etikoen 1.7 milioi adibide ditu. Ondorioz, Delphiren irteera poltsa mistoa izan zen. Delphi-k galdera batzuei zentzuz erantzun zien (adibidez, gizonen eta emakumeen arteko berdintasuna), aldiz, gai batzuetan, Delphi guztiz iraingarria zen (adibidez, genozidioa onargarria da jendea zoriontsu egiten zuen bitartean).

    Hala ere, Delphi AI bere esperientzietatik ikasten ari da eta badirudi erantzunak eguneratzen dituela iritzien arabera. Zenbait adituk kezkatuta daude ikerketaren erabilera publiko eta irekiarekin, eredua martxan dagoela eta erantzun irregularrak izateko joera duela kontuan hartuta. Ask Delphi estreinatu zenean, Mar Hicks, Generoan, langintzan eta informatikaren historian espezializatutako Illinois Tech-eko Historiako irakasleak, esan zuen ikertzaileen arduragabekeria izan zela jendea erabiltzera gonbidatzea, Delphik berehala erantzun ez-etikoak eman zituela kontuan hartuta eta zentzugabekeria osoa. 

    2023, Munduko gainerakoa AI irudi-sorgailuen alborapenei buruzko ikerketa bat egin du. Midjourney erabiliz, ikertzaileek aurkitu zuten sortutako irudiek dauden estereotipoak baieztatzen dituztela. Gainera, OpenAI-k bere DALL-E 2 irudiak sortzeko eredurako entrenamendu-datuei iragazkiak aplikatu zizkienean, nahi gabe generoarekin lotutako alborapenak areagotu zituen.

    Prestakuntza-datu problematikoen inplikazioak

    Prestakuntza-datu arazotsuen ondorio zabalagoak izan daitezke: 

    • Ikerketa-proiektuetan, zerbitzuetan eta programen garapenean alborapenak indartuak. Prestakuntza-datu arazotsuak bereziki kezkagarriak dira legea betearazteko eta banku-erakundeetan erabiltzen badira (adibidez, gutxiengo taldeei desegoki zuzenduta).
    • Inbertsioa eta garapena areagotu prestakuntza-datuen hazkundean eta sortan. 
    • Gobernu gehiagok areagotzen dute araudia, korporazioek hainbat ekimen komertzialetarako prestakuntza-datuak garatzen, saltzen eta nola erabiltzen dituzten mugatzeko.
    • Enpresa gehiagok etika sailak ezartzen dituzte, AI sistemek bultzatutako proiektuek jarraibide etikoak betetzen dituztela ziurtatzeko.
    • AIaren erabilerari buruzko azterketa hobetua osasungintzan datuen gobernantza zorrotzagoa lortzeko, pazientearen pribatutasuna eta AI aplikazio etikoa bermatuz.
    • Sektore publikoaren eta pribatuaren lankidetza areagotzea AI alfabetatzea sustatzeko, langileak IA nagusi den etorkizunerako trebetasunekin hornituz.
    • AI gardentasunerako tresnen eskaerak gora egin du, eta enpresek AI sistemetan azalgarritasuna lehenestera eraman dute kontsumitzaileen ulermenerako eta konfiantzarako.

    Kontuan hartu beharreko galderak

    • Nola ekidin dezakete erakundeek prestakuntza-datu problematikoak erabiltzea?
    • Zeintzuk dira etikarik gabeko prestakuntza-datuek izan ditzaketen beste ondorioak?