Biaso pri artefarita inteligenteco: Maŝinoj ne estas tiel objektivaj kiel ni esperis

BILDA KREDITO:
Bildo kredito
iStock

Biaso pri artefarita inteligenteco: Maŝinoj ne estas tiel objektivaj kiel ni esperis

Biaso pri artefarita inteligenteco: Maŝinoj ne estas tiel objektivaj kiel ni esperis

Subtitolo teksto
Ĉiuj konsentas, ke AI devus esti senantaŭjuĝa, sed forigi biasojn pruviĝas problema
    • Aŭtoro:
    • Aŭtora nomo
      Quantumrun Foresight
    • Februaro 8, 2022

    Enrigarda resumo

    Dum datumaj teknologioj tenas la promeson kreskigi justan socion, ili ofte reflektas la samajn antaŭjuĝojn, kiujn homoj enhavas, kondukante al eblaj maljustoj. Ekzemple, biasoj en sistemoj de artefarita inteligenteco (AI) povas preterintence plimalbonigi damaĝajn stereotipojn. Tamen, klopodoj estas survoje por fari AI-sistemojn pli justaj, kvankam tio levas kompleksajn demandojn pri la ekvilibro inter utileco kaj justeco, kaj la bezono de pripensema reguligo kaj diverseco en teknikaj teamoj.

    AI bias ĝenerala kunteksto

    La espero estas, ke teknologioj pelitaj de datumoj helpos la homaron starigi socion, kie justeco estas la normo por ĉiuj. Tamen, la nuna realo pentras alian bildon. Multaj el la antaŭjuĝoj, kiujn homoj havas, kiuj kaŭzis maljustojn en la pasinteco, nun estas spegulitaj en la algoritmoj, kiuj regas nian ciferecan mondon. Ĉi tiuj antaŭjuĝoj en AI-sistemoj ofte devenas de antaŭjuĝoj de la individuoj, kiuj disvolvas ĉi tiujn sistemojn, kaj ĉi tiuj antaŭjuĝoj ofte enfluas en ilian laboron.

    Prenu, ekzemple, projekton en 2012 konata kiel ImageNet, kiu serĉis amaskunvenigi la etikedadon de bildoj por la trejnado de maŝinlernado-sistemoj. Granda neŭrala reto trejnita sur ĉi tiuj datumoj poste povis identigi objektojn kun impona precizeco. Tamen, post pli proksima inspektado, esploristoj malkovris biasojn kaŝitajn ene de la ImageNet-datumoj. En unu aparta kazo, algoritmo trejnita sur ĉi tiuj datumoj estis partia al la supozo, ke ĉiuj programistoj estas blankuloj.

    Ĉi tiu antaŭjuĝo eble povus rezultigi virinojn preteratentitajn por tiaj roloj kiam la dungado estas aŭtomatigita. La biasoj trovis sian manieron en la datumseriojn ĉar la individuo aldonanta etikedojn al bildoj de "virino" inkludis kroman etikedon kiu konsistis el malestima esprimo. Ĉi tiu ekzemplo ilustras kiel biasoj, ĉu intencitaj aŭ neintencaj, povas infiltri eĉ la plej altnivelajn AI-sistemojn, eble eternigante damaĝajn stereotipojn kaj malegalecojn.

    Disrompa efiko 

    Klopodoj por trakti biason en datenoj kaj algoritmoj estis iniciatitaj fare de esploristoj trans diversaj publikaj kaj privataj organizoj. En la kazo de la ImageNet-projekto, ekzemple, homamasa kontraktado estis utiligita por identigi kaj elimini etikedperiodojn kiuj ĵetas malestiman lumon sur certajn bildojn. Ĉi tiuj mezuroj pruvis, ke efektive eblas reagordi AI-sistemojn por esti pli justaj.

    Tamen, iuj fakuloj argumentas, ke forigi biasojn eble povus malpli efika datumaro, precipe kiam multoblaj antaŭjuĝoj ludas. Datenaro senigita de certaj biasoj povas fini malhavi sufiĉajn informojn por efika uzo. Ĝi levas la demandon pri kia aspektus vere diversa bilda datumo, kaj kiel ĝi povus esti uzata sen endanĝerigi sian utilecon.

    Ĉi tiu tendenco substrekas la bezonon de pripensema aliro al la uzo de AI kaj datumaj teknologioj. Por kompanioj, tio povus signifi investi en bias-detektaj iloj kaj antaŭenigi diversecon en teknikaj teamoj. Por registaroj, ĝi povus impliki efektivigon de regularoj por certigi justan uzon de AI. 

    Implikoj de AI-biaso

    Pli larĝaj implicoj de AI-biaso povas inkludi:

    • Organizoj estas iniciatemaj por certigi justecon kaj ne-diskriminacion dum ili utiligas AI por plibonigi produktivecon kaj efikecon. 
    • Havi AI-etikiston en evoluigaj teamoj por detekti kaj mildigi etikajn riskojn frue en projekto. 
    • Desegni AI-produktojn kun diversecaj faktoroj kiel sekso, raso, klaso kaj kulturo klare en menso.
    • Akiri reprezentantojn de la diversaj grupoj, kiuj uzos la AI-produkton de firmao por testi ĝin antaŭ ol ĝi estos liberigita.
    • Diversaj publikaj servoj estantaj limigitaj de certaj membroj de publiko.
    • Iuj membroj de la publiko ne povas aliri aŭ kvalifiki por certaj laborŝancoj.
    • Policaj agentejoj kaj profesiuloj maljuste celantaj iujn membrojn de la socio pli ol aliaj. 

    Konsiderindaj demandoj

    • Ĉu vi estas optimisma, ke aŭtomatigita decido estos justa estonte?
    • Kio pri AI-decidado faras vin la plej nervoza?

    Enrigardaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu kompreno: