Pristranost umjetne inteligencije: Strojevi nisu tako objektivni kako smo se nadali

KREDIT ZA SLIKE:
Slika kreditne
Istockphoto

Pristranost umjetne inteligencije: Strojevi nisu tako objektivni kako smo se nadali

Pristranost umjetne inteligencije: Strojevi nisu tako objektivni kako smo se nadali

Tekst podnaslova
Svi se slažu da umjetna inteligencija treba biti nepristrana, ali uklanjanje pristranosti pokazalo se problematičnim
    • Autor:
    • ime autora
      Quantumrun Foresight
    • Veljače 8, 2022

    Sažetak uvida

    Dok tehnologije vođene podacima obećavaju poticanje poštenog društva, one često odražavaju iste predrasude koje gaje ljudi, što dovodi do potencijalnih nepravdi. Na primjer, pristranosti u sustavima umjetne inteligencije (AI) mogu nenamjerno pogoršati štetne stereotipe. Međutim, u tijeku su napori da se sustavi umjetne inteligencije učine pravednijima, iako to postavlja složena pitanja o ravnoteži između korisnosti i pravednosti, te potrebe za promišljenom regulacijom i raznolikošću u tehničkim timovima.

    AI bias opći kontekst

    Nadamo se da će tehnologije vođene podacima pomoći čovječanstvu u uspostavljanju društva u kojem je pravednost norma za sve. Međutim, trenutna stvarnost daje drugačiju sliku. Mnoge predrasude koje ljudi imaju, a koje su dovele do nepravde u prošlosti, sada se odražavaju u algoritmima koji upravljaju našim digitalnim svijetom. Ove pristranosti u sustavima umjetne inteligencije često proizlaze iz predrasuda pojedinaca koji razvijaju te sustave, a te predrasude često prodiru u njihov rad.

    Uzmimo, na primjer, projekt iz 2012. poznat kao ImageNet, koji je nastojao skupiti označavanje slika za obuku sustava strojnog učenja. Velika neuronska mreža uvježbana na ovim podacima kasnije je uspjela identificirati objekte s impresivnom točnošću. Međutim, nakon detaljnijeg pregleda, istraživači su otkrili pristranosti skrivene unutar ImageNet podataka. U jednom konkretnom slučaju, algoritam uvježban na ovim podacima bio je pristran prema pretpostavci da su svi softverski programeri bijelci.

    Ova pristranost potencijalno bi mogla dovesti do toga da žene budu zanemarene za takve uloge kada je proces zapošljavanja automatiziran. Pristranosti su se našle u skupovima podataka jer je pojedinac koji je dodavao oznake slikama "žene" uključivao dodatnu oznaku koja se sastojala od pogrdnog izraza. Ovaj primjer ilustrira kako se predrasude, namjerne ili nenamjerne, mogu infiltrirati čak iu najsofisticiranije sustave umjetne inteligencije, potencijalno održavajući štetne stereotipe i nejednakosti.

    Razarajući učinak 

    Napore za rješavanje pristranosti u podacima i algoritmima pokrenuli su istraživači u raznim javnim i privatnim organizacijama. U slučaju projekta ImageNet, na primjer, korišten je crowdsourcing kako bi se identificirali i eliminirali nazivi označavanja koji bacaju pogrdno svjetlo na određene slike. Ove su mjere pokazale da je doista moguće rekonfigurirati sustave umjetne inteligencije kako bi bili pravedniji.

    Međutim, neki stručnjaci tvrde da bi uklanjanje pristranosti potencijalno moglo učiniti skup podataka manje učinkovitim, osobito kada je višestruka pristranost u igri. Skup podataka lišen određenih pristranosti može završiti bez dovoljno informacija za učinkovitu upotrebu. Postavlja se pitanje kako bi izgledao uistinu raznolik skup slikovnih podataka i kako bi se mogao koristiti bez ugrožavanja njegove korisnosti.

    Ovaj trend naglašava potrebu za promišljenim pristupom korištenju umjetne inteligencije i tehnologija koje se temelje na podacima. Za tvrtke to može značiti ulaganje u alate za otkrivanje pristranosti i promicanje raznolikosti u tehničkim timovima. Za vlade bi to moglo uključivati ​​provedbu propisa kako bi se osigurala poštena upotreba umjetne inteligencije. 

    Implikacije pristranosti umjetne inteligencije

    Šire implikacije pristranosti umjetne inteligencije mogu uključivati:

    • Organizacije su proaktivne u osiguravanju pravednosti i nediskriminacije dok iskorištavaju AI za poboljšanje produktivnosti i performansi. 
    • Imati AI etičara u razvojnim timovima za otkrivanje i ublažavanje etičkih rizika u ranoj fazi projekta. 
    • Dizajniranje AI proizvoda imajući na umu čimbenike raznolikosti kao što su spol, rasa, klasa i kultura.
    • Dobivanje predstavnika iz različitih skupina koje će koristiti AI proizvod tvrtke da ga testiraju prije nego što bude pušten.
    • Različite javne usluge ograničene su za određene članove javnosti.
    • Određeni članovi javnosti ne mogu pristupiti ili se kvalificirati za određene prilike za posao.
    • Agencije za provođenje zakona i profesionalci nepravedno ciljaju određene članove društva više nego druge. 

    Pitanja za razmatranje

    • Jeste li optimisti da će automatizirano donošenje odluka biti pravedno u budućnosti?
    • Što vas najviše nervira donošenje odluka AI-jem?

    Reference uvida

    Za ovaj uvid korištene su sljedeće popularne i institucionalne veze: