Pristrasnost umjetne inteligencije: Mašine nisu objektivne kao što smo se nadali

KREDIT ZA SLIKU:
Image credit
iStock

Pristrasnost umjetne inteligencije: Mašine nisu objektivne kao što smo se nadali

Pristrasnost umjetne inteligencije: Mašine nisu objektivne kao što smo se nadali

Tekst podnaslova
Svi se slažu da bi umjetna inteligencija trebala biti nepristrasna, ali uklanjanje predrasuda se pokazuje problematičnim
    • Autor:
    • Ime autora
      Quantumrun Foresight
    • Februar 8, 2022

    Sažetak uvida

    Iako tehnologije vođene podacima obećavaju njegovanje pravednog društva, one često odražavaju iste predrasude koje ljudi gaje, što dovodi do potencijalnih nepravdi. Na primjer, predrasude u sistemima umjetne inteligencije (AI) mogu nenamjerno pogoršati štetne stereotipe. Međutim, u toku su napori da se sistemi veštačke inteligencije učine pravednijim, iako to postavlja složena pitanja o ravnoteži između korisnosti i pravednosti, kao i potrebe za promišljenom regulacijom i raznovrsnošću u tehničkim timovima.

    Opšti kontekst pristrasnosti AI

    Nadamo se da će tehnologije vođene podacima pomoći čovječanstvu da uspostavi društvo u kojem je pravičnost norma za sve. Međutim, trenutna stvarnost daje drugačiju sliku. Mnoge predrasude koje ljudi imaju, a koje su dovele do nepravde u prošlosti, sada se ogledaju u algoritmima koji upravljaju našim digitalnim svijetom. Ove predrasude u sistemima veštačke inteligencije često potiču od predrasuda pojedinaca koji razvijaju ove sisteme, i te pristrasnosti često prodiru u njihov rad.

    Uzmimo, na primjer, projekat iz 2012. godine poznat kao ImageNet, koji je nastojao prikupiti oznake za slike za obuku sistema mašinskog učenja. Velika neuronska mreža obučena na ovim podacima je kasnije bila u stanju da identifikuje objekte sa impresivnom tačnošću. Međutim, nakon detaljnijeg pregleda, istraživači su otkrili pristranosti skrivene unutar ImageNet podataka. U jednom konkretnom slučaju, algoritam obučen na ovim podacima bio je pristrasan prema pretpostavci da su svi softverski programeri bijelci.

    Ova pristrasnost bi potencijalno mogla dovesti do toga da žene budu zanemarene za takve uloge kada je proces zapošljavanja automatiziran. Predrasude su se našle u skupovima podataka jer su pojedinačne oznake koje su dodavale slikama "žene" uključivale dodatnu oznaku koja se sastojala od pogrdnog izraza. Ovaj primjer ilustruje kako predrasude, bilo namjerne ili nenamjerne, mogu infiltrirati čak iu najsofisticiranije AI sisteme, potencijalno održavajući štetne stereotipe i nejednakosti.

    Ometajući uticaj 

    Istraživači iz raznih javnih i privatnih organizacija pokrenuli su napore za rješavanje problema pristrasnosti u podacima i algoritmima. U slučaju ImageNet projekta, na primjer, korišten je crowdsourcing da bi se identificirali i eliminirali termini označavanja koji bacaju pogrdno svjetlo na određene slike. Ove mjere su pokazale da je zaista moguće rekonfigurirati AI sisteme kako bi bili pravedniji.

    Međutim, neki stručnjaci tvrde da bi uklanjanje pristrasnosti moglo potencijalno učiniti skup podataka manje efikasnim, posebno kada je u igri višestruka pristrasnost. Skup podataka bez određenih predrasuda može završiti bez dovoljno informacija za efikasnu upotrebu. Postavlja se pitanje kako bi izgledao istinski raznolik skup slikovnih podataka i kako bi se mogao koristiti bez ugrožavanja njegove korisnosti.

    Ovaj trend naglašava potrebu za promišljenim pristupom korištenju AI i tehnologija vođenih podacima. Za kompanije to može značiti ulaganje u alate za otkrivanje predrasuda i promoviranje raznolikosti u tehnološkim timovima. Za vlade bi to moglo uključivati ​​implementaciju propisa kako bi se osigurala poštena upotreba AI. 

    Implikacije pristrasnosti AI

    Šire implikacije pristranosti AI mogu uključivati:

    • Organizacije su proaktivne u osiguravanju pravičnosti i nediskriminacije dok koriste AI za poboljšanje produktivnosti i učinka. 
    • Imati etičara AI u razvojnim timovima za otkrivanje i ublažavanje etičkih rizika rano u projektu. 
    • Dizajniranje AI proizvoda s jasnom na umu faktore raznolikosti kao što su spol, rasa, klasa i kultura.
    • Dobijanje predstavnika različitih grupa koje će koristiti AI proizvod kompanije da ga testiraju prije nego što bude objavljen.
    • Različite javne usluge su ograničene određenim članovima javnosti.
    • Određeni članovi javnosti nisu u mogućnosti da pristupe ili se kvalificiraju za određene prilike za posao.
    • Agencije za provođenje zakona i profesionalci nepravedno ciljaju određene članove društva više od drugih. 

    Pitanja koja treba razmotriti

    • Jeste li optimistični da će automatizirano donošenje odluka biti pravedno u budućnosti?
    • Šta je sa donošenjem AI odluka najviše nervoznim?

    Insight reference

    Za ovaj uvid referencirane su sljedeće popularne i institucionalne veze: