Pristranskost umetne inteligence: Stroji niso tako objektivni, kot smo upali

KREDIT ZA SLIKO:
Image kredit
iStock

Pristranskost umetne inteligence: Stroji niso tako objektivni, kot smo upali

Pristranskost umetne inteligence: Stroji niso tako objektivni, kot smo upali

Besedilo podnaslova
Vsi se strinjajo, da bi morala biti umetna inteligenca nepristranska, vendar se je odstranjevanje pristranskosti izkazalo za problematično
    • Avtor:
    • ime avtorja
      Quantumrun Foresight
    • Februar 8, 2022

    Povzetek vpogleda

    Medtem ko tehnologije, ki temeljijo na podatkih, obljubljajo spodbujanje pravične družbe, pogosto odražajo enake predsodke, ki jih gojimo ljudje, kar vodi do morebitnih krivic. Na primer, pristranskosti v sistemih umetne inteligence (AI) lahko nenamerno poslabšajo škodljive stereotipe. Vendar pa potekajo prizadevanja, da bi sistemi umetne inteligence postali pravičnejši, čeprav to odpira zapletena vprašanja o ravnotežju med uporabnostjo in poštenostjo ter potrebo po premišljeni regulaciji in raznolikosti v tehnoloških ekipah.

    Splošni kontekst pristranskosti AI

    Upamo, da bodo tehnologije, ki jih poganjajo podatki, pomagale človeštvu pri vzpostavitvi družbe, v kateri bo poštenost norma za vse. Vendar pa trenutna realnost kaže drugačno sliko. Veliko človeških predsodkov, ki so v preteklosti vodili do krivic, se zdaj odraža v algoritmih, ki upravljajo naš digitalni svet. Te pristranskosti v sistemih AI pogosto izvirajo iz predsodkov posameznikov, ki te sisteme razvijajo, in te pristranskosti pogosto pronicajo v njihovo delo.

    Vzemimo za primer projekt iz leta 2012, znan kot ImageNet, ki je poskušal pridobiti množično označevanje slik za usposabljanje sistemov strojnega učenja. Velika nevronska mreža, ki je bila usposobljena na teh podatkih, je kasneje lahko identificirala predmete z impresivno natančnostjo. Vendar pa so po natančnejšem pregledu raziskovalci odkrili pristranskosti, skrite v podatkih ImageNet. V enem posebnem primeru je bil algoritem, usposobljen na teh podatkih, pristranski k predpostavki, da so vsi programerji programske opreme belci.

    Ta pristranskost bi lahko povzročila, da bi bile ženske spregledane za takšne vloge, ko je postopek zaposlovanja avtomatiziran. Pristranskosti so se znašle v naborih podatkov, ker je posameznik, ki je slikam "ženske" dodal oznake, vključeval dodatno oznako, ki je vsebovala slabšalni izraz. Ta primer ponazarja, kako se lahko pristranskosti, namerne ali nenamerne, infiltrirajo celo v najbolj izpopolnjene sisteme umetne inteligence in potencialno ohranjajo škodljive stereotipe in neenakosti.

    Moteč vpliv 

    Prizadevanja za obravnavo pristranskosti v podatkih in algoritmih so začeli raziskovalci v različnih javnih in zasebnih organizacijah. V primeru projekta ImageNet je bilo na primer množično iskanje uporabljeno za prepoznavanje in odpravo izrazov za označevanje, ki mečejo slabšo luč na določene slike. Ti ukrepi so pokazali, da je resnično mogoče preoblikovati sisteme umetne inteligence, da bodo bolj pravični.

    Vendar pa nekateri strokovnjaki trdijo, da bi lahko odstranitev pristranskosti povzročila manj učinkovitost nabora podatkov, zlasti kadar je v igri več pristranskosti. Podatkovni niz, brez določenih pristranskosti, lahko na koncu nima dovolj informacij za učinkovito uporabo. Postavlja vprašanje, kako bi izgledal resnično raznolik nabor slikovnih podatkov in kako bi ga lahko uporabili, ne da bi ogrozili njegovo uporabnost.

    Ta trend poudarja potrebo po premišljenem pristopu k uporabi umetne inteligence in tehnologij, ki temeljijo na podatkih. Za podjetja bi to lahko pomenilo vlaganje v orodja za odkrivanje pristranskosti in spodbujanje raznolikosti v tehnoloških ekipah. Za vlade bi to lahko vključevalo izvedbene predpise za zagotovitev poštene uporabe umetne inteligence. 

    Posledice pristranskosti AI

    Širše posledice pristranskosti umetne inteligence lahko vključujejo:

    • Organizacije so proaktivne pri zagotavljanju poštenosti in nediskriminacije, saj uporabljajo AI za izboljšanje produktivnosti in uspešnosti. 
    • Imeti strokovnjaka za etiko umetne inteligence v razvojnih skupinah za odkrivanje in ublažitev etičnih tveganj v zgodnji fazi projekta. 
    • Oblikovanje izdelkov AI z jasnim upoštevanjem dejavnikov raznolikosti, kot so spol, rasa, razred in kultura.
    • Pridobivanje predstavnikov iz različnih skupin, ki bodo uporabljale izdelek AI podjetja, da ga preizkusijo, preden bo izdan.
    • Različne javne storitve so omejene za nekatere člane javnosti.
    • Določeni člani javnosti ne morejo dostopati ali se kvalificirati za določene zaposlitvene priložnosti.
    • Organi kazenskega pregona in strokovnjaki nepošteno ciljajo na določene člane družbe bolj kot na druge. 

    Vprašanja, ki jih je treba upoštevati

    • Ste optimistični, da bo avtomatizirano odločanje v prihodnosti pravično?
    • Kaj vas najbolj živcira pri odločanju z umetno inteligenco?

    Insight reference

    Za ta vpogled so bile navedene naslednje priljubljene in institucionalne povezave: