Bias ng artificial intelligence: Ang mga makina ay hindi kasing layunin ng inaasahan namin

CREDIT NG LARAWAN:
Image credit
iStock

Bias ng artificial intelligence: Ang mga makina ay hindi kasing layunin ng inaasahan namin

Bias ng artificial intelligence: Ang mga makina ay hindi kasing layunin ng inaasahan namin

Teksto ng subheading
Sumasang-ayon ang lahat na ang AI ay dapat na walang kinikilingan, ngunit ang pag-alis ng mga bias ay nagpapatunay na may problema
    • May-akda:
    • pangalan Author
      Quantumrun Foresight
    • Pebrero 8, 2022

    Buod ng pananaw

    Bagama't pinanghahawakan ng mga teknolohiyang hinimok ng data ang pangako ng pagpapaunlad ng isang patas na lipunan, kadalasang ipinapakita ng mga ito ang parehong mga pagkiling na kinikimkim ng mga tao, na humahantong sa mga potensyal na kawalang-katarungan. Halimbawa, ang mga bias sa mga sistema ng artificial intelligence (AI) ay maaaring hindi sinasadyang magpalala ng mga nakakapinsalang stereotype. Gayunpaman, isinasagawa ang mga pagsisikap upang gawing mas pantay-pantay ang mga AI system, bagama't nagdudulot ito ng mga kumplikadong tanong tungkol sa balanse sa pagitan ng utility at pagiging patas, at ang pangangailangan para sa maingat na regulasyon at pagkakaiba-iba sa mga tech team.

    Pangkalahatang konteksto ng bias ng AI

    Ang pag-asa ay ang mga teknolohiyang hinihimok ng data ay tutulong sa sangkatauhan sa pagtatatag ng isang lipunan kung saan ang pagiging patas ay pamantayan para sa lahat. Gayunpaman, ang kasalukuyang katotohanan ay nagpinta ng ibang larawan. Marami sa mga bias na mayroon ang mga tao, na humantong sa mga kawalang-katarungan sa nakaraan, ay nasasalamin na ngayon sa mga algorithm na namamahala sa ating digital na mundo. Ang mga bias na ito sa mga AI system ay kadalasang nagmumula sa mga pagkiling ng mga indibidwal na bumuo ng mga system na ito, at ang mga bias na ito ay madalas na pumapasok sa kanilang trabaho.

    Kunin, halimbawa, ang isang proyekto noong 2012 na kilala bilang ImageNet, na naghangad na i-crowdsource ang pag-label ng mga larawan para sa pagsasanay ng mga machine learning system. Ang isang malaking neural network na sinanay sa data na ito ay kasunod na nakilala ang mga bagay na may kahanga-hangang katumpakan. Gayunpaman, sa mas malapit na pagsisiyasat, natuklasan ng mga mananaliksik ang mga bias na nakatago sa loob ng data ng ImageNet. Sa isang partikular na kaso, ang isang algorithm na sinanay sa data na ito ay may kinikilingan sa pagpapalagay na ang lahat ng software programmer ay mga puting lalaki.

    Ang pagkiling na ito ay maaaring magresulta sa mga kababaihan na hindi napapansin para sa mga ganoong tungkulin kapag ang proseso ng pagkuha ay awtomatiko. Nakarating ang mga bias sa mga set ng data dahil ang indibidwal na nagdaragdag ng mga label sa mga larawan ng "babae" ay may kasamang karagdagang label na binubuo ng isang mapang-abusong termino. Ang halimbawang ito ay naglalarawan kung paano ang mga pagkiling, sinadya man o hindi sinasadya, ay maaaring makalusot kahit sa pinaka-sopistikadong AI system, na posibleng magpapanatili ng mga nakakapinsalang stereotype at hindi pagkakapantay-pantay.

    Nakakagambalang epekto 

    Ang mga pagsisikap na tugunan ang bias sa data at mga algorithm ay sinimulan ng mga mananaliksik sa iba't ibang pampubliko at pribadong organisasyon. Sa kaso ng proyekto ng ImageNet, halimbawa, ginamit ang crowdsourcing upang tukuyin at alisin ang mga termino sa pag-label na nagbibigay ng mapanirang liwanag sa ilang partikular na larawan. Ipinakita ng mga hakbang na ito na posible talagang i-reconfigure ang mga AI system para maging mas pantay.

    Gayunpaman, sinasabi ng ilang eksperto na ang pag-aalis ng bias ay maaaring maging hindi gaanong epektibo sa set ng data, lalo na kapag maraming bias ang naglalaro. Ang isang set ng data na tinanggalan ng ilang partikular na bias ay maaaring magtapos sa kakulangan ng sapat na impormasyon para sa epektibong paggamit. Itinataas nito ang tanong kung ano ang magiging hitsura ng isang tunay na magkakaibang set ng data ng imahe, at kung paano ito magagamit nang hindi nakompromiso ang utility nito.

    Binibigyang-diin ng trend na ito ang pangangailangan para sa isang maalalahanin na diskarte sa paggamit ng AI at mga teknolohiyang hinihimok ng data. Para sa mga kumpanya, maaaring mangahulugan ito ng pamumuhunan sa mga tool sa pagtukoy ng bias at pagtataguyod ng pagkakaiba-iba sa mga tech team. Para sa mga pamahalaan, maaaring may kinalaman ito sa pagpapatupad ng mga regulasyon upang matiyak ang patas na paggamit ng AI. 

    Mga implikasyon ng bias ng AI

    Ang mas malawak na implikasyon ng bias ng AI ay maaaring kabilang ang:

    • Nagiging proactive ang mga organisasyon sa pagtiyak ng pagiging patas at walang diskriminasyon habang ginagamit nila ang AI upang mapabuti ang pagiging produktibo at performance. 
    • Ang pagkakaroon ng AI ethicist sa mga development team para matukoy at mabawasan ang mga etikal na panganib nang maaga sa isang proyekto. 
    • Ang pagdidisenyo ng mga produkto ng AI na may mga salik sa pagkakaiba-iba gaya ng kasarian, lahi, klase, at kultura nang malinaw sa isip.
    • Pagkuha ng mga kinatawan mula sa magkakaibang grupo na gagamit ng produkto ng AI ng isang kumpanya upang subukan ito bago ito ilabas.
    • Pinaghihigpitan ang iba't ibang serbisyong pampubliko mula sa ilang miyembro ng publiko.
    • Ang ilang partikular na miyembro ng publiko ay hindi ma-access o kwalipikado para sa ilang mga pagkakataon sa trabaho.
    • Ang mga ahensya at propesyonal na nagpapatupad ng batas ay hindi patas na nagta-target sa ilang miyembro ng lipunan nang higit sa iba. 

    Mga katanungang dapat isaalang-alang

    • Maasahan mo ba na magiging patas ang awtomatikong pagdedesisyon sa hinaharap?
    • Paano ang tungkol sa paggawa ng desisyon ng AI na nagpapahirap sa iyo?

    Mga sanggunian ng insight

    Ang mga sumusunod na sikat at institusyonal na link ay isinangguni para sa pananaw na ito: