Paragjykimi i inteligjencës artificiale: Makineritë nuk janë aq objektive sa shpresonim

KREDI I IMAZHIT:
Kredia Image
iStock

Paragjykimi i inteligjencës artificiale: Makineritë nuk janë aq objektive sa shpresonim

Paragjykimi i inteligjencës artificiale: Makineritë nuk janë aq objektive sa shpresonim

Teksti i nëntitullit
Të gjithë janë dakord që AI duhet të jetë e paanshme, por heqja e paragjykimeve po rezulton problematike
    • Author:
    • Emri i autorit
      Parashikimi Kuantumrun
    • Shkurt 8, 2022

    Përmbledhje e pasqyrës

    Ndërsa teknologjitë e drejtuara nga të dhënat mbajnë premtimin për të nxitur një shoqëri të drejtë, ato shpesh pasqyrojnë të njëjtat paragjykime që ushqejnë njerëzit, duke çuar në padrejtësi të mundshme. Për shembull, paragjykimet në sistemet e inteligjencës artificiale (AI) mund të përkeqësojnë pa dashje stereotipet e dëmshme. Megjithatë, po bëhen përpjekje për t'i bërë sistemet e AI më të drejta, megjithëse kjo ngre pyetje komplekse në lidhje me ekuilibrin midis dobisë dhe drejtësisë, dhe nevojën për rregullim të kujdesshëm dhe diversitet në ekipet e teknologjisë.

    Konteksti i përgjithshëm i paragjykimit të AI

    Shpresa është që teknologjitë e drejtuara nga të dhënat do të ndihmojnë njerëzimin në krijimin e një shoqërie ku drejtësia është normë për të gjithë. Megjithatë, realiteti aktual paraqet një pamje të ndryshme. Shumë nga paragjykimet që kanë njerëzit, të cilat kanë çuar në padrejtësi në të kaluarën, tani po pasqyrohen në algoritmet që qeverisin botën tonë dixhitale. Këto paragjykime në sistemet e AI shpesh rrjedhin nga paragjykimet e individëve që zhvillojnë këto sisteme, dhe këto paragjykime shpesh depërtojnë në punën e tyre.

    Merrni, për shembull, një projekt në 2012 të njohur si ImageNet, i cili kërkonte të grumbullonte etiketimin e imazheve për trajnimin e sistemeve të mësimit të makinerive. Një rrjet i madh nervor i trajnuar mbi këto të dhëna më pas ishte në gjendje të identifikonte objektet me saktësi mbresëlënëse. Megjithatë, pas një inspektimi më të afërt, studiuesit zbuluan paragjykime të fshehura brenda të dhënave ImageNet. Në një rast të veçantë, një algoritëm i trajnuar mbi këto të dhëna ishte i njëanshëm ndaj supozimit se të gjithë programuesit e programeve kompjuterike janë burra të bardhë.

    Ky paragjykim potencialisht mund të rezultojë që gratë të anashkalohen për role të tilla kur procesi i punësimit është i automatizuar. Paragjykimet gjetën rrugën e tyre në grupet e të dhënave sepse individi që shtonte etiketa në imazhet e "gruas" përfshinte një etiketë shtesë që përbëhej nga një term nënçmues. Ky shembull ilustron sesi paragjykimet, qofshin ato të qëllimshme apo të paqëllimshme, mund të depërtojnë edhe në sistemet më të sofistikuara të AI, duke përjetësuar potencialisht stereotipe dhe pabarazi të dëmshme.

    Ndikim shkatërrues 

    Përpjekjet për të adresuar paragjykimet në të dhëna dhe algoritme janë iniciuar nga studiues nëpër organizata të ndryshme publike dhe private. Në rastin e projektit ImageNet, për shembull, crowdsourcing u përdor për të identifikuar dhe eliminuar termat e etiketimit që hedhin një dritë poshtëruese mbi imazhe të caktuara. Këto masa treguan se është me të vërtetë e mundur të rikonfigurohen sistemet e AI për të qenë më të drejtë.

    Megjithatë, disa ekspertë argumentojnë se heqja e paragjykimeve potencialisht mund ta bëjë një grup të dhënash më pak efektiv, veçanërisht kur paragjykimet e shumta janë në lojë. Një grup të dhënash të zhveshur nga paragjykime të caktuara mund të përfundojë duke i munguar informacionet e mjaftueshme për përdorim efektiv. Ai ngre pyetjen se si do të dukej një grup të dhënash me të vërtetë të larmishme imazhi dhe si mund të përdoret pa kompromentuar dobinë e tij.

    Ky trend nënvizon nevojën për një qasje të menduar për përdorimin e AI dhe teknologjive të drejtuara nga të dhënat. Për kompanitë, kjo mund të nënkuptojë investim në mjetet e zbulimit të paragjykimeve dhe promovimin e diversitetit në ekipet e teknologjisë. Për qeveritë, mund të përfshijë zbatimin e rregulloreve për të siguruar përdorimin e drejtë të AI. 

    Implikimet e paragjykimit të AI

    Implikimet më të gjera të paragjykimit të AI mund të përfshijnë:

    • Organizatat janë proaktive në sigurimin e drejtësisë dhe mosdiskriminimit pasi ato përdorin AI për të përmirësuar produktivitetin dhe performancën. 
    • Të kesh një etikë të AI në ekipet e zhvillimit për të zbuluar dhe zbutur rreziqet etike në fillim të një projekti. 
    • Dizajnimi i produkteve të AI me faktorë të diversitetit si gjinia, raca, klasa dhe kultura qartësisht në mendje.
    • Marrja e përfaqësuesve nga grupet e ndryshme që do të përdorin produktin e AI të një kompanie për ta testuar atë përpara se të publikohet.
    • Shërbime të ndryshme publike kufizohen nga anëtarë të caktuar të publikut.
    • Disa anëtarë të publikut nuk janë në gjendje të aksesojnë ose të kualifikohen për mundësi të caktuara pune.
    • Agjencitë e zbatimit të ligjit dhe profesionistët që synojnë padrejtësisht anëtarë të caktuar të shoqërisë më shumë se të tjerët. 

    Pyetje që duhen marrë parasysh

    • A jeni optimist se vendimmarrja e automatizuar do të jetë e drejtë në të ardhmen?
    • Po vendimmarrja e AI ju bën më nervoz?

    Referencat e njohurive

    Lidhjet e mëposhtme popullore dhe institucionale u referuan për këtë pasqyrë: