Biaix de la intel·ligència artificial: les màquines no són tan objectives com esperàvem

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Biaix de la intel·ligència artificial: les màquines no són tan objectives com esperàvem

Biaix de la intel·ligència artificial: les màquines no són tan objectives com esperàvem

Text del subtítol
Tothom està d'acord que la IA ha de ser imparcial, però eliminar els biaixos està resultant problemàtic
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Febrer 8, 2022

    Resum d'informació

    Tot i que les tecnologies basades en dades tenen la promesa de fomentar una societat justa, sovint reflecteixen els mateixos biaixos que els humans alberguen, donant lloc a possibles injustícies. Per exemple, els biaixos en els sistemes d'intel·ligència artificial (IA) poden empitjorar inadvertidament els estereotips nocius. No obstant això, s'estan fent esforços per fer que els sistemes d'IA siguin més equitatius, tot i que això planteja preguntes complexes sobre l'equilibri entre utilitat i equitat, i la necessitat d'una regulació i diversitat reflexiva en els equips tecnològics.

    Context general de biaix de l'IA

    L'esperança és que les tecnologies impulsades per dades ajudin la humanitat a establir una societat on l'equitat sigui la norma per a tots. Tanmateix, la realitat actual dibuixa un panorama diferent. Molts dels biaixos que tenim els humans, que han provocat injustícies en el passat, ara es reflecteixen en els algorismes que governen el nostre món digital. Aquests biaixos en els sistemes d'IA sovint provenen dels prejudicis dels individus que desenvolupen aquests sistemes, i aquests biaixos sovint s'incorporen al seu treball.

    Preneu, per exemple, un projecte del 2012 conegut com ImageNet, que pretenia col·laborar en l'etiquetatge d'imatges per a la formació de sistemes d'aprenentatge automàtic. Una gran xarxa neuronal entrenada amb aquestes dades va poder identificar objectes amb una precisió impressionant. Tanmateix, després d'una inspecció més propera, els investigadors van descobrir biaixos amagats a les dades d'ImageNet. En un cas particular, un algorisme entrenat amb aquestes dades es va esbiaixar cap a la suposició que tots els programadors de programari són homes blancs.

    Aquest biaix podria provocar que les dones es passin per alt per a aquests rols quan el procés de contractació s'automatitza. Els biaixos es van trobar als conjunts de dades perquè l'individu que va afegir etiquetes a les imatges de "dona" incloïa una etiqueta addicional que consistia en un terme despectiu. Aquest exemple il·lustra com els biaixos, ja siguin intencionats o no, poden infiltrar-se fins i tot als sistemes d'IA més sofisticats, perpetuant potencialment estereotips i desigualtats nocius.

    Impacte disruptiu 

    Els investigadors de diverses organitzacions públiques i privades han iniciat esforços per abordar el biaix en les dades i els algorismes. En el cas del projecte ImageNet, per exemple, es va emprar el crowdsourcing per identificar i eliminar els termes d'etiquetatge que projectaven una llum despectiva sobre determinades imatges. Aquestes mesures van demostrar que és possible reconfigurar els sistemes d'IA perquè siguin més equitatius.

    Tanmateix, alguns experts argumenten que l'eliminació del biaix podria fer que un conjunt de dades sigui menys efectiu, especialment quan hi ha diversos biaixos en joc. Un conjunt de dades despullat de certs biaixos pot acabar mancant d'informació suficient per a un ús efectiu. Planteja la qüestió de com seria un conjunt de dades d'imatge realment divers i com es podria utilitzar sense comprometre la seva utilitat.

    Aquesta tendència subratlla la necessitat d'un enfocament reflexiu de l'ús de la IA i les tecnologies basades en dades. Per a les empreses, això podria significar invertir en eines de detecció de biaix i promoure la diversitat en els equips tecnològics. Per als governs, podria implicar la implementació de regulacions per garantir un ús just de la IA. 

    Implicacions del biaix de la IA

    Les implicacions més àmplies del biaix de la IA poden incloure:

    • Les organitzacions són proactives per garantir l'equitat i la no discriminació mentre aprofiten la IA per millorar la productivitat i el rendiment. 
    • Tenir un especialista en IA en els equips de desenvolupament per detectar i mitigar els riscos ètics al principi d'un projecte. 
    • Dissenyar productes d'IA tenint clarament en compte factors de diversitat com el gènere, la raça, la classe i la cultura.
    • Aconseguint representants dels diversos grups que utilitzaran el producte d'IA d'una empresa per provar-lo abans que es publiqui.
    • Diversos serveis públics estan restringits a determinats membres del públic.
    • Determinats membres del públic no poden accedir o qualificar per a determinades oportunitats laborals.
    • Les forces de l'ordre i els professionals s'orienten injustament a determinats membres de la societat més que a altres. 

    Preguntes a tenir en compte

    • És optimista que la presa de decisions automatitzada serà justa en el futur?
    • Què passa amb la presa de decisions amb IA et posa més nerviós?

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: