Dati di furmazione problematicu: Quandu l'AI hè insegnatu dati biased

CREDITU IMAGE:
Image credit
iStock

Dati di furmazione problematicu: Quandu l'AI hè insegnatu dati biased

Dati di furmazione problematicu: Quandu l'AI hè insegnatu dati biased

Testu di sottotitulu
I sistemi di intelligenza artificiale sò qualchì volta introduttu cù dati subjectivi chì ponu influenzà cumu agisce è piglia decisioni.
    • Author:
    • Nome di l'autore
      Quantumrun Foresight
    • October 14, 2022

    Riassuntu insight

    Semu ciò chì avemu amparatu è interiorize; stu dictum s'applica ancu à l'intelligenza artificiale (IA). I mudelli di Machine Learning (ML) alimentati cù dati incompleti, preghjudizii è immorali, in fine, facenu decisioni problematiche è suggerimenti. Questi algoritmi putenti ponu influenzà a moralità è e percepzioni di l'utilizatori se i ricercatori ùn sò micca attenti.

    Cuntestu di dati di furmazione problematicu

    Dapoi l'anni 2010, i squadre di ricerca sò stati esaminati per l'usu di datasets di furmazione cun cuntenutu inadatti o riuniti in modu antieticu. Per esempiu, in 2016, a basa di dati MS-Celeb-1M di Microsoft includeu 10 milioni d'imaghjini di 100,000 XNUMX celebrità diverse. Tuttavia, dopu à più inspezione, i currispundenti anu scupertu chì assai ritratti eranu di persone ordinarie tirate da diversi siti web senza l'accunsentu o a cunniscenza di u pruprietariu.

    Malgradu sta realizazione, u dataset hà cuntinuatu à esse utilizatu da e cumpagnie maiò cum'è Facebook è SenseTime, una cumpagnia di ricunniscenza faciale cinese cù ligami cù a polizia statali. In listessu modu, un inseme di dati chì cuntene ritratti di e persone chì caminavanu in u campus di l'Università di Duke (DukeMTMC) ùn anu micca recullatu micca u cunsensu. Eventualmente, i dui datasets sò stati eliminati. 

    Per mette in risaltu l'effetti dannosi di e dati di furmazione problematiche, i circadori di l'Istitutu di Tecnulugia di Massachusetts (MIT) anu creatu un AI chjamatu Norman chì anu insignatu à eseguisce dititoli d'imaghjini da un subreddit chì evidenziava a viulenza grafica. A squadra poi pusò Norman contr'à una rete neurale furmatu cù dati cunvinziunali. I circadori furnì i dui sistemi cù macchie d'inchiostro di Rorschach è dumandanu à l'AI di discrive ciò chì anu vistu. I risultati eranu stupente: induve a rete neurale standard hà vistu "una foto in biancu è neru di un guanti di baseball", Norman hà osservatu "un omu assassinatu da una mitragliatrice in piena luce di ghjornu". L'esperimentu hà dimustratu chì l'IA ùn hè micca automaticamente preghjudiziu, ma quelli metudi di input di dati è i motivi di i so creatori ponu influenzà significativamente u cumpurtamentu di l'IA.

    Impact disruptive

    In u 2021, l'urganizazione di ricerca Allen Institute for AI hà creatu Ask Delphi, un software ML chì genera algoritmicamente risposte per risposte à qualsiasi quistione etica. I circadori daretu à u prugettu hà dichjaratu chì l'IA hè diventata gradualmente più putente è familiare, cusì i scientisti anu bisognu à insignà l'etica di questi sistemi ML. U mudellu Unicorn ML hè u fundamentu di Delphi. Hè statu furmulatu per rializà ragiunamentu "sensu cumunu", cum'è a selezzione di a fine più prubabile di una stringa di testu. 

    In più, circadori usatu lu 'Commonsense Norm Bank.' Stu bancu hè custituitu da 1.7 milioni di esempi di valutazioni etiche di e persone da lochi cum'è Reddit. In u risultatu, a pruduzzioni di Delphi era un saccu mistu. Delphi hà rispostu à certe dumande in modu ragiunate (per esempiu, l'ugualità trà l'omi è e donne), mentre chì, nantu à certi temi, Delphi era francamente offensivo (per esempiu, u genocidiu hè accettatu sempre chì hà fattu a ghjente felice).

    Tuttavia, l'IA Delphi impara da e so sperienze è pare chì aghjurnà e so risposte basate nantu à i feedback. Certi sperti sò disturbati da l'usu publicu è apertu di a ricerca, cunziddi chì u mudellu hè in prugressu è hè propensu à risposti erratici. Quandu Ask Delphi hà debuttatu, Mar Hicks, un prufissore di Storia in Illinois Tech specializatu in u genere, u travagliu è a storia di l'informatica, hà dettu chì era negligente di i circadori à invità a ghjente à aduprà, cunsiderendu chì Delphi hà immediatamente furnitu risposte estremamente immorali è alcuni. sciocchezza cumpleta. 

    In 2023, Resto di u Mondu hà realizatu un studiu nantu à u bias in i generatori d'imaghjini AI. Utilizendu Midjourney, i circadori anu scupertu chì l'imaghjini generati affirmanu stereotipi esistenti. Inoltre, quandu OpenAI applicò filtri à i dati di furmazione per u so mudellu di generazione di l'imaghjini DALL-E 2, hà intensificatu involontariamente i preghjudizii ligati à u genere.

    Implicazioni di dati di furmazione problematicu

    Implicazioni più larghe di dati di furmazione problematiche ponu include: 

    • Preghjudizii rinfurzati in prughjetti di ricerca, servizii, è sviluppu di prugramma. I dati di furmazione problematicu sò particularmente cuncernanti s'ellu sò usati in l'istituzioni di l'infurzazioni di a lege è di l'istituzioni bancarie (per esempiu, targeting adversely groups minority).
    • Aumentu di l'investimentu è u sviluppu in a crescita è l'assortimentu di dati di furmazione. 
    • Più guverni aumentanu i regulamenti per limità cumu si sviluppanu, vendenu è usanu e corporazioni dati di furmazione per diverse iniziative cummerciale.
    • Più imprese chì stabiliscenu dipartimenti d'etica per assicurà chì i prughjetti alimentati da sistemi AI seguenu linee etiche.
    • Scrutiniu rinfurzatu nantu à l'usu di l'IA in l'assistenza sanitaria chì porta à una guvernanza di dati più stretta, assicurendu a privacy di i pazienti è l'applicazione etica di l'IA.
    • Aumentu di a cullaburazione di u settore publicu è privatu per favurizà l'alfabetizazione in l'IA, dotendu a forza di travagliu cù cumpetenze per un futuru dominatu da l'IA.
    • Aumentu di a dumanda di strumenti di trasparenza AI, chì guidanu l'imprese à dà priorità à l'esplicabilità in i sistemi di AI per a cunniscenza è a fiducia di i cunsumatori.

    Dumande da cunsiderà

    • Cumu l'urganisazioni puderanu evità l'usu di dati di furmazione problematiche?
    • Chì sò l'altri cunsequenze potenziali di dati di furmazione immorali?