Problematyske trainingsgegevens: As AI biased gegevens wurdt leard

Ofbyldingskredyt:
Image credit
iStock

Problematyske trainingsgegevens: As AI biased gegevens wurdt leard

Problematyske trainingsgegevens: As AI biased gegevens wurdt leard

Subheading tekst
Systemen foar keunstmjittige yntelliginsje wurde soms yntrodusearre mei subjektive gegevens dy't kinne beynfloedzje hoe't it hannelet en besluten makket.
    • Skriuwer:
    • Namme fan auteur
      Quantumrun Foresight
    • Oktober 14, 2022

    Ynsjoch gearfetting

    Wy binne wat wy leare en internalize; dit dictum jildt ek foar keunstmjittige yntelliginsje (AI). Masine-learen (ML)-modellen fiede mei ûnfolsleine, foaroardielde en onetyske gegevens sille úteinlik problematyske besluten en suggestjes meitsje. Dizze krêftige algoritmen kinne dan de moraal en opfettings fan brûkers beynfloedzje as ûndersikers net foarsichtich binne.

    Problematyske training data kontekst

    Sûnt de 2010's binne ûndersyksteams ûndersocht foar it brûken fan trainingsdatasets mei net geskikte ynhâld of unethysk sammele. Bygelyks, yn 2016 befette Microsoft's MS-Celeb-1M-database 10 miljoen ôfbyldings fan 100,000 ferskate ferneamden. By fierdere ynspeksje ûntdutsen korrespondinten lykwols dat in protte foto's wiene fan gewoane minsken dy't fan ferskate websiden helle waarden sûnder de tastimming of kennis fan 'e eigner.

    Nettsjinsteande dit besef bleau de dataset brûkt wurde troch grutte bedriuwen lykas Facebook en SenseTime, in Sineesk bedriuw foar gesichtsherkenning mei keppelings nei de steatsplysje. Likemin sammele in dataset mei foto's fan minsken dy't op 'e kampus fan Duke University (DukeMTMC) rinne ek gjin tastimming. Uteinlik waarden beide datasets fuorthelle. 

    Om de skealike effekten fan problematyske traininggegevens te markearjen, makken ûndersikers fan it Massachusetts Institute of Technology (MIT) in AI mei de namme Norman dy't se learden om ôfbyldingsûnderskrift út te fieren fan in subreddit dy't grafysk geweld markearre. It team pleatste Norman doe tsjin in neuraal netwurk dat trainde mei konvinsjonele gegevens. De ûndersikers levere beide systemen mei Rorschach-inktblots en fregen de AI's om te beskriuwen wat se seagen. De resultaten wiene prachtich: wêr't it standert neurale netwurk "in swart-wyt foto fan in honkbalhandschoen" seach, observearre Norman "in man fermoarde troch masinegewear yn heule dei." It eksperimint hat oantoand dat AI net automatysk bias is, mar dy gegevensinputmetoaden en de motiven fan har skeppers kinne it gedrach fan in AI signifikant beynfloedzje.

    Disruptive ynfloed

    Yn 2021 makke de ûndersyksorganisaasje Allen Institute for AI Ask Delphi, in ML-software dy't algoritmysk antwurden genereart foar antwurden op elke etyske fraach. De ûndersikers efter it projekt stelden dat AI stadichoan machtiger en fertrouder wurdt, sadat wittenskippers dizze ML-systemen etyk moatte leare. It Unicorn ML-model is de stifting fan Delphi. It waard formulearre om "sûn ferstân" redenearring út te fieren, lykas it selektearjen fan it meast wierskynlike ein fan in tekststring. 

    Fierders brûkten ûndersikers de 'Commonsense Norm Bank.' Dizze bank bestiet út 1.7 miljoen foarbylden fan etyske evaluaasjes fan minsken út plakken lykas Reddit. As gefolch wie de útfier fan Delphi in mingde tas. Delphi beantwurde guon fragen ridlik (bgl. gelikensens tusken manlju en froulju), wylst, op guon ûnderwerpen, Delphi rjochtfeardich offensyf wie (bgl. genoside is akseptabel salang't it minsken lokkich makke).

    De Delphi AI leart lykwols fan har ûnderfiningen en liket syn antwurden te aktualisearjen basearre op feedback. Guon saakkundigen binne lestich falle troch it publyk en iepen gebrûk fan it ûndersyk, sjoen it model is oan 'e gong en is gefoelich foar grillige antwurden. Doe't Ask Delphi debutearre, sei Mar Hicks, in heechlearaar Skiednis by Illinois Tech spesjalisearre yn geslacht, arbeid, en de skiednis fan komputer, dat it negligent wie fan ûndersikers om minsken út te noegjen om it te brûken, yn betinken nommen dat Delphi fuortendaliks ekstreem unethyske antwurden levere en guon folsleine ûnsin. 

    Yn 2023, Rest fan de wrâld in stúdzje útfierd oer bias yn AI-ôfbyldingsgenerators. Mei help fan Midjourney ûntdutsen ûndersikers dat de generearre ôfbyldings besteande stereotypen befêstigje. Derneist, doe't OpenAI filters tapaste op 'e trainingsgegevens foar har DALL-E 2-ôfbyldingsgeneraasjemodel, fersterke it ûnbedoeld foaroardielen relatearre oan geslacht.

    Gefolgen fan problematyske traininggegevens

    Bredere gefolgen fan problematyske traininggegevens kinne omfetsje: 

    • Fersterke foaroardielen yn ûndersyksprojekten, tsjinsten en programmaûntwikkeling. Problematyske opliedingsgegevens binne benammen oangeande as se brûkt wurde yn wet hanthaveningsbelied en bankynstellingen (bygelyks, negatyf rjochte op minderheidsgroepen).
    • Fergrutte ynvestearring en ûntwikkeling yn groei en assortiment fan trainingsgegevens. 
    • Mear oerheden ferheegje regeljouwing om te beheinen hoe't bedriuwen traininggegevens ûntwikkelje, ferkeapje en brûke foar ferskate kommersjele inisjativen.
    • Mear bedriuwen dy't etyske ôfdielingen oprjochtsje om te soargjen dat projekten oandreaun troch AI-systemen etyske rjochtlinen folgje.
    • Ferbettere kontrôle oer it gebrûk fan AI yn sûnenssoarch dy't liedt ta strangere gegevensbestjoer, garandearjen fan privacy fan pasjinten en etyske AI-applikaasje.
    • Fergrutte gearwurking yn 'e publike en partikuliere sektor om AI-geletterdheid te befoarderjen, it personiel út te rusten mei feardigens foar in AI-dominearre takomst.
    • Tanimmende fraach nei ark foar AI-transparânsje, liedend bedriuwen om de ferklearring yn AI-systemen te prioritearjen foar begryp en fertrouwen fan konsuminten.

    Fragen om te beskôgje

    • Hoe kinne organisaasjes it brûken fan problematyske traininggegevens foarkomme?
    • Wat binne oare mooglike gefolgen fan unethyske traininggegevens?

    Ynsjoch ferwizings

    De folgjende populêre en ynstitúsjonele keppelings waarden ferwiisd foar dit ynsjoch: