Data hyfforddiant problematig: Pan ddysgir AI data rhagfarnllyd

CREDYD DELWEDD:
Credyd Delwedd
iStock

Data hyfforddiant problematig: Pan ddysgir AI data rhagfarnllyd

Data hyfforddiant problematig: Pan ddysgir AI data rhagfarnllyd

Testun is-bennawd
Weithiau cyflwynir systemau deallusrwydd artiffisial gyda data goddrychol a all effeithio ar y ffordd y mae'n gweithredu ac yn gwneud penderfyniadau.
    • Awdur:
    • enw awdur
      Rhagolwg Quantumrun
    • Tachwedd 14

    Crynodeb mewnwelediad

    Ni yw'r hyn yr ydym yn ei ddysgu ac yn mewnoli; mae'r dictum hwn hefyd yn berthnasol i ddeallusrwydd artiffisial (AI). Yn y pen draw, bydd modelau dysgu peiriant (ML) sy'n cael eu bwydo â data anghyflawn, rhagfarnllyd ac anfoesegol yn gwneud penderfyniadau ac awgrymiadau problematig. Gall yr algorithmau pwerus hyn wedyn ddylanwadu ar foesoldeb a chanfyddiadau defnyddwyr os nad yw ymchwilwyr yn ofalus.

    Cyd-destun data hyfforddi problemus

    Ers y 2010au, mae timau ymchwil wedi cael eu craffu ar gyfer defnyddio setiau data hyfforddi gyda chynnwys anaddas neu wedi'u casglu'n anfoesegol. Er enghraifft, yn 2016, roedd cronfa ddata MS-Celeb-1M Microsoft yn cynnwys 10 miliwn o ddelweddau o 100,000 o wahanol enwogion. Fodd bynnag, ar ôl archwilio ymhellach, darganfu gohebwyr fod llawer o luniau o bobl gyffredin wedi'u tynnu o wahanol wefannau heb ganiatâd na gwybodaeth y perchennog.

    Er gwaethaf y sylweddoliad hwn, parhaodd y set ddata i gael ei defnyddio gan gwmnïau mawr fel Facebook a SenseTime, cwmni adnabod wynebau Tsieineaidd gyda chysylltiadau â heddlu'r wladwriaeth. Yn yr un modd, ni wnaeth set ddata yn cynnwys lluniau o bobl yn cerdded ar gampws Prifysgol Dug (DukeMTMC) gasglu caniatâd ychwaith. Yn y pen draw, cafodd y ddwy set ddata eu dileu. 

    Er mwyn tynnu sylw at effeithiau niweidiol data hyfforddi problemus, creodd ymchwilwyr yn Sefydliad Technoleg Massachusetts (MIT) AI o'r enw Norman y buont yn ei ddysgu i berfformio capsiynau delwedd o subreddit a amlygodd drais graffig. Yna gosododd y tîm Norman yn erbyn rhwydwaith niwral a hyfforddwyd gan ddefnyddio data confensiynol. Darparodd yr ymchwilwyr blotiau inc Rorschach i'r ddwy system a gofyn i'r AI ddisgrifio'r hyn a welsant. Roedd y canlyniadau'n syfrdanol: lle gwelodd y rhwydwaith niwral safonol "ffotograff du a gwyn o faneg pêl fas," arsylwodd Norman "ddyn wedi'i lofruddio gan wn peiriant yng ngolau dydd eang." Dangosodd yr arbrawf nad yw AI yn rhagfarnllyd yn awtomatig, ond gall y dulliau mewnbynnu data hynny a chymhellion eu crewyr effeithio'n sylweddol ar ymddygiad AI.

    Effaith aflonyddgar

    Yn 2021, creodd y sefydliad ymchwil Allen Institute for AI Ask Delphi, meddalwedd ML sy'n cynhyrchu ymatebion yn algorithmig ar gyfer atebion i unrhyw gwestiwn moesegol. Dywedodd yr ymchwilwyr y tu ôl i'r prosiect fod AI yn dod yn fwy pwerus a chyfarwydd yn raddol, felly mae angen i wyddonwyr addysgu'r moeseg systemau ML hyn. Model Unicorn ML yw sylfaen Delphi. Fe'i lluniwyd i gyflawni ymresymiad "synnwyr cyffredin", megis dewis y diweddglo mwyaf tebygol i linyn testun. 

    Ar ben hynny, defnyddiodd ymchwilwyr y 'Banc Normanaidd Cyffredin.' Mae'r banc hwn yn cynnwys 1.7 miliwn o enghreifftiau o werthusiadau moesegol pobl o leoedd fel Reddit. O ganlyniad, bag cymysg oedd allbwn Delphi. Atebodd Delphi rai cwestiynau yn rhesymol (e.e., cydraddoldeb rhwng dynion a merched), tra, ar rai pynciau, roedd Delphi yn gwbl dramgwyddus (e.e., mae hil-laddiad yn dderbyniol cyn belled â'i fod yn gwneud pobl yn hapus).

    Fodd bynnag, mae Delphi AI yn dysgu o'i brofiadau ac mae'n ymddangos ei fod yn diweddaru ei atebion yn seiliedig ar adborth. Mae rhai arbenigwyr yn cael eu cythryblu gan ddefnydd cyhoeddus ac agored yr ymchwil, o ystyried bod y model ar y gweill a'i fod yn dueddol o gael atebion anghyson. Pan ddaeth Ask Delphi i’r amlwg am y tro cyntaf, dywedodd Mar Hicks, athro Hanes yn Illinois Tech sy’n arbenigo mewn rhyw, llafur, a hanes cyfrifiadura, ei bod yn esgeulus i ymchwilwyr wahodd pobl i’w ddefnyddio, gan ystyried bod Delphi wedi darparu atebion hynod anfoesegol ar unwaith a rhai. nonsens llwyr. 

    Yn 2023, Gweddill y Byd cynnal astudiaeth ar ragfarn mewn generaduron delwedd AI. Gan ddefnyddio Midjourney, darganfu ymchwilwyr fod y delweddau a gynhyrchir yn cadarnhau ystrydebau presennol. Yn ogystal, pan gymhwysodd OpenAI hidlwyr i'r data hyfforddi ar gyfer ei fodel cynhyrchu delwedd DALL-E 2, fe wnaeth yn anfwriadol ddwysáu rhagfarnau yn ymwneud â rhyw.

    Goblygiadau data hyfforddi problemus

    Gall goblygiadau ehangach data hyfforddi problemus gynnwys: 

    • Tueddiadau cryfach mewn prosiectau ymchwil, gwasanaethau, a datblygu rhaglenni. Mae data hyfforddi problemus yn arbennig o bryderus os caiff ei ddefnyddio mewn sefydliadau gorfodi'r gyfraith a bancio (ee targedu grwpiau lleiafrifol yn andwyol).
    • Mwy o fuddsoddiad a datblygiad yn nhwf ac amrywiaeth data hyfforddi. 
    • Mwy o lywodraethau yn cynyddu rheoliadau i gyfyngu ar sut mae corfforaethau'n datblygu, gwerthu a defnyddio data hyfforddi ar gyfer mentrau masnachol amrywiol.
    • Mwy o fusnesau yn sefydlu adrannau moeseg i sicrhau bod prosiectau sy'n cael eu pweru gan systemau AI yn dilyn canllawiau moesegol.
    • Craffu gwell ar y defnydd o AI mewn gofal iechyd yn arwain at lywodraethu data llymach, gan sicrhau preifatrwydd cleifion a chymhwysiad AI moesegol.
    • Mwy o gydweithio rhwng y sector cyhoeddus a’r sector preifat i feithrin llythrennedd deallusrwydd artiffisial, gan roi’r sgiliau i’r gweithlu ar gyfer dyfodol sy’n cael ei ddominyddu gan AI.
    • Cynnydd yn y galw am offer tryloywder AI, gan arwain cwmnïau i flaenoriaethu eglurdeb mewn systemau AI ar gyfer dealltwriaeth ac ymddiriedaeth defnyddwyr.

    Cwestiynau i'w hystyried

    • Sut gallai sefydliadau osgoi defnyddio data hyfforddi problemus?
    • Beth yw canlyniadau posibl eraill data hyfforddiant anfoesegol?