Aliniad AI: Mae cyfateb nodau deallusrwydd artiffisial yn cyd-fynd â gwerthoedd dynol

CREDYD DELWEDD:
Credyd Delwedd
iStock

Aliniad AI: Mae cyfateb nodau deallusrwydd artiffisial yn cyd-fynd â gwerthoedd dynol

Aliniad AI: Mae cyfateb nodau deallusrwydd artiffisial yn cyd-fynd â gwerthoedd dynol

Testun is-bennawd
Mae rhai ymchwilwyr yn credu y dylid gweithredu mesurau i sicrhau nad yw deallusrwydd artiffisial yn niweidio cymdeithas.
    • Awdur:
    • enw awdur
      Rhagolwg Quantumrun
    • Ionawr 25, 2023

    Aliniad deallusrwydd artiffisial (AI) yw pan fydd nodau system AI yn cyd-fynd â gwerthoedd dynol. Mae gan gwmnïau fel OpenAI, DeepMind, ac Anthropic dimau o ymchwilwyr sy'n canolbwyntio'n llwyr ar astudio rheiliau gwarchod ar gyfer gwahanol senarios lle gallai hyn ddigwydd.

    Cyd-destun aliniad AI

    Yn ôl astudiaeth ymchwil gan Brifysgol Cornell yn 2021, mae sawl astudiaeth wedi dangos bod offer neu fodelau a grëwyd gan algorithmau yn dangos tuedd sy'n deillio o'r data y cawsant eu hyfforddi arno. Er enghraifft, mewn prosesu iaith naturiol (NLP), mae modelau dethol NLP sydd wedi'u hyfforddi ar setiau data cyfyngedig wedi'u dogfennu gan wneud rhagfynegiadau yn seiliedig ar stereoteipiau rhyw niweidiol yn erbyn menywod. Yn yr un modd, canfu astudiaethau eraill fod algorithmau a hyfforddwyd ar set ddata yr ymyrrwyd â hwy yn arwain at argymhellion â thuedd hiliol, yn enwedig mewn plismona.

    Mae yna ddigonedd o enghreifftiau lle mae systemau dysgu peirianyddol wedi gwneud yn waeth i leiafrifoedd neu grwpiau sy'n dioddef anfanteision lluosog. Yn benodol, nid yw dadansoddiad wyneb awtomataidd a diagnosteg gofal iechyd fel arfer yn gweithio'n dda iawn i fenywod a phobl o liw. Pan ddefnyddir systemau hanfodol a ddylai fod yn seiliedig ar ffeithiau a rhesymeg yn lle emosiwn mewn cyd-destunau fel dyrannu gofal iechyd neu addysg, gallant wneud mwy o niwed trwy ei gwneud yn anos nodi'r rhesymeg y tu ôl i'r argymhellion hyn.

    O ganlyniad, mae cwmnïau technoleg yn creu timau alinio AI i ganolbwyntio ar gadw algorithmau yn deg ac yn drugarog. Mae ymchwil yn hanfodol i ddeall cyfeiriad systemau AI uwch, yn ogystal â'r heriau y gallem eu hwynebu wrth i alluoedd AI dyfu.

    Effaith aflonyddgar

    Yn ôl Jan Leike, pennaeth aliniad AI yn OpenAI (2021), o ystyried mai dim ond yn y 2010au y mae systemau AI wedi dod yn alluog, mae'n ddealladwy bod y rhan fwyaf o ymchwil aliniad AI wedi bod yn theori-drwm. Pan fydd systemau AI hynod bwerus wedi'u halinio, un o'r heriau y mae bodau dynol yn eu hwynebu yw y gallai'r peiriannau hyn greu atebion sy'n rhy gymhleth i'w hadolygu ac asesu a ydynt yn gwneud synnwyr yn foesegol.

    Dyfeisiodd Leike strategaeth modelu gwobrau ailadroddus (RRM) i ddatrys y broblem hon. Gyda RRM, mae sawl AI "cynorthwy-ydd" yn cael eu haddysgu i helpu dynol i werthuso pa mor dda y mae AI mwy cymhleth yn perfformio. Mae'n optimistaidd ynghylch y posibilrwydd o greu rhywbeth y mae'n cyfeirio ato fel "MVP aliniad." Yn nhermau cychwyn, MVP (neu isafswm cynnyrch hyfyw) yw'r cynnyrch symlaf posibl y gall cwmni ei adeiladu i brofi syniad. Y gobaith yw bod AI ryw ddydd yn cyfateb i berfformiad dynol wrth ymchwilio i AI a'i aliniad â gwerthoedd tra hefyd yn ymarferol.

    Er bod diddordeb cynyddol mewn aliniad AI yn gadarnhaol net, mae llawer o ddadansoddwyr yn y maes yn meddwl mai dim ond cysylltiadau cyhoeddus yw llawer o'r gwaith "moeseg" mewn labordai AI blaenllaw sydd wedi'u cynllunio i wneud i gwmnïau technoleg edrych yn dda ac osgoi cyhoeddusrwydd negyddol. Nid yw'r unigolion hyn yn disgwyl i arferion datblygu moesegol ddod yn flaenoriaeth i'r cwmnïau hyn unrhyw bryd yn fuan.

    Mae'r sylwadau hyn yn amlygu pwysigrwydd dulliau rhyngddisgyblaethol ar gyfer ymdrechion i alinio gwerth, gan fod hwn yn faes ymchwil moesol a thechnegol cymharol newydd. Dylai gwahanol ganghennau o wybodaeth fod yn rhan o agenda ymchwil gynhwysol. Mae'r fenter hon hefyd yn tynnu sylw at yr angen i dechnolegwyr a llunwyr polisi barhau i fod yn ymwybodol o'u cyd-destun cymdeithasol a'u rhanddeiliaid, hyd yn oed wrth i systemau AI ddod yn fwy datblygedig.

    Goblygiadau aliniad AI

    Gallai goblygiadau ehangach aliniad AI gynnwys: 

    • Labordai deallusrwydd artiffisial yn llogi byrddau moeseg amrywiol i oruchwylio prosiectau a chyflawni canllawiau AI moesegol. 
    • Llywodraethau sy'n creu deddfau sy'n ei gwneud yn ofynnol i gwmnïau gyflwyno eu fframwaith AI cyfrifol a sut maent yn bwriadu datblygu eu prosiectau AI ymhellach.
    • Mwy o ddadleuon ynghylch defnyddio algorithmau wrth recriwtio, gwyliadwriaeth gyhoeddus, a gorfodi'r gyfraith.
    • Ymchwilwyr yn cael eu tanio o labordai AI mawr oherwydd gwrthdaro buddiannau rhwng moeseg a nodau corfforaethol.
    • Mwy o bwysau ar lywodraethau i reoleiddio systemau AI datblygedig sydd ill dau yn hynod bwerus ond a all o bosibl dorri hawliau dynol.

    Cwestiynau i wneud sylwadau arnynt

    • Sut y gellir gwneud cwmnïau'n atebol am y systemau AI y maent yn eu creu?
    • Beth yw'r peryglon posibl eraill os ceir camlinio AI?

    Cyfeiriadau mewnwelediad

    Cyfeiriwyd at y cysylltiadau poblogaidd a sefydliadol canlynol ar gyfer y mewnwelediad hwn: