Rheoliad AI Ewrop: Ymgais i gadw AI yn drugarog

CREDYD DELWEDD:
Credyd Delwedd
iStock

Rheoliad AI Ewrop: Ymgais i gadw AI yn drugarog

ADEILADU AR GYFER DYFODOL YFORY

Bydd Platfform Tueddiadau Quantumrun yn rhoi'r mewnwelediadau, yr offer a'r gymuned i chi archwilio a ffynnu o dueddiadau'r dyfodol.

CYNNIG ARBENNIG

$5 Y MIS

Rheoliad AI Ewrop: Ymgais i gadw AI yn drugarog

Testun is-bennawd
Nod cynnig rheoleiddio deallusrwydd artiffisial y Comisiwn Ewropeaidd yw hyrwyddo'r defnydd moesegol o AI.
    • Awdur:
    • enw awdur
      Rhagolwg Quantumrun
    • Mehefin 13, 2022

    Crynodeb mewnwelediad

    Mae'r Comisiwn Ewropeaidd (CE) yn cymryd camau i osod safonau moesegol ar gyfer deallusrwydd artiffisial (AI), gan ganolbwyntio ar atal camddefnydd mewn meysydd fel gwyliadwriaeth a data defnyddwyr. Mae'r symudiad hwn wedi tanio dadl yn y diwydiant technoleg a gallai arwain at ymagwedd unedig gyda'r Unol Daleithiau, gan anelu at ddylanwad byd-eang. Fodd bynnag, gall y rheoliadau hefyd arwain at ganlyniadau anfwriadol, megis cyfyngu ar gystadleuaeth yn y farchnad ac effeithio ar gyfleoedd swyddi yn y sector technoleg.

    Cyd-destun rheoleiddio AI Ewropeaidd

    Mae'r CE wedi bod yn canolbwyntio'n weithredol ar greu polisïau i ddiogelu preifatrwydd data a hawliau ar-lein. Yn ddiweddar, mae'r ffocws hwn wedi ehangu i gynnwys y defnydd moesegol o dechnolegau AI. Mae'r CE yn pryderu am y camddefnydd posibl o AI mewn amrywiol sectorau, o gasglu data defnyddwyr i wyliadwriaeth. Drwy wneud hynny, nod y Comisiwn yw gosod safon ar gyfer moeseg AI, nid yn unig o fewn yr UE ond o bosibl fel model ar gyfer gweddill y byd.

    Ym mis Ebrill 2021, cymerodd y CE gam sylweddol trwy ryddhau set o reolau gyda'r nod o fonitro cymwysiadau AI. Mae'r rheolau hyn wedi'u cynllunio i atal defnyddio AI ar gyfer gwyliadwriaeth, rhagfarn barhaus, neu weithredoedd gormesol gan lywodraethau neu sefydliadau. Yn benodol, mae'r rheoliadau'n gwahardd systemau AI a allai niweidio unigolion naill ai'n gorfforol neu'n seicolegol. Er enghraifft, ni chaniateir systemau AI sy'n trin ymddygiad pobl trwy negeseuon cudd, ac ni chaniateir ychwaith systemau sy'n manteisio ar wendidau corfforol neu feddyliol pobl.

    Ochr yn ochr â hyn, mae'r CE hefyd wedi datblygu polisi mwy trylwyr ar gyfer yr hyn y mae'n ei ystyried yn systemau AI "risg uchel". Mae'r rhain yn gymwysiadau AI a ddefnyddir mewn sectorau sy'n cael effaith sylweddol ar ddiogelwch a lles y cyhoedd, megis dyfeisiau meddygol, offer diogelwch, ac offer gorfodi'r gyfraith. Mae'r polisi yn amlinellu gofynion archwilio llymach, proses gymeradwyo, a monitro parhaus ar ôl i'r systemau hyn gael eu defnyddio. Mae diwydiannau fel adnabod biometrig, seilwaith critigol, ac addysg hefyd o dan yr ymbarél hwn. Gall cwmnïau sy'n methu â chydymffurfio â'r rheoliadau hyn wynebu dirwyon mawr, hyd at USD $32 miliwn neu 6 y cant o'u refeniw blynyddol byd-eang.

    Effaith aflonyddgar

    Mae'r diwydiant technoleg wedi mynegi pryderon am fframwaith rheoleiddio'r CE ar gyfer AI, gan ddadlau y gallai rheolau o'r fath rwystro cynnydd technolegol. Mae beirniaid yn nodi nad yw'r diffiniad o systemau AI "risg uchel" yn y fframwaith yn glir. Er enghraifft, nid yw cwmnïau technoleg mawr sy'n defnyddio AI ar gyfer algorithmau cyfryngau cymdeithasol neu hysbysebu wedi'i dargedu yn cael eu dosbarthu fel "risg uchel," er gwaethaf y ffaith bod y cymwysiadau hyn wedi'u cysylltu â materion cymdeithasol amrywiol fel gwybodaeth anghywir a phegynnu. Mae'r CE yn gwrthbwyso hyn drwy ddatgan mai asiantaethau goruchwylio cenedlaethol o fewn pob gwlad yn yr UE fydd â'r gair olaf ar yr hyn sy'n gyfystyr â chymhwysiad risg uchel, ond gallai'r dull hwn arwain at anghysondebau ar draws aelod-wladwriaethau.

    Nid yw’r Undeb Ewropeaidd (UE) yn gweithredu ar ei ben ei hun; ei nod yw cydweithio â'r Unol Daleithiau i sefydlu safon fyd-eang ar gyfer moeseg AI. Mae Deddf Cystadleuaeth Strategol Senedd yr UD, a ryddhawyd ym mis Ebrill 2021, hefyd yn galw am gydweithrediad rhyngwladol i wrthsefyll “awdurdodaeth ddigidol”, cyfeiriad cudd at arferion fel defnydd Tsieina o fiometreg ar gyfer gwyliadwriaeth dorfol. Gallai'r bartneriaeth drawsatlantig hon osod y naws ar gyfer moeseg AI byd-eang, ond mae hefyd yn codi cwestiynau ynghylch sut y byddai safonau o'r fath yn cael eu gorfodi ledled y byd. A fyddai gwledydd sydd â safbwyntiau gwahanol ar breifatrwydd data a hawliau unigol, fel Tsieina a Rwsia, yn cadw at y canllawiau hyn, neu a fyddai hyn yn creu tirwedd dameidiog o foeseg AI?

    Os daw’r rheoliadau hyn yn gyfraith rhwng canol a diwedd y 2020au, gallent gael effaith crychdonni ar y diwydiant technoleg a’r gweithlu yn yr UE. Gall cwmnïau sy’n gweithredu yn yr UE ddewis cymhwyso’r newidiadau rheoleiddiol hyn yn fyd-eang, gan alinio eu gweithrediad cyfan â’r safonau newydd. Fodd bynnag, efallai y bydd rhai sefydliadau’n gweld y rheoliadau’n rhy feichus ac yn dewis gadael marchnad yr UE yn gyfan gwbl. Byddai gan y ddau senario oblygiadau ar gyfer cyflogaeth yn sector technoleg yr UE. Er enghraifft, gallai ymadawiad torfol o gwmnïau arwain at golli swyddi, tra gallai aliniad byd-eang â safonau’r UE wneud rolau technoleg yn yr UE yn fwy arbenigol ac o bosibl yn fwy gwerthfawr.

    Goblygiadau ar gyfer mwy o reoleiddio AI yn Ewrop

    Gallai goblygiadau ehangach y CE yn gynyddol eisiau rheoleiddio AI gynnwys:

    • Yr UE a'r Unol Daleithiau yn ffurfio cytundeb ardystio ar y cyd ar gyfer cwmnïau AI, gan arwain at set gyson o safonau moesegol y mae'n rhaid i gwmnïau eu dilyn, waeth beth fo'u lleoliad daearyddol.
    • Twf ym maes arbenigol archwilio AI, wedi'i ysgogi gan fwy o gydweithio rhwng cwmnïau preifat a'r sectorau cyhoeddus i sicrhau cydymffurfiaeth â rheoliadau newydd.
    • Gwledydd a busnesau o'r byd sy'n datblygu yn cael mynediad at wasanaethau digidol sy'n cadw at y safonau AI moesegol a osodwyd gan genhedloedd y Gorllewin, gan godi ansawdd a diogelwch y gwasanaethau hyn o bosibl.
    • Symudiad mewn modelau busnes i flaenoriaethu arferion AI moesegol, gan ddenu defnyddwyr sy'n poeni fwyfwy am breifatrwydd data a'r defnydd o dechnoleg foesegol.
    • Llywodraethau sy'n mabwysiadu AI mewn gwasanaethau cyhoeddus fel gofal iechyd a chludiant yn fwy hyderus, gan wybod bod y technolegau hyn yn bodloni safonau moesegol trwyadl.
    • Mwy o fuddsoddiad mewn rhaglenni addysgol sy'n canolbwyntio ar AI moesegol, gan greu cenhedlaeth newydd o dechnolegwyr sy'n hyddysg mewn galluoedd AI ac ystyriaethau moesegol.
    • Cwmnïau technoleg newydd llai yn wynebu rhwystrau rhag mynediad oherwydd costau uchel cydymffurfio â rheoliadau, a allai fygu cystadleuaeth ac arwain at gyfuno'r farchnad.

    Cwestiynau i'w hystyried

    • A ydych yn credu y dylai llywodraethau reoleiddio technolegau AI a sut y cânt eu defnyddio?
    • Sut arall y gallai mwy o reoleiddio o fewn y diwydiant technoleg effeithio ar y ffordd y mae cwmnïau yn y sector yn gweithredu? 

    Cyfeiriadau mewnwelediad

    Cyfeiriwyd at y cysylltiadau poblogaidd a sefydliadol canlynol ar gyfer y mewnwelediad hwn: