Eiropas AI regula: mēģinājums saglabāt AI humānu

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

Eiropas AI regula: mēģinājums saglabāt AI humānu

BŪVĒTA RĪTdienas FUTURISMAM

Platforma Quantumrun Trends sniegs ieskatu, rīkus un kopienu, lai izpētītu nākotnes tendences un gūtu panākumus.

ĪPAŠS PIEDĀVĀJUMS

5 USD MĒNESĪ

Eiropas AI regula: mēģinājums saglabāt AI humānu

Apakšvirsraksta teksts
Eiropas Komisijas mākslīgā intelekta regulējuma priekšlikuma mērķis ir veicināt mākslīgā intelekta ētisku izmantošanu.
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Jūnijs 13, 2022

    Ieskata kopsavilkums

    Eiropas Komisija (EK) sper soļus, lai noteiktu mākslīgā intelekta (AI) ētikas standartus, koncentrējoties uz ļaunprātīgas izmantošanas novēršanu tādās jomās kā uzraudzība un patērētāju dati. Šis solis ir izraisījis diskusijas tehnoloģiju nozarē un varētu novest pie vienotas pieejas ar ASV, kuras mērķis ir globāla ietekme. Tomēr noteikumiem var būt arī neparedzētas sekas, piemēram, ierobežojot konkurenci tirgū un ietekmējot darba iespējas tehnoloģiju nozarē.

    Eiropas AI regulējuma konteksts

    EK ir aktīvi koncentrējusies uz politikas veidošanu, lai aizsargātu datu privātumu un tiesības tiešsaistē. Nesen šī uzmanība ir paplašināta, iekļaujot AI tehnoloģiju ētisku izmantošanu. EK pauž bažas par iespējamo mākslīgā intelekta ļaunprātīgu izmantošanu dažādās nozarēs, sākot no patērētāju datu vākšanas līdz uzraudzībai. Šādi rīkojoties, Komisijas mērķis ir noteikt mākslīgā intelekta ētikas standartu ne tikai ES, bet arī kā paraugu pārējai pasaulei.

    2021. gada aprīlī EK spēra nozīmīgu soli, izlaižot noteikumu kopumu, kas paredzēts AI lietojumprogrammu uzraudzībai. Šie noteikumi ir izstrādāti, lai novērstu AI izmantošanu uzraudzībai, neobjektivitātes saglabāšanai vai valdību vai organizāciju represīvām darbībām. Konkrēti, noteikumi aizliedz AI sistēmas, kas var kaitēt indivīdiem fiziski vai psiholoģiski. Piemēram, nav atļautas mākslīgā intelekta sistēmas, kas manipulē ar cilvēku uzvedību, izmantojot slēptos ziņojumus, kā arī sistēmas, kas izmanto cilvēku fizisko vai garīgo ievainojamību.

    Līdztekus tam EK ir izstrādājusi arī stingrāku politiku attiecībā uz to, ko tā uzskata par "augsta riska" AI sistēmām. Šīs ir AI lietojumprogrammas, ko izmanto nozarēs, kurām ir būtiska ietekme uz sabiedrības drošību un labklājību, piemēram, medicīnas ierīcēs, drošības iekārtās un tiesībaizsardzības rīkos. Politikā ir izklāstītas stingrākas revīzijas prasības, apstiprināšanas process un pastāvīga uzraudzība pēc šo sistēmu izvietošanas. Šajā paspārnē ietilpst arī tādas nozares kā biometriskā identifikācija, kritiskā infrastruktūra un izglītība. Uzņēmumiem, kas neievēro šos noteikumus, var tikt uzlikts liels naudas sods līdz USD 32 miljoniem jeb 6 procenti no to globālajiem gada ieņēmumiem.

    Traucējoša ietekme

    Tehnoloģiju nozare ir paudusi bažas par EK normatīvo regulējumu mākslīgā intelekta jomā, apgalvojot, ka šādi noteikumi varētu kavēt tehnoloģisko progresu. Kritiķi norāda, ka "augsta riska" AI sistēmu definīcija sistēmā nav skaidra. Piemēram, lielie tehnoloģiju uzņēmumi, kas izmanto AI sociālo mediju algoritmiem vai mērķtiecīgai reklāmai, netiek klasificēti kā "augsta riska pakāpe", neskatoties uz to, ka šīs lietojumprogrammas ir saistītas ar dažādām sabiedrības problēmām, piemēram, dezinformāciju un polarizāciju. EK tam pretojas, paziņojot, ka katras ES valsts valsts uzraudzības aģentūrām būs galīgais vārds par to, kas ir augsta riska pieteikums, taču šāda pieeja var radīt neatbilstības starp dalībvalstīm.

    Eiropas Savienība (ES) nerīkojas izolēti; tā mērķis ir sadarboties ar ASV, lai izveidotu globālu AI ētikas standartu. ASV Senāta Stratēģiskās konkurences likums, kas tika izdots 2021. gada aprīlī, arī aicina uz starptautisku sadarbību, lai cīnītos pret "digitālo autoritārismu", kas ir slēpta atsauce uz tādu praksi kā Ķīnas biometrisko datu izmantošana masveida novērošanai. Šī transatlantiskā partnerība varētu noteikt globālās AI ētikas toni, taču tā arī rada jautājumus par to, kā šādi standarti tiktu ieviesti visā pasaulē. Vai valstis, kurām ir atšķirīgi uzskati par datu privātumu un personu tiesībām, piemēram, Ķīna un Krievija, ievērotu šīs vadlīnijas, vai arī tas radītu sadrumstalotu mākslīgā intelekta ētikas ainavu?

    Ja šie noteikumi kļūs par likumu 2020. gadu vidū vai beigās, tiem varētu būt viļņveidīga ietekme uz tehnoloģiju nozari un darbaspēku ES. Uzņēmumi, kas darbojas ES, var izvēlēties piemērot šīs regulatīvās izmaiņas globāli, saskaņojot visu savu darbību ar jaunajiem standartiem. Tomēr dažām organizācijām noteikumi varētu šķist pārāk apgrūtinoši, un tās varētu izvēlēties pilnībā izstāties no ES tirgus. Abi scenāriji ietekmētu nodarbinātību ES tehnoloģiju nozarē. Piemēram, uzņēmumu masveida aiziešana varētu novest pie darbavietu zaudēšanas, savukārt globāla saskaņošana ar ES standartiem varētu padarīt ES balstītas tehnoloģiju lomas specializētākas un potenciāli vērtīgākas.

    Ietekme uz pastiprinātu AI regulējumu Eiropā

    Plašākas sekas tam, ka EK arvien vairāk vēlas regulēt AI, var ietvert:

    • ES un ASV noslēdz savstarpēju AI uzņēmumu sertifikācijas līgumu, kā rezultātā tiek izstrādāts saskaņots ētikas standartu kopums, kas uzņēmumiem jāievēro neatkarīgi no to ģeogrāfiskās atrašanās vietas.
    • Izaugsme specializētajā AI audita jomā, ko veicina pastiprināta sadarbība starp privātiem uzņēmumiem un valsts sektoru, lai nodrošinātu atbilstību jaunajiem noteikumiem.
    • Jaunattīstības valstu valstis un uzņēmumi iegūst piekļuvi digitālajiem pakalpojumiem, kas atbilst Rietumu valstu noteiktajiem ētikas mākslīgā intelekta standartiem, kas, iespējams, uzlabos šo pakalpojumu kvalitāti un drošību.
    • Uzņēmējdarbības modeļu maiņa, lai prioritāti piešķirtu ētiskai AI praksei, piesaistot patērētājus, kuri arvien vairāk uztraucas par datu privātumu un ētisku tehnoloģiju izmantošanu.
    • Valdības, kas ar lielāku pārliecību ievieš AI sabiedriskajos pakalpojumos, piemēram, veselības aprūpē un transportā, zinot, ka šīs tehnoloģijas atbilst stingriem ētikas standartiem.
    • Palielināti ieguldījumi izglītības programmās, kas vērstas uz ētisku AI, radot jaunu tehnologu paaudzi, kas labi pārzina gan AI iespējas, gan ētiskus apsvērumus.
    • Mazāki tehnoloģiju jaunuzņēmumi saskaras ar šķēršļiem ienākšanai tirgū, jo ir augstās izmaksas par atbilstību normatīvajiem aktiem, kas, iespējams, apslāpē konkurenci un noved pie tirgus konsolidācijas.

    Jautājumi, kas jāapsver

    • Vai jūs uzskatāt, ka valdībām būtu jāregulē AI tehnoloģijas un kā tās tiek izmantotas?
    • Kā vēl pastiprināts regulējums tehnoloģiju nozarē varētu ietekmēt nozares uzņēmumu darbību? 

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites: