Europeisk AI-regulering: Et forsøk på å holde AI human

BILDEKREDITT:
Bilde kreditt
iStock

Europeisk AI-regulering: Et forsøk på å holde AI human

BYGGET FOR MORGENdagens FREMTIDIG

Quantumrun Trends Platform vil gi deg innsikt, verktøy og fellesskap for å utforske og trives fra fremtidige trender.

SPESIALTILBUD

$5 PER MÅNED

Europeisk AI-regulering: Et forsøk på å holde AI human

Underoverskriftstekst
EU-kommisjonens reguleringsforslag om kunstig intelligens har som mål å fremme etisk bruk av kunstig intelligens.
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • Juni 13, 2022

    Oppsummering av innsikt

    EU-kommisjonen (EC) tar skritt for å sette etiske standarder for kunstig intelligens (AI), med fokus på å forhindre misbruk på områder som overvåking og forbrukerdata. Dette trekket har utløst debatt i teknologiindustrien og kan føre til en enhetlig tilnærming med USA, med sikte på global innflytelse. Regelverket kan imidlertid også få utilsiktede konsekvenser, som å begrense markedskonkurransen og påvirke jobbmuligheter i teknologisektoren.

    Europeisk AI-reguleringskontekst

    EC har aktivt fokusert på å lage retningslinjer for å ivareta personvern og nettbaserte rettigheter. Nylig har dette fokuset utvidet seg til å omfatte etisk bruk av AI-teknologier. EF er bekymret for mulig misbruk av kunstig intelligens i ulike sektorer, fra innsamling av forbrukerdata til overvåking. Ved å gjøre det har kommisjonen som mål å sette en standard for AI-etikk, ikke bare innenfor EU, men potensielt som en modell for resten av verden.

    I april 2021 tok EU et betydelig skritt ved å gi ut et sett med regler rettet mot å overvåke AI-applikasjoner. Disse reglene er utformet for å forhindre bruk av kunstig intelligens til overvåking, opprettholdelse av skjevheter eller undertrykkende handlinger fra myndigheter eller organisasjoner. Spesielt forbyr regelverket AI-systemer som kan skade enkeltpersoner enten fysisk eller psykisk. For eksempel er AI-systemer som manipulerer folks oppførsel gjennom skjulte meldinger ikke tillatt, og heller ikke systemer som utnytter folks fysiske eller mentale sårbarheter.

    Ved siden av dette har EC også utviklet en strengere policy for hva den anser som "høyrisiko" AI-systemer. Dette er AI-applikasjoner som brukes i sektorer som har en betydelig innvirkning på offentlig sikkerhet og velvære, for eksempel medisinsk utstyr, sikkerhetsutstyr og rettshåndhevelsesverktøy. Policyen skisserer strengere revisjonskrav, en godkjenningsprosess og løpende overvåking etter at disse systemene er utplassert. Bransjer som biometrisk identifikasjon, kritisk infrastruktur og utdanning er også under denne paraplyen. Selskaper som ikke overholder disse forskriftene kan bli utsatt for store bøter, opptil USD 32 millioner eller 6 prosent av deres globale årlige inntekter.

    Forstyrrende påvirkning

    Teknologiindustrien har uttrykt bekymring for EFs regelverk for AI, og hevdet at slike regler kan hindre teknologisk fremgang. Kritikere påpeker at definisjonen av "høyrisiko" AI-systemer i rammeverket ikke er entydig. For eksempel klassifiseres ikke store teknologiselskaper som bruker AI for sosiale medier-algoritmer eller målrettet annonsering som "høyrisiko", til tross for at disse applikasjonene har vært knyttet til ulike samfunnsproblemer som feilinformasjon og polarisering. EF motvirker dette ved å si at nasjonale tilsynsorganer i hvert EU-land vil ha det siste ordet om hva som utgjør en høyrisikoapplikasjon, men denne tilnærmingen kan føre til inkonsekvenser på tvers av medlemslandene.

    Den europeiske union (EU) opptrer ikke isolert; den har som mål å samarbeide med USA for å etablere en global standard for AI-etikk. Det amerikanske senatets strategiske konkurranselov, utgitt i april 2021, krever også internasjonalt samarbeid for å motvirke "digital autoritarisme", en tilslørt referanse til praksis som Kinas bruk av biometri for masseovervåking. Dette transatlantiske partnerskapet kan sette tonen for global AI-etikk, men det reiser også spørsmål om hvordan slike standarder vil bli håndhevet over hele verden. Ville land med ulike syn på personvern og individuelle rettigheter, som Kina og Russland, følge disse retningslinjene, eller ville dette skape et fragmentert landskap av AI-etikk?

    Hvis disse forskriftene blir lov på midten til slutten av 2020-tallet, kan de få ringvirkninger for teknologiindustrien og arbeidsstyrken i EU. Selskaper som opererer i EU kan velge å bruke disse reguleringsendringene globalt, og tilpasse hele driften til de nye standardene. Noen organisasjoner kan imidlertid finne regelverket for tyngende og velge å forlate EU-markedet helt. Begge scenariene vil ha implikasjoner for sysselsettingen i EUs teknologisektor. For eksempel kan en masseutgang av selskaper føre til tap av arbeidsplasser, mens global tilpasning til EU-standarder kan gjøre EU-baserte teknologiroller mer spesialiserte og potensielt mer verdifulle.

    Implikasjoner for økt AI-regulering i Europa

    Større implikasjoner av at EF i økende grad ønsker å regulere AI kan omfatte:

    • EU og USA danner en gjensidig sertifiseringsavtale for AI-selskaper, som fører til et harmonisert sett med etiske standarder som selskaper må følge, uavhengig av deres geografiske plassering.
    • Vekst innen det spesialiserte feltet AI-revisjon, drevet av økt samarbeid mellom private firmaer og offentlig sektor for å sikre overholdelse av nye forskrifter.
    • Nasjoner og virksomheter fra utviklingsland får tilgang til digitale tjenester som overholder de etiske AI-standardene satt av vestlige nasjoner, noe som potensielt øker kvaliteten og sikkerheten til disse tjenestene.
    • Et skifte i forretningsmodeller for å prioritere etisk AI-praksis, som tiltrekker forbrukere som i økende grad er bekymret for personvern og etisk teknologibruk.
    • Myndigheter tar i bruk AI i offentlige tjenester som helsetjenester og transport med større selvtillit, vel vitende om at disse teknologiene oppfyller strenge etiske standarder.
    • Økt investering i utdanningsprogrammer fokusert på etisk AI, og skaper en ny generasjon teknologer som er godt kjent med både AI-evner og etiske hensyn.
    • Mindre teknologiske startups står overfor etableringsbarrierer på grunn av de høye kostnadene ved overholdelse av regelverk, potensielt kvelende konkurranse og fører til markedskonsolidering.

    Spørsmål å vurdere

    • Mener du at myndigheter bør regulere AI-teknologier og hvordan de distribueres?
    • Hvordan kan ellers økt regulering innen teknologiindustrien påvirke måten selskaper i sektoren opererer på? 

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten:

    Senter for strategiske og internasjonale studier AI-regulering: Europas siste forslag er en vekker for USA