Europe AI-regulering: Et forsøg på at holde AI human

BILLEDKREDIT:
Image credit
iStock

Europe AI-regulering: Et forsøg på at holde AI human

BYGGET TIL MORGENGENS FREMTIDSMÅDE

Quantumrun Trends Platform vil give dig indsigt, værktøjer og fællesskab til at udforske og trives fra fremtidige trends.

SPECIAL TILBUD

5 USD pr. måned

Europe AI-regulering: Et forsøg på at holde AI human

Underoverskriftstekst
Europa-Kommissionens lovforslag om kunstig intelligens har til formål at fremme den etiske brug af kunstig intelligens.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • 13. Juni, 2022

    Oversigt over indsigt

    Europa-Kommissionen (EC) tager skridt til at fastsætte etiske standarder for kunstig intelligens (AI), med fokus på at forhindre misbrug på områder som overvågning og forbrugerdata. Dette skridt har udløst debat i teknologiindustrien og kan føre til en samlet tilgang med USA, der sigter mod global indflydelse. Reglerne kan dog også have utilsigtede konsekvenser, såsom at begrænse konkurrencen på markedet og påvirke jobmulighederne i tech-sektoren.

    Europæisk AI-reguleringskontekst

    EU har aktivt fokuseret på at skabe politikker for at beskytte databeskyttelse og onlinerettigheder. For nylig er dette fokus udvidet til at omfatte den etiske brug af AI-teknologier. EU er bekymret over det potentielle misbrug af kunstig intelligens i forskellige sektorer, fra indsamling af forbrugerdata til overvågning. Ved at gøre dette sigter Kommissionen mod at sætte en standard for AI-etik, ikke kun inden for EU, men potentielt som en model for resten af ​​verden.

    I april 2021 tog EU et væsentligt skridt ved at frigive et sæt regler, der sigter mod at overvåge AI-applikationer. Disse regler er designet til at forhindre brugen af ​​kunstig intelligens til overvågning, opretholdelse af partiskhed eller undertrykkende handlinger fra regeringer eller organisationer. Specifikt forbyder reglerne AI-systemer, der kan skade individer enten fysisk eller psykisk. For eksempel er AI-systemer, der manipulerer folks adfærd gennem skjulte beskeder, ikke tilladt, og det er heller ikke systemer, der udnytter folks fysiske eller mentale sårbarheder.

    Sideløbende med dette har EU også udviklet en mere stringent politik for, hvad den betragter som "højrisiko" AI-systemer. Disse er AI-applikationer, der bruges i sektorer, der har en væsentlig indvirkning på offentlig sikkerhed og velvære, såsom medicinsk udstyr, sikkerhedsudstyr og retshåndhævelsesværktøjer. Politikken skitserer strengere revisionskrav, en godkendelsesproces og løbende overvågning, efter at disse systemer er implementeret. Industrier som biometrisk identifikation, kritisk infrastruktur og uddannelse er også under denne paraply. Virksomheder, der ikke overholder disse regler, kan risikere store bøder, op til USD 32 millioner eller 6 procent af deres globale årlige omsætning.

    Forstyrrende påvirkning

    Teknologiindustrien har udtrykt bekymring over EU's lovgivningsmæssige rammer for kunstig intelligens og argumenteret for, at sådanne regler kunne hindre teknologiske fremskridt. Kritikere påpeger, at definitionen af ​​"højrisiko" AI-systemer i rammen ikke er entydig. For eksempel er store teknologivirksomheder, der bruger AI til sociale mediealgoritmer eller målrettet annoncering, ikke klassificeret som "højrisiko", på trods af at disse applikationer er blevet forbundet med forskellige samfundsmæssige problemer som misinformation og polarisering. EU imødegår dette ved at fastslå, at nationale tilsynsorganer i hvert EU-land vil have det sidste ord om, hvad der udgør en højrisikoansøgning, men denne tilgang kan føre til uoverensstemmelser på tværs af medlemslandene.

    Den Europæiske Union (EU) handler ikke isoleret; det sigter mod at samarbejde med USA for at etablere en global standard for AI-etik. Det amerikanske senats strategiske konkurrencelov, udgivet i april 2021, opfordrer også til internationalt samarbejde for at imødegå "digital autoritarisme", en tilsløret henvisning til praksis som Kinas brug af biometri til masseovervågning. Dette transatlantiske partnerskab kunne sætte tonen for global AI-etik, men det rejser også spørgsmål om, hvordan sådanne standarder ville blive håndhævet på verdensplan. Ville lande med forskellige syn på databeskyttelse og individuelle rettigheder, som Kina og Rusland, overholde disse retningslinjer, eller ville dette skabe et fragmenteret landskab af AI-etik?

    Hvis disse regler bliver lov i midten til slutningen af ​​2020'erne, kan de få en ringvirkning på teknologiindustrien og arbejdsstyrken i EU. Virksomheder, der opererer i EU, kan vælge at anvende disse lovgivningsmæssige ændringer globalt og tilpasse hele deres drift til de nye standarder. Nogle organisationer kan dog finde reglerne for byrdefulde og vælge helt at forlade EU-markedet. Begge scenarier ville få konsekvenser for beskæftigelsen i EU's teknologisektor. For eksempel kan en masseudtrædelse af virksomheder føre til tab af arbejdspladser, mens global tilpasning til EU-standarder kan gøre EU-baserede teknologiroller mere specialiserede og potentielt mere værdifulde.

    Implikationer for øget AI-regulering i Europa

    De bredere implikationer af, at EU i stigende grad ønsker at regulere kunstig intelligens kan omfatte:

    • EU og USA danner en gensidig certificeringsaftale for AI-virksomheder, hvilket fører til et harmoniseret sæt af etiske standarder, som virksomheder skal følge, uanset deres geografiske placering.
    • Vækst inden for det specialiserede område for AI-revision, drevet af øget samarbejde mellem private virksomheder og offentlige sektorer for at sikre overholdelse af nye regler.
    • Nationer og virksomheder fra udviklingslandene får adgang til digitale tjenester, der overholder de etiske AI-standarder fastsat af vestlige nationer, hvilket potentielt hæver kvaliteten og sikkerheden af ​​disse tjenester.
    • Et skift i forretningsmodeller for at prioritere etisk AI-praksis, hvilket tiltrækker forbrugere, der i stigende grad bekymrer sig om databeskyttelse og brug af etisk teknologi.
    • Regeringer, der anvender kunstig intelligens i offentlige tjenester som sundhedspleje og transport med større tillid, vel vidende at disse teknologier opfylder strenge etiske standarder.
    • Øget investering i uddannelsesprogrammer fokuseret på etisk AI, hvilket skaber en ny generation af teknologer, der er velbevandret i både AI-kapaciteter og etiske overvejelser.
    • Mindre tech startups står over for adgangsbarrierer på grund af de høje omkostninger ved lovoverholdelse, hvilket potentielt kvæler konkurrencen og fører til markedskonsolidering.

    Spørgsmål at overveje

    • Mener du, at regeringer bør regulere AI-teknologier, og hvordan de implementeres?
    • Hvordan kan øget regulering inden for teknologiindustrien ellers påvirke den måde, virksomheder i sektoren opererer på? 

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt:

    Center for strategiske og internationale studier AI-forordning: Europas seneste forslag er et wake-up call for USA