Europese AI-regelgeving: een poging om AI humaan te houden

BEELDKREDIET:
Image credit
iStock

Europese AI-regelgeving: een poging om AI humaan te houden

GEBOUWD VOOR DE FUTURIST VAN MORGEN

Het Quantumrun Trends Platform geeft u de inzichten, tools en community om toekomstige trends te verkennen en ervan te profiteren.

SPECIALE AANBIEDING

$ 5 PER MAAND

Europese AI-regelgeving: een poging om AI humaan te houden

Onderkoptekst
Het regelgevingsvoorstel voor kunstmatige intelligentie van de Europese Commissie heeft tot doel het ethische gebruik van AI te bevorderen.
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 13 June 2022

    Samenvatting inzicht

    De Europese Commissie (EC) zet stappen om ethische normen voor kunstmatige intelligentie (AI) vast te stellen, waarbij de nadruk ligt op het voorkomen van misbruik op gebieden als surveillance en consumentengegevens. Deze stap heeft geleid tot debat in de technologie-industrie en zou kunnen leiden tot een gezamenlijke aanpak met de VS, gericht op mondiale invloed. De regelgeving kan echter ook onbedoelde gevolgen hebben, zoals het beperken van de concurrentie op de markt en het aantasten van de werkgelegenheid in de technologiesector.

    Context Europese AI-regelgeving

    De EC heeft zich actief geconcentreerd op het creëren van beleid om de privacy van gegevens en onlinerechten te beschermen. Onlangs is deze focus uitgebreid naar het ethische gebruik van AI-technologieën. De EC maakt zich zorgen over het potentiële misbruik van AI in verschillende sectoren, van het verzamelen van consumentengegevens tot toezicht. Hiermee wil de Commissie een norm stellen voor de ethiek van AI, niet alleen binnen de EU, maar mogelijk ook als model voor de rest van de wereld.

    In april 2021 heeft de EC een belangrijke stap gezet door een reeks regels vrij te geven die gericht zijn op het monitoren van AI-toepassingen. Deze regels zijn bedoeld om het gebruik van AI voor toezicht, het bestendigen van vooroordelen of repressieve acties door overheden of organisaties te voorkomen. Concreet verbiedt de regelgeving AI-systemen die individuen fysiek of psychologisch kunnen schaden. Zo zijn AI-systemen die het gedrag van mensen manipuleren via verborgen boodschappen niet toegestaan, net zo min als systemen die de fysieke of mentale kwetsbaarheden van mensen uitbuiten.

    Daarnaast heeft de Europese Commissie ook een rigoureuzer beleid ontwikkeld voor wat zij beschouwt als “risicovolle” AI-systemen. Dit zijn AI-toepassingen die worden gebruikt in sectoren die een substantiële impact hebben op de openbare veiligheid en het welzijn, zoals medische apparatuur, veiligheidsuitrusting en wetshandhavingsinstrumenten. Het beleid schetst strengere auditvereisten, een goedkeuringsproces en voortdurende monitoring nadat deze systemen zijn geïmplementeerd. Industrieën als biometrische identificatie, kritieke infrastructuur en onderwijs vallen ook onder deze paraplu. Bedrijven die zich niet aan deze regelgeving houden, kunnen te maken krijgen met hoge boetes, die kunnen oplopen tot 32 miljoen dollar of 6 procent van hun wereldwijde jaaromzet.

    Disruptieve impact

    De technologie-industrie heeft haar zorgen geuit over het regelgevingskader van de Europese Commissie voor AI, met het argument dat dergelijke regels de technologische vooruitgang zouden kunnen belemmeren. Critici wijzen erop dat de definitie van ‘risicovolle’ AI-systemen in het raamwerk niet eenduidig ​​is. Grote technologiebedrijven die AI gebruiken voor algoritmen voor sociale media of gerichte reclame worden bijvoorbeeld niet geclassificeerd als ‘hoog risico’, ondanks het feit dat deze toepassingen in verband zijn gebracht met verschillende maatschappelijke kwesties zoals desinformatie en polarisatie. De EC gaat dit tegen door te stellen dat nationale toezichthoudende instanties binnen elk EU-land het laatste woord zullen hebben over wat een toepassing met een hoog risico inhoudt, maar deze aanpak zou tot inconsistenties tussen de lidstaten kunnen leiden.

    De Europese Unie (EU) handelt niet geïsoleerd; Het heeft tot doel samen te werken met de VS om een ​​mondiale standaard voor AI-ethiek vast te stellen. De Strategic Competition Act van de Amerikaanse Senaat, die in april 2021 werd uitgebracht, roept ook op tot internationale samenwerking om ‘digitaal autoritarisme’ tegen te gaan, een verhulde verwijzing naar praktijken als China’s gebruik van biometrie voor massale surveillance. Dit transatlantische partnerschap zou de toon kunnen zetten voor de mondiale AI-ethiek, maar roept ook vragen op over de manier waarop dergelijke normen wereldwijd zouden worden gehandhaafd. Zouden landen met verschillende opvattingen over gegevensprivacy en individuele rechten, zoals China en Rusland, zich aan deze richtlijnen houden, of zou dit een gefragmenteerd landschap van AI-ethiek creëren?

    Als deze regelgeving halverwege tot eind jaren twintig wet wordt, kunnen ze een domino-effect hebben op de technologie-industrie en de beroepsbevolking in de EU. Bedrijven die in de EU actief zijn, kunnen ervoor kiezen om deze wijzigingen in de regelgeving wereldwijd toe te passen en hun hele bedrijfsvoering op één lijn te brengen met de nieuwe normen. Sommige organisaties vinden de regelgeving echter misschien te omslachtig en kiezen ervoor om de EU-markt helemaal te verlaten. Beide scenario's zouden gevolgen hebben voor de werkgelegenheid in de technologiesector van de EU. Een massale exit van bedrijven zou bijvoorbeeld tot banenverlies kunnen leiden, terwijl de mondiale afstemming op de EU-normen de in de EU gevestigde technologierollen specialer en potentieel waardevoller zou kunnen maken.

    Gevolgen voor verhoogde AI-regelgeving in Europa

    Bredere implicaties van het feit dat de Europese Commissie steeds meer AI wil reguleren, kunnen zijn:

    • De EU en de VS vormen een wederzijdse certificeringsovereenkomst voor AI-bedrijven, wat leidt tot een geharmoniseerde reeks ethische normen die bedrijven moeten volgen, ongeacht hun geografische locatie.
    • Groei op het gespecialiseerde gebied van AI-auditing, aangewakkerd door de toegenomen samenwerking tussen particuliere bedrijven en de publieke sector om naleving van nieuwe regelgeving te garanderen.
    • Landen en bedrijven uit de ontwikkelingslanden krijgen toegang tot digitale diensten die voldoen aan de ethische AI-normen van westerse landen, waardoor mogelijk de kwaliteit en veiligheid van deze diensten wordt verhoogd.
    • Een verschuiving in bedrijfsmodellen om prioriteit te geven aan ethische AI-praktijken, waardoor consumenten worden aangetrokken die zich steeds meer zorgen maken over gegevensprivacy en ethisch technologiegebruik.
    • Overheden adopteren met meer vertrouwen AI in openbare diensten zoals gezondheidszorg en transport, wetende dat deze technologieën voldoen aan strenge ethische normen.
    • Meer investeringen in onderwijsprogramma’s gericht op ethische AI, waardoor een nieuwe generatie technologen ontstaat die goed thuis zijn in zowel de AI-capaciteiten als ethische overwegingen.
    • Kleinere tech-startups worden geconfronteerd met toetredingsdrempels vanwege de hoge kosten van naleving van de regelgeving, waardoor de concurrentie mogelijk wordt onderdrukt en tot marktconsolidatie kan leiden.

    Vragen om te overwegen

    • Vindt u dat overheden AI-technologieën moeten reguleren en hoe ze worden ingezet?
    • Hoe kan meer regelgeving binnen de technologie-industrie de manier waarop bedrijven in de sector opereren anders beïnvloeden? 

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links: