Regulació europea de la IA: un intent de mantenir la IA humana

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Regulació europea de la IA: un intent de mantenir la IA humana

CONSTRUït PER AL FUTURISTA DE DEMÀ

La Plataforma de Tendències de Quantumrun us oferirà els coneixements, les eines i la comunitat per explorar i prosperar a partir de les tendències futures.

OFERTA ESPECIAL

5 $ AL MES

Regulació europea de la IA: un intent de mantenir la IA humana

Text del subtítol
La proposta reguladora de la intel·ligència artificial de la Comissió Europea té com a objectiu promoure l'ús ètic de la IA.
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Juny 13, 2022

    Resum d'informació

    La Comissió Europea (CE) està fent grans passos per establir estàndards ètics per a la intel·ligència artificial (IA), centrant-se a prevenir el mal ús en àrees com la vigilància i les dades dels consumidors. Aquest moviment ha despertat un debat a la indústria tecnològica i podria conduir a un enfocament unificat amb els EUA, amb l'objectiu d'influir globalment. No obstant això, la normativa també pot tenir conseqüències no desitjades, com ara limitar la competència del mercat i afectar les oportunitats laborals en el sector tecnològic.

    Context de la regulació europea de la IA

    La CE s'ha centrat activament en la creació de polítiques per salvaguardar la privadesa de les dades i els drets en línia. Recentment, aquest focus s'ha ampliat per incloure l'ús ètic de les tecnologies d'IA. La CE està preocupada pel possible ús indegut de la IA en diversos sectors, des de la recollida de dades dels consumidors fins a la vigilància. D'aquesta manera, la Comissió pretén establir un estàndard per a l'ètica de la IA, no només dins de la UE, sinó potencialment com a model per a la resta del món.

    L'abril de 2021, la CE va fer un pas important en publicar un conjunt de normes destinades a supervisar les aplicacions d'IA. Aquestes regles estan dissenyades per evitar l'ús de la IA per a la vigilància, la perpetuació del biaix o les accions repressives de governs o organitzacions. Concretament, la normativa prohibeix els sistemes d'IA que puguin perjudicar les persones físicament o psicològicament. Per exemple, els sistemes d'IA que manipulen el comportament de les persones mitjançant missatges ocults no estan permesos, ni tampoc els sistemes que explotin les vulnerabilitats físiques o mentals de les persones.

    Paral·lelament, la CE també ha desenvolupat una política més rigorosa per al que considera sistemes d'IA "d'alt risc". Es tracta d'aplicacions d'IA que s'utilitzen en sectors que tenen un impacte substancial en la seguretat i el benestar públics, com ara dispositius mèdics, equips de seguretat i eines d'aplicació de la llei. La política descriu requisits d'auditoria més estrictes, un procés d'aprovació i un seguiment continu després de desplegar aquests sistemes. Indústries com la identificació biomètrica, la infraestructura crítica i l'educació també es troben sota aquest paraigua. Les empreses que incompleixin aquestes regulacions poden enfrontar-se a fortes multes, de fins a 32 milions de dòlars USD o el 6 per cent dels seus ingressos anuals globals.

    Impacte disruptiu

    La indústria tecnològica ha expressat la seva preocupació pel marc normatiu de la CE per a la IA, argumentant que aquestes normes podrien dificultar el progrés tecnològic. Els crítics assenyalen que la definició de sistemes d'IA "d'alt risc" en el marc no és clara. Per exemple, les grans empreses tecnològiques que utilitzen IA per a algorismes de xarxes socials o publicitat dirigida no es classifiquen com a "d'alt risc", malgrat que aquestes aplicacions s'han relacionat amb diversos problemes socials com la desinformació i la polarització. La CE contraresta això afirmant que les agències nacionals de supervisió de cada país de la UE tindran l'última paraula sobre què constitueix una aplicació d'alt risc, però aquest enfocament podria provocar inconsistències entre els estats membres.

    La Unió Europea (UE) no actua de manera aïllada; té com a objectiu col·laborar amb els EUA per establir un estàndard global per a l'ètica de la IA. La Llei de competència estratègica del Senat dels Estats Units, publicada l'abril de 2021, també demana la cooperació internacional per contrarestar l'"autoritarisme digital", una referència velada a pràctiques com l'ús de la biometria a la Xina per a la vigilància massiva. Aquesta associació transatlàntica podria marcar el to de l'ètica global de la IA, però també planteja preguntes sobre com s'aplicarien aquests estàndards a tot el món. Els països amb opinions diferents sobre la privadesa de les dades i els drets individuals, com la Xina i Rússia, s'adheririen a aquestes directrius, o això crearia un panorama fragmentat de l'ètica de la IA?

    Si aquestes regulacions es converteixen en llei a mitjans i finals de la dècada de 2020, podrien tenir un efecte dominós en la indústria de la tecnologia i la força de treball a la UE. Les empreses que operen a la UE poden optar per aplicar aquests canvis normatius de manera global, alineant tota la seva operació amb els nous estàndards. Tanmateix, algunes organitzacions poden trobar les regulacions massa pesades i optar per sortir del mercat de la UE per complet. Tots dos escenaris tindrien implicacions per a l'ocupació en el sector tecnològic de la UE. Per exemple, una sortida massiva d'empreses podria provocar la pèrdua de llocs de treball, mentre que l'alineació global amb els estàndards de la UE podria fer que els rols tecnològics basats en la UE siguin més especialitzats i potencialment més valuosos.

    Implicacions per a una major regulació de la IA a Europa

    Les implicacions més àmplies de la voluntat de la CE de regular cada cop més la IA poden incloure:

    • La UE i els EUA formen un acord de certificació mútua per a les empreses d'IA, que condueix a un conjunt harmonitzat d'estàndards ètics que les empreses han de seguir, independentment de la seva ubicació geogràfica.
    • Creixement en l'àmbit especialitzat de l'auditoria d'IA, impulsat per una major col·laboració entre empreses privades i sectors públics per garantir el compliment de les noves normatives.
    • Les nacions i les empreses del món en desenvolupament tenen accés a serveis digitals que s'adhereixen als estàndards ètics d'IA establerts per les nacions occidentals, la qual cosa pot augmentar la qualitat i la seguretat d'aquests serveis.
    • Un canvi en els models de negoci per prioritzar les pràctiques ètiques d'IA, atraient consumidors cada cop més preocupats per la privadesa de les dades i l'ús ètic de la tecnologia.
    • Els governs adopten la IA en serveis públics com la sanitat i el transport amb més confiança, sabent que aquestes tecnologies compleixen estàndards ètics rigorosos.
    • Augment de la inversió en programes educatius centrats en la IA ètica, creant una nova generació de tecnòlegs que coneixen tant les capacitats d'IA com les consideracions ètiques.
    • Les startups tecnològiques més petites s'enfronten a barreres d'entrada a causa dels alts costos del compliment de la normativa, que pot sufocar la competència i conduir a la consolidació del mercat.

    Preguntes a tenir en compte

    • Creus que els governs haurien de regular les tecnologies d'IA i com es despleguen?
    • De quina altra manera podria afectar l'augment de la regulació dins de la indústria tecnològica la manera com operen les empreses del sector? 

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: