Regulamentu di l'IA in Europa: Un tentativu di mantene l'IA umana

CREDITU IMAGE:
Image credit
iStock

Regulamentu di l'IA in Europa: Un tentativu di mantene l'IA umana

Regulamentu di l'IA in Europa: Un tentativu di mantene l'IA umana

Testu di sottotitulu
A pruposta regulatoria di l'intelligenza artificiale di a Cummissione Europea hà per scopu di prumove l'usu eticu di l'IA.
    • Author:
    • Nome di l'autore
      Quantumrun Foresight
    • June 13, 2022

    Riassuntu insight

    A Cummissione Europea (CE) face passi per stabilisce norme etiche per l'intelligenza artificiale (AI), cuncintrandu nantu à a prevenzione di l'abusu in settori cum'è a sorveglianza è i dati di i cunsumatori. Questa mossa hà suscitatu dibattitu in l'industria di a tecnulugia è puderia purtà à un approcciu unificatu cù i Stati Uniti, per scopu di influenza glubale. Tuttavia, i regulamenti ponu ancu avè cunsequenze impreviste, cum'è a limitazione di a cumpetizione di u mercatu è l'affettu di l'opportunità di travagliu in u settore tecnologicu.

    Cuntestu di regulazione europea di l'IA

    A CE hè stata attivamente cuncentrata nantu à a creazione di pulitiche per salvaguardà a privacy di e dati è i diritti in linea. Ricertamenti, stu focusu hè allargatu per include l'usu eticu di e tecnulugia AI. A CE hè preoccupata di u putenziale misusu di l'AI in diversi settori, da a cullizzioni di dati di i cunsumatori à a surviglianza. Facendu cusì, a Cummissione hà per scopu di stabilisce un standard per l'etica di l'IA, micca solu in l'UE, ma potenzialmente cum'è un mudellu per u restu di u mondu.

    In aprile 2021, a CE hà fattu un passu significativu liberendu un inseme di regule destinate à monitorizà l'applicazioni AI. Queste regule sò pensate per impedisce l'usu di l'AI per a vigilazione, perpetuating bias, o azioni repressive da i guverni o l'urganisazione. In particulare, i regulamenti pruibiscenu i sistemi AI chì puderanu dannà l'individui sia fisicamente sia psicologicamente. Per esempiu, i sistemi AI chì manipulanu u cumpurtamentu di e persone per mezu di missaghji nascosti ùn sò micca permessi, nè sistemi chì sfruttanu e vulnerabilità fisiche o mentali di e persone.

    Intantu à questu, a CE hà ancu sviluppatu una pulitica più rigorosa per ciò chì cunsidereghja sistemi AI "altu risicu". Quessi sò l'applicazioni AI aduprate in settori chì anu un impattu sustanziale in a sicurità publica è u benessere, cum'è i dispositi medichi, l'equipaggiu di sicurezza è l'arnesi di applicazione di a lege. A pulitica delinea esigenze di auditing più strette, un prucessu d'appruvazioni, è un monitoraghju continuu dopu chì questi sistemi sò implementati. Industries cum'è l'identificazione biometrica, l'infrastruttura critica è l'educazione sò ancu sottu à questu paraplu. L'imprese chì ùn anu micca rispettu di sti regulamenti ponu affruntà ammende pesante, finu à $ 32 milioni o 6 per centu di i so rivenuti annuali globale.

    Impact disruptive

    L'industria di a tecnulugia hà manifestatu preoccupazioni annantu à u quadru regulatori di a CE per l'IA, argumentendu chì tali regule puderanu ostaculi u prugressu tecnologicu. I critichi indicanu chì a definizione di sistemi AI "altu risicu" in u quadru ùn hè micca chjaru. Per esempiu, e grande cumpagnie tecnologiche chì utilizanu AI per algoritmi di e social media o publicità mirata ùn sò micca classificate cum'è "altu risicu", malgradu u fattu chì queste applicazioni sò state ligate à diversi prublemi suciali cum'è a misinformazione è a polarizazione. A CE contr'à questu dicendu chì l'agenzii naziunali di supervisione in ogni paese di l'UE averà l'ultima parola nantu à ciò chì custituisce una applicazione à altu risicu, ma questu approcciu puderia purtà à inconsistenze trà i Stati membri.

    L'Unione Europea (UE) ùn agisce micca in isolamentu; hà u scopu di collaborà cù i Stati Uniti per stabilisce un standard globale per l'etica di l'IA. L'attu strategicu di a cumpetizione di u Senatu di i Stati Uniti, publicatu in aprile 2021, dumanda ancu a cooperazione internaziunale per contru à "l'autoritarismu digitale", una riferenza velata à pratiche cum'è l'usu di a biometria da a Cina per a sorveglianza di massa. Questa cullaburazione transatlantica puderia stabilisce u tonu per l'etica glubale di l'IA, ma suscita ancu dumande nantu à cume tali standard seranu infurzati in u mondu. I paesi cù visioni diffirenti nantu à a privacy di e dati è i diritti individuali, cum'è a Cina è a Russia, aderiscenu à queste linee guida, o questu crea un paisaghju frammentatu di l'etica di l'IA?

    Se sti regulamenti diventanu lege à a mità à a fine di l'anni 2020, puderianu avè un effettu ondulante nantu à l'industria tecnologica è a forza di travagliu in l'UE. L'imprese chì operanu in l'UE ponu optà per applicà sti cambiamenti regulatori in u mondu, allineendu a so operazione sana cù i novi standard. Tuttavia, alcune urganisazioni puderanu truvà a regulazione troppu gravosa è sceglie di esce da u mercatu di l'UE. I dui scenarii avarianu implicazioni per l'impieghi in u settore tecnologicu di l'UE. Per esempiu, una uscita di massa di l'imprese puderia purtà à perdite di l'impieghi, mentre chì l'allineamentu globale cù i normi di l'UE puderia rende i roli tecnologichi basati in l'UE più specializati è potenzalmentu più preziosi.

    Implicazioni per una regulazione aumentata di l'IA in Europa

    Implicazioni più larghe di a CE sempre più vulsutu à regulà l'IA pò include:

    • L'UE è i Stati Uniti formanu un accordu di certificazione mutuale per e cumpagnie di IA, chì porta à un inseme armonizatu di standard etichi chì e cumpagnie devenu seguità, indipendentemente da a so situazione geografica.
    • Crescita in u campu specializatu di l'auditing AI, alimentata da una cullaburazione aumentata trà l'imprese privati ​​​​è i settori publichi per assicurà u rispettu di novi regulamenti.
    • Nazioni è imprese di u mondu in via di sviluppu accede à i servizii digitali chì aderiscenu à i normi etici di IA stabiliti da e nazioni occidentali, potenzialmente elevendu a qualità è a sicurezza di questi servizii.
    • Un cambiamentu in i mudelli di cummerciale per priorità e pratiche etiche di IA, attraendu i cunsumatori chì sò sempre più preoccupati per a privacy di e dati è l'usu di a tecnulugia etica.
    • I guverni chì adoptanu l'IA in i servizii publichi cum'è l'assistenza sanitaria è u trasportu cun più fiducia, sapendu chì sti tecnulugii rispondenu à i rigorosi standard etici.
    • Aumentu di l'investimentu in prugrammi educativi cuncentrati nantu à l'IA etica, creendu una nova generazione di tecnulugichi chì sò ben versati sia in capacità di IA sia in considerazioni etiche.
    • I startups tecnulugichi più chjuchi affrontanu ostaculi à l'ingressu per via di l'alti costi di u rispettu di a regulazione, putenzialmente soffocanti a cumpetizione è chì portanu à a consolidazione di u mercatu.

    Dumande da cunsiderà

    • Crede chì i guverni duveranu regulà e tecnulugia AI è cumu sò implementate?
    • Cumu altrimenti una regulazione aumentata in l'industria di a tecnulugia pò influenzà a manera in chì l'imprese in u settore operanu? 

    Referenze insight

    I seguenti ligami populari è istituzionali sò stati riferiti per questa intuizione: