Regolamento AI in Europa: un tentativo di mantenere l'IA umana

CREDITO IMMAGINE:
Immagine di credito
iStock

Regolamento AI in Europa: un tentativo di mantenere l'IA umana

COSTRUITO PER IL FUTURISTA DI DOMANI

La piattaforma Quantumrun Trends ti fornirà gli approfondimenti, gli strumenti e la community per esplorare e trarre vantaggio dalle tendenze future.

OFFERTA SPECIALE

$ 5 AL MESE

Regolamento AI in Europa: un tentativo di mantenere l'IA umana

Testo del sottotitolo
La proposta di regolamentazione dell'intelligenza artificiale della Commissione europea mira a promuovere l'uso etico dell'IA.
    • Autore:
    • Nome dell'autore
      Preveggenza quantistica
    • 13 Giugno 2022

    Riepilogo approfondimenti

    La Commissione Europea (CE) sta facendo passi da gigante per stabilire standard etici per l’intelligenza artificiale (AI), concentrandosi sulla prevenzione degli abusi in aree come la sorveglianza e i dati dei consumatori. Questa mossa ha acceso il dibattito nel settore tecnologico e potrebbe portare a un approccio unificato con gli Stati Uniti, mirando a un’influenza globale. Tuttavia, le normative potrebbero anche avere conseguenze indesiderate, come limitare la concorrenza sul mercato e influenzare le opportunità di lavoro nel settore tecnologico.

    Contesto normativo europeo dell'IA

    La CE si è concentrata attivamente sulla creazione di politiche per salvaguardare la privacy dei dati e i diritti online. Recentemente, questa attenzione si è ampliata per includere l’uso etico delle tecnologie di intelligenza artificiale. La CE è preoccupata per il potenziale uso improprio dell’IA in vari settori, dalla raccolta dei dati dei consumatori alla sorveglianza. In tal modo, la Commissione mira a stabilire uno standard per l’etica dell’IA, non solo all’interno dell’UE ma potenzialmente come modello per il resto del mondo.

    Nell’aprile 2021, la CE ha compiuto un passo significativo pubblicando una serie di regole volte a monitorare le applicazioni di intelligenza artificiale. Queste regole sono progettate per impedire l’uso dell’intelligenza artificiale a fini di sorveglianza, perpetuazione di pregiudizi o azioni repressive da parte di governi o organizzazioni. Nello specifico, le normative vietano i sistemi di intelligenza artificiale che potrebbero danneggiare gli individui sia fisicamente che psicologicamente. Ad esempio, non sono consentiti i sistemi di intelligenza artificiale che manipolano il comportamento delle persone attraverso messaggi nascosti, né lo sono i sistemi che sfruttano le vulnerabilità fisiche o mentali delle persone.

    Oltre a ciò, la CE ha anche sviluppato una politica più rigorosa per quelli che considera i sistemi di intelligenza artificiale “ad alto rischio”. Si tratta di applicazioni di intelligenza artificiale utilizzate in settori che hanno un impatto sostanziale sulla sicurezza e sul benessere pubblico, come i dispositivi medici, le attrezzature di sicurezza e gli strumenti di contrasto. La politica delinea requisiti di controllo più rigorosi, un processo di approvazione e un monitoraggio continuo dopo l’implementazione di questi sistemi. Sotto questo ombrello rientrano anche settori come l’identificazione biometrica, le infrastrutture critiche e l’istruzione. Le aziende che non rispettano queste normative rischiano multe salate, fino a 32 milioni di dollari o il 6% del loro fatturato annuo globale.

    Impatto dirompente

    L’industria tecnologica ha espresso preoccupazione per il quadro normativo della CE per l’IA, sostenendo che tali regole potrebbero ostacolare il progresso tecnologico. I critici sottolineano che la definizione di sistemi di IA “ad alto rischio” nel quadro non è chiara. Ad esempio, le grandi aziende tecnologiche che utilizzano l’intelligenza artificiale per algoritmi di social media o pubblicità mirata non sono classificate come “ad alto rischio”, nonostante queste applicazioni siano state collegate a varie questioni sociali come la disinformazione e la polarizzazione. La CE ribatte affermando che le agenzie nazionali di vigilanza all’interno di ciascun paese dell’UE avranno l’ultima parola su ciò che costituisce un’applicazione ad alto rischio, ma questo approccio potrebbe portare a incoerenze tra gli stati membri.

    L’Unione Europea (UE) non agisce in modo isolato; mira a collaborare con gli Stati Uniti per stabilire uno standard globale per l’etica dell’IA. Anche lo Strategic Competition Act del Senato degli Stati Uniti, pubblicato nell’aprile 2021, richiede la cooperazione internazionale per contrastare l’“autoritarismo digitale”, un velato riferimento a pratiche come l’uso della biometria da parte della Cina per la sorveglianza di massa. Questa partnership transatlantica potrebbe dare il tono all’etica globale dell’IA, ma solleva anche interrogativi su come tali standard verrebbero applicati a livello mondiale. I paesi con opinioni diverse sulla privacy dei dati e sui diritti individuali, come Cina e Russia, aderirebbero a queste linee guida o ciò creerebbe un panorama frammentato dell’etica dell’IA?

    Se queste normative diventeranno legge tra la metà e la fine degli anni 2020, potrebbero avere un effetto a catena sul settore tecnologico e sulla forza lavoro nell’UE. Le aziende che operano nell’UE possono scegliere di applicare queste modifiche normative a livello globale, allineando la loro intera attività ai nuovi standard. Tuttavia, alcune organizzazioni potrebbero trovare le normative troppo onerose e scegliere di uscire del tutto dal mercato dell’UE. Entrambi gli scenari avrebbero implicazioni per l’occupazione nel settore tecnologico dell’UE. Ad esempio, un’uscita di massa delle aziende potrebbe portare alla perdita di posti di lavoro, mentre l’allineamento globale agli standard dell’UE potrebbe rendere i ruoli tecnologici con sede nell’UE più specializzati e potenzialmente più preziosi.

    Implicazioni per una maggiore regolamentazione dell'IA in Europa

    Le implicazioni più ampie della volontà della CE di regolamentare sempre più l’intelligenza artificiale potrebbero includere:

    • L’UE e gli Stati Uniti stringono un accordo di certificazione reciproca per le aziende di intelligenza artificiale, che porta a una serie armonizzata di standard etici che le aziende devono seguire, indipendentemente dalla loro posizione geografica.
    • Crescita nel campo specializzato dell’audit dell’IA, alimentata da una maggiore collaborazione tra aziende private e settori pubblici per garantire la conformità alle nuove normative.
    • Nazioni e imprese del mondo in via di sviluppo ottengono l’accesso a servizi digitali che aderiscono agli standard etici di intelligenza artificiale stabiliti dalle nazioni occidentali, aumentando potenzialmente la qualità e la sicurezza di questi servizi.
    • Un cambiamento nei modelli di business per dare priorità alle pratiche etiche dell’intelligenza artificiale, attirando consumatori sempre più preoccupati per la privacy dei dati e l’uso etico della tecnologia.
    • I governi che adottano l’intelligenza artificiale nei servizi pubblici come la sanità e i trasporti con maggiore fiducia, sapendo che queste tecnologie soddisfano rigorosi standard etici.
    • Maggiori investimenti in programmi formativi incentrati sull’intelligenza artificiale etica, creando una nuova generazione di tecnologi esperti sia nelle capacità dell’intelligenza artificiale che nelle considerazioni etiche.
    • Le startup tecnologiche più piccole si trovano ad affrontare barriere all’ingresso a causa degli elevati costi di conformità normativa, che potenzialmente soffocano la concorrenza e portano al consolidamento del mercato.

    Domande da considerare

    • Credi che i governi dovrebbero regolamentare le tecnologie di intelligenza artificiale e il modo in cui vengono implementate?
    • In quale altro modo una maggiore regolamentazione all'interno del settore tecnologico potrebbe influenzare il modo in cui operano le aziende del settore? 

    Riferimenti di approfondimento

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa intuizione: