Riconoscimento privacy: le foto online possono essere protette?

CREDITO IMMAGINE:
Immagine di credito
iStock

Riconoscimento privacy: le foto online possono essere protette?

Riconoscimento privacy: le foto online possono essere protette?

Testo del sottotitolo
Ricercatori e aziende stanno sviluppando nuove tecnologie per aiutare le persone a proteggere le loro foto online dall'utilizzo nei sistemi di riconoscimento facciale.
    • Autore:
    • Nome dell'autore
      Preveggenza quantistica
    • 4 Novembre 2022

    Riepilogo approfondimenti

    Con la diffusione della tecnologia di riconoscimento facciale (FRT), vari gruppi hanno cercato di limitarne l’efficacia per preservare la privacy. Anche se tentare di superare in astuzia i sistemi di riconoscimento facciale non è sempre possibile, i ricercatori hanno iniziato a sperimentare modi per confondere le app online che recuperano e raccolgono foto per i motori di riconoscimento facciale. Questi metodi includono l’uso dell’intelligenza artificiale (AI) per aggiungere “rumore” alle immagini e software di cloaking.

    Riconoscimento contesto della privacy

    La tecnologia di riconoscimento facciale è sempre più utilizzata da vari settori, tra cui le forze dell’ordine, l’istruzione, la vendita al dettaglio e l’aviazione, per scopi che vanno dall’identificazione dei criminali alla sorveglianza. Ad esempio, a New York, il riconoscimento facciale è stato determinante nell’aiutare gli investigatori a effettuare numerosi arresti e identificare casi di furto di identità e frode, in modo significativo a partire dal 2010. Tuttavia, questo aumento dell’utilizzo solleva anche interrogativi sulla privacy e sull’uso etico di tale tecnologia. .

    Nella sicurezza delle frontiere e nell’immigrazione, il Dipartimento per la sicurezza interna degli Stati Uniti utilizza il riconoscimento facciale per verificare l’identità dei viaggiatori che entrano ed escono dal paese. Questo viene fatto confrontando le fotografie dei viaggiatori con le immagini esistenti, come quelle trovate nei passaporti. Allo stesso modo, i rivenditori stanno adottando il riconoscimento facciale per identificare potenziali taccheggiatori confrontando i volti dei clienti con un database di trasgressori noti. 

    Nonostante i vantaggi pratici, l’uso crescente delle tecnologie di riconoscimento facciale ha suscitato preoccupazioni sulla privacy e sul consenso. Un esempio notevole è il caso di Clearview AI, un’azienda che ha accumulato miliardi di immagini dalle piattaforme di social media e da Internet, senza un permesso esplicito, per addestrare il suo sistema di riconoscimento facciale. Questa pratica evidenzia la linea sottile tra dominio pubblico e privato, poiché le persone che condividono le proprie fotografie online spesso hanno un controllo limitato su come vengono utilizzate queste immagini. 

    Impatto dirompente

    Nel 2020, i ricercatori dell’Università di Chicago hanno sviluppato un software chiamato Fawkes. Fawkes offre un metodo efficace di protezione dal riconoscimento facciale “occultando” le foto per ingannare i sistemi di deep learning, il tutto apportando modifiche minime che non sono visibili all’occhio umano. Lo strumento prende di mira esclusivamente i sistemi che raccolgono immagini personali senza autorizzazione e non influisce sui modelli realizzati con immagini ottenute legittimamente, come quelle utilizzate dalle forze dell'ordine.

    Fawkes può essere scaricato dal sito web del progetto e chiunque può utilizzarlo seguendo alcuni semplici passaggi. Il software di cloaking impiega solo pochi istanti per elaborare le foto prima che gli utenti possano procedere e pubblicarle pubblicamente. Il software è disponibile anche per i sistemi operativi Mac e PC.

    Nel 2021, la società tecnologica israeliana Adversa AI ha creato un algoritmo che aggiunge rumore o piccole alterazioni alle foto dei volti, il che fa sì che i sistemi di scansione facciale rilevino un volto completamente diverso. L'algoritmo cambia con successo l'immagine di un individuo in qualcun altro di sua scelta (ad esempio, il CEO di Adversa AI è stato in grado di ingannare un sistema di ricerca di immagini per identificarlo come Elon Musk di Tesla). Questa tecnologia è unica perché è stata creata senza una conoscenza dettagliata degli algoritmi dell'FRT di destinazione. Pertanto, un individuo può anche utilizzare lo strumento contro altri motori di riconoscimento facciale.

    Implicazioni del riconoscimento della privacy

    Implicazioni più ampie della privacy del riconoscimento possono includere: 

    • Social media e altre piattaforme basate sui contenuti che incorporano tecnologie di riconoscimento della privacy.
    • Smartphone, laptop e fotocamere, inclusi programmi in grado di nascondere le foto degli utenti, aumentando la privacy degli utenti.
    • Un numero crescente di startup che sviluppano camuffamento biometrico o programmi per limitare il rilevamento FRT. 
    • Più governi nazionali e locali che attuano leggi che limitano o vietano gli FRT nella sorveglianza pubblica.
    • Altre cause contro i sistemi di riconoscimento facciale che raschiano illegalmente immagini private, incluso il responsabilizzare le società di social media per la loro mancanza di misure di sicurezza.
    • Un crescente movimento di cittadini e organizzazioni che fanno pressioni contro il crescente utilizzo degli FRT.

    Domande da considerare

    • Cosa si può fare per bilanciare l'uso dei sistemi di riconoscimento facciale?
    • Come usi il riconoscimento facciale al lavoro e nella tua vita quotidiana?

    Riferimenti di approfondimento

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa intuizione: