Privadesa de reconeixement: es poden protegir les fotos en línia?

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Privadesa de reconeixement: es poden protegir les fotos en línia?

Privadesa de reconeixement: es poden protegir les fotos en línia?

Text del subtítol
Els investigadors i les empreses estan desenvolupant noves tecnologies per ajudar les persones a protegir les seves fotos en línia de ser utilitzades en sistemes de reconeixement facial.
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Novembre 4, 2022

    Resum d'informació

    A mesura que la tecnologia de reconeixement facial (FRT) s'està generalitzant, diversos grups han intentat limitar la seva eficàcia per preservar la privadesa. Tot i que no sempre és possible intentar superar els sistemes de reconeixement facial, els investigadors han començat a experimentar amb maneres de confondre les aplicacions en línia que raspen i recullen fotos per a motors de reconeixement facial. Aquests mètodes inclouen l'ús d'intel·ligència artificial (IA) per afegir "soroll" a les imatges i el programari de camuflatge.

    Reconeixement del context de privadesa

    La tecnologia de reconeixement facial és cada cop més utilitzada per diversos sectors, com ara l'aplicació de la llei, l'educació, el comerç al detall i l'aviació, amb finalitats que van des d'identificar delinqüents fins a vigilància. Per exemple, a Nova York, el reconeixement facial ha estat fonamental per ajudar els investigadors a fer nombroses detencions i identificar casos de robatori d'identitat i frau, de manera significativa des del 2010. Tanmateix, aquest augment de l'ús també planteja preguntes sobre la privadesa i l'ús ètic d'aquesta tecnologia. .

    En seguretat fronterera i immigració, el Departament de Seguretat Nacional dels EUA utilitza el reconeixement facial per verificar les identitats dels viatgers que entren i surten del país. Això es fa comparant les fotografies dels viatgers amb les imatges existents, com les que es troben als passaports. De la mateixa manera, els minoristes estan adoptant el reconeixement facial per identificar potencials lladres de botigues comparant les cares dels clients amb una base de dades de delinqüents coneguts. 

    Malgrat els beneficis pràctics, l'ús creixent de les tecnologies de reconeixement facial ha despertat preocupacions sobre la privadesa i el consentiment. Un exemple notable és el cas de Clearview AI, una empresa que va acumular milers de milions d'imatges de plataformes de xarxes socials i Internet, sense permís explícit, per entrenar el seu sistema de reconeixement facial. Aquesta pràctica posa de manifest la línia fina entre dominis públics i privats, ja que les persones que comparteixen les seves fotografies en línia sovint tenen un control limitat sobre com s'utilitzen aquestes imatges. 

    Impacte disruptiu

    El 2020, investigadors de la Universitat de Chicago van desenvolupar un programari anomenat Fawkes. Fawkes ofereix un mètode eficaç de protecció de reconeixement facial mitjançant l'emmagatzematge de fotos per enganyar els sistemes d'aprenentatge profund, tot fent canvis mínims que no es noten a l'ull humà. L'eina només s'adreça als sistemes que recullen imatges personals sense permís i no afecta els models construïts amb imatges obtingudes legítimament, com les utilitzades per les forces de l'ordre.

    Fawkes es pot descarregar des del lloc web del projecte i qualsevol pot utilitzar-lo seguint uns senzills passos. El programari de ocultació només triga uns quants moments a processar les fotos abans que els usuaris puguin continuar i publicar-les públicament. El programari també està disponible per a sistemes operatius Mac i PC.

    El 2021, l'empresa tecnològica Adversa AI, amb seu a Israel, va crear un algorisme que afegeix soroll o alteracions menors a les fotos de cares, cosa que fa que els sistemes d'escaneig facial detectin una cara completament diferent. L'algoritme canvia amb èxit la imatge d'un individu per una altra persona de la seva elecció (per exemple, el CEO d'Adversa AI va ser capaç d'enganyar un sistema de cerca d'imatges perquè l'identifiqués com a Elon Musk de Tesla). Aquesta tecnologia és única perquè es va crear sense un coneixement detallat dels algorismes del FRT objectiu. Així, un individu també pot utilitzar l'eina contra altres motors de reconeixement facial.

    Implicacions del reconeixement de la privadesa

    Les implicacions més àmplies de la privadesa del reconeixement poden incloure: 

    • Mitjans socials i altres plataformes basades en continguts que incorporen tecnologies de reconeixement de privadesa.
    • Telèfons intel·ligents, ordinadors portàtils i càmeres, inclosos programes que poden ocultar les fotos dels usuaris, augmentant la privadesa dels usuaris.
    • Un nombre creixent de startups que desenvolupen camuflatge biomètric o programes per restringir la detecció de FRT. 
    • Més governs nacionals i locals implementen lleis que restringeixen o prohibeixen els FRT en la vigilància pública.
    • Més demandes contra els sistemes de reconeixement facial que rasquen il·legalment imatges privades, inclosa la responsabilitat de les empreses de xarxes socials per la seva manca de mesures de seguretat.
    • Un moviment creixent de ciutadans i organitzacions que pressionen contra l'ús creixent dels FRT.

    Preguntes a tenir en compte

    • Què es pot fer per equilibrar l'ús dels sistemes de reconeixement facial?
    • Com feu servir el reconeixement facial a la feina i a la vostra vida diària?

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: