Privatnost prepoznavanja: Mogu li se zaštititi fotografije na mreži?

KREDIT ZA SLIKU:
Image credit
iStock

Privatnost prepoznavanja: Mogu li se zaštititi fotografije na mreži?

Privatnost prepoznavanja: Mogu li se zaštititi fotografije na mreži?

Tekst podnaslova
Istraživači i kompanije razvijaju nove tehnologije kako bi pomogli pojedincima da zaštite svoje fotografije na mreži od upotrebe u sistemima za prepoznavanje lica.
    • Autor:
    • Ime autora
      Quantumrun Foresight
    • Novembar 4, 2022

    Sažetak uvida

    Kako tehnologija prepoznavanja lica (FRT) postaje široko rasprostranjena, različite grupe pokušavaju ograničiti njenu efikasnost kako bi očuvali privatnost. Iako pokušaj nadmašivanja sistema za prepoznavanje lica nije uvijek moguć, istraživači su počeli eksperimentirati s načinima da zbune internetske aplikacije koje stružu i prikupljaju fotografije za mašine za prepoznavanje lica. Ove metode uključuju korištenje umjetne inteligencije (AI) za dodavanje "šuma" slikama i softveru za maskiranje.

    Kontekst privatnosti prepoznavanja

    Tehnologiju prepoznavanja lica sve više koriste različiti sektori, uključujući provođenje zakona, obrazovanje, maloprodaju i avijaciju, u svrhe koje se kreću od identifikacije kriminalaca do nadzora. Na primjer, u New Yorku je prepoznavanje lica bilo ključno u pomaganju istražiteljima da izvrše brojna hapšenja i identificiraju slučajeve krađe identiteta i prijevare, značajno od 2010. Međutim, ovo povećanje upotrebe također postavlja pitanja o privatnosti i etičkoj upotrebi takve tehnologije .

    U graničnoj sigurnosti i imigraciji, Ministarstvo domovinske sigurnosti SAD-a koristi prepoznavanje lica za provjeru identiteta putnika koji ulaze i izlaze iz zemlje. Ovo se postiže upoređivanjem fotografija putnika sa postojećim slikama, kao što su one koje se nalaze u pasošima. Slično tome, trgovci na malo usvajaju prepoznavanje lica kako bi identifikovali potencijalne kradljivce upoređujući lica kupaca sa bazom podataka poznatih prestupnika. 

    Uprkos praktičnim prednostima, sve veća upotreba tehnologija za prepoznavanje lica izazvala je zabrinutost oko privatnosti i pristanka. Značajan primjer je slučaj Clearview AI, kompanije koja je prikupila milijarde slika sa platformi društvenih medija i interneta, bez eksplicitne dozvole, kako bi obučila svoj sistem za prepoznavanje lica. Ova praksa naglašava tanku liniju između javnih i privatnih domena, jer pojedinci koji dijele svoje fotografije na mreži često imaju ograničenu kontrolu nad načinom na koji se te slike koriste. 

    Ometajući uticaj

    2020. istraživači sa Univerziteta u Čikagu razvili su softver pod nazivom Fawkes. Fawkes nudi efikasnu metodu zaštite prepoznavanja lica tako što "prikriva" fotografije kako bi zavarao sisteme dubokog učenja, a sve uz minimalne promjene koje nisu vidljive ljudskom oku. Alat cilja isključivo na sisteme koji prikupljaju lične slike bez dozvole i ne utiče na modele napravljene sa legitimno dobijenim slikama, poput onih koje koriste organi za provođenje zakona.

    Fawkes se može preuzeti s web stranice projekta i svako ga može koristiti slijedeći nekoliko jednostavnih koraka. Softveru za maskiranje potrebno je samo nekoliko trenutaka da obradi fotografije prije nego što korisnici mogu nastaviti i javno ih objaviti. Softver je također dostupan za Mac i PC operativne sisteme.

    Godine 2021, izraelska tehnološka kompanija Adversa AI kreirala je algoritam koji dodaje šum ili manje izmjene na fotografije lica, što uzrokuje da sistemi za skeniranje lica otkriju potpuno drugačije lice. Algoritam uspješno suptilno mijenja sliku pojedinca u nekog drugog po njihovom izboru (npr. izvršni direktor Adversa AI je uspio da prevari sistem za pretragu slika da ga identifikuje kao Teslinog Elona Maska). Ova tehnologija je jedinstvena jer je kreirana bez detaljnog poznavanja algoritama ciljnog FRT-a. Dakle, pojedinac može koristiti alat i protiv drugih mehanizama za prepoznavanje lica.

    Implikacije privatnosti prepoznavanja

    Šire implikacije privatnosti prepoznavanja mogu uključivati: 

    • Društveni mediji i druge platforme zasnovane na sadržaju koje uključuju tehnologije privatnosti za prepoznavanje.
    • Pametni telefoni, laptopovi i kamere, uključujući programe koji mogu sakriti fotografije korisnika, povećavajući privatnost korisnika.
    • Sve veći broj startupa koji razvijaju biometrijsku kamuflažu ili programe za ograničavanje FRT detekcije. 
    • Više nacionalnih i lokalnih vlada koje provode zakone koji ograničavaju ili zabranjuju FRT u javnom nadzoru.
    • Više tužbi protiv sistema za prepoznavanje lica koji nezakonito grabe privatne slike, uključujući pozivanje kompanija društvenih medija na odgovornost za nedostatak sigurnosnih mjera.
    • Rastući pokret građana i organizacija koje lobiraju protiv sve veće upotrebe FRT-a.

    Pitanja koja treba razmotriti

    • Šta se može učiniti da se uravnoteži upotreba sistema za prepoznavanje lica?
    • Kako koristite prepoznavanje lica na poslu i u svakodnevnom životu?

    Insight reference

    Za ovaj uvid referencirane su sljedeće popularne i institucionalne veze: