Erkenning privacy: kunnen online foto's worden beschermd?

BEELDKREDIET:
Image credit
iStock

Erkenning privacy: kunnen online foto's worden beschermd?

Erkenning privacy: kunnen online foto's worden beschermd?

Onderkoptekst
Onderzoekers en bedrijven ontwikkelen nieuwe technologieën om individuen te helpen hun online foto's te beschermen tegen gebruik in gezichtsherkenningssystemen.
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 4 november 2022

    Samenvatting inzicht

    Nu gezichtsherkenningstechnologie (FRT) wijdverspreid wordt, hebben verschillende groepen geprobeerd de doeltreffendheid ervan te beperken om de privacy te behouden. Hoewel het niet altijd mogelijk is om gezichtsherkenningssystemen te slim af te zijn, zijn onderzoekers wel begonnen te experimenteren met manieren om online apps te verwarren die foto's verzamelen en verzamelen voor gezichtsherkenningsmotoren. Deze methoden omvatten onder meer het gebruik van kunstmatige intelligentie (AI) om ‘ruis’ aan afbeeldingen toe te voegen en cloakingsoftware.

    Herkenning privacycontext

    Gezichtsherkenningstechnologie wordt steeds vaker gebruikt door verschillende sectoren, waaronder wetshandhaving, onderwijs, detailhandel en luchtvaart, voor doeleinden variërend van het identificeren van criminelen tot surveillance. In New York heeft gezichtsherkenning bijvoorbeeld sinds 2010 een belangrijke rol gespeeld bij het helpen van onderzoekers bij het uitvoeren van talloze arrestaties en het identificeren van gevallen van identiteitsdiefstal en fraude. Deze toename in gebruik roept echter ook vragen op over privacy en het ethische gebruik van dergelijke technologie. .

    Op het gebied van grensbeveiliging en immigratie maakt het Amerikaanse ministerie van Binnenlandse Veiligheid gebruik van gezichtsherkenning om de identiteit te verifiëren van reizigers die het land binnenkomen en verlaten. Dit wordt gedaan door foto's van reizigers te vergelijken met bestaande afbeeldingen, zoals die in paspoorten. Op dezelfde manier passen detailhandelaren gezichtsherkenning toe om potentiële winkeldieven te identificeren door de gezichten van klanten te vergelijken met een database van bekende overtreders. 

    Ondanks de praktische voordelen heeft het toenemende gebruik van gezichtsherkenningstechnologieën aanleiding gegeven tot zorgen over privacy en toestemming. Een opmerkelijk voorbeeld is het geval van Clearview AI, een bedrijf dat zonder expliciete toestemming miljarden afbeeldingen van sociale-mediaplatforms en internet heeft verzameld om zijn gezichtsherkenningssysteem te trainen. Deze praktijk benadrukt de dunne grens tussen publieke en private domeinen, omdat individuen die hun foto's online delen vaak beperkte controle hebben over hoe deze afbeeldingen worden gebruikt. 

    Disruptieve impact

    In 2020 werd software genaamd Fawkes ontwikkeld door onderzoekers van de Universiteit van Chicago. Fawkes biedt een effectieve methode voor gezichtsherkenningsbescherming door foto's te 'verhullen' om deep learning-systemen te misleiden, en dit alles terwijl er minimale veranderingen worden aangebracht die niet waarneembaar zijn voor het menselijk oog. De tool richt zich uitsluitend op systemen die zonder toestemming persoonlijke afbeeldingen verzamelen en heeft geen invloed op modellen die zijn gebouwd met legitiem verkregen afbeeldingen, zoals die worden gebruikt door wetshandhavers.

    Fawkes kan worden gedownload van de projectwebsite en iedereen kan het gebruiken door een paar eenvoudige stappen te volgen. De cloakingsoftware heeft slechts enkele ogenblikken nodig om de foto's te verwerken voordat gebruikers deze openbaar kunnen plaatsen. De software is ook beschikbaar voor Mac- en pc-besturingssystemen.

    In 2021 creëerde het in Israël gevestigde technologiebedrijf Adversa AI een algoritme dat ruis of kleine wijzigingen toevoegt aan foto's van gezichten, waardoor gezichtsscansystemen een heel ander gezicht detecteren. Het algoritme verandert met succes het beeld van een individu in iemand anders naar keuze (de CEO van Adversa AI kon bijvoorbeeld een beeldzoeksysteem misleiden om hem te identificeren als Tesla's Elon Musk). Deze technologie is uniek omdat deze is gemaakt zonder gedetailleerde kennis van de algoritmen van de doel-FRT. Zo kan een individu de tool ook tegen andere gezichtsherkenningsengines gebruiken.

    Implicaties van herkenningsprivacy

    Bredere implicaties van herkenningsprivacy kunnen zijn: 

    • Sociale media en andere op inhoud gebaseerde platforms die privacytechnologieën voor herkenning bevatten.
    • Smartphones, laptops en camera's, inclusief programma's die de foto's van gebruikers kunnen camoufleren, waardoor de privacy van gebruikers wordt vergroot.
    • Een toenemend aantal startups ontwikkelt biometrische camouflage of programma's om FRT-detectie te beperken. 
    • Meer nationale en lokale overheden voeren wetten uit die FRT's bij openbaar toezicht beperken of verbieden.
    • Meer rechtszaken tegen gezichtsherkenningssystemen die illegaal privébeelden schrapen, waaronder het aansprakelijk stellen van socialemediabedrijven voor hun gebrek aan beveiligingsmaatregelen.
    • Een groeiende beweging van burgers en organisaties die lobbyen tegen het toenemende gebruik van FRT's.

    Vragen om te overwegen

    • Wat kan er worden gedaan om het gebruik van gezichtsherkenningssystemen in evenwicht te brengen?
    • Hoe gebruik je gezichtsherkenning op het werk en in je dagelijks leven?

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links: