Deepfakes și hărțuire: cum este folosit conținutul sintetic pentru hărțuirea femeilor

CREDIT DE IMAGINE:
Imagine de credit
iStock

Deepfakes și hărțuire: cum este folosit conținutul sintetic pentru hărțuirea femeilor

Deepfakes și hărțuire: cum este folosit conținutul sintetic pentru hărțuirea femeilor

Textul subtitlului
Imaginile și videoclipurile manipulate contribuie la un mediu digital care vizează femeile.
    • Autor:
    • Numele autorului
      Previziune Quantumrun
    • December 14, 2022

    Rezumat perspectivă

    Dezvoltarea tehnologiei deepfake a dus la creșterea numărului de incidente de hărțuire sexuală, în special împotriva femeilor. Experții cred că abuzul se va agrava dacă nu sunt aplicate legi mai stricte privind modul în care mediile sintetice sunt create, utilizate și distribuite. Implicațiile pe termen lung ale utilizării deepfake-urilor pentru hărțuire ar putea include procese mai mari și tehnologii și filtre mai avansate de deepfake.

    Deepfakes și context de hărțuire

    În 2017, un forum de discuții de pe site-ul Reddit a fost folosit pentru a găzdui pentru prima dată pornografie manipulată de inteligență artificială (AI). În decurs de o lună, firul Reddit a devenit viral și mii de oameni și-au postat pornografia deepfake pe site. Conținutul sintetic folosit pentru a crea pornografie falsă sau hărțuire este din ce în ce mai frecvent, dar interesul public este adesea concentrat pe falsurile de propagandă care promovează dezinformarea și instabilitatea politică. 

    Termenul „deepfake” este o combinație de „deep learning” și „fake”, o metodă de recreare a fotografiilor și videoclipurilor cu ajutorul AI. Componenta esențială în producția acestui conținut este învățarea automată (ML), care permite crearea rapidă și ieftină de material fals, care este din ce în ce mai dificil de detectat de către spectatorii umani.

     O rețea neuronală este antrenată cu imagini ale persoanei vizate pentru a crea un videoclip deepfake. Cu cât sunt mai multe imagini utilizate în datele de antrenament, cu atât rezultatele vor fi mai realiste; rețeaua va învăța manierismele acelei persoane și alte trăsături de personalitate. Odată ce rețeaua neuronală este antrenată, oricine poate folosi tehnici de grafică computerizată pentru a suprapune o copie a asemănării unei persoane pe alt actor sau alt corp. Această copiere a dus la un număr în creștere de materiale pornografice ale celebrităților feminine și ale civililor care nu știu că imaginile lor au fost folosite în acest mod. Potrivit firmei de cercetare Sensity AI, aproximativ 90 până la 95% din toate videoclipurile deepfake se încadrează în categoria pornografiei neconsensuale.

    Impact perturbator

    Deepfake-urile au înrăutățit practica pornografiei răzbunătoare, vizând în primul rând femeile pentru a le expune umilinței și traumei publice. Confidențialitatea și siguranța femeilor sunt puse în pericol, deoarece tehnologia video falsă de la capăt la capăt este din ce în ce mai folosită de arme, de exemplu, hărțuind, intimidând, înjosind și degradand femeile personal și profesional. Mai rău, nu există suficientă reglementare împotriva acestui tip de conținut.

    De exemplu, din 2022, conținutul de pornografie cu răzbunare este interzis în 46 de state din SUA și doar două state acoperă în mod explicit mediile sintetice în interdicția lor. Deepfake-urile nu sunt ilegale în sine, doar atunci când încalcă drepturile de autor sau devin defăimătoare. Aceste limitări fac dificil pentru victime să depună o acțiune în justiție, mai ales că nu există nicio modalitate de a șterge definitiv acest conținut online.

    Între timp, o altă formă de conținut sintetic, avatarurile (reprezentările online ale utilizatorilor), este, de asemenea, supusă atacurilor. Potrivit unui raport din 2022 al organizației nonprofit de advocacy SumOfUs, o femeie care cerceta în numele organizației ar fi fost agresată în platforma Metaverse Horizon Worlds. Femeia a raportat că un alt utilizator și-a agresat sexual avatarul în timp ce alții îl priveau. Când victima a adus incidentul în atenția lui Meta, un purtător de cuvânt al Meta a spus că cercetătorul a dezactivat opțiunea Personal Boundary. Caracteristica a fost introdusă în februarie 2022 ca măsură de siguranță activată în mod implicit și a împiedicat străinii să se apropie de un avatar pe o rază de patru picioare.

    Implicațiile deepfake-urilor și hărțuirii

    Implicațiile mai largi ale deepfake-urilor și hărțuirii pot include: 

    • Creșterea presiunii pentru guverne pentru a implementa o politică globală de reglementare împotriva deepfake-urilor utilizate pentru hărțuirea și atacul digital.
    • Mai multe femei sunt victimizate de tehnologia deepfake, în special celebrități, jurnaliști și activiști.
    • O creștere a proceselor din partea victimelor hărțuirii profunde și defăimării. 
    • Incidente crescute de comportament neadecvat față de avataruri și alte reprezentări online în comunitățile metaverse.
    • Se lansează aplicații și filtre noi și din ce în ce mai ușor de utilizat care pot crea conținut realist, ceea ce duce la comercializarea conținutului deepfake neconsensual, în special pornografie.
    • Rețelele sociale și platformele de găzduire a site-urilor web investesc mai mult pentru a monitoriza intens conținutul circulat pe platformele lor, inclusiv interzicerea persoanelor sau eliminarea paginilor de grup.

    Întrebări de luat în considerare

    • Cum abordează guvernul dumneavoastră hărțuirea deepfake?
    • Care sunt celelalte moduri prin care utilizatorii online se pot proteja de a fi victimizati de creatorii de deepfake?