Deepfakes i assetjament: com s'utilitza el contingut sintètic per assetjar les dones

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Deepfakes i assetjament: com s'utilitza el contingut sintètic per assetjar les dones

Deepfakes i assetjament: com s'utilitza el contingut sintètic per assetjar les dones

Text del subtítol
Les imatges i els vídeos manipulats contribueixen a un entorn digital dirigit a les dones.
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Desembre 14, 2022

    Resum d'informació

    Els desenvolupaments de la tecnologia deepfake han donat lloc a un augment dels incidents d'assetjament sexual, especialment contra les dones. Els experts creuen que l'abús empitjorarà a menys que s'apliquin lleis més estrictes sobre com es creen, s'utilitzen i es distribueixen els mitjans sintètics. Les implicacions a llarg termini de l'ús de deepfake per a l'assetjament podrien incloure un augment de les demandes i tecnologies i filtres deepfake més avançats.

    Deepfakes i context d'assetjament

    El 2017, es va utilitzar un tauler de discussió al lloc web Reddit per allotjar per primera vegada pornografia manipulada per intel·ligència artificial (IA). En un mes, el fil de Reddit es va fer viral i milers de persones havien publicat la seva pornografia falsa al lloc. El contingut sintètic que s'utilitza per crear pornografia falsa o assetjament és cada cop més comú, però l'interès públic se centra sovint en les falsificacions profundes de propaganda que promouen la desinformació i la inestabilitat política. 

    El terme "deepfake" és una combinació d'"aprenentatge profund" i "fals", un mètode per recrear fotografies i vídeos amb l'ajuda de la IA. El component essencial en la producció d'aquest contingut és l'aprenentatge automàtic (ML), que permet la creació ràpida i econòmica de material fals que és cada cop més difícil de detectar per als espectadors humans.

     S'entrena una xarxa neuronal amb imatges de la persona objectiu per crear un vídeo deepfake. Com més metratge s'utilitzi a les dades d'entrenament, més realistes seran els resultats; la xarxa aprendrà els gestos d'aquesta persona i altres trets de personalitat. Un cop s'ha entrenat la xarxa neuronal, qualsevol pot utilitzar tècniques de gràfics per ordinador per superposar una còpia de la semblança d'una persona a un altre actor o cos. Aquesta còpia ha donat lloc a un nombre creixent de materials pornogràfics de celebritats femenines i civils que desconeixen que les seves imatges s'han utilitzat d'aquesta manera. Segons la firma d'investigació Sensity AI, aproximadament entre el 90 i el 95 per cent de tots els vídeos deepfake pertanyen a la categoria de pornografia no consensuada.

    Impacte disruptiu

    Les falsificacions profundes han empitjorat la pràctica de la pornografia de venjança, dirigint-se principalment a les dones per exposar-les a la humiliació i el trauma públics. La privadesa i la seguretat de les dones es veuen en perill a mesura que la tecnologia de vídeo falsa d'extrem a extrem s'utilitza cada cop més com a arma, per exemple, assetjant, intimidant, degradant i degradant les dones personalment i professionalment. El pitjor és que no hi ha prou regulació contra aquest tipus de continguts.

    Per exemple, a partir del 2022, el contingut de pornografia venjança està prohibit a 46 estats dels EUA i només dos estats cobreixen explícitament els mitjans sintètics a la seva prohibició. Els deepfakes no són il·legals per si mateixos, només quan infringeixen els drets d'autor o es converteixen en difamatoris. Aquestes limitacions dificulten que les víctimes empren accions legals, sobretot perquè no hi ha manera d'eliminar aquest contingut en línia de manera permanent.

    Mentrestant, una altra forma de contingut sintètic, els avatars (representacions en línia d'usuaris), també està sent objecte d'assalts. Segons un informe de 2022 de l'organització de defensa sense ànim de lucre SumOfUs, una dona que investigava en nom de l'organització va ser suposadament agredida a la plataforma Metaverse Horizon Worlds. La dona va informar que un altre usuari va agredir sexualment el seu avatar mentre altres miraven. Quan la víctima va posar en coneixement de Meta l'incident, un portaveu de Meta va dir que l'investigador havia desactivat l'opció de límit personal. La funció es va introduir el febrer de 2022 com a precaució de seguretat activada per defecte i va impedir que els desconeguts s'apropessin a un avatar a menys de quatre peus.

    Implicacions de deepfakes i assetjament

    Les implicacions més àmplies de les falsificacions profundes i l'assetjament poden incloure: 

    • Augment de la pressió als governs perquè implementin una política reguladora global contra les falsificacions profundes utilitzades per a l'assetjament i l'assalt digital.
    • Més dones víctimes de la tecnologia deepfake, especialment celebritats, periodistes i activistes.
    • Augment de les demandes de víctimes d'assetjament i difamació falses. 
    • Augment dels incidents de comportament inadequat cap als avatars i altres representacions en línia a les comunitats de metavers.
    • S'estan llançant aplicacions i filtres deepfake nous i cada cop més fàcils d'utilitzar que poden crear contingut realista, cosa que condueix a la mercantilització del contingut deepfake no consensuat, especialment la pornografia.
    • Les xarxes socials i les plataformes d'allotjament de llocs web inverteixen més per controlar molt el contingut que circula a les seves plataformes, inclosa la prohibició d'individus o la retirada de pàgines de grup.

    Preguntes a tenir en compte

    • Com està abordant el vostre govern l'assetjament fals?
    • Quines són les altres maneres en què els usuaris en línia poden protegir-se de ser victimitzats per creadors de deepfake?

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: