Deepfakes e assédio: como o conteúdo sintético é usado para assediar mulheres

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Deepfakes e assédio: como o conteúdo sintético é usado para assediar mulheres

Deepfakes e assédio: como o conteúdo sintético é usado para assediar mulheres

Texto do subtítulo
Imagens e vídeos manipulados estão contribuindo para um ambiente digital voltado para as mulheres.
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 14 de dezembro de 2022

    Resumo do insight

    Os desenvolvimentos na tecnologia deepfake resultaram no aumento de incidentes de assédio sexual, especialmente contra mulheres. Os especialistas acreditam que o abuso irá piorar, a menos que sejam aplicadas leis mais rigorosas sobre como a mídia sintética é criada, usada e distribuída. As implicações de longo prazo do uso de deepfakes para assédio podem incluir aumento de processos judiciais e tecnologias e filtros mais avançados de deepfakes.

    Deepfakes e contexto de assédio

    Em 2017, um fórum de discussão no site Reddit foi usado para hospedar pornografia manipulada por inteligência artificial (IA) pela primeira vez. Em um mês, o tópico do Reddit se tornou viral e milhares de pessoas postaram sua pornografia deepfake no site. Conteúdo sintético usado para criar pornografia falsa ou assédio é cada vez mais comum, mas o interesse público é frequentemente focado em deepfakes de propaganda que promovem desinformação e instabilidade política. 

    O termo "deepfake" é uma combinação de "deep learning" e "fake", um método para recriar fotografias e vídeos com a ajuda da IA. O componente essencial na produção desse conteúdo é o aprendizado de máquina (ML), que permite a criação rápida e barata de material falso, cada vez mais difícil de ser detectado pelos espectadores humanos.

     Uma rede neural é treinada com imagens da pessoa alvo para criar um vídeo deepfake. Quanto mais filmagens forem usadas nos dados de treinamento, mais realistas serão os resultados; a rede aprenderá os maneirismos dessa pessoa e outros traços de personalidade. Uma vez que a rede neural é treinada, qualquer pessoa pode usar técnicas de computação gráfica para sobrepor uma cópia da imagem de uma pessoa em outro ator ou corpo. Essa cópia resultou em um número crescente de materiais pornográficos de celebridades femininas e civis inconscientes de que suas imagens foram usadas dessa maneira. De acordo com a empresa de pesquisa Sensity AI, cerca de 90 a 95% de todos os vídeos deepfake se enquadram na categoria de pornografia não consensual.

    Impacto disruptivo

    Os deepfakes pioraram a prática da pornografia de vingança, visando principalmente as mulheres para expô-las à humilhação e ao trauma público. A privacidade e a segurança das mulheres estão ameaçadas à medida que a tecnologia de vídeo falso de ponta a ponta é cada vez mais transformada em arma, por exemplo, assediando, intimidando, humilhando e degradando as mulheres pessoal e profissionalmente. Pior ainda, não existe regulamentação suficiente contra este tipo de conteúdo.

    Por exemplo, a partir de 2022, o conteúdo pornográfico de vingança foi proibido em 46 estados dos EUA, e apenas dois estados cobrem explicitamente a mídia sintética em sua proibição. Deepfakes não são ilegais por si só, apenas quando violam direitos autorais ou se tornam difamatórios. Estas limitações dificultam que as vítimas instaurem ações legais, especialmente porque não há forma de eliminar permanentemente este conteúdo online.

    Enquanto isso, outra forma de conteúdo sintético, os avatares (representações online de usuários), também está sendo alvo de agressões. De acordo com um relatório de 2022 da organização sem fins lucrativos SumOfUs, uma mulher que pesquisava em nome da organização foi supostamente agredida na plataforma Metaverse Horizon Worlds. A mulher relatou que outro usuário agrediu sexualmente seu avatar enquanto outros assistiam. Quando a vítima chamou a atenção da Meta para o incidente, um porta-voz da Meta disse que o pesquisador havia desativado a opção Personal Boundary. O recurso foi introduzido em fevereiro de 2022 como uma precaução de segurança ativada por padrão e impedia que estranhos se aproximassem de um avatar a menos de um metro.

    Implicações de deepfakes e assédio

    Implicações mais amplas de deepfakes e assédio podem incluir: 

    • Aumento da pressão para que os governos implementem uma política regulatória global contra deepfakes usados ​​para assédio e agressão digital.
    • Mais mulheres sendo vitimizadas pela tecnologia deepfake, principalmente celebridades, jornalistas e ativistas.
    • Um aumento nos processos de vítimas de assédio e difamação por deepfake. 
    • Aumento de incidentes de comportamento inadequado em relação a avatares e outras representações online em comunidades do metaverso.
    • Estão sendo lançados novos aplicativos e filtros deepfake cada vez mais fáceis de usar que podem criar conteúdo realista, levando à mercantilização de conteúdo deepfake não consensual, especialmente pornografia.
    • Mídias sociais e plataformas de hospedagem de sites investem mais para monitorar fortemente o conteúdo que circula em suas plataformas, incluindo banir indivíduos ou derrubar páginas de grupos.

    Questões a considerar

    • Como seu governo está lidando com o assédio de deepfake?
    • Quais são as outras maneiras pelas quais os usuários online podem se proteger de serem vítimas de criadores de deepfake?

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção:

    Conferência Global sobre Estudos da Mulher Justiça para mulheres: deep fakes e pornografia de vingança