Deepfakes y acoso: cómo se utiliza el contenido sintético para acosar a las mujeres

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

Deepfakes y acoso: cómo se utiliza el contenido sintético para acosar a las mujeres

Deepfakes y acoso: cómo se utiliza el contenido sintético para acosar a las mujeres

Subtítulo de texto
Las imágenes y videos manipulados están contribuyendo a un entorno digital que apunta a las mujeres.
    • Escrito por:
    • Nombre del autor
      Previsión Quantumrun
    • 14 de diciembre de 2022

    Resumen de información

    Los avances en la tecnología deepfake han dado lugar a un aumento de los incidentes de acoso sexual, especialmente contra mujeres. Los expertos creen que los abusos empeorarán a menos que se apliquen leyes más estrictas sobre cómo se crean, utilizan y distribuyen los medios sintéticos. Las implicaciones a largo plazo del uso de deepfakes para el acoso podrían incluir un aumento de demandas y tecnologías y filtros de deepfake más avanzados.

    Deepfakes y contexto de acoso

    En 2017, se utilizó un foro de discusión en el sitio web Reddit para albergar pornografía manipulada por inteligencia artificial (IA) por primera vez. En un mes, el hilo de Reddit se volvió viral y miles de personas publicaron su pornografía falsa en el sitio. El contenido sintético utilizado para crear pornografía falsa o acoso es cada vez más común, sin embargo, el interés público se centra con frecuencia en las falsificaciones profundas de propaganda que promueven la desinformación y la inestabilidad política. 

    El término "deepfake" es una combinación de "aprendizaje profundo" y "falso", un método para recrear fotografías y videos con la ayuda de IA. El componente esencial en la producción de este contenido es el aprendizaje automático (ML), que permite la creación rápida y económica de material falso que es cada vez más difícil de detectar para los espectadores humanos.

     Una red neuronal se entrena con imágenes de la persona objetivo para crear un video falso. Cuantas más imágenes se utilicen en los datos de entrenamiento, más realistas serán los resultados; la red aprenderá los modales de esa persona y otros rasgos de personalidad. Una vez que se entrena la red neuronal, cualquiera puede usar técnicas de gráficos por computadora para superponer una copia de la imagen de una persona en otro actor o cuerpo. Esta copia ha resultado en un número creciente de materiales pornográficos de celebridades femeninas y civiles que desconocen que sus imágenes se han utilizado de esta manera. Según la firma de investigación Sensity AI, aproximadamente del 90 al 95 por ciento de todos los videos falsos profundos caen en la categoría de pornografía no consensuada.

    Impacto disruptivo

    Los deepfakes han empeorado la práctica de la pornografía de venganza, dirigiéndose principalmente a las mujeres para exponerlas a la humillación y el trauma públicos. La privacidad y la seguridad de las mujeres están en peligro a medida que la tecnología de vídeo falso de extremo a extremo se utiliza cada vez más como arma, por ejemplo, acosando, intimidando, degradando y degradando a las mujeres personal y profesionalmente. Peor aún, no existe suficiente regulación contra este tipo de contenidos.

    Por ejemplo, a partir de 2022, el contenido de pornografía de venganza está prohibido en 46 estados de EE. UU., y solo dos estados incluyen explícitamente los medios sintéticos en su prohibición. Los deepfakes no son ilegales en sí mismos, sólo cuando violan los derechos de autor o se vuelven difamatorios. Estas limitaciones dificultan que las víctimas emprendan acciones legales, especialmente porque no hay forma de eliminar este contenido en línea de forma permanente.

    Mientras tanto, otra forma de contenido sintético, los avatares (representaciones en línea de los usuarios), también está siendo objeto de ataques. Según un informe de 2022 de la organización de defensa sin fines de lucro SumOfUs, una mujer que investigaba en nombre de la organización fue presuntamente agredida en la plataforma Metaverse Horizon Worlds. La mujer informó que otro usuario agredió sexualmente a su avatar mientras otros miraban. Cuando la víctima llamó la atención de Meta sobre el incidente, un portavoz de Meta dijo que el investigador había desactivado la opción Límite personal. La función se introdujo en febrero de 2022 como medida de seguridad habilitada de forma predeterminada y evitaba que extraños se acercaran a un avatar a menos de cuatro pies.

    Implicaciones de las falsificaciones profundas y el acoso

    Las implicaciones más amplias de las falsificaciones profundas y el acoso pueden incluir: 

    • Mayor presión para que los gobiernos implementen una política regulatoria global contra las falsificaciones profundas utilizadas para el acoso y la agresión digital.
    • Más mujeres siendo víctimas de la tecnología deepfake, particularmente celebridades, periodistas y activistas.
    • Un aumento en las demandas de víctimas de acoso y difamación deepfake. 
    • Aumento de incidentes de comportamiento inapropiado hacia avatares y otras representaciones en línea en comunidades de metaverso.
    • Se están lanzando nuevas aplicaciones y filtros deepfake cada vez más fáciles de usar que pueden crear contenido realista, lo que lleva a la mercantilización del contenido deepfake no consensuado, especialmente la pornografía.
    • Las redes sociales y las plataformas de alojamiento de sitios web invierten más para monitorear en profundidad el contenido que circula en sus plataformas, incluida la prohibición de personas o la eliminación de páginas grupales.

    Preguntas a considerar

    • ¿Cómo aborda su gobierno el acoso de los deepfakes?
    • ¿Cuáles son las otras formas en que los usuarios en línea pueden protegerse de ser víctimas de los creadores de deepfakes?