Deepfakes und Belästigung: Wie synthetische Inhalte genutzt werden, um Frauen zu belästigen

IMAGE CREDIT:
Bildnachweis
iStock

Deepfakes und Belästigung: Wie synthetische Inhalte genutzt werden, um Frauen zu belästigen

Deepfakes und Belästigung: Wie synthetische Inhalte genutzt werden, um Frauen zu belästigen

Untertiteltext
Manipulierte Bilder und Videos tragen zu einer digitalen Umgebung bei, die auf Frauen abzielt.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 14. Dezember 2022

    Zusammenfassung der Einblicke

    Die Entwicklung der Deepfake-Technologie hat zu zunehmenden Vorfällen sexueller Belästigung, insbesondere gegen Frauen, geführt. Experten gehen davon aus, dass sich der Missbrauch verschlimmern wird, wenn nicht strengere Gesetze zur Erstellung, Nutzung und Verbreitung synthetischer Medien durchgesetzt werden. Die langfristigen Auswirkungen des Einsatzes von Deepfakes zur Belästigung könnten eine Zunahme von Klagen sowie fortschrittlichere Deepfake-Technologien und -Filter umfassen.

    Deepfakes und Belästigungskontext

    Im Jahr 2017 wurde ein Diskussionsforum auf der Website Reddit zum ersten Mal verwendet, um durch künstliche Intelligenz (KI) manipulierte Pornografie zu hosten. Innerhalb eines Monats wurde der Reddit-Thread viral und Tausende von Menschen hatten ihre Deepfake-Pornografie auf der Website veröffentlicht. Synthetische Inhalte, die zur Erstellung gefälschter Pornografie oder Belästigung verwendet werden, werden immer häufiger, doch das öffentliche Interesse konzentriert sich häufig auf Propaganda-Deepfakes, die Desinformation und politische Instabilität fördern. 

    Der Begriff „Deepfake“ ist eine Kombination aus „Deep Learning“ und „Fake“, einer Methode zur Nachbildung von Fotos und Videos mit Hilfe von KI. Die wesentliche Komponente bei der Produktion dieser Inhalte ist maschinelles Lernen (ML), das die schnelle und kostengünstige Erstellung von gefälschtem Material ermöglicht, das für menschliche Zuschauer immer schwieriger zu erkennen ist.

     Ein neuronales Netzwerk wird mit Filmmaterial der Zielperson trainiert, um ein Deepfake-Video zu erstellen. Je mehr Filmmaterial in den Trainingsdaten verwendet wird, desto realistischer sind die Ergebnisse; Das Netzwerk lernt die Eigenarten und andere Persönlichkeitsmerkmale dieser Person. Sobald das neuronale Netzwerk trainiert ist, kann jeder Computergrafiktechniken verwenden, um eine Kopie des Abbilds einer Person auf einen anderen Schauspieler oder Körper zu legen. Dieses Kopieren hat zu einer steigenden Anzahl von pornografischem Material von weiblichen Prominenten und Zivilisten geführt, die nicht wissen, dass ihre Bilder auf diese Weise verwendet wurden. Laut dem Forschungsunternehmen Sensity AI fallen etwa 90 bis 95 Prozent aller Deepfake-Videos in die Kategorie der nicht einvernehmlichen Pornografie.

    Störende Wirkung

    Deepfakes haben die Praxis des Rachepornos verschärft und zielen vor allem auf Frauen ab, um sie öffentlicher Demütigung und Trauma auszusetzen. Die Privatsphäre und Sicherheit von Frauen sind gefährdet, da durchgängige gefälschte Videotechnologie zunehmend als Waffe eingesetzt wird, z. B. um Frauen persönlich und beruflich zu belästigen, einzuschüchtern, zu erniedrigen und zu erniedrigen. Schlimmer noch, es gibt nicht genügend Regulierung gegen diese Art von Inhalten.

    Ab 2022 sind beispielsweise Rachepornos in 46 US-Bundesstaaten verboten, und nur zwei Staaten beziehen sich in ihrem Verbot ausdrücklich auf synthetische Medien. Deepfakes sind an sich nicht illegal, nur wenn sie Urheberrechte verletzen oder diffamierend wirken. Diese Einschränkungen erschweren es den Opfern, rechtliche Schritte einzuleiten, insbesondere da es keine Möglichkeit gibt, diese Inhalte dauerhaft online zu löschen.

    Inzwischen wird auch eine andere Form synthetischer Inhalte, Avatare (Online-Darstellungen von Benutzern), Angriffen ausgesetzt. Laut einem Bericht der gemeinnützigen Interessenvertretung SumOfUs aus dem Jahr 2022 wurde eine Frau, die im Auftrag der Organisation recherchierte, angeblich auf der Metaverse-Plattform Horizon Worlds angegriffen. Die Frau berichtete, dass ein anderer Benutzer ihren Avatar sexuell angegriffen habe, während andere zusahen. Als das Opfer Meta auf den Vorfall aufmerksam machte, sagte ein Meta-Sprecher, dass der Forscher die Option „Persönliche Grenze“ deaktiviert habe. Die Funktion wurde im Februar 2022 als standardmäßig aktivierte Sicherheitsvorkehrung eingeführt und verhinderte, dass sich Fremde einem Avatar innerhalb von vier Fuß näherten.

    Auswirkungen von Deepfakes und Belästigung

    Zu den weiteren Auswirkungen von Deepfakes und Belästigung können gehören: 

    • Erhöhter Druck auf Regierungen, eine globale Regulierungspolitik gegen Deepfakes umzusetzen, die für digitale Belästigung und Angriffe verwendet werden.
    • Immer mehr Frauen werden Opfer von Deepfake-Technologie, insbesondere Prominente, Journalisten und Aktivisten.
    • Eine Zunahme der Klagen von Opfern von Deepfake-Belästigung und -Verleumdung. 
    • Erhöhte Vorfälle von unangemessenem Verhalten gegenüber Avataren und anderen Online-Darstellungen in Metaverse-Communities.
    • Es werden neue und zunehmend benutzerfreundliche Deepfake-Apps und -Filter veröffentlicht, die realistische Inhalte erstellen können, was zur Kommerzialisierung von nicht einvernehmlichen Deepfake-Inhalten, insbesondere Pornografie, führt.
    • Social-Media- und Website-Hosting-Plattformen investieren mehr in die strenge Überwachung der auf ihren Plattformen verbreiteten Inhalte, einschließlich des Verbots von Einzelpersonen oder der Entfernung von Gruppenseiten.

    Fragen zu berücksichtigen

    • Wie geht Ihre Regierung mit Deepfake-Belästigung um?
    • Welche anderen Möglichkeiten gibt es für Online-Nutzer, sich davor zu schützen, von Deepfake-Erstellern schikaniert zu werden?