Deepfakes i nękanie: jak treści syntetyczne są wykorzystywane do nękania kobiet

KREDYT WZROKU:
Image credit
iStock

Deepfakes i nękanie: jak treści syntetyczne są wykorzystywane do nękania kobiet

Deepfakes i nękanie: jak treści syntetyczne są wykorzystywane do nękania kobiet

Tekst podtytułu
Manipulowane obrazy i filmy przyczyniają się do tworzenia cyfrowego środowiska skierowanego do kobiet.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 14 grudnia 2022 r.

    Podsumowanie spostrzeżeń

    Rozwój technologii deepfake spowodował wzrost liczby przypadków molestowania seksualnego, szczególnie wobec kobiet. Eksperci uważają, że nadużycia będą się nasilać, jeśli nie zostaną wprowadzone bardziej rygorystyczne przepisy dotyczące sposobu tworzenia, wykorzystywania i dystrybucji mediów syntetycznych. Długoterminowe konsekwencje wykorzystywania deepfakes do nękania mogą obejmować zwiększoną liczbę procesów sądowych oraz bardziej zaawansowane technologie i filtry deepfake.

    Deepfake i kontekst nękania

    W 2017 roku forum dyskusyjne na stronie Reddit zostało po raz pierwszy wykorzystane do hostowania pornografii zmanipulowanej przez sztuczną inteligencję (AI). W ciągu miesiąca wątek Reddit stał się wirusowy, a tysiące osób opublikowało swoją fałszywą pornografię na stronie. Treści syntetyczne wykorzystywane do tworzenia fałszywej pornografii lub nękania są coraz bardziej powszechne, jednak zainteresowanie opinii publicznej często skupia się na propagandowych podróbkach, które promują dezinformację i niestabilność polityczną. 

    Termin „deepfake” to połączenie „głębokiego uczenia się” i „fałszowania”, metody odtwarzania zdjęć i filmów za pomocą sztucznej inteligencji. Niezbędnym elementem produkcji tych treści jest uczenie maszynowe (ML), które pozwala na szybkie i niedrogie tworzenie fałszywego materiału, który jest coraz trudniejszy do wykrycia dla ludzkich widzów.

     Sieć neuronowa jest szkolona za pomocą materiału filmowego osoby docelowej, aby stworzyć wideo deepfake. Im więcej materiału filmowego zostanie użyte w danych treningowych, tym bardziej realistyczne będą wyniki; sieć pozna maniery tej osoby i inne cechy osobowości. Kiedy sieć neuronowa zostanie wytrenowana, każdy może użyć technik grafiki komputerowej, aby nałożyć kopię podobizny osoby na innego aktora lub ciało. To kopiowanie zaowocowało rosnącą liczbą materiałów pornograficznych celebrytek i cywilów nieświadomych tego, że ich wizerunki zostały w ten sposób wykorzystane. Według firmy badawczej Sensity AI około 90 do 95 procent wszystkich filmów typu deepfake należy do kategorii pornografii nieprzymusowej.

    Zakłócający wpływ

    Deepfakes pogorszyły praktykę pornografii zemsty, wymierzonej głównie w kobiety, aby narazić je na publiczne upokorzenie i traumę. Prywatność i bezpieczeństwo kobiet są zagrożone, ponieważ kompleksowa technologia fałszywych filmów wideo jest coraz częściej wykorzystywana jako broń, np. do nękania, zastraszania, poniżania i poniżania kobiet osobiście i zawodowo. Co gorsza, nie ma wystarczających przepisów regulujących tego typu treści.

    Na przykład od 2022 r. treści pornograficzne zemsty są zakazane w 46 stanach USA, a tylko dwa stany wyraźnie obejmują swoim zakazem media syntetyczne. Deepfakes same w sobie nie są nielegalne, tylko wtedy, gdy naruszają prawa autorskie lub stają się zniesławiające. Ograniczenia te utrudniają ofiarom podjęcie kroków prawnych, zwłaszcza że nie ma możliwości trwałego usunięcia takich treści z Internetu.

    Tymczasem inna forma treści syntetycznych, awatary (reprezentacje użytkowników online), również jest narażona na ataki. Według raportu organizacji non-profit SumOfUs z 2022 r., kobieta prowadząca badania w imieniu organizacji została rzekomo napadnięta na platformie Metaverse Horizon Worlds. Kobieta poinformowała, że ​​inny użytkownik dokonał napaści seksualnej na jej awatar, podczas gdy inni obserwowali. Kiedy ofiara zwróciła uwagę Meta na incydent, rzecznik Meta powiedział, że badacz dezaktywował opcję osobistej granicy. Ta funkcja została wprowadzona w lutym 2022 r. jako domyślnie włączone zabezpieczenie i zapobiegało zbliżaniu się nieznajomych do awatara w promieniu czterech stóp.

    Konsekwencje deepfake'ów i nękania

    Szersze konsekwencje deepfake'ów i nękania mogą obejmować: 

    • Zwiększona presja na rządy, aby wdrożyły globalną politykę regulacyjną przeciwko deepfake'om wykorzystywanym do cyfrowego nękania i napaści.
    • Więcej kobiet pada ofiarą technologii deepfake, zwłaszcza celebrytek, dziennikarzy i aktywistek.
    • Wzrost liczby pozwów składanych przez ofiary nękania i zniesławiania. 
    • Zwiększono liczbę przypadków niewłaściwego zachowania wobec awatarów i innych reprezentacji online w społecznościach metaverse.
    • Pojawiają się nowe i coraz łatwiejsze w użyciu aplikacje i filtry do deepfake, które mogą tworzyć realistyczne treści, co prowadzi do utowarowienia nieuzasadnionych treści deepfake, zwłaszcza pornografii.
    • Media społecznościowe i platformy hostingowe inwestują więcej, aby intensywnie monitorować treści krążące na swoich platformach, w tym blokowanie poszczególnych osób lub usuwanie stron grupowych.

    Pytania do rozważenia

    • Jak twój rząd radzi sobie z nękaniem typu deepfake?
    • Jakie są inne sposoby, w jakie użytkownicy online mogą chronić się przed atakami ze strony twórców deepfake?