Deepfakes и тормоз: Как синтетичното съдържание се използва за тормоз над жени

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Deepfakes и тормоз: Как синтетичното съдържание се използва за тормоз над жени

Deepfakes и тормоз: Как синтетичното съдържание се използва за тормоз над жени

Подзаглавен текст
Манипулираните изображения и видеоклипове допринасят за цифрова среда, насочена към жените.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Декември 14, 2022

    Резюме на прозрението

    Развитието на технологиите за дълбоко фалшифициране доведе до увеличаване на случаите на сексуален тормоз, особено срещу жени. Експертите смятат, че злоупотребата ще се влоши, освен ако не бъдат наложени по-строги закони за това как се създават, използват и разпространяват синтетичните медии. Дългосрочните последици от използването на deepfakes за тормоз може да включват увеличени съдебни дела и по-напреднали технологии и филтри за deepfake.

    Deepfakes и контекст на тормоз

    През 2017 г. дискусионна дъска на уебсайта Reddit за първи път беше използвана за хостване на порнография, манипулирана с изкуствен интелект (AI). В рамките на месец нишката на Reddit стана вирусна и хиляди хора бяха публикували дълбоко фалшивата си порнография на сайта. Синтетичното съдържание, използвано за създаване на фалшива порнография или тормоз, е все по-често срещано, но общественият интерес често е фокусиран върху пропагандни дълбоки фалшификати, които насърчават дезинформация и политическа нестабилност. 

    Терминът "deepfake" е комбинация от "deep learning" и "fake", метод за пресъздаване на снимки и видеоклипове с помощта на AI. Основният компонент в производството на това съдържание е машинното обучение (ML), което позволява бързото и евтино създаване на фалшиви материали, които стават все по-трудни за откриване от хората.

     Невронна мрежа се обучава с кадри на целевия човек, за да създаде дълбоко фалшиво видео. Колкото повече кадри се използват в данните за обучението, толкова по-реалистични ще бъдат резултатите; мрежата ще научи маниерите и други личностни черти на този човек. След като невронната мрежа бъде обучена, всеки може да използва техники на компютърна графика, за да наложи копие на подобие на човек върху друг актьор или тяло. Това копиране доведе до нарастващ брой порнографски материали на жени знаменитости и цивилни лица, които не знаят, че техните изображения са били използвани по този начин. Според изследователската фирма Sensity AI, приблизително 90 до 95 процента от всички дълбоки фалшиви видеоклипове попадат в категорията на порнографията без съгласие.

    Разрушително въздействие

    Deepfakes влошиха практиката на порно за отмъщение, насочено предимно към жени, за да ги изложи на публично унижение и травма. Поверителността и безопасността на жените са застрашени, тъй като фалшивата видео технология от край до край все повече се превръща в оръжие, напр. тормоз, сплашване, унижение и унижение на жените лично и професионално. Още по-лошо, няма достатъчно регулация срещу този тип съдържание.

    Например от 2022 г. порно съдържанието за отмъщение е забранено в 46 американски щата и само два щата изрично покриват синтетичните медии в забраната си. Deepfakes не са незаконни сами по себе си, само когато нарушават авторски права или станат клеветнически. Тези ограничения затрудняват жертвите да предприемат правни действия, особено след като няма начин това съдържание да бъде изтрито онлайн за постоянно.

    Междувременно друга форма на синтетично съдържание, аватари (онлайн представяне на потребители), също е обект на атаки. Според доклад от 2022 г. на организация за застъпничество с нестопанска цел SumOfUs, жена, изследваща от името на организацията, е била нападната в платформата Metaverse Horizon Worlds. Жената съобщи, че друг потребител е изнасилвал сексуално нейния аватар, докато други са гледали. Когато жертвата обърна внимание на Мета за инцидента, говорител на Мета каза, че изследователят е деактивирал опцията за лична граница. Функцията беше въведена през февруари 2022 г. като предпазна мярка за безопасност, активирана по подразбиране и не позволи на непознати да се приближат до аватар на по-малко от четири фута.

    Последици от дълбоки фалшификации и тормоз

    По-широките последици от дълбоките фалшификации и тормоза могат да включват: 

    • Повишен натиск за правителствата да прилагат глобална регулаторна политика срещу дълбоките фалшиви съобщения, използвани за дигитален тормоз и нападение.
    • Все повече жени стават жертва на технологията deepfake, особено знаменитости, журналисти и активисти.
    • Увеличение на съдебните дела от жертви на дълбок фалшив тормоз и клевета. 
    • Увеличени случаи на неподходящо поведение спрямо аватари и други онлайн представяния в общностите на метавселената.
    • Пускат се нови и все по-лесни за използване deepfake приложения и филтри, които могат да създават реалистично съдържание, което води до комерсиализация на дълбоко фалшиво съдържание без съгласие, особено порнография.
    • Социални медии и платформи за хостване на уебсайтове, които инвестират повече, за да наблюдават силно съдържанието, разпространявано на техните платформи, включително забраняване на отделни лица или премахване на групови страници.

    Въпроси за разглеждане

    • Как вашето правителство се справя с дълбоко фалшивия тормоз?
    • Какви са другите начини, по които онлайн потребителите могат да се защитят от жертва на създатели на deepfake?