Дипфејкс и вознемирување: Како се користи синтетичка содржина за вознемирување на жените

КРЕДИТ НА СЛИКА:
Слика кредит
iStock

Дипфејкс и вознемирување: Како се користи синтетичка содржина за вознемирување на жените

Дипфејкс и вознемирување: Како се користи синтетичка содржина за вознемирување на жените

Текст за поднаслов
Манипулираните слики и видеа придонесуваат за дигитално опкружување кое ги таргетира жените.
    • автор:
    • име на авторот
      Quantumrun Foresight
    • Декември 14, 2022

    Резиме на увид

    Развојот на технологијата за длабока фејк резултираше со зголемени инциденти на сексуално вознемирување, особено врз жени. Експертите веруваат дека злоупотребата ќе се влоши доколку не се применат построги закони за тоа како се создаваат, користат и дистрибуираат синтетичките медиуми. Долгорочните импликации од користењето на длабоко фејк за вознемирување може да вклучуваат зголемени тужби и понапредни технологии и филтри за длабоко фејк.

    Дипфејкс и контекст на вознемирување

    Во 2017 година, табла за дискусија на веб-страницата Reddit беше искористена за првпат да биде домаќин на порнографија манипулирана од вештачка интелигенција (ВИ). За еден месец, темата на Редит стана вирална, а илјадници луѓе ја објавија својата длабока лажна порнографија на страницата. Синтетичката содржина што се користи за создавање лажна порнографија или вознемирување е сè почеста, но јавниот интерес често е фокусиран на пропагандни длабоки фејкови кои промовираат дезинформации и политичка нестабилност. 

    Терминот „deepfake“ е комбинација од „длабоко учење“ и „лажни“, метод за пресоздавање фотографии и видеа со помош на вештачка интелигенција. Суштинската компонента во производството на оваа содржина е машинското учење (ML), кое овозможува брзо и евтино создавање на лажен материјал што е сè потешко да се открие за човечките гледачи.

     Невралната мрежа е обучена со снимка од целната личност за да создаде длабоко лажно видео. Колку повеќе снимки се користат во податоците за обуката, толку пореални ќе бидат резултатите; мрежата ќе ги научи манирите на таа личност и другите особини на личноста. Откако ќе се обучи невронската мрежа, секој може да користи техники на компјутерска графика за да постави копија од ликот на личноста на друг актер или тело. Ова копирање резултираше со зголемен број порнографски материјали на женски познати личности и цивили кои не знаат дека нивните слики се користени на овој начин. Според истражувачката компанија Sensity AI, приближно 90 до 95 проценти од сите длабоко лажни видеа спаѓаат во категоријата неконсензуална порнографија.

    Нарушувачко влијание

    Дипфејксот ја влоши практиката на одмазднички порно, примарно насочени кон жените за да ги изложат на јавно понижување и траума. Приватноста и безбедноста на жените се загрозени бидејќи технологијата за лажни видео од крај до крај се повеќе се вооружува, на пример, ги вознемирува, заплашува, понижува и ги понижува жените лично и професионално. Уште полошо, нема доволно регулатива против овој тип на содржина.

    На пример, од 2022 година, одмаздничката порно содржина е забранета во 46 американски држави, а само две држави експлицитно покриваат синтетички медиуми во нивната забрана. Дипфејковите сами по себе не се нелегални, само кога ги прекршуваат авторските права или стануваат клеветнички. Овие ограничувања им отежнуваат на жртвите да преземат правна постапка, особено затоа што не постои начин трајно да се избрише оваа содржина онлајн.

    Во меѓувреме, друга форма на синтетичка содржина, аватари (онлајн претстави на корисници), исто така е подложена на напади. Според извештајот од 2022 година на непрофитната организација за застапување SumOfUs, жена која истражувала во име на организацијата наводно била нападната на платформата Метаверс Хоризонт Светс. Жената пријавила дека друг корисник сексуално го нападнал нејзиниот аватар додека други го гледале. Кога жртвата го предочи инцидентот на Мета, портпаролот на Мета рече дека истражувачот ја деактивирал опцијата Лична граница. Функцијата беше воведена во февруари 2022 година како безбедносна мерка на претпазливост овозможена стандардно и спречуваше странци да се приближат до аватарот на растојание од четири метри.

    Импликации од deepfakes и малтретирање

    Пошироки импликации на длабоко фејк и вознемирување може да вклучуваат: 

    • Зголемен притисок за владите да спроведат глобална регулаторна политика против длабоките фејкови што се користат за дигитално вознемирување и напад.
    • Сè повеќе жени се жртви на длабока лажна технологија, особено познати личности, новинари и активисти.
    • Зголемување на тужбите од жртвите на вознемирување и клевета со длабока фејк. 
    • Зголемени инциденти на несоодветно однесување кон аватари и други онлајн претстави во метаверзните заедници.
    • Се објавуваат нови и сè полесни за користење длабоки лажни апликации и филтри кои можат да создадат реална содржина, што доведува до комодификација на неконсензуална длабока лажна содржина, особено порнографија.
    • Социјалните медиуми и платформите за хостирање веб-страници инвестираат повеќе за силно следење на содржината што циркулира на нивните платформи, вклучително и забрана на поединци или симнување на групни страници.

    Прашања што треба да се разгледаат

    • Како вашата влада се справува со длабоко фејк вознемирување?
    • Кои се другите начини на кои онлајн корисниците можат да се заштитат себеси од жртви на креаторите на длабока фејк?