Deepfakes og chikane: Hvordan syntetisk indhold bruges til at chikanere kvinder

BILLEDKREDIT:
Image credit
iStock

Deepfakes og chikane: Hvordan syntetisk indhold bruges til at chikanere kvinder

Deepfakes og chikane: Hvordan syntetisk indhold bruges til at chikanere kvinder

Underoverskriftstekst
Manipulerede billeder og videoer bidrager til et digitalt miljø, der er målrettet kvinder.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • 14. December, 2022

    Oversigt over indsigt

    Udviklingen inden for deepfake-teknologi har resulteret i stigende tilfælde af seksuel chikane, især mod kvinder. Eksperter mener, at misbrug vil forværres, medmindre strengere love om, hvordan syntetiske medier skabes, bruges og distribueres, håndhæves. De langsigtede konsekvenser af at bruge deepfakes til chikane kan omfatte øgede retssager og mere avancerede deepfake-teknologier og filtre.

    Deepfakes og chikane kontekst

    I 2017 blev et diskussionsforum på webstedet Reddit brugt til at være vært for kunstig intelligens (AI)-manipuleret pornografi for første gang. Inden for en måned gik Reddit-tråden viral, og tusindvis af mennesker havde lagt deres deepfake pornografi på webstedet. Syntetisk indhold, der bruges til at skabe falsk pornografi eller chikane, er mere og mere almindeligt, men alligevel er offentlighedens interesse ofte fokuseret på propaganda-deepfakes, der fremmer desinformation og politisk ustabilitet. 

    Udtrykket "deepfake" er en kombination af "deep learning" og "fake", en metode til at genskabe fotografier og videoer ved hjælp af AI. Den væsentlige komponent i produktionen af ​​dette indhold er maskinlæring (ML), som giver mulighed for hurtig og billig fremstilling af falsk materiale, som er stadig sværere for menneskelige seere at opdage.

     Et neuralt netværk trænes med optagelser af den målrettede person for at skabe en deepfake-video. Jo flere optagelser der bruges i træningsdataene, jo mere realistiske vil resultaterne være; netværket vil lære denne persons manerer og andre personlighedstræk. Når det neurale netværk er trænet, kan enhver bruge computergrafikteknikker til at overlejre en kopi af en persons lighed på en anden skuespiller eller krop. Denne kopiering har resulteret i et stigende antal pornografisk materiale af kvindelige berømtheder og civile, der ikke er klar over, at deres billeder er blevet brugt på denne måde. Ifølge analysefirmaet Sensity AI falder omkring 90 til 95 procent af alle deepfake-videoer ind under kategorien pornografi uden samtykke.

    Forstyrrende påvirkning

    Deepfakes har forværret praksis med hævnporno, primært rettet mod kvinder for at udsætte dem for offentlig ydmygelse og traumer. Kvinders privatliv og sikkerhed bringes i fare, da ende-til-ende falsk videoteknologi i stigende grad våbengøres, f.eks. chikanere, intimiderende, nedværdigende og nedværdigende kvinder personligt og professionelt. Hvad værre er, er der ikke nok regulering mod denne type indhold.

    For eksempel er hævnpornoindhold fra 2022 forbudt i 46 amerikanske stater, og kun to stater dækker eksplicit syntetiske medier i deres forbud. Deepfakes er ikke ulovlige i sig selv, kun når de bryder copyrights eller bliver ærekrænkende. Disse begrænsninger gør det vanskeligt for ofre at anlægge sag, især da der ikke er nogen måde at slette dette indhold online permanent.

    I mellemtiden bliver en anden form for syntetisk indhold, avatarer (online repræsentationer af brugere), også udsat for overgreb. Ifølge en rapport fra 2022 fra nonprofit fortalervirksomhed SumOfUs, blev en kvinde, der forskede på vegne af organisationen, angiveligt overfaldet i Metaverse-platformen Horizon Worlds. Kvinden rapporterede, at en anden bruger seksuelt overgreb hendes avatar, mens andre så på. Da offeret gjorde Meta opmærksom på hændelsen, sagde en Meta-talsmand, at forskeren havde deaktiveret indstillingen Personal Boundary. Funktionen blev introduceret i februar 2022 som en sikkerhedsforanstaltning aktiveret som standard og forhindrede fremmede i at nærme sig en avatar inden for fire fod.

    Implikationer af deepfakes og chikane

    Bredere implikationer af deepfakes og chikane kan omfatte: 

    • Øget pres for regeringer til at implementere en global reguleringspolitik mod deepfakes, der bruges til digital chikane og overfald.
    • Flere kvinder bliver ofre for deepfake teknologi, især berømtheder, journalister og aktivister.
    • En stigning i retssager fra ofre for dyb falsk chikane og ærekrænkelse. 
    • Øgede tilfælde af upassende adfærd over for avatarer og andre onlinerepræsentationer i metaverse-fællesskaber.
    • Nye og mere og mere brugervenlige deepfake-apps og -filtre frigives, som kan skabe realistisk indhold, hvilket fører til kommodificering af deepfake-indhold uden samtykke, især pornografi.
    • Sociale medier og webstedshostingplatforme investerer mere for at overvåge indhold, der cirkuleres på deres platforme, herunder at forbyde enkeltpersoner eller fjerne gruppesider.

    Spørgsmål at overveje

    • Hvordan håndterer din regering dyb falsk chikane?
    • Hvad er de andre måder, onlinebrugere kan beskytte sig selv mod at blive ofre for deepfake-skabere?