Djipfakes en oerlêst: Hoe syntetyske ynhâld wurdt brûkt om froulju te belêsten

Ofbyldingskredyt:
Image credit
iStock

Djipfakes en oerlêst: Hoe syntetyske ynhâld wurdt brûkt om froulju te belêsten

Djipfakes en oerlêst: Hoe syntetyske ynhâld wurdt brûkt om froulju te belêsten

Subheading tekst
Manipulearre bylden en fideo's drage by oan in digitale omjouwing dy't froulju rjochtet.
    • Skriuwer:
    • Namme fan auteur
      Quantumrun Foresight
    • Desimber 14, 2022

    Ynsjoch gearfetting

    Untwikkelingen yn deepfake technology hawwe resultearre yn tanimmende ynsidinten fan seksuele oerlêst, benammen tsjin froulju. Eksperts leauwe dat misbrûk fergriemje sil, útsein as strangere wetten oer hoe't syntetyske media wurdt makke, brûkt en ferspraat wurde hanthavene. De gefolgen op lange termyn fan it brûken fan deepfakes foar oerlêst kinne tanommen rjochtsaken en mear avansearre deepfake-technologyen en filters omfetsje.

    Deepfakes en oerlêst kontekst

    Yn 2017 waard in diskusjeboerd op 'e webside Reddit brûkt om foar it earst mei keunstmjittige yntelliginsje (AI) manipulearre pornografy te hostjen. Binnen in moanne gie de Reddit-tried virale, en tûzenen minsken hienen har djippe falske pornografy op 'e side pleatst. Syntetyske ynhâld dy't brûkt wurdt om falske pornografy of oerlêst te meitsjen komt hieltyd faker foar, dochs is it publyk ynteresse faaks rjochte op propaganda-djippefakes dy't disinformaasje en politike ynstabiliteit befoarderje. 

    De term "djipfake" is in kombinaasje fan "djip learen" en "nep", in metoade foar it opnij oanmeitsjen fan foto's en fideo's mei help fan AI. De essensjele komponint yn 'e produksje fan dizze ynhâld is masine learen (ML), wêrtroch it rappe en goedkeape oanmeitsjen fan falsk materiaal mooglik makket dat foar minsklike sjoggers hieltyd dreger is om te ûntdekken.

     In neuraal netwurk wurdt trainearre mei bylden fan 'e doelgroep om in djippe fake fideo te meitsjen. Hoe mear byldmateriaal brûkt wurdt yn 'e trainingsgegevens, hoe realistysker de resultaten sille wêze; it netwurk sil leare fan dy persoan syn manieren en oare persoanlikheid trekken. Sadree't it neuronale netwurk is oplaat, kin elkenien komputergrafyske techniken brûke om in kopy fan 'e likenis fan' e persoan op in oare akteur of lichem te pleatsen. Dit kopiearjen hat resultearre yn in tanimmend oantal pornografyske materialen fan froulike ferneamden en boargers dy't net bewust binne dat har bylden op dizze manier binne brûkt. Neffens ûndersyksbedriuw Sensity AI falt rûchwei 90 oant 95 prosint fan alle djippe falske fideo's yn 'e kategory net-konsensuele pornografy.

    Disruptive ynfloed

    Deepfakes hawwe de praktyk fan wraakpornografy ferswakke, benammen rjochte op froulju om se bleat te lizzen oan iepenbiere fernedering en trauma. De privacy en feiligens fan froulju wurde yn gefaar brocht as ein-to-ein falske fideotechnology wurdt hieltyd mear bewapene, bgl., oerlêst, yntimidearje, ferneatigjend en ferneatigjend froulju persoanlik en profesjoneel. Slimmer, der is net genôch regeljouwing tsjin dit soarte fan ynhâld.

    Bygelyks, sûnt 2022, is wraakporno-ynhâld ferbean yn 46 Amerikaanske steaten, en mar twa steaten dekke eksplisyt syntetyske media yn har ferbod. Deepfakes binne net yllegaal op harsels, allinich as se auteursrjochten ynbrekke of lasterlik wurde. Dizze beheiningen meitsje it dreech foar slachtoffers om juridyske aksjes te folgjen, foaral om't d'r gjin manier is om dizze ynhâld online permanint te wiskjen.

    Underwilens wurdt in oare foarm fan syntetyske ynhâld, avatars (online foarstellings fan brûkers), ek ûnderwurpen oan oanfallen. Neffens in rapport fan 2022 troch non-profit advocacy-organisaasje SumOfUs, soe in frou dy't ûndersiket út namme fan 'e organisaasje soe wurde oanfallen yn it Metaverse-platfoarm Horizon Worlds. De frou rapportearre dat in oare brûker har avatar seksueel oanfallen wylst oaren seagen. Doe't it slachtoffer it ynsidint ûnder de oandacht fan Meta brocht, sei in wurdfierder fan Meta dat de ûndersiker de opsje Personal Boundary deaktivearre hie. De funksje waard yn febrewaris 2022 yntrodusearre as in feiligens foarsoarchsmaatregel dy't standert ynskeakele is en foarkaam dat frjemden binnen fjouwer fuotten in avatar benaderje.

    Gefolgen fan deepfakes en oerlêst

    Bredere gefolgen fan djippe faken en oerlêst kinne omfetsje: 

    • Ferhege druk foar oerheden om in wrâldwide regeljouwingsbelied út te fieren tsjin djippe faken brûkt foar digitale oerlêst en oanfal.
    • Mear froulju wurde slachtoffer fan deepfake technology, benammen ferneamden, sjoernalisten en aktivisten.
    • In tanimming fan rjochtsaken fan slachtoffers fan djippe oerlêst en laster. 
    • Tanommen ynsidinten fan ûnskiklik gedrach foar avatars en oare online foarstellings yn metaverse mienskippen.
    • Nije en hieltyd makliker te brûken deepfake-apps en filters wurde frijlitten dy't realistyske ynhâld kinne meitsje, wat liedt ta de kommodifikaasje fan net-konsensuele djipfake-ynhâld, benammen pornografy.
    • Sosjale media en webside-hostingplatfoarms ynvestearje mear om ynhâld te kontrolearjen dy't sirkulearje op har platfoarms, ynklusyf it ferbieden fan yndividuen of it ôfnimmen fan groepssiden.

    Fragen om te beskôgje

    • Hoe giet jo regearing deepfake-oerlêst oan?
    • Wat binne de oare manieren wêrop online brûkers harsels kinne beskermje tsjin it slachtoffer te wurden fan deepfake-skeppers?