Taktika širjenja dezinformacij: Kako so napadeni človeški možgani
Taktika širjenja dezinformacij: Kako so napadeni človeški možgani
Taktika širjenja dezinformacij: Kako so napadeni človeški možgani
- Avtor:
- Oktober 4, 2023
Povzetek vpogleda
Napačne informacije se širijo s taktikami, kot so model okužbe in šifrirane aplikacije. Skupine, kot je Ghostwriter, ciljajo na enote Nata in ZDA, medtem ko AI manipulira z javnim mnenjem. Ljudje pogosto zaupajo znanim virom, zaradi česar so dovzetni za lažne informacije. To bi lahko vodilo do več kampanj dezinformacij, ki temeljijo na umetni inteligenci, strožjih vladnih predpisov, povečane uporabe šifriranih aplikacij s strani skrajnežev, povečane kibernetske varnosti v medijih in izobraževalnih tečajev o boju proti dezinformacijam.
Taktika širjenja dezinformacijskega konteksta
Taktike napačnih informacij so orodja in strategije, ki se pogosto uporabljajo na spletnih mestih za družabna omrežja in ustvarjajo pandemijo lažnih prepričanj. Ta manipulacija z informacijami je povzročila razširjeno nesporazum o temah, ki segajo od goljufije volilcev do tega, ali so nasilni napadi resnični (npr. streljanje v osnovni šoli Sandy Hook) ali ali so cepiva varna. Ker se lažne novice še naprej delijo na različnih platformah, so ustvarile globoko nezaupanje do družbenih institucij, kot so mediji. Ena od teorij o tem, kako se zavajajoče informacije širijo, se imenuje model okužbe, ki temelji na delovanju računalniških virusov. Omrežje tvorijo vozlišča, ki predstavljajo ljudi, in robovi, ki simbolizirajo socialne povezave. Koncept je zasejan v enem "umu" in se širi pod različnimi pogoji in glede na družbena razmerja.
Nič ne pomaga, da tehnologija in naraščajoča digitalizacija družbe pomagata narediti taktike dezinformacij učinkovitejše kot kdaj koli prej. Primer so aplikacije za šifrirano sporočanje (EMA), ki ne le olajšajo deljenje lažnih informacij z osebnimi stiki, ampak podjetjem, ki uporabljajo aplikacije, tudi onemogočajo sledenje sporočilom, ki se delijo. Na primer, skrajno desničarske skupine so prestopile v EMA po napadu na ameriški Kapitol januarja 2021, ker so jih glavne platforme družbenih medijev, kot je Twitter, prepovedale. Taktike dezinformiranja imajo takojšnje in dolgoročne posledice. Poleg volitev, kjer prek farm trolov zmagujejo vprašljive osebnosti s kriminalno evidenco, lahko marginalizirajo manjšine in olajšajo vojno propagando (npr. ruska invazija na Ukrajino).
Moteč vpliv
Leta 2020 je varnostno podjetje FireEye izdalo poročilo, v katerem je izpostavilo prizadevanja skupine hekerjev, imenovane Ghostwriter, za dezinformacijo. Od marca 2017 propagandisti širijo laži, zlasti proti vojaškemu zavezništvu Severnoatlantske zveze (NATO) in ameriškim enotam na Poljskem in v Baltiku. Na družbenih omrežjih in proruskih novičarskih spletnih mestih so objavili ponarejeno gradivo. Ghostwriter je včasih uporabil bolj agresiven pristop: vdrl v sisteme za upravljanje vsebin (CMS) spletnih mest z novicami, da bi objavil svoje zgodbe. Skupina nato distribuira svoje lažne novice z lažnimi e-poštnimi sporočili, objavami v družabnih omrežjih in celo komentarji, ki so jih napisali na drugih spletnih mestih, ki sprejemajo vsebino bralcev.
Druga taktika dezinformacij uporablja algoritme in umetno inteligenco (AI) za manipulacijo javnega mnenja na družbenih omrežjih, kot je »spodbujanje« sledilcev v družbenih omrežjih prek botov ali ustvarjanje avtomatiziranih računov trolov za objavljanje sovražnih komentarjev. Strokovnjaki temu pravijo računalniška propaganda. Medtem je raziskava The New York Timesa odkrila, da politiki uporabljajo elektronsko pošto za širjenje dezinformacij pogosteje, kot se ljudje zavedajo. V ZDA sta obe strani krivi uporabe hiperbol v svojih e-poštnih sporočilih volivcem, kar lahko pogosto spodbuja deljenje lažnih informacij.
Obstaja nekaj ključnih razlogov, zakaj ljudje nasedejo kampanjam napačnih informacij.
- Prvič, ljudje se socialno učijo in ponavadi zaupajo svojim virom informacij, kot so prijatelji ali družinski člani. Ti ljudje dobivajo novice od zaupanja vrednih prijateljev, zaradi česar je težko prekiniti ta krog.
- Drugič, ljudje pogosto ne uspejo proaktivno preveriti dejstev o informacijah, ki jih uporabljajo, še posebej, če so navajeni prejemati novice iz enega vira (pogosto tradicionalnih medijev ali svojih priljubljenih družbenih medijev). platforme, kot sta Facebook ali Twitter). Ko vidijo naslov ali sliko (in celo samo blagovno znamko), ki podpira njihova prepričanja, pogosto ne dvomijo v pristnost teh trditev (ne glede na to, kako smešne so).
- Odmevne komore so močna orodja za dezinformacije, ki ljudi z nasprotnimi prepričanji samodejno spremenijo v sovražnike. Človeški možgani so naravnani tako, da iščejo informacije, ki podpirajo obstoječe ideje, in zavračajo informacije, ki jim nasprotujejo.
Širše posledice taktike širjenja dezinformacij
Možne posledice taktike širjenja dezinformacij lahko vključujejo:
- Več podjetij, specializiranih za umetno inteligenco in robote, ki politikom in propagandistom pomagajo pridobiti privržence in "verodostojnost" s pomočjo pametnih dezinformacijskih kampanj.
- Vlade so pod pritiskom, da ustvarijo zakone proti dezinformacijam in agencije za boj proti farmam trolov in strategom dezinformacij.
- Povečanje števila prenosov EMA za ekstremistične skupine, ki želijo širiti propagando in uničiti ugled.
- Medijska spletna mesta, ki vlagajo v drage rešitve kibernetske varnosti, da hekerjem z dezinformacijami preprečijo vstavljanje lažnih novic v njihove sisteme. V tem procesu moderiranja se lahko uporabijo nove generativne rešitve AI.
- Generativne bote, ki jih poganja umetna inteligenca, lahko uporabijo slabi akterji za ustvarjanje vala propagandnih in dezinformacijskih medijskih vsebin v velikem obsegu.
- Povečan pritisk na univerze in lokalne šole, da vključijo tečaje proti dezinformacijam.
Vprašanja, ki jih je treba upoštevati
- Kako se zaščitite pred taktikami dezinformacij?
- Kako drugače lahko vlade in agencije preprečijo širjenje teh taktik?
Insight reference
Za ta vpogled so bile navedene naslednje priljubljene in institucionalne povezave: