Тактики за разпространение на дезинформация: Как се нахлува в човешкия мозък

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Тактики за разпространение на дезинформация: Как се нахлува в човешкия мозък

Тактики за разпространение на дезинформация: Как се нахлува в човешкия мозък

Подзаглавен текст
От използването на ботове до наводняването на социалните медии с фалшиви новини, тактиките за дезинформация променят курса на човешката цивилизация.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Октомври 4, 2023

    Резюме на прозрението

    Дезинформацията се разпространява чрез тактики като модела на заразяване и криптирани приложения. Групи като Ghostwriter са насочени към войските на НАТО и САЩ, докато AI манипулира общественото мнение. Хората често се доверяват на познати източници, което ги прави податливи на невярна информация. Това може да доведе до повече кампании за дезинформация, базирани на AI, по-строги правителствени регулации, увеличено използване на криптирани приложения от екстремисти, повишена киберсигурност в медиите и образователни курсове за борба с дезинформацията.

    Тактики за разпространение на дезинформационен контекст

    Тактиките за дезинформация са инструменти и стратегии, които често се прилагат в сайтовете за социални мрежи, създавайки пандемия от фалшиви вярвания. Тази манипулация на информация доведе до широко разпространено неразбиране по теми, вариращи от измама на гласоподаватели до това дали насилствените атаки са реални (напр. стрелбата в началното училище Санди Хук) или дали ваксините са безопасни. Тъй като фалшивите новини продължават да се споделят в различни платформи, те създадоха дълбоко недоверие към социални институции като медиите. Една теория за това как се разпространява подвеждаща информация се нарича модел на заразяване, който се основава на това как работят компютърните вируси. Мрежата се създава от възли, които представляват хора, и ръбове, които символизират социални връзки. Една концепция се заражда в един „ум“ и се разпространява при различни условия и в зависимост от социалните взаимоотношения.

    Не помага, че технологията и нарастващата цифровизация на обществото помагат да се направят тактиките за дезинформация по-ефективни от всякога. Пример са приложенията за криптирани съобщения (EMA), които не само улесняват споделянето на невярна информация с лични контакти, но също така правят невъзможно компаниите за приложения да проследяват съобщенията, които се споделят. Например крайнодесни групи се прехвърлиха към EMA след атаката на Капитолия в САЩ през януари 2021 г., тъй като основните социални медийни платформи като Twitter ги забраниха. Тактиките за дезинформация имат незабавни и дългосрочни последици. Освен избори, където съмнителни личности с криминално досие печелят чрез ферми за тролове, те могат да маргинализират малцинствата и да улеснят пропагандата на войната (напр. нахлуването на Русия в Украйна). 

    Разрушително въздействие

    През 2020 г. компанията за сигурност FireEye публикува доклад, подчертаващ усилията за дезинформация на група хакери, наречени Ghostwriter. От март 2017 г. пропагандистите разпространяват лъжи, особено срещу военния алианс Организацията на Северноатлантическия договор (НАТО) и американските войски в Полша и Балтика. Те са публикували фалшифицирани материали в социалните медии и проруски новинарски сайтове. Ghostwriter понякога е използвал по-агресивен подход: хакване на системите за управление на съдържанието (CMS) на новинарски уебсайтове, за да публикуват свои собствени истории. След това групата разпространява своите фалшиви новини, използвайки фалшиви имейли, публикации в социалните медии и дори коментари, написани от тях на други сайтове, които приемат съдържание от читатели.

    Друга тактика за дезинформация използва алгоритми и изкуствен интелект (AI) за манипулиране на общественото мнение в социалните медии, като например „увеличаване“ на последователите в социалните медии чрез ботове или създаване на автоматизирани тролски акаунти за публикуване на омразни коментари. Експертите наричат ​​това изчислителна пропаганда. Междувременно проучване на The New York Times откри, че политиците използват имейл за разпространение на дезинформация по-често, отколкото хората осъзнават. В САЩ и двете страни са виновни за използването на хипербола в имейлите си до избирателите, което често може да насърчи споделянето на невярна информация. 

    Има няколко ключови причини, поради които хората се поддават на кампании за дезинформация. 

    • Първо, хората са социални учещи и са склонни да се доверяват на своите източници на информация като приятели или членове на семейството. Тези хора от своя страна получават своите новини от доверени приятели, което затруднява прекъсването на този цикъл. 
    • Второ, хората често не успяват да проверят проактивно информацията, която консумират, особено ако са свикнали да получават новините си от един източник (често традиционни медии или любимите им социални медии платформи като Facebook или Twitter). Когато видят заглавие или изображение (и дори само брандиране), което подкрепя техните вярвания, те често не поставят под въпрос автентичността на тези твърдения (колкото и нелепо да е). 
    • Ехо камерите са мощни инструменти за дезинформация, които автоматично превръщат хората с противоположни вярвания във враг. Човешкият мозък е устроен да търси информация, която подкрепя съществуващите идеи, и да отхвърля информация, която им противоречи.

    По-широки последици от тактиката за разпространение на дезинформация

    Възможните последици от тактиката за разпространение на дезинформация може да включват: 

    • Повече компании, специализирани в AI и ботове, за да помогнат на политици и пропагандисти да спечелят последователи и „достоверност“ чрез хитри кампании за дезинформация.
    • Правителствата са под натиск да създадат закони срещу дезинформацията и агенции за борба с фермите за тролове и стратезите за дезинформация.
    • Увеличаване на изтеглянията на EMA за екстремистки групи, които искат да разпространяват пропаганда и да съсипят репутация.
    • Медийни сайтове, инвестиращи в скъпи решения за киберсигурност, за да попречат на хакерите с дезинформация да поставят фалшиви новини в техните системи. В този процес на модериране могат да се използват нови генеративни AI решения.
    • Генеративните работещи с изкуствен интелект ботове могат да бъдат използвани от лоши актьори, за да произведат вълна от пропагандно и дезинформационно медийно съдържание в мащаб.
    • Повишен натиск върху университетите и обществените училища да включват курсове за борба с дезинформацията. 

    Въпроси за разглеждане

    • Как се предпазвате от тактики за дезинформация?
    • Как иначе правителствата и агенциите могат да предотвратят разпространението на тези тактики?