Цензура и вештачка интелигенција: Алгоритми који могу поново да примене и обележе цензуру

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Цензура и вештачка интелигенција: Алгоритми који могу поново да примене и обележе цензуру

Цензура и вештачка интелигенција: Алгоритми који могу поново да примене и обележе цензуру

Текст поднаслова
Могућности учења система вештачке интелигенције (АИ) које се развијају могу бити и корист и одвраћање од цензуре.
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • Октобар КСНУМКС, КСНУМКС

    Сажетак увида

    Када је реч о вештачкој интелигенцији (АИ) и цензури, многи стручњаци су забринути због импликација такве технологије на контролу владе. Системи вештачке интелигенције могу бити подложни пристрасности због података који се користе за њихову обуку. Међутим, неке организације такође експериментишу како да користе вештачку интелигенцију за откривање и спречавање цензуре.

    Цензура и контекст вештачке интелигенције

    Алгоритми, које покреће АИ, постају све више под утицајем података на којима су обучени. Међутим, овакав развој догађаја изазива забринутост због потенцијалне злоупотребе система вештачке интелигенције од стране влада или организација. Упечатљив пример овога је употреба вештачке интелигенције од стране кинеске владе за цензуру садржаја на платформама друштвених медија као што су ВеЦхат и Веибо. 

    Насупрот томе, еволуција АИ система такође обећава у одређеним апликацијама, као што су модерирање садржаја и тачно откривање цензурисаних информација. Платформе друштвених медија су на челу коришћења вештачке интелигенције за праћење садржаја објављеног на њиховим серверима, посебно када је реч о идентификацији говора мржње и садржаја који подстичу насиље. На пример, 2019. године, Јутјуб је дао значајну најаву о својој намери да употреби вештачку интелигенцију у идентификацији видео снимака који садрже експлицитно насиље или екстремистички садржај.

    Штавише, до краја 2020. године, Фејсбук је известио да његови алгоритми вештачке интелигенције могу да открију приближно 94.7 одсто говора мржње објављеног на платформи. У овом пејзажу који се брзо развија, кључно је и за креаторе политике и за јавност да буду информисани о двострукој природи утицаја вештачке интелигенције на онлајн садржај. Иако постоји забринутост због његовог потенцијала за цензуру, АИ такође нуди вредне алате за побољшање модерирања садржаја и обезбеђивање безбеднијег онлајн окружења. 

    Ометајући утицај

    Студија Калифорнијског универзитета у Сан Дијегу из 2021. испитала је два одвојена алгоритма вештачке интелигенције да би видела како су оцењивали наслове који садрже специфичне термине. Системи вештачке интелигенције проценили су податке о обуци са кинеске верзије информативног портала Википедија (кинеска Википедија) и Баиду Баике, онлајн енциклопедије. 

    Студија је открила да је алгоритам вештачке интелигенције обучен на кинеској Википедији дао позитивније резултате насловима у којима се помињу термини као што су „избори“ и „слобода“. У међувремену, АИ алгоритам обучен на Баиду Баике-у дао је позитивније оцене насловима који садрже фразе као што су „надзор“ и „друштвена контрола“. Ово откриће изазвало је забринутост међу многим стручњацима о потенцијалу АИ за владину цензуру. 

    Међутим, било је и студија које су се бавиле начином на који АИ може идентификовати покушаје цензуре. Године 2021. Институт за науку података Универзитета у Чикагу и Универзитет Принстон објавили су планове за изградњу алата у реалном времену за праћење и откривање интернет цензуре. Крајњи циљ пројекта је да обезбеди додатне могућности праћења и контролне табле корисницима података—укључујући дипломате, креаторе политике и ненаучнике. Тим планира да има "временску карту" у реалном времену за цензуру, тако да посматрачи могу скоро одмах да виде интернет сметње док се дешавају. Ова функција би укључивала земље и сајтове или садржај којим владе манипулишу.

    Импликације цензуре и вештачке интелигенције

    Шире импликације цензуре и АИ могу укључивати: 

    • Сајбер криминалци хакују цензурне организације да би ухватили и манипулисали цензурисаним информацијама. 
    • Повећана улагања и истраживања за алате који могу открити цензуру и друге манипулације информацијама.
    • Платформе друштвених медија настављају да усавршавају своје алгоритме за модерирање садржаја. Међутим, ово све веће самоконтролисање може удаљити многе кориснике.
    • Пораст неповерења заједнице према владиним званичницима и новинским медијима.
    • Неке националне државе настављају да користе системе вештачке интелигенције за контролу локалних медија и вести, укључујући уклањање прича које су неповољне за одговарајуће владе.
    • Предузећа прилагођавају своје дигиталне стратегије у складу са различитим глобалним интернет прописима, што доводи до више локализованих и сегментираних онлајн услуга.
    • Потрошачи се окрећу алтернативним, децентрализованим платформама како би избегли цензуру, подстичући промену у динамици друштвених медија.
    • Креатори политике широм света боре се са изазовом регулисања вештачке интелигенције у цензури без гушења слободе говора, што доводи до различитих законодавних приступа.

    Питања која треба размотрити

    • Како се другачије АИ може користити за промовисање или спречавање цензуре?
    • Како би пораст цензуре вештачке интелигенције могао даље да шири дезинформације?

    Референце за увид

    Следеће популарне и институционалне везе су референциране за овај увид: