Cenzura i sztuczna inteligencja: algorytmy, które mogą ponownie egzekwować i oznaczać cenzurę

KREDYT WZROKU:
Image credit
iStock

Cenzura i sztuczna inteligencja: algorytmy, które mogą ponownie egzekwować i oznaczać cenzurę

Cenzura i sztuczna inteligencja: algorytmy, które mogą ponownie egzekwować i oznaczać cenzurę

Tekst podtytułu
Ewoluujące możliwości uczenia się systemów sztucznej inteligencji (AI) mogą być zarówno korzyścią, jak i zniechęceniem do cenzury.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 31 października 2022 r.

    Podsumowanie spostrzeżeń

    Jeśli chodzi o sztuczną inteligencję (AI) i cenzurę, wielu ekspertów jest zaniepokojonych konsekwencjami takiej technologii dla kontroli rządu. Systemy sztucznej inteligencji mogą być podatne na stronniczość ze względu na dane wykorzystywane do ich szkolenia. Jednak niektóre organizacje eksperymentują również z wykorzystaniem sztucznej inteligencji do wykrywania cenzury i zapobiegania jej.

    Kontekst cenzury i AI

    Na algorytmy oparte na sztucznej inteligencji w coraz większym stopniu wpływają dane, na których są trenowane. Rozwój ten budzi jednak obawy dotyczące potencjalnego niewłaściwego wykorzystania systemów sztucznej inteligencji przez rządy lub organizacje. Uderzającym tego przykładem jest wykorzystanie sztucznej inteligencji przez chiński rząd do cenzurowania treści na platformach mediów społecznościowych, takich jak WeChat i Weibo. 

    Z drugiej strony ewolucja systemów sztucznej inteligencji jest również bardzo obiecująca w niektórych zastosowaniach, takich jak moderowanie treści i dokładne wykrywanie ocenzurowanych informacji. Platformy mediów społecznościowych przodują w wykorzystywaniu sztucznej inteligencji do monitorowania treści zamieszczanych na ich serwerach, szczególnie jeśli chodzi o identyfikowanie mowy nienawiści i treści nawołujących do przemocy. Na przykład w 2019 r. YouTube ogłosił w znaczący sposób zamiar wykorzystania sztucznej inteligencji do identyfikowania filmów zawierających drastyczną przemoc lub treści ekstremistyczne.

    Co więcej, do końca 2020 r. Facebook poinformował, że jego algorytmy sztucznej inteligencji potrafią wykryć około 94.7% mowy nienawiści publikowanej na platformie. W tym szybko zmieniającym się krajobrazie zarówno decydenci, jak i społeczeństwo mają kluczowe znaczenie, aby być na bieżąco z podwójnym charakterem wpływu sztucznej inteligencji na treści online. Chociaż istnieją obawy dotyczące jej potencjału cenzury, sztuczna inteligencja oferuje również cenne narzędzia usprawniające moderowanie treści i zapewnianie bezpieczniejszego środowiska online. 

    Zakłócający wpływ

    W badaniu przeprowadzonym w 2021 r. przez University of California San Diego zbadano dwa oddzielne algorytmy sztucznej inteligencji, aby zobaczyć, w jaki sposób oceniają nagłówki zawierające określone terminy. Systemy sztucznej inteligencji oceniły dane treningowe z chińskiej wersji portalu informacyjnego Wikipedia (chińska Wikipedia) oraz Baidu Baike, internetowej encyklopedii. 

    Badanie wykazało, że algorytm sztucznej inteligencji wyszkolony na chińskiej Wikipedii dostarczył więcej pozytywnych wyników nagłówkom, które wymieniały terminy takie jak „wybory” i „wolność”. Tymczasem algorytm sztucznej inteligencji wyszkolony na Baidu Baike dał więcej pozytywnych wyników nagłówkom zawierającym frazy takie jak „nadzór” i „kontrola społeczna”. To odkrycie wywołało zaniepokojenie wśród wielu ekspertów potencjałem sztucznej inteligencji dla rządowej cenzury. 

    Istnieją jednak również badania, w których analizowano, w jaki sposób sztuczna inteligencja może identyfikować próby cenzury. W 2021 r. Data Science Institute i Princeton University z University of Chicago opublikowały plany zbudowania narzędzia do monitorowania i wykrywania cenzury w Internecie w czasie rzeczywistym. Ostatecznym celem projektu jest zapewnienie dodatkowych możliwości monitorowania i pulpitów nawigacyjnych użytkownikom danych — w tym dyplomatom, decydentom i osobom nie będącym naukowcami. Zespół planuje mieć „mapę pogody” w czasie rzeczywistym dla cenzury, aby obserwatorzy mogli niemal natychmiast zobaczyć zakłócenia w Internecie, gdy to się dzieje. Ta funkcja obejmowałaby kraje i witryny lub treści, którymi manipulują rządy.

    Implikacje cenzury i AI

    Szersze implikacje cenzury i sztucznej inteligencji mogą obejmować: 

    • Cyberprzestępcy hakujący organizacje cenzurujące w celu przechwytywania i manipulowania cenzurowanymi informacjami. 
    • Zwiększone inwestycje i badania nad narzędziami, które mogą wykrywać cenzurę i inne manipulacje informacjami.
    • Platformy mediów społecznościowych nadal doskonalą swoje algorytmy do moderowania treści. Jednak ta rosnąca samokontrola może zrazić wielu użytkowników.
    • Wzrost nieufności społeczności wobec urzędników państwowych i mediów informacyjnych.
    • Systemy sztucznej inteligencji są nadal wykorzystywane przez niektóre państwa narodowe do kontrolowania lokalnych mediów i wiadomości, w tym usuwania historii niekorzystnych dla odpowiednich rządów.
    • Firmy dostosowują swoje strategie cyfrowe do zróżnicowanych globalnych przepisów internetowych, co prowadzi do bardziej zlokalizowanych i podzielonych na segmenty usług online.
    • Konsumenci zwracają się ku alternatywnym, zdecentralizowanym platformom, aby uniknąć cenzury, co sprzyja zmianie dynamiki mediów społecznościowych.
    • Decydenci na całym świecie zmagają się z wyzwaniem, jakim jest uregulowanie sztucznej inteligencji w ramach cenzury bez tłumienia wolności słowa, co prowadzi do różnorodnych podejść legislacyjnych.

    Pytania do rozważenia

    • Jak jeszcze można wykorzystać sztuczną inteligencję do promowania lub zapobiegania cenzurze?
    • W jaki sposób wzrost cenzury AI może dalej rozpowszechniać dezinformację?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: