Censura i IA: algorismes que poden reforçar i marcar la censura

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Censura i IA: algorismes que poden reforçar i marcar la censura

Censura i IA: algorismes que poden reforçar i marcar la censura

Text del subtítol
Les capacitats d'aprenentatge en evolució dels sistemes d'intel·ligència artificial (IA) poden ser alhora un benefici i un impediment per a la censura.
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Octubre 31, 2022

    Resum d'informació

    Quan es tracta d'intel·ligència artificial (IA) i censura, molts experts estan preocupats per les implicacions d'aquesta tecnologia pel que fa al control governamental. Els sistemes d'intel·ligència artificial poden ser vulnerables al biaix a causa de les dades utilitzades per entrenar-los. Tanmateix, algunes organitzacions també estan experimentant com utilitzar la IA per detectar i prevenir la censura.

    Context de censura i IA

    Els algorismes, impulsats per IA, es veuen cada cop més influenciats per les dades en què s'entrenen. Tanmateix, aquest desenvolupament genera preocupacions sobre el possible ús indegut dels sistemes d'IA per part dels governs o organitzacions. Un exemple sorprenent d'això és l'ús de l'IA per part del govern xinès per censurar contingut a plataformes de xarxes socials com WeChat i Weibo. 

    Per contra, l'evolució dels sistemes d'IA també és molt prometedora en determinades aplicacions, com la moderació de continguts i la detecció precisa de la informació censurada. Les plataformes de xarxes socials estan a l'avantguarda a l'hora d'aprofitar la IA per supervisar el contingut publicat als seus servidors, especialment quan es tracta d'identificar el discurs d'odi i el contingut que inciti a la violència. Per exemple, el 2019, YouTube va fer un anunci important sobre la seva intenció d'utilitzar IA per identificar vídeos que contenien violència gràfica o contingut extremista.

    A més, a finals de 2020, Facebook va informar que els seus algorismes d'IA podrien detectar aproximadament el 94.7 per cent dels discursos d'odi publicats a la plataforma. En aquest panorama en ràpida evolució, és crucial que tant els responsables polítics com el públic es mantinguin informats sobre la naturalesa dual de l'impacte de l'IA en el contingut en línia. Tot i que hi ha preocupacions sobre el seu potencial de censura, la IA també ofereix eines valuoses per millorar la moderació del contingut i garantir un entorn en línia més segur. 

    Impacte disruptiu

    Un estudi del 2021 de la Universitat de Califòrnia a San Diego va examinar dos algorismes d'IA separats per veure com anotaven els titulars que contenien termes específics. Els sistemes d'IA van avaluar les dades d'entrenament de la versió xinesa del portal d'informació Wikipedia (Viquipèdia en xinès) i Baidu Baike, una enciclopèdia en línia. 

    L'estudi va trobar que l'algoritme d'IA entrenat a la Viquipèdia xinesa va oferir puntuacions més positives als titulars que esmentaven termes com "elecció" i "llibertat". Mentrestant, l'algoritme d'IA entrenat a Baidu Baike va donar puntuacions més positives als titulars que contenien frases com "vigilància" i "control social". Aquesta revelació va provocar la preocupació de molts experts pel potencial de la IA per a la censura del govern. 

    Tanmateix, també hi ha hagut estudis que han estudiat com la IA pot identificar els intents de censura. El 2021, l'Institut de Ciència de Dades de la Universitat de Chicago i la Universitat de Princeton van publicar plans per crear una eina en temps real per controlar i detectar la censura d'Internet. L'objectiu final del projecte és proporcionar capacitats i taulers de control addicionals als usuaris de dades, inclosos diplomàtics, responsables polítics i no científics. L'equip té previst tenir un "mapa meteorològic" en temps real per a la censura, de manera que els observadors puguin veure gairebé immediatament la interferència d'Internet a mesura que succeeix. Aquesta característica inclouria els països i llocs o contingut que els governs estan manipulant.

    Implicacions de la censura i la IA

    Les implicacions més àmplies de la censura i la IA poden incloure: 

    • Els ciberdelinqüents pirategen organitzacions de censura per capturar i manipular informació censurada. 
    • Augment de les inversions i recerca d'eines que puguin detectar la censura i altres manipulacions de la informació.
    • Les plataformes de xarxes socials continuen perfeccionant els seus algorismes per moderar el contingut. Tanmateix, aquest augment de l'autocontrol pot alienar molts usuaris.
    • Augment de la desconfiança de la comunitat cap als funcionaris del govern i els mitjans de comunicació.
    • Alguns estats-nació continuen utilitzant sistemes d'IA per controlar els mitjans locals i les notícies, inclosa l'eliminació d'històries desfavorables per als governs respectius.
    • Empreses que adapten les seves estratègies digitals per complir amb diverses regulacions globals d'Internet, donant lloc a serveis en línia més localitzats i segmentats.
    • Els consumidors recorren a plataformes alternatives i descentralitzades per evitar la censura, fomentant un canvi en la dinàmica de les xarxes socials.
    • Els responsables polítics de tot el món s'enfronten al repte de regular la IA en la censura sense sufocar la llibertat d'expressió, cosa que condueix a enfocaments legislatius variats.

    Preguntes a tenir en compte

    • Com es pot utilitzar la IA per promoure o prevenir la censura?
    • Com podria l'augment de la censura de la IA difondre encara més la desinformació?

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: