Censura e IA: Algoritmos que podem reforçar e sinalizar a censura

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Censura e IA: Algoritmos que podem reforçar e sinalizar a censura

Censura e IA: Algoritmos que podem reforçar e sinalizar a censura

Texto do subtítulo
As capacidades de aprendizagem em evolução dos sistemas de inteligência artificial (IA) podem ser tanto um benefício quanto um impedimento à censura.
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 31 de outubro de 2022

    Resumo do insight

    Quando se trata de inteligência artificial (IA) e censura, muitos especialistas estão preocupados com as implicações dessa tecnologia no que diz respeito ao controle governamental. Os sistemas de inteligência artificial podem ser vulneráveis ​​a preconceitos devido aos dados utilizados para os treinar. No entanto, algumas organizações também estão experimentando como usar a IA para detectar e prevenir a censura.

    Contexto de censura e IA

    Os algoritmos, alimentados pela IA, estão a tornar-se cada vez mais influenciados pelos dados em que são treinados. No entanto, este desenvolvimento levanta preocupações sobre o potencial uso indevido de sistemas de IA por governos ou organizações. Um exemplo notável disso é o uso de IA pelo governo chinês para censurar conteúdo em plataformas de mídia social como WeChat e Weibo. 

    Por outro lado, a evolução dos sistemas de IA também é uma grande promessa em certas aplicações, como a moderação de conteúdos e a detecção precisa de informações censuradas. As plataformas de redes sociais estão na vanguarda da utilização da IA ​​para monitorizar o conteúdo publicado nos seus servidores, especialmente quando se trata de identificar discurso de ódio e conteúdos que incitam à violência. Por exemplo, em 2019, o YouTube fez um anúncio significativo sobre a sua intenção de empregar IA na identificação de vídeos que contenham violência gráfica ou conteúdo extremista.

    Além disso, no final de 2020, o Facebook informou que os seus algoritmos de IA conseguiam detectar aproximadamente 94.7% dos discursos de ódio publicados na plataforma. Neste cenário em rápida evolução, é crucial que tanto os decisores políticos como o público se mantenham informados sobre a dupla natureza do impacto da IA ​​nos conteúdos online. Embora existam preocupações sobre o seu potencial de censura, a IA também oferece ferramentas valiosas para melhorar a moderação de conteúdos e garantir um ambiente online mais seguro. 

    Impacto disruptivo

    Um estudo de 2021 da Universidade da Califórnia em San Diego examinou dois algoritmos de IA separados para ver como eles pontuavam manchetes contendo termos específicos. Os sistemas de IA avaliaram os dados de treinamento da versão chinesa do portal de informações Wikipedia (Wikipédia chinesa) e da Baidu Baike, uma enciclopédia online. 

    O estudo descobriu que o algoritmo de IA treinado na Wikipedia chinesa forneceu pontuações mais positivas para manchetes que mencionavam termos como “eleição” e “liberdade”. Enquanto isso, o algoritmo de IA treinado no Baidu Baike deu pontuações mais positivas para manchetes contendo frases como “vigilância” e “controle social”. Essa revelação despertou preocupação entre muitos especialistas sobre o potencial da IA ​​para censura do governo. 

    No entanto, também houve estudos que analisaram como a IA pode identificar tentativas de censura. Em 2021, o Instituto de Ciência de Dados da Universidade de Chicago e a Universidade de Princeton divulgaram planos para construir uma ferramenta em tempo real para monitorar e detectar a censura na Internet. O objetivo final do projeto é fornecer recursos adicionais de monitoramento e painéis para usuários de dados, incluindo diplomatas, formuladores de políticas e não cientistas. A equipe planeja ter um “mapa meteorológico” em tempo real para censura, de modo que os observadores possam ver quase imediatamente a interferência da Internet à medida que ela ocorre. Esse recurso incluiria os países e sites ou conteúdo que os governos estão manipulando.

    Implicações da censura e da IA

    Implicações mais amplas de censura e IA podem incluir: 

    • Cibercriminosos hackeando organizações de censura para capturar e manipular informações censuradas. 
    • Aumento de investimentos e pesquisa de ferramentas que possam detectar censura e outras manipulações de informações.
    • As plataformas de mídia social continuam a aperfeiçoar seus algoritmos para moderar o conteúdo. No entanto, esse autopoliciamento crescente pode afastar muitos usuários.
    • Um aumento na desconfiança da comunidade em relação aos funcionários do governo e aos meios de comunicação.
    • Os sistemas de IA continuam a ser usados ​​por alguns estados-nação para controlar a mídia e notícias locais, incluindo a remoção de histórias desfavoráveis ​​aos respectivos governos.
    • As empresas adaptam as suas estratégias digitais para cumprir as diversas regulamentações globais da Internet, resultando em serviços online mais localizados e segmentados.
    • Os consumidores recorrem a plataformas alternativas e descentralizadas para evitar a censura, promovendo uma mudança na dinâmica das redes sociais.
    • Os decisores políticos em todo o mundo enfrentam o desafio de regulamentar a IA na censura sem sufocar a liberdade de expressão, o que leva a abordagens legislativas variadas.

    Questões a considerar

    • De que outra forma a IA pode ser usada para promover ou impedir a censura?
    • Como o aumento da censura da IA ​​pode disseminar ainda mais a desinformação?

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção: