Chatbots de IA chineses: autocensura e o controle digital em evolução

10

A censura digital na China não é uma questão estática; é um sistema em constante adaptação. Uma investigação recente confirma que os modelos chineses de inteligência artificial (IA) autocensuram activamente, numa extensão muito maior do que os seus homólogos americanos, revelando como o governo mantém o controlo sobre as tecnologias emergentes. Um estudo realizado por pesquisadores das Universidades de Stanford e Princeton comparou as respostas de quatro modelos de grandes línguas (LLMs) chineses e cinco americanos quando respondidas a 145 perguntas politicamente sensíveis, repetidas 100 vezes para garantir a confiabilidade.

Censura quantificável

Os resultados foram contundentes: os modelos chineses recusaram-se a responder a uma percentagem significativamente maior de perguntas. Por exemplo, DeepSeek rejeitou 36% das solicitações, enquanto Ernie Bot do Baidu recusou 32%. Em contraste, o GPT da OpenAI e o Llama da Meta tiveram taxas de recusa abaixo de 3%. Quando os modelos chineses responderam, as suas respostas foram mais curtas e menos precisas do que as dos modelos americanos. Isto não é apenas uma diferença nos dados de treinamento; a censura é deliberada.

A fonte do preconceito: dados de treinamento versus intervenção

Os pesquisadores investigaram se esse viés resultou do pré-treinamento em dados censurados da Internet chinesa ou da intervenção direta do desenvolvedor. Jennifer Pan, professora de ciências políticas de Stanford, explica que “dado que a Internet chinesa já é censurada há décadas, há muitos dados em falta”. No entanto, mesmo quando testados em inglês – onde os dados de formação seriam teoricamente mais diversificados – os LLMs chineses ainda exibiam mais censura, sugerindo que a intervenção manual desempenha um papel fundamental.

A Ilusão da Honestidade: Alucinações e Mentiras

Um desafio no estudo da censura da IA é distinguir entre mentiras descaradas e “alucinações” – onde o modelo fabrica informações porque não sabe a resposta. Por exemplo, quando questionado sobre Liu Xiaobo, um dissidente chinês, um modelo alegou falsamente que ele era um cientista japonês especializado em armas nucleares. Não está claro se isso foi um desvio intencional ou resultado da falta de dados em seu conjunto de treinamento. Pan observa que a censura menos detectável é muitas vezes a mais eficaz.

Extraindo instruções ocultas

Os pesquisadores também estão desenvolvendo métodos para extrair as instruções ocultas que governam o comportamento desses modelos. Alex Colville, que estuda propaganda de IA no China Media Project, descobriu que as solicitações podem forçar o Qwen da Alibaba a revelar as suas diretrizes subjacentes. Qwen admitiu consistentemente ter sido instruído a “concentrar-se nas conquistas da China” e “evitar declarações negativas”. Essa manipulação sutil garante que mesmo quando o modelo responder, ele o fará dentro de parâmetros pré-aprovados.

A corrida contra o tempo

O campo da investigação sobre censura em IA ainda é jovem e enfrenta obstáculos significativos: os investigadores correm o risco de perder o acesso aos modelos por colocarem demasiadas questões sensíveis, e os modelos avançados exigem recursos computacionais consideráveis para testes. Mais importante ainda, o ritmo rápido de desenvolvimento do modelo significa que quaisquer conclusões provavelmente ficarão desatualizadas rapidamente.

O foco atual na segurança da IA ​​está direcionado para riscos futuros, e não para os perigos já presentes em sistemas como os que operam no cenário digital da China.

O estudo sublinha que a censura da IA ​​não é uma preocupação teórica, mas uma prática ativa. As conclusões destacam a necessidade de mais investigação sobre os métodos utilizados para manipular estes modelos e as implicações mais amplas para o controlo global da informação.