La censura digital en China no es una cuestión estática; es un sistema en constante adaptación. Investigaciones recientes confirman que los modelos chinos de inteligencia artificial (IA) se autocensuran activamente en un grado mucho mayor que sus homólogos estadounidenses, lo que revela cómo el gobierno mantiene el control sobre las tecnologías emergentes. Un estudio realizado por investigadores de la Universidad de Stanford y Princeton comparó las respuestas de cuatro modelos de lenguaje grande (LLM) chinos y cinco estadounidenses cuando se les hicieron 145 preguntas políticamente sensibles, repetidas 100 veces para garantizar la confiabilidad.
Censura cuantificable
Los resultados fueron contundentes: los modelos chinos se negaron a responder un porcentaje significativamente mayor de preguntas. Por ejemplo, DeepSeek rechazó el 36% de las solicitudes, mientras que Ernie Bot de Baidu rechazó el 32%. Por el contrario, GPT de OpenAI y Llama de Meta tuvieron tasas de rechazo inferiores al 3%. Cuando los modelos chinos respondieron, sus respuestas fueron más breves y menos precisas que las de los modelos estadounidenses. Esto no es simplemente una diferencia en los datos de entrenamiento; La censura es deliberada.
La fuente del sesgo: datos de capacitación versus intervención
Los investigadores investigaron si este sesgo se debía a una capacitación previa sobre datos de Internet chinos censurados o a la intervención directa de los desarrolladores. Jennifer Pan, profesora de ciencias políticas de Stanford, explica que “dado que Internet en China ya ha sido censurada durante décadas, faltan muchos datos”. Sin embargo, incluso cuando se probaron en inglés (donde, en teoría, los datos de capacitación serían más diversos), los LLM chinos aún exhibieron más censura, lo que sugiere que la intervención manual juega un papel clave.
La ilusión de la honestidad: alucinaciones y mentiras
Un desafío al estudiar la censura de la IA es distinguir entre mentiras descaradas y “alucinaciones”, donde el modelo fabrica información porque no sabe la respuesta. Por ejemplo, cuando se le preguntó sobre Liu Xiaobo, un disidente chino, un modelo afirmó falsamente que era un científico japonés especializado en armas nucleares. No está claro si esto fue una mala dirección intencional o el resultado de la falta de datos en su conjunto de entrenamiento. Pan señala que una censura menos detectable suele ser la más eficaz.
Extrayendo instrucciones ocultas
Los investigadores también están desarrollando métodos para extraer las instrucciones ocultas que gobiernan el comportamiento de estos modelos. Alex Colville, que estudia la propaganda de IA en el China Media Project, descubrió que las indicaciones pueden obligar a Qwen de Alibaba a revelar sus directrices subyacentes. Qwen admitió constantemente haber recibido instrucciones de “centrarse en los logros de China” y “evitar declaraciones negativas”. Esta sutil manipulación garantiza que incluso cuando el modelo responda, lo haga dentro de los parámetros previamente aprobados.
La carrera contra el tiempo
El campo de la investigación sobre la censura de la IA aún es joven y enfrenta obstáculos importantes: los investigadores corren el riesgo de perder el acceso a los modelos por hacer demasiadas preguntas delicadas, y los modelos avanzados exigen recursos computacionales considerables para las pruebas. Lo más importante es que el rápido ritmo de desarrollo del modelo significa que es probable que cualquier conclusión quede obsoleta rápidamente.
El enfoque actual en la seguridad de la IA está sesgado hacia los riesgos futuros, en lugar de los peligros ya presentes en sistemas como los que operan dentro del panorama digital de China.
El estudio subraya que la censura de la IA no es una preocupación teórica, sino una práctica activa. Los hallazgos resaltan la necesidad de realizar más investigaciones sobre los métodos utilizados para manipular estos modelos y las implicaciones más amplias para el control global de la información.
