Digitale Zensur in China ist kein statisches Thema; Es ist ein sich ständig anpassendes System. Jüngste Untersuchungen bestätigen, dass chinesische Modelle der künstlichen Intelligenz (KI) sich in weitaus größerem Maße aktiv selbst zensieren als ihre amerikanischen Pendants und zeigen, wie die Regierung die Kontrolle über neue Technologien behält. In einer Studie von Forschern der Stanford University und der Princeton University wurden die Antworten von vier chinesischen und fünf amerikanischen Large Language Models (LLMs) auf 145 politisch sensible Fragen verglichen, die 100 Mal wiederholt wurden, um die Zuverlässigkeit sicherzustellen.
Quantifizierbare Zensur
Die Ergebnisse waren deutlich: Chinesische Models weigerten sich, einen deutlich höheren Prozentsatz der Fragen zu beantworten. Beispielsweise lehnte DeepSeek 36 % der Eingabeaufforderungen ab, während Ernie Bot von Baidu 32 % ablehnte. Im Gegensatz dazu wiesen GPT von OpenAI und Llama von Meta Ablehnungsraten unter 3 % auf. Wenn chinesische Models tatsächlich antworteten, waren ihre Antworten kürzer und ungenauer als die der amerikanischen Models. Dies ist nicht nur ein Unterschied in den Trainingsdaten; Die Zensur ist absichtlich.
Die Quelle der Verzerrung: Trainingsdaten vs. Intervention
Die Forscher untersuchten, ob diese Tendenz auf ein Vortraining mit zensierten chinesischen Internetdaten oder auf direkte Eingriffe der Entwickler zurückzuführen ist. Jennifer Pan, Professorin für Politikwissenschaften an der Stanford University, erklärt: „Angesichts der Tatsache, dass das chinesische Internet bereits seit Jahrzehnten zensiert wird, fehlen viele Daten.“ Doch selbst bei Tests auf Englisch – wo die Trainingsdaten theoretisch vielfältiger wären – wiesen chinesische LLMs immer noch mehr Zensur auf, was darauf hindeutet, dass manuelle Eingriffe eine Schlüsselrolle spielen.
Die Illusion der Ehrlichkeit: Halluzinationen und Lügen
Eine Herausforderung bei der Untersuchung der KI-Zensur besteht darin, zwischen offenen Lügen und „Halluzinationen“ zu unterscheiden – bei denen das Modell Informationen fabriziert, weil es die Antwort nicht kennt. Als beispielsweise ein Model nach Liu Xiaobo, einem chinesischen Dissidenten, gefragt wurde, behauptete es fälschlicherweise, er sei ein japanischer Wissenschaftler, der sich auf Atomwaffen spezialisiert habe. Es ist unklar, ob es sich hierbei um eine absichtliche Fehlleitung oder um fehlende Daten im Trainingssatz handelte. Pan weist darauf hin, dass eine weniger erkennbare Zensur oft am effektivsten ist.
Verborgene Anweisungen extrahieren
Forscher entwickeln außerdem Methoden, um die verborgenen Anweisungen zu extrahieren, die das Verhalten dieser Modelle steuern. Alex Colville, der am China Media Project KI-Propaganda untersuchte, fand heraus, dass Aufforderungen Alibabas Qwen dazu zwingen können, seine zugrunde liegenden Richtlinien preiszugeben. Qwen gab immer wieder zu, angewiesen worden zu sein, sich „auf Chinas Errungenschaften zu konzentrieren“ und „negative Aussagen zu vermeiden“. Diese subtile Manipulation stellt sicher, dass das Modell, selbst wenn es antwortet, dies innerhalb vorab genehmigter Parameter tut.
Der Wettlauf gegen die Zeit
Der Bereich der KI-Zensurforschung ist noch jung und steht vor erheblichen Hürden: Forscher riskieren, den Zugang zu Modellen zu verlieren, weil sie zu viele sensible Fragen stellen, und fortgeschrittene Modelle erfordern erhebliche Rechenressourcen für Tests. Am wichtigsten ist, dass aufgrund des schnellen Tempos der Modellentwicklung die Schlussfolgerungen wahrscheinlich schnell überholt sind.
Der aktuelle Fokus auf KI-Sicherheit ist auf zukünftige Risiken ausgerichtet und nicht auf die Gefahren, die bereits in Systemen wie denen in Chinas digitaler Landschaft bestehen.
Die Studie unterstreicht, dass KI-Zensur kein theoretisches Anliegen, sondern eine aktive Praxis ist. Die Ergebnisse unterstreichen den Bedarf an weiterer Forschung zu den Methoden zur Manipulation dieser Modelle und den umfassenderen Auswirkungen auf die globale Informationskontrolle.





























