Цифровая цензура в Китае — это не статичная проблема, а постоянно адаптирующаяся система. Недавние исследования подтверждают, что китайские модели искусственного интеллекта (ИИ) активно самоцензурируют себя в гораздо большей степени, чем их американские аналоги, что демонстрирует, как правительство поддерживает контроль над развивающимися технологиями. Исследование ученых Стэнфордского и Принстонского университетов сравнило ответы четырех китайских и пяти американских больших языковых моделей (LLM), которым было задано 145 политически чувствительных вопросов, повторенных 100 раз для обеспечения надежности.
Количественно измеримая цензура
Результаты были поразительными: китайские модели отказались отвечать на значительно больший процент вопросов. Например, DeepSeek отклонил 36% запросов, а Ernie Bot от Baidu – 32%. В отличие от этого, у OpenAI GPT и Llama от Meta процент отказов составлял менее 3%. Когда китайские модели все же отвечали, их ответы были короче и менее точными, чем ответы американских моделей. Это не просто разница в обучающих данных; цензура намеренная.
Источник предвзятости: обучающие данные против вмешательства
Исследователи изучили, связано ли это смещение с предварительным обучением на цензурированных китайских интернет-данных или с прямым вмешательством разработчиков. Дженнифер Пэн, профессор политических наук Стэнфордского университета, объясняет: «Учитывая, что китайский интернет цензурируется десятилетиями, там много недостающих данных». Однако даже при тестировании на английском языке, где обучающие данные теоретически более разнообразны, китайские LLM по-прежнему проявляли больше цензуры, что указывает на ключевую роль ручного вмешательства.
Иллюзия честности: галлюцинации и ложь
Одна из сложностей изучения цензуры ИИ заключается в том, чтобы отличить откровенную ложь от «галлюцинаций», когда модель выдумывает информацию, потому что не знает ответа. Например, на вопрос о Лю Сяобо, китайском диссиденте, одна из моделей ложно заявила, что он японский ученый, специализирующийся на ядерном оружии. Неясно, было ли это намеренным введением в заблуждение или результатом отсутствия данных в его наборе обучения. Пэн отмечает, что менее заметная цензура часто наиболее эффективна.
Извлечение скрытых инструкций
Исследователи также разрабатывают методы извлечения скрытых инструкций, управляющих поведением этих моделей. Алекс Колвилл, изучающий пропаганду ИИ в China Media Project, обнаружил, что запросы могут заставить Qwen от Alibaba раскрыть свои основные принципы. Qwen последовательно признавал, что ему было предписано «сосредоточиться на достижениях Китая» и «избегать негативных высказываний». Эта тонкая манипуляция гарантирует, что даже когда модель отвечает, она делает это в рамках предварительно утвержденных параметров.
Гонка со временем
Область исследований цензуры ИИ все еще нова и сталкивается со значительными препятствиями: исследователи рискуют потерять доступ к моделям за слишком большое количество чувствительных вопросов, и продвинутые модели требуют значительных вычислительных ресурсов для тестирования. Самое главное, что быстрые темпы развития моделей означают, что любые выводы, вероятно, быстро устареют.
Текущий фокус на безопасности ИИ смещен в сторону будущих рисков, а не тех опасностей, которые уже присутствуют в системах, работающих в цифровом ландшафте Китая.
Исследование подчеркивает, что цензура ИИ — это не теоретическая проблема, а активная практика. Выводы подчеркивают необходимость дальнейших исследований методов, используемых для манипулирования этими моделями, и более широких последствий для глобального информационного контроля.






























