Chatbot AI Tiongkok: Sensor Mandiri dan Kontrol Digital yang Berkembang

8

Sensor digital di Tiongkok bukanlah isu statis; ini adalah sistem yang terus beradaptasi. Penelitian terbaru menegaskan bahwa model kecerdasan buatan (AI) Tiongkok secara aktif melakukan sensor mandiri jauh lebih besar dibandingkan model kecerdasan buatan Amerika, sehingga menunjukkan bagaimana pemerintah mempertahankan kendali atas teknologi-teknologi baru. Sebuah studi yang dilakukan oleh peneliti Universitas Stanford dan Princeton membandingkan respons empat model bahasa besar (LLM) Tiongkok dan lima model bahasa besar Amerika ketika ditanya 145 pertanyaan sensitif secara politik, yang diulangi 100 kali untuk memastikan keandalannya.

Sensor yang Dapat Dikuantifikasi

Hasilnya sangat mencolok: model di Tiongkok menolak menjawab persentase pertanyaan yang jauh lebih tinggi. Misalnya, DeepSeek menolak 36% permintaan, sedangkan Ernie Bot dari Baidu menolak 32%. Sebaliknya, GPT OpenAI dan Llama Meta memiliki tingkat penolakan di bawah 3%. Ketika model Tiongkok melakukan respons, jawaban mereka lebih pendek dan kurang akurat dibandingkan model Amerika. Ini bukan hanya perbedaan dalam data pelatihan; sensor itu disengaja.

Sumber Bias: Data Pelatihan vs. Intervensi

Para peneliti menyelidiki apakah bias ini berasal dari pra-pelatihan tentang data internet Tiongkok yang disensor atau dari intervensi langsung pengembang. Jennifer Pan, seorang profesor ilmu politik di Stanford, menjelaskan bahwa “mengingat internet Tiongkok telah disensor selama beberapa dekade, ada banyak data yang hilang.” Namun, bahkan ketika diuji dalam bahasa Inggris—dimana data pelatihan secara teoritis akan lebih beragam—LLM Tiongkok masih menunjukkan lebih banyak sensor, sehingga menunjukkan bahwa intervensi manual memainkan peran kunci.

Ilusi Kejujuran: Halusinasi dan Kebohongan

Salah satu tantangan dalam mempelajari sensor AI adalah membedakan antara kebohongan dan “halusinasi”—di mana model mengarang informasi karena tidak mengetahui jawabannya. Misalnya, ketika ditanya tentang Liu Xiaobo, seorang pembangkang Tiongkok, salah satu model secara keliru menyatakan bahwa ia adalah seorang ilmuwan Jepang yang berspesialisasi dalam senjata nuklir. Tidak jelas apakah ini merupakan penyesatan yang disengaja atau akibat hilangnya data dari rangkaian pelatihannya. Pan mencatat bahwa sensor yang kurang terdeteksi seringkali merupakan cara yang paling efektif.

Mengekstrak Instruksi Tersembunyi

Para peneliti juga mengembangkan metode untuk mengekstraksi instruksi tersembunyi yang mengatur perilaku model ini. Alex Colville, yang mempelajari propaganda AI di China Media Project, menemukan bahwa petunjuk dapat memaksa Qwen dari Alibaba untuk mengungkapkan pedoman yang mendasarinya. Qwen secara konsisten mengaku diinstruksikan untuk “fokus pada pencapaian Tiongkok” dan “menghindari pernyataan negatif.” Manipulasi halus ini memastikan bahwa meskipun model menjawab, model tersebut melakukannya dalam parameter yang telah disetujui sebelumnya.

Perlombaan Melawan Waktu

Bidang penelitian sensor AI masih tergolong baru dan menghadapi tantangan besar: peneliti berisiko kehilangan akses terhadap model karena mengajukan terlalu banyak pertanyaan sensitif, dan model tingkat lanjut memerlukan sumber daya komputasi yang besar untuk pengujian. Yang terpenting, pesatnya perkembangan model berarti bahwa kesimpulan apa pun kemungkinan besar akan cepat ketinggalan jaman.

Fokus pada keselamatan AI saat ini lebih condong pada risiko di masa depan, dibandingkan bahaya yang sudah ada dalam sistem seperti yang beroperasi di lanskap digital Tiongkok.

Studi ini menggarisbawahi bahwa sensor AI bukanlah sebuah permasalahan teoretis, namun sebuah praktik aktif. Temuan ini menyoroti perlunya penelitian lebih lanjut mengenai metode yang digunakan untuk memanipulasi model ini dan implikasi yang lebih luas terhadap pengendalian informasi global.