La censura digitale in Cina non è una questione statica; è un sistema in costante adattamento. Ricerche recenti confermano che i modelli cinesi di intelligenza artificiale (AI) si autocensurano attivamente in misura molto maggiore rispetto ai loro omologhi americani, rivelando come il governo mantenga il controllo sulle tecnologie emergenti. Uno studio condotto da ricercatori della Stanford University e della Princeton University ha confrontato le risposte di quattro modelli linguistici di grandi dimensioni (LLM) cinesi e cinque americani quando sono state poste 145 domande politicamente sensibili, ripetute 100 volte per garantire l’affidabilità.
Censura quantificabile
I risultati sono stati duri: i modelli cinesi si sono rifiutati di rispondere a una percentuale significativamente più alta di domande. Ad esempio, DeepSeek ha rifiutato il 36% delle richieste, mentre Ernie Bot di Baidu ha rifiutato il 32%. Al contrario, GPT di OpenAI e Llama di Meta avevano tassi di rifiuto inferiori al 3%. Quando i modelli cinesi rispondevano, le loro risposte erano più brevi e meno accurate di quelle dei modelli americani. Questa non è semplicemente una differenza nei dati di addestramento; la censura è deliberata.
La fonte dei pregiudizi: dati sulla formazione e intervento
I ricercatori hanno indagato se questo pregiudizio derivasse dalla formazione preliminare sui dati Internet cinesi censurati o dall’intervento diretto degli sviluppatori. Jennifer Pan, professoressa di scienze politiche a Stanford, spiega che “dato che Internet cinese è già censurato da decenni, mancano molti dati”. Tuttavia, anche se testati in inglese – dove i dati di formazione sarebbero teoricamente più diversificati – gli LLM cinesi hanno mostrato ancora una maggiore censura, suggerendo che l’intervento manuale gioca un ruolo chiave.
L’illusione dell’onestà: allucinazioni e bugie
Una sfida nello studio della censura dell’intelligenza artificiale è distinguere tra bugie e “allucinazioni”, in cui il modello fabbrica informazioni perché non conosce la risposta. Ad esempio, quando è stato chiesto di Liu Xiaobo, un dissidente cinese, un modello ha falsamente affermato che era uno scienziato giapponese specializzato in armi nucleari. Non è chiaro se si sia trattato di un errore di direzione intenzionale o del risultato della mancanza di dati dal set di addestramento. Pan osserva che la censura meno rilevabile è spesso la più efficace.
Estrazione di istruzioni nascoste
I ricercatori stanno inoltre sviluppando metodi per estrarre le istruzioni nascoste che governano il comportamento di questi modelli. Alex Colville, studiando la propaganda dell’intelligenza artificiale presso il China Media Project, ha scoperto che i suggerimenti possono costringere Qwen di Alibaba a rivelare le sue linee guida sottostanti. Qwen ha costantemente ammesso di aver ricevuto istruzioni di “concentrarsi sui risultati della Cina” e di “evitare dichiarazioni negative”. Questa sottile manipolazione garantisce che, anche quando il modello risponde, lo faccia entro parametri pre-approvati.
La corsa contro il tempo
Il campo della ricerca sulla censura dell’intelligenza artificiale è ancora giovane e deve affrontare ostacoli significativi: i ricercatori rischiano di perdere l’accesso ai modelli se pongono troppe domande delicate, e i modelli avanzati richiedono notevoli risorse computazionali per i test. Ancora più importante, il rapido ritmo di sviluppo del modello significa che qualsiasi conclusione rischia di diventare rapidamente obsoleta.
L’attuale attenzione alla sicurezza dell’IA è sbilanciata verso i rischi futuri, piuttosto che verso i pericoli già presenti in sistemi come quelli che operano nel panorama digitale cinese.
Lo studio sottolinea che la censura dell’IA non è una preoccupazione teorica, ma una pratica attiva. I risultati evidenziano la necessità di ulteriori ricerche sui metodi utilizzati per manipolare questi modelli e le implicazioni più ampie per il controllo globale delle informazioni.
