In seguito alla sparatoria mortale che ha coinvolto agenti federali a Minneapolis, gli utenti dei social media stanno rapidamente diffondendo immagini alterate dall’intelligenza artificiale che affermano falsamente di rivelare l’identità dell’ufficiale che ha sparato. L’incidente, avvenuto mercoledì mattina, ha coinvolto agenti mascherati dell’Immigration and Customs Enforcement (ICE) che si sono avvicinati a un veicolo prima che un agente scaricasse un’arma da fuoco, uccidendo l’autista, Renee Nicole Good.
Nonostante la mancanza di filmati non mascherati della scena, nel giro di poche ore sono emerse numerose immagini manipolate su piattaforme come X, Facebook e TikTok. Un esempio importante include un post di Claude Taylor, fondatore del PAC anti-Trump Mad Dog PAC, che ha raccolto oltre 1,2 milioni di visualizzazioni, in cui viene mostrato un agente smascherato palesemente falso. Altri utenti sono andati oltre, condividendo nomi non verificati e persino collegandosi ai profili dei social media di individui innocenti.
Il problema non è solo la disinformazione; è la facilità con cui l’intelligenza artificiale può creare falsi convincenti. Secondo il professore dell’Università di Berkeley Hany Farid, gli attuali strumenti di intelligenza artificiale non sono in grado di ricostruire in modo affidabile le identità facciali da filmati oscurati. “Il miglioramento basato sull’intelligenza artificiale ha la tendenza a creare allucinazioni sui dettagli del viso”, spiega Farid, il che significa che i volti generati sono spesso interamente fabbricati.
Questo incidente segue uno schema simile osservato a settembre, quando le immagini alterate dall’intelligenza artificiale di un sospetto coinvolto in un’altra sparatoria erano state ampiamente condivise prima che il vero colpevole fosse identificato. La tendenza evidenzia un rischio crescente: l’utilizzo dell’intelligenza artificiale come arma per diffondere disinformazione in situazioni ad alto rischio. A questo si aggiungono piattaforme come X, dove gli utenti non verificati possono facilmente diffondere false affermazioni e dove la tecnologia viene ora monetizzata dietro un paywall.
La proliferazione di queste immagini inventate sottolinea l’urgenza di affrontare la disinformazione guidata dall’intelligenza artificiale, soprattutto nei contesti delle forze dell’ordine. La facilità con cui possono essere create e condivise false identità rappresenta una minaccia diretta sia per la fiducia pubblica che per la sicurezza individuale.
In definitiva, questa situazione dimostra che, sebbene l’intelligenza artificiale possa migliorare le immagini, non può sostituire i fatti verificati, e la velocità con cui si diffonde la disinformazione supera di gran lunga la capacità di correggerla.






























