De fausses identités générées par l’IA se sont propagées après la fusillade de Minneapolis

8

À la suite d’une fusillade mortelle impliquant des agents fédéraux à Minneapolis, les utilisateurs des réseaux sociaux font circuler rapidement des images modifiées par l’IA prétendant faussement révéler l’identité de l’officier qui a tiré. L’incident, survenu mercredi matin, impliquait des agents masqués de l’Immigration and Customs Enforcement (ICE) s’approchant d’un véhicule avant qu’un agent ne décharge une arme à feu, tuant la conductrice, Renee Nicole Good.

Malgré l’absence de séquences non masquées de la scène, de nombreuses images manipulées ont fait surface en quelques heures sur des plateformes comme X, Facebook et TikTok. Un exemple frappant comprend un article de Claude Taylor, fondateur du groupe anti-Trump PAC Mad Dog PAC, qui a recueilli plus de 1,2 million de vues, mettant en vedette un faux agent non masqué. D’autres utilisateurs sont allés plus loin, partageant des noms non vérifiés et créant même des liens vers les profils de réseaux sociaux d’individus innocents.

Le problème n’est pas seulement la désinformation ; c’est la facilité avec laquelle l’IA peut créer des contrefaçons convaincantes. Selon Hany Farid, professeur à l’UC-Berkeley, les outils d’IA actuels ne peuvent pas reconstruire de manière fiable les identités faciales à partir d’images obscurcies. “L’amélioration basée sur l’IA a tendance à halluciner les détails du visage”, explique Farid, ce qui signifie que les visages générés sont souvent entièrement fabriqués.

Cet incident suit un schéma similaire observé en septembre, où des images modifiées par l’IA d’un suspect lors d’une autre fusillade ont été largement partagées avant que l’auteur réel ne soit identifié. Cette tendance met en évidence un risque croissant : l’utilisation de l’IA comme arme pour propager la désinformation dans des situations à enjeux élevés. Ce phénomène est aggravé par des plateformes comme X, où des utilisateurs non vérifiés peuvent facilement diffuser de fausses déclarations, et où la technologie est désormais monétisée derrière un paywall.

La prolifération de ces images fabriquées souligne l’urgence de lutter contre la désinformation générée par l’IA, en particulier dans le contexte des forces de l’ordre. La facilité avec laquelle de fausses identités peuvent être créées et partagées constitue une menace directe à la fois pour la confiance du public et pour la sécurité des individus.

En fin de compte, cette situation démontre que si l’IA peut améliorer les images, elle ne peut pas remplacer les faits vérifiés et que la vitesse à laquelle la désinformation se propage dépasse de loin la capacité de la corriger.