La prolifération de l’intelligence artificielle a déclenché une tendance inquiétante : la croissance rapide de la technologie explicite des deepfakes. Les sites Web proposent désormais des outils capables de générer des vidéos sexuelles réalistes et non consensuelles à partir d’une seule photo en quelques secondes. Ces services, dont certains fonctionnent au mépris flagrant du consentement, facilitent plus que jamais la création et la diffusion d’abus sexuels basés sur l’image, y compris de matériels d’abus sexuels sur enfants (CSAM).
L’essor des écosystèmes « Nudify »
Depuis des années, un écosystème caché de sites Web, de robots et d’applications se développe, automatisant la création de deepfakes explicites. Ces plateformes incluent souvent des modèles vidéo graphiques, tels que des actes sexuels simulés, et facturent de petits frais pour chaque clip généré. Un service annonce ouvertement la possibilité de transformer n’importe quelle photo en une version nue à l’aide d’une « technologie d’IA avancée ». La disponibilité incontrôlée de ces outils alimente une recrudescence du harcèlement sexuel numérique.
Le chatbot d’Elon Musk, Grok, a été exploité pour créer des milliers d’images « nudify » non consensuelles, normalisant ainsi le processus à grande échelle. Des experts comme Henry Ajder préviennent que le réalisme et la fonctionnalité de la technologie deepfake progressent rapidement. Ces services génèrent probablement des millions de dollars chaque année tout en favorisant un « fléau sociétal ».
Extension et consolidation
Au cours de l’année écoulée, les services explicites de deepfake ont introduit de nouvelles fonctionnalités, notamment la génération d’une photo en vidéo. Un examen de plus de 50 sites Web deepfakes révèle que presque tous proposent désormais une création vidéo explicite de haute qualité, répertoriant des dizaines de scénarios sexuels dans lesquels les femmes peuvent être représentées. Les chaînes Telegram et les robots publient régulièrement des mises à jour avec de nouvelles fonctionnalités, telles que des poses et des positions sexuelles personnalisables.
Le marché se consolide, les grands sites Web deepfake acquérant des concurrents plus petits et proposant des API pour faciliter la création de contenus davantage non consensuels. Ce modèle d’infrastructure en tant que service permet aux abus de se propager encore plus loin.
Accessibilité et racines Open Source
Ce qui était autrefois un processus techniquement complexe nécessite désormais un minimum de compétences. La disponibilité généralisée de modèles d’IA sophistiqués et open source a rendu la technologie deepfake accessible à toute personne disposant d’une connexion Internet. Cette facilité d’utilisation entraîne une augmentation de la création et de la diffusion d’images intimes non consensuelles (NCII).
Les victimes sont en grande majorité des femmes, des filles et des minorités de genre/sexuelles. Le préjudice causé par ces images comprend le harcèlement, l’humiliation et le traumatisme psychologique. Des deepfakes explicites ont été utilisés pour abuser de politiciens, de célébrités et d’individus ordinaires, notamment des collègues, des amis et des camarades de classe.
Réponse juridique lente
Malgré le problème croissant, les lois visant à protéger les personnes contre les abus des deepfakes tardent à être mises en œuvre. La nature open source de la technologie rend son application difficile, tandis que les attitudes sociétales minimisent souvent la violence contre les femmes que ces outils permettent.
Le rôle des entreprises technologiques
Bien que des plateformes comme Telegram aient pris des mesures – supprimant plus de 44 millions de contenus violant la politique l’année dernière – le problème persiste. Les chercheurs notent que l’écosystème prospère grâce aux infrastructures fournies par les grandes entreprises technologiques.
Comme l’observe Pani Farvid, professeur agrégé de psychologie appliquée : « En tant que société mondiale, nous ne prenons pas au sérieux la violence à l’égard des femmes, quelle que soit la forme sous laquelle elle se présente. »
La facilité d’utilisation croissante, la normalisation des images non consensuelles et la minimisation des dommages créent une dangereuse boucle de rétroaction. Les auteurs partagent des deepfakes en privé, au sein de groupes comptant des dizaines de personnes, souvent sans craindre les conséquences.
En fin de compte, la croissance incontrôlée de l’exploitation sexuelle basée sur l’IA exige une attention immédiate. La trajectoire actuelle suggère que sans réglementation efficace et sans changement sociétal, cette tendance inquiétante ne fera que s’aggraver.






























