De proliferatie van kunstmatige intelligentie heeft een verontrustende trend ontketend: de snelle groei van expliciete deepfake-technologie. Websites bieden nu tools waarmee je binnen enkele seconden realistische, niet-consensuele seksuele video’s kunt genereren van één enkele foto. Deze diensten, waarvan sommige opereren met flagrante minachting voor toestemming, maken het gemakkelijker dan ooit om op afbeeldingen gebaseerd seksueel misbruik te creëren en te verspreiden, inclusief materiaal over seksueel misbruik van kinderen (CSAM).
De opkomst van ‘nudify’-ecosystemen
Jarenlang heeft zich een verborgen ecosysteem van websites, bots en apps ontwikkeld, dat de creatie van expliciete deepfakes automatiseert. Deze platforms bevatten vaak grafische videosjablonen, zoals gesimuleerde seksuele handelingen, en brengen kleine kosten in rekening voor elke gegenereerde clip. Eén dienst maakt openlijk reclame voor de mogelijkheid om elke foto om te zetten in een naaktversie met behulp van ‘geavanceerde AI-technologie’. De ongecontroleerde beschikbaarheid van deze tools zorgt voor een golf van digitale seksuele intimidatie.
De chatbot van Elon Musk, Grok, is uitgebuit om duizenden niet-consensuele ‘nudificatie’-afbeeldingen te maken, waardoor het proces op grote schaal wordt genormaliseerd. Experts als Henry Ajder waarschuwen dat het realisme en de functionaliteit van deepfake-technologie snel vooruitgaan. Deze diensten genereren waarschijnlijk jaarlijks miljoenen dollars en maken tegelijkertijd een ‘maatschappelijke plaag’ mogelijk.
Uitbreiding en consolidatie
Het afgelopen jaar hebben expliciete deepfake-diensten nieuwe functies geïntroduceerd, waaronder het genereren van één foto naar video. Uit een overzicht van meer dan vijftig deepfake-websites blijkt dat ze nu bijna allemaal expliciete videocreaties van hoge kwaliteit aanbieden, met tientallen seksuele scenario’s waarin vrouwen kunnen worden afgebeeld. Telegram-kanalen en bots brengen regelmatig updates uit met nieuwe functies, zoals aanpasbare seksuele poses en posities.
De markt consolideert, waarbij grotere deepfake-websites kleinere concurrenten overnemen en API’s aanbieden om de creatie van meer niet-consensuele inhoud te vergemakkelijken. Dit infrastructuur-as-a-service-model zorgt ervoor dat het misbruik zich nog verder kan verspreiden.
Toegankelijkheid en open source-roots
Wat ooit een technisch complex proces was, vereist nu minimale vaardigheden. De wijdverbreide beschikbaarheid van geavanceerde, open-source AI-modellen heeft deepfake-technologie toegankelijk gemaakt voor iedereen met een internetverbinding. Dit gebruiksgemak zorgt voor een golf van creatie en verspreiding van niet-consensuele intieme beelden (NCII).
De slachtoffers zijn overwegend vrouwen, meisjes en gender-/seksuele minderheden. De schade die door deze beelden wordt veroorzaakt, omvat intimidatie, vernedering en psychologisch trauma. Er zijn expliciete deepfakes gebruikt om politici, beroemdheden en gewone individuen, waaronder collega’s, vrienden en klasgenoten, te misbruiken.
Langzame juridische reactie
Ondanks het groeiende probleem worden wetten om mensen te beschermen tegen deepfake-misbruik maar traag ten uitvoer gelegd. Het open source-karakter van de technologie maakt handhaving moeilijk, terwijl de maatschappelijke houding vaak het geweld tegen vrouwen dat deze instrumenten mogelijk maken, minimaliseert.
De rol van technologiebedrijven
Hoewel platforms als Telegram enige actie hebben ondernomen – vorig jaar ruim 44 miljoen beleidsschendingen van inhoud hebben verwijderd – blijft het probleem bestaan. Onderzoekers merken op dat het ecosysteem gedijt op de infrastructuur van grote technologiebedrijven.
Zoals Pani Farvid, universitair hoofddocent toegepaste psychologie, opmerkt: “Wij als samenleving nemen geweld tegen vrouwen wereldwijd niet serieus, in welke vorm het ook voorkomt.”
Het toenemende gebruiksgemak, de normalisering van niet-consensuele beelden en het minimaliseren van schade creëren een gevaarlijke feedbackloop. Daders delen deepfakes privé in groepen met tientallen mensen, vaak zonder angst voor consequenties.
Uiteindelijk vereist de ongecontroleerde groei van door AI aangedreven seksuele uitbuiting onmiddellijke aandacht. Het huidige traject suggereert dat deze verontrustende trend zonder effectieve regulering en maatschappelijke verandering alleen maar zal verergeren.





























