Deepfake-Missbrauch eskaliert: KI-gestützte sexuelle Ausbeutung wird immer realistischer und verbreiteter

13

Die Verbreitung künstlicher Intelligenz hat einen beunruhigenden Trend ausgelöst: das schnelle Wachstum der expliziten Deepfake-Technologie. Websites bieten mittlerweile Tools an, mit denen aus einem einzigen Foto in Sekundenschnelle realistische, nicht einvernehmliche Sexvideos erstellt werden können. Diese Dienste, von denen einige unter eklatanter Missachtung der Einwilligung arbeiten, machen es einfacher als je zuvor, auf Bildern basierenden sexuellen Missbrauch zu erstellen und zu verbreiten, einschließlich Material über sexuellen Missbrauch von Kindern (Child Sexual Abuse Material, CSAM).

Der Aufstieg von „Nudify“-Ökosystemen

Seit Jahren entwickelt sich ein verstecktes Ökosystem aus Websites, Bots und Apps, das die Erstellung expliziter Deepfakes automatisiert. Diese Plattformen enthalten häufig grafische Videovorlagen, beispielsweise simulierte sexuelle Handlungen, und erheben für jeden generierten Clip geringe Gebühren. Ein Dienst wirbt offen mit der Möglichkeit, jedes Foto mithilfe „fortschrittlicher KI-Technologie“ in eine Nacktversion umzuwandeln. Die unkontrollierte Verfügbarkeit dieser Tools führt zu einem Anstieg digitaler sexueller Belästigung.

Elon Musks Chatbot Grok wurde ausgenutzt, um Tausende von nicht einvernehmlichen „Nacktbildern“ zu erstellen, was den Prozess massiv normalisierte. Experten wie Henry Ajder warnen davor, dass der Realismus und die Funktionalität der Deepfake-Technologie rasant voranschreiten. Diese Dienste generieren wahrscheinlich jährlich Millionen von Dollar und verursachen gleichzeitig eine „gesellschaftliche Geißel“.

Expansion und Konsolidierung

Im vergangenen Jahr haben explizite Deepfake-Dienste neue Funktionen eingeführt, darunter die Generierung von einem Foto in ein Video. Eine Überprüfung von über 50 Deepfake-Websites zeigt, dass fast alle inzwischen hochwertige explizite Videoerstellung anbieten und Dutzende sexuelle Szenarien auflisten, in denen Frauen dargestellt werden können. Telegram-Kanäle und Bots veröffentlichen regelmäßig Updates mit neuen Funktionen, wie zum Beispiel anpassbaren sexuellen Posen und Stellungen.

Der Markt konsolidiert sich, größere Deepfake-Websites erwerben kleinere Konkurrenten und bieten APIs an, um die Erstellung nicht einvernehmlicher Inhalte zu erleichtern. Durch dieses Infrastructure-as-a-Service-Modell kann sich der Missbrauch noch weiter ausbreiten.

Barrierefreiheit und Open-Source-Wurzeln

Was einst ein technisch komplexer Prozess war, erfordert heute nur noch minimale Fähigkeiten. Die weit verbreitete Verfügbarkeit hochentwickelter Open-Source-KI-Modelle hat die Deepfake-Technologie für jeden mit einer Internetverbindung zugänglich gemacht. Diese Benutzerfreundlichkeit führt zu einem Anstieg der Erstellung und Verbreitung nicht einvernehmlicher intimer Bilder (NCII).

Bei den Opfern handelt es sich überwiegend um Frauen, Mädchen und geschlechtsspezifische/sexuelle Minderheiten. Der durch diese Bilder verursachte Schaden umfasst Belästigung, Demütigung und psychische Traumata. Explizite Deepfakes wurden verwendet, um Politiker, Prominente und normale Einzelpersonen, darunter Kollegen, Freunde und Klassenkameraden, zu missbrauchen.

Langsame rechtliche Reaktion

Trotz des wachsenden Problems werden Gesetze zum Schutz der Menschen vor Deepfake-Missbrauch nur langsam umgesetzt. Der Open-Source-Charakter der Technologie erschwert die Durchsetzung, während die gesellschaftliche Einstellung die Gewalt gegen Frauen, die diese Tools ermöglichen, oft minimiert.

Die Rolle von Technologieunternehmen

Während Plattformen wie Telegram einige Maßnahmen ergriffen haben und im vergangenen Jahr über 44 Millionen richtlinienverletzende Inhalte entfernt haben, besteht das Problem weiterhin. Forscher stellen fest, dass das Ökosystem von der Infrastruktur großer Technologieunternehmen lebt.

Pani Farvid, außerordentliche Professorin für angewandte Psychologie, bemerkt: „Wir als Gesellschaft weltweit nehmen Gewalt gegen Frauen nicht ernst, egal in welcher Form sie auftritt.“

Die zunehmende Benutzerfreundlichkeit, die Normalisierung nicht einvernehmlicher Bilder und die Minimierung von Schäden führen zu einer gefährlichen Rückkopplungsschleife. Die Täter teilen Deepfakes privat in Gruppen mit Dutzenden von Menschen, oft ohne Angst vor Konsequenzen zu haben.

Letztlich erfordert das unkontrollierte Wachstum der KI-gestützten sexuellen Ausbeutung sofortige Aufmerksamkeit. Die aktuelle Entwicklung deutet darauf hin, dass sich dieser beunruhigende Trend ohne wirksame Regulierung und gesellschaftlichen Wandel nur noch verschlimmern wird.