KI-generierte falsche Identitäten verbreiten sich nach der Schießerei in Minneapolis

11

Nach einer tödlichen Schießerei, an der Bundesagenten in Minneapolis beteiligt waren, verbreiten Social-Media-Nutzer schnell KI-veränderte Bilder, die fälschlicherweise behaupten, die Identität des Beamten preiszugeben, der den Schuss abgegeben hat. Bei dem Vorfall, der sich am Mittwochmorgen ereignete, näherten sich maskierte Beamte der Einwanderungs- und Zollbehörde (ICE) einem Fahrzeug, bevor einer der Beamten eine Schusswaffe abfeuerte und die Fahrerin Renee Nicole Good tötete.

Obwohl es keinerlei entlarvtes Filmmaterial vom Tatort gab, sind innerhalb weniger Stunden zahlreiche manipulierte Bilder auf Plattformen wie X, Facebook und TikTok aufgetaucht. Ein prominentes Beispiel ist ein Beitrag von Claude Taylor, dem Gründer des Anti-Trump-PAC Mad Dog PAC, der über 1,2 Millionen Mal aufgerufen wurde und in dem ein nachweislich gefälschter, enttarnter Agent vorkommt. Andere Benutzer gingen noch einen Schritt weiter, teilten unbestätigte Namen mit und verlinkten sogar auf die Social-Media-Profile unschuldiger Personen.

Das Problem sind nicht nur Fehlinformationen; Es ist die Leichtigkeit, mit der KI überzeugende Fälschungen erstellen kann. Laut UC-Berkeley-Professor Hany Farid können aktuelle KI-Tools Gesichtsidentitäten nicht zuverlässig aus verdecktem Filmmaterial rekonstruieren. „KI-gestützte Optimierung neigt dazu, Gesichtsdetails zu halluzinieren“, erklärt Farid, was bedeutet, dass die generierten Gesichter oft vollständig erfunden sind.

Dieser Vorfall folgt einem ähnlichen Muster wie im September, als KI-veränderte Bilder eines Verdächtigen bei einer anderen Schießerei weit verbreitet wurden, bevor der tatsächliche Täter identifiziert wurde. Der Trend verdeutlicht ein wachsendes Risiko: die Bewaffnung von KI zur Verbreitung von Desinformation in Situationen mit hohem Risiko. Verschärft wird dies durch Plattformen wie

Die Verbreitung dieser gefälschten Bilder unterstreicht die Dringlichkeit, gegen KI-gesteuerte Fehlinformationen vorzugehen, insbesondere im Kontext der Strafverfolgung. Die Leichtigkeit, mit der falsche Identitäten erstellt und weitergegeben werden können, stellt eine direkte Bedrohung sowohl für das Vertrauen der Öffentlichkeit als auch für die Sicherheit des Einzelnen dar.

Letztendlich zeigt diese Situation, dass KI zwar Bilder verbessern kann, verifizierte Fakten jedoch nicht ersetzen kann und die Geschwindigkeit, mit der sich Fehlinformationen verbreiten, die Fähigkeit, sie zu korrigieren, bei weitem übersteigt.