AI-gegenereerde valse identiteiten verspreidden zich na de schietpartij in Minneapolis

5

In de nasleep van een fatale schietpartij waarbij federale agenten in Minneapolis betrokken waren, circuleren gebruikers van sociale media snel AI-gemanipuleerde beelden die ten onrechte beweren de identiteit te onthullen van de officier die het schot heeft afgevuurd. Bij het incident, dat woensdagochtend plaatsvond, waren gemaskerde agenten van de immigratie- en douanehandhaving (ICE) betrokken die een voertuig naderden voordat een agent een vuurwapen afvuurde, waarbij de bestuurder, Renee Nicole Good, omkwam.

Ondanks het ontbreken van ontmaskerde beelden van de scène, zijn er binnen enkele uren talloze gemanipuleerde beelden opgedoken op platforms als X, Facebook en TikTok. Een prominent voorbeeld is een post van Claude Taylor, oprichter van anti-Trump PAC Mad Dog PAC, die meer dan 1,2 miljoen views heeft gekregen, met daarin een aantoonbaar nep-ontmaskerde agent. Andere gebruikers zijn nog verder gegaan door niet-geverifieerde namen te delen en zelfs te linken naar de sociale-mediaprofielen van onschuldige individuen.

Het probleem is niet alleen verkeerde informatie; het is het gemak waarmee AI overtuigende vervalsingen kan creëren. Volgens UC-Berkeley-professor Hany Farid kunnen de huidige AI-hulpmiddelen niet op betrouwbare wijze gezichtsidentiteiten reconstrueren uit verduisterde beelden. “AI-aangedreven verbetering heeft de neiging gezichtsdetails te hallucineren”, legt Farid uit, wat betekent dat de gegenereerde gezichten vaak volledig verzonnen zijn.

Dit incident volgt een soortgelijk patroon als in september, toen door AI gewijzigde beelden van een verdachte bij een andere schietpartij op grote schaal werden gedeeld voordat de daadwerkelijke dader werd geïdentificeerd. De trend wijst op een groeiend risico: de bewapening van AI om desinformatie te verspreiden in situaties waar veel op het spel staat. Dit wordt nog verergerd door platforms als X, waar niet-geverifieerde gebruikers gemakkelijk valse claims kunnen verspreiden, en waar de technologie nu achter een betaalmuur geld wordt verdiend.

De verspreiding van deze verzonnen beelden onderstreept de urgentie van het aanpakken van door AI aangestuurde desinformatie, vooral in de context van wetshandhaving. Het gemak waarmee valse identiteiten kunnen worden gecreëerd en gedeeld vormt een directe bedreiging voor zowel het publieke vertrouwen als de individuele veiligheid.

Uiteindelijk laat deze situatie zien dat hoewel AI beelden kan verbeteren, het geen geverifieerde feiten kan vervangen, en dat de snelheid waarmee desinformatie zich verspreidt veel groter is dan het vermogen om deze te corrigeren.