Uměle vytvořené falešné identity se rozšířily po střelbě v Minneapolis

12

Po smrtící střelbě, do které byli zapojeni federální agenti v Minneapolis, uživatelé sociálních sítí rychle šíří obrázky zmanipulované umělou inteligencí, které nepravdivě tvrdí, že zobrazují důstojníka, který vystřelil. Incident, ke kterému došlo ve středu ráno, zahrnoval maskované agenty Imigračního a celního úřadu (ICE), kteří se blížili k vozidlu, než jeden z agentů vystřelil a zabil řidičku Renee Nicole Goodeovou.

Navzdory absenci jakýchkoliv nezamaskovaných videozáznamů ze scény se během několika hodin objevilo mnoho falešných obrázků na platformách jako X, Facebook a TikTok. Jedním z pozoruhodných příkladů je příspěvek Clauda Taylora, zakladatele anti-Trump Mad Dog PAC, který získal více než 1,2 milionu zhlédnutí a obsahuje jasně upravený obrázek nemaskovaného agenta. Jiní uživatelé šli ještě dál, šířili neověřená jména a dokonce odkazovali na profily nevinných lidí na sociálních sítích.

Problémem nejsou jen dezinformace; je, jak snadno dokáže umělá inteligence vytvořit přesvědčivé padělky. Podle profesora UC Berkeley Hani Farida současné nástroje umělé inteligence nedokážou spolehlivě rekonstruovat obličeje z maskovaných záběrů. „Vylepšení AI má tendenci halucinovat detaily obličeje,“ vysvětluje Farid, což znamená, že generované obličeje jsou často zcela fiktivní.

Incident má podobný vzorec jako v září, kdy se snímky podezřelého z jiné střelby zmanipulované umělou inteligencí rozšířily dříve, než byl identifikován skutečný střelec. Tento trend zdůrazňuje rostoucí riziko: zbrojení AI za účelem šíření dezinformací v situacích s vysokými sázkami. To je umocněno platformami jako X, kde mohou neověření uživatelé snadno šířit nepravdivá tvrzení a kde je tato technologie nyní monetizována za platovou zdí.

Šíření těchto falešných obrázků zdůrazňuje naléhavost řešení problému dezinformací generovaných umělou inteligencí, zejména v kontextu vymáhání práva. Snadnost, s jakou lze vytvářet a šířit falešné identity, představuje přímou hrozbu pro důvěru veřejnosti i osobní bezpečnost.

Tato situace nakonec ukazuje, že i když umělá inteligence dokáže vylepšit obrázky, nemůže nahradit ověřená fakta a rychlost, s jakou se dezinformace šíří, daleko předčí schopnost je opravit.