Po śmiertelnej strzelaninie z udziałem agentów federalnych w Minneapolis użytkownicy mediów społecznościowych szybko rozpowszechniają zdjęcia zmanipulowane przez sztuczną inteligencję, fałszywie twierdząc, że przedstawiają funkcjonariusza, który oddał strzał. W incydencie, który miał miejsce w środę rano, zamaskowani agenci służb imigracyjnych i celnych (ICE) podeszli do pojazdu, po czym jeden z nich oddał strzał, zabijając kierowcę, Renee Nicole Goode.
Pomimo braku niezamaskowanego materiału wideo z miejsca zdarzenia, w ciągu kilku godzin na platformach takich jak X, Facebook i TikTok pojawiło się wiele fałszywych obrazów. Godnym uwagi przykładem jest post Claude’a Taylora, założyciela przeciwnej Trumpowi grupy Mad Dog PAC, który uzyskał ponad 1,2 miliona wyświetleń i zawiera wyraźnie sfałszowany wizerunek zdemaskowanego agenta. Inni użytkownicy posunęli się jeszcze dalej, rozpowszechniając niezweryfikowane nazwiska, a nawet podając linki do profili niewinnych osób w mediach społecznościowych.
Problemem nie jest tylko dezinformacja; to, jak łatwo sztuczna inteligencja może tworzyć przekonujące podróbki. Według profesora Uniwersytetu Kalifornijskiego w Berkeley, Hani Farida, obecne narzędzia sztucznej inteligencji nie są w stanie wiarygodnie rekonstruować twarzy na podstawie zamaskowanych nagrań. „Wzmocnienie sztucznej inteligencji ma tendencję do halucynacji szczegółów twarzy” – wyjaśnia Farid, co oznacza, że generowane twarze są często całkowicie fikcyjne.
Incydent przebiega według podobnego schematu, co we wrześniu, kiedy zmanipulowane przez sztuczną inteligencję obrazy podejrzanego biorącego udział w innej strzelaninie zostały szeroko rozpowszechnione, zanim zidentyfikowano prawdziwego bandytę. Tendencja ta uwydatnia rosnące ryzyko: uzbrojenie sztucznej inteligencji w celu szerzenia dezinformacji w sytuacjach o wysokiej stawce. Sytuację tę pogarszają platformy takie jak X, na których niezweryfikowani użytkownicy mogą łatwo rozpowszechniać fałszywe twierdzenia, a obecnie na tej technologii zarabia się za ścianą płatności.
Rozpowszechnianie się tych fałszywych obrazów uwydatnia pilną potrzebę rozwiązania problemu dezinformacji generowanej przez sztuczną inteligencję, zwłaszcza w kontekście egzekwowania prawa. Łatwość tworzenia i rozpowszechniania fałszywych tożsamości stanowi bezpośrednie zagrożenie zarówno dla zaufania publicznego, jak i bezpieczeństwa osobistego.
Ostatecznie sytuacja ta pokazuje, że choć sztuczna inteligencja może ulepszyć obrazy, nie może zastąpić zweryfikowanych faktów, a tempo rozprzestrzeniania się dezinformacji znacznie przekracza możliwości jej poprawiania.
