Identidades falsas geradas por IA espalhadas após tiroteio em Minneapolis

21

Após um tiroteio fatal envolvendo agentes federais em Minneapolis, os usuários das redes sociais estão circulando rapidamente imagens alteradas por IA que afirmam falsamente revelar a identidade do policial que disparou o tiro. O incidente, ocorrido na manhã de quarta-feira, envolveu agentes mascarados do Immigration and Customs Enforcement (ICE) que se aproximaram de um veículo antes que um agente disparasse uma arma de fogo, matando a motorista, Renee Nicole Good.

Apesar da falta de imagens desmascaradas da cena, inúmeras imagens manipuladas surgiram em plataformas como X, Facebook e TikTok em poucas horas. Um exemplo proeminente inclui uma postagem de Claude Taylor, fundador do anti-Trump PAC Mad Dog PAC, que obteve mais de 1,2 milhão de visualizações, apresentando um agente desmascarado comprovadamente falso. Outros usuários foram mais longe, compartilhando nomes não verificados e até vinculando perfis de redes sociais de indivíduos inocentes.

O problema não é apenas a desinformação; é a facilidade com que a IA pode criar falsificações convincentes. De acordo com Hany Farid, professor da UC-Berkeley, as ferramentas atuais de IA não conseguem reconstruir de forma confiável identidades faciais a partir de imagens obscuras. “O aprimoramento alimentado por IA tende a alucinar detalhes faciais”, explica Farid, o que significa que os rostos gerados geralmente são inteiramente fabricados.

Este incidente segue um padrão semelhante visto em setembro, onde imagens alteradas por IA de um suspeito em outro tiroteio foram amplamente compartilhadas antes que o verdadeiro perpetrador fosse identificado. A tendência realça um risco crescente: a utilização da IA ​​como arma para espalhar desinformação em situações de alto risco. Isto é agravado por plataformas como a X, onde utilizadores não verificados podem facilmente disseminar alegações falsas e onde a tecnologia está agora a ser rentabilizada através de um acesso pago.

A proliferação destas imagens fabricadas sublinha a urgência de abordar a desinformação impulsionada pela IA, especialmente em contextos de aplicação da lei. A facilidade com que identidades falsas podem ser criadas e partilhadas representa uma ameaça direta à confiança pública e à segurança individual.

Em última análise, esta situação demonstra que, embora a IA possa melhorar as imagens, não pode substituir os factos verificados e a velocidade a que a desinformação se espalha ultrapassa em muito a capacidade de a corrigir.