A raíz de un tiroteo fatal que involucró a agentes federales en Minneapolis, los usuarios de las redes sociales están circulando rápidamente imágenes alteradas por IA que afirman falsamente revelar la identidad del oficial que disparó. El incidente, que ocurrió el miércoles por la mañana, involucró a agentes enmascarados del Servicio de Inmigración y Control de Aduanas (ICE) que se acercaron a un vehículo antes de que un agente disparara un arma de fuego, matando a la conductora, Renee Nicole Good.
A pesar de la falta de imágenes desenmascaradas de la escena, en cuestión de horas han aparecido numerosas imágenes manipuladas en plataformas como X, Facebook y TikTok. Un ejemplo destacado incluye una publicación de Claude Taylor, fundador del PAC anti-Trump Mad Dog PAC, que obtuvo más de 1,2 millones de visitas, en la que aparece un agente desenmascarado demostrablemente falso. Otros usuarios han ido más allá, compartiendo nombres no verificados e incluso enlazando a perfiles de redes sociales de personas inocentes.
El problema no es sólo la desinformación; es la facilidad con la que la IA puede crear falsificaciones convincentes. Según el profesor Hany Farid de UC-Berkeley, las herramientas actuales de IA no pueden reconstruir de manera confiable identidades faciales a partir de imágenes oscurecidas. “La mejora impulsada por la IA tiende a alucinar detalles faciales”, explica Farid, lo que significa que los rostros generados a menudo son completamente inventados.
Este incidente sigue un patrón similar observado en septiembre, cuando imágenes alteradas por IA de un sospechoso en otro tiroteo se compartieron ampliamente antes de que se identificara al verdadero autor. La tendencia destaca un riesgo creciente: la utilización de la IA como arma para difundir desinformación en situaciones de alto riesgo. Esto se ve agravado por plataformas como X, donde los usuarios no verificados pueden difundir fácilmente afirmaciones falsas y donde la tecnología ahora se está monetizando detrás de un muro de pago.
La proliferación de estas imágenes fabricadas subraya la urgencia de abordar la desinformación impulsada por la IA, especialmente en contextos policiales. La facilidad con la que se pueden crear y compartir identidades falsas plantea una amenaza directa tanto a la confianza pública como a la seguridad individual.
En última instancia, esta situación demuestra que, si bien la IA puede mejorar las imágenes, no puede reemplazar los hechos verificados, y la velocidad a la que se difunde la información errónea supera con creces la capacidad de corregirla.





























