Искусственно Созданные Ложные Личности Распространяются После Стрельбы в Миннеаполисе

2

После смертельной перестрелки с участием федеральных агентов в Миннеаполисе пользователи социальных сетей быстро распространяют изображения, подвергшиеся ИИ-манипуляциям, ложно утверждающие, что на них изображен офицер, произведший выстрел. Инцидент, произошедший в среду утром, включал в себя приближение агентов Службы иммиграционного и таможенного контроля (ICE) в масках к автомобилю, после чего один из агентов выстрелил, убив водителя, Рене Николь Гуд.

Несмотря на отсутствие какой-либо видеозаписи с не замаскированным лицом с места происшествия, множество поддельных изображений появилось на платформах, таких как X, Facebook и TikTok, в течение нескольких часов. Одним из заметных примеров является публикация Клода Тейлора, основателя антитрамповского PAC Mad Dog PAC, которая набрала более 1,2 миллиона просмотров и содержит явно подделанное изображение агента без маски. Другие пользователи пошли еще дальше, распространяя неподтвержденные имена и даже ссылаясь на профили в социальных сетях невинных людей.

Проблема заключается не только в дезинформации; в том, как легко ИИ может создавать убедительные подделки. По словам профессора Калифорнийского университета в Беркли Хани Фарида, современные инструменты ИИ не могут надежно восстанавливать лица из замаскированных кадров. «Улучшение на основе ИИ имеет тенденцию к галлюцинациям с деталями лица», — объясняет Фарид, что означает, что сгенерированные лица часто полностью вымышленные.

Этот инцидент следует аналогичной модели, наблюдаемой в сентябре, когда изображения с ИИ-манипуляциями подозреваемого в другой перестрелке широко распространялись до идентификации настоящего преступника. Эта тенденция подчеркивает растущий риск: использование ИИ в качестве оружия для распространения дезинформации в ситуациях с высокими ставками. Это усугубляется такими платформами, как X, где непроверенные пользователи могут легко распространять ложные заявления, и где эта технология теперь монетизируется за платной стеной.

Распространение этих поддельных изображений подчеркивает срочность решения проблемы дезинформации, создаваемой ИИ, особенно в контексте правоохранительных органов. Легкость, с которой можно создавать и распространять ложные личности, представляет прямую угрозу как для общественного доверия, так и для личной безопасности.

В конечном счете, эта ситуация демонстрирует, что, хотя ИИ может улучшать изображения, он не может заменить проверенные факты, и скорость распространения дезинформации намного опережает способность ее исправить.