El abuso de los deepfake se intensifica: la explotación sexual impulsada por la IA se está volviendo más realista y generalizada

11

La proliferación de la inteligencia artificial ha desatado una tendencia inquietante: el rápido crecimiento de la tecnología deepfake explícita. Los sitios web ahora ofrecen herramientas que pueden generar videos sexuales realistas y no consensuados a partir de una sola fotografía en segundos. Estos servicios, algunos de los cuales operan con flagrante desprecio por el consentimiento, están haciendo que sea más fácil que nunca crear y distribuir abuso sexual basado en imágenes, incluido material de abuso sexual infantil (CSAM).

El auge de los ecosistemas ‘Nudify’

Durante años, se ha ido desarrollando un ecosistema oculto de sitios web, bots y aplicaciones que automatizan la creación de deepfakes explícitos. Estas plataformas suelen incluir plantillas de vídeo gráficas, como actos sexuales simulados, y cobran pequeñas tarifas por cada clip generado. Un servicio anuncia abiertamente la capacidad de transformar cualquier foto en una versión desnuda utilizando “tecnología avanzada de inteligencia artificial”. La disponibilidad incontrolada de estas herramientas está provocando un aumento del acoso sexual digital.

El chatbot de Elon Musk, Grok, ha sido explotado para crear miles de imágenes “desnudas” no consensuadas, normalizando el proceso a escala masiva. Expertos como Henry Ajder advierten que el realismo y la funcionalidad de la tecnología deepfake avanzan rápidamente. Es probable que estos servicios generen millones de dólares al año y al mismo tiempo permitan un “flagelo social”.

Expansión y Consolidación

Durante el año pasado, los servicios explícitos de deepfake introdujeron nuevas funciones, incluida la generación de una foto a video. Una revisión de más de 50 sitios web deepfake revela que casi todos ahora ofrecen creación de videos explícitos de alta calidad, enumerando docenas de escenarios sexuales en los que se pueden representar mujeres. Los canales y bots de Telegram publican periódicamente actualizaciones con nuevas características, como poses y posiciones sexuales personalizables.

El mercado se está consolidando, y los sitios web deepfake más grandes adquieren competidores más pequeños y ofrecen API para facilitar la creación de más contenido no consensuado. Este modelo de infraestructura como servicio permite que el abuso se extienda aún más.

Accesibilidad y raíces de código abierto

Lo que antes era un proceso técnicamente complejo ahora requiere una habilidad mínima. La amplia disponibilidad de modelos sofisticados de inteligencia artificial de código abierto ha hecho que la tecnología deepfake sea accesible para cualquier persona con conexión a Internet. Esta facilidad de uso está impulsando un aumento en la creación y difusión de imágenes íntimas no consensuales (NCII).

Las víctimas son abrumadoramente mujeres, niñas y minorías sexuales/de género. El daño causado por estas imágenes incluye acoso, humillación y trauma psicológico. Se han utilizado deepfakes explícitos para abusar de políticos, celebridades y personas comunes y corrientes, incluidos colegas, amigos y compañeros de clase.

Respuesta legal lenta

A pesar del creciente problema, las leyes para proteger a las personas del abuso de los deepfake tardan en implementarse. La naturaleza de código abierto de la tecnología dificulta su aplicación, mientras que las actitudes sociales a menudo minimizan la violencia contra las mujeres que estas herramientas permiten.

El papel de las empresas tecnológicas

Si bien plataformas como Telegram han tomado algunas medidas (eliminando el año pasado más de 44 millones de contenidos que violan las políticas), el problema persiste. Los investigadores señalan que el ecosistema prospera gracias a la infraestructura proporcionada por las principales empresas de tecnología.

Como observa Pani Farvid, profesor asociado de psicología aplicada: “Nosotros, como sociedad a nivel mundial, no tomamos en serio la violencia contra las mujeres, sin importar la forma que adopte”.

La creciente facilidad de uso, la normalización de las imágenes no consensuadas y la minimización del daño están creando un peligroso circuito de retroalimentación. Los perpetradores comparten deepfakes en privado en grupos con docenas de personas, a menudo sin temor a las consecuencias.

En última instancia, el crecimiento desenfrenado de la explotación sexual impulsada por la IA exige atención inmediata. La trayectoria actual sugiere que sin una regulación efectiva y un cambio social, esta inquietante tendencia sólo empeorará.