Una campaña de desinformación prorrusa utiliza herramientas gratuitas de inteligencia artificial para impulsar una explosión de contenido.

Una campaña de desinformación pro-Rusia está aprovechando herramientas de inteligencia artificial del consumidor para impulsar una “explosión de contenido” centrada en exacerbar las tensiones existentes en torno a las elecciones mundiales, Ucrania y la inmigración, entre otros temas controvertidos, según una nueva investigación publicada la semana pasada .
La campaña, conocida por muchos nombres, incluyendo Operación Sobrecarga y Matryoshka (otros investigadores también la han vinculado a Storm-1679 ), ha estado operando desde 2023 y ha sido alineada con el gobierno ruso por múltiples grupos, incluyendo Microsoft y el Instituto para el Diálogo Estratégico . La campaña difunde narrativas falsas haciéndose pasar por medios de comunicación con el aparente objetivo de sembrar la división en países democráticos. Si bien la campaña se dirige a audiencias de todo el mundo, incluyendo en los EE. UU ., su objetivo principal ha sido Ucrania. Cientos de videos manipulados por IA de la campaña han intentado alimentar narrativas prorrusas.
El informe describe cómo, entre septiembre de 2024 y mayo de 2025, la cantidad de contenido producido por quienes dirigen la campaña ha aumentado drásticamente y está recibiendo millones de visitas en todo el mundo.
En su informe, los investigadores identificaron 230 piezas únicas de contenido promocionadas por la campaña entre julio de 2023 y junio de 2024, incluyendo imágenes, vídeos, códigos QR y sitios web falsos. Sin embargo, durante los últimos ocho meses, Operation Overload generó un total de 587 piezas únicas de contenido, la mayoría de las cuales se crearon con la ayuda de herramientas de IA, según los investigadores.
Los investigadores afirmaron que el aumento de contenido se debió a herramientas de IA de consumo, disponibles gratuitamente en línea. Este fácil acceso impulsó la estrategia de la campaña de "fusión de contenido", donde quienes dirigían la operación pudieron producir múltiples piezas de contenido que promovían la misma historia gracias a herramientas de IA.
“Esto marca un cambio hacia tácticas de propaganda más escalables, multilingües y cada vez más sofisticadas”, escribieron en el informe investigadores de Reset Tech, una organización sin fines de lucro con sede en Londres que rastrea campañas de desinformación, y Check First, una empresa finlandesa de software. “La campaña ha incrementado sustancialmente la producción de nuevo contenido en los últimos ocho meses, lo que indica un cambio hacia métodos de creación de contenido más rápidos y escalables”.
Los investigadores también quedaron atónitos ante la variedad de herramientas y tipos de contenido que buscaba la campaña. «Lo que me sorprendió fue la diversidad del contenido, los diferentes tipos de contenido que empezaron a usar», explica a WIRED Aleksandra Atanasova, investigadora principal de inteligencia de fuentes abiertas en Reset Tech. «Es como si hubieran diversificado su paleta para captar la mayor cantidad de perspectivas posibles de esas historias. Están superponiendo diferentes tipos de contenido, uno tras otro».
Atanasova agregó que la campaña no parecía estar utilizando ninguna herramienta de IA personalizada para lograr sus objetivos, sino que utilizaba generadores de voz e imágenes impulsados por IA que son accesibles para todos.
Si bien fue difícil identificar todas las herramientas que utilizaban los agentes de la campaña, los investigadores pudieron concentrarse en una herramienta en particular: Flux AI.
Flux AI es un generador de texto a imagen desarrollado por Black Forest Labs, una empresa alemana fundada por exempleados de Stability AI. Utilizando la herramienta de análisis de imágenes SightEngine, los investigadores hallaron un 99 % de probabilidad de que varias de las imágenes falsas compartidas por la campaña Overload —algunas de las cuales pretendían mostrar a inmigrantes musulmanes amotinados e incendiando Berlín y París— se crearan con la generación de imágenes de Flux AI.
Los investigadores luego pudieron generar imágenes que replicaban fielmente la estética de las imágenes publicadas usando indicaciones que incluían lenguaje discriminatorio, como “hombres musulmanes enojados”.
Esto resalta “cómo los modelos de texto a imagen de IA pueden ser abusados para promover el racismo y alimentar estereotipos antimusulmanes”, escribieron los investigadores, y agregaron que plantea “preocupaciones éticas sobre cómo funcionan las indicaciones en diferentes modelos de generación de IA”.
“Incorporamos múltiples niveles de protección para prevenir el uso indebido ilegal, incluyendo metadatos de procedencia que permiten a las plataformas identificar el contenido generado por IA, y apoyamos a nuestros socios en la implementación de herramientas adicionales de moderación y procedencia”, escribió un portavoz de Black Forest Labs en un correo electrónico a WIRED. “Prevenir el uso indebido dependerá de niveles de mitigación, así como de la colaboración entre desarrolladores, plataformas de redes sociales y autoridades, y mantenemos nuestro compromiso de apoyar estas iniciativas”.
Atansova le dijo a WIRED que las imágenes que ella y sus colegas revisaron no contenían ningún metadato.
El uso de IA por parte de la Operación Sobrecarga también emplea tecnología de clonación de voz de IA para manipular videos y simular que figuras prominentes dicen cosas que nunca dijeron. El número de videos producidos por la campaña aumentó de 150 entre junio de 2023 y julio de 2024 a 367 entre septiembre de 2024 y mayo de 2025. Los investigadores afirmaron que la mayoría de los videos de los últimos ocho meses utilizaron tecnología de IA para engañar a quienes los vieron.
En un caso, por ejemplo, la campaña publicó en febrero en X un vídeo en el que aparecía Isabelle Bourdon, profesora titular e investigadora de la Universidad de Montpellier (Francia), aparentemente animando a los ciudadanos alemanes a participar en disturbios masivos y votar por el partido de extrema derecha Alternativa para Alemania (AfD) en las elecciones federales. Esto era falso: la grabación se extrajo de un vídeo del canal oficial de YouTube de la universidad donde Bourdon habla de un premio reciente de ciencias sociales que ganó. Pero en el vídeo manipulado, la tecnología de clonación de voz con IA hacía parecer que estaba hablando de las elecciones alemanas.
El contenido generado por IA, producido por Operation Overload, se comparte en más de 600 canales de Telegram, así como en cuentas de bots en redes sociales como X y Bluesky. En las últimas semanas, el contenido también se ha compartido en TikTok por primera vez. Esto se detectó por primera vez en mayo, y aunque el número de cuentas era pequeño (solo 13), los videos publicados fueron vistos 3 millones de veces antes de que la plataforma las desclasificara.
«Mantenemos una vigilancia estricta contra quienes intentan manipular nuestra plataforma y ya hemos eliminado las cuentas mencionadas en este informe», declara Anna Sopel, portavoz de TikTok, a WIRED. «Detectamos, interrumpimos y trabajamos para anticiparnos a las operaciones encubiertas de influencia de forma continua e informamos de nuestro progreso de forma transparente cada mes».
Los investigadores señalaron que, si bien Bluesky había suspendido el 65 % de las cuentas falsas, «X ha tomado medidas mínimas a pesar de los numerosos informes sobre la operación y la creciente evidencia de coordinación». X y Bluesky no respondieron a las solicitudes de comentarios.
Una vez que Operation Overload crea el contenido falso y generado por inteligencia artificial, la campaña hace algo inusual: envía correos electrónicos a cientos de medios y organizaciones de verificación de datos en todo el mundo, con ejemplos de su contenido falso en varias plataformas, junto con solicitudes para que los verificadores de datos investiguen si es real o no.
Si bien puede parecer contradictorio que una campaña de desinformación alerte sobre sus esfuerzos a quienes intentan combatir la desinformación, para los agentes prorrusos el objetivo final es publicar su contenido en línea en un medio de noticias real (aunque esté cubierto con la palabra "FALSO").
Según los investigadores, desde septiembre de 2024 se enviaron hasta 170.000 correos electrónicos de este tipo a más de 240 destinatarios. Los mensajes normalmente contenían varios enlaces al contenido generado por IA, pero el texto del correo electrónico no se generó mediante IA, dijeron los investigadores.
Los grupos de desinformación prorrusos llevan mucho tiempo experimentando con herramientas de IA para potenciar su producción. El año pasado, se demostró que un grupo llamado CopyCop , probablemente vinculado al gobierno ruso, utilizaba grandes modelos de lenguaje (LLM) para crear sitios web falsos diseñados para simular medios de comunicación legítimos. Si bien estos intentos no suelen generar mucho tráfico, la promoción que conllevan en redes sociales puede atraer la atención y, en algunos casos, la información falsa puede aparecer en los primeros resultados de búsqueda de Google .
Un informe reciente del American Sunlight Project estimó que las redes de desinformación rusas producían al menos 3 millones de artículos generados por IA cada año, y que ese contenido estaba envenenando el resultado de los chatbots impulsados por IA, como ChatGPT de OpenAI y Gemini de Google.
Los investigadores han demostrado repetidamente cómo los agentes de desinformación están adoptando herramientas de IA, y como resulta cada vez más difícil para las personas distinguir el contenido real del generado por IA, los expertos predicen que el aumento del contenido de IA que alimenta las campañas de desinformación continuará.
“Ya tienen la receta que funciona”, dice Atanasova. “Saben lo que hacen”.
wired