En el complejo mundo de la desinformación, no todas las campañas rusas logran sus objetivos de manera directa. Sin embargo, un ejemplo reciente revela cómo un esfuerzo inicialmente fallido puede transformarse en una victoria simbólica cuando logra enganchar a una audiencia poderosa y amplificada. Estamos hablando de una operación de propaganda conocida como Operation Overload, también llamada Matryoshka, una campaña diseñada para influir en el discurso social en Estados Unidos y en otros países, a través de noticias falsas y contenido manipulado que suele tener como objetivo debilitar el apoyo occidental a Ucrania y sembrar discordia interna en países de la OTAN. Esta red rusa de noticias falsas, que en la mayoría de sus intentos no logra resonar entre los usuarios reales, encontró su éxito singular cuando una publicación que rechazaba a USAID fue viralizada por Elon Musk a través de su plataforma X, antes conocida como Twitter. La diferencia clave estuvo en un video que afirmaba falsamente que USAID había utilizado millones de dólares para pagar a celebridades hollywoodenses, como Angelina Jolie, Sean Penn y Ben Stiller, para viajar a Ucrania y así impulsar la popularidad del presidente Volodymyr Zelensky.
Aunque el contenido fue completamente desmentido por fuentes oficiales y plataformas de verificación ciudadana, el alcance que tuvo fue enorme, en buena medida gracias a la difusión que le dio Musk al compartirlo con sus más de 220 millones de seguidores. Este episodio subraya las dificultades que enfrentan las plataformas digitales para controlar la desinformación, especialmente cuando las publicaciones falsas son promovidas por figuras públicas influyentes. El contexto en el que esta campaña encontró terreno fértil tiene que ver con la percepción que existía sobre USAID en el público estadounidense. La agencia había sido objeto de una reestructuración polémica por parte del Departamento de Eficiencia Gubernamental, un movimiento que muchos interpretaron como una reducción significativa de la influencia y funciones de un organismo crucial en la ayuda internacional y la diplomacia estadounidense. En ese escenario, los mensajes rusos que vinculaban a USAID con gasto inútil y manipulación política encontraron resonancia, especialmente en una audiencia que ya se mostraba escéptica y predispuesta a creer narrativas que desacreditaran a la agencia y, por extensión, la política exterior estadounidense.
El modus operandi de Operation Overload consiste en combinar imágenes reales con voces generadas por inteligencia artificial y logos falsas de medios de comunicación conocidos, creando piezas que aparentan ser fragmentos genuinos de noticieros o reportajes, pero que en realidad transmiten información errónea o manipulada para favorecer los intereses rusos. Pese a que la mayoría de estos contenidos pasan desapercibidos para la masa de usuarios y apenas generan interacción real más allá de las redes bot, la persistencia y volumen de estas publicaciones hacen que, eventualmente, algunos contenidos logren conectarse con figuras o grupos influyentes, aumentando exponencialmente su impacto. El impacto de este tipo de campañas no es solamente la viralización de información falsa en sí misma, sino la erosión sistemática de la confianza en los medios y en las instituciones que ellos representan. Al suplantar la identidad de canales y organizaciones conocidas, estas campañas generan confusión y dudas en el público que consume contenido en línea, lo que dificulta la tarea de discernir entre noticias verídicas y manipuladas. Con la confianza minada, se favorece la polarización y la fragmentación social, elementos que forman parte clara de la estrategia desinformativa rusa.
Los expertos señalan que el uso de inteligencia artificial ha marcado un antes y un después en esta batalla. Mientras que antes la producción de contenido falso requería tiempo y recursos significativos, la automatización permite ahora generar un alto volumen de piezas con una rapidez y costo mucho menores, aumentando la posibilidad de que alguna de ellas «pegue» entre la audiencia real. Este enfoque se asemeja a lanzar una gran cantidad de hilos esperando que alguno logre atrapar la atención; desde la perspectiva de quienes financian estas operaciones, ni siquiera hace falta que la mayoría de los mensajes tengan éxito. Otro elemento crucial en la diseminación de esta campaña es la retirada progresiva de herramientas destinadas a detectar y combatir la desinformación por parte de las grandes plataformas. Recortes en programas gubernamentales y una menor moderación de contenidos tras presiones políticas han reducido la capacidad de análisis independiente y la respuesta oportuna ante este fenómeno.
Investigadores y especialistas en medios se ven enfrentados a obstáculos legales, sociales y económicos que ralentizan su trabajo, lo que a su vez favorece que espacios digitales sean terreno fértil para la propagación de desinformación. Este caso también pone en evidencia cómo las alianzas inesperadas pueden amplificar la penetración de la propaganda. La participación involuntaria de figuras con gran influencia social, como Elon Musk, convierte una publicación mediocre en un fenómeno viral capaz de alcanzar a millones de personas. Esa viralidad refuerza la narrativa del adversario y puede influir en la agenda pública y la percepción sobre actores internacionales, en este caso USAID y su rol en Ucrania. La campaña de desinformación rusa que inicialmente parecía irremediablemente condenada al fracaso, ganó una relevancia extraordinaria al identificar un blanco sensible y aprovechar la dinámica particular de las redes sociales y la política estadounidense contemporánea.
USAID, como representante de la asistencia internacional y crítica estabilidad en las relaciones exteriores, fue objetivo predilecto para minar la credibilidad del Gobierno de Estados Unidos y debilitar el apoyo a Ucrania en un momento clave. El trabajo de los fact-checkers y de las organizaciones dedicadas a la defensa de la información verídica resulta fundamental para mitigar el daño causado por estas operaciones. Plataformas como X mantienen programas que permiten a los usuarios reportar y corregir información falsa, aunque la permanencia de contenido cuestionable en la plataforma demuestra que aún queda mucho camino por recorrer. De igual forma, incrementar la alfabetización mediática entre la población es una pieza clave para que los usuarios puedan identificar y desconfiar de mensajes manipulados. En un escenario internacional cada vez más polarizado y con una creciente dependencia digital, comprender la naturaleza y los mecanismos de la desinformación es vital para fortalecer las democracias y proteger la integridad de los procesos políticos.