En los últimos años, el desarrollo y la adopción de modelos avanzados de lenguaje basado en inteligencia artificial (IA) han transformado múltiples ámbitos, desde la comunicación hasta la toma de decisiones empresariales. Sin embargo, esta revolución tecnológica no está exenta de vulnerabilidades, especialmente frente a estrategias de manipulación desplegadas por actores estatales. Recientemente, un estudio detallado realizado por el grupo de análisis NewsGuard expuso cómo una red de desinformación vinculada a Rusia llamada Pravda ha inundado la web con contenido diseñado para influir en el entrenamiento de los principales modelos de lenguaje, afectando directamente la integridad y confiabilidad de las respuestas de las IA más utilizadas en el mundo occidental, como ChatGPT-4o, Claude de Anthropic, Meta AI, Gemini de Google y Microsoft Copilot. Esta red, que goza de un respaldo financiero considerable, lanzó alrededor de 3.6 millones de artículos en un solo año, entrando al ecosistema digital con la intención explícita de modificar las bases de datos a partir de las cuales dichas inteligencias artificiales aprenden y generan sus respuestas.
El fenómeno señalado va mucho más allá de la simple propagación de noticias falsas o contenido sesgado. Aquí se trata de una estrategia de captura y manipulación del contexto informativo que alimenta a las tecnologías más sofisticadas de procesamiento del lenguaje natural. El procedimiento, conocido como "LLM grooming", consiste en saturar los datos de entrada de los modelos con narrativas fabricadas que luego son reproduci-das por estos sistemas en casi una tercera parte de sus respuestas, según los hallazgos. Esto no solamente distorsiona la información que reciben los usuarios finales, sino que instala una base problemática para futuros desarrollos y aplicaciones de la tecnología. En la práctica, cuando un chatbot basado en inteligencia artificial responde a consultas sobre temas políticos, geopolíticos o sociales, puede estar ofreciendo perspectivas influenciadas o contaminadas por propagandas construidas deliberadamente para manipular percepciones.
Lo preocupante del método detectado es que la red rusa Pravda no se limita a la creación directa de contenidos originales. Su modus operandi es amplificar y repostear materiales provenientes de medios estatales y simpatizantes del Kremlin, distribuidos a través de una extensa red de más de 150 sitios web. Estos portales están segmentados por regiones geográficas y temáticas: aproximadamente 40 se centran en la cobertura de Ucrania, otros 70 abordan temáticas europeas y el resto se disemina por África, Medio Oriente, América del Norte, Asia y el Pacífico. Una característica peculiar es el uso sistemático de dominios con nombres de ciudades y regiones específicas en Ucrania, lo que añade un tono localista y una apariencia de fuentes auténticas para atraer a diferentes audiencias. Durante los tres años de conflicto bélico en Ucrania, la red ha sistematizado la difusión de más de 200 narrativas desinformativas que desinforman sobre temas delicados, desde supuestas 'biolaboratorios secretos de EE.
UU. en Ucrania' hasta acusaciones infundadas contra el presidente Zelenski sobre el mal uso de la ayuda militar estadounidense. Estas falsedades se insertan estratégicamente en grandes cantidades de contenido digital con la intención clara de que sean recogidas por algoritmos de inteligencia artificial y, por ende, sean replicadas masivamente más adelante. Los análisis realizados por American Sunlight Project (ASP) corroboran este patrón, sugiriendo que la manipulación directa de tecnología, en vez de la difusión masiva hacia humanos, constituye el objetivo central de Pravda. Esto revela una evolución en las tácticas de guerra informativa: pasar de un modelo clásico de propaganda dirigida a personas hacia una metodología que busca infectar las plataformas de información automatizadas —los LLM o modelos de lenguaje de gran escala— para que actúen como vehículos involuntarios de desinformación.
El impacto no se limita a Rusia o Ucrania, pues estas redes y técnicas influyen directamente en los entornos digitales occidentales, haciendo que modelos utilizados en negocios, gobiernos y por población general sean susceptibles de replicar sesgos o mentiras sofisticadas. Conforme más información manipulada se infiltra en la web, mayor es el riesgo de que estas tecnologías asimilen erróneamente como verdades las falsedades promovidas. Este fenómeno plantea desafíos cruciales para los desarrolladores de inteligencia artificial, quienes deben implementar filtros y procesos rigurosos para validar la calidad y veracidad de sus fuentes. Sin embargo, el problema es profundo porque la red Pravda opera adaptándose, diversificando idiomas y plataformas, lo que dificulta un bloqueo total y efectivo. La comunidad internacional, por su parte, observa con inquietud la congelación de operaciones ofensivas de ciberdefensa por parte de entidades como el Comando Cibernético de Estados Unidos, justo cuando estas campañas de manipulación digital se intensifican.
Esto subraya la necesidad urgente de estrategias multifacéticas que combinen capacidades técnicas con políticas de cooperación internacional para contrarrestar amenazas híbridas que invaden tanto el espacio digital como el informativo. Por último, este caso evidencia la complejidad de preservar la integridad de los sistemas de inteligencia artificial en un entorno donde la guerra de la información es constante y evoluciona rápidamente. La infiltración de redes de desinformación en los datos de entrenamiento representa un síntoma de un problema más amplio: la vulnerabilidad de nuestras herramientas digitales ante actores que explotan la confianza automatizada y la dependencia tecnológica. Solamente a través de la cooperación global, el desarrollo de nuevas metodologías de detección y el compromiso con estándares éticos rigurosos será posible mitigar estas afectaciones y garantizar que la inteligencia artificial siga siendo un recurso confiable para el avance humano.