En la era digital, la información se ha convertido en un recurso tan valioso como vulnerable. La desinformación, entendida como la difusión deliberada de información falsa o engañosa con la intención de manipular a la opinión pública, ha existido desde tiempos ancestrales. Sin embargo, en las últimas décadas, el impulso de tecnologías emergentes ha cambiado radicalmente la forma en que se producen y difunden estas falsas narrativas. Un punto de inflexión importante en esta tradición preocupante fue el lanzamiento de GPT-3 por OpenAI en 2020, un avanzado modelo de lenguaje basado en inteligencia artificial capaz de generar texto de manera sorprendentemente humana. Este avance tecnológico plantea interrogantes fundamentales sobre el futuro de la verdad, las mentiras y la automatización en el ámbito de la información.
Desde siempre, la creación de contenido para campañas de desinformación ha sido una tarea principalmente humana, requiriendo desde la producción creativa de textos y discursos hasta la gestión coordinada de narrativas complejas para influir en grupos sociales o políticos. En campañas notorias como la injerencia rusa en las elecciones presidenciales de Estados Unidos, cientos de agentes humanos trabajaron para amplificar divisiones existentes mediante la propagación de verdades manipuladas y mentiras estratégicas. Sin embargo, con el desarrollo de modelos generativos como GPT-3, el proceso creativo comienza a automatizarse hasta niveles sin precedentes, con capacidad para crear mensajes coherentes, convincentes y adaptados a diferentes audiencias en cuestión de segundos. GPT-3 ha sido entrenado con un vasto recopilatorio de textos humanos que abarca más de un billón de palabras, lo que le permite imitar estilos de redacción variados, desde noticias y editoriales hasta memes de internet. Su flexibilidad y sofisticación permiten que, con una simple instrucción o “prompt” humano, pueda producir contenido que indistinguiblemente parece haber sido escrito por personas reales.
Esta capacidad tiene un lado positivo innegable en ámbitos como la asistencia en redacción, generación de ideas o automatización de tareas, pero también presenta riesgos significativos cuando se aplica para la fabricación masiva de desinformación. El análisis de cómo GPT-3 puede ser utilizado para fortalecer campañas de desinformación revela que no reemplaza completamente la interacción humana, sino que funciona mejor como un aliado dentro de un equipo humano-máquina. Es decir, operadores humanos aún diseñan las directivas, supervisan y seleccionan los mejores contenidos generados a partir de múltiples opciones que ofrece el modelo, asegurando que las narrativas se mantengan adaptadas a objetivos específicos. La combinación del pensamiento estratégico humano con la rapidez y variedad creativa de la inteligencia artificial podría escalar la producción de desinformación a niveles nunca antes vistos. Dentro de este contexto, se han identificado diversas tareas en las que modelos como GPT-3 sobresalen para fines de desinformación.
Una de ellas es la reiteración narrativa, que consiste en generar múltiples mensajes cortos que repiten o refuerzan un tema particular, como negacionismo climático. En este aspecto, GPT-3 demuestra una gran eficiencia incluso con mínima intervención humana, pudiendo producir variaciones creativas que mantienen la unidad temática indispensable para influir en la percepción pública. Otra habilidad relevante es la elaboración narrativa, que implica desarrollar historias de longitud media que enmarcan hechos o argumentos bajo una determinada cosmovisión o sesgo, partiendo de indicios breves como titulares. Al ser ajustado con precisión, el modelo mantiene una coherencia narrativa que ayuda a construir relatos falsos o manipulados con mayor credibilidad, facilitando su difusión entre audiencias susceptibles. La manipulación narrativa también figura como una tarea donde GPT-3 puede reescribir artículos informativos desde ángulos alternativos destinados a cambiar el tono o la conclusión con fines propagandísticos.
Aunque todavía con algunas limitaciones en coherencia total, el modelo ya es capaz de producir textos que deforman hechos para favorecer perspectivas sesgadas, ampliando el impacto de la desinformación. Particularmente preocupante resulta la capacidad de la inteligencia artificial para «sembrar» nuevas narrativas, es decir, crear conspiraciones o teorías especulativas que pueden convertirse en movimientos sociales o colectivos de pensamiento radicalizado. GPT-3 puede imitar con precisión estilos vinculados a teorías como QAnon, generando textos que podrían enganchar a lectores y alimentar discursos extremistas que dinamitan la cohesión social. El llamado «wedging» o cuña narrativa es otra de las áreas donde las máquinas, junto con operadores humanos, pueden producir mensajes dirigidos a grupos específicos, tomando en cuenta características demográficas como raza o religión, para agudizar divisiones sociales. Aquí, el riesgo de promover estereotipos y lenguaje racista se amplifica debido a ciertos sesgos inherentes en los datos de entrenamiento del modelo, lo cual es motivo de especial preocupación ética.
Finalmente, la persuasión narrativa basada en ideologías políticas o creencias particulares muestra que mensajes diseñados por humanos y generados por GPT-3 pueden modificar actitudes en encuestas experimentales, alterando apoyos o rechazos en temas internacionales complejos como las sanciones económicas o el retiro militar. Esta evidencia subraya la efectividad potencial de la automatización para influir en la opinión pública de manera segmentada y dirigida. Pese a estas capacidades, GPT-3 no es infalible y su lenguaje a veces carece de foco claro o tiende a adoptar extremos que pueden resultar poco creíbles si no son cuidadosamente revisados. Sin embargo, estas imperfecciones no necesariamente reducen su utilidad en campañas diseñadas para sembrar confusión, exageración y tensión social, ya que la sobrecarga de mensajes contradictorios o impactantes forma parte de la estrategia desinformativa. Desde una perspectiva geopolítica, la implementación de tecnologías similares a GPT-3 en manos de actores estatales o grupos con recursos suficientes no se vislumbra como un obstáculo técnico insuperable.
Países con capacidades tecnológicas avanzadas, incluyendo a China y Rusia, podrían adaptar o desarrollar modelos de lenguaje semejantes para potenciar sus operaciones de influencia y desinformación a escala, multiplicando la complejidad de enfrentar estos desafíos. Frente a la inevitable integración de automatizaciones en campañas de desinformación, los esfuerzos para mitigar este fenómeno deberían centrarse más en los mecanismos y plataformas que permiten la propagación masiva de contenidos falsos, como cuentas falsas en redes sociales, botnets y otros sistemas de amplificación automatizada. La atribución directa del texto al autor humano o máquina resulta cada vez más imprecisa y poco fiable, dada la calidad que alcanzan los modelos y su adaptación en entornos colaborativos humano-máquina. La proliferación de desinformación generada por inteligencia artificial plantea importantes cuestiones éticas, sociales y políticas que deben ser abordadas con urgencia desde diferentes frentes: regulación tecnológica, educación mediática, desarrollo de tecnologías de detección y fortalecimiento de la transparencia informativa. La coexistencia de verdaderos y falsos contenidos, mezclados con precisión por asistentes automatizados, complica el panorama tradicional de verificación y desacreditación rápida, obligando a la sociedad a repensar sus mecanismos de confianza y discernimiento.