En la era digital, la inteligencia artificial ha transformado numerosos aspectos de nuestra vida cotidiana, desde la forma en que consumimos información hasta la manera en que interactuamos con la tecnología. Sin embargo, uno de los debates más fascinantes y controvertidos gira en torno a la capacidad de los modelos de lenguaje, como ChatGPT, para generar respuestas plausibles pero a menudo imprecisas o completamente inventadas. Esta característica, conocida como 'alucinación' en el ámbito de la inteligencia artificial, se refiere a la producción de contenido que suena convincente pero carece de una base factual sólida. Curiosamente, cuando observamos el discurso político contemporáneo, especialmente durante la presidencia de Donald Trump, encontramos un fenómeno paralelo a estas alucinaciones digitales, donde la verdad y los hechos a menudo parecen ser secundarios frente a la narración convincente y persuasiva. Los modelos de lenguaje de inteligencia artificial operan fundamentalmente a partir de enormes cantidades de datos, aprendiendo patrones estadísticos y lingüísticos para crear respuestas coherentes ante las preguntas o prompts que se les presentan.
Sin embargo, estas respuestas no surgen de un entendimiento genuino ni de un análisis crítico de la realidad, sino de una simulación calculada cuyo objetivo primordial es satisfacer las expectativas del usuario con una narrativa plausible y coherente en apariencia. Esto implica que, aunque las respuestas puedan sonar autoritarias y confiables, no necesariamente reflejan información verídica o comprobable. Este comportamiento genera consecuencias evidentes cuando las personas usan estas tecnologías sin un conocimiento adecuado sobre sus limitaciones o sin contrastar las fuentes. Algunos incidentes cómicos pero ilustrativos incluyen sitios web reductores que, por ejemplo, citan falsamente casos legales o inventan referencias académicas, lo cual da cuenta de la naturaleza misma de estos sistemas: máquinas que no entienden sino que simulan comprensión a través de patrones. Ahora bien, el paralelismo con el ámbito político se vuelve evidente cuando analizamos ciertas respuestas y discursos presidenciales, particularmente aquellos ofrecidos por Donald Trump.
Al igual que un modelo de lenguaje, su aproximación a preguntas complicadas y temas de política suele pasar por alto los detalles fácticos para volcar una construcción discursiva diseñada para sonar segura y satisfacer a su base electoral. La precisión de los datos o el compromiso con la realidad no son objetivos primarios; por el contrario, la decoración del mensaje se orienta a una narrativa que monopolicen el consenso y apelen a las emociones del público. Durante diversas entrevistas y declaraciones públicas, observamos cómo Trump a menudo desvía preguntas específicas o, en ocasiones, niega hechos evidentes para luego afirmar supremacías o victorias sin respaldo tangible. Por ejemplo, frente a interrogantes sobre recortes presupuestales o medidas políticas controversiales, suele responder con discursos amplios y vagos, salpicados de acusaciones dirigidas contra opositores o instituciones, sin aportar datos concretos o evidencia empírica. Este tipo de respuestas produce un efecto similar a las 'alucinaciones' de ChatGPT, en el sentido de ser verborrea que aparenta saber pero no profundiza ni reconoce la complejidad del asunto.
En un ejercicio experimental, se ha llegado a configurar modelos de inteligencia artificial con un 'prompt' o instrucción formal que simula la personalidad de un líder político con rasgos narcisistas y una tendencia marcada a la negación de responsabilidad, lo cual llevó al modelo a generar respuestas casi indistinguibles de las formulaciones reales del expresidente. Algunas diferencias notables mostraron que el modelo podía ser incluso más coherente en la estructura del discurso, lo que indica cuán imprecisos y fragmentados pueden ser los mensajes presidenciales reales en ocasiones. Este hallazgo invita a reflexionar sobre la calidad del discurso político y la manera en que se construyen las narrativas en la opinión pública. Es importante destacar que la principal amenaza no radica en la existencia de estas alucinaciones sino en la credibilidad que les conceden las audiencias. En la medida en que tanto los ciudadanos como los medios de comunicación aceptan sin crítica estas narrativas como verdades incontestables, el riesgo de desinformación, polarización y decisiones basadas en premisas erróneas se acrecienta considerablemente.
La analogía entre la inteligencia artificial que genera textos plausibles sin comprobar hechos y la política que se basa en prosopopeyas vacías o manipulaciones retóricas es así una llamada de atención sobre la necesidad de una interpretación crítica y fundamentada de cualquier información que se nos presente. Además, este fenómeno pone en evidencia la diferencia crucial entre inteligencia y apariencia de inteligencia. La confianza vocal o la fluidez verbal, tanto en humanos como en máquinas, pueden generar la ilusión de conocimiento profundo, pero no pueden reemplazar el análisis certero, la comprensión contextual y la honestidad intelectual. Esta reflexión es vital tanto para quienes consumen información como para quienes la generan, especialmente en el contexto político donde las consecuencias pueden ir más allá de un mero debate y afectar la vida cotidiana de millones de personas. La comparación entre los discursos presidenciales y los modelos de IA también ha suscitado preguntas sobre el papel de los medios de comunicación en este contexto.
El persistente enfoque en buscar estrategias o significados ocultos detrás de declaraciones incoherentes puede ser un desperdicio de recursos cuando en realidad lo que se observa es simplemente un proceso de generación de respuestas sin un compromiso real con los hechos. En lugar de intentar dotar de profundidad a lo superficial, sería más útil para la salud democrática aprender a identificar y denunciar esos patrones, promoviendo una cultura de cuestionamiento saludable y exigencia de responsabilidad. Los expertos en lingüística política y ciencias de la comunicación señalan que este fenómeno no es exclusivo de un solo líder o administración, sino que refleja una tendencia más amplia en la política moderna, donde la información se couchée en términos de espectáculo, emociones y viralidad por encima de rigor y sustancia. En este sentido, la presencia y crecimiento de herramientas de inteligencia artificial que a menudo replican estas dinámicas sin filtro puede ser tanto un síntoma como un catalizador de este panorama. Ante estos desafíos, una de las estrategias más efectivas es promover la alfabetización mediática y digital, dotando a la población de herramientas críticas para discernir la calidad, veracidad y la intención detrás de los mensajes que recibe.
Contrastar fuentes, verificar datos y mantener una actitud escéptica saludable son entre los principales cimientos para resistir la influencia de discursos fabricados y de las denominadas 'alucinaciones' en la comunicación política y tecnológica. La analogía precisa entre la generación de respuestas por inteligencia artificial y la construcción discursiva presidencial ayuda también a reflexionar sobre la idoneidad de confiar en ciertos formatos comunicativos para fines críticos, como la toma de decisiones políticas o la formación de opinión pública. El reconocimiento de que no todos los discursos tienen el mismo valor informativo debe conducir a una mayor exigencia ética y profesionalidad en la comunicación oficial, así como a una búsqueda activa de la transparencia y la verdad. En última instancia, la coexistencia de modelos de lenguaje generativos y discursos políticos narcisistas y desvinculados de los hechos obliga a la sociedad a revisar sus mecanismos de validación del conocimiento y responsabilidad. Es imperativo no solo comprender cómo operan las tecnologías ni cómo funcionan los lenguajes políticos, sino también cómo estas intersecciones impactan en nuestra democracia, en las instituciones y en la confianza pública.