En abril de 2025, un grupo de científicos del University of Zurich confesó haber llevado a cabo una investigación poco ortodoxa en Reddit, una de las plataformas más populares de discusión en Internet. Su objetivo era estudiar si la inteligencia artificial, específicamente los modelos de lenguaje de última generación, podrían influir en las opiniones de los usuarios en los debates. Para ello, los investigadores utilizaron cuentas automatizadas para publicar contenido generado por inteligencia artificial en el subreddit r/changemyview, un foro específicamente diseñado para que los usuarios expresen sus opiniones y desafíen a otros a modificar su punto de vista. Este experimento no fue comunicado ni autorizado por los moderadores de la comunidad, lo que generó una polémica inmediata. El subreddit r/changemyview tiene normas claras que exigen la transparencia respecto al uso de contenido generado por inteligencia artificial, una condición que fue ignorada por los científicos suizos.
La comunidad recibió con preocupación que algunas publicaciones simulaban experiencias personales extremadamente sensibles, como el relato de víctimas de abuso y ataques contra grupos específicos, mientras otras representaban personajes con identidades bien precisas para aumentar el impacto persuasivo. El doctorado en comunicación persuasiva y los conocimientos técnicos sobre IA permitieron a los investigadores crear mensajes que no sólo replicaban la voz humana sino que además adaptaban sus argumentos a las características demográficas y políticas de los usuarios, como la edad, género, etnia, ubicación y orientación política. Esto aumentó la personalización y la efectividad del intento de cambio de opinión, haciendo el experimento una prueba de campo a gran escala sobre la capacidad de los Large Language Models (LLMs) para persuadir en contextos reales. Desde el punto de vista científico, el estudio buscaba aportar datos esenciales sobre el alcance de las nuevas tecnologías y su influencia en la formación de opiniones en línea, un tema de gran relevancia en la actualidad debido a la proliferación de contenido automatizado y desinformación. Sin embargo, la forma en que se llevó a cabo el experimento, sin consentimiento explícito de los usuarios afectados y violando reglas comunitarias, ha generado fuertes críticas éticas y académicas.
Los moderadores del subreddit no tardaron en descubrir la transgresión tras recibir una notificación de parte de los propios investigadores en marzo de 2025, momento en que el control de la comunidad se vio amenazado. La denuncia pública de los administradores subrayó cómo algunas cuentas de bot intervino en debates delicados pretendiendo tener experiencias traumáticas reales o adoptando posiciones políticas conflictivas. En respuesta, los moderadores presentaron una queja formal ante la institución suiza, pidiendo que el estudio no fuera publicado, bajo el argumento de que la investigación causó daño potencial a los participantes sin contar con su consentimiento. La Universidad de Zurich defendió el proyecto afirmando que la investigación proporciona evidencias importantes y que los riesgos para los usuarios son mínimos en comparación con el valor del conocimiento generado. Esta postura fue calificada como insuficiente y negligente por numerosos expertos en ética de la investigación y derechos digitales que destacaron el impacto emocional y la manipulación implícita al engañar a los usuarios.
Entre las voces críticas sobresalió la del profesor Casey Fiesler, especialista en ética de la información, quien señaló que manipular comunidades en línea mediante la mentira y sin permisos va más allá del riesgo bajo y acarrea daños en el entorno de interacción social digital. La polémica ha puesto de relieve la necesidad urgente de establecer regulaciones claras y marcos éticos para el uso de inteligencia artificial en investigación social y comunicación digital, con especial atención al consentimiento informado y la transparencia. Este episodio también permite comparar metodologías. Mientras la Universidad de Zurich optó por intervenir activamente en la plataforma, OpenAI, otro actor clave en inteligencia artificial, llevó a cabo estudios similares analizando datos descargados de r/changemyview sin involucrar directamente a los usuarios, evitando así experimentar en sujetos sin consentimiento. Este contraste ha inclinado a muchos especialistas a considerar más éticas las aproximaciones indirectas o simuladas donde no se engaña a personas reales.
Desde una perspectiva tecnológica, la investigación suiza reveló el enorme potencial persuasivo de las grandes inteligencias artificiales, superando métricas previas de influencia humana en contextos reales. Esto confirma que, en manos adecuadas, estas herramientas pueden transformar profundamente cómo se debaten ideas y se transmiten argumentos en Internet. Sin embargo, también plantea retos que van desde la desinformación hasta el abuso emocional y político, si se utilizan sin controles responsables. Además, el caso ha reavivado discusiones sobre la necesidad de sistemas transparentes que etiqueten claramente el contenido generado por IA, tal como anunció China con planes regulatorios específicos, y sobre la licenciatión y regulación de expertos en inteligencia artificial para asegurar prácticas éticas. Este debate es especialmente pertinente tras la reciente desarticulación del equipo de ética en IA de Microsoft, lo que deja en evidencia las tensiones entre innovación, negocio y responsabilidad social.
En definitiva, la investigación realizada por los científicos suizos es un ejemplo paradigmático de cómo el avance de la inteligencia artificial interseca con dilemas éticos y sociales complejos. Presenta un llamado a que universidades, desarrolladores, plataformas digitales y autoridades regulatorias colaboren para diseñar pautas claras que permitan investigar y aprovechar el potencial de la IA sin socavar la confianza y la integridad de las comunidades en línea. Este evento invita a reflexionar sobre el futuro del diálogo digital y el papel crítico que juegan los humanos y las máquinas en la formación de nuestras ideas y percepciones. El equilibrio entre progreso científico y respeto a los derechos individuales será un tema clave en el camino hacia una sociedad cada vez más interconectada y automatizada.