El avance vertiginoso de la inteligencia artificial ha abierto nuevas fronteras tanto en la tecnología como en la interacción social en línea. Sin embargo, no todas las aplicaciones de estas tecnologías son aceptadas sin cuestionamientos, especialmente cuando implican la manipulación de debates públicos sin consentimiento. Tal es el caso de un experimento reciente y no autorizado realizado en el subreddit r/changemyview (CMV), uno de los foros más respetados en plataformas como Reddit por su enfoque en debates respetuosos y bien fundamentados. Este experimento, llevado a cabo por un equipo de la Universidad de Zúrich, consistió en la publicación de comentarios generados mediante inteligencia artificial con la intención de medir si estos podían cambiar las opiniones de los usuarios reales. La iniciativa generó un intenso debate sobre ética en la investigación, consentimiento de los usuarios y transparencia en el uso de tecnologías de IA.
El subreddit r/changemyview se destaca por su estricta moderación y condiciones claras que buscan fomentar discusiones constructivas. Los participantes normalmente intercambian puntos de vista y están abiertos a modificar sus opiniones gracias a argumentos bien planteados. La confianza en la sinceridad y en la buena fe de los interlocutores forma la base de esta comunidad, lo que hace que la revelación sobre el experimento no autorizado haya provocado un profundo malestar. Durante cuatro meses, desde noviembre de 2024 hasta marzo de 2025, el equipo de la Universidad de Zúrich utilizó múltiples cuentas falsas que publicaban respuestas generadas por modelos de lenguaje para intervenir en los debates. Esta acción fue realizada sin la autorización ni el conocimiento de los moderadores ni de los participantes.
Uno de los aspectos más polémicos fue la forma en que los bots artificiales crearon relatos personales falsos, inventando biografías detalladas para dar peso emocional a sus argumentos. Por ejemplo, un bot denominado "markusruscht" compartió una historia complicada sobre su familia y sus experiencias migratorias que resultaron ser completamente fabricadas. Esta estrategia de utilización de anécdotas ficticias, que apelaban a la empatía y a la dimension humana, sobrepasó las fronteras éticas al inducir a engaño a usuarios sin su consentimiento, distorsionando la dinámica natural de los diálogos en la comunidad. El equipo de investigación se defendió argumentando que el estudio tenía un valor significativo para comprender cómo la inteligencia artificial podría influir en opiniones sobre temas de alta relevancia social. Aseguraron que tomaron precauciones para evitar la difusión de contenido dañino o patógeno, asegurando una revisión humana antes de publicar cualquier comentario generado.
Sin embargo, el permiso para la manipulación de identidades y experiencias personales, aunque supuestamente sin mentir sobre hechos reales, fue cuestionado con fuerza por la comunidad y profesionales de la ética. Los moderadores de CMV respondieron con firmeza, insistiendo en que la manipulación psicológica mediante IA es un área ampliamente estudiada y que no justificaría un experimento con sujetos no consentidos. Destacaron que el incumplimiento de las reglas de la comunidad y la ausencia de transparencia invalidaban cualquier excusa, además de vulnerar la confianza que hace posible un debate honesto y abierto. El impacto psicológico que podría generar esta práctica fue subestimado por los investigadores, según los moderadores, pues puede generar traumas o confusión entre los participantes. La Universidad de Zúrich, por su parte, mantuvo una posición defensiva al recalcar que los riesgos del experimento eran mínimos y que el conocimiento adquirido sobre la interacción humano-IA en contextos sociales justifica la realización de este tipo de investigaciones.
Este desacuerdo refleja tensiones más amplias entre la academia, las plataformas digitales y la sociedad en general sobre cómo deben manejarse las pruebas con tecnologías emergentes y la necesidad ética de respetar a los usuarios involucrados. Un elemento crítico para entender los problemas de esta investigación reside en la estrategia de prompts utilizada para generar las respuestas. Los investigadores permitieron a los agentes artificiales crear personas ficticias y compartir detalles sobre sus supuestas experiencias, aunque supuestamente sin mentir sobre hechos verificables. Esta contradicción abrió la puerta para que se usaran relatos inventados destinados a persuadir emocionalmente, lo que difumina la línea entre la persuasión legítima y la decepción deliberada. Tal práctica no sólo coloca en duda la validez científica del estudio, sino que plantea un antecedente preocupante para futuros proyectos de IA en contextos sociales.
La experiencia recuerda episodios anteriores donde grandes corporaciones desplegaron bots en grupos de redes sociales sin un etiquetado claro, como la iniciativa de Meta en Facebook, donde se publicaron contenido generado por IA presentando relatos personales falsos. La diferencia en el caso de CMV radica en que no hubo aviso ni consentimiento, lo que intensifica la controversia. Este episodio ha provocado un debate profundo a nivel global sobre la ética en la investigación con inteligencia artificial, principalmente cuando esta se aplica a entornos sociales sensibles y a comunidades que valoran la autenticidad y la buena fe. Además, cuestiona la forma en que las plataformas y los investigadores deben manejar la transparencia y la regulación para evitar la manipulación encubierta. Para usuarios y moderadores de comunidades en línea, aprender de esta experiencia es fundamental.
La confianza y la apertura son esenciales para el diálogo y la deliberación social. Cuando la tecnología atraviesa estas bases sin consenso, se pone en riesgo la calidad y la sinceridad del intercambio de ideas. Por otra parte, los investigadores y desarrolladores deben considerar cuidadosamente las consecuencias éticas de sus métodos y asegurar que los participantes estén informados y de acuerdo, respetando las normas comunitarias y los derechos individuales. En conclusión, el experimento llevado a cabo en r/changemyview no sólo revela los desafíos técnicos de integrar la inteligencia artificial en discusiones humanas, sino que también expone las profundas implicaciones éticas y sociales de su uso. El equilibrio entre la innovación científica y la responsabilidad moral es delicado y requiere un diálogo abierto entre académicos, plataformas, reguladores y usuarios.
Solo a través de este compromiso será posible aprovechar el potencial de la inteligencia artificial para enriquecer el intercambio intelectual sin sacrificar la confianza y la integridad que sostienen las comunidades en línea.