En el mundo digital actual, donde las redes sociales y los foros en línea se han convertido en espacios clave para el intercambio de ideas, la influencia de la inteligencia artificial (IA) en la formación de opiniones es un tema que genera creciente interés y debate. Recientemente, un experimento llevado a cabo de forma encubierta por la Universidad de Zúrich ha puesto en jaque la confianza en estos espacios, al revelar cómo la IA puede alterar las opiniones de usuarios reales en plataformas comunitarias como Reddit. El caso que ha captado la atención internacional tuvo lugar en el subreddit r/changemyview, un espacio dedicado a debatir y desafiar opiniones personales de manera respetuosa y humana. Durante un periodo de cuatro meses, investigadores de la Universidad de Zúrich llevaron a cabo un experimento sin autorización previa de la comunidad, utilizando cuentas gestionadas por inteligencia artificial para interactuar con los miembros del foro. Lo que hace especialmente delicado este experimento es el uso de cuentas falsas que encarnaban diversos roles, desde víctimas de abuso hasta opositores a ciertos movimientos sociales o consejeros especializados en trauma y abuso.
Estas personalidades fueron generadas por IA y diseñadas para responder de forma convincente, con la intención de persuadir a los usuarios y provocar cambios en sus puntos de vista. Los responsables del subreddit expresaron su descontento inmediato al descubrir que la identidad de los interlocutores no era humana ni declarada, enfatizando que su comunidad se basa en el diálogo auténtico entre personas reales y que consideran inaceptable cualquier experimento no comunicado y no consensuado. Este sentimiento refleja una preocupación creciente en torno a la transparencia y la ética en la aplicación de tecnología avanzada en entornos sociales. Según el borrador del trabajo científico elaborado por los investigadores suizos, las respuestas generadas por la IA no fueron genéricas ni automáticas; por el contrario, se personalizaron utilizando información previamente obtenida sobre los usuarios, incluyendo aspectos como orientación política, edad, género y etnia. Esta estrategia incrementó la efectividad persuasiva de las intervenciones, haciendo aún más difícil para los participantes detectar la naturaleza artificial de las cuentas.
Durante la duración del experimento, las cuentas automatizadas emitieron casi 1800 comentarios, de los cuales 137 fueron reconocidos por otros usuarios como persuasivos, mediante un sistema de agradecimientos que indica cambio de opinión. Este dato no solo pone en evidencia la capacidad de la IA para influir en opiniones, sino también el grado en que la comunidad fue inconsciente de la intervención. Los investigadores argumentaron que el experimento fue sometido a una revisión manual cuidadosa antes de publicar cada comentario, para asegurar que se respetaran las normas de la comunidad y minimizar posibles daños. Asimismo, defendieron que los beneficios científicos y sociales del estudio superan significativamente los riesgos involucrados. Al demostrar que los modelos de lenguaje actuales superan los estándares previos de persuasión humana, anticiparon que estos hallazgos podían alertar a la sociedad frente al potencial uso malicioso que actores perjudiciales podrían hacer de esta tecnología.
No obstante, la polémica escaló cuando el comité de ética de la Facultad de Artes y Ciencias de la Universidad reconoció la deficiencia en la coordinación con la comunidad de Reddit y emitió recomendaciones para aumentar la rigurosidad en futuros estudios y mejorar la comunicación con los sujetos participantes. De hecho, este organismo impuso una advertencia formal al investigador principal y decidió que los resultados del estudio no se publicarán para evitar posibles daños adicionales. La plataforma Reddit, por su parte, reaccionó contundentemente prohibiendo todas las cuentas asociadas con el experimento y manifestó que el proyecto violó los términos de uso y las reglas del sitio. El jefe legal de Reddit confirmó que se están evaluando acciones legales contra los responsables para proteger a la comunidad y preservar la integridad del espacio. Este incidente no solo visibiliza los riesgos inherentes al uso no consensuado de inteligencia artificial en espacios sociales, sino que también plantea preguntas clave sobre la ética en la investigación con nuevos paradigmas tecnológicos.
La manipulación encubierta de opiniones puede socavar la confianza social, alterar debates importantes y abrir la puerta a prácticas cuestionables con fines menos nobles que la exploración académica. Además, la experiencia demuestra lo avanzado que está el desarrollo de modelos de lenguaje capaces de imitar con gran realismo la interacción humana, hasta el punto de pasar desapercibidos durante largos periodos. Esto genera la urgente necesidad de crear mecanismos robustos para detectar actividad automatizada, garantizar la transparencia y proteger a los usuarios de posibles manipulación. En un momento en que la inteligencia artificial está cada vez más integrada en muchas facetas de la vida cotidiana, la sociedad debe prestar atención a estos desafíos. La confianza, la ética y el respeto mutuo en los entornos digitales dependen de saber dónde están los límites, qué prácticas son aceptables y cómo garantizar la protección de la autonomía individual.
El experimento de la Universidad de Zúrich sirve como advertencia sobre las consecuencias inesperadas que pueden surgir cuando avances tecnológicos se implementan sin las salvaguardas adecuadas. Para investigadores, legisladores y plataformas sociales, se abre una tarea importante: fomentar la innovación responsable, promover la transparencia y proteger a los usuarios de intervenciones ocultas que puedan vulnerar su derecho a una comunicación honesta. Mientras tanto, los debates públicos sobre ética en IA se vuelven más cruciales que nunca, especialmente en cómo estas tecnologías impactan en la formación de opiniones, la difusión de información y el mantenimiento de una comunidad digital sana y confiable. La responsabilidad compartida y el diálogo abierto entre todos los actores serán claves para construir un futuro digital en el que la inteligencia artificial sirva para potenciar, no para manipular, la experiencia humana.