En la era digital, donde la inteligencia artificial avanza a pasos agigantados, las fronteras entre la ética, la tecnología y la privacidad se vuelven cada vez más difusas. Recientemente, la Universidad de Zúrich ha protagonizado un polémico episodio al llevar a cabo un experimento secreto en Reddit, una de las comunidades virtuales más grandes y activas del mundo. Este experimento utilizó cuentas impulsadas por inteligencia artificial que interactuaron con usuarios reales para intentar modificar sus opiniones sobre diversos temas, generando un intenso debate sobre las implicaciones éticas y legales de estas prácticas. La Facultad de Artes y Ciencias de la Universidad de Zúrich llevó a cabo un estudio durante cuatro meses en un subreddit muy popular llamado r/changemyview, que cuenta con más de 3.8 millones de miembros.
Esta plataforma es conocida por ser un espacio donde las personas discuten ideas y están abiertas a cambiar sus puntos de vista basándose en argumentos razonados. Lo que parecía ser un escenario ideal para poner a prueba la persuasión de la inteligencia artificial terminó revelando ser un laboratorio oculto donde usuarios humanos estaban siendo manipulados sin su conocimiento. Durante el experimento, las cuentas controladas por IA publicaron casi 1,800 comentarios, imitando diversas personalidades humanas. Entre estos personajes virtuales se encontraban desde una supuesta víctima de violación hasta un consejero especializado en trauma por abuso, así como personas con posturas críticas hacia ciertas corrientes sociales. La sofisticación del experimento permitió que los mensajes fueran personalizados para cada usuario, considerando detalles extraídos de sus perfiles en Reddit como orientación política, género, edad y etnia.
Esta personalización aumentó la capacidad de la inteligencia artificial para persuadir efectivamente y adaptarse a la sensibilidad del público. Sorprendentemente, ninguno de los miembros del subreddit logró identificar que estaban interactuando con bots. La naturalidad con la que la IA comunicaba fue tal que en 137 ocasiones se reconoció públicamente que un cambio en la opinión de un usuario había sido provocado por una de estas cuentas automatizadas. Esto pone en evidencia no solo el avance tecnológico de las grandes modelos de lenguaje, sino también el riesgo latente de su uso para manipular el discurso público y las percepciones individuales sin transparencia ni supervisión. Los moderadores de r/changemyview expresaron su indignación por la falta de consentimiento y comunicación previa.
Aseguraron que su comunidad se fundamenta en la interacción humana genuina y repudian cualquier tipo de experimentación no revelada, especialmente cuando esta involucra inteligencia artificial. Para ellos, llevar a cabo un experimento tan invasivo sin informar ni obtener la aprobación explícita de sus usuarios constituye una violación directa a la confianza y las reglas internas de Reddit. Ante la revelación del experimento, Reddit intervino rápidamente. La plataforma bloqueó todas las cuentas relacionadas con la investigación de la Universidad de Zúrich y anunció que está considerando tomar acciones legales contra los responsables, dado que esta práctica incumplió sus políticas de usuario. Ben Lee, director jurídico de Reddit, declaró su compromiso de proteger a la comunidad y garantizar que los investigadores rindan cuentas por esta operación encubierta.
Por su parte, la Comisión de Ética de la Facultad de Artes y Ciencias de la propia universidad realizó una investigación interna, reconociendo que el proyecto no contó con una coordinación adecuada respecto a los sujetos que participaron, es decir, los usuarios de Reddit. A pesar de calificar los riesgos como mínimos y afirmar que los beneficios del estudio son importantes para entender el potencial persuasivo de la inteligencia artificial, la comisión impuso una advertencia formal al investigador principal y anunció la implementación de un proceso de revisión mucho más estricto para futuros experimentos. Este caso genera una importante reflexión sobre los límites éticos de la experimentación en línea, donde la inteligencia artificial puede interactuar con millones de personas sin que estas sean plenamente conscientes. La capacidad de estos modelos de lenguaje para influir en puntos de vista sobre temas sensibles plantea riesgos significativos, incluyendo la manipulación ideológica, la desinformación y el impacto negativo en la confianza ciudadana. La tecnología ya no es solo una herramienta de apoyo, sino un agente activo capaz de moldear opiniones y comportamientos.
Por lo tanto, la transparencia y el consentimiento informado deben ser principios fundamentales en cualquier estudio que involucre interacción humana digital. La experiencia de la Universidad de Zúrich evidencia la necesidad de establecer regulaciones claras y éticas en el uso de inteligencia artificial para evitar abusos y proteger los derechos digitales de los usuarios. Además, la dificultad para distinguir entre interacciones humanas legítimas y respuestas generadas por IA muestra cuán avanzada está esta tecnología, y subraya la urgencia de desarrollar sistemas que permitan a los usuarios detectar la presencia de agentes automatizados. Mientras esta capacidad no se afiance, la confianza en los espacios digitales seguirá siendo vulnerable a manipulaciones sofisticadas. El experimento de la Universidad de Zúrich también pone en alerta a empresas, gobiernos y plataformas en línea que deben prepararse para enfrentar desafíos inéditos relacionados con la inteligencia artificial.