En los últimos años, la inteligencia artificial (IA) ha irrumpido con fuerza en múltiples ámbitos de la sociedad, desde la automatización de tareas hasta la creación de contenidos digitales. Sin embargo, esta innovación conlleva también retos éticos y legales que comienzan a tomar mayor protagonismo en el debate público. Un claro ejemplo de esto se dio a conocer recientemente con un experimento llevado a cabo por investigadores de la Universidad de Zúrich que empleó comentarios generados por IA para influir en usuarios activos de Reddit, una de las plataformas de discusión online más grandes del mundo. El experimento tuvo lugar en la comunidad r/changemyview, un subreddit con más de 3.8 millones de miembros donde los usuarios comparten opiniones controvertidas o provocativas para debatir y, eventualmente, cambiar de punto de vista.
Lo que inicialmente parecía una iniciativa académica para estudiar el poder persuasivo de los modelos de lenguaje artificial desencadenó una ola de polémica debido a su naturaleza no autorizada y a la preocupación por la manipulación psicológica de usuarios que no estaban informados ni dieron su consentimiento. De acuerdo con los moderadores del subreddit, los investigadores crearon cuentas bot controladas por ellos mismos para publicar respuestas generadas por inteligencias artificiales avanzadas. Las IA no solo producían comentarios que respondían directamente a las publicaciones originales, sino que también asumían distintas identidades para aumentar su influencia: desde una supuesta sobreviviente de abuso sexual hasta un consejero especializado en trauma o una persona negra opuesta al movimiento Black Lives Matter. Esta táctica generó un inquietante nivel de personalización y simulación de experiencias, que, en muchos casos, persiguió obtener un impacto emocional más profundo en los usuarios. Además de interpretar distintas personalidades, el proyecto iba más allá, realizando un análisis minucioso de la historia previa de los usuarios en Reddit para adaptar los comentarios generados específicamente a cada individuo.
Para ello, un modelo de lenguaje diferente infería atributos personales como género, edad, etnia, ubicación geográfica y orientación política, empleando esta información para construir respuestas diseñadas para ser más persuasivas y convincentes. Esta práctica de segmentación y personalización pone en evidencia una táctica disruptiva con potencial para manipular opiniones y comportamientos en espacios digitales, que hasta ahora no se había explorado en este nivel dentro de comunidades abiertas y sin conocimiento previo de los participantes. La revelación del experimento no autorizado provocó una reacción inmediata de rechazo por parte de la comunidad de r/changemyview. Los moderadores denunciaron la acción como una forma de manipulación psicológica que quebrantó las reglas internas del subreddit, las cuales exigen transparencia cuando se usa inteligencia artificial para generar contenido y prohíben el uso de bots no autorizados. Esta situación llevó a la presentación formal de una queja ante la Universidad de Zúrich, exigiendo el retiro de la publicación científica que pretendía divulgar los resultados de la investigación.
También Reddit tomó medidas contundentes. Todas las cuentas vinculadas al experimento fueron bloqueadas de la plataforma, y la empresa anunció que fortalecerá sus mecanismos de detección de contenido inauténtico y de bots para prevenir futuras violaciones a sus normas. Ben Lee, el director legal de Reddit, declaró públicamente que las acciones de los investigadores fueron "profundamente erróneas tanto desde un punto de vista moral como legal" y constituyeron una violación de las reglas del sitio. En respuesta, la plataforma está en proceso de realizar demandas legales formales contra la Universidad de Zúrich y el equipo de investigación involucrado. Desde la perspectiva de los investigadores, según se refleja en un borrador del artículo científico y en sus comentarios posteriores, el proyecto contaba con la aprobación de un comité de ética universitario.
Argumentan que la investigación puede contribuir a que comunidades en línea, como Reddit, se preparen y protejan frente a usos maliciosos de IA que ya están al alcance de actores con intenciones perjudiciales, como la manipulación electoral o la incitación al odio. Reconocen, sin embargo, que la comunidad de r/changemyview podía sentirse incómoda y molesta ante la falta de consentimiento, pero consideran que los beneficios en términos de conocimiento y defensa contra amenazas justifican el experimento. A su vez, un portavoz de la Universidad de Zúrich sostuvo que el comité de ética había asesorado a los investigadores para que respetaran las normas de la plataforma, pero aclaró que estas recomendaciones no tienen carácter vinculante legalmente. Además, la institución anunció que revisará y endurecerá sus protocolos para la aprobación de futuros estudios, incluyendo la coordinación con las comunidades digitales para garantizar que no se repitan situaciones similares. También confirmó que los responsables del experimento decidieron no publicar los resultados ante el rechazo generado.
Desde la comunidad de Reddit, el descontento no cesa. Los moderadores de r/changemyview enfatizan que un entorno seguro para el debate y la discusión honesta debe estar exento de manipulaciones experimentales no reveladas y que la intervención de inteligencia artificial no solicitada contradice la esencia misma del foro, donde los usuarios buscan compartir y confrontar puntos de vista con otros humanos, no con bots. El caso pone en evidencia una problemática creciente en el uso de inteligencia artificial para generar contenido en espacios digitales. La capacidad de la IA para emular voces humanas, crear comentarios emocionalmente resonantes y personalizar mensajes según datos individuales plantea riesgos importantes para la confianza en las comunidades en línea, la integridad del diálogo público y la protección de los usuarios contra posibles manipulaciones. Este fenómeno invita a una reflexión profunda sobre cómo regular y manejar el uso de IA en plataformas sociales, el respeto a la privacidad, la transparencia en las interacciones y la responsabilidad de los investigadores y empresas tecnológicas.