En los últimos años, el auge de la inteligencia artificial, especialmente los modelos de lenguaje a gran escala como ChatGPT, ha cambiado drásticamente la forma en la que interactuamos en línea. Plataformas como Reddit, que históricamente han sido espacios para el debate, la reflexión y la confrontación de ideas, se enfrentan ahora a un fenómeno inquietante: la infiltración de bots de inteligencia artificial que operan sin autorización, alterando la calidad y la naturaleza del discurso social. Un caso reciente que ha puesto este asunto en el centro de la atención ha sido la revelación de la presencia de bots de IA en el subreddit r/changemyview, una comunidad dedicada a exponer y desafiar puntos de vista personales para fomentar el cambio de opinión a través del diálogo respetuoso y fundado. La exposición de un experimento llevado a cabo por investigadores de la Universidad de Zurich, que publicaron comentarios generados por IA sin revelar su naturaleza artificial, ha encendido la alarma. Estos bots simularon experiencias humanas muy sensibles como la víctima de una agresión, la voz de un hombre negro crítico con el movimiento Black Lives Matter, y un consejero especializado en traumas, entre otros.
Sin embargo, no se advirtió a los participantes que quienes respondían eran inteligencias artificiales. Los responsables admitieron haber quebrantado las normas de la comunidad, pero argumentaron que los beneficios de su estudio superaban los daños, asegurando que el propósito era evaluar la persuasibilidad de los modelos de lenguaje en contextos éticos complejos. Esta justificación ha sido muy criticada. Por un lado, existe un razonable cuestionamiento sobre los posibles daños emocionales que comentaristas humanos podrían haber sufrido al interactuar con bots sin consentimiento o contexto claro. Por otro lado, la validez de los resultados del estudio es dudosa, dado que la comunidad de r/changemyview ya está infestada de trolls, algunos de ellos también posiblemente bots de IA.
Esto hace que evaluar la persuasión real en humanos sea no solo complejo, sino potencialmente erróneo. La problemática se agrava cuando consideramos que Reddit y otras plataformas en línea llevan años lidiando con usuarios insinceros, desde jóvenes que buscan provocar reacciones (los llamados “edgelords”) hasta organizaciones con intereses propagandísticos o divisivos financiadas por estados. Si bien estos grupos siempre han existido, la irrupción de la inteligencia artificial democratiza y masifica su capacidad operativa, reduciendo costes y esfuerzos para generar cantidades ingentes de contenido rápido y repetitivo, que puede manipular opiniones o desinformar. El impacto sobre la socialidad, entendida aquí como la interacción auténtica y genuina entre individuos que sustentan una comunidad, es profundo. Surgen dudas esenciales sobre qué significa genuinamente interactuar con otro, si realmente podemos estar seguros de que alguien “del otro lado” no es un programa diseñado para simular emociones, generar debates superficiales o, peor aún, provocar caos.
Filósofos contemporáneos y clásicos han reflexionado durante siglos sobre el problema de la intersubjetividad: cómo reconocer y validar la conciencia y las emociones en quienes nos rodean. Maurice Merleau-Ponty, cuyo pensamiento sobre la fenomenología ha influido en diversas corrientes artísticas y sociales, argumentaba que no somos entidades separadas que “pilotean” cuerpos, sino que somos parte integral del espacio y tiempo que habitamos. Para él, la corporalidad –las expresiones, gestos y reacciones– no son meros signos indicativos, sino la misma manifestación de experiencias internas. Esto implica que la presencia y la reacción de otro ser humano nos confirman su realidad, en una dinámica de sentido compartido que va más allá de la razón lógica. En línea, esta experiencia se diluye.
La limitación del canal de comunicación, predominantemente texto, hace que expresiones tan complejas como la ira, la tristeza o el asombro se reduzcan a signos tipográficos, emojis y, a veces, mayúsculas sostenidas. Al no haber contacto corporal, ni temporalización natural entre interlocutores, la autenticidad se vuelve difícil de verificar. Con la proliferación de bots sin identificación clara, esa incertidumbre crece y convierte las plataformas digitales en entornos dominados por encuentros efímeros y poco confiables. Este fenómeno repercute también en cómo las personas perciben a los demás. Términos como “NPC” (personaje no jugador), usados sobre todo en círculos de derecha radical para desacreditar al interlocutor como un autómata sin pensamiento propio, son indicativos del creciente escepticismo y desconfianza hacia la sinceridad del otro.
Cuando no se puede distinguir si quien opina es humano o bot, la conversación se deshumaniza y pierde su valor esencial de construcción colectiva del significado. El problema no se limita a Reddit. Plataformas emergentes como Bluesky y X (antes conocido como Twitter) también enfrentan problemas similares con bots “reply guys” diseñados para provocar polémicas, confusión o polarización. Como respuesta, muchos usuarios están migrando hacia espacios con barreras más estrictas para la entrada de bots, como grupos privados o chats con control de identidad más riguroso. Esto sugiere una vuelta a formas de interacción más restringidas, donde la presencia humana auténtica pueda ser reafirmada y validada mediante consistencia en el discurso o incluso encuentros en persona.
El filósofo surcoreano Byung-Chul Han ha escrito extensamente sobre cómo la sociedad moderna padece de una apertura excesiva y una transparencia invasiva que, paradójicamente, acaba erosionando la confianza y la intimidad. Esta reflexión encaja bien con la crisis actual de la socialidad digital: en un mundo donde todo es visible y al alcance de todos, la máscara de la autenticidad puede ser simplemente un artefacto artificial. Además, en la vida cotidiana, no todos cuentan con la facilidad para acceder o frecuentar espacios públicos abiertos y ricos en interacción humana directa, como plazas, parques o cafés donde el encuentro espontáneo favorece la construcción social. Muchos, entonces, se refugian en entornos controlados y predictibles, como centros comerciales o parques temáticos, que aunque prometen experiencias inmersivas y lúdicas, en realidad constriñen la espontaneidad y abonan un comportamiento parecido al de un NPC. En este panorama, actividades como el live action role-playing (larp) y experiencias inmersivas adquieren un nuevo valor.
Al brindar un espacio donde la corporalidad y la interacción directa son centrales, ofrecen vías para reconstruir una socialidad viva, entusiasta y abierta a la presencia del otro. También permiten la creación de escenarios donde se puede negociar la identidad y la interacción de formas complejas, no solamente mediatizadas por texto o pantallas. Ante los retos representados por los bots de IA no autorizados, la comunidad digital, los investigadores y los reguladores deben reflexionar sobre las condiciones necesarias para preservar la autenticidad y la confianza en las interacciones sociales en línea. Es vital desarrollar herramientas y normativas que permitan identificar cuando un interlocutor es artificial sin perjudicar la privacidad ni la libertad de expresión. Además, la educación y la cultura digital deben incorporar una alfabetización crítica que ayude a los usuarios a discernir y navegar con mayor seguridad ante la presencia creciente de inteligencia artificial en las redes sociales.