En la era digital actual, la tecnología ha transformado múltiples aspectos de la vida cotidiana, incluidas las formas en que las personas buscan apoyo psicológico. La terapia con inteligencia artificial (IA), presentada como una solución accesible y personalizada para quienes no cuentan con acceso a profesionales humanos, está ganando popularidad rápidamente. Sin embargo, detrás de esta promesa de ayuda emocional se encuentra un complejo entramado de riesgos relacionados con la privacidad y la vigilancia que, en ciertos contextos políticos, puede asemejarse a un sistema de control propio de un estado policial. Las grandes empresas tecnológicas están impulsando con fuerza la adopción de chatbots y plataformas basadas en IA que prometen comprender mejor a los usuarios, proporcionando apoyo y consejos personalizados. Figuras como Mark Zuckerberg han promovido la idea de que, en el futuro, todo el mundo tendrá un asistente de IA capaz de ofrecer ayuda terapéutica, especialmente para quienes no tienen acceso a un terapeuta humano.
Este escenario, a simple vista, parece revolucionario y esperanzador, pero la realidad es mucho más compleja. El principal problema no radica en la capacidad técnica de la IA para brindar cierto nivel de apoyo emocional, sino en la forma en que los datos sensibles de los usuarios son recopilados, almacenados y potencialmente compartidos con terceros, incluida la vigilancia gubernamental. A medida que más personas revelan a estas máquinas sus pensamientos, miedos y secretos más íntimos, se abre una enorme puerta para la supervisión invasiva que puede ser explotada por autoridades con poco respeto por la privacidad y las libertades civiles. En países donde los poderes estatales buscan un control cada vez más estricto de los ciudadanos, el uso de IA en contextos terapéuticos adquiere una doble dimensión: puede ser una herramienta útil para quienes necesitan ayuda y, simultáneamente, un medio para recopilar información delicada explotable con fines represivos o discriminatorios. Ejemplos recientes reflejan preocupaciones legítimas sobre la vigilancia estatal desmedida, como el arresto y la revocación de residencia de inmigrantes legales debido a opiniones políticas expresadas o la recopilación de bases de datos médicas sin consentimiento explícito, con una clara intencionalidad de control social.
Esta situación empeora cuando los principales proveedores de estas tecnologías, muchas veces vinculados o simpatizantes de gobiernos con tendencias autoritarias, actúan como facilitadores involuntarios de esta vigilancia. Empresas de tecnología cuyo liderazgo mantiene lazos cercanos con dichas administraciones, o ha modificado sus políticas para adaptarse a las preferencias políticas de estos gobiernos, ponen en jaque la confianza que los usuarios depositan en estas plataformas. La paradoja es evidente: se invita a las personas a compartir su vulnerabilidad con máquinas controladas o influenciadas indirectamente por actores con intereses ajenos a la protección de la privacidad. Además, las características particulares de la interacción con chatbots elevan el riesgo de exposición inadecuada. Al tratarse de conversaciones diseñadas para indagar e incentivar la expresión de emociones profundas y pensamientos personales, los datos capturados son altamente reveladores, mucho más que una simple búsqueda en internet o interacciones en redes sociales.
A pesar de los esfuerzos nominales de las empresas para implementar medidas de seguridad y privacidad, los registros de chat suelen ser accesibles internamente y, en algunos casos, pueden ser solicitados por autoridades sin cumplir rigurosamente con protocolos legales o éticos. La historia reciente de programas de vigilancia masiva en algunos países, impulsados bajo el pretexto de la lucha contra el terrorismo o la protección social, ha dejado claro que los sistemas de control pueden expandirse rápidamente y sin un límite claro. La llegada de la IA terapéutica podría facilitar requisitos aún más amplios de acceso a datos personales, permitiendo supervisiones automatizadas, filtrados por palabras clave y análisis profilácticos que pueden desencadenar acciones estatales punitivas o discriminatorias incluso ante sospechas infundadas. Detrás de esta problemática, también emerge una cuestión ética fundamental: la responsabilidad de las empresas tecnológicas y los desarrolladores de IA en garantizar derechos básicos de sus usuarios. La protección de la privacidad, el respeto hacia la confidencialidad del paciente y el cumplimiento de normativas específicas del sector sanitario, como la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA) en Estados Unidos, deberían ser estándares obligatorios en el desarrollo de soluciones de IA que exploren temas sensibles.
Sin embargo, la realidad indica que muchas plataformas aún están lejos de proporcionar mecanismos robustos que eviten el abuso de datos. Para las personas pertenecientes a grupos vulnerables o perseguidos por motivos políticos, étnicos, religiosos, o de orientación sexual, el riesgo es aún mayor. La exposición involuntaria de información privada puede derivar en persecuciones, estigmatización social o incluso represalias directas por parte de agentes estatales o grupos afines. Asimismo, profesionales y activistas comprometidos con causas progresistas o derechos humanos pueden ser objeto de vigilancia y acoso, especialmente cuando el aparato estatal explora la información extraída de estos chatbots. La ausencia de una regulación clara y específica en materia de IA aplicada a la salud mental y el apoyo psicológico amplía el escenario de incertidumbre y vulnerabilidad.
Los gobiernos deberían establecer criterios rigurosos para el desarrollo y la implementación de estas tecnologías, asegurando la participación de expertos en ética, derechos humanos y privacidad para evitar que la innovación tecnológica se traduzca en una amenaza para la libertad individual. En el contexto actual, la recomendación para usuarios que consideran la terapia a través de IA es ejercer máxima precaución. Usar plataformas reconocidas por su compromiso con la privacidad, evitar compartir datos sensibles innecesarios y mantenerse informados sobre las políticas de privacidad vigentes son acciones básicas pero esenciales para protegerse. Asimismo, siempre que sea posible, es preferible buscar ayuda profesional humana y presencial, especialmente en temas de salud mental complejos. En definitiva, la terapia con inteligencia artificial, tal como está configurada hoy, más que una solución inocua o completamente benéfica, se perfila como un mecanismo que puede ser aprovechado para la vigilancia masiva en contextos donde el estado despliega un control autoritario.
La intersección entre tecnología, salud mental y política merece un debate profundo y urgente para garantizar que las innovaciones respeten y protejan los derechos fundamentales de las personas, en lugar de vulnerarlos. La tecnología debería ser una herramienta para empoderar y ayudar, pero sin normas claras y responsabilidad social, puede transformarse en un instrumento de opresión. En un mundo donde la privacidad es cada vez más frágil, la transparencia, la ética y la regulación serán las claves para que la terapia con IA no se convierta en la nueva cara de la vigilancia estatal.