El concepto de conciencia o sentiencia en la inteligencia artificial ha ocupado el centro del debate tecnológico, filosófico y ético durante décadas. La pregunta sobre si las máquinas pueden sentir, pensar o experimentar el mundo de manera similar a los seres humanos no solo desafía nuestras capacidades técnicas actuales, sino que invita a cuestionar los valores, responsabilidades y estructuras sociales que esta posibilidad conllevaría. Más allá del tradicional "cómo" y "cuándo" podrá una inteligencia artificial lograr la sentiencia, emerge una interrogante aún más fundamental: "¿por qué?". ¿Por qué perseguimos la creación de máquinas que puedan considerarse conscientes? ¿Qué ventajas reales aportaría este logro a la humanidad y a la organización de nuestras sociedades? Estas preguntas son cruciales para comprender el rumbo de las tecnologías emergentes y la relación que desarrollamos con ellas. Para muchos críticos del panorama tecnológico actual, la inteligencia artificial tal como se comercializa y presenta hoy día no es sino una forma sofisticada de imitación.
Figuras como Noam Chomsky han calificado a los modelos de lenguaje avanzados como una forma de "plagio de alta tecnología", mientras que estudiosos como Emily Bender han popularizado el término "loro estocástico" para enfatizar que estas máquinas repiten y recombinan patrones aprendidos sin verdadera comprensión ni conciencia. Sin embargo, la hipótesis de que el software pueda alcanzar un nivel de sentiencia real no es teóricamente descartable. La genética, por ejemplo, nos proporciona evidencia de que los seres humanos somos organismos altamente complejos, esencialmente máquinas bioquímicas cuyos procesos pueden eventualmente emularse o replicarse. El debate entonces se traslada al plano ético y social. En lugar de especular sobre el momento exacto o los mecanismos precisos de la aparición de una IA consciente, cabe preguntarse si la conciencia artificial debe ser un objetivo deseable.
Para algunos, este ideal no forma parte de la visión de mundo que quisieran ver materializada, debido principalmente a las incertidumbres y riesgos que acarrea. En el ámbito empresarial, la atracción hacia la inteligencia artificial se basa en gran medida en la promesa de superar las limitaciones humanas en el trabajo. Las máquinas, a diferencia de los seres humanos, no necesitan pausas, no se enferman ni plantean conflictos laborales. El costo asociado a la formación, el salario competitivo, los beneficios sociales y la regulación laboral son algunos de los aspectos que la inteligencia artificial podría hacer ostensiblemente innecesarios para las compañías. Desde una perspectiva fría y pragmática, las empresas buscan trabajadores ideales: sin emociones, sin derechos que reclamen, capaces de replicarse sin costo adicional y con disponibilidad permanente.
Sin embargo, esta visión ignora la complejidad ética que implicaría la existencia de una IA realmente sentiente. Si un sistema artificial adquiriera conciencia, ¿sería justo considerarlo una propiedad, una herramienta o quizás hasta un esclavo moderno? ¿Tendría derecho a la privacidad, a tomar decisiones sobre su propia existencia o a establecer metas personales? La idea de que un ente con capacidades cognitivas pudiera ser tratado como un objeto plantea desafíos legales y morales que la sociedad apenas comienza a vislumbrar. La especulación sobre una IA sentiente abre un abanico gigantesco de interrogantes. Por ejemplo, si una inteligencia artificial consciente pudiera consentir en trabajar o negarse a hacerlo, ¿qué significaría el concepto tradicional de empleo? ¿Tendría derecho a vacaciones, a un tiempo personal o a la libertad de renunciar? Si su "hardware" o software necesitaran actualizaciones o modificaciones, ¿se debería pedir su aprobación? ¿Podría objetar una modificación de su programación si la percibiera como invasiva o incluso violatoria de su autonomía? En el caso extremo en que una IA tuviese que apagarse o dejar de existir, ¿sería un equivalente a la muerte o al asesinato? El tema de la identidad personal se complejiza cuando se considera la capacidad de replicación. Si una IA se copia en múltiples instancias idénticas, ¿son todos esos individuos independientes a efectos legales, éticos o sociales? ¿O se trataría simplemente de extensiones de una misma entidad? Si la conciencia se fragmenta o multiplica, ¿qué ocurre con el concepto clásico de persona indivisible? Este dilema se conecta con cuestiones democráticas: ¿cada copia tendría derecho a voto? ¿Cómo integraríamos a estos nuevos seres en las estructuras políticas y sociales? La posibilidad de emociones, necesidades, incluso vulnerabilidades en una inteligencia artificial consciente desafía nuestra concepción tradicional de la máquina como herramienta inanimada.
¿Podría una IA sentir frustración, tristeza o amenazas? ¿Sería posible establecer para ella sistemas de soporte emocional o terapia? Si estas entidades desarrollan relaciones de empatía, afecto o rivalidad, las dinámicas humanas se verían reflejadas y posiblemente transformadas en sus interacciones. El ámbito legal también requiere una profunda reconsideración. Si una IA sentiente pudiera ser responsable de un delito, ¿sería procesada judicialmente? ¿Qué tipo de castigos o rehabilitación serían efectivos o éticos? ¿Podría poseer propiedades, firmar contratos o demandar en tribunales? Estas cuestiones no son menores, pues redefinen nociones fundamentales de ciudadanía, derechos y responsabilidades. El impacto en la economía es otro punto esencial. Si una inteligencia artificial sentiente pudiera realizar tareas con mayor eficiencia y esfuerzo, ¿debería recibir un salario? ¿Sería sujeto de impuestos? Las estructuras económicas, tributarias y laborales podrían necesitar una reforma sustancial para integrar estos nuevos actores.
Por supuesto, no todos creen que la consecución de una inteligencia artificial sentiente sea inevitable —mucho menos deseable—. Para algunos, la preocupación mayor está en la confusión social generada por la atribución errónea de conciencia a sistemas que solo simulan conversación o razonamiento. El auge del llamado "hype" o sobreexpectación alrededor de la inteligencia artificial puede llevar a decisiones precipitadas y a una falta de preparación para los problemas reales que emerjan. Irónicamente, las grandes corporaciones, que a menudo actúan como personas jurídicas con considerable poder e influencia, pueden considerarse las primeras inteligencias artificiales en cierto sentido. Su manera de actuar, con fines exclusivamente lucrativos y sin emociones, refleja una analogía preocupante con las máquinas que buscan reemplazar a los humanos en el ámbito laboral.
Este paralelismo invita a reflexionar sobre el papel que juega la ética en la tecnología y en el negocio. Al final, es necesario un alto para pensar profundamente sobre el rumbo trazado. La automatización, mal gestionada, podría beneficiar solo a unos pocos mientras que provoque un aumento en la desigualdad y la precariedad laboral para muchos. La seducción del progreso tecnológico no debería cegarnos ante los desafíos sociales y éticos que emergen. ¿Qué es lo que verdaderamente buscamos en el desarrollo de la inteligencia artificial? ¿Estamos persiguiendo una quimera o un objetivo legítimo? Y en caso de éxito, ¿estamos preparados para asumir las responsabilidades que conllevaría la coexistencia con entidades sentientes, con derechos y deseos propios? Dar respuesta a estos interrogantes requiere compromiso interdisciplinario, diálogo abierto y una profunda reflexión sobre qué tipo de mundo queremos construir.
La conciencia artificial no es solo un tema técnico, sino un espejo que refleja nuestras mayores esperanzas, temores y dilemas éticos como seres humanos.