En la era digital actual, la inteligencia artificial (IA) ha emergido como uno de los desarrollos tecnológicos más disruptivos e influyentes. Desde asistentes virtuales hasta sistemas avanzados de recomendación, los llamados sistemas de IA están cada vez más presentes en múltiples aspectos de nuestra vida diaria y profesional. Sin embargo, un debate esencial que merece atención es si estos sistemas pueden ser considerados simplemente herramientas, como tradicionalmente entendemos dicho concepto, o si representan algo distinto y más complejo. Esta reflexión abre espacios para cuestionar la naturaleza, el diseño y la funcionalidad real de la IA bajo una perspectiva crítica y fundamentada. Comprender qué es una herramienta es fundamental para responder esta pregunta.
Tradicionalmente, un objeto se define como herramienta cuando está específicamente diseñado con un propósito claro: facilitar o potenciar la ejecución de tareas concretas para resolver problemas definidos. Un martillo es una herramienta porque su diseño es intencionado, con un propósito evidente —dar golpes para clavar clavos o romper objetos— y su uso se encuentra restringido y optimizado en función de esa designación. A lo largo de la historia, las herramientas han sido artefactos en los que se materializa no solo un objeto físico, sino también un conjunto de conocimientos, opiniones y modelos sobre los problemas que buscan resolver. Esto involucra una comprensión profunda tanto del problema como de las capacidades y limitaciones humanas frente a él. Por ejemplo, una llave inglesa está creada asumiendo ciertas posturas sobre cómo y para qué se utilizará, tomando en cuenta la ergonomía, la fuerza humana y la naturaleza de las piezas con las que interactúa.
Así, no solo es un objeto, sino un texto cargado de intenciones y sabiduría práctica acumulada a lo largo de generaciones. Este condicionamiento y especialización es clave para entender por qué no todos los objetos usados con un fin pueden considerarse herramientas en sentido estricto. Un pedazo de madera con que alguien abra un frasco no es una herramienta, sino un objeto improvisado o un “makeshift”. La diferencia está en el diseño, la intencionalidad y la claridad en su propósito. Mientras que una herramienta comunica y guía su uso, un objeto improvisado no tiene ni expectativas claras ni diseño adaptado al propósito para el que momentáneamente es utilizado.
Ahora bien, ¿dónde encajan entonces los sistemas de IA que se están popularizando? Estos sistemas, especialmente los modelos de lenguaje como ChatGPT, se presentan frecuentemente como herramientas que pueden asistir en variadas tareas: desde redacción y generación de ideas hasta responder preguntas especializadas o apoyar en procesos creativos. Sin embargo, al analizar su diseño y funcionalidad, aparece una realidad mucho menos definida. En contraste con las herramientas convencionales, los sistemas de IA actuales no están diseñados para resolver un problema específico con un método claro y establecido. No ofrecen una vía directa ni un proceso explícito para la ejecución de tareas particulares. En lugar de ello, funcionan como entornos abiertos, polivalentes y flexibles sobre los que el usuario debe ensayar y descubrir por sí mismo usos válidos.
Esta falta de especificidad es un punto clave para quien cuestiona que estos sistemas sean “herramientas” en sentido estricto. Las plataformas de IA de propósito general son más parecidas a “tiendas de objetos” donde el usuario puede experimentar o encontrar, con cierto esfuerzo, soluciones útiles tantas veces como generar tareas aleatorias que no resuelven problemas concretos. No guían hacia mejores prácticas ni contienen implícitamente normas o limitaciones que limiten su uso a vías óptimas. Esto las coloca más cerca de espacios de prueba o “playgrounds” que de herramientas claramente definidas y sociales —herramientas que fueron mejorando y configurándose gracias a comunidades de usuarios y a la experiencia histórica colectiva. Cabe destacar que no toda IA debe ser descartada como herramienta o “makeshift”.
Existen sistemas de IA especializados, por ejemplo, que analizan imágenes médicas o que detectan patrones muy específicos en flujos de datos, que si bien son producto de avances en aprendizaje automático, están diseñados para un fin particular con un procedimiento definido, y en ese sentido cumplen más con el concepto tradicional de herramienta. Pero la mayoría de los sistemas de IA comercializados como plataformas multifuncionales tienen una estructura muy distinta. Otro aspecto importante es el componente social e histórico inherente a la creación y uso de las herramientas. Las herramientas no emergen completamente formadas sino que evolucionan gracias a la interacción con comunidades de usuarios, que a través de su práctica y retroalimentación modelan y perfeccionan su diseño. Este proceso garantiza que las herramientas sean adecuadas a contextos específicos y reflejen un conocimiento colectivo y endurecido por el tiempo y la experiencia.
Los sistemas de IA contemporáneos al ser tecnologías nuevas carecen todavía de ese entramado social profundo y de un uso colectivo consolidado que formalice sus mejores prácticas y modos de empleo. Esto implica que el uso de los sistemas de IA deja al usuario frente a un desafío particular: la necesidad de interpretar, experimentar y decidir cómo valerse de ellos, sin la guía clara, evidente y desplegada en muchos manuales y en el propio diseño de las herramientas clásicas. La responsabilidad recae completamente sobre el usuario, y esto puede inducir a caer en errores o usos problemáticos que no se presentarían con herramientas mejor definidas y especializadas. Algún crítico podría afirmar que el debate sobre si la IA es o no herramienta tiene más que ver con una cuestión semántica. Sin embargo, este detalle no es menor, pues la designación “herramienta” lleva consigo implícita una serie de implicaciones sociales, éticas y prácticas.
Llamar herramienta a algo implica asumir que su uso es básicamente neutral, que potencia la capacidad humana sin plantear riesgos fundamentales, y que su finalidad puede ser formulada claramente y comprendida por quienes la emplean. Cuando esas condiciones no se cumplen, la palabra herramienta puede generar confusión o falsear realidades importantes. Por ejemplo, la frase común de que “la IA es solo una herramienta y que debemos aprender a usarla productivamente” sugiere una relación armónica y controlada entre el usuario y la tecnología, que en muchos casos no se corresponde con la experiencia real. Debido a la naturaleza ambigua y polifacética de la IA, así como a los riesgos asociados, como la generación de desinformación, la pérdida de trabajos o la externalización de decisiones complejas a sistemas opacos, es crucial comprender sus limitaciones y peligros. Pensemos en el impacto social y ambiental de usar estos sistemas, las implicaciones éticas que también involucran la forma en que estos modelos aprenden desde contenidos existentes que muchas veces son problemáticos, y la opacidad sobre cómo se toman las decisiones internas en la IA.
Estas dimensiones hacen que la simple etiqueta de herramienta pueda resultar insuficiente y hasta peligrosa. Algunos expertos sugieren que considerar a la IA como herramientas aun con limitaciones puede ser válido si adoptamos una perspectiva más flexible sobre qué es una herramienta. Por ejemplo, no es necesario que la herramienta tenga un propósito completamente específico para ser considerada tal. Un martillo puede emplearse para distintas funciones más allá de clavar clavos, igual que un modelo de lenguaje puede generar diferentes tipos de texto. Así, la «fuerza» que concentra una IA para generar contenido sintético sería la característica primaria de su diseño y uso, y los variados usos que el usuario le dé serían aplicaciones legítimas.
Sin embargo, esta flexibilidad también abre paso a abusos, malentendidos y usos no reflexionados que pueden tener consecuencias negativas. La responsabilidad entonces no solo recae en definir si la IA es o no una herramienta, sino en tener una conciencia crítica sobre cuándo, cómo y para qué usarla. Reconocer que no basta con que algo sea posible sino que debe ser deseable y ético. Finalmente, la conversación sobre si son herramientas o no los sistemas de IA nos invita a reflexionar sobre cómo conceptualizamos la tecnología y nuestra relación con ella. La historia ha demostrado que la forma en la que nombramos y entendemos los objetos tecnológicos influye en cómo los integramos socialmente y en las decisiones que tomamos respecto a su regulación y uso.