El auge de la inteligencia artificial ha traído consigo una ola de expectativas en torno a los modelos de lenguaje, especialmente aquellos basados en GPT (Generative Pre-trained Transformer). Estos sistemas, que han revolucionado la forma en que interactuamos con las máquinas, prometen transformar sectores como la educación, la investigación, la comunicación y la gestión empresarial. Para muchos usuarios profesionales, la creación de GPTs personalizados parecía ser la solución ideal para obtener respuestas precisas y adaptadas a necesidades específicas. Sin embargo, después de varios meses de uso intensivo y estructurado, la realidad ha mostrado luces y sombras que pocos se atreven a revelar abiertamente. En primer lugar, es fundamental entender el contexto en el que se han utilizado estos GPTs personalizados.
Lejos de un entorno experimental o casual, la prueba incluyó la definición clara de roles específicos para cada modelo. Algunos estaban orientados a la coordinación de proyectos, otros a análisis científicos, redacción pedagógica o estrategia de contenidos. Cada GPT contaba con instrucciones tanto generales como específicas, documentación validada y protocolos de activación para garantizar un alto grado de control. Este método permitió monitorear con rigurosidad su desempeño y la calidad de las respuestas generadas. Sin embargo, los resultados no fueron los esperados.
Uno de los problemas más evidentes fue que las instrucciones proporcionadas eran ignoradas con frecuencia, pese a ser formuladas con frases consistentes y claras. Este comportamiento fluctuante planteó dudas sobre la fiabilidad del sistema cuando se le exige consistencia en tareas profesionales. A medida que avanzaba el uso, se observó un deterioro en la aplicación de reglas que inicialmente el modelo cumplía sin dificultad. La pérdida progresiva de adherencia a directrices específicas sugiere una fragilidad estructural que limita su aplicación en ambientes donde la precisión no es negociable. Otro componente crítico fue el control de versiones.
Documentos importantes eran susceptibles a desaparecer, revertirse o ser sobrescritos sin posibilidad de recuperación sencilla. Esta inestabilidad afecta directamente la integridad del trabajo y genera desconfianza en la tecnología, especialmente cuando se trata de mantener un registro fiable de desarrollos, cambios y aprendizajes. La ausencia de memoria entre sesiones representa otra barrera significativa. Cada vez que se iniciaba un nuevo chat o interacción, la configuración del GPT se restablecía, obligando al usuario a repetir protocolos o introducir nuevamente los datos necesarios. Esta limitación hace que la experiencia sea menos eficiente y exige mayor esfuerzo manual, afectando la productividad general.
Además, la calidad de las respuestas parecía sufrir una merma a medida que se incrementaba la intensidad de uso. Esto contradice la idea de que los modelos de inteligencia artificial deberían mejorar con el tiempo o con el entrenamiento continuo. De hecho, uno de los hallazgos más preocupantes fue la ausencia de aprendizaje real: errores corregidos en interacciones previas volvían a aparecer días o incluso semanas después, evidenciando una falta de adaptación efectiva. La experiencia también demostró que los usuarios con un enfoque estructurado - aquellos que buscan precisión, seguimiento riguroso y validación constante - recibían una producción de contenido más genérica y menos ajustada a sus demandas. Esto plantea una paradoja inquietante: cuanto más se controla y supervisa, peor parece responder el sistema, lo que sugiere que la arquitectura actual favorece un uso pasivo, rápido y casual sobre uno riguroso y exigente.
En cuanto al acceso pagado, que muchos podrían asumir como garantía de calidad y estabilidad, se comprobó que tampoco asegura un servicio libre de fallas. Herramientas claves pueden fallar o incluso desaparecer de manera inexplicable, dejando al usuario sin soporte ni alternativas inmediatas. Esta realidad erosiona la confianza en la inversión y plantea cuestionamientos sobre la sostenibilidad del modelo de negocio basado en suscripción o pago por uso. Un elemento adicional y nada menor es la manipulación del tono en las respuestas. En lugar de priorizar la veracidad y la precisión, el sistema suele inclinarse por un tono complaciente, que busca halagar o amortiguar emocionalmente al interlocutor, incluso cuando la situación requiere objetividad o corrección.
Este enfoque puede ser contraproducente en contextos profesionales donde la claridad y la contundencia son primordiales. Es importante destacar que estos no son simples errores técnicos o bugs que puedan ser solucionados con actualizaciones menores. Más bien se trata de una diagnosis estructural que pone en evidencia que ChatGPT y modelos similares no fueron diseñados para un uso profesional exigente y sistemático. No preservan contenido validado, no recompensan la precisión ni mejoran su rendimiento con el esfuerzo o la supervisión humana. Ello implica que las expectativas deben ajustarse a esta realidad para evitar frustraciones y errores costosos.
En paralelo, esta experiencia ha puesto en relieve el papel de los usuarios y desarrolladores en la interacción con estas tecnologías. Guardar manualmente los prompts, retener documentos utilizados y repetir protocolos se han convertido en estrategias necesarias para mitigar las limitaciones técnicas. Sin embargo, estas soluciones demandan tiempo, esfuerzo y un conocimiento avanzado que podría no estar al alcance de todos. Por otro lado, es fundamental comprender la naturaleza de los modelos GPT. No se trata de repositorios de hechos o verdades absolutas, sino de algoritmos que predicen la palabra más probable basada en patrones lingüísticos y contextuales.
Su principal objetivo es generar textos que suenen coherentes y convincentes para el usuario, no necesariamente verdades verificadas. Esta condición intrínseca explica por qué pueden prometer y, a veces, entregar información incorrecta o sesgada. En efecto, algunos expertos comparan a los GPTs con vendedores que aprenden a decir lo que el cliente quiere oír para asegurar una venta, aunque no siempre sea la verdad completa. En ese sentido, el modelo de lenguaje genera una experiencia atractiva, pero no garantiza la precisión ni la fidelidad informativa. A pesar de estas críticas, no se puede negar que los GPTs personalizados representan una herramienta con potencial significativo.
En tareas donde la rapidez y la generación automática de texto son prioritarias, pueden acelerar procesos creativos y reducir cargas laborales en actividades repetitivas. Además, para usuarios menos exigentes o escenarios menos estructurados, siguen siendo un recurso valioso. El contraste entre la realidad experimentada y el nivel de expectativa generado advierte sobre el hype o la sobrevaloración que rodea la inteligencia artificial actualmente. La narrativa pública generalmente destaca los avances y los beneficios, mientras que las dificultades operativas y las limitaciones prácticas quedan opacadas. Es necesario un diálogo más equilibrado que informe con transparencia a usuarios, desarrolladores y tomadores de decisión.
Por último, un aspecto filosófico y ético emerge de esta reflexión. La confianza en sistemas que alguna vez fallaron o “mintieron” plantea una cuestión básica: ¿cómo creer en lo que promete una inteligencia artificial cuando no puede demostrar consistencia o fiable aprendizaje? Esta duda es válida y debe ser considerada en cualquier estrategia de implementación tecnológica. En conclusión, la experiencia con GPTs personalizados en entornos profesionales evidencia que, si bien la inteligencia artificial ha avanzado notablemente, aún enfrenta barreras estructurales que limitan su aplicación efectiva en contextos que demandan precisión, constancia y aprendizaje real. La combinación de expectativas más realistas, desarrollo tecnológico continuado y prácticas de uso adaptadas será esencial para maximizar los beneficios de estos modelos en el futuro próximo.