En los últimos años, la inteligencia artificial (IA) ha cambiado radicalmente la forma en que accedemos a información y servicios. Herramientas como ChatGPT, basadas en modelos de lenguaje de gran escala, han emergido como fuentes rápidas y accesibles para respuestas en diversas áreas, incluyendo el asesoramiento legal. Sin embargo, un reciente estudio realizado por investigadores de la Universidad de Southampton ha revelado un fenómeno llamativo: muchas personas no expertas en derecho tienden a confiar más en la asesoría legal generada por ChatGPT que en la proporcionada por abogados reales. El estudio involucró a 288 participantes que fueron evaluados mediante tres experimentos distintos. En estos, se les presentó asesoramiento legal sin revelar si era generado por un asesor humano o por la inteligencia artificial.
Sorprendentemente, cuando desconocían la fuente, los participantes mostraron mayor disposición a aceptar las recomendaciones de ChatGPT en comparación con las ofrecidas por abogados humanos. Incluso cuando se les informó sobre el origen del consejo, la confianza en ambos tipos de asesoramiento permaneció casi igual. Un aspecto crucial observado en las respuestas de ChatGPT fue el uso de un lenguaje más complejo y confiado. Esta fórmula parece influir en la percepción positiva de los usuarios, generando una sensación de autoridad y precisión que impacta su credibilidad. Por el contrario, los abogados tienden a utilizar un lenguaje más sencillo y explicativo, aunque con respuestas más extensas y detalladas.
Este contraste pone en evidencia cómo la forma de comunicar afecta la confianza del público en el contenido profesional. Además, el estudio evaluó la capacidad de las personas para distinguir si el consejo legal provenía de un humano o de una IA. Los resultados indicaron que, aunque los participantes podían identificar levemente la fuente correctamente, su habilidad fue solo ligeramente mejor que el azar. Esto revela la dificultad que enfrenta el público para discernir entre asesoramiento humano y generado por máquinas, especialmente sin indicaciones claras sobre su origen. Este fenómeno plantea una serie de preocupaciones, particularmente en áreas críticas como el derecho, donde un error o una interpretación incorrecta pueden tener consecuencias graves.
Los modelos de lenguaje, a pesar de su avanzada tecnología, presentan el riesgo de producir “alucinaciones”, o sea, respuestas inexactas o incorrectas emitidas con confianza, que pueden inducir a error a los usuarios menos capacitados para evaluarlas críticamente. Por ello, expertos enfatizan la necesidad urgente de establecer regulaciones claras y efectivas para el uso de IA en contextos profesionales. La regulación debe incluir mecanismos para que los contenidos generados artificialmente sean detectables y estén debidamente marcados, evitando así confusión sobre su origen. Un marco normativo como el Acta de IA de la Unión Europea, que exige que los textos generados por IA sean señalados de manera detectable, es un paso importante hacia la transparencia. No obstante, la regulación por sí sola no basta.
El estudio destaca también la importancia de fomentar la alfabetización digital y el conocimiento crítico en la población. Es fundamental que las personas aprendan a cuestionar la fuente de la información, reconozcan las capacidades y limitaciones de la inteligencia artificial y tengan herramientas para evaluar la veracidad y confiabilidad de los consejos recibidos. Sólo de esta manera podrán tomar decisiones informadas y evitar consecuencias negativas derivadas del uso indiscriminado de tecnología. En la práctica, la IA como ChatGPT puede ser un complemento valioso para consultas legales iniciales. Permite a los usuarios descubrir opciones, comprender conceptos generales y orientarse sobre aspectos básicos del derecho.
Sin embargo, siempre debe confirmarse y contrastarse esta información con un abogado especializado antes de tomar decisiones que puedan involucrar procesos judiciales o acciones legales concretas. En definitiva, aunque la confianza en la tecnología está en aumento, es crucial mantener un equilibrio entre la innovación y la responsabilidad. Aprovechar el potencial de la inteligencia artificial en el ámbito jurídico implica no solo desarrollar herramientas cada vez más precisas, sino también promover una cultura de uso responsable y crítica. Esto protegerá a los usuarios de riesgos como la desinformación y contribuirá a un sistema legal más accesible y eficiente. Mirando hacia el futuro, la integración de IA en sectores como el derecho promete transformar los servicios profesionales, democratizar el acceso a asesoramiento y agilizar procesos que tradicionalmente son complejos.
Sin embargo, ese futuro dependerá de la capacidad colectiva para reconocer que la inteligencia artificial es una herramienta que debe ser usada junto con el juicio humano y nunca como un sustituto absoluto. Estudios como el de la Universidad de Southampton abren un debate necesario sobre cómo nuestra sociedad interactúa con tecnologías emergentes y qué marcos se deben diseñar para garantizar que estos avances beneficien a todos sin comprometer la calidad, ética y seguridad. La clave estará en educar a la población, promover la regulación adecuada y fomentar la colaboración entre expertos humanos y máquinas para un mejor servicio legal y social.