En los últimos años, el auge de la inteligencia artificial y los modelos de lenguaje grandes (LLM, por sus siglas en inglés) ha revolucionado el campo tecnológico, generando un interés masivo y un debate abierto sobre el acceso, la innovación y las licencias asociadas a estas tecnologías. Meta, la empresa detrás de Facebook, ha dado un paso relevante al lanzar su modelo LLaMa 2. Sin embargo, la forma en que ha licenciado este modelo ha generado confusión y discusiones acaloradas, debido a que muchas voces han catalogado incorrectamente la licencia de LLaMa como "open source" o código abierto. En este análisis detallado, exploramos por qué la licencia de Meta no se ajusta a los requisitos del software libre y abierto según la definición reconocida por la Open Source Initiative (OSI) y qué significa esto para la comunidad tecnológica y los usuarios en general. El auge del modelo LLaMa 2 de Meta llamó la atención global por su potencia y accesibilidad.
Meta intenta posicionar este modelo como una alternativa abierta y accesible frente a otros gigantes del sector. Sin embargo, cuando se examina la licencia que acompaña a este modelo, entran en juego restricciones significativas que limitan el uso, especialmente en contextos comerciales y en ciertas áreas consideradas sensibles o reguladas. Estas limitaciones contrastan con los principios básicos de las licencias open source, que abogan por la libertad de uso sin discriminación. Para entender por qué la licencia de LLaMa no es verdaderamente open source, primero hay que comprender qué se entiende por esta categoría bajo el marco de la Open Source Definition (OSD), el estándar globalmente aceptado. La OSD establece una serie de requisitos específicos que deben cumplirse para que un software sea considerado open source.
Entre estos se incluyen la libre redistribución, el acceso al código fuente, la posibilidad de modificar y distribuir versiones derivadas, la no discriminación contra personas ni grupos, y la no restricción del campo de uso, entre otros. En el caso particular de la licencia de LLaMa, un aspecto clave que la aleja de esta definición es la limitación explícita al uso comercial para ciertos usuarios. Esta cláusula impide que cualquier persona o entidad pueda utilizar el modelo para fines comerciales sin cumplir condiciones particulares establecidas por Meta. Este tipo de restricción constituye un impedimento para la libre utilización y distribución que caracteriza a las licencias open source. Adicionalmente, la licencia incluye una política de uso aceptable que prohíbe aplicaciones en ámbitos como sustancias reguladas, infraestructura crítica y otros sectores que pueden ser altamente relevantes y beneficiosos para la sociedad.
La imposición de estos límites configura una discriminación basada no solo en quién puede usar la tecnología, sino en cómo y en qué contexto puede hacerlo, lo cual contradice los principios que guían el software libre. Esta discriminación de uso es problemática no solo en términos técnicos, sino también éticos y prácticos. Por ejemplo, se menciona que los usuarios deben seguir la legislación vigente, pero las leyes varían significativamente entre países y regiones, e incluso existen legislaciones que pueden considerarse injustas o restrictivas para ciertos usos legítimos. Esta ambigüedad añade complejidad y un nivel de control externo que frena la libertad de innovación y adaptación. El contraste con proyectos verdaderamente open source, como el kernel de Linux, es evidente.
Linux se ha convertido en la base para aplicaciones en una amplia variedad de campos —desde dispositivos médicos hasta sistemas aeroespaciales— sin que su licencia imponga restricciones respecto al campo de interés o uso, confiando en la comunidad para dirigir su desarrollo y adaptación. El debate sobre qué significa "open" en el contexto de la inteligencia artificial es aún emergente y complejo. Los modelos de lenguaje son artefactos diferentes al software tradicional, envolviendo no solo código sino también datos, modelos entrenados y componentes asociados. Esto genera la necesidad de redefinir o adaptar los conceptos y marcos legales que han servido para catalogar software abierto durante décadas. En respuesta a esta problemática, la Open Source Initiative ha subrayado la importancia de establecer definiciones claras y compartidas sobre la apertura en la IA.
Reconocen el mérito de Meta al facilitar el acceso a modelos potentes, pero insisten en que el término "open source" no puede usarse cuando existen tales limitaciones y discriminaciones de uso. Para los desarrolladores y empresas, esto implica que la licencia de LLaMa debe entenderse más como un acuerdo de acceso con condiciones restrictivas que como una licencia abierta que permita la innovación sin barreras. Esto puede afectar la adopción y contribución comunitaria, dos aspectos claves para el desarrollo rápido y colaborativo de tecnologías. En resumen, aunque la iniciativa de Meta supone un avance al democratizar el acceso a tecnologías de IA complejas, la licencia que acompaña a LLaMa no cumple con las condiciones de apertura plenas que definen el software open source. Esto supone que los usuarios están obligados a aceptar limitaciones en el uso y la distribución del modelo, afectando la libertad de modificar, compartir y aplicar esta tecnología sin restricciones.
El escenario abierto para la IA y el software libre enfrenta desafíos importantes en los años venideros. Es fundamental que la comunidad tecnológica trabaje en conjunto para crear marcos jurídicos, licencias y definiciones que equilibren la protección de derechos, fomenten la innovación y respeten la libertad de uso. Finalmente, una evaluación crítica y transparente de las licencias como la de LLaMa será esencial para clarificar qué modelos y herramientas pueden considerarse realmente abiertos y cuáles no, garantizando así una base sólida para el futuro de la inteligencia artificial y su integración en todos los sectores de la sociedad.