La inteligencia artificial (IA) se ha convertido en una tendencia omnipresente que atraviesa prácticamente todas las industrias y áreas del conocimiento. Desde la automatización en la fabricación hasta el análisis avanzado de datos, pasando por la generación de contenido creativo, la IA está transformando la manera en que las organizaciones y proyectos se desarrollan y evolucionan. Sin embargo, frente a esta tendencia imparable, surge una pregunta intrigante: ¿hay proyectos que deciden conscientemente no adoptar la inteligencia artificial? Más aún, ¿existe algún tipo de listado o comunidad que agrupe a iniciativas que prescinden totalmente de la IA? El auge de la IA ha sido tan rápido y extendido que se ha convertido en la norma más que la excepción. En grupos de desarrollo, startups, medios digitales, comercio electrónico y entretenimiento, la integración de tecnologías basadas en IA es casi un requisito para mantenerse competitivos. Por eso, la idea de que algunos proyectos puedan mantenerse al margen, e incluso posicionarse en contra de la adopción de inteligencia artificial, resulta un fenómeno digno de análisis.
Uno de los sectores donde esta resistencia es más visible es el de las artes y la creación cultural digital. Usuarios, artistas y plataformas que consideran que la integración de IA puede afectar negativamente los valores que defienden o la calidad de su producto han comenzado a declarar políticas específicas. Un ejemplo contundente es el caso de Cara, una red social que se presenta como la “anti-Instagram” enfocada en rechazar cualquier herramienta de IA para generación o manipulación de imágenes. Este posicionamiento explícito está ligado a debates éticos sobre el uso de datasets entrenados con obras protegidas por derechos de autor, así como al temor de que la creatividad humana pueda verse desvirtuada por algoritmos automatizados. Otra plataforma destacada es Steam, el gigante de distribución de videojuegos, que ha implementado restricciones para proyectos que utilizan IA generativa.
Aunque no prohíbe completamente la presencia de IA, exige que se demuestre que las imágenes o contenidos generados no provienen de modelos entrenados de manera poco ética. Esto marca un precedente sobre la responsabilidad social y legal en el uso de la inteligencia artificial dentro de proyectos que manejan propiedad intelectual muy valiosa. Por otro lado, Itch.io, otra plataforma importante para desarrolladores independientes y creadores de juegos, ha adoptado una política más flexible. Requiere que los creadores declaren cuando emplean IA en sus productos, permitiendo así que los usuarios puedan filtrar contenido en función de su preferencia.
Este enfoque promueve la transparencia sin imponer una restricción total, reflejando un equilibrio entre la innovación tecnológica y el respeto por las decisiones de los consumidores o creadores. Más allá del ámbito artístico, hay proyectos que optan por limitar el uso de la IA para evitar consecuencias no deseadas relacionadas con la privacidad, el impacto medioambiental o la ética del manejo de datos personales. Un ejemplo interesante es Gouach, una empresa que desarrolla baterías reparables y a prueba de fuego para vehículos eléctricos y que utiliza técnicas de machine learning solamente para detectar defectos y mejorar la durabilidad del producto, pero sin vincular esa información a datos personales. Además, Gouach se compromete a medir y publicar las emisiones de CO2 generadas por sus sistemas de inteligencia artificial, mostrando un compromiso con la sostenibilidad ambiental que va más allá del puro aprovechamiento tecnológico. En algunos ecosistemas tecnológicos muy específicos, como OpenBSD —el sistema operativo enfocado en seguridad y privacidad— se pueden encontrar numerosos proyectos y paquetes que deliberadamente evitan incorporar tecnología basada en inteligencia artificial o machine learning.
Esto se debe a que estas tecnologías a menudo requieren procesamientos masivos de datos y estructuras complejas que podrían comprometer la filosofía básica de seguridad y simplicidad que promueve OpenBSD. Dicho esto, es válido preguntarse: ¿cómo se puede asegurar o exigir que un proyecto no adopte IA, cuando esta puede infiltrarse en muchas capas de desarrollo, incluso sin que los usuarios finales o creadores lo noten? En términos prácticos, estableciendo un veto o certificación contra la IA es difícil de aplicar y auditar, a menos que la comunidad o los responsables implementen mecanismos específicos de revisión y control. La discusión se vuelve aún más compleja si consideramos el impacto económico y competitivo del uso de inteligencia artificial. Muchas compañías grandes y consolidadas ya aprovechan la IA para optimizar procesos, aumentar la productividad y generar ventajas en el mercado. En consecuencia, quienes se niegan a adoptar estas tecnologías pueden enfrentar desventajas significativas o quedar relegados a nichos muy específicos orientados a usuarios con intereses éticos o creativos particulares.
Algunos expertos consideran que la IA actúa como un nivelador de campo, proporcionando herramientas que cualquier proyecto, sin importar su tamaño, puede usar para mejorar su oferta o acelerar su desarrollo. Sin embargo, también advierten que no usar IA en un ecosistema altamente competitivo puede significar quedarse atrás. Por ello, los proyectos que eligen no usar inteligencia artificial suelen hacerlo por motivos fuertes y deliberados, relacionados con visión, valores o compromisos concretos más allá de la mera utilidad técnica. En resumen, aunque la adopción de inteligencia artificial es dominante y casi universal, sí existen proyectos y comunidades que se declaran antitéticos a esta tendencia. Estas iniciativas suelen encontrarse principalmente en el ámbito artístico y cultural, en organizaciones profundamente comprometidas con la privacidad y la ética, y en ciertos ecosistemas tecnológicos que priorizan la simplicidad y la seguridad.
El hecho de que no haya un listado centralizado o ampliamente conocido de proyectos que no adoptan IA responde tanto a la diversidad de motivaciones y grados de rechazo, como a la dificultad de controlar este tipo de políticas en un entorno dinámico y multifacético. Sin embargo, el creciente debate público y las políticas claras tomadas por algunas plataformas son indicativos de una resistencia puntual y significativa que vale la pena seguir monitoreando. Conforme avance la integración de inteligencia artificial en todos los ámbitos, probablemente surjan herramientas y certificaciones que permitan identificar proyectos libres de IA, o al contrario, transparentar el uso de estas tecnologías. Esto enriquecerá el ecosistema y permitirá decisiones más informadas por parte de usuarios, creadores y empresas, abrazando la diversidad y respetando aquellos que deciden mantener su camino sin inteligencia artificial.