La irrupción de la inteligencia artificial en nuestras vidas ha sido una de las transformaciones más significativas de las últimas décadas. Desde asistentes virtuales hasta sistemas complejos que gestionan datos masivos, la IA está moldeando el presente y el futuro de múltiples sectores. Sin embargo, además de sus indudables beneficios, surge una cuestión cada vez más importante: ¿cuál es su impacto ambiental? En un mundo donde la crisis climática es una urgencia global, entender cómo la IA contribuye o puede mitigar esta problemática es imprescindible. Es común pensar que usar herramientas como ChatGPT o Claude, que responden a consultas de texto, tiene un impacto ambiental casi insignificante. De hecho, manejar consultas ocasionales resulta en un consumo energético mínimo; por ejemplo, el uso de estos sistemas durante un año puede equivaler al gasto energético de mantener un calefactor encendido durante apenas dos horas.
Esto pone en perspectiva el consumo individual, mostrando que un uso moderado no representa una carga significativa para el planeta. Además, cuando se compara con otras acciones cotidianas que impactan el clima en mayor medida, como el consumo de carne, la interacción con sistemas de IA resulta relativamente leve en términos de emisiones de carbono. No obstante, expertos y líderes de la industria alertan sobre una escalada inminente en el consumo energético asociado a la IA, especialmente considerando la construcción de grandes centros de datos que podrían requerir enormes cantidades de energía en los próximos años. Algunos pronostican que la demanda de electricidad para alimentar estos centros podría incluso llegar a representar un porcentaje significativo del total de energía generada mundialmente para alrededor del 2030, poniendo en alerta a quienes abogan por un uso responsable y sostenible de estas tecnologías. Para comprender esta aparente contradicción, es fundamental distinguir entre diferentes tipos de aplicaciones y usos de la IA.
Hay que separar el uso cotidiano y liviano de modelos de lenguaje de otras aplicaciones que requieren mayor potencia computacional. El grueso del consumo energético de la IA se encuentra en actividades como los sistemas de recomendación de contenidos en redes sociales y e-commerce, los análisis predictivos en entornos empresariales o los algoritmos detrás del motor de búsqueda en internet y la publicidad dirigida. Estas actividades consumen la mayoría del presupuesto energético asignado a la IA, dejando la interacción puntual con chatbots o asistentes de texto en un nivel significativamente menor. La evolución de la eficiencia energética en los procesos de entrenamiento e inferencia de modelos de lenguaje es un factor decisivo. Estudios recientes muestran que el coste energético por token —la unidad básica de texto procesada— ha caído considerablemente en poco tiempo, pasando de unos pocos julios a menos de medio julio por token en ciertos modelos.
Esta mejora tecnológica abre la puerta a un futuro donde el impacto ambiental por consulta o análisis sea cada vez más pequeño, aunque el volumen total de uso pueda aumentar rápidamente. Así, aunque el costo por unidad baja, el crecimiento exponencial en la demanda puede conducir a un aumento global del consumo, un fenómeno conocido en la industria como la paradoja de Jevons. Un análisis más concreto se puede hacer estimando el consumo energético en distintos escenarios. Por ejemplo, recurrir a modelos de IA para analizar documentos de investigación o informes extensos consume una cantidad pequeña de energía en comparación con otras actividades cotidianas como conducir un automóvil. Sin embargo, si se multiplica por el número de consultas diarias y la complejidad de cada tarea, la suma resulta en un consumo relevante.
En ámbitos profesionales, como el desarrollo de software, el uso intensivo de IA puede conllevar un gasto energético considerablemente mayor, especialmente si se emplean múltiples instancias del modelo simultáneamente. A medida que la incorporación de IA en estos procesos crece, también lo hará el consumo asociado. El panorama se vuelve mucho más complejo y preocupante al contemplar la integración de IA en sistemas de vigilancia masiva, como la analítica en tiempo real de cámaras de seguridad y video. Procesar imágenes y videos genera un volumen enorme de datos que requiere procesos mucho más intensivos en energía. En un escenario utópico o distópico, donde todas las cámaras urbanas estuvieran conectadas a sistemas inteligentes que analizan constantemente las imágenes, el consumo podría alcanzar cifras comparables al consumo anual eléctrico de ciudades enteras, incrementando exponencialmente la huella ambiental de la tecnología.
Este fenómeno está asociado a una tendencia de crecimiento en la cantidad de dispositivos conectados y sensores en todo el mundo —parte integral de lo que se conoce como Internet de las Cosas (IoT)— que conlleva a la generación de una gran cantidad de datos que deben ser procesados y almacenados, incrementando la demanda energética de los centros de datos. Mirando hacia adelante, la incertidumbre crece cuando se considera la llegada de inteligencias artificiales de nivel humano o superinteligentes que podrían necesitar, potencialmente, enormes recursos computacionales para operar. Las predicciones sobre este tipo de inteligencia aún son especulativas, pero quienes están abogando por su desarrollo enfatizan que el progreso en infraestructura energética también debe avanzar para soportar esta revolución tecnológica sin restricciones. Pero estas posturas también evidencian un dilema importante. Por un lado, están quienes creen que la IA tiene el potencial de ayudar a resolver problemas ambientales a gran escala, proponiendo que su desarrollo y despliegue son prioritarios incluso por encima de los objetivos climáticos actuales.
Por otro, existen voces que señalan que no se debe sacrificar la sostenibilidad en aras del avance tecnológico y que es necesario implementar estrategias que concilien ambos objetivos. En ese contexto, las mejoras tecnológicas constantes y el desarrollo de energías renovables juegan un papel fundamental para mitigar el impacto. Los centros de datos cada vez más eficientes y alimentados por fuentes limpias garantizan que el crecimiento del uso de IA no se traduzca directamente en mayores emisiones de gases de efecto invernadero. Además, la optimización en el software, como la reducción en la cantidad de tokens procesados y el avance en algoritmos con menor demanda energética, también contribuyen a que la IA evolucione de forma sostenible. Por último, es importante reflexionar sobre las decisiones individuales y colectivas en torno al uso de la IA.