En los últimos años, la inteligencia artificial (IA) se ha convertido en uno de los motores más potentes de innovación tecnológica, transformando múltiples sectores como el de la salud, la educación, el transporte y el entretenimiento. Sin embargo, mientras la IA avanza en sus capacidades, también han surgido preocupaciones importantes sobre cómo los sesgos inherentes a los datos y algoritmos afectan la precisión y equidad de estas tecnologías. Frente a este desafío, la industria tecnológica lanzó esfuerzos significativos para reducir la discriminación algorítmica, mejorar la inclusión y hacer que la IA sea más responsable. No obstante, la reciente oposición de figuras políticas, incluyendo al expresidente Donald Trump, ha puesto en entredicho estos avances, generando un debate intenso en torno a la denominada “IA woke” y la libertad de expresión en el ámbito digital. La problemática del sesgo en la inteligencia artificial no es nueva.
Desde que los algoritmos comenzaron a procesar grandes volúmenes de datos para tomar decisiones automatizadas, quedó en evidencia que si estos datos estaban cargados de prejuicios sociales y culturales, la IA reproduciría y amplificaría dichas inequidades. Ejemplos notorios han involucrado sistemas de reconocimiento facial con altos índices de errores para personas de piel oscura, o algoritmos de contratación que desfavorecían a ciertos grupos demográficos. La notoriedad de estos problemas movilizó a grandes compañías tecnológicas como Google, Amazon, Meta, Microsoft y OpenAI para avanzar en soluciones que corrigieran y mitigaran el sesgo. Uno de los casos emblemáticos de este esfuerzo fue el desarrollo del Monk Skin Tone Scale, una escala de tonos de piel creada por el profesor Ellis Monk de Harvard, que revolucionó la forma en que las IA procesan y reconocen la diversidad de pieles humanas. Esta escala reemplazó a estándares antiguos, diseñados originalmente para contextos médicos centrados en pacientes de piel blanca, y permitió a herramientas de visión computarizada evaluar con mayor precisión y respeto a personas de diferentes tonos de piel.
El impacto positivo de esta innovación fue notable, mejorando la inclusión en tecnologías como cámaras de teléfonos inteligentes, videojuegos y generadores de imágenes basados en IA. Sin embargo, pese a estos avances técnicos y sociales, la emergencia de una narrativa política en la que se critica lo que se llama “IA woke” ha situado a estas iniciativas en la mira. El término “woke”, usado en forma peyorativa por ciertos grupos políticos y figuras públicas, se refiere a las políticas y acciones dirigidas a promover la equidad, diversidad e inclusión, y en el contexto de la IA, a los esfuerzos para evitar que los algoritmos reproduzcan discrímenes de género, raza o clase social. Desde el entorno político del expresidente Trump y sectores conservadores en el Congreso de Estados Unidos, estas prácticas son percibidas como una forma de censura ideológica y un obstáculo para la innovación rápida y libre. Recientemente, la discusión cobró fuerza cuando el Comité Judicial de la Cámara de Representantes envió citaciones a más de una docena de empresas tecnológicas importantes para investigar supuestas presiones del gobierno de Biden en la regulación de contenidos y en la imposición de criterios de equidad en los algoritmos.
Además, cambios en documentos oficiales del Departamento de Comercio reflejaron un giro en el enfoque de los estudios científicos sobre la IA, eliminando referencias explícitas a la justicia y responsabilidad y proponiendo en su lugar metas orientadas a reducir “sesgos ideológicos” y a fomentar la “floración humana y la competitividad económica”. Esta tendencia política se traduce también en recortes de fondos para proyectos relacionados con diversidad, equidad e inclusión (DEI por sus siglas en inglés), lo que genera preocupación entre expertos y trabajadores del sector tecnológico pues podría frenar la continuidad y expansión de iniciativas que buscan hacer que la IA sea más justa y efectiva para todos los usuarios. Ellis Monk, por ejemplo, reconoce que aunque su escala de tono de piel ya está integrada en numerosos productos, la política cambiante puede impactar en el financiamiento y el apoyo a futuras investigaciones que aborden problemas similares. El debate no es solamente técnico sino también cultural y político. Para los defensores de la equidad en la tecnología, reconocer y corregir los sesgos es esencial para evitar que la IA perpetúe discriminaciones históricas y para garantizar que sus beneficios sean accesibles a toda la sociedad sin exclusiones.
Por otro lado, algunos críticos argumentan que estas medidas suponen una forma de “ingeniería social”, imponiendo una visión ideológica que limita la libertad de expresión y la neutralidad tecnológica. En este contexto, expresiones públicas como las de JD Vance, vicepresidente de los Estados Unidos, que denunció en un evento internacional la existencia de “agendas sociales ahistóricas” impulsadas a través de la IA, muestran cómo estas tensiones trascienden el terreno científico y se instalan en el debate sociopolítico. El impacto del sesgo en la IA es real y tiene consecuencias tangibles. Estudios han demostrado que los sistemas automatizados de reconocimiento facial tienen tasas más altas de error para personas negras y asiáticas, lo que en algunos casos ha provocado arrestos erróneos. En el ámbito laboral, generadores de imágenes y herramientas de procesamiento de lenguaje han reproducido estereotipos de género y racial, como mostrar mayoritariamente hombres blancos en profesiones específicas, a pesar de la realidad demográfica diversa.
Estos ejemplos evidencian que sin una intención activa de corregir desigualdades, la IA puede reforzar las injusticias existentes en lugar de remediarlas. La llegada de ChatGPT y otras aplicaciones de IA generativa han acelerado la adopción masiva de estas tecnologías y, con ello, la urgencia de abordar sus implicaciones éticas y sociales. Google, en particular, tuvo un revés público con el lanzamiento de su chatbot Gemini, cuyo generador de imágenes ofreció representaciones inusuales como mostrar a personajes históricos estadounidenses con rasgos raciales contradictorios, lo que desató críticas y acusaciones de manipulación ideológica. Aunque se trató de un intento de balancear los sesgos, el error alimentó una narrativa política que busca atacar las iniciativas de diversidad en IA bajo la acusación de sesgo ideológico. Esta situación refleja una pugna entre diferentes visiones del papel que debe jugar la inteligencia artificial en la sociedad.
Mientras algunos defienden que la IA debe ser diseñada y regulada activamente para promover la equidad y la justicia social, otros sostienen que su desarrollo debe estar guiado principalmente por la competitividad económica, la innovación rápida y la defensa de derechos individuales como la libertad de expresión. El futuro de la IA pasa por encontrar un equilibrio que permita reducir los perjuicios derivados del sesgo sin sacrificar la eficiencia y creatividad que caracteriza a esta área tecnológica. Para ello, es fundamental el diálogo entre tecnólogos, sociólogos, legisladores y la sociedad civil, de manera que se construyan marcos normativos y éticos robustos y flexibles que respondan a los retos reales. La presión política actual en Estados Unidos para desmantelar o limitar los esfuerzos etiquetados como “IA woke” podría tener repercusiones a nivel global, dada la influencia que tienen las empresas tecnológicas del país en el desarrollo de la inteligencia artificial a escala mundial. Por ello, el debate no solo debe considerarse desde una óptica local sino también internacional, tomando en cuenta las diversas realidades sociales y culturales que la IA deberá atender.