En una movida sorpresiva y controvertida, los republicanos de la Cámara de Representantes de Estados Unidos introdujeron una disposición en el proyecto de ley de reconciliación presupuestaria que prohibiría a los estados y subdivisiones políticas implementar cualquier forma de regulación o legislación sobre inteligencia artificial durante un período de diez años. Esta medida, impulsada por el representante Brett Guthrie de Kentucky, establece que ninguna entidad estatal o local podrá aplicar leyes o regulaciones relacionadas con modelos de inteligencia artificial, sistemas de IA o sistemas de toma de decisiones automatizados a partir de la fecha de promulgación del proyecto. Esta cláusula, que apareció de forma aparentemente sorpresiva dentro de un paquete mayoritariamente enfocado en reformas de salud y recortes presupuestarios, impacta directamente el ámbito tecnológico y de inteligencia artificial, sector en el cual la regulación a nivel estatal ha comenzado a tomar fuerza en los últimos años. El texto amplio de esta prohibición se traduce en que normativas ya vigentes para proteger a los ciudadanos frente a posibles abusos y riesgos derivados del uso de IA quedarían suspendidas. Por ejemplo, California cuenta con una ley que obliga a los proveedores de salud a informar al público cuando se utiliza IA generativa en la comunicación con pacientes.
Nueva York promulgó una normativa en 2021 que demanda auditorías de sesgo para herramientas de IA utilizadas en procesos de contratación laboral. Estas iniciativas y otras similares corren el peligro de quedar sin efecto, lo que genera una fuerte disputa sobre el equilibrio entre innovación tecnológica y protección social. Este bloqueo legal, que abarca tanto leyes existentes como propuestas, también afectaría leyes previstas para futuro próximo, como la regla de California, que entrará en vigor en 2026 y que exige que los desarrolladores de IA documenten públicamente qué datos emplean para entrenar sus modelos. Al restringir la capacidad de los estados para legislar en materia de IA, se limita la diversidad y autonomía en la gestión de esta tecnología crucial, y se puede interpretar como un camino para favorecer la postura desreguladora del gobierno federal bajo la administración actual. Una dimensión adicional y preocupante es la influencia que esta prohibición tendría sobre la distribución y uso de fondos federales asignados a programas de IA a nivel estatal.
Tradicionalmente, los gobiernos locales han tenido margen para determinar cómo invertir esos recursos, pudiendo adoptar enfoques distintos a los preferidos por el Ejecutivo federal o la industria tecnológica dominante. Un ejemplo relevante es el programa de inteligencia artificial del Departamento de Educación, cuyas tácticas podrían diferir substancialmente entre estados. La interferencia federal en la autonomía estatal genera un debate sobre la centralización del poder y el posible alineamiento forzado con intereses industriales afines al gobierno. El contexto político detrás de esta medida no es menor. Desde la llegada de la administración Trump, se han anulado diversas órdenes ejecutivas previas orientadas a la seguridad y mitigación de riesgos en IA.
El avance en prohibir legislaciones estatales representa un escalón más en la orientación pro industria y en una menor supervisión regulatoria. Esta posición se vuelve más comprensible al conocer las estrechas relaciones que la industria tecnológica mantiene con las figuras clave de esta administración. Personalidades como Elon Musk, David Sacks y Marc Andreessen desempeñan roles influyentes vinculados al gobierno, y la interacción del CEO de OpenAI, Sam Altman, con el expresidente destacan la fuerte conexión entre gobierno y sector tecnológico. Esta interrelación ha propiciado críticas fuertes por parte de grupos que defienden la seguridad tecnológica y los derechos de los consumidores. Organizaciones como Tech Oversight Project y Consumer Reports han alertado que dejar la inteligencia artificial sin una adecuada supervisión incrementa la vulnerabilidad de las personas ante riesgos como la generación de deepfakes o el sesgo en sistemas algorítmicos.
Los senadores y representantes demócratas han calificado esta medida como un regalo para Big Tech, evidenciando la polarización ideológica y las tensiones en la política tecnológica. Más allá de la política, las consecuencias prácticas pueden ser de gran alcance. La inteligencia artificial está cada vez más integrada a sectores sensibles como el empleo, la salud, la seguridad pública y la educación. La ausencia de un marco regulador estatal efectivo podría traducirse en prácticas opacas, falta de transparencia y ausencia de mecanismos para atender disputas o abusos tecnológicos. El interés público puede quedar relegado ante la búsqueda de rentabilidad tecnológica y el avance ininterrumpido de la innovación sin debida supervisión.
Asimismo, esta prohibición podría afectar la competencia y la innovación responsable. Las regulaciones locales a menudo funcionan como laboratorios de experimentación para políticas públicas que luego pueden escalar a nivel nacional. Limitar estas iniciativas impide la adaptación local y la investigación contextualizada sobre cómo mitigar riesgos específicos derivados de la IA. De este modo, se reduce la capacidad del país para afrontar desafíos tecnológicos complejos de forma integral. Otro aspecto importante es la transparencia.
Exigir a los desarrolladores que documenten sus datos de entrenamiento y prácticas es parte esencial para generar confianza social y promover la responsabilidad algorítmica. Restringir esta obligación a nivel estatal podría alentar prácticas menos transparentes, dificultando que usuarios, investigadores y reguladores comprendan cómo funcionan los sistemas que cada vez más influyen en decisiones cotidianas y comerciales. En cuanto al proceso legislativo, la adición de esta cláusula en un paquete centrado en salud y presupuestos limita la debate específico sobre estas medidas. Al articular esta regulación dentro de una amplia ley de reconducción de gasto, se reduce el espacio para profundizar en sus implicaciones técnicas y sociales, facilitando su paso sin la transparencia y discusión pública adecuadas. Finalmente, este episodio refleja las complejas interacciones entre tecnología, política y sociedad en la era digital.
La inteligencia artificial, con su potencial transformador, plantea preguntas cruciales sobre quién debe controlar su desarrollo, cómo proteger a los usuarios y qué modelos regulatorios son más efectivos y equitativos. La prohibición por una década de regulación estatal en Estados Unidos es un ejemplo de prioridad política que favorece intereses corporativos y un control federal concentrado, a expensas de la diversidad y la protección local. En resumen, el veto temporal a la regulación estatal de IA en el proyecto de ley presupuestario muestra un giro significativo hacia la desregulación y centralización bajo la administración estadounidense actual, con efectos potencialmente negativos para consumidores, desarrolladores y gobiernos locales. La reacción contraria de activistas y algunos representantes invita a un debate urgente sobre las mejores vías para equilibrar innovación tecnológica con responsabilidad y seguridad pública en la era digital.