La audiencia del Senado de Estados Unidos celebrada en mayo de 2025 marcó un momento crucial para el futuro de la inteligencia artificial (IA) en el país y, por ende, en el mundo. Reunió a las principales figuras del sector tecnológico, entre ellas Sam Altman, CEO de OpenAI, junto a CEOs de empresas punteras como AMD, CoreWeave y Microsoft, así como a diversos senadores con posturas que reflejan las complejidades y tensiones de las políticas públicas alrededor de la IA. En el centro del debate se ubicó la tan polémica cuestión de la regulación de la inteligencia artificial y la competitividad estadounidense ante otras potencias, principalmente China y Europa. Durante la sesión quedó transparente la intención de mantener un equilibrio entre fomentar la innovación y garantizar la seguridad y el control sobre una tecnología con un potencial de transformación social y económica sin precedentes. Sam Altman, representante de una de las empresas más influyentes en IA, asumió una postura que llamó la atención tanto por su pragmatismo como por sus contradicciones aparentes en comparación con audiencias previas.
Mientras en ocasiones anteriores parecía favorecer un marco regulatorio más rígido, esta vez rechaza ideas que impliquen una supervisión estatal previa al despliegue de nuevos modelos o sistemas de IA, calificándolas incluso de “desastrosas” para la industria. Sin embargo, no niega la necesidad de regulaciones “sensatas” y “ligeras” que no frenen la innovación. Esta visión refleja la preocupación central del sector tecnológico en Estados Unidos: evitar políticas que imiten las regulaciones europeas, las cuales son vistas como excesivamente restrictivas y burocráticas. Fue precisamente uno de los argumentos del senador Ted Cruz, quien destacó la necesidad de preservar la “historia de libertad empresarial y de innovación tecnológica” que ha caracterizado a Estados Unidos, en contraposición con un Europa que, según él, opta por el “control y mando”. Sin embargo, esta misma narrativa plantea algunos desafíos críticos.
La sesión evidenció una alarmante ausencia de atención a riesgos catastróficos o existenciales asociados a la IA. Prácticamente no hubo menciones serias a las posibles consecuencias negativas profundas, como el desempleo tecnológico masivo o la pérdida de control humano sobre sistemas autónomos. El discurso predominante enfatizó la carrera por ganar cuota de mercado, especialmente en la producción y exportación de chips y modelos de IA, más que la reflexión sobre el impacto ético, social o medioambiental. De hecho, la interlocución demostró confusiones y simplificaciones, tales como la sobreestimación competitiva de China en el sector de IA y el mal enfoque hacia asuntos ambientales relacionados con el consumo energético y de agua de los grandes centros de datos. En contraposición, varios actores señalaron la importancia de alianzas comerciales sólidas, la captación de talento internacional altamente calificado mediante políticas de migración selectiva, y la necesidad de simplificar regulaciones para facilitar desarrollos tecnológicos y ampliación de infraestructura.
El debate sobre la creación y aplicación de estándares fue otro punto clave. Mientras algunos, como Sam Altman, cuestionaron la necesidad de que instituciones federales como el Instituto Nacional de Estándares y Tecnología (NIST) definan políticas concretas, otros representantes de la industria coincidieron en la importancia de lograr estándares internos que, además, sean adoptados internacionalmente. Se destacó la experiencia histórica de estándares abiertos tecnológicos como HTTP o HTML, que facilitaron la rápida adopción y desarrollo global. En cuanto al papel de los estados federados dentro de EE.UU.
, la audiencia dejó entrever una propuesta preocupante: la preempción federal absoluta sobre cualquier intento estatal o local de legislar en materia de inteligencia artificial. Más allá de la estrategia para evitar una ‘fragmentación regulatoria’, esta posición podría paralizar iniciativas estatales necesarias que podrían abordar problemas específicos y urgentes en seguridad, privacidad o transparencia. Esta situación genera incertidumbre ante la posibilidad de una década sin regulaciones activas, dado que la legislación propuesta incluso prohibiría que las autoridades locales ejerzan control sobre temas que hoy ya resultan regulados en otras áreas. Si bien reconocen la importancia de la innovación y la economía emergente, los legisladores demostraron clara prioridad en que Estados Unidos mantenga el liderazgo en el mercado global de IA, especialmente en tecnología física como chips y centros de datos, pero también en el desarrollo y comercialización de modelos de inteligencia artificial. La ofensiva hacia mantener el dominio incluye la flexibilización de controles de exportación y la inversión en infraestructura energética y tecnológica, con mensajes recurrentes para eliminar obstáculos burocráticos y fomentar las asociaciones público-privadas.
Los testimonios de los ejecutivos resaltaron desafíos prácticos como la necesidad de mayor suministro eléctrico estable, la agilización de procesos de permisos para construcción de infraestructura crítica y la apertura a esquemas migratorios para atraer talento que impulse la innovación técnica. Asimismo, se abordaron cuestiones de seguridad digital y desafíos éticos, como la proliferación de deepfakes y la necesidad de detectar modelos con sesgos o que promuevan la discriminación. Sin embargo, la respuesta fue en líneas generales una promesa de trabajo voluntario y autogestión del sector tecnológico, más que un compromiso firme con regulaciones o mecanismos de rendición de cuentas gubernamentales. Respecto a las preocupaciones sociales, como el posible impacto disruptivo en el empleo, Sam Altman propuso un enfoque basado en el desarrollo iterativo, colocando herramientas cada vez más potentes en manos de usuarios para facilitar la adaptación gradual. Su visión es optimista y se apoya en la experiencia histórica de revoluciones tecnológicas anteriores, pero reconoce que la velocidad de esta transformación podría ser mayor a lo conocido.
Entre tanto, pidió confianza para abordar las transiciones que se avecinan. En suma, la audiencia del Senado dejó claro que la agenda dominante sigue siendo la competitividad global y la supremacía tecnológica, con un rechazo frontal a regulaciones estrictas o activas por parte del gobierno. El bloque bipartidista se manifestó en favor de una política federal única que impida a los estados adoptar normas propias, y que permita a la industria auto-regularse mediante estándares creados desde dentro. No obstante, esta posición genera un escenario precario en el que las preocupaciones legítimas sobre riesgos éticos, sociales, ambientales y de seguridad quedan relegadas o directamente ignoradas. La falta de voluntad para legislar o establecer marcos claros podría derivar en daños significativos a mediano y largo plazo, tanto en términos de protección al consumidor como en la preservación de valores democráticos y derechos humanos.