OpenAI es, sin lugar a dudas, una de las organizaciones más influyentes y decisivas en el desarrollo de la inteligencia artificial (IA) a nivel global. Fundada en 2015 con la misión de asegurar que la inteligencia artificial general (AGI, por sus siglas en inglés) se desarrolle de manera segura y benéfica para toda la humanidad, OpenAI ha recorrido un camino único y complejo que plantea una cuestión crucial: ¿quién debería controlar esta entidad y, por ende, el futuro de la IA? Desde su nacimiento, OpenAI se posicionó como un experimento pionero en gobernanza, estructurándose inicialmente como una entidad sin fines de lucro. La razón era clara y admirable: alejarse de las presiones financieras habituales que enfrentan las empresas comerciales y apostar por un desarrollo tecnológico responsable y centrado en el bien común. La visión era evitar que los incentivos monetarios pudieran poner en riesgo la seguridad o el acceso equitativo a los avances en IA. No obstante, conforme OpenAI fue creciendo, atrayendo inversiones multimillonarias y convirtiéndose en un gigantesco laboratorio de innovación con un valor estimado en cientos de miles de millones de dólares, las tensiones internas comenzaron a emerger.
En 2019, la organización adoptó una estructura híbrida llamada "capped-profit" o beneficio limitado, que permitió recibir capital externo con la promesa de limitar las ganancias de los inversores, maximizando al mismo tiempo la misión social. Sin embargo, esta decisión solo fue un paso intermedio en el camino hacia una transformación aún más profunda. El punto de inflexión ocurrió en 2023 cuando la junta de la entidad sin fines de lucro, que controla la empresa con fines de lucro bajo su paraguas, tomó la controvertida decisión de destituir temporalmente a Sam Altman, el entonces CEO de OpenAI. Esta acción, que fue justificadamente criticada y revocada tras una gran presión pública y de los empleados, puso en evidencia las contradicciones y fragilidades del modelo de control actual. El episodio demostró que la estructura de gobernanza carece de claridad y de mecanismos efectivos para equilibrar sus múltiples objetivos.
Desde entonces, se ha discutido la posibilidad de que OpenAI abandone su actual forma híbrida para convertirse en una compañía pública con beneficios, conocida como public benefit corporation. Esta figura legal busca equilibrar la generación de ganancias con ciertos objetivos sociales, pero también ha sido objeto de críticas sobre su eficacia y garantías reales para proteger intereses colectivos frente a la influencia del capital privado. El núcleo del debate reside en la importancia trascendental que tiene el control de OpenAI para la sociedad. El desarrollo de la inteligencia artificial general tiene implicaciones de largo alcance que pueden transformar las economías, los sistemas políticos y la vida cotidiana de miles de millones de personas. Por ello, la responsabilidad sobre cómo se dirigen y emplean estas tecnologías no puede ser tomada a la ligera ni concentrada únicamente en manos de inversores o actores comerciales.
Expertos legales, académicos y antiguos empleados de OpenAI han alertado que permitir la venta del control que hoy ejerce la entidad sin fines de lucro podría suponer una violación de los deberes fiduciarios comprometidos con la misión original. Argumentan que la gobernanza de una tecnología con un impacto potencialmente existencial debería mantenerse en manos de una organización cuyo único objetivo sea el beneficio colectivo, y no el lucro directo. Además, hay preocupaciones de que pasar a un modelo corporativo tradicional o híbrido pueda abrir la puerta a una intensificación de la competencia descontrolada en IA, un fenómeno conocido como "carrera armamentista" en inteligencia artificial, donde las empresas buscan acelerar avances sin suficientes controles de seguridad, con riesgos considerables para la humanidad. En contraste, la estructura actual, aunque complicada y sujeta a desafíos, ofrece un marco con un propósito deliberadamente altruista. La existencia de una junta directiva sin fines de lucro que supervisa las decisiones estratégicas permite que se ponderen consideraciones éticas y de bienestar humano más allá de los retornos financieros, manteniendo la promesa original de que el desarrollo de AGI no quede en manos exclusivamente comerciales.
Sin embargo, no se puede negar que esta complejidad organizativa también genera incertidumbre y dificultades para atraer inversiones y para operar con la agilidad que demanda el ritmo acelerado del sector tecnológico. Es un dilema entre mantener la misión y adaptarse a las realidades de financiamiento y competencia global. De fondo, la tensión principal es cómo se garantiza que una tecnología con un poder transformador y, potencialmente, disruptivo para la sociedad esté guiada por valores que prioricen la seguridad, la equidad y el beneficio global. La pregunta, entonces, no es solo quién controla OpenAI como empresa, sino quién tiene la capacidad de influir y tomar decisiones que afecten a toda la humanidad. Algunos advierten que la regulación gubernamental y la supervisión pública podrían jugar un papel complementario o incluso decisivo en asegurar que los intereses colectivos sean protegidos.
La responsabilidad de autorizar o prohibir cambios en la estructura de OpenAI recae hoy en los fiscales generales de California y Delaware, estados en los que la organización está incorporada y opera. Esto refuerza la importancia de aplicar un enfoque equilibrado y riguroso que contemple el alcance global de la tecnología desarrollada. La consulta con especialistas en derecho corporativo y sin fines de lucro sugiere que, aunque el camino elegido por OpenAI hasta ahora es imperfecto, sigue siendo el modelo que más se acerca a garantizar que la inteligencia artificial se utilice para el beneficio común y no para intereses particulares. Ceder completamente el control podría ser un riesgo demasiado grande dada la capacidad de la inteligencia artificial para influir en múltiples aspectos vitales del futuro de la humanidad. Por otro lado, la experiencia de competidores como Anthropic y X.
ai, que operan bajo estructuras similares de beneficio público, no ha disipado las preocupaciones, ya que estas entidades enfrentan desafíos similares en cuanto a responsabilidad y transparencia. Esto apunta a la necesidad de una gobernanza mucho más robusta y suplementos regulatorios específicos, más que a una simple conversión legal o corporativa. El caso de OpenAI ha puesto sobre la mesa un debate central sobre cómo debe gestionarse el poder tecnológico en la era digital. La inteligencia artificial se perfila como una de las fuerzas más disruptivas y revolucionarias del siglo XXI, y su control no puede estar desvinculado de una estructura ética, social y legal que responda responsablemente al interés general. Por último, es importante destacar que la pregunta de quién debería controlar OpenAI no es solo una cuestión interna de la empresa o un asunto exclusivo de sus inversores y directivos.