OpenAI nació con una visión ambiciosa: desarrollar inteligencia artificial general (AGI) segura que beneficiara a toda la humanidad, preservando un compromiso firme con la ética y la responsabilidad social. Desde sus inicios, su estructura sin fines de lucro reflejaba una esperanza compartida de que el progreso tecnológico de esta magnitud pudiera gestionarse con honestidad y un enfoque orientado al bien común. Sin embargo, a lo largo de los años, ese ideal ha comenzado a desvanecerse en el retrovisor, dando paso a un modelo que concede más importancia a la rentabilidad y a las fuerzas del mercado que a su propósito original. Esta transformación plantea preguntas fundamentales sobre el futuro de la inteligencia artificial y el papel de las empresas en la conducción de innovaciones que afectan a la sociedad global. El cambio clave ocurrió en 2019, cuando OpenAI descubrió que escalar sus modelos de inteligencia artificial—incrementando la cantidad de datos, potencia computacional y parámetros—llevaba a resultados exponencialmente mejores.
Este hallazgo, que fue formalizado en un influyente estudio titulado “Scaling Laws for Neural Language Models” en 2020, redefinió por completo la trayectoria de la organización. El lanzamiento de GPT-3, un modelo cien veces más grande que su predecesor GPT-2, marcó un punto de inflexión que captó la atención de inversores de alto perfil, incluido Microsoft, así como de capitalistas de riesgo deseosos de apostar por el crecimiento rápido y la innovación disruptiva. Mientras OpenAI seguía operando legalmente como organización sin fines de lucro, en la práctica comenzó a adoptar características propias de las compañías con fines lucrativos. El equilibrio entre la misión original y las demandas del mercado fue cada vez más delicado. Las inversiones multimillonarias y los costos asociados con el entrenamiento de modelos cada vez más grandes y complejos impusieron una presión para generar ingresos significativos que garantizaran la escalabilidad y sostenibilidad tecnológica.
La reciente decisión de transformar la rama con fines de lucro de OpenAI en una “public benefit corporation” (PBC), o corporación de beneficio público, refleja un intento de adaptarse a esta nueva realidad. Bajo esta estructura, la empresa sigue estando bajo la supervisión de una organización sin fines de lucro, pero pierde las limitaciones anteriores sobre las ganancias de inversores y empleados. Esto significa que ya no hay un límite en las ganancias que los accionistas pueden obtener, lo que ha sido una condición para cerrar rondas de inversión más grandes, como la liderada por SoftBank. Este movimiento corporativo pone de manifiesto que, si bien OpenAI no abandona por completo su compromiso con el beneficio social, prioriza fuertemente la captación de capital para invertir en infraestructuras y tecnologías que requieren costos astronómicos. La expectativa de que solo a través de una estructura capitalista más flexible podrá financiar el desarrollo continuo de IA avanzada abre un debate sobre hasta qué punto el ideal altruista puede coexistir con los intereses del mercado y los accionistas.
Otra dimensión crítica en esta evolución es la preocupación persistente sobre la seguridad y la ética en el desarrollo de inteligencia artificial. Bajo el liderazgo de Sam Altman, la velocidad en la mejora de los modelos ha aumentado, generando inquietudes legítimas sobre la posibilidad de que la búsqueda del rendimiento y la innovación se imponga frente a la supervisión rigurosa y las pruebas de seguridad necesarias para evitar perjuicios derivados de la IA. Además, el cambio hacia un modelo PBC no necesariamente tranquiliza a quienes temen que la empresa pueda priorizar el impulso hacia una inteligencia artificial superinteligente sin una regulación o mitigación adecuada de riesgos. En efecto, el desafío es cómo equilibrar la presión del mercado y la necesidad de retornos económicos con la responsabilidad que implica desarrollar tecnologías capaces de transformar la sociedad a niveles sin precedentes. Desde una perspectiva más amplia, el caso de OpenAI refleja un cambio significativo en la industria tecnológica.
Muchas startups y organizaciones originalmente fundadas con propósitos filantrópicos están siendo absorbidas por las dinámicas del capital de riesgo y la necesidad de monetización acelerada. Este fenómeno genera un debate sobre cómo preservar los valores fundacionales en un mundo donde la innovación tecnológica se mide cada vez más en términos de ingresos, crecimiento y rentabilidad. Para los usuarios, investigadores y reguladores, comprender esta transición es fundamental. La evolución de OpenAI ejemplifica las tensiones inherentes entre la innovación disruptiva y la gobernanza ética. Si bien la adopción de modelos empresariales más flexibles puede acelerar el desarrollo y la adopción de tecnologías avanzadas, también requiere mecanismos robustos para garantizar que estos avances no comprometan la seguridad, privacidad y el bienestar general.