La historia detrás del despido de Sam Altman en OpenAI: qué revelan los nuevos detalles

Publicado el

Ilustración surrealista de un ejecutivo con cerebro de IA y circuito roto representando el conflicto ético en OpenAI tras el despido de Sam Altman.

Una nueva publicación promete desentrañar los motivos que llevaron al sorprendente despido —y posterior regreso— de Sam Altman, CEO de OpenAI, en 2023. La obra, titulada “The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future”, escrita por la periodista Keach Hagey del Wall Street Journal, revela una trama interna que mezcla tensiones éticas, decisiones empresariales cuestionables y rupturas personales entre los líderes de una de las compañías más influyentes en el desarrollo de inteligencia artificial.

En este artículo te explico, paso a paso, qué pasó realmente detrás de las puertas cerradas de OpenAI, por qué se encendieron las alarmas dentro del consejo directivo, y cómo este episodio refleja los retos de gobernar una empresa que camina entre la innovación tecnológica y la responsabilidad social.

El conflicto que terminó con un despido

Hasta ahora, el despido de Sam Altman parecía un misterio sin resolver. Pero, según el fragmento del libro publicado recientemente, el detonante fue una creciente desconfianza entre los miembros del consejo de OpenAI y el propio Altman.

Uno de los puntos más delicados tiene que ver con el OpenAI Startup Fund, una iniciativa destinada a apoyar startups basadas en inteligencia artificial. Lo que no se sabía públicamente es que este fondo no era gestionado por la organización sin fines de lucro como se suponía, sino que estaba registrado a nombre personal de Sam Altman. Este detalle generó dudas sobre posibles conflictos de interés y sobre hasta qué punto Altman estaba alineado con los principios éticos y de transparencia que la empresa dice promover.

Un ambiente tenso y denuncias internas

La relación dentro del equipo ejecutivo tampoco estaba en su mejor momento. Ilya Sutskever, cofundador de OpenAI, y Mira Murati, directora de tecnología en ese entonces, habrían estado recopilando pruebas sobre lo que consideraban un comportamiento tóxico y engañoso por parte de Altman.

Por ejemplo, según el libro, Altman aseguró que el departamento legal de la empresa había determinado que GPT-4 Turbo no necesitaba ser revisado por la junta de seguridad conjunta, algo que luego fue desmentido por el propio responsable legal. Este tipo de contradicciones fue considerado una señal de alarma.

Murati, incluso, habría compartido capturas de pantalla de conversaciones en Slack que reforzaban sus sospechas. Con estas pruebas en mano, Sutskever presentó el caso al consejo directivo, lo que culminó con la destitución de Altman y el nombramiento temporal de Murati como CEO interina.

El efecto dominó y la reacción de los empleados

Lo que parecía una decisión firme se volvió en contra de quienes la impulsaron. Tras conocerse el despido, la gran mayoría del personal de OpenAI —incluyendo a Sutskever y Murati— firmó una carta pidiendo la restitución de Altman. El mensaje era claro: el liderazgo de Altman era crucial para la continuidad del trabajo y la cultura de la empresa.

Este respaldo masivo cambió por completo el panorama. En pocos días, Altman fue reinstalado como CEO, mientras que sus opositores directos, Sutskever y Murati, terminaron dejando la compañía para fundar sus propias startups.

¿Qué dice esto sobre la gobernanza de OpenAI?

Más allá del drama interno, este episodio plantea una pregunta relevante para cualquier empresa que desarrolle tecnologías de alto impacto: ¿cómo se equilibra la innovación rápida con una gestión responsable y ética?

OpenAI fue concebida como una organización híbrida: una combinación entre una entidad sin fines de lucro, preocupada por el desarrollo seguro de la IA, y una empresa con fines comerciales que atrae inversionistas y busca escalar sus productos. Este modelo, aunque ambicioso, crea tensiones inherentes. Por un lado, existe la presión por lanzar productos y generar ingresos; por otro, la necesidad de actuar con cautela y responsabilidad ante tecnologías que podrían tener efectos sociales profundos.

El hecho de que el Startup Fund estuviera bajo control personal de Altman, o que se intentara saltar instancias de revisión interna de seguridad, refleja justamente esa fragilidad en los mecanismos de control.

Altman, de vuelta y más fuerte

Tras su regreso, Sam Altman no solo conservó su cargo, sino que salió fortalecido. Su retorno fue visto como una victoria frente a lo que algunos interpretaron como un intento de golpe interno. La rápida reacción del equipo y la presión pública jugaron un papel decisivo.

Sin embargo, lo más interesante es que quienes lo enfrentaron —Sutskever y Murati— también siguieron caminos relevantes. Ambos están trabajando ahora en nuevas iniciativas relacionadas con IA. De hecho, Sutskever fundó “Safe Superintelligence”, una startup enfocada en el desarrollo seguro de modelos avanzados de inteligencia artificial, lo que sugiere que, a pesar de las diferencias, las preocupaciones sobre la ética de la IA siguen estando en el centro del debate.

¿Qué podemos aprender de este episodio?

Este tipo de situaciones no son exclusivas de OpenAI. Lo que ocurrió es un buen ejemplo de los desafíos que enfrentan las empresas tecnológicas cuando sus líderes concentran demasiado poder y operan en áreas grises.

Cuando la tecnología avanza más rápido que la regulación y los marcos éticos, es fundamental que haya estructuras de gobernanza sólidas, diversidad de opiniones y una cultura interna que permita cuestionar decisiones sin miedo a represalias.

Imagina que una empresa tecnológica es como un coche deportivo: puede ir a toda velocidad, pero si el conductor ignora las señales de tránsito o los frenos no funcionan bien, el accidente es cuestión de tiempo.

¿Y ahora qué sigue para OpenAI?

Aunque este episodio dejó heridas internas, también sirvió para poner bajo la lupa los procesos de toma de decisiones en la empresa. Desde entonces, OpenAI ha reforzado sus políticas de transparencia y revisión interna, al menos en el discurso público. Falta ver si estas medidas realmente se traducen en un cambio estructural o si se trata solo de controlar daños.

Mientras tanto, Altman continúa al frente de una compañía que sigue marcando el ritmo en el mundo de la inteligencia artificial, con productos como ChatGPT, DALL·E y GPT-4 Turbo en constante evolución.

Una historia que, más que un escándalo pasajero, representa las tensiones reales de liderar la construcción del futuro tecnológico mientras se navega por los dilemas éticos del presente.