El anuncio reciente de OpenAI sobre la búsqueda de un «jefe de preparación» ha despertado reacciones de todo tipo. No es para menos: se trata de una posición con un sueldo de 555.000 dólares anuales, pero con responsabilidades tan complejas que parece extraída de una novela distópica sobre inteligencia artificial. Sam Altman, CEO de la compañía, lo dijo sin rodeos: “Este será un trabajo estresante, y comenzarás sumergido hasta el cuello desde el primer día”.
Este puesto se ubica dentro del departamento de sistemas de seguridad de OpenAI, una sección que no se dedica a vender productos ni a desarrollar nuevas capacidades, sino a prever riesgos y evitar desastres. En términos prácticos, significa construir barreras invisibles para que modelos como ChatGPT o Sora se comporten “como se espera” en situaciones del mundo real.
Las fisuras de un sistema que no siempre se comporta bien
La formulación de la oferta sugiere que los modelos de OpenAI ya se comportan adecuadamente en la vida real. Pero la realidad de 2025 ha demostrado que eso está lejos de ser verdad. ChatGPT ha sido protagonista de errores graves: desde “halucinaciones” en documentos legales hasta supuestos consejos que habrían contribuido a la muerte de un usuario, según una demanda en curso. Sora, por su parte, tuvo que ser limitado luego de que usuarios generaran videos con figuras históricas diciendo cosas fuera de contexto.
En muchos de estos casos, OpenAI ha defendido su posición bajo el argumento de que los usuarios abusaron de las herramientas. En el caso de Adam Raine, la compañía alega que las recomendaciones de ChatGPT fueron malinterpretadas o provocadas por usos indebidos. Pero esto plantea una pregunta clave: ¿hasta dónde llega la responsabilidad de una empresa que desarrolla tecnologías tan potentes como imprevisibles?
Entre la promesa y el peligro
Altman reconoce que los modelos pueden afectar la salud mental de las personas y también encontrar vulnerabilidades de seguridad. Por eso, el nuevo jefe de preparación tendrá que diseñar métodos para evaluar y mitigar habilidades no deseadas. Se trata de anticiparse a lo que nadie ha pensado aún, construir herramientas de control para comportamientos emergentes, y establecer estándares de seguridad que eviten que el daño sea mayor que el beneficio.
Es como ser el arquitecto de un rascacielos donde cada piso se construye sin planos previos, pero bajo la presión constante de terminarlo antes que la competencia. Y todo esto, mientras el mundo observa atento a cada movimiento.
Un trabajo con presión por todos lados
La dificultad no solo radica en prevenir riesgos, sino también en acompañar el vertiginoso crecimiento de la compañía. OpenAI, según declaraciones recientes de Altman, busca escalar su facturación anual de más de 13.000 millones de dólares a unos ambiciosos 100.000 millones en menos de dos años. Para lograrlo, la empresa planea introducir nuevos dispositivos físicos, ampliar su negocio de consumo, y apostar por modelos capaces de «automatizar la ciencia».
En este contexto, la persona que asuma este rol tendrá que supervisar no solo los productos actuales, sino también los prototipos del futuro, que aún no existen, pero ya exigen normas de seguridad. La presión es inmensa: se le pide a una sola persona que trace una línea entre el potencial y el caos, entre el negocio y la ética, entre la innovación y la responsabilidad legal.
La paradoja del avance
Altman lo expresa con claridad: si el objetivo fuera evitar cualquier daño, la solución más sencilla sería retirar ChatGPT y Sora del mercado. Pero eso significaría frenar el avance tecnológico que podría transformar sectores como la salud, la educación o la ciencia. La estrategia de OpenAI, por tanto, no es evitar todo riesgo, sino controlar sus posibles consecuencias. Es una estrategia que asume que los fallos ocurrirán, pero se trabajará para que no sean catastróficos.
El jefe de preparación será el encargado de mantener ese equilibrio frágil. Para ello, tendrá que evolucionar constantemente los marcos de evaluación, responder a nuevas amenazas, y adaptarse a expectativas externas que cambian rápidamente. ¿Cómo medir el impacto de una herramienta que podría influir en decisiones médicas, educativas o legales? No hay respuestas fáciles, pero alguien tendrá que encontrarlas.
La cultura del «muévete rápido y arregla después»
Uno de los mayores retos que enfrentará esta figura es el choque cultural entre la necesidad de lanzar productos rápido para captar mercado y la obligación de garantizar que estos productos no generen daño. En compañías tecnológicas tradicionales, esta tensión ya es compleja, pero en el caso de OpenAI se intensifica por la naturaleza experimental de sus desarrollos.
Cada versión de sus modelos introduce comportamientos nuevos, a veces imprevisibles, que requieren monitoreo constante. Y sin embargo, la competencia y las expectativas del mercado empujan a lanzar antes de tener todas las respuestas. Es como lanzar una nave espacial sin saber del todo cómo responderá en la atmósfera.
¿Un rol deseable o una trampa brillante?
El atractivo salarial y la posibilidad de influir en el futuro de la inteligencia artificial podrían parecer suficientes para atraer a grandes talentos. Pero también es posible que este rol se convierta en una especie de trampa dorada: mucho poder formal, pero pocas garantías de poder real para frenar decisiones impulsadas por objetivos comerciales.
La figura del jefe de preparación encarna una tensión que define a toda la industria de la IA hoy: cómo avanzar sin destruir, cómo innovar sin perder de vista el bienestar social, y cómo construir sin ignorar los riesgos. El futuro de OpenAI, y posiblemente de toda la industria, dependerá de cuán bien se pueda navegar ese delicado equilibrio.
