OpenAI y la llegada de la publicidad a ChatGPT: la dimisión de Zoë Hitzig reabre el debate sobre datos, confianza y modelos de negocio

Publicado el

uso chat gpt

La decisión de introducir anuncios en ChatGPT ha encendido una discusión que mezcla dinero, ética y poder tecnológico. Según relató Futurism, hace un par de años Sam Altman, CEO de OpenAI, había descrito la publicidad como un “último recurso”. Ese marco mental sugería que el producto debía sostenerse por otras vías: suscripciones, acuerdos empresariales o licencias. El problema es que operar IA generativa es caro, y el sector entero busca una fórmula que no dependa de rondas eternas de inversión.

La noticia no quedó en una mera actualización de producto. Ha tenido una consecuencia simbólica de alto voltaje: la investigadora Zoë Hitzig anunció su renuncia a OpenAI en un ensayo publicado en The New York Times. Su postura no es la caricatura habitual de “publicidad igual a mal”. Reconoce que los anuncios no son, por definición, inmorales: si un servicio cuesta mucho, la publicidad puede ser una vía de ingresos legítima. Su preocupación está en el “cómo” y, sobre todo, en lo que ese “cómo” habilita dentro de una herramienta donde la gente confiesa cosas que no diría en público.

Lo que preocupa a Hitzig: cuando el chat se parece demasiado a un diario íntimo

La tesis de Hitzig es tan simple como inquietante: las personas cuentan a los chatbots miedos médicos, dilemas de pareja, dudas religiosas o inseguridades profundas. Si ese archivo emocional se convierte en combustible publicitario, el riesgo no es solo “me enseñaron un banner”, sino que se abran puertas a formas de persuasión que hoy no sabemos medir ni contener. Hitzig lo plantea como un problema de manipulación: no la manipulación burda de “compra esto”, sino la sutil, la que aparece cuando un sistema aprende el momento exacto de vulnerabilidad en el que un mensaje comercial tiene más impacto.

Para aterrizarlo con un ejemplo cotidiano: no es lo mismo ver un anuncio de vitaminas en una marquesina que recibir, justo después de confesar “me aterra tener una enfermedad”, un mensaje “oportuno” que te empuja a comprar un test, un suplemento o un seguro. En el primer caso, el anuncio te ignora; en el segundo, el anuncio “te conoce”. La línea entre relevancia y explotación se vuelve borrosa cuando el contexto es íntimo.

Hitzig matiza que no teme tanto la primera versión de anuncios, que OpenAI habría descrito como claramente etiquetados y situados al final de las respuestas. Su inquietud es la evolución. La publicidad rara vez se queda quieta: empieza discreta, “para no molestar”, y luego se optimiza. El verbo “optimizar” suena inocente, pero en publicidad suele significar más segmentación, más pruebas A/B, más presión comercial y, a veces, menos transparencia.

El espejo de las redes sociales: promesas, datos y la pendiente resbaladiza

En su argumento, Hitzig compara el posible camino de OpenAI con el de Facebook: al inicio, grandes promesas de control del usuario sobre sus datos; con el tiempo, incentivos que empujan a exprimir esa información para maximizar ingresos. No hace falta suponer mala fe para ver la tensión: incluso con gente bienintencionada, un sistema de publicidad basado en datos personales tiende a “pedir” más datos y a justificarlo como mejora de la experiencia.

Aquí aparece una idea clave en su ensayo: el debate no debería reducirse a “ads sí o no”. La pregunta importante sería si se pueden diseñar estructuras que eviten excluir a personas del acceso a estas herramientas y que, a la vez, reduzcan la posibilidad de convertirlas en consumidores manipulables. Dicho de forma llana: si la IA se está volviendo infraestructura básica, como el correo o los buscadores, ¿cómo se financia sin convertir la intimidad en moneda?

La respuesta del mercado: Anthropic agita el avispero y Altman contraataca

La discusión escaló cuando Anthropic —competidora de OpenAI— emitió anuncios insinuando que “la publicidad llega a la IA”, pero no a su chatbot Claude, sin nombrar directamente a OpenAI, según Futurism. Ese tipo de campaña es gasolina para una industria donde la confianza es un activo central. Altman respondió acusando a Anthropic de deshonestidad y “doble discurso”, en una reacción que, por su tono, sugiere que el tema toca una fibra sensible: si el público empieza a asociar “chatbots” con “publicidad invasiva”, toda la categoría se ensucia.

Detrás de la pelea de marcas hay una batalla por posicionamiento moral. En tecnología, la narrativa importa: “somos más seguros”, “somos más privados”, “somos más humanos”. Anthropic intenta ocupar el territorio de la privacidad y el rechazo a los anuncios; OpenAI necesita defender su viabilidad económica sin parecer que sacrifica al usuario. Es un equilibrio delicado, porque el consumidor medio no lee términos de servicio con lupa: percibe señales. Y la palabra “anuncios” suele ser una señal de “te van a rastrear”, aunque el producto prometa lo contrario.

Fuga de talento y tensión interna: cuando el modelo de negocio se mezcla con la misión

La dimisión de Hitzig no ocurre en el vacío. El texto de Futurism repasa otras salidas sonadas en el último año. Se menciona al investigador en economía Tom Cunningham, que habría expresado preocupaciones sobre el impacto económico de la IA. También al exingeniero Calvin French-Owen, relacionado con el agente de programación Codex, que describió un ambiente de caos corporativo tras su salida en julio.

A esta lista se suma un dato especialmente significativo para quienes miran la industria con lentes de gobernanza: Platformer informó de que OpenAI habría disuelto su equipo de mission alignment, creado en 2024 con el objetivo de asegurar que la inteligencia artificial general beneficie a la humanidad. Ese tipo de movimiento, sea por reorganización o por prioridades cambiantes, alimenta una percepción: cuando aprieta el dinero, lo que se ve como “misión” corre el riesgo de pasar a un segundo plano frente a la urgencia comercial.

En paralelo, también hay movimientos en Anthropic y xAI. Futurism cita la renuncia del investigador de Anthropic Mrinank Sharma, acompañada de una carta pública críptica sobre seguridad. Y señala que al menos la mitad de los 12 cofundadores de xAI habrían abandonado la empresa, en un contexto donde su chatbot Grok estaría envuelto en polémicas por la difusión de deepfakes pornográficos y material de abuso sexual infantil (CSAM). No es un detalle menor: cuando una compañía enfrenta crisis reputacionales y regulatorias, el desgaste interno suele acelerarse.

Qué está en juego: publicidad, confianza y el “efecto terapeuta” de los chatbots

El punto más delicado de esta historia es que los chatbots no se usan como una app cualquiera. Mucha gente los trata como una mezcla de profesor paciente, buscador conversacional y confidente. Ese “efecto terapeuta” —aunque el chatbot no sea terapeuta— cambia las reglas. La publicidad tradicional se apoya en datos, sí, pero aquí los datos no son solo clics o compras: son frases escritas en momentos de fragilidad.

Si OpenAI mantiene anuncios “claramente etiquetados” y con separación nítida entre respuesta y promoción, reducirá parte del riesgo. Aun así, el incentivo económico empuja a buscar formatos más rentables: integraciones más visibles, sugerencias “contextuales”, recomendaciones con apariencia de consejo. Es el clásico dilema del uniforme: cuando un policía lleva uniforme, sabes quién te habla; cuando el anuncio se disfraza de consejo, la confianza se contamina.

Para el usuario, la pregunta práctica es sencilla: ¿qué puedo contarle a un sistema si no sé con claridad cómo se monetiza esa conversación? Para las empresas, la pregunta es igual de concreta: ¿cómo se financia un servicio de IA generativa sin destruir el vínculo de confianza que lo hace útil?