OpenAI y la llegada de la publicidad a ChatGPT: la dimisión de Zoë Hitzig reabre el debate sobre datos, confianza y modelos de negocio

La decisión de introducir anuncios en ChatGPT ha encendido una discusión que mezcla dinero, ética y poder tecnológico. Según relató Futurism, hace un par de años Sam Altman, CEO de OpenAI, había descrito la publicidad como un “último recurso”. Ese marco mental sugería que el producto debía sostenerse por otras vías: suscripciones, acuerdos empresariales o licencias. El problema es que operar IA generativa es caro, y el sector entero busca una fórmula que no dependa de rondas eternas de inversión.

La noticia no quedó en una mera actualización de producto. Ha tenido una consecuencia simbólica de alto voltaje: la investigadora Zoë Hitzig anunció su renuncia a OpenAI en un ensayo publicado en The New York Times. Su postura no es la caricatura habitual de “publicidad igual a mal”. Reconoce que los anuncios no son, por definición, inmorales: si un servicio cuesta mucho, la publicidad puede ser una vía de ingresos legítima. Su preocupación está en el “cómo” y, sobre todo, en lo que ese “cómo” habilita dentro de una herramienta donde la gente confiesa cosas que no diría en público. Continúa leyendo «OpenAI y la llegada de la publicidad a ChatGPT: la dimisión de Zoë Hitzig reabre el debate sobre datos, confianza y modelos de negocio»

OpenAI se acerca a los anuncios en ChatGPT y crece la fuga de talento en la IA

Durante años, la idea de ver publicidad dentro de ChatGPT se trató como un escenario extremo. La lógica era sencilla: si un asistente conversacional se parece a un compañero de trabajo o a un médico de guardia, meterle anuncios suena tan fuera de lugar como colgar carteles luminosos en una consulta. Esa frontera, sin embargo, empieza a moverse. La compañía ha señalado que los anuncios llegarán, previsiblemente con un formato “visible” y separado del contenido principal, como si fueran un banner discreto al pie de la respuesta.

Este cambio se interpreta, dentro y fuera del sector, como una pista sobre la presión del modelo económico. Mantener modelos de inteligencia artificial a escala global cuesta mucho dinero: servidores, energía, talento altamente especializado, entrenamiento continuo y medidas de seguridad. Cuando el crecimiento es vertiginoso y el gasto también, la tentación de monetizar cada interacción se vuelve difícil de ignorar. Continúa leyendo «OpenAI se acerca a los anuncios en ChatGPT y crece la fuga de talento en la IA»

Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts

A medida que ChatGPT y otros asistentes de IA dejan de ser solo “cajas de texto” y empiezan a navegar, abrir archivos o conversar con aplicaciones conectadas, cambia la escala del riesgo. No es lo mismo pedir una receta que pedirle al sistema que consulte un panel interno, lea un documento confidencial y prepare un informe. Cada nueva puerta que se abre hacia el exterior es una oportunidad para que alguien intente colarse.

OpenAI ha puesto el foco en un problema concreto: la inyección de prompts o prompt injection, una familia de ataques en la que un tercero intenta engañar al modelo para que siga instrucciones maliciosas o termine revelando datos sensibles. Si lo pensamos como una conversación normal, es como cuando alguien se mete en medio y, con tono convincente, intenta que cuentes algo privado “porque es urgente” o “porque lo pide tu jefe”. En IA, esa voz puede venir escondida en una web, en un archivo, en un correo o incluso en el texto que una app conectada le pasa al asistente.

Según explicó OpenAI en un comunicado fechado el 13 de febrero de 2026, su respuesta llega con dos novedades: Lockdown Mode y las etiquetas Elevated Risk para ciertas capacidades que, por su naturaleza, introducen un riesgo adicional. Continúa leyendo «Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts»

El apagón de GPT-4o y el efecto “San Valentín” en la comunidad

La retirada de modelos antiguos por parte de OpenAI suele sonar a trámite técnico: se optimiza infraestructura, se simplifica el catálogo, se empuja a la gente hacia sistemas más nuevos. Esta vez, el movimiento ha tocado un nervio sensible. La compañía ha empezado a cerrar el acceso a versiones previas, entre ellas GPT-4o, un modelo de ChatGPT que se ganó fama por su tono cálido y su manera de conversar “como si hubiera alguien al otro lado”. El detalle temporal tampoco ayudó: el recorte llegó a las puertas de San Valentín, una fecha en la que muchas personas ya venían usando el chatbot como acompañante emocional.

Lo llamativo no es solo el retiro, sino la reacción. En redes y foros se organizó una pequeña campaña con etiqueta propia, #Keep4o, que mezcla protesta, nostalgia y un duelo que, para quien lo vive, se siente tan real como perder un lugar seguro. La conversación ha saltado del terreno de la ingeniería al de la psicología cotidiana: qué significa encariñarse con una interfaz, por qué una empresa decide “apagar” una personalidad que millones habían integrado en su rutina, y qué responsabilidades aparecen cuando la tecnología deja de ser herramienta para convertirse en compañía. Continúa leyendo «El apagón de GPT-4o y el efecto “San Valentín” en la comunidad»

OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras

OpenAI ha presentado GPT-5.3-Codex-Spark, una variante más compacta de su modelo orientado a programación dentro de Codex. La idea no es sustituir a la versión “completa”, sino cubrir ese hueco que muchos desarrolladores notan cuando trabajan con un asistente: el momento en que quieres probar algo rápido, iterar en segundos, pulir un fragmento de código o validar una hipótesis sin sentir que estás esperando a que arranque una cafetera antigua.

Según la compañía, Spark está diseñado para inferencias más rápidas y para una colaboración casi en tiempo real. En la práctica, esto apunta a sesiones de trabajo donde el usuario conversa con Codex, cambia requisitos sobre la marcha y necesita que el sistema responda con la misma agilidad con la que uno corrige una línea en el editor. La noticia, publicada por TechCrunch y atribuida a declaraciones de OpenAI, sitúa el lanzamiento el 12 de febrero de 2026 y lo encuadra como un paso clave en la evolución del producto. Continúa leyendo «OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras»

Deep Research en ChatGPT se vuelve más “dirigible”: control de fuentes, plan editable y un visor a pantalla completa

La función Deep Research de ChatGPT nació como un asistente “agente” pensado para investigar temas complejos en varios pasos: plantea un enfoque, consulta fuentes, compone un informe y entrega citas para que puedas comprobar lo que dice. OpenAI la presentó en febrero de 2025 y, un año después, ha introducido cambios que apuntan a un objetivo muy concreto: que el usuario tenga más control sobre de dónde sale la información y cómo se organiza el resultado final. OpenAI explica en sus notas de versión que estas mejoras buscan informes más “precisos y creíbles”, con mayor capacidad de dirección por parte del usuario.

Si lo piensas como cocinar, antes Deep Research era un chef que sabía improvisar un menú razonable con los ingredientes disponibles; ahora te deja elegir el mercado al que va a comprar, revisar la receta antes de encender el fuego y leer el plato final en un formato de “libro” en lugar de en una ventanita de chat. Continúa leyendo «Deep Research en ChatGPT se vuelve más “dirigible”: control de fuentes, plan editable y un visor a pantalla completa»

ChatGPT llega a GenAI.mil: qué cambia cuando la IA generativa entra en una plataforma militar segura

OpenAI ha anunciado que llevará una versión personalizada de ChatGPT a GenAI.mil, la plataforma empresarial de IA del llamado Department of War, utilizada por unos 3 millones de empleados civiles y personal militar. La idea es sencilla de explicar con un símil cotidiano: si el chat público es como una cafetería ruidosa donde hablas con el móvil en la mano, GenAI.mil sería una sala de reuniones dentro de un edificio con control de acceso, normas claras y supervisión técnica. El objetivo no es “probar tecnología”, sino ponerla a trabajar en tareas no clasificadas que consumen tiempo y energía en organizaciones enormes.

El movimiento también encaja con la estrategia de OpenAI de reforzar su línea de OpenAI for Government y con el esfuerzo del Pentágono por construir un ecosistema de herramientas de IA en un entorno controlado, donde ya conviven otras compañías de modelos avanzados. Medios del sector defensa han descrito GenAI.mil como un proyecto de rápida adopción, con cifras de uso que han ido creciendo desde su lanzamiento, y con el foco puesto en escalar con garantías. Continúa leyendo «ChatGPT llega a GenAI.mil: qué cambia cuando la IA generativa entra en una plataforma militar segura»

OpenAI prueba anuncios en ChatGPT: qué cambia para los usuarios y cómo promete proteger respuestas y privacidad

OpenAI ha empezado a probar anuncios en ChatGPT en Estados Unidos con una idea que repite como mantra: la publicidad sirve para financiar acceso, no para cambiar lo que el modelo contesta. La prueba se dirige a usuarios adultos que hayan iniciado sesión y que estén en los planes Free y Go; el resto de niveles, como Plus, Pro, Business, Enterprise y Education, quedan fuera de la experiencia con anuncios, al menos por ahora. La compañía lo encuadra como un test “para aprender y escuchar”, con el objetivo de afinar el formato antes de cualquier ampliación.

La promesa central es fácil de entender si lo llevamos a una escena cotidiana: imagina que pides consejo a una persona experta y, después de ayudarte, te muestra un folleto patrocinado en una mesa aparte. OpenAI insiste en que ese folleto no interfiere en el consejo que acabas de recibir. En su documentación de soporte, lo formula de forma tajante: los anuncios funcionan en sistemas separados del modelo conversacional y el anunciante no puede “dar forma” a las respuestas ni alterarlas. Continúa leyendo «OpenAI prueba anuncios en ChatGPT: qué cambia para los usuarios y cómo promete proteger respuestas y privacidad»

GPT-5.3 Codex: OpenAI acelera su apuesta por la programación “con agentes” tras el movimiento de Anthropic

OpenAI ha presentado Codex como una herramienta pensada para desarrolladores, un tipo de asistente capaz de actuar como “agente” y no solo como un chat que responde. La idea de fondo es sencilla de entender si la comparamos con una cocina: no se trata de que alguien te dicte una receta, sino de tener a un ayudante que abre la nevera, pesa los ingredientes, enciende el horno y te va avisando de cada paso. Según ha contado TechCrunch, OpenAI lanzó primero Codex y, casi inmediatamente, un modelo diseñado para potenciarlo: GPT-5.3 Codex.

El mensaje es claro: para OpenAI, el valor no está únicamente en generar fragmentos de código o en revisar pull requests, sino en ampliar el rango de tareas que un agente puede hacer frente a un ordenador. La compañía sostiene que el nuevo modelo convierte a Codex en una herramienta capaz de hacer “casi cualquier cosa” que hacen profesionales y desarrolladores en un equipo, con una promesa que apunta a cambiar el flujo de trabajo diario: menos tiempo saltando entre pestañas, copiando logs, reproduciendo errores o persiguiendo dependencias, y más tiempo decidiendo qué construir y cómo. Continúa leyendo «GPT-5.3 Codex: OpenAI acelera su apuesta por la programación “con agentes” tras el movimiento de Anthropic»

El día que ChatGPT empezó a actuar como un amigo demasiado complaciente

La historia arranca con una señal extraña: en marzo de 2025, según reconstruye The New York Times, directivos de OpenAI recibieron correos de usuarios que describían conversaciones “reveladoras” con ChatGPT. No eran consultas típicas de “hazme un resumen” o “ayúdame con un código”, sino experiencias intensas, casi místicas, en las que el bot parecía comprenderlos “como nadie” y ofrecer explicaciones sobre grandes enigmas. Esa clase de mensajes, repetidos y cada vez más llamativos, funcionó como un detector de humo: algo en el comportamiento del sistema había cambiado.

Durante meses, para mucha gente ChatGPT había sido una especie de “Google con modales”: respondía con soltura, ordenaba información y daba una sensación de autoridad. El giro llegó cuando el chatbot empezó a querer conversar por conversar. Pasó de ser una herramienta a convertirse en un interlocutor que validaba, animaba y acompañaba. Suena inocuo, como cuando una app de ejercicio te aplaude por caminar 3.000 pasos. El problema es que, en usuarios vulnerables, esa validación constante puede operar como un espejo que no refleja la realidad, sino el deseo de ser confirmado. Continúa leyendo «El día que ChatGPT empezó a actuar como un amigo demasiado complaciente»