La función Deep Research de ChatGPT nació como un asistente “agente” pensado para investigar temas complejos en varios pasos: plantea un enfoque, consulta fuentes, compone un informe y entrega citas para que puedas comprobar lo que dice. OpenAI la presentó en febrero de 2025 y, un año después, ha introducido cambios que apuntan a un objetivo muy concreto: que el usuario tenga más control sobre de dónde sale la información y cómo se organiza el resultado final. OpenAI explica en sus notas de versión que estas mejoras buscan informes más “precisos y creíbles”, con mayor capacidad de dirección por parte del usuario.
Si lo piensas como cocinar, antes Deep Research era un chef que sabía improvisar un menú razonable con los ingredientes disponibles; ahora te deja elegir el mercado al que va a comprar, revisar la receta antes de encender el fuego y leer el plato final en un formato de “libro” en lugar de en una ventanita de chat.
Control de fuentes: investigar solo en webs concretas sin pelearte con el prompt
Una de las novedades más prácticas es la posibilidad de acotar la investigación a sitios web específicos desde el propio flujo de Deep Research. Hasta ahora, muchos usuarios hacían ese “cerco” a base de indicaciones en el prompt, con resultados variables porque no siempre era fácil que el sistema respetara esas restricciones con consistencia. OpenAI integra esa preferencia de manera más estructural, lo que facilita que el informe quede anclado en el tipo de fuentes que te interesan: documentación oficial, medios concretos, revistas científicas, portales sectoriales o la web corporativa de una empresa.
Este cambio tiene una implicación clara: la diferencia entre “búscame lo mejor que encuentres” y “búscame lo mejor, pero solo en estas estanterías”. Para trabajos profesionales, compliance o verificación, ese matiz ahorra tiempo y reduce el ruido. Medios como The Verge han destacado precisamente esa idea de navegar por informes largos con un control más editorial sobre el origen y la lectura.
Apps conectadas como fuentes de confianza: cuando tus datos también cuentan
El otro gran pilar del control es la ampliación del uso de apps conectadas como “fuentes de confianza”. OpenAI menciona una “colección mayor” de aplicaciones conectadas que pueden habilitarse durante la investigación y usarse como base fiable para el informe.
En la práctica, esto apunta a un escenario muy cotidiano: si estás preparando un informe de proyecto, muchas respuestas valiosas no están en la web abierta, sino en tu ecosistema de herramientas. OpenAI también ha señalado que Deep Research puede conectarse a apps vía MCP y restringir búsquedas a sitios “de confianza”, orientándolo a fuentes autenticadas y estándares de industria.
La metáfora aquí es sencilla: no es lo mismo pedirle a alguien que haga un resumen “con lo que encuentre por ahí” que darle acceso a tu carpeta de trabajo, tu agenda y tus documentos, pidiéndole que cite lo que usa. Eso sí, el valor real dependerá de cómo cada usuario configure esos accesos y de la calidad/estructura de lo que tenga guardado.
Un plan de investigación editable antes de empezar
Otra mejora que parece pequeña y acaba siendo enorme en el día a día: Deep Research permite editar el plan antes de que arranque. OpenAI lo describe como la capacidad de crear y ajustar el plan con antelación, manteniendo también la opción de reorientar la investigación durante la ejecución.
Esto cambia la experiencia para quien usa la herramienta con frecuencia. Antes, si el plan inicial “olía” a que iba a desviarse —demasiado amplio, poco técnico, o centrado en el país equivocado— tocaba parar, reformular y reiniciar. Con el plan editable, puedes corregir el tiro cuando todavía estás en el tablero, no cuando ya has movido las piezas.
Para equipos de contenido, análisis o consultoría, este punto también introduce una dinámica más colaborativa: revisar el plan se parece a revisar un índice antes de escribir un reportaje. Si el índice está bien, el informe suele salir mejor.
Un visor a pantalla completa para leer informes largos como si fueran un documento
La segunda familia de novedades tiene que ver con la lectura y gestión del resultado. OpenAI incorpora un visor de pantalla completa que separa el informe del hilo de chat y lo muestra con una estructura más “documento”: navegación por secciones y un panel lateral dedicado a fuentes/citas. La compañía habla de una entrada rediseñada desde la barra lateral y de una vista completa para iniciar, revisar y gestionar la investigación en un mismo lugar.
Según la documentación de OpenAI sobre Deep Research, el informe final se abre en esa vista a pantalla completa pensada para “revisar y reutilizar”, incluyendo tabla de contenidos, sección de fuentes usadas y un historial de actividad que muestra cómo avanzó la investigación. También permite descargar el resultado en formatos como Markdown, Word y PDF.
Aquí la metáfora es la diferencia entre leer un contrato en la ventanita de una app de mensajería y leerlo en un lector de documentos con índice y referencias: el contenido puede ser el mismo, pero tu capacidad de orientarte, verificar y reutilizar cambia por completo.
Citas más visibles: verificar sin interrumpir el flujo
OpenAI y varias coberturas coinciden en un detalle clave: el visor coloca el índice a un lado y las citas o fuentes al otro, para que puedas saltar entre secciones y comprobar referencias sin perder el hilo. MacRumors y The Verge han señalado esa organización de “tabla de contenidos” a la izquierda y fuentes a la derecha como el centro de la nueva experiencia.
Esto no es solo estética. En investigación, la confianza se construye con fricción baja para verificar. Si comprobar una afirmación te obliga a buscar “dónde estaban las citas” o a hacer scroll infinito, lo normal es que verifiques menos. Hacer visibles las citas en el margen empuja justo en la dirección contraria: revisar más, corregir antes, publicar con menos sustos.
GPT-5.2 Instant actualizado: un tono más medido y respuestas más claras
En paralelo a Deep Research, OpenAI ha actualizado el modelo GPT-5.2 Instant tanto en ChatGPT como en la API. Según las notas oficiales de “Model Release Notes”, el cambio busca respuestas “más medidas y fundamentadas” en el tono, más apropiadas al contexto de la conversación. OpenAI también afirma que el modelo tiende a producir salidas más claras y respuestas más relevantes para preguntas de tipo “cómo hacer” o de consejo, colocando la información importante más arriba.
Este tipo de ajuste suele notarse en detalles: menos floritura, menos saltos a conclusiones y una estructura más útil cuando pides pasos, recomendaciones o diagnóstico de opciones. Algunas coberturas recogen incluso comentarios públicos atribuidos a Sam Altman restando dramatismo al cambio (“no es enorme, pero debería sentirse un poco mejor”), lo que encaja con la idea de una afinación incremental.
Qué significa todo esto para el uso cotidiano
Las mejoras dibujan un patrón: OpenAI está intentando que Deep Research sea menos “caja negra conversacional” y más herramienta de trabajo. Controlar sitios web concretos reduce el riesgo de mezclar fuentes incompatibles; usar fuentes de confianza desde apps conectadas abre la puerta a informes basados en tus propios datos; editar el plan de investigación antes de empezar evita rehacer trabajo; el visor a pantalla completa con índice y citas hace que revisar sea natural. OpenAI lo presenta como una forma de producir informes más creíbles y controlables, y medios como Gadgets 360 han resumido la actualización justo en esos puntos: foco por webs, plan editable y lectura en modo documento.
Si tu uso de ChatGPT es esporádico, puede parecer una mejora de interfaz. Si lo usas para estudiar, documentarte o preparar entregables, se parece más a pasar de tomar notas en servilletas a trabajar con un cuaderno con separadores y bibliografía.
