Prism, el editor con ChatGPT que quiere meterse en la cocina de los artículos científicos

La escritura científica tiene algo de ritual: días enteros ajustando una frase para que sea precisa, persiguiendo una referencia que se resiste, comprobando que una ecuación no se ha roto por un símbolo mal puesto. En ese contexto, OpenAI ha presentado Prism, una herramienta gratuita que integra ChatGPT dentro de un editor de texto pensado para redactar papers. La noticia la adelantó MIT Technology Review, que la describe como una especie de “vibe coding” aplicado a la ciencia: la IA en primer plano, dentro del lugar donde realmente se trabaja, no como una pestaña aparte a la que se entra de vez en cuando.

El movimiento no surge de la nada. Según cifras citadas por la propia compañía, alrededor de 1,3 millones de científicos formulan más de 8 millones de consultas semanales a ChatGPT sobre temas avanzados de ciencia y matemáticas. La lectura que hace Kevin Weil, responsable de OpenAI for Science, es clara: la IA deja de ser curiosidad y empieza a convertirse en parte del flujo de trabajo. Si muchas personas ya “piensan en voz alta” con un chatbot, la siguiente jugada lógica es meter ese chatbot en el documento donde se redacta, se corrige y se entrega. Continúa leyendo «Prism, el editor con ChatGPT que quiere meterse en la cocina de los artículos científicos»

Google Gemini quiere ponértelo fácil para dejar ChatGPT sin perder tus conversaciones

Cambiar de móvil sigue siendo un pequeño ejercicio de paciencia, aunque tengas copias de seguridad y cables rápidos. Con los chatbots de IA está pasando algo parecido, solo que el “equipaje” no son fotos ni contactos: es tu historial de conversaciones, tus preguntas recurrentes, tus proyectos a medias y ese contexto que has ido construyendo charla a charla. Con el tiempo, herramientas como ChatGPT, Claude o Google Gemini se convierten en una especie de cuaderno de trabajo continuo. Y cuando ese cuaderno se queda encerrado en una sola plataforma, aparece un bloqueo sutil: cambiar implica empezar de cero.

El resultado es una forma de “fidelidad” que no siempre nace de preferencia, sino de fricción. Si llevas meses puliendo prompts, guardando conversaciones sobre un viaje, un plan de estudios o un proyecto en el trabajo, migrar se siente como mudarte sin cajas. No es que no puedas, es que duele. Continúa leyendo «Google Gemini quiere ponértelo fácil para dejar ChatGPT sin perder tus conversaciones»

Cuando el RAG “tritura” tus manuales: por qué falla en PDFs técnicos y cómo arreglarlo

En muchas empresas, RAG (Retrieval-Augmented Generation) se ha convertido en el atajo preferido para “conectar” documentos internos con un modelo de lenguaje: indexas archivos, creas una base vectorial y el chatbot responde con seguridad. Sobre el papel suena tan sencillo como poner etiquetas a cajas en un trastero y pedirle a alguien que te traiga “la caja de facturas”. El problema aparece cuando el trastero no son cajas, sino un manual de ingeniería lleno de tablas, notas al pie, diagramas y jerarquías visuales.

En sectores donde la precisión es irrenunciable —infraestructura, fabricación, energía, aeroespacial— el resultado suele ser decepcionante: el usuario hace una pregunta concreta y el bot contesta algo plausible, pero incorrecto. Y lo más incómodo: a veces el fallo se interpreta como “el modelo alucina”, cuando en realidad el tropiezo ocurre antes, en la cocina del sistema. Esta idea, defendida en un análisis publicado en la comunidad de VentureBeat por el arquitecto de IA Dippu Kumar Singh, apunta a un culpable menos glamuroso que el modelo de turno: el preprocesado del documento. Continúa leyendo «Cuando el RAG “tritura” tus manuales: por qué falla en PDFs técnicos y cómo arreglarlo»

Grokipedia: una “Wikipedia” sin editores humanos

Cuando Elon Musk lanzó Grokipedia como alternativa a Wikipedia, la promesa era simple de explicar y difícil de cumplir: una enciclopedia creada por IA sin el filtro de una comunidad humana revisando, corrigiendo y discutiendo cada frase. Según contó Gizmodo, Musk venía tiempo criticando a Wikipedia como “Wokipedia” y defendiendo que hacía falta un proyecto alineado con otra sensibilidad política. Su respuesta fue automatizar el proceso de escritura y dejar que un sistema genere artículos a escala, como si en vez de una redacción con editores hubiera una imprenta que no duerme.

El problema de una enciclopedia así no es que “use IA”, sino qué sustituye: la fricción. En Wikipedia, esa fricción son discusiones, políticas internas, avisos de falta de fuentes, reversión de vandalismo y un historial público que permite ver cómo cambia una entrada. En una enciclopedia generada automáticamente, la fricción se reduce y la tentación de llenar huecos con texto convincente crece, como cuando alguien completa un crucigrama “a ojo”: encaja, pero no por eso es correcto. Continúa leyendo «Grokipedia: una “Wikipedia” sin editores humanos»

GPT-5.2 Pro mejora en matemáticas: lo que revela FrontierMath y por qué no es magia

Resolver matemáticas “de examen” y resolver matemáticas “de investigación” se parecen tanto como armar un mueble siguiendo instrucciones y diseñar el mueble desde cero. Lo segundo exige entender el material, anticipar fallos y justificar cada paso con paciencia. Esa es la idea detrás de FrontierMath, un conjunto de retos con problemas especialmente difíciles que Epoch AI usa para medir hasta qué punto un modelo puede sostener razonamiento matemático de alto nivel.

El foco de la noticia es que OpenAI y su GPT-5.2 Pro han logrado un avance notable en esa prueba, precisamente en el tramo más duro, llamado Tier 4. No es un “puzzle” de internet ni una colección de ejercicios repetidos: se trata de problemas que buscan detectar comprensión real, no simple destreza para imitar soluciones vistas antes. Epoch AI incluso explica que, por problemas de tiempos de espera con su infraestructura, evaluó a GPT-5.2 Pro de forma manual desde la interfaz de ChatGPT, y aun así documentó los resultados con detalle. Continúa leyendo «GPT-5.2 Pro mejora en matemáticas: lo que revela FrontierMath y por qué no es magia»

Prism: el bloc de notas con IA que OpenAI quiere llevar a los laboratorios

OpenAI ha presentado Prism, un espacio de trabajo pensado para la escritura científica y la colaboración entre investigadores, con GPT-5.2 integrado de forma nativa. Según la compañía, cualquiera con una cuenta personal de ChatGPT puede usarlo gratis desde una aplicación web, con proyectos y colaboradores ilimitados, y con la promesa de llevarlo más adelante a planes Business, Enterprise y Education. La idea no es que la herramienta “haga ciencia” por su cuenta, sino que quite fricción a tareas que suelen comerse horas: redactar, revisar, coordinar coautores, manejar LaTeX, mover citas, ajustar ecuaciones y preparar el manuscrito para publicación. La propuesta recuerda a lo que ha pasado en programación con entornos tipo Cursor o Windsurf, pero trasladado al ritual de escribir un paper. La noticia fue contada por TechCrunch y ampliada en el anuncio oficial de OpenAI, que insiste en el mismo mensaje: menos saltos entre herramientas, más continuidad mental. Continúa leyendo «Prism: el bloc de notas con IA que OpenAI quiere llevar a los laboratorios»

ChatGPT en el trabajo: quién lo usa, para qué y por qué la adopción está acelerando

Hace apenas un par de años, hablar de usar un asistente de IA en la oficina sonaba a experimento de early adopters. Hoy, según un informe de OpenAI fechado el 22 de enero de 2026, ChatGPT se ha normalizado con una rapidez poco habitual en el software empresarial. La imagen es la de una herramienta que entró por la puerta de atrás: primero como apoyo personal, luego como hábito profesional. En lugar de un despliegue típico con meses de formación y un manual del tamaño de una guía telefónica, muchas personas lo incorporaron como quien empieza a usar un atajo de teclado que le ahorra tiempo y, de repente, ya no puede vivir sin él.

Los datos que recoge el informe (combinando análisis de uso agregado y estudios externos revisados por pares) dibujan un salto llamativo: más de una cuarta parte de los trabajadores en Estados Unidos afirma usar ChatGPT para tareas laborales, y el porcentaje crece aún más entre personas con posgrado. Stanford, por su parte, sitúa el uso de herramientas de IA en torno al 43% entre trabajadores del conocimiento, con un aumento fuerte desde finales de 2022. Pew también aparece como referencia para la subida del uso de ChatGPT en el ámbito laboral. Continúa leyendo «ChatGPT en el trabajo: quién lo usa, para qué y por qué la adopción está acelerando»

OpenAI activa la predicción de edad en ChatGPT: cómo funciona, qué busca y qué riesgos abre

OpenAI ha iniciado un despliegue global de una herramienta de predicción de edad para ChatGPT con un objetivo claro: decidir si una cuenta pertenece o no a un menor de edad. No se trata de una simple casilla de “tengo más de 18”, sino de un sistema que intenta inferirlo con señales del propio uso. Es un cambio relevante porque convierte la edad en una especie de “llave” que abre o cierra puertas dentro del servicio, algo cada vez más común en plataformas digitales que quieren limitar el acceso a ciertos contenidos o funciones.

La idea se parece a la de un portero en la entrada de un local que no solo mira el DNI: observa el comportamiento de quien quiere entrar, la hora a la que llega, si viene con prisas, si parece habitual. El problema es que, cuando ese portero es un modelo automatizado, puede equivocarse con quien tiene cara de joven, con quien comparte el móvil con su familia o con quien trabaja de noche. Y esas equivocaciones no son triviales si derivan en restricciones o en pasos extra para seguir usando el producto. Continúa leyendo «OpenAI activa la predicción de edad en ChatGPT: cómo funciona, qué busca y qué riesgos abre»

ChatGPT Go se expande a todo el mundo: qué incluye, cuánto cuesta y cómo encaja frente a Plus y Pro

OpenAI ha anunciado la disponibilidad mundial de ChatGPT Go, un plan de suscripción de bajo coste que nació como prueba en India en agosto de 2025 y que, según la compañía, se extendió después a 170 países antes de dar el salto global. La idea que hay detrás es sencilla de entender si lo comparamos con una tarifa de transporte: no busca ser el abono “premium” para viajes largos y frecuentes, sino el pase que te permite moverte con más libertad que el billete suelto sin pagar lo máximo.

Desde el 16 de enero de 2026, OpenAI asegura que ChatGPT Go empieza a desplegarse “en todas partes” donde ChatGPT está disponible. En Estados Unidos, el precio comunicado es de 8 dólares al mes, con tarifas localizadas en algunos mercados. La fuente de todos estos detalles es el propio comunicado de OpenAI en su apartado de noticias de producto. Continúa leyendo «ChatGPT Go se expande a todo el mundo: qué incluye, cuánto cuesta y cómo encaja frente a Plus y Pro»

ChatGPT se abre a la publicidad y amplía el acceso: qué cambia con Go y cómo promete OpenAI proteger la confianza

OpenAI ha puesto por escrito una idea que lleva tiempo rondando en el sector: si la IA va a convertirse en una herramienta cotidiana, el acceso no puede depender solo de pagar una cuota mensual. En una publicación firmada por Fidji Simo en el blog oficial de OpenAI (16 de enero de 2026), la compañía explica que está preparando pruebas de anuncios en ChatGPT para los niveles Free y ChatGPT Go en Estados Unidos, con el objetivo de reducir límites de uso o evitar que parte de la audiencia tenga que pagar para obtener funciones más capaces.

La lógica se entiende con una metáfora simple: mantener un servicio así es como sostener una biblioteca abierta 24/7 con un bibliotecario que sabe de todo. Puedes financiarlo solo con carnés premium, sí, pero entonces parte de la ciudad se queda fuera. OpenAI quiere sumar un segundo pilar de ingresos —la publicidad— para que esa “biblioteca” aguante más visitantes.

Este movimiento llega acompañado de una ampliación importante: ChatGPT Go, una suscripción de bajo coste que ya se había desplegado en 171 países desde agosto, pasa a estar disponible en Estados Unidos y “en todas partes donde ChatGPT esté disponible”. El precio indicado es de 8 dólares al mes y, según la compañía, incluye acceso ampliado a mensajería, creación de imágenes, subida de archivos y memoria. Continúa leyendo «ChatGPT se abre a la publicidad y amplía el acceso: qué cambia con Go y cómo promete OpenAI proteger la confianza»