ChatGPT como nutricionista a los 15: la dieta fácil que puede salir cara

Pedirle a ChatGPT o a cualquier chatbot “hazme una dieta para adelgazar” se siente como pedir comida a domicilio: escribes dos líneas, esperas unos segundos y llega un menú completo. El problema es que la nutrición no funciona como una receta estándar. Una dieta bien planteada necesita datos básicos como peso, altura, actividad física, historial médico, medicación, horarios, relación emocional con la comida y hasta cómo está yendo la pubertad. Cuando un sistema te entrega un plan sin hacer casi preguntas, es como si un mecánico intentara ajustar el motor sin abrir el capó: puede acertar alguna cosa general, pero también puede dejarlo peor.

En los últimos años, con opciones gratuitas como ChatGPT, Gemini, Claude, Perplexity o chatbots integrados en buscadores, esta “consulta exprés” se ha colado en la vida de muchos jóvenes. En redes como TikTok e Instagram se han viralizado vídeos que animan a pedir dietas con IA para bajar de peso. Si juntamos adolescencia, presión estética y un asistente que responde siempre, el resultado tiene pinta de solución rápida… y de riesgo silencioso. Continúa leyendo «ChatGPT como nutricionista a los 15: la dieta fácil que puede salir cara»

GPT-5.4: el salto de OpenAI hacia agentes que usan tu ordenador por ti

OpenAI ha anunciado GPT-5.4 como una nueva iteración de su familia de modelos, con foco explícito en tres frentes: razonamiento, programación y trabajo “de oficina” con hojas de cálculo, documentos y presentaciones. La noticia, adelantada por The Verge a partir de información de la compañía, no se queda en una mejora incremental de respuestas: lo más llamativo es que llega como el primer modelo de OpenAI con uso nativo del ordenador, es decir, la capacidad de operar un equipo “a través” de la interfaz como lo haría una persona.

Para aterrizarlo con una imagen cotidiana, piensa en alguien que se sienta frente a tu portátil y, en lugar de dictarte instrucciones, abre una app, copia un dato, pega una cifra en una celda y navega por una web para completar un trámite. La promesa de GPT-5.4 es acercarse a ese comportamiento, sin depender de capas externas que traduzcan la intención del modelo en acciones. Continúa leyendo «GPT-5.4: el salto de OpenAI hacia agentes que usan tu ordenador por ti»

GPT-5.3 Instant: el ajuste silencioso que hace que ChatGPT se sienta más “normal” en el día a día

En su nota de lanzamiento del 3 de marzo de 2026, OpenAI pone el foco en tres cosas que suelen molestar cuando aparecen en exceso: el tono, la relevancia y el ritmo de la conversación. Son detalles “humanos” que a veces no se reflejan bien en pruebas de laboratorio, pero que en la práctica deciden si una charla con un sistema de IA se percibe como una ayuda o como una fricción constante. La idea es simple: que el modelo deje de interponerse cuando no hace falta y acierte más a la primera cuando sí hace falta. Continúa leyendo «GPT-5.3 Instant: el ajuste silencioso que hace que ChatGPT se sienta más “normal” en el día a día»

GPT-5.3 Instant: OpenAI intenta quitarle el tono condescendiente a ChatGPT sin perder empatía

OpenAI ha anunciado GPT-5.3 Instant, una actualización centrada menos en ganar puntos en pruebas técnicas y más en algo que el usuario nota al instante: el tono. Según las notas de lanzamiento citadas por TechCrunch, la prioridad está en mejorar la experiencia conversacional, ajustando aspectos como relevancia, fluidez y la forma de responder en general. La idea es simple: si un asistente suena como un manual de autoayuda cuando solo le pides un dato, la conversación se vuelve pesada, incluso si la respuesta “técnicamente” es correcta.

La propia OpenAI lo resumió en una frase publicada en X: “escuchamos el feedback alto y claro” y 5.3 Instant reduce el “cringe”. Traducido a lenguaje cotidiano, es como si el GPS dejara de decirte “tranquilo, no pasa nada” cada vez que te equivocas de salida, y se limitara a recalcular la ruta sin tratarte como si estuvieras a punto de colapsar. Continúa leyendo «GPT-5.3 Instant: OpenAI intenta quitarle el tono condescendiente a ChatGPT sin perder empatía»

Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria

Cambiar de asistente de IA suele sentirse como mudarse de casa con prisas: tus cosas están, pero en cajas sin etiquetar. Lo que Anthropic propone con su nueva herramienta de importación de memoria para Claude es, básicamente, poner etiquetas a esas cajas. Según ha contado Engadget, la compañía ha creado un método para extraer los recuerdos y el contexto que otro chatbot ha acumulado sobre ti y convertirlo en un texto que luego puedes llevarte a Claude como punto de partida. La idea es que el asistente “te conozca” con cierta continuidad y no tengas que reexplicar tu manera de trabajar, tus preferencias o el tipo de respuestas que sueles pedir.

En la práctica, la memoria en un chatbot no es magia ni una “personalidad” real: es un conjunto de pistas, hábitos y datos resumidos. Cosas como “prefiere respuestas breves”, “está preparando una presentación” o “trabaja con estos temas”. Tenerlo en Claude desde el minuto uno puede marcar diferencia en tareas repetitivas, sobre todo si lo usas como herramienta de productividad. Continúa leyendo «Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria»

Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU

En los últimos días, Anthropic ha vivido uno de esos giros que en tecnología se sienten como un apagón repentino: de ser un proveedor con presencia en entornos institucionales sensibles a quedar señalado por el Gobierno de Estados Unidos. La compañía ha anunciado que impugnará la decisión después de que el Departamento de Defensa la designara como “riesgo para la cadena de suministro”, un tipo de etiqueta que en contratación pública suele activar un efecto dominó inmediato, especialmente entre contratistas y proveedores que trabajan con la administración.

El trasfondo, según la propia Anthropic, está en el choque por los límites de uso de sus modelos: la empresa afirma que las negociaciones se atascaron por dos excepciones que pidió explícitamente bloquear, vinculadas a la vigilancia doméstica masiva y a armas totalmente autónomas. Dicho de forma sencilla, Anthropic sostiene que quería dejar por escrito “líneas rojas” más duras y que ese pulso terminó volviéndose político. Continúa leyendo «Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU»

OpenAI recorta su ambición de gasto en cómputo: cuando la cuenta de la nube deja de ser un detalle

OpenAI está trasladando a inversores un ajuste importante en su hoja de ruta de infraestructura: su objetivo de gasto total en cómputo de aquí a 2030 pasaría a rondar los 600.000 millones de dólares, una cantidad muy por debajo del compromiso previo de 1,4 billones. La información, difundida por CNBC y recogida en un artículo de Futurism, se apoya en fuentes conocedoras de las conversaciones con inversores y dibuja una corrección de expectativas en un momento especialmente sensible para todo el sector de la inteligencia artificial.

Si se mira con ojos de contabilidad doméstica, el movimiento se entiende con una metáfora sencilla: una cosa es planear reformar una casa “a lo grande” y otra muy distinta es firmar presupuestos de obra por siete cifras cuando el ingreso anual aún no acompaña. En el caso de OpenAI, la comparación duele porque se cruza con otra cifra que también circula en ese mismo reporte: 13.100 millones de dólares de ingresos en 2025 y, al mismo tiempo, una quema de caja aproximada de 8.000 millones. La industria puede vivir durante un tiempo con pérdidas en busca de escala, pero los números extremos suelen activar alarmas en cuanto el entorno de mercado deja de aplaudir sin preguntas. Continúa leyendo «OpenAI recorta su ambición de gasto en cómputo: cuando la cuenta de la nube deja de ser un detalle»

La advertencia del Papa Leo XIV sobre ChatGPT en la homilía: dónde traza la línea el Vaticano con la inteligencia artificial

En un encuentro reservado con clérigos de la diócesis de Roma, el Papa Leo XIV lanzó una petición poco habitual por lo concreta: resistir la tentación de preparar las homilías con inteligencia artificial, en particular con herramientas tipo ChatGPT. La frase, recogida por Vatican News y difundida por varios medios, no suena a condena tecnológica genérica, sino a una llamada práctica de oficio: si la tarea pastoral incluye pensar, estudiar y elegir palabras para una comunidad real, delegarlo en una máquina puede terminar debilitando el músculo que lo hace posible.

El Papa lo explicó con una metáfora corporal que cualquiera entiende: como los músculos, la mente se atrofia cuando no se usa. Aplicado a la predicación, el mensaje es directo: si el sacerdote deja de ejercitar su propia reflexión para convertirla en “texto generado”, pierde algo más que tiempo; pierde habilidad y, con ella, parte del sentido de su papel. Continúa leyendo «La advertencia del Papa Leo XIV sobre ChatGPT en la homilía: dónde traza la línea el Vaticano con la inteligencia artificial»

ChatGPT en un caso de asesinatos en Corea del Sur: lo que revela sobre la seguridad de la IA

La policía surcoreana sostiene que una mujer de 21 años, identificada por su apellido Kim, utilizó ChatGPT como apoyo para calibrar riesgos antes de presuntamente drogar a sus víctimas. La acusación se centra en dos muertes ocurridas tras encuentros en moteles de Seúl: en ambos episodios, Kim habría suministrado bebidas mezcladas con benzodiacepinas —fármacos sedantes que, según los investigadores, tenía prescritos por un trastorno de salud mental— y se habría marchado sola poco después. En el primer caso, la secuencia situada por la policía comienza el 28 de enero y termina con el hallazgo del cuerpo al día siguiente; el segundo se habría producido el 9 de febrero con un patrón similar.

Lo que convierte este caso en una noticia global no es solo la crudeza de los hechos, sino el rastro digital que, según las autoridades, ayudaría a sostener la intención de matar. De acuerdo con The Korea Herald y reportes recogidos por otros medios, los investigadores habrían encontrado consultas relacionadas con la combinación de somníferos y alcohol, con preguntas del tipo “¿podría ser mortal?” o “¿qué cantidad se considera peligrosa?”. Ese tipo de búsqueda no es una “receta” paso a paso, pero sí funcionaría como quien pregunta a un semáforo cuánto tarda en ponerse rojo: no conduce el coche por ti, pero puede influir en decisiones con consecuencias irreparables. Continúa leyendo «ChatGPT en un caso de asesinatos en Corea del Sur: lo que revela sobre la seguridad de la IA»

Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación

La escena tiene algo de chiste privado de internet: un periodista publica en su blog una historia absurda sobre su supuesta habilidad para comer perritos calientes a nivel competitivo, inventa un campeonato que no existe y se coloca a sí mismo en el primer puesto. Lo sorprendente no es el humor, sino lo que ocurre después: en menos de un día, varios chatbots de IA repiten esa información como si fuera fiable. Eso es lo que contó el periodista Thomas Germain en un reportaje para la BBC, y lo que luego recogió Futurism al poner el foco en un problema más amplio: lo fácil que resulta empujar a modelos populares a decir cosas falsas sobre personas reales.

La clave está en que muchos asistentes no se limitan a “recordar” lo que aprendieron durante su entrenamiento. Cuando no tienen una respuesta clara, salen a buscarla. Y ahí aparece la rendija: si el buscador interno del sistema encuentra una página que parece relevante y “convincente”, puede incorporarla como apoyo. Es como preguntarle a alguien por la mejor paella de una ciudad y que, en lugar de consultar a vecinos o críticos, se fíe del primer folleto que le ponen en la mano. Continúa leyendo «Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación»