Britannica y Merriam-Webster demandan a OpenAI: el nuevo choque por el copyright en la era de ChatGPT

Encyclopaedia Britannica y Merriam-Webster han presentado una demanda contra OpenAI por lo que describen como “infracción masiva” de derechos de autor, según informó TechCrunch en un artículo firmado por Amanda Silberling. El núcleo del caso, siempre de acuerdo con la denuncia, es que el editor —Britannica, propietario de Merriam-Webster— mantiene el copyright de cerca de 100.000 artículos online que habrían sido recopilados y utilizados para entrenar modelos de lenguaje sin permiso.

La acusación no se queda en el pasado, en el momento de “cosechar” datos para entrenar. También apunta al presente: la editorial sostiene que el sistema puede generar respuestas que incluyen fragmentos “total o parcialmente” reproducidos de forma literal, como si la máquina estuviera devolviendo párrafos de un texto ajeno con la misma facilidad con la que alguien copia y pega. Dicho de forma cotidiana: no se discute solo si el alumno leyó el libro para aprender, sino si en el examen está entregando páginas calcadas. Continúa leyendo «Britannica y Merriam-Webster demandan a OpenAI: el nuevo choque por el copyright en la era de ChatGPT»

Cuando una mascota enferma y la IA se pone la bata: el caso de Rosie y una vacuna de ARNm a medida

Rosie, una mestiza de staffy y shar pei rescatada de un refugio en Sídney, parecía una de esas segundas oportunidades que cambian una casa entera. Su dueño, el emprendedor tecnológico Paul Conyngham, la adoptó en 2019, justo cuando el planeta empezaba a aprender lo que significaba vivir a golpe de restricciones y rutinas nuevas. Años después, la historia tomó un giro duro: en 2024, a Rosie le diagnosticaron un cáncer de mastocitos agresivo, un tipo de tumor que en perros puede comportarse como un invitado que no entiende la palabra “límite”.

Conyngham recurrió a quimioterapia y cirugía veterinaria. Los tratamientos, según se ha contado en la prensa australiana, lograron frenar el avance pero no encogieron los bultos como se esperaba. Es el tipo de situación que conocen muchas familias con animales enfermos: haces “todo lo correcto” y aun así el marcador no se mueve. En ese punto, lo que diferencia esta historia de tantas otras es el perfil de su protagonista: además de dueño preocupado, Conyngham es experto en inteligencia artificial y, en lugar de quedarse solo con el plan estándar, empezó a explorar opciones con herramientas que domina en su día a día. Continúa leyendo «Cuando una mascota enferma y la IA se pone la bata: el caso de Rosie y una vacuna de ARNm a medida»

ChatGPT como nutricionista a los 15: la dieta fácil que puede salir cara

Pedirle a ChatGPT o a cualquier chatbot “hazme una dieta para adelgazar” se siente como pedir comida a domicilio: escribes dos líneas, esperas unos segundos y llega un menú completo. El problema es que la nutrición no funciona como una receta estándar. Una dieta bien planteada necesita datos básicos como peso, altura, actividad física, historial médico, medicación, horarios, relación emocional con la comida y hasta cómo está yendo la pubertad. Cuando un sistema te entrega un plan sin hacer casi preguntas, es como si un mecánico intentara ajustar el motor sin abrir el capó: puede acertar alguna cosa general, pero también puede dejarlo peor.

En los últimos años, con opciones gratuitas como ChatGPT, Gemini, Claude, Perplexity o chatbots integrados en buscadores, esta “consulta exprés” se ha colado en la vida de muchos jóvenes. En redes como TikTok e Instagram se han viralizado vídeos que animan a pedir dietas con IA para bajar de peso. Si juntamos adolescencia, presión estética y un asistente que responde siempre, el resultado tiene pinta de solución rápida… y de riesgo silencioso. Continúa leyendo «ChatGPT como nutricionista a los 15: la dieta fácil que puede salir cara»

GPT-5.4: el salto de OpenAI hacia agentes que usan tu ordenador por ti

OpenAI ha anunciado GPT-5.4 como una nueva iteración de su familia de modelos, con foco explícito en tres frentes: razonamiento, programación y trabajo “de oficina” con hojas de cálculo, documentos y presentaciones. La noticia, adelantada por The Verge a partir de información de la compañía, no se queda en una mejora incremental de respuestas: lo más llamativo es que llega como el primer modelo de OpenAI con uso nativo del ordenador, es decir, la capacidad de operar un equipo “a través” de la interfaz como lo haría una persona.

Para aterrizarlo con una imagen cotidiana, piensa en alguien que se sienta frente a tu portátil y, en lugar de dictarte instrucciones, abre una app, copia un dato, pega una cifra en una celda y navega por una web para completar un trámite. La promesa de GPT-5.4 es acercarse a ese comportamiento, sin depender de capas externas que traduzcan la intención del modelo en acciones. Continúa leyendo «GPT-5.4: el salto de OpenAI hacia agentes que usan tu ordenador por ti»

GPT-5.3 Instant: el ajuste silencioso que hace que ChatGPT se sienta más “normal” en el día a día

En su nota de lanzamiento del 3 de marzo de 2026, OpenAI pone el foco en tres cosas que suelen molestar cuando aparecen en exceso: el tono, la relevancia y el ritmo de la conversación. Son detalles “humanos” que a veces no se reflejan bien en pruebas de laboratorio, pero que en la práctica deciden si una charla con un sistema de IA se percibe como una ayuda o como una fricción constante. La idea es simple: que el modelo deje de interponerse cuando no hace falta y acierte más a la primera cuando sí hace falta. Continúa leyendo «GPT-5.3 Instant: el ajuste silencioso que hace que ChatGPT se sienta más “normal” en el día a día»

GPT-5.3 Instant: OpenAI intenta quitarle el tono condescendiente a ChatGPT sin perder empatía

OpenAI ha anunciado GPT-5.3 Instant, una actualización centrada menos en ganar puntos en pruebas técnicas y más en algo que el usuario nota al instante: el tono. Según las notas de lanzamiento citadas por TechCrunch, la prioridad está en mejorar la experiencia conversacional, ajustando aspectos como relevancia, fluidez y la forma de responder en general. La idea es simple: si un asistente suena como un manual de autoayuda cuando solo le pides un dato, la conversación se vuelve pesada, incluso si la respuesta “técnicamente” es correcta.

La propia OpenAI lo resumió en una frase publicada en X: “escuchamos el feedback alto y claro” y 5.3 Instant reduce el “cringe”. Traducido a lenguaje cotidiano, es como si el GPS dejara de decirte “tranquilo, no pasa nada” cada vez que te equivocas de salida, y se limitara a recalcular la ruta sin tratarte como si estuvieras a punto de colapsar. Continúa leyendo «GPT-5.3 Instant: OpenAI intenta quitarle el tono condescendiente a ChatGPT sin perder empatía»

Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria

Cambiar de asistente de IA suele sentirse como mudarse de casa con prisas: tus cosas están, pero en cajas sin etiquetar. Lo que Anthropic propone con su nueva herramienta de importación de memoria para Claude es, básicamente, poner etiquetas a esas cajas. Según ha contado Engadget, la compañía ha creado un método para extraer los recuerdos y el contexto que otro chatbot ha acumulado sobre ti y convertirlo en un texto que luego puedes llevarte a Claude como punto de partida. La idea es que el asistente “te conozca” con cierta continuidad y no tengas que reexplicar tu manera de trabajar, tus preferencias o el tipo de respuestas que sueles pedir.

En la práctica, la memoria en un chatbot no es magia ni una “personalidad” real: es un conjunto de pistas, hábitos y datos resumidos. Cosas como “prefiere respuestas breves”, “está preparando una presentación” o “trabaja con estos temas”. Tenerlo en Claude desde el minuto uno puede marcar diferencia en tareas repetitivas, sobre todo si lo usas como herramienta de productividad. Continúa leyendo «Claude quiere que cambies de chatbot sin “empezar de cero”: así funciona su nueva importación de memoria»

Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU

En los últimos días, Anthropic ha vivido uno de esos giros que en tecnología se sienten como un apagón repentino: de ser un proveedor con presencia en entornos institucionales sensibles a quedar señalado por el Gobierno de Estados Unidos. La compañía ha anunciado que impugnará la decisión después de que el Departamento de Defensa la designara como “riesgo para la cadena de suministro”, un tipo de etiqueta que en contratación pública suele activar un efecto dominó inmediato, especialmente entre contratistas y proveedores que trabajan con la administración.

El trasfondo, según la propia Anthropic, está en el choque por los límites de uso de sus modelos: la empresa afirma que las negociaciones se atascaron por dos excepciones que pidió explícitamente bloquear, vinculadas a la vigilancia doméstica masiva y a armas totalmente autónomas. Dicho de forma sencilla, Anthropic sostiene que quería dejar por escrito “líneas rojas” más duras y que ese pulso terminó volviéndose político. Continúa leyendo «Claude quiere que te mudes sin cajas: así funciona la importación de memoria desde ChatGPT y Gemini mientras Anthropic lidia con el veto de EEUU»

OpenAI recorta su ambición de gasto en cómputo: cuando la cuenta de la nube deja de ser un detalle

OpenAI está trasladando a inversores un ajuste importante en su hoja de ruta de infraestructura: su objetivo de gasto total en cómputo de aquí a 2030 pasaría a rondar los 600.000 millones de dólares, una cantidad muy por debajo del compromiso previo de 1,4 billones. La información, difundida por CNBC y recogida en un artículo de Futurism, se apoya en fuentes conocedoras de las conversaciones con inversores y dibuja una corrección de expectativas en un momento especialmente sensible para todo el sector de la inteligencia artificial.

Si se mira con ojos de contabilidad doméstica, el movimiento se entiende con una metáfora sencilla: una cosa es planear reformar una casa “a lo grande” y otra muy distinta es firmar presupuestos de obra por siete cifras cuando el ingreso anual aún no acompaña. En el caso de OpenAI, la comparación duele porque se cruza con otra cifra que también circula en ese mismo reporte: 13.100 millones de dólares de ingresos en 2025 y, al mismo tiempo, una quema de caja aproximada de 8.000 millones. La industria puede vivir durante un tiempo con pérdidas en busca de escala, pero los números extremos suelen activar alarmas en cuanto el entorno de mercado deja de aplaudir sin preguntas. Continúa leyendo «OpenAI recorta su ambición de gasto en cómputo: cuando la cuenta de la nube deja de ser un detalle»

La advertencia del Papa Leo XIV sobre ChatGPT en la homilía: dónde traza la línea el Vaticano con la inteligencia artificial

En un encuentro reservado con clérigos de la diócesis de Roma, el Papa Leo XIV lanzó una petición poco habitual por lo concreta: resistir la tentación de preparar las homilías con inteligencia artificial, en particular con herramientas tipo ChatGPT. La frase, recogida por Vatican News y difundida por varios medios, no suena a condena tecnológica genérica, sino a una llamada práctica de oficio: si la tarea pastoral incluye pensar, estudiar y elegir palabras para una comunidad real, delegarlo en una máquina puede terminar debilitando el músculo que lo hace posible.

El Papa lo explicó con una metáfora corporal que cualquiera entiende: como los músculos, la mente se atrofia cuando no se usa. Aplicado a la predicación, el mensaje es directo: si el sacerdote deja de ejercitar su propia reflexión para convertirla en “texto generado”, pierde algo más que tiempo; pierde habilidad y, con ella, parte del sentido de su papel. Continúa leyendo «La advertencia del Papa Leo XIV sobre ChatGPT en la homilía: dónde traza la línea el Vaticano con la inteligencia artificial»