Microsoft ha presentado Copilot Health, una función dentro de Microsoft Copilot pensada para reunir piezas que hoy suelen estar desperdigadas: registros médicos, historial clínico, medicación, resultados de pruebas y datos de wearables como actividad, sueño o frecuencia cardiaca. La idea, según la compañía, es ayudarte a entender tu información “como un todo” y llegar a… Continúa leyendo »

La empresa estadounidense Stryker, conocida por fabricar equipamiento médico y suministros usados a diario en quirófanos y hospitales, reconoció haber sufrido un incidente de ciberseguridad que afectó a su entorno de Microsoft. En una comunicación publicada por la propia compañía, describió el episodio como una “interrupción global de red” en su entorno Microsoft, atribuida a… Continúa leyendo »

Los juguetes con IA han empezado a colarse en el salón de casa con la promesa de ser compañeros de juego que responden con voz, proponen historias y animan a practicar lenguaje. Para una familia, suena tentador: un peluche que conversa y mantiene a un niño entretenido mientras ensaya palabras nuevas, como si fuera un… Continúa leyendo »

Nvidia quiere el centro de datos de IA completo: del chip al rack y del token a la caja

En la conferencia GTC de Nvidia en San José, la imagen que la compañía empujó hacia los medios no fue una GPU brillante ni un robot simpático, sino una especie de “muro” de rectángulos: filas y filas de racks de centro de datos sin etiquetas, alineados como un estante interminable de libros o como una formación militar. La metáfora funciona porque el mensaje es igual de contundente: Nvidia quiere que el centro de datos de IA se parezca cada vez más a un sistema integral diseñado por un único proveedor, de principio a fin.

Esa idea no es nueva en tecnología: Apple lleva años defendiendo la integración vertical en el móvil. Lo llamativo es verla aplicada a la fábrica moderna de tokens, donde cada milisegundo cuenta y cada vatio se factura. En su keynote, Jensen Huang dibujó un futuro en el que comprar piezas sueltas deja de ser “lo normal” y pasa a ser “lo ineficiente”. Y su argumento central, recogido por ZDNET, es que la economía de la IA mejora cuando todo encaja como un engranaje hecho en casa: chips, red, almacenamiento especializado y software. Continúa leyendo «Nvidia quiere el centro de datos de IA completo: del chip al rack y del token a la caja»

Britannica y Merriam-Webster demandan a OpenAI: el nuevo choque por el copyright en la era de ChatGPT

Encyclopaedia Britannica y Merriam-Webster han presentado una demanda contra OpenAI por lo que describen como “infracción masiva” de derechos de autor, según informó TechCrunch en un artículo firmado por Amanda Silberling. El núcleo del caso, siempre de acuerdo con la denuncia, es que el editor —Britannica, propietario de Merriam-Webster— mantiene el copyright de cerca de 100.000 artículos online que habrían sido recopilados y utilizados para entrenar modelos de lenguaje sin permiso.

La acusación no se queda en el pasado, en el momento de “cosechar” datos para entrenar. También apunta al presente: la editorial sostiene que el sistema puede generar respuestas que incluyen fragmentos “total o parcialmente” reproducidos de forma literal, como si la máquina estuviera devolviendo párrafos de un texto ajeno con la misma facilidad con la que alguien copia y pega. Dicho de forma cotidiana: no se discute solo si el alumno leyó el libro para aprender, sino si en el examen está entregando páginas calcadas. Continúa leyendo «Britannica y Merriam-Webster demandan a OpenAI: el nuevo choque por el copyright en la era de ChatGPT»

Android 16 estrena modo escritorio en los Pixel: qué ofrece y qué le falta para ser tu “PC de bolsillo”

Con la llegada de Android 16, Google empieza a tomarse más en serio una vieja aspiración de Android: que el móvil pueda comportarse como un ordenador cuando lo conectas a una pantalla grande. En la práctica, el nuevo modo escritorio ofrece una interfaz pensada para monitor, con barra de tareas, ventanas redimensionables y una lógica más cercana a Windows o macOS que a la típica pantalla de inicio del teléfono.

El planteamiento es sencillo y muy tentador: llegas a una mesa, enchufas tu Pixel a un monitor externo y continúas con tus apps habituales, solo que con más espacio y con un teclado y ratón. Es como pasar de escribir una nota en una libreta pequeña a extender un cuaderno A4 sobre la mesa: la información es la misma, pero el espacio te deja respirar, ordenar y trabajar con menos fricción.

Según ha explicado Lifehacker tras probarlo, esta función aparece en la versión Android 16 QPR3 distribuida a principios de marzo de 2026, y está pensada para ofrecer un entorno más “de escritorio” sin cambiar el corazón de Android ni obligar a usar aplicaciones especiales. Continúa leyendo «Android 16 estrena modo escritorio en los Pixel: qué ofrece y qué le falta para ser tu “PC de bolsillo”»

AI Works for Europe: el plan de Google para acelerar la formación en IA en Europa con 30 millones de dólares

Google ha presentado AI Works for Europe en el Future of Work Forum celebrado en Riga (Letonia) con una idea central: si la inteligencia artificial va a integrarse en el trabajo cotidiano, la transición tiene que venir acompañada de competencias de IA accesibles y aplicables, no reservadas a perfiles técnicos. La propuesta se articula como una red de colaboración con administraciones públicas, organizaciones sin ánimo de lucro, empleadores y universidades, con el objetivo de que estudiantes y profesionales aprendan a usar herramientas de IA con seguridad y criterio.

El anuncio llega en un momento en el que la conversación pública sobre IA se mueve entre la promesa de productividad y el temor al reemplazo. Google intenta desplazar el debate hacia algo más práctico: qué habilidades hacen falta para trabajar con IA y cómo se distribuye esa oportunidad para que no se quede en manos de unos pocos. La compañía enmarca el movimiento dentro de una visión económica más amplia: sostiene que la adopción generalizada de IA podría aportar hasta 1,2 billones de euros al PIB europeo, una cifra que funciona como brújula política y empresarial para justificar la urgencia de la capacitación. Continúa leyendo «AI Works for Europe: el plan de Google para acelerar la formación en IA en Europa con 30 millones de dólares»

NotebookLM para viajes: cómo crear una IA experta en tu destino y planificar itinerarios con tus propias fuentes

Planificar un viaje suele parecerse a cocinar sin receta: tienes ideas sueltas, recomendaciones de amigos, pestañas abiertas en el navegador y un puñado de vídeos guardados “para luego”. La propuesta de NotebookLM es convertir todo ese caos en una especie de cuaderno de cocina: tú decides qué ingredientes entran y la IA se limita a trabajar con ellos, sin irse a “buscar especias” por internet. Esa diferencia es clave cuando lo que quieres no es una respuesta bonita, sino una guía que puedas seguir con confianza. Continúa leyendo «NotebookLM para viajes: cómo crear una IA experta en tu destino y planificar itinerarios con tus propias fuentes»

Tinder SPARKS 2026: el plan para salir del “piloto automático” del swipe

La primera keynote de producto de Tinder, celebrada el jueves 12 de marzo de 2026 bajo el lema “Tinder SPARKS 2026: Start Something New”, dejó claro hacia dónde quiere moverse la app: menos dependencia del gesto repetitivo de deslizar y más señales útiles para encontrar a alguien compatible. El formato, con ejecutivos presentando novedades y hoja de ruta, recordó a los eventos de producto típicos del sector tecnológico, con un mensaje central muy definido: la inteligencia artificial pasa de ser un ingrediente discreto a convertirse en el motor del matchmaking y de la personalización del perfil, según explicó la propia compañía durante el evento. Continúa leyendo «Tinder SPARKS 2026: el plan para salir del “piloto automático” del swipe»

Cuando una mascota enferma y la IA se pone la bata: el caso de Rosie y una vacuna de ARNm a medida

Rosie, una mestiza de staffy y shar pei rescatada de un refugio en Sídney, parecía una de esas segundas oportunidades que cambian una casa entera. Su dueño, el emprendedor tecnológico Paul Conyngham, la adoptó en 2019, justo cuando el planeta empezaba a aprender lo que significaba vivir a golpe de restricciones y rutinas nuevas. Años después, la historia tomó un giro duro: en 2024, a Rosie le diagnosticaron un cáncer de mastocitos agresivo, un tipo de tumor que en perros puede comportarse como un invitado que no entiende la palabra “límite”.

Conyngham recurrió a quimioterapia y cirugía veterinaria. Los tratamientos, según se ha contado en la prensa australiana, lograron frenar el avance pero no encogieron los bultos como se esperaba. Es el tipo de situación que conocen muchas familias con animales enfermos: haces “todo lo correcto” y aun así el marcador no se mueve. En ese punto, lo que diferencia esta historia de tantas otras es el perfil de su protagonista: además de dueño preocupado, Conyngham es experto en inteligencia artificial y, en lugar de quedarse solo con el plan estándar, empezó a explorar opciones con herramientas que domina en su día a día. Continúa leyendo «Cuando una mascota enferma y la IA se pone la bata: el caso de Rosie y una vacuna de ARNm a medida»

FunctionGemma afinado: cómo enseñar a un modelo pequeño a elegir la herramienta correcta

Cuando se habla de agentes de IA, lo realmente útil no es que “conversen bonito”, sino que conviertan una petición en una acción ejecutable. En la práctica, eso significa llamadas a funciones: el modelo decide qué herramienta usar y con qué argumentos, como si fuese un operador de centralita que conecta tu llamada con el departamento adecuado sin hacerte perder tiempo.

Con esa idea en mente, Google presentó FunctionGemma, una variante especializada de Gemma 3 (en el tamaño de 270M parámetros) afinada específicamente para tool calling. La apuesta es clara: modelos más pequeños y rápidos, pensados para ser rentables y funcionar con soltura cuando el flujo de trabajo depende de invocar APIs, funciones internas o acciones concretas. Continúa leyendo «FunctionGemma afinado: cómo enseñar a un modelo pequeño a elegir la herramienta correcta»

LiteRT: el nuevo marco universal de IA en el dispositivo que Google quiere convertir en estándar

Durante años, TensorFlow Lite fue la herramienta “de confianza” para llevar modelos de aprendizaje automático a móviles, relojes y otros dispositivos. Funcionaba especialmente bien para el machine learning clásico: reconocimiento de imágenes, clasificación, detección de objetos o pequeñas redes que podían vivir sin demasiadas exigencias de cómputo. El problema es que la IA generativa y los modelos modernos han cambiado el listón: ya no basta con “que corra”, ahora importa que responda rápido, que consuma menos energía y que aproveche el hardware especializado que ya traen muchos chips.

Ahí es donde entra LiteRT, la evolución del stack de Google para inferencia en el borde. Según explicó Google en el blog de Google for Developers (28 de enero de 2026), la compañía empezó a presentar esta transición en 2024 y enseñó un adelanto más ambicioso en Google I/O 2025: un runtime diseñado para exprimir aceleración avanzada. La novedad ahora es que esa aceleración “graduó” y forma parte del stack de producción de LiteRT, disponible para desarrolladores. Continúa leyendo «LiteRT: el nuevo marco universal de IA en el dispositivo que Google quiere convertir en estándar»

Data Commons MCP llega a Google Cloud: consultar datos públicos con agentes de IA sin servidor local

Cuando se le pide a un modelo que “analice la economía de Europa del Este” o que “compare desempleo y salud por regiones”, el reto no suele ser que el modelo “no sepa hablar”, sino que le faltan vías fiables para traer números concretos, con procedencia clara y formato utilizable. En esa grieta entre la conversación y el dato duro es donde encaja Data Commons: un grafo de conocimiento de datos públicos que agrupa indicadores socioeconómicos, demográficos, sanitarios y de muchos otros ámbitos, con fuentes reconocidas.

La novedad anunciada por Google for Developers el 9 de febrero de 2026 es que el servicio Data Commons MCP pasa a estar alojado en Google Cloud como un servicio gestionado. Dicho de forma simple: ya no hace falta levantar un servidor local para que un agente consulte datacommons.org mediante MCP; basta con conectarse a un endpoint web y autenticarse con una API key. Continúa leyendo «Data Commons MCP llega a Google Cloud: consultar datos públicos con agentes de IA sin servidor local»