Cuando se habla de glioblastoma, se habla de un tumor que corre rápido y pone trabas en cada curva. Se origina en células de soporte del cerebro y, pese a los avances en cirugía, radioterapia y quimioterapia, sigue siendo uno de los diagnósticos más difíciles de manejar. Parte del problema es biológico y parte es… Continúa leyendo »

Meta lleva tiempo insinuando que su próximo gran campo de batalla no está solo en los modelos, sino en lo que los hace funcionar. Si la inteligencia artificial generativa fuese un coche de carreras, los modelos serían el chasis y la aerodinámica; la infraestructura de IA sería el motor, el combustible y el taller donde… Continúa leyendo »

Anthropic ha confirmado nuevos controles técnicos para impedir que aplicaciones de terceros se hagan pasar por su cliente oficial Claude Code y, con ello, accedan a los modelos de Claude bajo condiciones pensadas para un uso humano y no para automatización intensiva. La medida ha afectado especialmente a flujos de trabajo apoyados en herramientas abiertas… Continúa leyendo »

Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio

Anthropic acaba de presentar Claude Cowork, una función pensada para empujar a Claude un paso más allá del chat y acercarlo a la idea de agente de IA: un sistema que no solo responde, sino que ejecuta tareas con acceso controlado a recursos del usuario. El anuncio llega en formato “research preview”, una etiqueta que suele significar dos cosas a la vez: que la empresa quiere aprender rápido observando usos reales y que, por ahora, hay límites claros de disponibilidad y de expectativas.

Según explicó Anthropic en su blog y recogió Hayden Field en The Verge, Cowork nace para capturar parte del entusiasmo que está generando Claude Code, pero con un enfoque más accesible para tareas no necesariamente técnicas. La promesa es sencilla de entender si lo aterrizamos a lo cotidiano: en lugar de pedirle a alguien “dime cómo ordenar el trastero” y luego hacerlo tú con tus manos, Cowork se parece más a darle las llaves de una habitación concreta y decirle “ordena esto siguiendo estas reglas, y me vas contando lo que haces”. Continúa leyendo «Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio»

Google impulsa un nuevo “idioma común” para compras con agentes de IA: así es el Universal Commerce Protocol

Comprar online suele implicar saltar entre pestañas, comparar, iniciar sesión, introducir direcciones, confirmar métodos de pago y revisar el carrito como si estuviéramos pasando cajas en una mudanza. Google quiere que esa fricción desaparezca cuando la compra la realiza un agente de IA por nosotros, con instrucciones del estilo “cómprame el mismo detergente de siempre y entrégalo el viernes”. Para que esa escena sea viable a gran escala, hace falta algo menos visible que una app bonita: acuerdos técnicos y un marco compartido para que distintos sistemas se entiendan.

En esa dirección encaja el anuncio recogido por Computerworld: Google ha presentado varias herramientas y estándares orientados al comercio electrónico impulsado por IA, con un protagonista claro, el Universal Commerce Protocol (UCP), un estándar abierto pensado para conectar agentes, tiendas y pagos con un lenguaje común. Continúa leyendo «Google impulsa un nuevo “idioma común” para compras con agentes de IA: así es el Universal Commerce Protocol»

Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial

Meta lleva tiempo insinuando que su próximo gran campo de batalla no está solo en los modelos, sino en lo que los hace funcionar. Si la inteligencia artificial generativa fuese un coche de carreras, los modelos serían el chasis y la aerodinámica; la infraestructura de IA sería el motor, el combustible y el taller donde se ajusta todo para ganar décimas. En esa línea, Mark Zuckerberg anunció en Threads el lanzamiento de Meta Compute, una iniciativa para reforzar y expandir la capacidad de cómputo de la compañía con una ambición energética poco habitual: hablar de decenas de gigavatios durante esta década y, con el tiempo, cientos de gigavatios o más.

La noticia, publicada por TechCrunch el 12 de enero de 2026, encaja con el mensaje que Meta ya venía trasladando a analistas e inversores. En una llamada de resultados el verano pasado, su directora financiera, Susan Li, señaló que desarrollar una infraestructura puntera sería una ventaja central para crear mejores modelos y experiencias de producto, según recogió la propia compañía en ese contexto y recuerda TechCrunch. Continúa leyendo «Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial»

Linux Mint 22.3 “Zena”: cuando el detalle importa más que el espectáculo

Linux Mint 22.3 (nombre en clave Zena) llega como esas reformas de casa que no cambian la fachada, pero hacen que todo encaje mejor: una puerta que ya no roza, una luz que por fin ilumina donde trabajas, un cajón que deja de atascarse. No intenta deslumbrar con giros dramáticos; su apuesta es el pulido, los pequeños ajustes que reducen fricción y convierten el escritorio en un lugar más cómodo para pasar horas.

La lectura general coincide con lo publicado por ZDNET y el análisis de Steven Vaughan-Nichols: es una versión pensada para “que el PC funcione” sin sorpresas, y por eso resulta especialmente atractiva para quien prioriza estabilidad y coherencia por encima de la novedad constante. También es una entrega lógica dentro de la serie 22.x, con soporte previsto hasta 2029, lo que refuerza la idea de instalar y olvidarse… en el buen sentido. Continúa leyendo «Linux Mint 22.3 “Zena”: cuando el detalle importa más que el espectáculo»

Apple apuesta por Gemini para impulsar Siri: qué cambia en el iPhone y por qué importa

Apple y Google han confirmado una colaboración plurianual para que la próxima generación de los Apple Foundation Models se base en los modelos Gemini y en tecnología de nube de Google. Según el comunicado conjunto publicado por Google en The Keyword, el objetivo es alimentar futuras funciones de Apple Intelligence, incluida una versión más personal de Siri que llegaría “este año”. La noticia también fue recogida por Associated Press, que la enmarca como un movimiento para acelerar los planes de Apple en inteligencia artificial tras un despliegue más lento de lo esperado.

Dicho de forma sencilla: Apple no “entrega” Siri a Google, pero sí adopta a Gemini como base para parte de sus modelos fundacionales, con la idea de que esas capacidades se traduzcan en funciones concretas en iPhone, iPad y otros dispositivos. Continúa leyendo «Apple apuesta por Gemini para impulsar Siri: qué cambia en el iPhone y por qué importa»

ASUS ROG XREAL R1: las primeras gafas AR de ROG para jugar con una pantalla “gigante” a 240 Hz

ASUS Republic of Gamers ha decidido llevar su idea de “jugar en grande” a un formato que, literalmente, te pones en la cara. Las ROG XREAL R1 son sus primeras gafas de realidad aumentada orientadas al gaming y llegan con una promesa muy concreta: convertir cualquier sitio —un escritorio pequeño, un sofá, un tren— en un escenario con una pantalla espacial enorme, pensada para jugar con fluidez y con una sensación de inmersión más propia de un monitor grande que de un accesorio portátil.

El anuncio, comunicado por la propia ASUS, pone el foco en dos cosas: rendimiento visual (alta tasa de refresco y baja latencia) y compatibilidad real con varios dispositivos sin que el usuario tenga que pelearse con configuraciones. La colaboración con XREAL, un actor conocido en el ámbito de gafas AR de consumo, también marca el enfoque: no se trata de un experimento, sino de un producto diseñado para encajar en hábitos de juego cotidianos, especialmente alrededor de ROG Ally. Continúa leyendo «ASUS ROG XREAL R1: las primeras gafas AR de ROG para jugar con una pantalla “gigante” a 240 Hz»

Una piel robótica que “duele”: así es el e-skin neuromórfico que da reflejos rápidos a los humanoides

Si apoyas la mano en una sartén caliente, no necesitas deliberar: la apartas antes de ser plenamente consciente del daño. Ese truco biológico no depende primero del cerebro, sino de un circuito rápido que convierte la señal de la piel en movimiento casi inmediato. En muchos robots humanoides, el proceso suele ser más torpe: el sensor detecta, la información viaja a una unidad central, se calcula la respuesta y, por fin, se envía la orden al motor. Ese pequeño “viaje burocrático” puede ser suficiente para que el contacto con una superficie caliente, un pellizco mecánico o un golpe termine en una avería.

Con la llegada de los humanoides a entornos menos controlados —hogares, hospitales, espacios de atención al público— el reto deja de ser solo ejecutar tareas programadas. También importa reaccionar con naturalidad, de forma segura, cuando algo sale mal. En ese contexto se enmarca una propuesta descrita por Phys.org y respaldada por un trabajo científico en Proceedings of the National Academy of Sciences (PNAS): una piel robótica capaz de detectar tacto, daño y algo parecido al dolor robótico, con reflejos locales que no dependen de esperar al “cerebro” del robot. Continúa leyendo «Una piel robótica que “duele”: así es el e-skin neuromórfico que da reflejos rápidos a los humanoides»

Aurora Therapeutics: el plan para llevar la edición genética “a medida” a más pacientes

Si la medicina tradicional suele parecerse a comprar ropa por tallas, la nueva ola de terapias personalizadas busca algo más parecido a ir a una sastrería: ajustar cada costura a la persona concreta. En enfermedades raras, esa diferencia no es un capricho; muchas veces es la única opción razonable, porque hay tan pocos pacientes con una mutación específica que hacer ensayos clínicos grandes resulta impracticable. En este contexto se entiende el anuncio de Aurora Therapeutics, una startup cofundada por la Nobel y pionera de CRISPR Jennifer Doudna, que quiere convertir en un modelo comercial lo que hasta ahora ha sido, en gran medida, un esfuerzo casi artesanal de investigación clínica.

La idea de fondo es sencilla de explicar, aunque sea compleja de ejecutar: si un problema genético es una errata concreta en el manual de instrucciones del cuerpo, la edición genética aspira a corregir esa errata directamente, no solo a “poner parches” a sus consecuencias. Lo difícil es hacerlo con seguridad, con calidad industrial y a una velocidad compatible con pacientes que no pueden esperar. Continúa leyendo «Aurora Therapeutics: el plan para llevar la edición genética “a medida” a más pacientes»

Moléculas “cambiaformas” para hardware de IA: cuando la química hace de memoria, lógica y aprendizaje

Durante medio siglo, la electrónica molecular ha tenido una promesa tentadora: construir dispositivos electrónicos a partir de moléculas, igual que hoy se construyen transistores y memorias con silicio. La idea suena elegante, casi minimalista, como sustituir ladrillos por piezas de LEGO mucho más pequeñas. El problema es que, dentro de un dispositivo real, las moléculas no viven aisladas ni se comportan como componentes simples; se influyen entre sí y responden a su entorno de maneras difíciles de anticipar.

Un trabajo difundido por el Indian Institute of Science (IISc) y firmado por un equipo del Centre for Nano Science and Engineering (CeNSE) plantea una vía para convertir ese “caos” en una ventaja: crear dispositivos moleculares capaces de cambiar de función sobre la marcha y servir como bloques para computación neuromórfica, el enfoque que busca que el hardware aprenda de forma parecida al cerebro. La investigación, publicada en la revista Advanced Materials, se apoya en un concepto clave: no se trata solo de imitar la inteligencia con circuitos, sino de codificarla físicamente en el propio material. Continúa leyendo «Moléculas “cambiaformas” para hardware de IA: cuando la química hace de memoria, lógica y aprendizaje»

Ver cómo “respira” una hoja en directo: la tecnología que une imagen y medición para ahorrar agua en cultivos

Cuando pensamos en “respirar”, la imagen típica es la de unos pulmones llenándose y vaciándose. Las plantas no tienen pulmones, pero sí hacen algo sorprendentemente parecido: intercambian gases con el aire. La diferencia es que lo hacen a través de miles de poros diminutos repartidos por sus hojas. Durante décadas, la ciencia ha entendido el papel de esos poros, pero observar el proceso mientras ocurre —sin congelarlo en una foto fija ni perder de vista lo que está pasando “por dentro”— ha sido un reto técnico enorme.

Una investigación difundida por ScienceDaily a partir de un trabajo de la Universidad de Illinois Urbana-Champaign propone una solución: un sistema capaz de mostrar en tiempo real cómo se abren y cierran esos poros y, al mismo tiempo, medir con precisión cuánto dióxido de carbono entra en la hoja y cuánta agua sale en forma de vapor. El equipo lo presenta como Stomata In-Sight, y su artículo científico se publicó en la revista Plant Physiology. Continúa leyendo «Ver cómo “respira” una hoja en directo: la tecnología que une imagen y medición para ahorrar agua en cultivos»