Encontrar una molécula que encaje en una proteína concreta se parece a intentar abrir una cerradura desconocida con un manojo de llaves gigantesco. La biología ofrece miles de “cerraduras” —las proteínas— y la química, millones o incluso billones de “llaves” —los compuestos candidatos—. El método clásico para decidir qué llave probar primero ha sido el… Continúa leyendo »

A veces, la forma más clara de entender una tecnología no es leer un informe técnico, sino verla “trabajar” en un entorno con tensión, incertidumbre y decisiones rápidas. Eso es lo que propone LLM Holdem, un experimento creado por Jason Yang en el que varios modelos de lenguaje compiten en una mesa virtual de póker… Continúa leyendo »

Comprar online suele implicar saltar entre pestañas, comparar, iniciar sesión, introducir direcciones, confirmar métodos de pago y revisar el carrito como si estuviéramos pasando cajas en una mudanza. Google quiere que esa fricción desaparezca cuando la compra la realiza un agente de IA por nosotros, con instrucciones del estilo “cómprame el mismo detergente de siempre… Continúa leyendo »

DrugCLIP: la IA que convierte la búsqueda de fármacos en un “motor de búsqueda” molecular

Encontrar una molécula que encaje en una proteína concreta se parece a intentar abrir una cerradura desconocida con un manojo de llaves gigantesco. La biología ofrece miles de “cerraduras” —las proteínas— y la química, millones o incluso billones de “llaves” —los compuestos candidatos—. El método clásico para decidir qué llave probar primero ha sido el cribado virtual basado en simulaciones: se modela en 3D cómo una molécula podría acomodarse en el bolsillo de unión de una proteína, se calcula si la interacción es estable y se repite el proceso una y otra vez.

El problema es que esa aproximación, conocida popularmente por su dependencia del docking y de cálculos físico-químicos detallados, consume muchísimo tiempo y recursos. En la práctica, limita el número de compuestos y dianas que se pueden explorar. Cuando el objetivo es dar con terapias contra enfermedades complejas, o investigar proteínas poco estudiadas, ese cuello de botella se convierte en un freno real para la innovación biomédica. Continúa leyendo «DrugCLIP: la IA que convierte la búsqueda de fármacos en un “motor de búsqueda” molecular»

Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio

Anthropic acaba de presentar Claude Cowork, una función pensada para empujar a Claude un paso más allá del chat y acercarlo a la idea de agente de IA: un sistema que no solo responde, sino que ejecuta tareas con acceso controlado a recursos del usuario. El anuncio llega en formato “research preview”, una etiqueta que suele significar dos cosas a la vez: que la empresa quiere aprender rápido observando usos reales y que, por ahora, hay límites claros de disponibilidad y de expectativas.

Según explicó Anthropic en su blog y recogió Hayden Field en The Verge, Cowork nace para capturar parte del entusiasmo que está generando Claude Code, pero con un enfoque más accesible para tareas no necesariamente técnicas. La promesa es sencilla de entender si lo aterrizamos a lo cotidiano: en lugar de pedirle a alguien “dime cómo ordenar el trastero” y luego hacerlo tú con tus manos, Cowork se parece más a darle las llaves de una habitación concreta y decirle “ordena esto siguiendo estas reglas, y me vas contando lo que haces”. Continúa leyendo «Claude Cowork: el nuevo modo “manos a la obra” de Anthropic para convertir a Claude en asistente de escritorio»

Google impulsa un nuevo “idioma común” para compras con agentes de IA: así es el Universal Commerce Protocol

Comprar online suele implicar saltar entre pestañas, comparar, iniciar sesión, introducir direcciones, confirmar métodos de pago y revisar el carrito como si estuviéramos pasando cajas en una mudanza. Google quiere que esa fricción desaparezca cuando la compra la realiza un agente de IA por nosotros, con instrucciones del estilo “cómprame el mismo detergente de siempre y entrégalo el viernes”. Para que esa escena sea viable a gran escala, hace falta algo menos visible que una app bonita: acuerdos técnicos y un marco compartido para que distintos sistemas se entiendan.

En esa dirección encaja el anuncio recogido por Computerworld: Google ha presentado varias herramientas y estándares orientados al comercio electrónico impulsado por IA, con un protagonista claro, el Universal Commerce Protocol (UCP), un estándar abierto pensado para conectar agentes, tiendas y pagos con un lenguaje común. Continúa leyendo «Google impulsa un nuevo “idioma común” para compras con agentes de IA: así es el Universal Commerce Protocol»

Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial

Meta lleva tiempo insinuando que su próximo gran campo de batalla no está solo en los modelos, sino en lo que los hace funcionar. Si la inteligencia artificial generativa fuese un coche de carreras, los modelos serían el chasis y la aerodinámica; la infraestructura de IA sería el motor, el combustible y el taller donde se ajusta todo para ganar décimas. En esa línea, Mark Zuckerberg anunció en Threads el lanzamiento de Meta Compute, una iniciativa para reforzar y expandir la capacidad de cómputo de la compañía con una ambición energética poco habitual: hablar de decenas de gigavatios durante esta década y, con el tiempo, cientos de gigavatios o más.

La noticia, publicada por TechCrunch el 12 de enero de 2026, encaja con el mensaje que Meta ya venía trasladando a analistas e inversores. En una llamada de resultados el verano pasado, su directora financiera, Susan Li, señaló que desarrollar una infraestructura puntera sería una ventaja central para crear mejores modelos y experiencias de producto, según recogió la propia compañía en ese contexto y recuerda TechCrunch. Continúa leyendo «Meta Compute: la apuesta de Meta por una infraestructura de IA propia y una huella energética a escala industrial»

Linux Mint 22.3 “Zena”: cuando el detalle importa más que el espectáculo

Linux Mint 22.3 (nombre en clave Zena) llega como esas reformas de casa que no cambian la fachada, pero hacen que todo encaje mejor: una puerta que ya no roza, una luz que por fin ilumina donde trabajas, un cajón que deja de atascarse. No intenta deslumbrar con giros dramáticos; su apuesta es el pulido, los pequeños ajustes que reducen fricción y convierten el escritorio en un lugar más cómodo para pasar horas.

La lectura general coincide con lo publicado por ZDNET y el análisis de Steven Vaughan-Nichols: es una versión pensada para “que el PC funcione” sin sorpresas, y por eso resulta especialmente atractiva para quien prioriza estabilidad y coherencia por encima de la novedad constante. También es una entrega lógica dentro de la serie 22.x, con soporte previsto hasta 2029, lo que refuerza la idea de instalar y olvidarse… en el buen sentido. Continúa leyendo «Linux Mint 22.3 “Zena”: cuando el detalle importa más que el espectáculo»

Apple apuesta por Gemini para impulsar Siri: qué cambia en el iPhone y por qué importa

Apple y Google han confirmado una colaboración plurianual para que la próxima generación de los Apple Foundation Models se base en los modelos Gemini y en tecnología de nube de Google. Según el comunicado conjunto publicado por Google en The Keyword, el objetivo es alimentar futuras funciones de Apple Intelligence, incluida una versión más personal de Siri que llegaría “este año”. La noticia también fue recogida por Associated Press, que la enmarca como un movimiento para acelerar los planes de Apple en inteligencia artificial tras un despliegue más lento de lo esperado.

Dicho de forma sencilla: Apple no “entrega” Siri a Google, pero sí adopta a Gemini como base para parte de sus modelos fundacionales, con la idea de que esas capacidades se traduzcan en funciones concretas en iPhone, iPad y otros dispositivos. Continúa leyendo «Apple apuesta por Gemini para impulsar Siri: qué cambia en el iPhone y por qué importa»

ASUS ROG XREAL R1: las primeras gafas AR de ROG para jugar con una pantalla “gigante” a 240 Hz

ASUS Republic of Gamers ha decidido llevar su idea de “jugar en grande” a un formato que, literalmente, te pones en la cara. Las ROG XREAL R1 son sus primeras gafas de realidad aumentada orientadas al gaming y llegan con una promesa muy concreta: convertir cualquier sitio —un escritorio pequeño, un sofá, un tren— en un escenario con una pantalla espacial enorme, pensada para jugar con fluidez y con una sensación de inmersión más propia de un monitor grande que de un accesorio portátil.

El anuncio, comunicado por la propia ASUS, pone el foco en dos cosas: rendimiento visual (alta tasa de refresco y baja latencia) y compatibilidad real con varios dispositivos sin que el usuario tenga que pelearse con configuraciones. La colaboración con XREAL, un actor conocido en el ámbito de gafas AR de consumo, también marca el enfoque: no se trata de un experimento, sino de un producto diseñado para encajar en hábitos de juego cotidianos, especialmente alrededor de ROG Ally. Continúa leyendo «ASUS ROG XREAL R1: las primeras gafas AR de ROG para jugar con una pantalla “gigante” a 240 Hz»

Una piel robótica que “duele”: así es el e-skin neuromórfico que da reflejos rápidos a los humanoides

Si apoyas la mano en una sartén caliente, no necesitas deliberar: la apartas antes de ser plenamente consciente del daño. Ese truco biológico no depende primero del cerebro, sino de un circuito rápido que convierte la señal de la piel en movimiento casi inmediato. En muchos robots humanoides, el proceso suele ser más torpe: el sensor detecta, la información viaja a una unidad central, se calcula la respuesta y, por fin, se envía la orden al motor. Ese pequeño “viaje burocrático” puede ser suficiente para que el contacto con una superficie caliente, un pellizco mecánico o un golpe termine en una avería.

Con la llegada de los humanoides a entornos menos controlados —hogares, hospitales, espacios de atención al público— el reto deja de ser solo ejecutar tareas programadas. También importa reaccionar con naturalidad, de forma segura, cuando algo sale mal. En ese contexto se enmarca una propuesta descrita por Phys.org y respaldada por un trabajo científico en Proceedings of the National Academy of Sciences (PNAS): una piel robótica capaz de detectar tacto, daño y algo parecido al dolor robótico, con reflejos locales que no dependen de esperar al “cerebro” del robot. Continúa leyendo «Una piel robótica que “duele”: así es el e-skin neuromórfico que da reflejos rápidos a los humanoides»

Aurora Therapeutics: el plan para llevar la edición genética “a medida” a más pacientes

Si la medicina tradicional suele parecerse a comprar ropa por tallas, la nueva ola de terapias personalizadas busca algo más parecido a ir a una sastrería: ajustar cada costura a la persona concreta. En enfermedades raras, esa diferencia no es un capricho; muchas veces es la única opción razonable, porque hay tan pocos pacientes con una mutación específica que hacer ensayos clínicos grandes resulta impracticable. En este contexto se entiende el anuncio de Aurora Therapeutics, una startup cofundada por la Nobel y pionera de CRISPR Jennifer Doudna, que quiere convertir en un modelo comercial lo que hasta ahora ha sido, en gran medida, un esfuerzo casi artesanal de investigación clínica.

La idea de fondo es sencilla de explicar, aunque sea compleja de ejecutar: si un problema genético es una errata concreta en el manual de instrucciones del cuerpo, la edición genética aspira a corregir esa errata directamente, no solo a “poner parches” a sus consecuencias. Lo difícil es hacerlo con seguridad, con calidad industrial y a una velocidad compatible con pacientes que no pueden esperar. Continúa leyendo «Aurora Therapeutics: el plan para llevar la edición genética “a medida” a más pacientes»

Moléculas “cambiaformas” para hardware de IA: cuando la química hace de memoria, lógica y aprendizaje

Durante medio siglo, la electrónica molecular ha tenido una promesa tentadora: construir dispositivos electrónicos a partir de moléculas, igual que hoy se construyen transistores y memorias con silicio. La idea suena elegante, casi minimalista, como sustituir ladrillos por piezas de LEGO mucho más pequeñas. El problema es que, dentro de un dispositivo real, las moléculas no viven aisladas ni se comportan como componentes simples; se influyen entre sí y responden a su entorno de maneras difíciles de anticipar.

Un trabajo difundido por el Indian Institute of Science (IISc) y firmado por un equipo del Centre for Nano Science and Engineering (CeNSE) plantea una vía para convertir ese “caos” en una ventaja: crear dispositivos moleculares capaces de cambiar de función sobre la marcha y servir como bloques para computación neuromórfica, el enfoque que busca que el hardware aprenda de forma parecida al cerebro. La investigación, publicada en la revista Advanced Materials, se apoya en un concepto clave: no se trata solo de imitar la inteligencia con circuitos, sino de codificarla físicamente en el propio material. Continúa leyendo «Moléculas “cambiaformas” para hardware de IA: cuando la química hace de memoria, lógica y aprendizaje»