Pensar en vivir en la Luna suena a postal de ciencia ficción, pero en cuanto uno baja la idea a lo práctico aparece un problema tan básico como implacable: allí no hay aire respirable. La Luna tiene una exosfera tan tenue que, a efectos cotidianos, es como estar en el vacío. Sin una forma de… Continúa leyendo »

Cualquiera que haya trabajado en atención al cliente conoce el dilema: un error evidente se detecta rápido, pero una respuesta “casi correcta” puede colarse con facilidad. En los chatbots basados en modelos de lenguaje (LLM) ese riesgo se multiplica, porque suelen redactar con seguridad incluso cuando les falta un matiz, una condición o una excepción… Continúa leyendo »

La feria CES en Las Vegas se ha convertido muchas veces en un escaparate de promesas, pero en 2026 el espectáculo tuvo un protagonista difícil de ignorar: los robots humanoides. Entre pasillos, stands y demostraciones coreografiadas, aparecieron máquinas que boxean, bailan, doblan toallas y hasta “atienden” tiendas ficticias. La imagen es potente: parece que la… Continúa leyendo »

Repetir el prompt: una forma sorprendentemente simple de mejorar la precisión de los LLM en tareas directas

Durante estos años, optimizar respuestas de un modelo de lenguaje se ha convertido en una especie de cocina experimental: cambias el tono, ajustas instrucciones, añades ejemplos, vuelves a probar. En ese contexto, resulta casi cómico que una técnica tan literal como duplicar la petición —es decir, escribir el mismo texto dos veces seguidas— pueda mejorar el rendimiento en tareas donde no hace falta un razonamiento largo.

La idea es muy simple: el input que normalmente sería <PETICIÓN> pasa a ser <PETICIÓN><PETICIÓN>. No es una reformulación elegante ni un “prompt engineering” sofisticado. Es repetir, tal cual. Y, según los experimentos descritos por investigadores de Google Research, esta repetición puede aumentar de manera notable la precisión en tareas “no razonadoras”, que son justo las que más abundan en producto: extracción de datos, clasificación, respuestas cortas, cumplimiento de instrucciones concretas, recuperación fiel de un detalle dentro de un texto. Continúa leyendo «Repetir el prompt: una forma sorprendentemente simple de mejorar la precisión de los LLM en tareas directas»

Veo 3.1 se refuerza en la Gemini API: más control creativo, vídeo vertical nativo y salto a 4K

Google ha comunicado, a través de su blog The Keyword (13 de enero de 2026), una actualización de Veo 3.1 disponible desde ya en la Gemini API y en Google AI Studio, con el objetivo de ofrecer a los equipos de producto y desarrollo un resultado más “listo para producción”. La idea de fondo es sencilla: si generar vídeo con IA es como cocinar, el modelo no solo recibe ingredientes, sino que aprende a respetar la receta para que el plato salga igual cada vez, incluso cuando haces varias tandas. En la práctica, eso se traduce en mayor consistencia visual, formatos más útiles para redes y mejoras claras de definición.

En el contexto actual, donde muchas empresas prueban generación de vídeo para prototipos, marketing, formación o experiencias interactivas, el salto entre “demo vistosa” y “contenido utilizable” suele estar en detalles que parecen menores: que el personaje no cambie de cara, que el fondo no se transforme sin motivo, que el encuadre no se rompa al adaptarlo a móvil y que la nitidez aguante una pantalla grande. La actualización de Veo 3.1 apunta justo a esos puntos de fricción. Continúa leyendo «Veo 3.1 se refuerza en la Gemini API: más control creativo, vídeo vertical nativo y salto a 4K»

Instagram amplía el control del algoritmo de Reels: qué significa “Your Algo” y cómo puede cambiar tu feed

Instagram está extendiendo a más usuarios una función que, hasta hace poco, sonaba casi a ciencia ficción para una red social masiva: la posibilidad de ajustar de forma directa el algoritmo de Reels. Tras un despliegue inicial en Estados Unidos, la plataforma de Meta está ampliando el acceso de manera global, con una condición importante: por ahora solo está disponible para personas que usan Instagram en inglés. La noticia fue recogida por BetaNews y confirmada por el propio Adam Mosseri, CEO de Instagram, en una publicación en Threads.

Esta expansión llega con un matiz curioso: el anuncio no se hizo en Instagram, sino en la red “vecina” de Meta. Mosseri explicó que “Your Algo” permite afinar los temas que alimentan las recomendaciones de Reels y que, por tiempo limitado, también deja elegir los tres intereses principales que quieres ver más durante 2026. Continúa leyendo «Instagram amplía el control del algoritmo de Reels: qué significa “Your Algo” y cómo puede cambiar tu feed»

Engranajes que se mueven con agua: la apuesta de NYU por máquinas que no se desgastan ni se atascan

Los engranajes llevan tanto tiempo con nosotros que casi los damos por sentados: dos ruedas dentadas se muerden, transmiten fuerza y todo funciona… mientras todo esté perfectamente alineado y limpio. El inconveniente es conocido por cualquiera que haya oído crujir una bicicleta sin grasa o haya sufrido una caja de cambios caprichosa: el contacto sólido contra sólido trae desgaste, calor, necesidad de lubricación y una tolerancia mínima al polvo o a la desalineación.

Ese “mientras” es el talón de Aquiles de muchas máquinas modernas, especialmente en robótica, donde se buscan sistemas más ligeros, silenciosos y capaces de adaptarse a entornos impredecibles. En ese contexto, un equipo de la Universidad de Nueva York (NYU) propone algo que suena casi como un truco de magia mecánica: transmitir movimiento sin dientes y sin contacto directo, usando dinámica de fluidos. Continúa leyendo «Engranajes que se mueven con agua: la apuesta de NYU por máquinas que no se desgastan ni se atascan»

Una cámara dentro de la hoja: así logran ver cómo “respiran” las plantas en tiempo real

Las hojas no son solo “paneles solares” verdes. También son puertas de entrada y salida. Por ellas entra el dióxido de carbono que alimenta la fotosíntesis, y por ellas se escapa el vapor de agua que enfría la planta y, al mismo tiempo, puede dejarla seca si aprieta el calor. Ese intercambio ocurre a través de los estomas, poros microscópicos que funcionan como compuertas regulables: se abren cuando conviene “captar carbono” y se cierran cuando toca “guardar agua”.

La parte difícil es que esa decisión se toma a una escala diminuta y a gran velocidad. Cambia con la luz, la temperatura, la humedad o la concentración de CO₂. Durante décadas, la ciencia ha tenido una especie de dilema: o miraba con detalle el movimiento de los estomas, o medía el resultado de ese movimiento (cuánto CO₂ entra y cuánta agua sale). Tener ambas cosas a la vez, en condiciones controladas, era como intentar escuchar una conversación en una fiesta mientras miras los labios de quien habla y, al mismo tiempo, mides cada palabra con un contador. Continúa leyendo «Una cámara dentro de la hoja: así logran ver cómo “respiran” las plantas en tiempo real»

10 tecnologías emergentes que pueden marcar 2026, según MIT Technology Review

Cada enero, la redacción de MIT Technology Review hace un ejercicio que se parece a revisar el maletero antes de un viaje largo: decidir qué “herramientas” tecnológicas merece la pena llevar porque serán útiles en los próximos años. La edición de 2026 llega tras meses de reporte y debate editorial, y coincide con el 25º año de la lista, un dato que ayuda a leerla con una mezcla sana de ambición y cautela: acertar el futuro es difícil, pero observar tendencias con método suele acertar el rumbo.

La foto general de este año tiene un mensaje claro: la tecnología no avanza solo en apps y gadgets; también se está jugando la partida en infraestructuras que consumen electricidad como si fueran hornos industriales, en laboratorios que editan genes con precisión quirúrgica y en servicios digitales que ya no se conforman con “asistirte”, sino que buscan acompañarte. Continúa leyendo «10 tecnologías emergentes que pueden marcar 2026, según MIT Technology Review»

Paleometabolómica: la “huella química” que convierte los fósiles en diarios íntimos

Imagínate abrir una caja antigua y encontrar dentro no solo huesos, sino pequeñas migas químicas de lo que ocurrió en vida. Algo así es lo que sugiere un trabajo reciente liderado por el antropólogo biológico Tim Bromage (Universidad de Nueva York) y recogido por la revista Science: restos fosilizados de animales de entre 1,3 y 3 millones de años conservan metabolitos, es decir, diminutos productos del metabolismo que el cuerpo genera al comer, crecer, estresarse o combatir infecciones. En su muestra aparece un elefante juvenil de la zona del lago Malawi, fechado en torno a 2,4 millones de años, con señales químicas compatibles con una dieta concreta y con un posible proceso infeccioso en el momento de morir.

La idea tiene algo de “biografía escrita con tinta invisible”. Durante décadas, los fósiles nos han hablado sobre forma, tamaño, locomoción o desgaste dental. Ahora, este enfoque plantea que también podrían contarnos qué se llevaba al estómago un animal, qué tipo de vegetación lo rodeaba e incluso si su sistema inmune estaba en alerta. Continúa leyendo «Paleometabolómica: la “huella química” que convierte los fósiles en diarios íntimos»

Centros de datos hiperescalados para IA: el músculo invisible que entrena modelos gigantes… y su factura energética

Los centros de datos hiperescalados para IA se están convirtiendo en el equivalente tecnológico de una refinería o una acería: instalaciones enormes, planificadas para trabajar sin descanso y orientadas a un objetivo muy concreto, entrenar y ejecutar modelos de lenguaje y otros sistemas de inteligencia artificial a escala descomunal. Donde antes imaginábamos “la nube” como algo etéreo, aquí toma forma de edificios mastodónticos que aparecen en polígonos industriales o en áreas rurales, buscando terreno, conexión eléctrica y permisos con la misma urgencia con la que una ciudad busca agua.

Según MIT Technology Review, esta nueva infraestructura no es solo una ampliación de lo ya conocido: es una especie distinta de supercomputación, diseñada alrededor de chips especializados, redes ultrarrápidas y sistemas de enfriamiento poco habituales fuera de la industria pesada. Continúa leyendo «Centros de datos hiperescalados para IA: el músculo invisible que entrena modelos gigantes… y su factura energética»

OpenAI compra Torch para potenciar ChatGPT Health: el desafío de ordenar nuestros datos médicos

OpenAI ha anunciado la compra de Torch, una startup de salud digital creada en 2025 y formada por un equipo diminuto, de apenas cuatro personas, que se incorporará al completo a la compañía. La cifra exacta no ha sido confirmada oficialmente por OpenAI, pero uno de los cofundadores de Torch ha situado el acuerdo por encima de los 100 millones de dólares y varios medios han hablado de una operación en torno a esa magnitud, en formato de equity.

El movimiento llega pegado a un anuncio todavía más significativo para el público general: el lanzamiento de ChatGPT Health, un espacio específico dentro de ChatGPT pensado para manejar información sanitaria de manera más controlada. En el mensaje con el que OpenAI comunicó la compra, la idea central era clara: unir Torch con ChatGPT Health abre una nueva forma de entender y gestionar la salud desde la conversación con un asistente.

Si todo esto suena ambicioso, conviene aterrizarlo con una imagen cotidiana: muchas personas guardan informes, analíticas, recetas y notas médicas como quien guarda garantías y manuales en un cajón. No falta información; falta orden, continuidad y contexto. Torch apunta justo a ese “cajón”. Continúa leyendo «OpenAI compra Torch para potenciar ChatGPT Health: el desafío de ordenar nuestros datos médicos»

Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo

Durante años, Slackbot fue ese compañero discreto que te recordaba normas de un canal, te sugería archivos o te soltaba avisos como quien deja una nota en la nevera. Salesforce lo ha reconstruido por completo para convertirlo en un agente de IA capaz de buscar información en sistemas corporativos, redactar documentos y ejecutar acciones dentro del flujo de trabajo. Según detalló la compañía en declaraciones recogidas por VentureBeat, la idea es que Slack deje de ser solo un lugar para chatear y pase a actuar como la puerta de entrada al trabajo “agéntico”, esa nueva ola en la que el software no solo responde, también colabora.

La metáfora interna que usaron para explicarlo es bastante gráfica: el Slackbot antiguo era como un triciclo; el nuevo se siente como un coche deportivo. Traducido a la vida real, significa pasar de tareas simples y preprogramadas a un sistema que entiende peticiones en lenguaje natural y sabe moverse por datos dispersos, como si un bibliotecario con súperpoderes pudiera recorrer estanterías, archivadores y conversaciones antiguas en segundos. Continúa leyendo «Slackbot vuelve con traje de agente de IA: la apuesta de Salesforce para que Slack sea el “centro de mando” del trabajo»