Cómo la inteligencia artificial está transformando la propulsión espacial

La carrera por conquistar el espacio está viviendo una nueva etapa, marcada por misiones ambiciosas que van desde bases lunares hasta la colonización de Marte. Sin embargo, uno de los grandes obstáculos sigue siendo el mismo desde los primeros vuelos espaciales: la propulsión. No basta con tener cohetes potentes; hace falta hacerlos más eficientes, seguros y adaptables para trayectos cada vez más largos y complejos. Es en este contexto donde la inteligencia artificial (IA), y en particular el aprendizaje por refuerzo, está cambiando las reglas del juego. Continúa leyendo «Cómo la inteligencia artificial está transformando la propulsión espacial»

Derrotando la no determinación en la inferencia de modelos de lenguaje

La reproducibilidad ha sido siempre un pilar de la investigación científica, pero al trabajar con modelos de lenguaje grandes (LLM), esta tarea se complica más de lo que parece. Aunque podría suponerse que ajustar la temperatura a cero garantizaría respuestas repetibles, en la práctica, los resultados pueden variar incluso en condiciones aparentemente idénticas. Continúa leyendo «Derrotando la no determinación en la inferencia de modelos de lenguaje»

La inteligencia artificial logra controlar satélites en órbita: un hito para la autonomía espacial

La inteligencia artificial ha dado un paso significativo en su aplicación espacial. Un equipo de investigación de la Universidad de Würzburg (JMU), en Alemania, logró por primera vez que un satélite sea completamente controlado por una IA mientras se encontraba en órbita. Este logro, conseguido mediante el nanosatélite InnoCube, marca un punto de inflexión hacia sistemas espaciales verdaderamente autónomos.

Durante una ventana de comunicación del 30 de octubre de 2025, el satélite ejecutó una maniobra completa de orientación usando inteligencia artificial. La IA dirigió los ruedas de reacción del satélite para modificar su orientación desde una posición inicial hasta otra predeterminada. La operación fue exitosa y se repitió en varias ocasiones, lo que demostró la robustez del sistema. Continúa leyendo «La inteligencia artificial logra controlar satélites en órbita: un hito para la autonomía espacial»

Silicon Valley apuesta por los entornos de entrenamiento para agentes de IA

Los agentes de inteligencia artificial que prometen hacer tareas por nosotros, desde programar hasta comprar por internet, están lejos de alcanzar ese ideal de autonomía que muchos CEO de tecnológicas han imaginado. Si bien modelos como ChatGPT o Comet ya muestran destellos de esa visión, siguen siendo limitados cuando se enfrentan a tareas complejas en entornos reales. Ante este reto, los líderes de la industria están apostando por un nuevo enfoque: los entornos de aprendizaje por refuerzo (o entornos RL, por sus siglas en inglés).

Estos entornos funcionan como simuladores sofisticados donde los agentes pueden practicar tareas paso a paso, recibiendo recompensas por sus aciertos y aprendiendo de sus errores. Es el equivalente digital a poner a un aprendiz en un laboratorio donde puede equivocarse sin consecuencias reales, pero con una supervisión que ajusta constantemente su formación. Continúa leyendo «Silicon Valley apuesta por los entornos de entrenamiento para agentes de IA»

La IA que aprende a razonar por su cuenta: el caso de DeepSeek-R1

La inteligencia artificial ha recorrido un largo camino desde los modelos basados en reglas hasta los sistemas actuales capaces de generar texto, programar y resolver problemas complejos. Sin embargo, uno de los mayores retos pendientes ha sido enseñar a las máquinas a razonar, es decir, a pensar paso a paso para llegar a una solución, como lo haría una persona. Ahora, un avance publicado en la revista Nature marca un punto de inflexión en ese camino: el modelo DeepSeek-R1, desarrollado por la empresa china DeepSeek AI, ha demostrado que es posible que una IA aprenda a razonar sin necesidad de intervención humana directa. Continúa leyendo «La IA que aprende a razonar por su cuenta: el caso de DeepSeek-R1»

Un robot baterista que aprende a tocar como un humano gracias a la inteligencia artificial

Imaginar a un robot humanoide tocando la batería en un concierto de rock puede parecer una escena sacada de una película de ciencia ficción. Sin embargo, esta imagen está mucho más cerca de la realidad de lo que pensamos. Un equipo de investigadores en Suiza e Italia ha desarrollado Robot Drummer, un sistema que combina robótica y aprendizaje por refuerzo para que un humanoide no solo toque la batería con precisión, sino que también adquiera movimientos y estrategias propias de un baterista humano.

Este avance no solo abre la puerta a nuevas formas de entretenimiento, sino que también plantea un futuro en el que las máquinas podrían participar activamente en tareas creativas, algo que hasta ahora había sido terreno exclusivo de las personas. Continúa leyendo «Un robot baterista que aprende a tocar como un humano gracias a la inteligencia artificial»

El futuro incierto de los modelos de IA con capacidad de razonamiento

En los últimos años, los modelos de inteligencia artificial centrados en el razonamiento han demostrado avances sorprendentes. Herramientas como el modelo o3 de OpenAI han sobresalido en pruebas que evalúan habilidades matemáticas y de programación, lo que ha despertado entusiasmo en el sector tecnológico. A diferencia de los modelos convencionales, estos sistemas son capaces de aplicar más potencia de cálculo a problemas complejos, obteniendo así resultados más precisos, aunque con un coste temporal y computacional mucho mayor. Continúa leyendo «El futuro incierto de los modelos de IA con capacidad de razonamiento»

DeepSeek y Tsinghua se unen para crear modelos de IA que aprenden por sí solos

La inteligencia artificial avanza a pasos cada vez más firmes y veloces. Esta vez, la atención está puesta en DeepSeek, una startup china que ha generado revuelo desde inicios del año con su propuesta de IA de bajo costo y alto rendimiento. En colaboración con investigadores de la prestigiosa Universidad de Tsinghua, están desarrollando modelos que no solo razonan mejor, sino que aprenden a mejorar por sí mismos mientras trabajan.

Este nuevo enfoque tiene un nombre técnico: DeepSeek-GRM, que significa Generalist Reward Modeling o «modelo generalista de recompensas». Y aunque suene complejo, su objetivo es simple: que la IA aprenda como un humano que recibe consejos, se autocorrige y mejora cada vez más con la práctica.

Vamos a desglosarlo para entender qué significa todo esto, por qué es importante y cómo podría cambiar la forma en que usamos la inteligencia artificial en el día a día.

¿Qué es un modelo de recompensa y por qué importa?

Imagina que estás enseñando a un niño a andar en bicicleta. Cada vez que lo hace bien, le das una palabra de aliento o una sonrisa. Si comete un error, lo corriges con cuidado. Así, poco a poco, mejora.

Los modelos de recompensa en IA funcionan de forma parecida. Se les enseña qué tipo de respuestas o acciones son «buenas» y cuáles no lo son. A esto se le llama aprendizaje por refuerzo (reinforcement learning, en inglés). Es una técnica clave para que la IA no solo procese datos, sino que tome decisiones más acertadas en función de lo que ha aprendido.

Hasta ahora, esta técnica se usaba en contextos muy específicos, como juegos o tareas matemáticas. Pero escalarla a situaciones más generales y complejas (como conversar con humanos o entender textos ambiguos) ha sido un reto. Aquí es donde entra DeepSeek-GRM.

¿Qué propone DeepSeek-GRM?

El avance principal de DeepSeek-GRM está en un nuevo método que han llamado «self-principled critique tuning». En palabras más sencillas, es como si la IA desarrollara una especie de voz interna crítica que la guía a mejorar sus respuestas en tiempo real, sin necesidad de volver a ser entrenada desde cero.

Pongamos un ejemplo cotidiano: imagina que usas un asistente virtual y le preguntas por un restaurante cercano. Si sugiere uno que ya está cerrado, y tú le corriges, este sistema aprendería de ese error en ese mismo momento, ajustando su comportamiento futuro de forma autónoma y precisa.

Esto implica dos grandes beneficios:

  1. Mayor alineación con preferencias humanas: los modelos pueden adaptar sus respuestas a lo que realmente espera el usuario.

  2. Menor necesidad de recursos computacionales: al no tener que rehacer todo el entrenamiento desde cero, el proceso es más eficiente y ecológico.

¿Qué diferencia a DeepSeek de otros actores del sector?

DeepSeek no está sola en esta carrera. Empresas como OpenAI, Meta y Alibaba también están explorando la idea de que los modelos de IA puedan aprender en el acto, mientras realizan tareas.

Pero hay un factor que hace destacar a DeepSeek: su apuesta por modelos más ligeros y eficientes, usando una arquitectura llamada Mixture of Experts (MoE). Esta técnica permite que solo ciertas partes del modelo trabajen en cada momento, como si un equipo de expertos internos se turnara para resolver lo que mejor saben hacer.

Meta, por ejemplo, acaba de lanzar Llama 4, su nuevo modelo de IA, también basado en MoE. Pero incluso ellos han comparado sus avances con los de DeepSeek, reconociendo su eficiencia. Esto dice mucho del impacto que está teniendo esta startup con sede en Hangzhou.

¿Por qué importa que sea de código abierto?

Otro punto clave es que DeepSeek-GRM será modelo de código abierto, lo que significa que cualquier desarrollador, empresa o investigador podrá estudiar su funcionamiento, adaptarlo y usarlo libremente.

Esto es importante por varias razones:

  • Fomenta la innovación colaborativa: al compartir el conocimiento, se acelera el desarrollo de nuevas aplicaciones prácticas.

  • Permite auditorías externas: otros expertos pueden revisar el código y asegurarse de que la IA se comporta de forma ética y transparente.

  • Reduce la dependencia de grandes corporaciones: más jugadores pueden acceder a tecnología avanzada sin pagar altos costos.

Un paso hacia una inteligencia artificial más humana

Más allá de la técnica, el objetivo de fondo es acercar la inteligencia artificial al comportamiento humano. Que no solo responda rápido, sino que entienda el contexto, reconozca errores y se adapte con empatía.

La colaboración entre DeepSeek y la Universidad de Tsinghua es una muestra de cómo la academia y la industria pueden ir de la mano para resolver problemas reales. Al reducir el uso de recursos, hacer los modelos más comprensibles y permitir que aprendan por sí solos, están sentando las bases para una nueva generación de IA más sostenible, accesible y útil.

Este tipo de avances no solo beneficiará a empresas tecnológicas. También podría tener un impacto tangible en sectores como la educación, la salud, el comercio y la administración pública. Imagina sistemas educativos personalizados que se adaptan a cada alumno o asistentes médicos que aprenden de cada paciente para mejorar su diagnóstico.

¿Qué sigue para DeepSeek?

Aunque aún no se ha anunciado una fecha para el lanzamiento de su próximo modelo insignia, está claro que DeepSeek está marcando su propio camino. Al combinar una fuerte base de investigación con decisiones estratégicas como el código abierto y el bajo consumo de recursos, esta startup china está demostrando que hay otras formas de avanzar en inteligencia artificial más allá de las grandes marcas estadounidenses.

El camino hacia una IA verdaderamente útil y ética es largo, pero pasos como este nos acercan a ese horizonte.

Dreamer: la inteligencia artificial de Google que aprende por sí sola jugando Minecraft

¿Te imaginas una inteligencia artificial que aprende sin que nadie la entrene directamente, como si fuera un niño curioso que explora el mundo por sí mismo? Así funciona Dreamer, el nuevo sistema desarrollado por Google DeepMind, capaz de dominar Minecraft en apenas nueve días sin ayuda externa. Pero esto no se trata solo de videojuegos: es una ventana hacia un futuro donde las máquinas pueden mejorar sus habilidades por sí mismas para desenvolverse en el mundo real.

Continúa leyendo «Dreamer: la inteligencia artificial de Google que aprende por sí sola jugando Minecraft»

SEARCH-R1: La nueva técnica que permite a los modelos de lenguaje pensar y buscar al mismo tiempo

Los modelos de lenguaje grande (LLM) han evolucionado a pasos agigantados en los últimos años. Hoy en día son capaces de redactar textos, resolver problemas y mantener conversaciones de forma sorprendentemente natural. Pero hay un terreno donde aún cojeaban: integrar información externa y actualizada de forma fluida en su proceso de razonamiento.

¿El problema? Aunque estas inteligencias artificiales pueden razonar, a menudo lo hacen con conocimientos que se quedaron congelados en el tiempo, limitados a la fecha de su último entrenamiento. Esto es como intentar resolver un crucigrama con un diccionario de hace diez años: puede que aciertes algunas, pero otras estarán completamente desactualizadas.

Desde WWWhatsnew.com venimos siguiendo de cerca este tipo de desafíos, y hoy nos parece interesante destacar una solución prometedora: SEARCH-R1, una técnica desarrollada por investigadores de la Universidad de Illinois en Urbana-Champaign y la Universidad de Massachusetts Amherst. ¿Qué hace especial a SEARCH-R1? Permite que un LLM no solo razone, sino que también realice búsquedas en tiempo real mientras piensa, integrando los resultados directamente en su línea de razonamiento.

Continúa leyendo «SEARCH-R1: La nueva técnica que permite a los modelos de lenguaje pensar y buscar al mismo tiempo»