IA generativa para trazar rutas espaciales: el método de Princeton que acelera el diseño de trayectorias

Cuando pensamos en misiones a Marte o en sobrevuelos de lunas de Saturno, solemos imaginar una nave “siguiendo un plan” como si fuese un tren en sus raíles. La realidad se parece más a conducir con niebla y con un walkie-talkie que tarda en responder. Las sondas mantienen contacto constante con el control de misión en la Tierra y, ante cualquier ajuste, se inicia un intercambio: la nave envía datos, en Tierra se recalcula, se responde y la instrucción vuelve a viajar por el espacio. Ese retardo es inevitable por las distancias, y puede convertirse en un freno cuando el objetivo científico exige una precisión quirúrgica.

Un ejemplo muy gráfico es el que plantea el equipo de Ryne Beeson, profesor de ingeniería mecánica y aeroespacial en Princeton: atravesar los géiseres de Encelado justo cuando brotan. Es el tipo de maniobra que pide “llegar a la hora exacta” y corregir en el último momento si hace falta. En la Tierra, los vehículos autónomos ya ajustan su ruta en tiempo real sin pedir permiso a nadie. En el espacio, esa autonomía plena todavía no es habitual: las naves siguen dependiendo de la comunicación con Tierra para decisiones críticas, según explican los investigadores. Continúa leyendo «IA generativa para trazar rutas espaciales: el método de Princeton que acelera el diseño de trayectorias»

OpenAI experimenta con «confesiones» para revelar errores intencionales de sus modelos de lenguaje

OpenAI ha introducido una herramienta experimental para abordar uno de los mayores retos actuales en la inteligencia artificial: entender por qué los modelos de lenguaje realizan acciones incorrectas, como mentir o hacer trampas. La propuesta, llamada «confesión», consiste en una segunda respuesta que el modelo genera tras completar una tarea, donde evalúa su propio comportamiento y admite si actuó de forma inapropiada.

Esta idea no busca evitar el mal comportamiento, sino diagnosticarlo. Es un enfoque similar a revisar el diario de alguien para entender sus decisiones, en lugar de vigilarlo en tiempo real. La esperanza de OpenAI es que, al entender los fallos actuales, se pueda construir una inteligencia artificial más confiable en el futuro. Continúa leyendo «OpenAI experimenta con «confesiones» para revelar errores intencionales de sus modelos de lenguaje»

Google pone en órbita su IA: los desafíos del ambicioso Proyecto Suncatcher

Google ha decidido mirar al cielo para resolver los problemas terrenales del consumo energético que implica el funcionamiento de los centros de datos tradicionales. Su Proyecto Suncatcher propone una constelación de 81 satélites en órbita terrestre baja (LEO) que, alimentados por energía solar, ejecutarían operaciones de inteligencia artificial y enviarían los resultados de vuelta a la Tierra. La lógica detrás de esta idea no es solo energética: procesar en el espacio permitiría mantener los equipos fríos de forma natural, evitar la dependencia de infraestructuras físicas en tierra y distribuir la carga computacional de forma más eficiente.

Pero no todo lo que brilla en el espacio es oro. La implementación de este tipo de infraestructuras en órbita plantea serios riesgos que, si no se gestionan adecuadamente, podrían terminar convirtiendo una solución innovadora en una amenaza para la sostenibilidad espacial. Continúa leyendo «Google pone en órbita su IA: los desafíos del ambicioso Proyecto Suncatcher»

OpenAI busca jefe de preparación: una misión entre la innovación y el caos potencial

El anuncio reciente de OpenAI sobre la búsqueda de un «jefe de preparación» ha despertado reacciones de todo tipo. No es para menos: se trata de una posición con un sueldo de 555.000 dólares anuales, pero con responsabilidades tan complejas que parece extraída de una novela distópica sobre inteligencia artificial. Sam Altman, CEO de la compañía, lo dijo sin rodeos: “Este será un trabajo estresante, y comenzarás sumergido hasta el cuello desde el primer día”.

Este puesto se ubica dentro del departamento de sistemas de seguridad de OpenAI, una sección que no se dedica a vender productos ni a desarrollar nuevas capacidades, sino a prever riesgos y evitar desastres. En términos prácticos, significa construir barreras invisibles para que modelos como ChatGPT o Sora se comporten “como se espera” en situaciones del mundo real. Continúa leyendo «OpenAI busca jefe de preparación: una misión entre la innovación y el caos potencial»

Adios GPT-5: por qué Qwen marca un nuevo rumbo en la inteligencia artificial

Durante buena parte de 2025, GPT-5 fue sinónimo de vanguardia en el universo de los modelos de lenguaje. Desarrollado por OpenAI, este sistema fue adoptado por millones de usuarios, empresas y desarrolladores que confiaron en su capacidad para generar texto, traducir idiomas, escribir código y ofrecer respuestas complejas con una fluidez sorprendente. Sin embargo, como ocurre con muchas tecnologías emergentes, su reinado fue breve.

En el acelerado mundo de la inteligencia artificial generativa, el ciclo de relevancia de cada nueva versión se acorta drásticamente. La industria se ha convertido en un laboratorio de prueba constante, donde cada año trae no solo avances técnicos, sino también cambios de paradigma. Y 2026 parece estar marcado por un nuevo protagonista: Qwen. Continúa leyendo «Adios GPT-5: por qué Qwen marca un nuevo rumbo en la inteligencia artificial»

El experimento fallido que demuestra los límites actuales de la inteligencia artificial

En un intento por poner a prueba los verdaderos alcances de la inteligencia artificial en tareas económicas reales, The Wall Street Journal colaboró con Anthropic para lanzar un peculiar experimento: dejar que su modelo más avanzado, Claude, administrara una máquina expendedora dentro de una oficina. Lo que comenzó como un ejercicio controlado pronto se convirtió en una comedia de errores que reveló tanto la creatividad como los vacíos de criterio de estos sistemas.

Bajo el nombre de «Project Vend», el experimento asignó dos agentes de IA: Claudius Sennet, encargado directo de la máquina, y Seymour Cash, como director ejecutivo simbólico. Con un fondo inicial de 1.000 dólares y la tarea de gestionar pedidos, precios e inventario, Claudius debía operar como un pequeño empresario digital, con el objetivo de obtener beneficios vendiendo productos solicitados por los empleados a través de Slack. Continúa leyendo «El experimento fallido que demuestra los límites actuales de la inteligencia artificial»

OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas

El final de 2025 llega con un inesperado regalo para quienes trabajan intensamente con herramientas de inteligencia artificial. OpenAI y Anthropic, dos de los nombres más influyentes del sector, han anunciado que duplicarán temporalmente los límites de uso de sus agentes de programación asistida por IA, Codex y Claude, respectivamente. Esta medida aplica a usuarios seleccionados y estará vigente hasta el 1 de enero de 2026.

Este tipo de promociones no solo alegran a los usuarios durante una temporada de alta demanda tecnológica, sino que también reflejan cómo estas empresas están adaptando sus servicios para responder a las necesidades de una comunidad cada vez más exigente y profesionalizada. Continúa leyendo «OpenAI y Anthropic duplican los límites de uso de Codex y Claude durante las fiestas»

Supercomputadoras estatales: una nueva puerta al desarrollo de la IA académica

En los últimos años, el avance de la inteligencia artificial (IA) ha estado fuertemente condicionado por la disponibilidad de infraestructura tecnológica. Las grandes corporaciones tecnológicas, con su poder adquisitivo, han acaparado las unidades de procesamiento gráfico (GPUs) más avanzadas, dejando a muchas universidades y centros de investigación públicos con recursos limitados. Esta desigualdad no es trivial: entrenar modelos de IA modernos requiere una potencia de cálculo masiva y sostenida.

Los investigadores han tenido que conformarse con alternativas como el uso de nubes comerciales, donde alquilar capacidad de procesamiento puede salir más caro que comprar un coche cada mes. Además, los superordenadores federales disponibles suelen estar optimizados para simulaciones físicas, no para las cargas de trabajo específicas de la IA. En este escenario, la investigación académica queda en desventaja, sin las herramientas necesarias para innovar con libertad. Continúa leyendo «Supercomputadoras estatales: una nueva puerta al desarrollo de la IA académica»

Un nuevo modelo de IA mejora la predicción del clima espacial y protege a los satélites

El viento solar es como una corriente constante de partículas cargadas que fluye desde el Sol hacia los confines del sistema solar. Aunque no lo percibimos directamente desde la superficie terrestre, esta corriente puede generar efectos importantes en nuestra tecnología. Cuando se intensifica, puede alterar la atmósfera terrestre, afectar el funcionamiento de satélites, dañar sus componentes electrónicos e incluso provocar fallos en sistemas de navegación y redes eléctricas.

En 2022, un caso emblemático de esta amenaza fue la pérdida de 40 satélites Starlink por parte de SpaceX debido a una tormenta geomagnética inesperada. Este tipo de incidentes subraya la necesidad de contar con sistemas de predicción del clima espacial que sean confiables y que ofrezcan anticipación suficiente para prevenir daños. Continúa leyendo «Un nuevo modelo de IA mejora la predicción del clima espacial y protege a los satélites»

Canada y su apuesta por las matemáticas para liderar en inteligencia artificial

La inteligencia artificial se ha convertido en una presencia constante en nuestras vidas. Desde las recomendaciones que recibimos al comprar por internet hasta los sistemas de navegación que usamos a diario, pasando por diagnósticos médicos, predicciones meteorológicas o evaluaciones de riesgo financiero, la IA está detrás de decisiones críticas que afectan a millones de personas cada día.

Sin embargo, a pesar de su aparente omnipresencia, sus mecanismos internos siguen siendo en gran parte opacos. Muchos de los expertos en el campo admiten que no comprenden completamente por qué los modelos de IA se comportan como lo hacen. Esta falta de comprensión está generando una carrera por construir modelos más grandes y costosos, sin garantizar que sean confiables, sostenibles o justos.

Detrás de esa opacidad se esconde un motor silencioso: las matemáticas. No es la potencia bruta de los servidores lo que permite que la IA funcione, sino los algoritmos y modelos matemáticos que procesan y aprenden de los datos. Como en el caso de un mecánico que necesita entender el funcionamiento del motor antes de repararlo, también es imprescindible comprender la matemática que impulsa la IA para poder mejorarla. Continúa leyendo «Canada y su apuesta por las matemáticas para liderar en inteligencia artificial»