Open Notebook: la alternativa local y privada a NotebookLM que deberías conocer

NotebookLM se ha convertido en una referencia en el mundo de la productividad potenciada por inteligencia artificial. Este servicio permite organizar documentos, generar resúcmenes, crear tarjetas de estudio y producir informes personalizados, todo con la ayuda de modelos de lenguaje avanzados (LLMs). El usuario puede subir sus propias fuentes de información, lo que ofrece un control sobre los contenidos, pero no sobre el procesamiento: todo ocurre en la nube.

Para quienes valoran la privacidad como un principio no negociable, ese enfoque presenta un problema evidente. Subir archivos personales, profesionales o confidenciales a un servidor externo es algo que muchos prefieren evitar. Y aunque NotebookLM se puede vincular con modelos locales como Ollama, su uso sigue estando limitado. Continúa leyendo «Open Notebook: la alternativa local y privada a NotebookLM que deberías conocer»

La Vía Láctea, simulada estrella por estrella con IA: un salto sin precedentes en la modelización galáctica

Recrear en un ordenador cada una de las más de 100 mil millones de estrellas que componen nuestra galaxia ha sido, durante años, una especie de meta imposible para los astrofísicos. Una tarea que no solo requería una potencia de cálculo descomunal, sino también un conocimiento preciso de los procesos físicos que operan a distintas escalas, desde las explosiones de supernovas hasta la evolución de la estructura galáctica completa. Sin embargo, investigadores del centro iTHEMS de RIKEN en Japón, junto con colaboradores de la Universidad de Tokio y la Universitat de Barcelona, han logrado lo impensable: una simulación de la Vía Láctea a nivel individual de estrellas, respaldada por inteligencia artificial y completada a una velocidad sin precedentes. Continúa leyendo «La Vía Láctea, simulada estrella por estrella con IA: un salto sin precedentes en la modelización galáctica»

Tensiones energéticas: el auge de los centros de datos de IA y su dependencia de energía renovable

La expansión de los centros de datos impulsados por inteligencia artificial está modificando el paisaje económico y energético mundial a un ritmo sorprendente. Según el informe reciente de la Agencia Internacional de Energía (IEA), se invertirán este año 580.000 millones de dólares en centros de datos, superando por 40.000 millones la inversión global en nuevas exploraciones petroleras. Este dato simboliza el cambio de paradigma: el combustible del siglo XXI ya no se extrae del subsuelo, sino que se procesa en servidores alimentados por algoritmos.

El consumo eléctrico de esta nueva infraestructura plantea tensiones evidentes. Muchos de estos centros se construirán cerca de grandes urbes, lo que intensificará la demanda en redes eléctricas ya saturadas. En regiones como Estados Unidos, que concentra cerca de la mitad de esta demanda, esto podría suponer un reto sistémico. Continúa leyendo «Tensiones energéticas: el auge de los centros de datos de IA y su dependencia de energía renovable»

Blue Origin impulsa la misión ESCAPADE de la NASA con su cohete New Glenn

El segundo vuelo del cohete New Glenn, desarrollado por Blue Origin, marcó un hito significativo al poner en ruta hacia Marte a los dos satélites de la misión ESCAPADE de la NASA. Con un despegue desde la Estación de la Fuerza Espacial de Cabo Cañaveral, Florida, el lanzamiento no solo fue exitoso en su objetivo principal, sino que también demostró avances importantes en la reutilización de cohetes, un aspecto clave para abaratar los costos de acceso al espacio.

La misión ESCAPADE (Escape and Plasma Acceleration and Dynamics Explorers) busca comprender mejor cómo el viento solar ha erosionado la atmósfera de Marte a lo largo del tiempo. Para ello, los dos satélites, apodados Blue y Gold, viajarán durante casi dos años antes de comenzar a orbitar el planeta rojo. Continúa leyendo «Blue Origin impulsa la misión ESCAPADE de la NASA con su cohete New Glenn»

Un nuevo centinela para los océanos: el satélite Sentinel-6B ya está en órbita

Desde hace décadas, el comportamiento de los océanos es uno de los principales indicadores del cambio climático. No sólo porque el nivel del mar aumente progresivamente, sino porque sus variaciones locales pueden tener consecuencias directas sobre ciudades costeras, infraestructuras críticas y actividades económicas. Para mejorar esta comprensión, NASA y sus socios internacionales han lanzado el satélite Sentinel-6B, un instrumento de observación terrestre diseñado para continuar una larga serie de mediciones oceánicas de alta precisión.

Sentinel-6B despegó con éxito a bordo de un cohete Falcon 9 de SpaceX desde la Base de la Fuerza Espacial Vandenberg en California. A una altitud de aproximadamente 1.336 kilómetros, sobrevolará la Tierra unas 13 veces al día, tomando datos que serán esenciales para anticipar desastres naturales y apoyar diversas decisiones comerciales, gubernamentales y científicas. Continúa leyendo «Un nuevo centinela para los océanos: el satélite Sentinel-6B ya está en órbita»

Google da un gran paso con su algoritmo cuántico Quantum Echoes

Google ha presentado un avance que podría cambiar el ritmo del desarrollo en computación cuántica: un algoritmo denominado Quantum Echoes, capaz de superar en velocidad a los superordenadores más potentes del mundo por un factor de 13.000 veces. Aunque esta afirmación suena abrumadora, se apoya en un concepto sólido: por primera vez, un algoritmo cuántico ha producido resultados verificables y repetibles, un requisito crítico para que esta tecnología salga del laboratorio y encuentre aplicaciones reales.

Este logro se ha conseguido gracias al chip Willow, la más reciente propuesta de Google Quantum AI, que ha servido como plataforma de pruebas para el nuevo algoritmo. Quantum Echoes es un tipo de algoritmo conocido como OTOC (correlador fuera de orden temporal), diseñado para analizar el estado de sistemas cuánticos y evaluar sus niveles de caos. Continúa leyendo «Google da un gran paso con su algoritmo cuántico Quantum Echoes»

JWST y las primeras estrellas del universo: una ventana al amanecer cósmico

El telescopio espacial James Webb (JWST), esa joya tecnológica que ha transformado la forma en que observamos el universo, podría haber dado con uno de los hallazgos más esperados por los astrónomos: señales de las primeras estrellas que existieron, conocidas como estrellas de Población III. Según un artículo publicado en The Astrophysical Journal Letters, un equipo de investigadores habría detectado indicios de estas estrellas en un cúmulo galáctico llamado LAP1-B, ubicado a 13.000 millones de años luz de distancia.

Estas estrellas, que se formaron poco después del Big Bang, nunca han sido observadas directamente. Sin embargo, los nuevos datos captados por el JWST abren la posibilidad de que finalmente estemos viendo la luz de esos astros primigenios que dieron forma al cosmos tal como lo conocemos. Continúa leyendo «JWST y las primeras estrellas del universo: una ventana al amanecer cósmico»

¿Cómo funcionan los detectores de contenido generado por inteligencia artificial?

La proliferación de herramientas de inteligencia artificial ha provocado que cada vez más personas recurran a ellas para generar contenido escrito, ya sea por motivos profesionales, educativos o creativos. Este auge ha puesto en el centro del debate la necesidad de diferenciar lo creado por humanos de lo producido por máquinas. Para ello, han surgido detectores de contenido generado por IA que intentan cumplir esta tarea, aunque no sin dificultades.

En el caso del texto, estos sistemas suelen buscar lo que se conoce como «patrones característicos» del lenguaje artificial. Algunos indicios comunes son la excesiva coherencia o la previsibilidad en las frases, el uso reiterado de ciertas palabras que se han vuelto populares en contenidos de IA (como «explora», «profundiza» o «destaca») y estructuras gramaticales demasiado pulidas.

El razonamiento detrás de estos detectores es simple: los modelos de lenguaje como ChatGPT tienden a elegir la opción más probable en cada palabra. Esto genera un estilo uniforme, con menos errores y con transiciones que podrían parecer más artificiales que humanas. Sin embargo, esta línea divisoria se está volviendo cada vez más difusa. A medida que los modelos se perfeccionan y los usuarios humanos adoptan ciertos giros propios del estilo generado por IA, los detectores se ven en apuros para trazar límites claros. Continúa leyendo «¿Cómo funcionan los detectores de contenido generado por inteligencia artificial?»

Amazon Leo: nuevo enfoque satelital con prioridades comerciales por encima de la conectividad accesible

Amazon ha dejado atrás el nombre Project Kuiper para su red de internet satelital, adoptando ahora el más directo y técnico «Leo», en referencia a la ubicación de estos satélites en la órbita terrestre baja (LEO, por sus siglas en inglés). Aunque desde el inicio el nombre Kuiper había sido presentado como temporal, la transición marca algo más profundo que una simple estrategia de marca: un cambio de enfoque comercial y comunicativo.

Durante sus primeros años, Project Kuiper se presentaba como una iniciativa con tintes sociales. Su narrativa giraba en torno a la promesa de llevar conectividad asequible y rápida a comunidades no atendidas o subatendidas. Incluso se destacaba la experiencia de Amazon con productos de bajo costo como el Echo Dot y el Fire TV Stick, como argumento para posicionarse como proveedor de internet a precios accesibles. Continúa leyendo «Amazon Leo: nuevo enfoque satelital con prioridades comerciales por encima de la conectividad accesible»

Cuando la inteligencia artificial difama: el caso de Wolf River Electric y la pregunta por la responsabilidad legal

Wolf River Electric, una empresa instaladora de paneles solares en Minnesota, se vio atrapada en una situación insólita: varios clientes comenzaron a cancelar contratos tras encontrar en Google resultados que aseguraban que la compañía había llegado a un acuerdo legal con la fiscalía del estado por prácticas comerciales engañosas. El problema es que eso nunca ocurrió.

Cuando los ejecutivos de la empresa buscaron su propio nombre en Google, encontraron que la información falsa aparecía de forma destacada, generada por Gemini, la tecnología de inteligencia artificial del buscador. A pesar de intentar corregir los datos a través de las herramientas de Google, no obtuvieron resultados. Las cancelaciones seguían acumulándose, junto con pérdidas de clientes potenciales que habían sido influidos por la información errónea.

El daño fue tan significativo que la empresa, fundada por amigos cercanos en 2014, decidió demandar a Google por difamación. Según Vladimir Marchenko, CEO de la compañía, las consecuencias económicas fueron devastadoras: estiman que perdieron cerca de 25 millones de dólares en ventas durante 2024. Continúa leyendo «Cuando la inteligencia artificial difama: el caso de Wolf River Electric y la pregunta por la responsabilidad legal»