Si juegas en PC y tienes una GeForce RTX, esta semana toca mirar el panel de control: NVIDIA ha empezado a desplegar DLSS 4.5 para todos los usuarios de su aplicación oficial. Según lo publicado por Engadget y lo que comunica la propia compañía, el lanzamiento llega poco después de que la versión se presentara… Continúa leyendo »

Durante 2025, la inteligencia artificial no solo avanzó: también cambió la forma en que la industria se explica a sí misma. Cada anuncio venía con una palabra nueva, cada debate con una etiqueta pegadiza, cada polémica con un término que se repetía hasta quedarse. MIT Technology Review reunió en su repaso de fin de año… Continúa leyendo »

Google acaba de presentar Personal Intelligence, una función que permite que Gemini responda de forma más personalizada conectándose a información de tu cuenta, como Gmail, Google Photos, Search y tu historial de YouTube. La promesa suena muy tentadora: que el asistente deje de ser un “buscador con esteroides” y empiece a comportarse como alguien que… Continúa leyendo »

Wikimedia busca que la IA pague su parte: acuerdos con Amazon, Meta y Microsoft para acceder a Wikipedia a gran escala

Cuando Wikipedia sopla 25 velas, la celebración llega acompañada de una preocupación muy práctica: quién sostiene la factura cuando medio planeta —y, ahora, una parte importante de la industria de la inteligencia artificial— bebe de sus contenidos a una velocidad inédita. La fundación Wikimedia, matriz del proyecto, ha anunciado acuerdos con varias compañías centradas en IA como Amazon, Meta, Microsoft, Perplexity y otras para ofrecerles un acceso más directo y “de alta capacidad” al conocimiento alojado en sus proyectos, incluyendo la propia Wikipedia. La noticia se ha conocido a través de Engadget, que contextualiza el movimiento como una forma de compensar costes derivados del uso masivo de sus datos por parte de chatbots y sistemas basados en modelos de lenguaje. Fuentes como The Verge y Reuters han aportado matices relevantes sobre el calendario y la lógica económica detrás de estas alianzas. Continúa leyendo «Wikimedia busca que la IA pague su parte: acuerdos con Amazon, Meta y Microsoft para acceder a Wikipedia a gran escala»

OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA

El 15 de enero de 2026 se hizo pública la participación de OpenAI en la ronda semilla de Merge Labs. El mensaje central no gira en torno a un dispositivo concreto, sino a una idea histórica: cuando cambia la forma de comunicarnos con una máquina, cambia la potencia de lo que podemos hacer con ella. Es un patrón que se repite con insistencia. El teclado permitió “hablar” con los ordenadores con precisión; el ratón convirtió la pantalla en un espacio navegable; la pantalla táctil acercó la informática al gesto natural de señalar; la voz empezó a convertir la conversación en interfaz. En ese mismo hilo, OpenAI encuadra las interfaces cerebro-computadora como un nuevo paso para expresar intención de forma más directa.

Visto con un ejemplo cotidiano, es la diferencia entre explicar a alguien por teléfono cómo llegar a tu casa o enviarle tu ubicación exacta. Los dos métodos comunican, pero uno reduce fricción y malentendidos. OpenAI sugiere que las BCI podrían reducir fricción entre lo que una persona quiere hacer y lo que un sistema de IA entiende, abriendo nuevas posibilidades para comunicarse, aprender e interactuar con tecnología. Continúa leyendo «OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA»

FluentVox: texto a voz con IA en Laravel con clonado de voz y aceleración por GPU

FluentVox es un paquete para Laravel que lleva la síntesis de voz (text-to-speech, TTS) a un terreno muy familiar para quienes trabajan con este framework: una API fluida, encadenable y con “sensación Laravel”. La propuesta es clara: envolver el motor Chatterbox de Resemble AI en una capa de PHP que permita generar audio desde texto con una experiencia más cercana a construir una consulta Eloquent que a pelearse con scripts dispersos.

El anuncio llega desde Laravel News, donde se presenta como una opción pensada para uso real en producción, no como una demo. El detalle importante es ese “pensado para producción”: incluye detección automática del hardware disponible, descarga de modelos, herramientas de diagnóstico y un flujo de instalación que intenta quitarle dramatismo a todo lo que normalmente acompaña al TTS moderno. La fuente original sitúa a Resemble AI como el motor subyacente y a FluentVox como el puente “laravelizado” que ordena el caos. Continúa leyendo «FluentVox: texto a voz con IA en Laravel con clonado de voz y aceleración por GPU»

Pipit: dictado gratuito y privado en Mac que también entiende órdenes de voz

Hablarle al ordenador para que escriba por ti ha pasado muchos años en esa categoría de “suena bien, pero no termina de funcionar”. O fallaba con acentos y ritmos naturales, o era caro, o exigía enviar tu voz a servidores remotos con la misma alegría con la que uno le contaría un secreto a un desconocido en el metro. Lo interesante de Pipit es que cambia el enfoque: es una app gratuita para macOS centrada en voz a texto que funciona offline, lo que la vuelve especialmente atractiva para quien valora la privacidad.

La propuesta se entiende con una metáfora sencilla: si el dictado en la nube es como pedirle a alguien que transcriba tu audio en otra habitación (y confiar en que no copie nada), el dictado local es como tener una libreta en tu bolsillo. Nadie más la ve, nadie la procesa, nadie la guarda fuera de tu control. Según contó Lifehacker en un artículo firmado por Justin Pot, Pipit transcribe sin conexión y, por tanto, mantiene el audio en tu propio equipo, sin depender de servicios externos para lo básico. Continúa leyendo «Pipit: dictado gratuito y privado en Mac que también entiende órdenes de voz»

El glosario de la IA en 2025: 14 términos que se colaron en todas las conversaciones

Durante 2025, la inteligencia artificial no solo avanzó: también cambió la forma en que la industria se explica a sí misma. Cada anuncio venía con una palabra nueva, cada debate con una etiqueta pegadiza, cada polémica con un término que se repetía hasta quedarse. MIT Technology Review reunió en su repaso de fin de año las expresiones que dominaron el calendario, y lo curioso es que, juntas, funcionan como una radiografía de prioridades: ambición tecnológica, costos descomunales, batallas legales, ansiedad social y un internet cada vez más difícil de distinguir de su parodia. Continúa leyendo «El glosario de la IA en 2025: 14 términos que se colaron en todas las conversaciones»

Un plano en 4D del genoma humano: cómo el plegado del ADN decide qué genes hablan y cuáles callan

Cuando pensamos en el ADN, solemos imaginar una especie de “cinta” con instrucciones escritas. Esa imagen funciona para entender la secuencia genética, pero se queda corta para explicar cómo opera una célula real. Dentro del núcleo, el ADN no está extendido como un hilo sobre la mesa: está empaquetado y plegado de forma dinámica, como si guardáramos un mapa gigante doblado muchas veces y, según la necesidad, abriéramos justo la zona que nos interesa. Ese gesto cotidiano es una metáfora bastante fiel: el modo en que el genoma se pliega condiciona qué partes quedan accesibles y cuáles quedan escondidas, y eso influye directamente en la expresión génica.

La novedad de los últimos años es que la biología está pasando de leer el genoma como un texto a comprenderlo también como una arquitectura. En ese contexto, un trabajo reciente presenta los mapas más completos hasta ahora sobre cómo se organiza el genoma humano en tres dimensiones y cómo esa organización cambia con el tiempo, un enfoque que se suele describir como nucleoma 4D. Continúa leyendo «Un plano en 4D del genoma humano: cómo el plegado del ADN decide qué genes hablan y cuáles callan»

Centros de datos: prodigios de ingeniería que nadie quiere al lado

Hay edificios que no se construyen para ser visitados, sino para que el resto del mundo funcione. Los centros de datos de hiperescala son así: naves gigantescas repletas de GPU y otros chips especializados, alineados como estanterías de un supermercado que, en lugar de latas, guardan potencia de cálculo. Dentro, miles de procesadores trabajan en paralelo para alimentar modelos de inteligencia artificial que consumen y producen texto, imágenes o código a una velocidad difícil de imaginar. Según describía Mat Honan en MIT Technology Review, una sola instalación puede ocupar millones de pies cuadrados, contener cientos de miles de chips de gama alta conectados por kilómetros de cableado y devorar enormes cantidades de electricidad para mantener esas máquinas en marcha sin pausa.

Es fácil caer en la fascinación: la escala, la precisión logística, la refrigeración que parece sacada de una central industrial. También es fácil olvidar que, para quien vive cerca, no es “la nube”, sino un vecino nuevo, enorme, y con necesidades muy terrenales: energía, agua, suelo y permisos. Continúa leyendo «Centros de datos: prodigios de ingeniería que nadie quiere al lado»

De 12.000 millones de “pings” a 100 candidatos: el nuevo capítulo de SETI@home y la caza de señales de radio con FAST

Hubo una época en la que un ordenador doméstico podía convertirse, sin hacer ruido, en parte de un experimento astronómico global. SETI@home funcionaba así: instalabas un programa, lo dejabas trabajar en segundo plano y tu PC se sumaba a una red de voluntarios que analizaba datos de radiotelescopios en busca de patrones raros. La promesa era tan sencilla como irresistible: ayudar a rastrear indicios de vida inteligente fuera de la Tierra sin salir de casa.

El corazón del proyecto latió entre 1999 y 2020, con millones de participantes repartidos por todo el mundo. Su materia prima fueron observaciones históricas del radiotelescopio de Arecibo, registradas durante años de trabajo científico. Arecibo ya no opera, pero sus datos siguen siendo una mina: como encontrar cajas de cintas antiguas en un trastero y descubrir que dentro hay horas y horas de música por clasificar, con la diferencia de que aquí la “música” son señales de radio del cosmos. Continúa leyendo «De 12.000 millones de “pings” a 100 candidatos: el nuevo capítulo de SETI@home y la caza de señales de radio con FAST»

El “sol artificial” de China supera el límite de Greenwald: qué cambia en la carrera por la fusión nuclear

El tokamak EAST, apodado “sol artificial”, ha demostrado que puede sostener plasma estable a densidades que van más allá de un umbral que durante décadas ha actuado como una barrera práctica para muchos diseños de reactores de fusión: el límite de Greenwald. Lo importante no es solo que el experimento haya cruzado esa frontera, sino que lo haya hecho manteniendo el plasma confinado sin que se vuelva incontrolable, que es el equivalente a mantener una llama muy viva sin que el fuego se convierta en incendio.

Los datos comunicados describen densidades del orden de 1,3 a 1,65 veces el límite, por encima del rango de operación típico del dispositivo. Esa subida de densidad suele ser tentadora en fusión nuclear porque aumenta la frecuencia de colisiones entre partículas, pero también suele disparar inestabilidades que apagan el proceso. Que el plasma se mantenga estable en ese “territorio prohibido” es lo que convierte el resultado en un avance relevante para la ingeniería de tokamaks, no solo en una cifra llamativa. Continúa leyendo «El “sol artificial” de China supera el límite de Greenwald: qué cambia en la carrera por la fusión nuclear»

Centros de datos hiperescalables para IA: el “nuevo cemento” de la carrera tecnológica (y su factura energética)

En muchas zonas de cultivo y polígonos industriales está ocurriendo algo que, a simple vista, parece una expansión clásica de almacenes logísticos. Solo que, en lugar de cajas y carretillas, estos edificios gigantes albergan filas interminables de servidores que funcionan como un único “cerebro” colectivo. Son los centros de datos hiperescalables orientados a IA, instalaciones pensadas específicamente para entrenar y ejecutar modelos de lenguaje y otros sistemas de IA generativa con una potencia que, hasta hace poco, se reservaba a la supercomputación científica.

Según MIT Technology Review, esta nueva ola de centros de datos está impulsada por compañías como OpenAI, Google, Amazon, Microsoft, Meta y Nvidia, con inversiones que ya se miden en cientos de miles de millones de dólares. Ese nivel de gasto no se parece a “comprar más servidores”, se parece a levantar una nueva capa de infraestructura, como si la economía digital estuviera echando más carriles a una autopista que ya va llena. Continúa leyendo «Centros de datos hiperescalables para IA: el “nuevo cemento” de la carrera tecnológica (y su factura energética)»