Microsoft cierra su biblioteca interna y apuesta por un “aprendizaje con IA”: qué cambia para sus empleados

Durante años, la Microsoft Library ha funcionado como ese armario bien ordenado que muchos equipos agradecen tener cerca: un lugar al que acudir cuando necesitas contexto, una referencia fiable o una lectura larga para entender un tema sin prisas. No era solo una colección de títulos; era una infraestructura silenciosa de aprendizaje y cultura corporativa. Esa etapa se está cerrando.

Según ha contado The Verge, Microsoft está clausurando su biblioteca para empleados —la que se encontraba en el edificio 92 del campus de Redmond— y recortando de forma notable el acceso a publicaciones y servicios informativos que formaban parte del día a día de su plantilla. La empresa justifica el cambio como un paso hacia una “experiencia de aprendizaje moderna impulsada por IA” a través de una plataforma interna llamada Skilling Hub. Continúa leyendo «Microsoft cierra su biblioteca interna y apuesta por un “aprendizaje con IA”: qué cambia para sus empleados»

OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real

La noticia, en esencia, va de velocidad percibida. OpenAI ha comunicado una alianza con Cerebras para incorporar 750 MW de capacidad orientada a ultra baja latencia dentro de su plataforma, con una integración progresiva y despliegue por tramos hasta 2028. En términos prácticos, se trata de reforzar la parte del sistema que responde a tus solicitudes cuando chateas, pides código, generas una imagen o ejecutas tareas con agentes de IA.

Conviene separar dos ideas que suelen mezclarse: entrenar modelos y servir modelos. El entrenamiento es como escribir el recetario; la inferencia es cocinar cada plato cuando el cliente lo pide. Puedes tener la mejor receta del mundo, pero si la cocina funciona a tirones, el comensal piensa que el restaurante va lento. Aquí el foco está en la cocina, no en el recetario. Continúa leyendo «OpenAI suma 750 MW de computación de baja latencia con Cerebras para acelerar la inferencia en tiempo real»

Claude Code incorpora búsqueda de herramientas en MCP para ahorrar contexto y mejorar la precisión

La apuesta de Anthropic por los agentes no se entiende sin el Model Context Protocol (MCP), un estándar abierto presentado a finales de 2024 para conectar modelos de IA con herramientas externas de forma ordenada y predecible. La idea es sencilla: si un agente puede hablar con repositorios, sistemas de archivos, navegadores web o APIs con un “idioma” común, se vuelve útil en tareas reales sin inventarse capacidades. Según explicó VentureBeat, ese engranaje es precisamente lo que permite a Claude Code invocar acciones como navegar por la web o crear archivos cuando se le pide.

El problema era menos glamuroso y más cotidiano: la logística de cargar herramientas. Hasta ahora, Claude Code solía “meter en la cabeza” del modelo las instrucciones de todas las herramientas disponibles al inicio de la sesión, fueran necesarias o no. Es como si, antes de cocinar una tortilla, alguien te obligara a leerte el manual completo de una cocina industrial, con esquemas, advertencias y recambios, solo por si acaso quisieras hornear pan, hacer sushi o montar una campana extractora. Continúa leyendo «Claude Code incorpora búsqueda de herramientas en MCP para ahorrar contexto y mejorar la precisión»

Wikimedia busca que la IA pague su parte: acuerdos con Amazon, Meta y Microsoft para acceder a Wikipedia a gran escala

Cuando Wikipedia sopla 25 velas, la celebración llega acompañada de una preocupación muy práctica: quién sostiene la factura cuando medio planeta —y, ahora, una parte importante de la industria de la inteligencia artificial— bebe de sus contenidos a una velocidad inédita. La fundación Wikimedia, matriz del proyecto, ha anunciado acuerdos con varias compañías centradas en IA como Amazon, Meta, Microsoft, Perplexity y otras para ofrecerles un acceso más directo y “de alta capacidad” al conocimiento alojado en sus proyectos, incluyendo la propia Wikipedia. La noticia se ha conocido a través de Engadget, que contextualiza el movimiento como una forma de compensar costes derivados del uso masivo de sus datos por parte de chatbots y sistemas basados en modelos de lenguaje. Fuentes como The Verge y Reuters han aportado matices relevantes sobre el calendario y la lógica económica detrás de estas alianzas. Continúa leyendo «Wikimedia busca que la IA pague su parte: acuerdos con Amazon, Meta y Microsoft para acceder a Wikipedia a gran escala»

OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA

El 15 de enero de 2026 se hizo pública la participación de OpenAI en la ronda semilla de Merge Labs. El mensaje central no gira en torno a un dispositivo concreto, sino a una idea histórica: cuando cambia la forma de comunicarnos con una máquina, cambia la potencia de lo que podemos hacer con ella. Es un patrón que se repite con insistencia. El teclado permitió “hablar” con los ordenadores con precisión; el ratón convirtió la pantalla en un espacio navegable; la pantalla táctil acercó la informática al gesto natural de señalar; la voz empezó a convertir la conversación en interfaz. En ese mismo hilo, OpenAI encuadra las interfaces cerebro-computadora como un nuevo paso para expresar intención de forma más directa.

Visto con un ejemplo cotidiano, es la diferencia entre explicar a alguien por teléfono cómo llegar a tu casa o enviarle tu ubicación exacta. Los dos métodos comunican, pero uno reduce fricción y malentendidos. OpenAI sugiere que las BCI podrían reducir fricción entre lo que una persona quiere hacer y lo que un sistema de IA entiende, abriendo nuevas posibilidades para comunicarse, aprender e interactuar con tecnología. Continúa leyendo «OpenAI invierte en Merge Labs y refuerza su apuesta por las interfaces cerebro-computadora en la era de la IA»

El glosario de la IA en 2025: 14 términos que se colaron en todas las conversaciones

Durante 2025, la inteligencia artificial no solo avanzó: también cambió la forma en que la industria se explica a sí misma. Cada anuncio venía con una palabra nueva, cada debate con una etiqueta pegadiza, cada polémica con un término que se repetía hasta quedarse. MIT Technology Review reunió en su repaso de fin de año las expresiones que dominaron el calendario, y lo curioso es que, juntas, funcionan como una radiografía de prioridades: ambición tecnológica, costos descomunales, batallas legales, ansiedad social y un internet cada vez más difícil de distinguir de su parodia. Continúa leyendo «El glosario de la IA en 2025: 14 términos que se colaron en todas las conversaciones»

Centros de datos: prodigios de ingeniería que nadie quiere al lado

Hay edificios que no se construyen para ser visitados, sino para que el resto del mundo funcione. Los centros de datos de hiperescala son así: naves gigantescas repletas de GPU y otros chips especializados, alineados como estanterías de un supermercado que, en lugar de latas, guardan potencia de cálculo. Dentro, miles de procesadores trabajan en paralelo para alimentar modelos de inteligencia artificial que consumen y producen texto, imágenes o código a una velocidad difícil de imaginar. Según describía Mat Honan en MIT Technology Review, una sola instalación puede ocupar millones de pies cuadrados, contener cientos de miles de chips de gama alta conectados por kilómetros de cableado y devorar enormes cantidades de electricidad para mantener esas máquinas en marcha sin pausa.

Es fácil caer en la fascinación: la escala, la precisión logística, la refrigeración que parece sacada de una central industrial. También es fácil olvidar que, para quien vive cerca, no es “la nube”, sino un vecino nuevo, enorme, y con necesidades muy terrenales: energía, agua, suelo y permisos. Continúa leyendo «Centros de datos: prodigios de ingeniería que nadie quiere al lado»

Centros de datos hiperescalables para IA: el “nuevo cemento” de la carrera tecnológica (y su factura energética)

En muchas zonas de cultivo y polígonos industriales está ocurriendo algo que, a simple vista, parece una expansión clásica de almacenes logísticos. Solo que, en lugar de cajas y carretillas, estos edificios gigantes albergan filas interminables de servidores que funcionan como un único “cerebro” colectivo. Son los centros de datos hiperescalables orientados a IA, instalaciones pensadas específicamente para entrenar y ejecutar modelos de lenguaje y otros sistemas de IA generativa con una potencia que, hasta hace poco, se reservaba a la supercomputación científica.

Según MIT Technology Review, esta nueva ola de centros de datos está impulsada por compañías como OpenAI, Google, Amazon, Microsoft, Meta y Nvidia, con inversiones que ya se miden en cientos de miles de millones de dólares. Ese nivel de gasto no se parece a “comprar más servidores”, se parece a levantar una nueva capa de infraestructura, como si la economía digital estuviera echando más carriles a una autopista que ya va llena. Continúa leyendo «Centros de datos hiperescalables para IA: el “nuevo cemento” de la carrera tecnológica (y su factura energética)»

Betty Gilpin, Tilly Norwood y el pulso de Hollywood ante la inteligencia artificial

Tilly Norwood, presentada como una “actriz” generada por inteligencia artificial, se ha convertido en un símbolo incómodo para Hollywood. No tanto por lo que “hace” en pantalla, sino por lo que representa fuera de ella: la posibilidad de fabricar intérpretes como quien fabrica una campaña, con control total sobre la imagen, el tono y el comportamiento.

La reacción del sector no se explica solo por rechazo a lo nuevo. En el fondo hay una sensación de amenaza laboral y creativa. Cuando aparece una figura que puede estar siempre disponible, nunca discutir condiciones y adaptarse a cualquier encargo, la pregunta deja de ser artística y pasa a ser estructural: quién trabaja, bajo qué reglas y con qué derechos. Medios como Reuters han recogido críticas de SAG-AFTRA, el sindicato de actores, que ha advertido sobre el riesgo de sustitución y sobre el uso de materiales humanos para alimentar estos sistemas. Continúa leyendo «Betty Gilpin, Tilly Norwood y el pulso de Hollywood ante la inteligencia artificial»

NVIDIA extiende DLSS 4.5 a todas las GeForce RTX: qué cambia en la imagen y qué promete el nuevo “modo de fotogramas”

Si juegas en PC y tienes una GeForce RTX, esta semana toca mirar el panel de control: NVIDIA ha empezado a desplegar DLSS 4.5 para todos los usuarios de su aplicación oficial. Según lo publicado por Engadget y lo que comunica la propia compañía, el lanzamiento llega poco después de que la versión se presentara en el marco de CES 2026, con una beta que se liberó la semana anterior y una versión completa disponible desde hoy para quienes tengan una GPU RTX compatible y usen la app de NVIDIA.

Conviene situar bien qué es esto y qué no es. DLSS no “da más potencia” en bruto a la tarjeta; su papel es aprovechar inteligencia artificial para reconstruir o mejorar la imagen a partir de una resolución interna más baja. Es como ver una foto algo pequeña y pedirle a un buen editor que la amplíe sin que parezca hecha con un zoom torpe: no inventa la realidad, pero puede “rellenar” de forma convincente, mantener detalles y suavizar bordes para que el resultado sea más limpio. Continúa leyendo «NVIDIA extiende DLSS 4.5 a todas las GeForce RTX: qué cambia en la imagen y qué promete el nuevo “modo de fotogramas”»