La conversación sobre IA en centros de datos suele centrarse en chips cada vez más potentes, racks más densos y una carrera por conseguir megavatios disponibles. Lo que se comenta menos es un problema mucho más cotidiano: mantener el equipo a una temperatura estable, de forma eficiente, sin que el propio sistema de refrigeración se… Continúa leyendo »

La degeneración macular asociada a la edad (DMAE o AMD) es una de las causas más frecuentes de pérdida de visión en personas mayores de 50 años. Lo que la vuelve especialmente frustrante es que no se trata de un “apagón” repentino, sino de un deterioro progresivo de la zona central de la retina, justo… Continúa leyendo »

El 10 de febrero de 2026, Chile presentó Latam-GPT, un modelo de lenguaje de código abierto concebido para América Latina y el Caribe. El anuncio no se planteó como una carrera para “ganarle” a los gigantes del sector, sino como una manera de tener voz propia en una industria donde la mayoría de herramientas se… Continúa leyendo »

Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica

La promesa de la computación cuántica no es tener un ordenador “más rápido” para todo, sino uno capaz de abordar ciertos problemas que a los sistemas clásicos se les atragantan porque el número de combinaciones crece como una bola de nieve cuesta abajo. Simular moléculas complejas con fidelidad química o poner a prueba algunos esquemas de criptografía son ejemplos típicos: incluso con supercomputadores, llega un punto en el que el cálculo se vuelve inmanejable.

El problema es que esa potencia cuántica es frágil. Los estados cuánticos se comportan como una pompa de jabón: útiles y bellos, pero se rompen con cualquier vibración, calor residual o ruido electromagnético. Por eso el gran objetivo industrial no es solo “hacer qubits”, sino hacerlos con tasas de error lo bastante bajas como para que la corrección de errores no se coma todo el avance. En ese tablero de ajedrez, los materiales importan tanto como la electrónica o el software. Continúa leyendo «Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica»

OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras

OpenAI ha presentado GPT-5.3-Codex-Spark, una variante más compacta de su modelo orientado a programación dentro de Codex. La idea no es sustituir a la versión “completa”, sino cubrir ese hueco que muchos desarrolladores notan cuando trabajan con un asistente: el momento en que quieres probar algo rápido, iterar en segundos, pulir un fragmento de código o validar una hipótesis sin sentir que estás esperando a que arranque una cafetera antigua.

Según la compañía, Spark está diseñado para inferencias más rápidas y para una colaboración casi en tiempo real. En la práctica, esto apunta a sesiones de trabajo donde el usuario conversa con Codex, cambia requisitos sobre la marcha y necesita que el sistema responda con la misma agilidad con la que uno corrige una línea en el editor. La noticia, publicada por TechCrunch y atribuida a declaraciones de OpenAI, sitúa el lanzamiento el 12 de febrero de 2026 y lo encuadra como un paso clave en la evolución del producto. Continúa leyendo «OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras»

Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora

Los centros de datos se han convertido en el nuevo “gran electrodoméstico” de la economía digital. Si antes el consumo fuerte estaba en fábricas o grandes complejos industriales, ahora buena parte del tirón viene de edificios repletos de servidores que no paran ni de día ni de noche. En el caso de la IA generativa, la demanda energética se dispara: entrenar y operar modelos requiere muchos chips trabajando a plena carga y, por tanto, mucha electricidad y mucha refrigeración.

El conflicto aparece cuando esa electricidad no llega sola. Para conectar un centro de datos nuevo o ampliar uno existente, a menudo hay que reforzar subestaciones, líneas de transmisión y equipos de distribución. Son obras caras, y el gran debate local suele ser el mismo: ¿quién paga esas mejoras? Si el coste termina repartiéndose entre todos los usuarios de la red, los vecinos pueden notar subidas en su tarifa eléctrica, aunque no tengan nada que ver con la actividad del centro de datos. Es como si tu comunidad de vecinos tuviera que cambiar todo el cuadro eléctrico porque un único piso instala una cocina profesional: el edificio entero se ve afectado, aunque solo uno se beneficie.

En ese contexto, Anthropic ha anunciado que intentará evitar que sus data centers incrementen los costes de la electricidad para los residentes cercanos, según explicó la periodista Justine Calma en The Verge. La idea central es clara: la empresa dice que asumirá cargos mensuales más altos para cubrir el 100% de las mejoras necesarias para conectarse a la red, incluyendo la parte que de otro modo se trasladaría a los consumidores. Continúa leyendo «Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora»

NotebookLM prueba nuevos estilos visuales para sus infografías: así cambiaría la forma de resumir información

Dentro de NotebookLM, las infografías se han convertido en una de esas herramientas que, cuando las pruebas en serio, empiezas a echar de menos en cualquier otro sistema de notas. La idea es sencilla: tomas fuentes (documentos, PDFs, apuntes, enlaces o material de referencia) y el sistema genera una síntesis visual que ayuda a captar lo importante de un vistazo. Como si alguien hubiera convertido tus páginas de lectura en un póster de estudio, pero sin que tengas que pelearte con cajas de texto y flechas mal alineadas.

Google ha ido ampliando capacidades en el último año para que NotebookLM sea más útil como asistente de productividad y estudio, y ahora parece que prepara un nuevo paso: ampliar la personalización estética de esas infografías. La información llega a través de Android Police, que cita una filtración atribuida al conocido filtrador TestingCatalog, donde se describen estilos visuales en pruebas que todavía no estarían disponibles para el público general. Continúa leyendo «NotebookLM prueba nuevos estilos visuales para sus infografías: así cambiaría la forma de resumir información»

Deep Research en ChatGPT se vuelve más “dirigible”: control de fuentes, plan editable y un visor a pantalla completa

La función Deep Research de ChatGPT nació como un asistente “agente” pensado para investigar temas complejos en varios pasos: plantea un enfoque, consulta fuentes, compone un informe y entrega citas para que puedas comprobar lo que dice. OpenAI la presentó en febrero de 2025 y, un año después, ha introducido cambios que apuntan a un objetivo muy concreto: que el usuario tenga más control sobre de dónde sale la información y cómo se organiza el resultado final. OpenAI explica en sus notas de versión que estas mejoras buscan informes más “precisos y creíbles”, con mayor capacidad de dirección por parte del usuario.

Si lo piensas como cocinar, antes Deep Research era un chef que sabía improvisar un menú razonable con los ingredientes disponibles; ahora te deja elegir el mercado al que va a comprar, revisar la receta antes de encender el fuego y leer el plato final en un formato de “libro” en lugar de en una ventanita de chat. Continúa leyendo «Deep Research en ChatGPT se vuelve más “dirigible”: control de fuentes, plan editable y un visor a pantalla completa»

Latam-GPT: la apuesta latinoamericana por una IA con acento propio y menos sesgos importados

El 10 de febrero de 2026, Chile presentó Latam-GPT, un modelo de lenguaje de código abierto concebido para América Latina y el Caribe. El anuncio no se planteó como una carrera para “ganarle” a los gigantes del sector, sino como una manera de tener voz propia en una industria donde la mayoría de herramientas se entrenan, se prueban y se afinan con prioridades culturales del Norte Global. En el acto, el presidente Gabriel Boric insistió en la idea de que la región debe participar como actor y no solo como usuaria, una frase que condensa bien el espíritu del proyecto: sentarse a la mesa con herramientas propias. Continúa leyendo «Latam-GPT: la apuesta latinoamericana por una IA con acento propio y menos sesgos importados»

Una proteína llamada DMTF1 logra “rejuvenecer” células madre del cerebro en el laboratorio

El envejecimiento cerebral no se nota solo en las canas o en el cansancio mental al final del día. A nivel celular, el cerebro va perdiendo parte de su capacidad para fabricar neuronas nuevas, un proceso conocido como neurogénesis. Esto no implica que, al cumplir años, el cerebro “se apague”, pero sí que cambia el equilibrio: se reduce la renovación, algunas funciones se vuelven menos ágiles y el margen de recuperación ante estrés, enfermedad o lesiones se estrecha.

Una de las piezas más importantes en esta historia son las células madre neurales (NSC, por sus siglas en inglés). Son como una pequeña reserva de “semillas” que, bajo ciertas condiciones, pueden dividirse y dar lugar a neuronas y otros tipos de células del sistema nervioso. En un cerebro joven, esas semillas están más activas; con el tiempo, tienden a entrar en un estado de quietud, casi como si pasaran de estar “en primera línea” a quedarse en la banca. Continúa leyendo «Una proteína llamada DMTF1 logra “rejuvenecer” células madre del cerebro en el laboratorio»

Microsoft alerta sobre “agentes dobles” de IA: cuando un asistente con demasiados permisos se convierte en un riesgo

Los agentes de IA han dejado de ser un experimento curioso para convertirse en piezas cada vez más habituales dentro de las empresas. A diferencia de un chatbot que responde preguntas, un agente suele tener “manos” dentro de los sistemas: puede leer correos, abrir tickets, consultar bases de datos, actualizar un CRM, generar informes o coordinar tareas entre aplicaciones. Es como pasar de una calculadora a un empleado digital que no solo sugiere, sino que ejecuta.

Ese salto de “hablar” a “hacer” explica por qué tantas organizaciones los están adoptando. Según un informe de seguridad reciente de Microsoft, las compañías están desplegando agentes a un ritmo acelerado y, en paralelo, están apareciendo nuevos huecos de seguridad que no encajan del todo en los marcos clásicos. Microsoft resume la situación con una idea potente: los equipos “humano-agente” se están extendiendo globalmente, y esa convivencia trae oportunidades, pero también nuevos fallos posibles si no se controla bien. Continúa leyendo «Microsoft alerta sobre “agentes dobles” de IA: cuando un asistente con demasiados permisos se convierte en un riesgo»

Anthropic pone números al riesgo de la inyección de prompts: lo que cambia cuando la seguridad deja de ser un eslogan

Durante años, la inyección de prompts ha sido ese problema incómodo que todo el mundo conoce y casi nadie cuantifica. Para los equipos de seguridad, era como hablar de goteras sin poder medir cuánta agua entra: se intuía el riesgo, se aplicaban parches, se revisaban buenas prácticas, pero faltaba una métrica que permitiera comparar proveedores con algo más que promesas.

Eso es lo que Anthropic intenta cambiar con la publicación de una system card extensa (212 páginas, fechada el 5 de febrero) en la que desglosa tasas de éxito de ataques de inyección de prompts según el “tipo de superficie” del agente, el número de intentos y si se activan o no salvaguardas. La idea clave es simple y potente: si un ataque escala con persistencia, el riesgo real no se entiende mirando un único intento, igual que no se evalúa la resistencia de una cerradura probándola una sola vez. Continúa leyendo «Anthropic pone números al riesgo de la inyección de prompts: lo que cambia cuando la seguridad deja de ser un eslogan»

Threads convierte los “Dear algo” en un control temporal para ajustar tu feed durante tres días

Si llevas tiempo usando Threads, probablemente te suene la broma recurrente: escribirle al “algoritmo” como si fuera un ser con oídos y paciencia. La queja de fondo era muy real: muchas personas sentían que el feed de recomendaciones se alejaba de sus intereses y se llenaba de temas que no habían pedido. Esa frustración se transformó en meme con mensajes tipo “Dear algorithm, muéstrame más de X”.

Ahora, Meta ha decidido formalizar esa costumbre y convertirla en una función integrada. Según ha contado Engadget, la plataforma reconoce esos “Dear algo” como una señal directa para ajustar recomendaciones “en tiempo real”, con un matiz clave: el efecto es temporal y dura tres días. La idea es permitir una corrección rápida sin “encadenar” al usuario a un cambio permanente que luego resulte difícil de deshacer. Continúa leyendo «Threads convierte los “Dear algo” en un control temporal para ajustar tu feed durante tres días»