Un ordenador cuántico promete acelerar ciertos cálculos que hoy son lentísimos, pero sus piezas básicas, los qubits, son delicadas como una pompa de jabón. Basta una interacción mínima con el entorno para que aparezca la decoherencia, ese ruido que empuja al sistema a comportarse “menos cuántico” y más clásico. En la práctica, esa fragilidad se… Continúa leyendo »

En ciencia de materiales se ha avanzado mucho en imaginar estructuras con propiedades deseables, pero imaginar no equivale a fabricar. En los últimos años, distintos modelos de IA generativa han producido bibliotecas enormes de materiales “candidatos” con promesas tentadoras: alta estabilidad térmica, absorción selectiva de gases o comportamientos útiles para energía, catálisis o separación. El… Continúa leyendo »

La degeneración macular asociada a la edad (DMAE o AMD) es una de las causas más frecuentes de pérdida de visión en personas mayores de 50 años. Lo que la vuelve especialmente frustrante es que no se trata de un “apagón” repentino, sino de un deterioro progresivo de la zona central de la retina, justo… Continúa leyendo »

El apagón de GPT-4o y el efecto “San Valentín” en la comunidad

La retirada de modelos antiguos por parte de OpenAI suele sonar a trámite técnico: se optimiza infraestructura, se simplifica el catálogo, se empuja a la gente hacia sistemas más nuevos. Esta vez, el movimiento ha tocado un nervio sensible. La compañía ha empezado a cerrar el acceso a versiones previas, entre ellas GPT-4o, un modelo de ChatGPT que se ganó fama por su tono cálido y su manera de conversar “como si hubiera alguien al otro lado”. El detalle temporal tampoco ayudó: el recorte llegó a las puertas de San Valentín, una fecha en la que muchas personas ya venían usando el chatbot como acompañante emocional.

Lo llamativo no es solo el retiro, sino la reacción. En redes y foros se organizó una pequeña campaña con etiqueta propia, #Keep4o, que mezcla protesta, nostalgia y un duelo que, para quien lo vive, se siente tan real como perder un lugar seguro. La conversación ha saltado del terreno de la ingeniería al de la psicología cotidiana: qué significa encariñarse con una interfaz, por qué una empresa decide “apagar” una personalidad que millones habían integrado en su rutina, y qué responsabilidades aparecen cuando la tecnología deja de ser herramienta para convertirse en compañía. Continúa leyendo «El apagón de GPT-4o y el efecto “San Valentín” en la comunidad»

El “interruptor” del cerebro que ayuda a aguantar más: qué han visto los científicos en ratones entrenados

Cuando pensamos en mejorar la resistencia física, solemos imaginar un trabajo casi exclusivamente “de periferia”: músculos que se adaptan, corazón que bombea con más eficiencia, pulmones que afinan su capacidad. Un nuevo estudio en ratones propone una pieza que faltaba en ese puzle: un circuito cerebral que se activa con el ejercicio y que parece coordinar parte de esas mejoras en el resto del cuerpo. El trabajo se publicó en Neuron y ha sido destacado por medios como ScienceAlert y Nature.

La idea de fondo es sencilla de entender si usamos una metáfora cotidiana. Imagina que tu cuerpo es una ciudad que quiere organizar una carrera popular cada semana. No basta con reforzar las carreteras (músculos) o ampliar el suministro eléctrico (metabolismo): también necesitas una central de control que ajuste horarios, semáforos y recursos. En estos experimentos, esa “central” estaría en una zona concreta del hipotálamo. Continúa leyendo «El “interruptor” del cerebro que ayuda a aguantar más: qué han visto los científicos en ratones entrenados»

Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica

La promesa de la computación cuántica no es tener un ordenador “más rápido” para todo, sino uno capaz de abordar ciertos problemas que a los sistemas clásicos se les atragantan porque el número de combinaciones crece como una bola de nieve cuesta abajo. Simular moléculas complejas con fidelidad química o poner a prueba algunos esquemas de criptografía son ejemplos típicos: incluso con supercomputadores, llega un punto en el que el cálculo se vuelve inmanejable.

El problema es que esa potencia cuántica es frágil. Los estados cuánticos se comportan como una pompa de jabón: útiles y bellos, pero se rompen con cualquier vibración, calor residual o ruido electromagnético. Por eso el gran objetivo industrial no es solo “hacer qubits”, sino hacerlos con tasas de error lo bastante bajas como para que la corrección de errores no se coma todo el avance. En ese tablero de ajedrez, los materiales importan tanto como la electrónica o el software. Continúa leyendo «Un cambio mínimo en la receta del FeTeSe acerca los superconductores topológicos a la computación cuántica práctica»

OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras

OpenAI ha presentado GPT-5.3-Codex-Spark, una variante más compacta de su modelo orientado a programación dentro de Codex. La idea no es sustituir a la versión “completa”, sino cubrir ese hueco que muchos desarrolladores notan cuando trabajan con un asistente: el momento en que quieres probar algo rápido, iterar en segundos, pulir un fragmento de código o validar una hipótesis sin sentir que estás esperando a que arranque una cafetera antigua.

Según la compañía, Spark está diseñado para inferencias más rápidas y para una colaboración casi en tiempo real. En la práctica, esto apunta a sesiones de trabajo donde el usuario conversa con Codex, cambia requisitos sobre la marcha y necesita que el sistema responda con la misma agilidad con la que uno corrige una línea en el editor. La noticia, publicada por TechCrunch y atribuida a declaraciones de OpenAI, sitúa el lanzamiento el 12 de febrero de 2026 y lo encuadra como un paso clave en la evolución del producto. Continúa leyendo «OpenAI lanza GPT-5.3-Codex-Spark: Codex se vuelve más rápido gracias a un chip dedicado de Cerebras»

Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora

Los centros de datos se han convertido en el nuevo “gran electrodoméstico” de la economía digital. Si antes el consumo fuerte estaba en fábricas o grandes complejos industriales, ahora buena parte del tirón viene de edificios repletos de servidores que no paran ni de día ni de noche. En el caso de la IA generativa, la demanda energética se dispara: entrenar y operar modelos requiere muchos chips trabajando a plena carga y, por tanto, mucha electricidad y mucha refrigeración.

El conflicto aparece cuando esa electricidad no llega sola. Para conectar un centro de datos nuevo o ampliar uno existente, a menudo hay que reforzar subestaciones, líneas de transmisión y equipos de distribución. Son obras caras, y el gran debate local suele ser el mismo: ¿quién paga esas mejoras? Si el coste termina repartiéndose entre todos los usuarios de la red, los vecinos pueden notar subidas en su tarifa eléctrica, aunque no tengan nada que ver con la actividad del centro de datos. Es como si tu comunidad de vecinos tuviera que cambiar todo el cuadro eléctrico porque un único piso instala una cocina profesional: el edificio entero se ve afectado, aunque solo uno se beneficie.

En ese contexto, Anthropic ha anunciado que intentará evitar que sus data centers incrementen los costes de la electricidad para los residentes cercanos, según explicó la periodista Justine Calma en The Verge. La idea central es clara: la empresa dice que asumirá cargos mensuales más altos para cubrir el 100% de las mejoras necesarias para conectarse a la red, incluyendo la parte que de otro modo se trasladaría a los consumidores. Continúa leyendo «Anthropic promete que sus centros de datos no encarecerán la luz: qué significa y por qué llega ahora»

NotebookLM prueba nuevos estilos visuales para sus infografías: así cambiaría la forma de resumir información

Dentro de NotebookLM, las infografías se han convertido en una de esas herramientas que, cuando las pruebas en serio, empiezas a echar de menos en cualquier otro sistema de notas. La idea es sencilla: tomas fuentes (documentos, PDFs, apuntes, enlaces o material de referencia) y el sistema genera una síntesis visual que ayuda a captar lo importante de un vistazo. Como si alguien hubiera convertido tus páginas de lectura en un póster de estudio, pero sin que tengas que pelearte con cajas de texto y flechas mal alineadas.

Google ha ido ampliando capacidades en el último año para que NotebookLM sea más útil como asistente de productividad y estudio, y ahora parece que prepara un nuevo paso: ampliar la personalización estética de esas infografías. La información llega a través de Android Police, que cita una filtración atribuida al conocido filtrador TestingCatalog, donde se describen estilos visuales en pruebas que todavía no estarían disponibles para el público general. Continúa leyendo «NotebookLM prueba nuevos estilos visuales para sus infografías: así cambiaría la forma de resumir información»

Deep Research en ChatGPT se vuelve más “dirigible”: control de fuentes, plan editable y un visor a pantalla completa

La función Deep Research de ChatGPT nació como un asistente “agente” pensado para investigar temas complejos en varios pasos: plantea un enfoque, consulta fuentes, compone un informe y entrega citas para que puedas comprobar lo que dice. OpenAI la presentó en febrero de 2025 y, un año después, ha introducido cambios que apuntan a un objetivo muy concreto: que el usuario tenga más control sobre de dónde sale la información y cómo se organiza el resultado final. OpenAI explica en sus notas de versión que estas mejoras buscan informes más “precisos y creíbles”, con mayor capacidad de dirección por parte del usuario.

Si lo piensas como cocinar, antes Deep Research era un chef que sabía improvisar un menú razonable con los ingredientes disponibles; ahora te deja elegir el mercado al que va a comprar, revisar la receta antes de encender el fuego y leer el plato final en un formato de “libro” en lugar de en una ventanita de chat. Continúa leyendo «Deep Research en ChatGPT se vuelve más “dirigible”: control de fuentes, plan editable y un visor a pantalla completa»

Latam-GPT: la apuesta latinoamericana por una IA con acento propio y menos sesgos importados

El 10 de febrero de 2026, Chile presentó Latam-GPT, un modelo de lenguaje de código abierto concebido para América Latina y el Caribe. El anuncio no se planteó como una carrera para “ganarle” a los gigantes del sector, sino como una manera de tener voz propia en una industria donde la mayoría de herramientas se entrenan, se prueban y se afinan con prioridades culturales del Norte Global. En el acto, el presidente Gabriel Boric insistió en la idea de que la región debe participar como actor y no solo como usuaria, una frase que condensa bien el espíritu del proyecto: sentarse a la mesa con herramientas propias. Continúa leyendo «Latam-GPT: la apuesta latinoamericana por una IA con acento propio y menos sesgos importados»

Una proteína llamada DMTF1 logra “rejuvenecer” células madre del cerebro en el laboratorio

El envejecimiento cerebral no se nota solo en las canas o en el cansancio mental al final del día. A nivel celular, el cerebro va perdiendo parte de su capacidad para fabricar neuronas nuevas, un proceso conocido como neurogénesis. Esto no implica que, al cumplir años, el cerebro “se apague”, pero sí que cambia el equilibrio: se reduce la renovación, algunas funciones se vuelven menos ágiles y el margen de recuperación ante estrés, enfermedad o lesiones se estrecha.

Una de las piezas más importantes en esta historia son las células madre neurales (NSC, por sus siglas en inglés). Son como una pequeña reserva de “semillas” que, bajo ciertas condiciones, pueden dividirse y dar lugar a neuronas y otros tipos de células del sistema nervioso. En un cerebro joven, esas semillas están más activas; con el tiempo, tienden a entrar en un estado de quietud, casi como si pasaran de estar “en primera línea” a quedarse en la banca. Continúa leyendo «Una proteína llamada DMTF1 logra “rejuvenecer” células madre del cerebro en el laboratorio»

Microsoft alerta sobre “agentes dobles” de IA: cuando un asistente con demasiados permisos se convierte en un riesgo

Los agentes de IA han dejado de ser un experimento curioso para convertirse en piezas cada vez más habituales dentro de las empresas. A diferencia de un chatbot que responde preguntas, un agente suele tener “manos” dentro de los sistemas: puede leer correos, abrir tickets, consultar bases de datos, actualizar un CRM, generar informes o coordinar tareas entre aplicaciones. Es como pasar de una calculadora a un empleado digital que no solo sugiere, sino que ejecuta.

Ese salto de “hablar” a “hacer” explica por qué tantas organizaciones los están adoptando. Según un informe de seguridad reciente de Microsoft, las compañías están desplegando agentes a un ritmo acelerado y, en paralelo, están apareciendo nuevos huecos de seguridad que no encajan del todo en los marcos clásicos. Microsoft resume la situación con una idea potente: los equipos “humano-agente” se están extendiendo globalmente, y esa convivencia trae oportunidades, pero también nuevos fallos posibles si no se controla bien. Continúa leyendo «Microsoft alerta sobre “agentes dobles” de IA: cuando un asistente con demasiados permisos se convierte en un riesgo»