La atención del mercado hacia Oklo no es nueva, pero a veces una sola nota de análisis funciona como ese empujón que hace que una conversación vuelva a la mesa. Según informó Barron’s, BofA Securities elevó su recomendación sobre la acción a “Comprar” desde “Neutral” y, al mismo tiempo, revisó al alza su precio objetivo… Continúa leyendo »

Pocas piezas de la arqueología han generado una discusión tan persistente como la llamada batería de Bagdad: un artefacto de 2.000 años hallado en lo que hoy es Irak y que, según algunas interpretaciones, podría haber funcionado como una forma temprana de “pila”. La idea suena tentadora porque conecta con algo muy cotidiano: una batería… Continúa leyendo »

La materia oscura tiene fama de fantasma cósmico: no emite luz, no la refleja, no la absorbe y tampoco la bloquea. Si fuera un objeto cotidiano, sería como el aire en una habitación: no lo ves, pero su presencia se delata por lo que mueve y por cómo cambia el entorno. En el universo, ese… Continúa leyendo »

Maia 200: el chip de inferencia de Microsoft que quiere abaratar el coste de la IA en Azure

Cuando hablamos de modelos grandes, solemos imaginar el momento épico del entrenamiento, como si fuera el rodaje de una película. En la práctica, lo que más factura no es grabar, sino emitir la serie cada día a millones de personas. Esa “emisión” se llama inferencia, el trabajo de generar respuestas en tiempo real cuando alguien usa un chatbot, un copiloto de productividad o un sistema de atención al cliente.

Microsoft lleva tiempo insistiendo en que el cuello de botella ya no es solo construir modelos, sino mantenerlos funcionando de forma rentable y consistente en centros de datos. En esa línea se entiende el anuncio de Maia 200, un acelerador de IA diseñado con una misión muy concreta: producir “tokens” (las unidades con las que el modelo compone texto) con menos coste y menor consumo energético, sin sacrificar la experiencia de uso. Según Microsoft, su objetivo es recortar el coste de ejecutar modelos a escala y mejorar el rendimiento económico de la infraestructura de inferencia. Continúa leyendo «Maia 200: el chip de inferencia de Microsoft que quiere abaratar el coste de la IA en Azure»

Claude suma aplicaciones interactivas: Slack, Figma y Canva entran en el chat de Anthropic

Hasta ahora, pedirle algo a un chatbot era como hablar con un compañero muy listo por mensajería: te respondía con texto, te explicaba pasos y, con suerte, te dejaba un resultado para copiar y pegar en otra herramienta. Con la nueva función de aplicaciones interactivas en Claude, Anthropic intenta acortar ese paseo de “ida y vuelta” entre pestañas: dentro del propio chat aparecen interfaces de herramientas de trabajo para ejecutar acciones y ver resultados en un formato visual, no solo en forma de párrafos. La noticia la adelantó TechCrunch y la compañía la presentó como una forma de trabajar “más rápido” combinando la inteligencia del modelo con paneles dedicados para diseñar, analizar datos o gestionar proyectos.

La idea de fondo es sencilla de entender con una metáfora cotidiana: si el chatbot era el copiloto que te iba leyendo instrucciones, ahora también puede abrirte el salpicadero y tocar algunos mandos contigo mirando. No sustituye a las apps, sino que acerca sus controles al lugar donde ya estás pidiendo cosas. Continúa leyendo «Claude suma aplicaciones interactivas: Slack, Figma y Canva entran en el chat de Anthropic»

¿Batería de Bagdad o simple vasija? Nuevos experimentos reabren un debate de casi un siglo

Pocas piezas de la arqueología han generado una discusión tan persistente como la llamada batería de Bagdad: un artefacto de 2.000 años hallado en lo que hoy es Irak y que, según algunas interpretaciones, podría haber funcionado como una forma temprana de “pila”. La idea suena tentadora porque conecta con algo muy cotidiano: una batería que cabe en la mano y alimenta un dispositivo. Solo que, en este caso, estaríamos hablando de un objeto antiguo, de barro y metal, miles de años antes de que las pilas modernas fueran un producto de consumo.

El debate acaba de recibir combustible nuevo a raíz de una reconstrucción experimental divulgada por Chemistry World a partir de un estudio de Alexander Bazes, investigador independiente. Su planteamiento sostiene que, si la vasija se montaba de cierta manera y con ciertos materiales, podía generar un voltaje sorprendente para su época. La discusión, sin embargo, sigue partida: hay quien ve un posible ingenio eléctrico; hay quien insiste en que lo más razonable es entenderlo como un objeto ritual o mágico, no tecnológico. Continúa leyendo «¿Batería de Bagdad o simple vasija? Nuevos experimentos reabren un debate de casi un siglo»

Grokipedia: una “Wikipedia” sin editores humanos

Cuando Elon Musk lanzó Grokipedia como alternativa a Wikipedia, la promesa era simple de explicar y difícil de cumplir: una enciclopedia creada por IA sin el filtro de una comunidad humana revisando, corrigiendo y discutiendo cada frase. Según contó Gizmodo, Musk venía tiempo criticando a Wikipedia como “Wokipedia” y defendiendo que hacía falta un proyecto alineado con otra sensibilidad política. Su respuesta fue automatizar el proceso de escritura y dejar que un sistema genere artículos a escala, como si en vez de una redacción con editores hubiera una imprenta que no duerme.

El problema de una enciclopedia así no es que “use IA”, sino qué sustituye: la fricción. En Wikipedia, esa fricción son discusiones, políticas internas, avisos de falta de fuentes, reversión de vandalismo y un historial público que permite ver cómo cambia una entrada. En una enciclopedia generada automáticamente, la fricción se reduce y la tentación de llenar huecos con texto convincente crece, como cuando alguien completa un crucigrama “a ojo”: encaja, pero no por eso es correcto. Continúa leyendo «Grokipedia: una “Wikipedia” sin editores humanos»

Siri con Gemini: Apple prepara un doble salto de su asistente con apoyo de Google

Durante años, Siri ha sido como ese ayudante amable que entiende lo que le pides… hasta que llega el momento de ejecutar tareas un poco más complejas y se queda a medio camino. Según ha publicado TechCrunch, citando información de Bloomberg firmada por Mark Gurman, Apple planea presentar en la segunda mitad de febrero una nueva versión del asistente impulsada por los modelos Gemini de Google. La promesa: que el asistente deje de ser solo una voz que responde y pase a convertirse en una herramienta capaz de actuar sobre lo que el usuario tiene en su iPhone, incluyendo datos personales y lo que aparece en pantalla.

La clave de esta noticia no es solo la colaboración con Google, sino el momento. Se interpreta como el primer resultado visible de la estrategia de Apple Intelligence anunciada en junio de 2024, cuando Apple adelantó capacidades más proactivas y contextualizadas. La sensación, vista desde fuera, es que la compañía quiere que esa visión deje de sonar a demo de escenario y se convierta en una función cotidiana. Continúa leyendo «Siri con Gemini: Apple prepara un doble salto de su asistente con apoyo de Google»

Laravel Debugbar v4.0.0: el salto a Fruitcake y una barra de depuración más preparada para el Laravel actual

La versión Laravel Debugbar v4.0.0 llega con un cambio que no se ve en pantalla, pero se nota en el mantenimiento: el paquete pasa de barryvdh/laravel-debugbar a fruitcake/laravel-debugbar. Según la nota publicada por Laravel News (firmada por Paul Redmond), este traspaso viene acompañado de una actualización de base que lo alinea con necesidades más modernas del ecosistema, en especial por el soporte para php-debugbar 3.x. En la práctica, es como cambiar el taller oficial donde llevas tu coche: el vehículo es el mismo, pero los repuestos, los procedimientos y el historial pasan a otra mano, y eso afecta a cómo instalas, configuras y referencias el paquete.

Este tipo de transición suele buscar continuidad y sostenibilidad: más mantenedores, más margen para evolucionar y menos fricción con versiones actuales de Laravel. La contrapartida es que no se trata de una actualización “de pulsar y listo”, porque el cambio de propiedad implica ajustes en dependencias y nombres de clases. Continúa leyendo «Laravel Debugbar v4.0.0: el salto a Fruitcake y una barra de depuración más preparada para el Laravel actual»

Gmail quiere convertirse en tu asistente personal: la apuesta de Google por un “inbox” con IA que entiende contexto y relaciones

Durante años hemos tratado el correo como si fuera una tubería: entra un flujo constante de mensajes, aplicamos reglas para que no se atasque y, con suerte, sobrevivimos al día. El problema es que la vida no llega ordenada por carpetas. Entre viajes, trabajo, facturas, grupos de padres, reservas médicas y conversaciones con amigos, el correo electrónico se ha convertido en el lugar donde se organiza buena parte de nuestra logística cotidiana. Por eso Google está intentando empujar Gmail más allá de “leer y responder”.

En una entrevista con Blake Barnes, vicepresidente de producto de Gmail, recogida por ZDNET, la idea que asoma es clara: el inbox no debería limitarse a almacenar mensajes, debería ayudarte a gestionar lo que significan. No como un archivador, sino como un asistente que te da una visión de conjunto y reduce la fricción mental de decidir qué importa y qué no. Y aquí conviene subrayarlo, porque el propio Barnes insiste en ello: hablamos de una dirección estratégica, no de promesas cerradas de producto ni de fechas concretas. Continúa leyendo «Gmail quiere convertirse en tu asistente personal: la apuesta de Google por un “inbox” con IA que entiende contexto y relaciones»

GPT-5.2 Pro mejora en matemáticas: lo que revela FrontierMath y por qué no es magia

Resolver matemáticas “de examen” y resolver matemáticas “de investigación” se parecen tanto como armar un mueble siguiendo instrucciones y diseñar el mueble desde cero. Lo segundo exige entender el material, anticipar fallos y justificar cada paso con paciencia. Esa es la idea detrás de FrontierMath, un conjunto de retos con problemas especialmente difíciles que Epoch AI usa para medir hasta qué punto un modelo puede sostener razonamiento matemático de alto nivel.

El foco de la noticia es que OpenAI y su GPT-5.2 Pro han logrado un avance notable en esa prueba, precisamente en el tramo más duro, llamado Tier 4. No es un “puzzle” de internet ni una colección de ejercicios repetidos: se trata de problemas que buscan detectar comprensión real, no simple destreza para imitar soluciones vistas antes. Epoch AI incluso explica que, por problemas de tiempos de espera con su infraestructura, evaluó a GPT-5.2 Pro de forma manual desde la interfaz de ChatGPT, y aun así documentó los resultados con detalle. Continúa leyendo «GPT-5.2 Pro mejora en matemáticas: lo que revela FrontierMath y por qué no es magia»

Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA

El crecimiento de la IA se parece cada vez más a una gran ciudad en hora punta: no basta con tener más coches si las carreteras, los aparcamientos y las gasolineras no dan abasto. Con esa lógica, Nvidia anunció una inversión de 2.000 millones de dólares en CoreWeave para impulsar el plan de la compañía de sumar más de 5 gigavatios de potencia de computación orientada a IA antes de 2030, según informó TechCrunch. En vez de limitarse a vender chips, el gigante de los semiconductores está empujando también la infraestructura que permite que esos chips trabajen a pleno rendimiento: centros de datos con terreno, electricidad y diseño pensados específicamente para cargas de entrenamiento e inferencia.

La operación se materializa con la compra de acciones Clase A de CoreWeave a 87,20 dólares por título. Es una señal clara: Nvidia no solo quiere seguir siendo el proveedor de palas en la “fiebre del oro” de la IA; también quiere que haya suficientes minas abiertas para que esas palas se usen sin descanso. Continúa leyendo «Nvidia refuerza su apuesta por CoreWeave con 2.000 millones para acelerar 5 GW de capacidad de IA»

Prism: el bloc de notas con IA que OpenAI quiere llevar a los laboratorios

OpenAI ha presentado Prism, un espacio de trabajo pensado para la escritura científica y la colaboración entre investigadores, con GPT-5.2 integrado de forma nativa. Según la compañía, cualquiera con una cuenta personal de ChatGPT puede usarlo gratis desde una aplicación web, con proyectos y colaboradores ilimitados, y con la promesa de llevarlo más adelante a planes Business, Enterprise y Education. La idea no es que la herramienta “haga ciencia” por su cuenta, sino que quite fricción a tareas que suelen comerse horas: redactar, revisar, coordinar coautores, manejar LaTeX, mover citas, ajustar ecuaciones y preparar el manuscrito para publicación. La propuesta recuerda a lo que ha pasado en programación con entornos tipo Cursor o Windsurf, pero trasladado al ritual de escribir un paper. La noticia fue contada por TechCrunch y ampliada en el anuncio oficial de OpenAI, que insiste en el mismo mensaje: menos saltos entre herramientas, más continuidad mental. Continúa leyendo «Prism: el bloc de notas con IA que OpenAI quiere llevar a los laboratorios»