Google presenta Gemini 3 Flash: su modelo de IA más veloz y eficiente hasta ahora

Google ha dado un paso importante en su estrategia de inteligencia artificial al lanzar Gemini 3 Flash, un modelo que hereda las capacidades del reciente Gemini 3, pero con una clara orientación hacia la velocidad, eficiencia y bajo costo. Este modelo no busca reemplazar a los más potentes como Gemini 3 Pro, sino ofrecer una alternativa rápida para tareas cotidianas, donde la agilidad y el uso múltiple son prioritarios.

Con este movimiento, Google reemplaza al anterior Gemini 2.5 Flash como modelo predeterminado en la aplicación Gemini y en el modo de inteligencia artificial del buscador. La idea es clara: ofrecer una herramienta poderosa, pero optimizada para el gran público, con mejoras notables en velocidad de respuesta, comprensión de intenciones y manejo de contenidos multimodales. Continúa leyendo «Google presenta Gemini 3 Flash: su modelo de IA más veloz y eficiente hasta ahora»

Google presenta nuevas herramientas para optimizar el uso de recursos en agentes de IA

A medida que los agentes de inteligencia artificial se vuelven más comunes en tareas complejas como búsquedas web, análisis de datos o navegación por documentos, el coste de su operación también se incrementa. En este contexto, Google, junto con investigadores de la Universidad de California en Santa Bárbara, ha desarrollado un marco innovador que permite a estos agentes gestionar mejor su «presupuesto» computacional y de uso de herramientas. Esta solución tiene como objetivo lograr que los agentes sean más conscientes de sus límites y ajusten su comportamiento para mantener un equilibrio entre precisión y coste. Continúa leyendo «Google presenta nuevas herramientas para optimizar el uso de recursos en agentes de IA»

Baidu lanza un modelo multimodal de código abierto que desafía a los gigantes de la IA

Baidu, el gigante tecnológico chino conocido por su motor de búsqueda, acaba de presentar ERNIE-4.5-VL-28B-A3B-Thinking, un modelo de inteligencia artificial multimodal que busca competir directamente con desarrollos avanzados como GPT-5 de OpenAI y Gemini 2.5 Pro de Google. La propuesta sorprende no solo por sus capacidades, sino también por su eficiencia computacional, ya que activa solo 3.000 millones de parámetros durante la inferencia, pese a contar con un total de 28.000 millones.

Este tipo de arquitectura, conocida como Mixture-of-Experts (MoE), permite que solo una fracción del modelo se active en cada tarea, reduciendo el consumo de recursos y haciéndolo viable para empresas que no cuentan con infraestructuras de computación avanzadas. Baidu asegura que su modelo puede funcionar con una sola GPU de 80 GB, lo que representa una alternativa accesible para organizaciones medianas. Continúa leyendo «Baidu lanza un modelo multimodal de código abierto que desafía a los gigantes de la IA»

DeepSeek reduce un 75% el coste de inferencia con su nuevo modelo de IA

La startup china DeepSeek AI vuelve a dar que hablar con su nuevo modelo DeepSeek-V3.2-Exp, que promete reducir drásticamente los costos de inferencia en modelos de inteligencia artificial generativa. Según su propio blog corporativo, la nueva versión disminuye el coste por millón de tokens de 1,68 dólares a tan solo 42 centavos, lo que representa una caída del 75% en el consumo computacional necesario para generar predicciones.

Esta mejora no se basa en una revolución técnica radical, sino en una optimización continua de un principio conocido desde hace tiempo en el ámbito de la inteligencia artificial: la esparsidad. En términos sencillos, se trata de usar solo las partes más relevantes del modelo y los datos para hacer predicciones, dejando inactivos los componentes que no aportan valor directo a una tarea específica. Continúa leyendo «DeepSeek reduce un 75% el coste de inferencia con su nuevo modelo de IA»

DeepSeek presenta modelo con atención dispersa para reducir a la mitad los costos de inferencia

La compañía china DeepSeek ha lanzado un modelo experimental llamado V3.2-exp, orientado a optimizar el rendimiento de operaciones en contextos largos, uno de los grandes desafíos técnicos en los modelos de lenguaje actuales. Esta versión introduce un sistema innovador llamado DeepSeek Sparse Attention, cuyo objetivo es minimizar la carga computacional y, con ello, reducir significativamente los costos de inferencia.

Cuando hablamos de inferencia, nos referimos al proceso por el cual un modelo ya entrenado genera resultados en base a una entrada dada. Este proceso, aunque menos costoso que el entrenamiento inicial, representa un gasto constante para quienes operan modelos en la nube o a través de API. Por eso, cualquier avance que reduzca el consumo de recursos en esta etapa tiene implicaciones económicas directas. Continúa leyendo «DeepSeek presenta modelo con atención dispersa para reducir a la mitad los costos de inferencia»

MiniMax-M1: el nuevo modelo de lenguaje abierto que amplía los límites de la inteligencia artificial

La carrera por desarrollar modelos de lenguaje más potentes, accesibles y eficientes tiene un nuevo participante destacado: MiniMax-M1, un modelo de código abierto que está dando mucho que hablar por sus características técnicas, su eficiencia computacional y su potencial para aplicaciones empresariales. Lanzado por la startup china MiniMax, este modelo representa un salto significativo en la evolución de la inteligencia artificial generativa. Continúa leyendo «MiniMax-M1: el nuevo modelo de lenguaje abierto que amplía los límites de la inteligencia artificial»

Google lanza Gemma 3: el modelo de IA más eficiente y potente hasta ahora

Google ha anunciado el lanzamiento de Gemma 3, la última generación de su familia de modelos de IA de código abierto. Este avance representa un salto significativo en términos de rendimiento, accesibilidad y eficiencia computacional, destacándose entre sus competidores por su capacidad para ejecutarse en una única GPU NVIDIA H100, mientras que otros modelos requieren hasta 32 GPUs.

Continúa leyendo «Google lanza Gemma 3: el modelo de IA más eficiente y potente hasta ahora»

DeepSeek AI vs. ChatGPT: ¿Qué modelo de IA es mejor para ti?

En el mundo de la inteligencia artificial, dos nombres están destacando: DeepSeek AI y ChatGPT. Ambos modelos de lenguaje tienen enfoques distintos para resolver tareas, optimizar recursos y ofrecer respuestas precisas. En WWWhatsnew analizamos en qué áreas DeepSeek supera a ChatGPT y en cuáles aún tiene terreno por recorrer.

Continúa leyendo «DeepSeek AI vs. ChatGPT: ¿Qué modelo de IA es mejor para ti?»

Mistral Small 3: La IA de código abierto que desafía a los gigantes

El mundo de la inteligencia artificial sigue evolucionando a pasos agigantados, y en esta carrera por desarrollar modelos más eficientes y accesibles, la startup europea Mistral AI ha dado un golpe sobre la mesa con el lanzamiento de Mistral Small 3. Este nuevo modelo promete rendimiento equivalente a modelos tres veces más grandes, pero con menores costos computacionales y mayor eficiencia.

Continúa leyendo «Mistral Small 3: La IA de código abierto que desafía a los gigantes»

La revolución de la IA: Meta revela su infraestructura de próxima generación

Meta ha presentado su última innovación en el ámbito de la inteligencia artificial: la próxima generación de chips personalizados diseñados específicamente para mejorar sus cargas de trabajo de IA. Esta nueva versión promete un rendimiento significativamente mejorado en comparación con su predecesora, impulsando los modelos de clasificación y recomendación de anuncios en Facebook e Instagram.

Continúa leyendo «La revolución de la IA: Meta revela su infraestructura de próxima generación»