FunctionGemma afinado: cómo enseñar a un modelo pequeño a elegir la herramienta correcta

Cuando se habla de agentes de IA, lo realmente útil no es que “conversen bonito”, sino que conviertan una petición en una acción ejecutable. En la práctica, eso significa llamadas a funciones: el modelo decide qué herramienta usar y con qué argumentos, como si fuese un operador de centralita que conecta tu llamada con el departamento adecuado sin hacerte perder tiempo.

Con esa idea en mente, Google presentó FunctionGemma, una variante especializada de Gemma 3 (en el tamaño de 270M parámetros) afinada específicamente para tool calling. La apuesta es clara: modelos más pequeños y rápidos, pensados para ser rentables y funcionar con soltura cuando el flujo de trabajo depende de invocar APIs, funciones internas o acciones concretas. Continúa leyendo «FunctionGemma afinado: cómo enseñar a un modelo pequeño a elegir la herramienta correcta»

Un nuevo capítulo en la inteligencia artificial: China afina un modelo de mil millones de parámetros con computación cuántica

La inteligencia artificial y la computación cuántica suelen sonar como conceptos del futuro lejano, pero en China ya están trabajando en una intersección que hasta hace poco parecía ciencia ficción. Investigadores del Centro de Ingeniería de Computación Cuántica de Anhui lograron ajustar un modelo de inteligencia artificial de mil millones de parámetros utilizando su ordenador cuántico, Origin Wukong, abriendo una nueva puerta para resolver uno de los mayores retos tecnológicos de la actualidad: el límite de la capacidad computacional. Continúa leyendo «Un nuevo capítulo en la inteligencia artificial: China afina un modelo de mil millones de parámetros con computación cuántica»