Qwen3.5 en Ollama: el salto práctico hacia agentes multimodales con 256K de contexto

La noticia es sencilla de contar y muy interesante de usar: Ollama ha incorporado Qwen3.5, la nueva familia de modelos de Alibaba (equipo Qwen), con una propuesta pensada para quienes quieren mezclar texto e imagen y, a la vez, trabajar con agentes capaces de usar herramientas. En la biblioteca de modelos de Ollama aparece como una familia con soporte de visión, thinking y tools, con variantes locales y opciones en la nube.

En la práctica, esto baja a tierra una idea que llevaba tiempo rondando: que un modelo no sea solo “un chat”, sino un asistente que entiende lo que le enseñas (un pantallazo, un esquema, una foto), que aguanta conversaciones larguísimas o documentos enteros, y que puede ejecutar acciones guiadas, como si tuviera manos en forma de herramientas. Continúa leyendo «Qwen3.5 en Ollama: el salto práctico hacia agentes multimodales con 256K de contexto»

La importancia de elegir bien el modelo en Ollama en un RAG (más allá de la calidad de los embeddings)

En un pipeline de RAG (Retriever–Augmented Generation), a menudo se pone todo el foco en lograr embeddings de alta fidelidad y un índice semántico muy preciso. Sin embargo, la elección del modelo generativo (tamaño, arquitectura y cantidad de parámetros) es igual de decisiva para la calidad final de las respuestas. Un embedding “perfecto” solo asegura que el fragmento correcto llegue al prompt: cómo lo interpreta y reproduce el modelo depende enteramente de su capacidad interna.

Continúa leyendo «La importancia de elegir bien el modelo en Ollama en un RAG (más allá de la calidad de los embeddings)»

Cómo montar un servidor de Inteligencia Artificial

La Inteligencia Artificial está transformando profundamente la manera en que trabajamos, aprendemos y resolvemos problemas complejos. Contar con un servidor propio de IA puede abrir un abanico de posibilidades que van desde experimentar con modelos avanzados hasta desplegar soluciones personalizadas para aplicaciones específicas. Esta autonomía no solo ofrece mayor privacidad y control, sino también flexibilidad para adaptarse a requerimientos específicos sin depender de plataformas externas. Este artículo te proporcionará una guía detallada para tomar decisiones informadas sobre la elección de plataforma, configuración del hardware, instalación de librerías y optimización del rendimiento, todo ello ajustado a diferentes perfiles de usuario y presupuestos.

Continúa leyendo «Cómo montar un servidor de Inteligencia Artificial»