SEARCH-R1: La nueva técnica que permite a los modelos de lenguaje pensar y buscar al mismo tiempo

Los modelos de lenguaje grande (LLM) han evolucionado a pasos agigantados en los últimos años. Hoy en día son capaces de redactar textos, resolver problemas y mantener conversaciones de forma sorprendentemente natural. Pero hay un terreno donde aún cojeaban: integrar información externa y actualizada de forma fluida en su proceso de razonamiento.

¿El problema? Aunque estas inteligencias artificiales pueden razonar, a menudo lo hacen con conocimientos que se quedaron congelados en el tiempo, limitados a la fecha de su último entrenamiento. Esto es como intentar resolver un crucigrama con un diccionario de hace diez años: puede que aciertes algunas, pero otras estarán completamente desactualizadas.

Desde WWWhatsnew.com venimos siguiendo de cerca este tipo de desafíos, y hoy nos parece interesante destacar una solución prometedora: SEARCH-R1, una técnica desarrollada por investigadores de la Universidad de Illinois en Urbana-Champaign y la Universidad de Massachusetts Amherst. ¿Qué hace especial a SEARCH-R1? Permite que un LLM no solo razone, sino que también realice búsquedas en tiempo real mientras piensa, integrando los resultados directamente en su línea de razonamiento.

Continúa leyendo «SEARCH-R1: La nueva técnica que permite a los modelos de lenguaje pensar y buscar al mismo tiempo»

Claimify: la herramienta que ayuda a verificar lo que dicen los modelos de lenguaje

Los modelos de lenguaje como ChatGPT han demostrado ser increíblemente útiles para resumir información, redactar textos y responder preguntas complejas. Sin embargo, también tienen un punto débil: a veces, lo que escriben suena bien, pero no es del todo cierto o verificable. Desde wwwhatsnew.com, donde analizamos las tendencias en inteligencia artificial desde hace años, creemos que esta limitación es uno de los mayores retos a resolver si queremos confiar realmente en las respuestas generadas por IA.

Ahí es donde entra en juego Claimify, una nueva herramienta presentada por Microsoft Research que busca solucionar este problema de raíz: extraer afirmaciones precisas, claras y verificables de los textos generados por IA. Es como si tuviéramos un filtro inteligente que selecciona solo las partes que realmente se pueden comprobar, descartando lo demás.

Continúa leyendo «Claimify: la herramienta que ayuda a verificar lo que dicen los modelos de lenguaje»

Interlify: conecta tus APIs con modelos de lenguaje en minutos

En el ecosistema del desarrollo de aplicaciones con inteligencia artificial, una de las mayores barreras para los equipos técnicos es la integración de APIs con modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés). Conectar servicios internos con estos modelos suele ser un proceso tedioso, costoso y, en muchos casos, frustrante. Interlify surge como una solución a este problema, ofreciendo una plataforma que permite integrar APIs con modelos de lenguaje en cuestión de minutos, sin necesidad de escribir código adicional ni gestionar infraestructura compleja.

Continúa leyendo «Interlify: conecta tus APIs con modelos de lenguaje en minutos»

DeepSeek desafía a los gigantes de la IA generativa: ¿Cambio de paradigma en el sector?

En el mundo de la inteligencia artificial generativa (GenAI), un puñado de empresas como OpenAI, Anthropic y Google han dominado el panorama en los últimos años, invirtiendo miles de millones de dólares en el desarrollo de modelos avanzados. Sin embargo, la aparición de DeepSeek, una startup china, ha desafiado esta dinámica con un modelo de alto rendimiento y bajo costo, lo que podría marcar un punto de inflexión en el sector.

Continúa leyendo «DeepSeek desafía a los gigantes de la IA generativa: ¿Cambio de paradigma en el sector?»

¿Es válido construir startups basadas en LLM Wrappers?

El auge de la inteligencia artificial ha llevado al desarrollo de múltiples startups que se basan en modelos de lenguaje de gran tamaño (LLM). En este contexto, se ha generado un intenso debate sobre si las empresas que simplemente construyen «wrappers» alrededor de estos modelos pueden sostenerse a largo plazo o si están condenadas a la obsolescencia.

Continúa leyendo «¿Es válido construir startups basadas en LLM Wrappers?»

Google lanza Gemma 3: el modelo de IA más eficiente y potente hasta ahora

Google ha anunciado el lanzamiento de Gemma 3, la última generación de su familia de modelos de IA de código abierto. Este avance representa un salto significativo en términos de rendimiento, accesibilidad y eficiencia computacional, destacándose entre sus competidores por su capacidad para ejecutarse en una única GPU NVIDIA H100, mientras que otros modelos requieren hasta 32 GPUs.

Continúa leyendo «Google lanza Gemma 3: el modelo de IA más eficiente y potente hasta ahora»

Por qué extraer datos de PDFs sigue siendo un dolor de cabeza para los expertos en datos

Durante años, empresas, gobiernos e investigadores han enfrentado un desafío persistente: extraer datos utilizables de archivos PDF. Estos documentos digitales contienen información vital, desde investigaciones científicas hasta registros gubernamentales, pero su formato rígido muchas veces convierte esa información en un laberinto impenetrable para las máquinas.

Continúa leyendo «Por qué extraer datos de PDFs sigue siendo un dolor de cabeza para los expertos en datos»

Alibaba lanza QwQ-32B: su nuevo modelo de IA que compite con OpenAI y DeepSeek

Alibaba Cloud ha presentado su nuevo modelo de inteligencia artificial, QwQ-32B, basado en su LLM (Large Language Model) más reciente, Qwen2.5-32B. Con solo 32.000 millones de parámetros, Alibaba asegura que su rendimiento es comparable al de otros gigantes del sector, como DeepSeek-R1 y OpenAI’s o1, ambos con modelos significativamente más grandes. Este anuncio representa un paso adelante en la optimización de la IA, priorizando la eficiencia sobre la escala bruta.

Continúa leyendo «Alibaba lanza QwQ-32B: su nuevo modelo de IA que compite con OpenAI y DeepSeek»

OctoTools: el nuevo framework de código abierto de Stanford para optimizar el razonamiento en IA

Investigadores de la Universidad de Stanford han lanzado OctoTools, una plataforma de código abierto que mejora la capacidad de razonamiento de los modelos de lenguaje (LLMs). Este nuevo framework permite dividir problemas complejos en subtareas, optimizando la ejecución de herramientas externas para resolverlas con mayor precisión y eficiencia.

Continúa leyendo «OctoTools: el nuevo framework de código abierto de Stanford para optimizar el razonamiento en IA»

DeepSeek acelera el lanzamiento de su modelo de IA R2 para competir con OpenAI

La startup china de inteligencia artificial DeepSeek está decidida a mantener su impulso en el mercado y adelantar el lanzamiento de su nuevo modelo DeepSeek-R2. Según información filtrada a Reuters, la compañía inicialmente planeaba presentar R2 en mayo, pero ahora busca acelerar su llegada sin una fecha exacta confirmada.

Continúa leyendo «DeepSeek acelera el lanzamiento de su modelo de IA R2 para competir con OpenAI»