Vertex AI Prompt Optimizer: cómo optimizar tus prompts en Google Cloud

En el mundo del desarrollo de aplicaciones basadas en modelos de lenguaje (LLM), diseñar un buen prompt es esencial para obtener resultados precisos y coherentes. Pero, ¿alguna vez has sentido que encontrar el prompt perfecto es un proceso agotador y tedioso? Google ha lanzado Vertex AI Prompt Optimizer en su fase de vista previa pública para facilitar el proceso de creación de prompts y asegurarse de que siempre obtienes el mejor rendimiento de tus aplicaciones de inteligencia artificial.

Continúa leyendo «Vertex AI Prompt Optimizer: cómo optimizar tus prompts en Google Cloud»

Groq revoluciona con su nuevo motor de LLM

La empresa Groq ha presentado un motor de modelos de lenguaje grande (LLM) que permite realizar consultas y otras tareas de manera extremadamente rápida directamente en su sitio web. Esta tecnología ha sido un avance significativo, demostrando velocidades que las GPU de empresas como Nvidia no pueden igualar. Groq ha incrementado la velocidad de respuesta de 800 a 1256.54 tokens por segundo en solo unos meses.

Continúa leyendo «Groq revoluciona con su nuevo motor de LLM»

Qué es DSPy y para qué sirve

DSPy (Declarative Self-improving Language Programs in Python) es un marco de trabajo desarrollado por investigadores de Stanford NLP que introduce un enfoque innovador para el desarrollo de aplicaciones que utilizan modelos de lenguaje grande (LLM, por sus siglas en inglés). Este enfoque se centra en la programación más que en la creación manual de prompts, lo que permite una optimización más específica y efectiva de las pipelines de desarrollo.

Continúa leyendo «Qué es DSPy y para qué sirve»

Una página que muestra por qué ChatGPT funciona como funciona

Varias veces os he explicado cómo funciona ChatGPT, os he comentado el sistema de estadísticas de los modelos de IA generativa y el cómo vomita palabras con sentido en función de las frases con las que ha sido entrenado.

El caso es que hay una página que muestra de forma gráfica todo esto.

Continúa leyendo «Una página que muestra por qué ChatGPT funciona como funciona»

Opinión sobre la promesa de un ChatGPT español hecha por Pedro Sánchez

En el pistoletazo de salida del MWC 2024, Pedro Sánchez anunció que se desarrollará un sistema «a lo ChatGPT» en España, entrenado con textos en español y lenguas cooficiales para que pueda tener un mejor rendimiento que los entrenados en inglés y que solo traducen el resultado.

No ha dado números relacionados con la inversión que se deberá hacer, ni ha dado detalles sobre para qué servirá este LLM que van a desarrollar. Solo ha comentado que quiere que España sea un centro importante de IA en el mundo, que la IA cambiará mucho el día a día de los españoles y que no quieren estar sentados mientras todo ocurre a nuestro alrededor.

Continúa leyendo «Opinión sobre la promesa de un ChatGPT español hecha por Pedro Sánchez»

MIT presenta un sistema innovador para conversaciones infinitas con IA

Acabo de conocer los detalles de una reciente investigación que promete revolucionar la manera en que interactuamos con los chatbots, esos asistentes virtuales que han pasado a formar parte de nuestro día a día, ayudándonos desde la redacción de textos hasta la generación de código.

El estudio, liderado por un equipo de la MIT junto a colaboradores de instituciones tan prestigiosas como NVIDIA y Meta AI, se centra en un problema bastante curioso pero significativo: la tendencia de los modelos de lenguaje grande, como ChatGPT, a degradarse o incluso colapsar tras largos períodos de conversación continua. Esta situación, que podría compararse a un atleta de maratón que se desvanece en la recta final, no solo es frustrante para los usuarios sino que limita seriamente la aplicabilidad de estas tecnologías.

Continúa leyendo «MIT presenta un sistema innovador para conversaciones infinitas con IA»

Dos nuevos modelos de Inteligencia Artificial que obtienen datos de Internet

Perplexity AI, una startup emergente en el campo de la inteligencia artificial, ha lanzado dos nuevos modelos de LLM (modelos de lenguaje de aprendizaje automático) llamados pplx-7b-online y pplx-70b-online. Estos modelos innovadores tienen la capacidad de acceder a información en tiempo real de Internet, permitiéndoles proporcionar respuestas precisas a consultas sensibles al tiempo​​.

Continúa leyendo «Dos nuevos modelos de Inteligencia Artificial que obtienen datos de Internet»

Amazon está mejorando su LLM para hacer más inteligente a Alexa

Amazon está trabajando en un modelo de lenguaje grande (LLM, por sus siglas en inglés) más avanzado y versátil para hacer que su asistente virtual, Alexa, sea más inteligente. En una conferencia de ganancias del primer trimestre, el CEO de Amazon, Andy Jassy, dijo que el nuevo modelo mejorado sería más capaz que el actual. El LLM, como ChatGPT, es un algoritmo de aprendizaje profundo que puede reconocer, resumir y generar texto y otros contenidos basados en conocimientos extraídos de enormes cantidades de datos de texto. Continúa leyendo «Amazon está mejorando su LLM para hacer más inteligente a Alexa»

ChatGPT For Me, la controvertida herramienta de Rewind.ai que desata temores de privacidad

«ChatGPT For Me» es la nueva función de Rewind.ai, una herramienta de búsqueda personal que registra todo lo que el usuario hace en su ordenador para ofrecerle un historial completo de sus acciones. La nueva característica de esta aplicación es un chatbot GPT-4 al que se le puede preguntar cualquier cosa acerca de lo que ha hecho el usuario en su dispositivo. Sin embargo, su implementación no está exenta de polémica debido a los temores de privacidad que ha suscitado. Continúa leyendo «ChatGPT For Me, la controvertida herramienta de Rewind.ai que desata temores de privacidad»

NVIDIA anuncia la tarjeta H100 NVL para grandes modelos de Inteligencia Artificial

El mercado de los grandes modelos de lenguaje (LLMs) se ha convertido en un área muy importante para el mundo de la Inteligencia Artificial (IA). NVIDIA ha anunciado recientemente una nueva tarjeta de aceleración basada en la arquitectura Hopper, diseñada específicamente para satisfacer las necesidades de los usuarios de LLM: la H100 NVL.

La H100 NVL es una variante interesante de la tarjeta PCIe H100 de NVIDIA, que está dirigida a un mercado único: la implementación de LLM. Esta tarjeta tiene una capacidad de memoria notablemente grande, siendo 2 tarjetas PCIe H100 ya unidas. Una de las principales características de la H100 NVL es su capacidad de memoria, que es mayor que la de cualquier otro modelo de NVIDIA hasta la fecha. La combinación de dos GPU en una tarjeta ofrece un total de 188 GB de memoria HBM3, lo que significa que cada tarjeta tiene 94 GB, lo que es más que cualquier otro modelo de NVIDIA. Continúa leyendo «NVIDIA anuncia la tarjeta H100 NVL para grandes modelos de Inteligencia Artificial»