Además de los agentes GPT, la DevDay también ha traído otros anuncios interesantes, incluyendo el lanzamiento del nuevo modelo GPT-4 Turbo, la nueva API para Asistentes, nuevas capacidades multimodales, y más.
Los desarrolladores además se alegrarán saber de que OpenAI se encuentra reduciendo los precios de algunos de sus productos subiendo a además los límites de las tasas de uso, introduciendo además nuevos niveles de uso, buscando ayudar a que las aplicaciones puedan escalar.
GPT-4 Turbo
Respecto a GPT-4 Turbo, ahora llega un adelanto de este modelo del cual señala que es más capaz y tiene conocimiento de los eventos mundiales hasta abril de 2023. Agregan además de que tiene una ventana de contexto de 128k, lo que puede tener el equivalente a más de 300 páginas de texto en un solo mensaje.
Por ahora está a disposición de los desarrolladores que paguen por la vista previa gpt-4-1106, con vistas a su lanzamiento en versión estable para las próximas semanas.
API de Asistentes
También anuncian la llegada de la API de Asistentes con la que los desarrolladores podrán crear experiencias similares a las de los agentes dentro de sus respectivas aplicaciones, que incluye capacidades como intérprete y recuperación de código, así como llamadas a funciones para manejar gran parte del trabajo pesado, reduciendo la complejidad en el desarrollo de aplicaciones, permitiendo que las mismas sean de alta calidad.
Y agregan:
Esta API está diseñada para ofrecer flexibilidad; Los casos de uso van desde una aplicación de análisis de datos basada en lenguaje natural, un asistente de codificación, un planificador de vacaciones con tecnología de inteligencia artificial, un DJ controlado por voz, un lienzo visual inteligente… y la lista continúa.
Nuevas capacidades multimodales
Ya dentro de las nuevas capacidades multimodales se incluye GPT-4 Turbo con visión, teniendo en cuenta que GPT-4 Turbo es capaz de aceptar imágenes como entradas en la API Chat Completions, abriendo un conjunto de posibilidades que va desde la generación de subtítulos, identificar productos en imágenes y más, señalando que el soporte de visión para el modelo principal GPT-4 Turbo llegará como parte de su versión estable, y cuyo precio variará en función del tamaño de la imagen de entrada.
Con respecto a DALL·E 3, de reciente lanzamiento, como ya sucediera con la versión anterior, ya cuenta con su propia API para que los desarrolladores puedan integrar las capacidades de este modelo para la creación de imágenes desde sus respectivas aplicaciones, donde la API cuenta además con capacidades de moderación para evitar posibles malos usos. OpenAI ofrece esta API en diferentes opciones de formato y calidad, con precios desde $0.04 por imagen generada.
OpenAI también lanza la API de conversión de texto a voz con la que los desarrolladores podrán dotar a sus aplicaciones de capacidades de generación de voz con calidad humana a partir de texto, con seis voces preestablecidas para elegir, existiendo además dos variantes de modelo, donde tts-1 está optimizado para casos de uso en tiempo real y tts-1-hd está optimizado para calidad.
OpenAI dice que el precio comienza en $0,015 por entrada de 1000 caracteres.
Programa experimental de ajuste fino para GPT-4
Ya en otro orden de cosas, OpenAI anuncia también la llegada de un programa de acceso experimental para el ajuste fino de GPT-4, para lograr mejoras significativas con respecto al modelo base, aunque aquellas organizaciones que quieran un nivel de ajuste más elevado, también llega el programa de Modelos personalizados, que a las organizaciones seleccionadas se les da la oportunidad de trabajar con un grupo de investigadores dedicado de OpenAI para llevar a cabo el entrenamiento personalizado de GPT-4 para su dominio específico.
Más información: OpenAI