Google ha anunciado una serie de actualizaciones para su plataforma de inteligencia artificial empresarial, Vertex AI. Estas mejoras incluyen nuevos modelos, características y capacidades mejoradas que buscan optimizar el rendimiento y reducir costos para sus clientes corporativos.
Nuevos Modelos en Vertex AI
Gemini 1.5 Flash: Rápido y Rentable
El modelo Gemini 1.5 Flash ha pasado de la vista previa pública a la disponibilidad general. Este modelo, anunciado en Google I/O, se destaca por su baja latencia y alta eficiencia de costos. Con una ventana de contexto de un millón de tokens, Gemini 1.5 Flash supera a sus competidores en rapidez y capacidad de procesamiento. Google ha destacado que este modelo es un 40% más rápido que GPT-3.5 Turbo de OpenAI cuando se trabaja con entradas de 10,000 caracteres, y ofrece costos significativamente menores con la caché de contexto habilitada.
Gemini 1.5 Pro: Doblando la Capacidad
El modelo Gemini 1.5 Pro también ha recibido una actualización significativa. Ahora disponible con una ventana de contexto de dos millones de tokens, puede procesar grandes cantidades de datos, incluyendo dos horas de video, 22 horas de audio, más de 60,000 líneas de código y hasta 1.5 millones de palabras. Esta ampliación de la capacidad permite un manejo más eficiente de proyectos complejos y volúmenes de datos sustanciales.
Imagen 3: Innovación en Generación de Imágenes
Google ha lanzado Imagen 3, su último modelo de generación de imágenes, en vista previa para los clientes de Vertex AI. Este modelo ofrece un rendimiento un 40% más rápido, capacidad para generar imágenes foto-realistas de grupos de personas, mejor fidelidad de las indicaciones y soporte multilingüe. Además, Imagen 3 incluye características de seguridad integradas que aseguran un uso responsable de la tecnología.
Nuevos Modelos de Terceros
Para diversificar su oferta, Google está añadiendo más modelos de terceros y modelos abiertos a Vertex AI. Entre ellos se encuentran Gemma 2, que ya está disponible, y Mistral, que se espera para este verano. Estos modelos amplían las opciones disponibles para las empresas, permitiéndoles elegir la solución que mejor se adapte a sus necesidades específicas.
Reducción de Costos y Mejora de Eficiencia
Caché de Contexto
Una de las prioridades para Google es mantener los costos lo más bajos posible para las empresas. La implementación de la caché de contexto en Gemini 1.5 Pro y Gemini 1.5 Flash en vista previa pública es una medida en esa dirección. Esta característica mejora la forma en que los usuarios alimentan el contexto al modelo, resultando en una reducción de costos significativa.
Rendimiento Aprovisionado
Google ha lanzado una nueva característica de rendimiento aprovisionado, disponible desde hoy, que ayuda a los clientes a escalar el uso de los modelos de primera mano de Google. Esta funcionalidad asegura que las empresas puedan manejar picos de demanda sin comprometer la calidad del servicio.
Combatiendo la Desinformación con Grounding
Para abordar las preocupaciones sobre la desinformación y las alucinaciones generadas por IA, Google planea introducir grounding con datos de terceros en el próximo trimestre. Esto permitirá a las empresas incorporar sus datos en sus agentes de IA generativa, asegurando respuestas más precisas y relevantes.
Grounding con Alta Fidelidad
Google también ha anunciado una opción de grounding con alta fidelidad que utiliza únicamente el contexto proporcionado para generar respuestas. Esta opción no considera el conocimiento general del modelo, garantizando altos niveles de factualidad. Grounding con alta fidelidad está disponible en vista previa experimental y es impulsada por una versión afinada de Gemini 1.5 Flash.
Control de Datos y Residencia
Para dar a las empresas más control sobre dónde se almacenan y procesan sus datos, Google ha expandido la residencia de datos a 23 países y planea extender los compromisos de procesamiento de ML a ocho países más. Esta expansión permite a las empresas cumplir con regulaciones locales y asegurar la privacidad y seguridad de sus datos.