GPT-4o, la gran novedad en ChatGPT

Publicado el

nuevo chatgpt

OpenAI ha sacado a relucir su nuevo modelo, GPT-4o, un nuevo modelo del querido ChatGPT. Mira Murati, la CTO de OpenAI, ha sido la encargada de presentar esta novedad que nos ha sorprendido gratamente.

GPT-4o es un modelo de lenguaje de fundamento multimodal, es decir, integra voz, texto y visión en una única plataforma, lo que permite analizar videos en tiempo real capturados por los usuarios a través de sus aplicaciones móviles, por ejemplo.

Una de las características más impresionantes de GPT-4o es su capacidad para responder en tiempo real a través de diferentes modalidades. Esto incluye detectar emociones y ajustar su tono de voz para transmitir distintos estados anímicos, similar a lo que ofrece la startup rival, Hume. Lo realmente mágico de GPT-4o es su velocidad de respuesta, que puede ser tan rápida como 232 milisegundos, rivalizando con los tiempos de respuesta humanos en una conversación.

Antes de GPT-4o, la modalidad de voz en versiones anteriores como GPT-3.5 y GPT-4 dependía de un sistema de tres modelos distintos que transcribían audio a texto, procesaban el texto y luego convertían el texto de vuelta a audio. Esto significaba que se perdía mucha información en el proceso. Ahora, GPT-4o maneja todos estos pasos como un único modelo integral, lo que permite una comprensión mucho más rica y matizada de la voz, el tono y los ruidos de fondo.

Durante la demostración, se mostró cómo GPT-4o puede funcionar como una aplicación de traducción en tiempo real, escuchando y traduciendo palabras de italiano a inglés y viceversa automáticamente. Además, el modelo ahora soporta más de 50 idiomas, mejorando significativamente la accesibilidad para usuarios de diversas partes del mundo.

GPT-4o también actualiza las capacidades de visión de ChatGPT. Dada una foto (o una pantalla de escritorio), ChatGPT ahora puede responder rápidamente preguntas relacionadas, desde temas que van desde «¿Qué está pasando en este código de software?» a «¿Qué marca de camisa lleva esta persona?»

Inicialmente, GPT-4o será accesible para los usuarios de ChatGPT Plus y Team, y más adelante para los usuarios de ChatGPT Free, aunque con algunos límites de uso. Esto representa un cambio significativo ya que, hasta ahora, los usuarios gratuitos solo tenían acceso al modelo GPT-3.5, que solo permitía procesar texto.

Para aquellos que prefieren una experiencia más integrada, OpenAI también ha anunciado una aplicación de escritorio ChatGPT para macOS, con planes de lanzar una versión para Windows más adelante este año. Esta aplicación permitirá un acceso más directo y posiblemente más robusto a las capacidades de GPT-4o.

Sin duda, GPT-4o es un gran paso adelante en la búsqueda de una interacción más natural y rica con la inteligencia artificial. La integración de modalidades de voz, texto y visión en una única plataforma es solo el comienzo de lo que esta tecnología puede ofrecer.

Tenéis todos los detalles en openai.com/index/hello-gpt-4o/

Comparte en: