WWWhat's new

Descubre la revolucionaria IA de OpenAI: GPT-4, el modelo más avanzado hasta ahora

GPT-4

OpenAI, la compañía de dirige Sam Altman para el desarrollo de modelos de Inteligencia Artificial avanzados, propietaria de la popular plataforma ChatGPT impulsada por su modelo GPT-3.5, acaba de presentar el lanzamiento de GPT-4, que desde hoy se puede usar tanto a través de ChatGPT como a través de la API, existiendo en la actualidad una lista de espera.

La compañía destaca que pese a que aún ofrece un rendimiento por debajo de los humanos en muchos escenarios del mundo real, GPT-4 sí que es capaz de estar a niveles similares a los humanos en los escenarios académicos y profesionales.

El mejor modelo de aprendizaje automático creado hasta la fecha

Para OpenAI, GPT-4 es el modelo más estable que han podido desarrollar hasta la fecha, pasando a ser el primer gran modelo cuyo entrenamiento es posible predecir con precisión previa, y con vista a poder ser escalable de forma confiable, aunque desde la compañía seguirán trabajando en perfeccionar la metodología que para predecir y lanzar capacidades futuras con mayor anticipación, algo que consideran crítico a nivel de seguridad.

Pese a que se trata de un modelo multimodal, es decir, que admite varios tipos de entradas, de momento solo admitirá entrada de texto, preparándose para admitir entrada de imágenes en un futuro con ayuda de un socio.

OpenAI añade que se encuentra abriendo OpenAI Evals, su plataforma de evaluación de rendimiento de la Inteligencia Artificial, que permitirá a cualquier persona informar de los problema encontrado en algunos de sus modelos al objeto de que se lleguen a introducir mejoras a los mismos.

Quizás quieran evitar lo que hasta ahora se ha venido a llamar alucinaciones, es decir, casos en los que los modelos lleguen a inventarse respuestas y presentadas como si fuesen respuestas verídicas, siendo este un aspecto que preocupa bastante.

Superando a GPT-3.5 y a modelos de la competencia

Como no podía ser de otro modo, OpenAI ha llegado a comparar las capacidades de GPT-4 en relación a GPT-3.5, llegando a la conclusión que:

GPT-4 es más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5.

En este sentido, GPT-4 ha supuesto seis meses de refinamiento teniendo en cuenta lo aprendido con anterioridad, incluso con ChatGPT, por lo que era de esperar una mejora sustancial, algo que han notado en sus pruebas a través de una simulación de exámenes que fueron dirigidos originalmente para las personas, ofreciendo un informe técnico que los interesados pueden consultar en este enlace.

Y además, señalan que:

También evaluamos GPT-4 en puntos de referencia tradicionales diseñados para modelos de aprendizaje automático. GPT-4 supera considerablemente a los modelos de lenguaje grande existentes, junto con la mayoría de los modelos de última generación (SOTA) que pueden incluir protocolos de capacitación adicionales o elaboración específica de referencia:

Con esto en mente, no es de extrañar que los rivales de OpenAI se encuentren trabajando a marchas forzadas para tratar de mejorar y sacar pecho de sus respectivas soluciones, algo que iremos viendo a lo largo de las próximas semanas a modo de anuncios.

Preparado para admitir múltiples idiomas, incluso de bajo uso

A modo de ejemplo, OpenAI indica que ha entrenado a su nuevo modelo para poder funcionar en múltiples idiomas, ayudándose en los entrenamientos con Azure Translate, a diferencia de la mayoría de sistemas de aprendizaje automático, que han utilizado muchos puntos de referencia únicamente en inglés, notando que:

En los 24 de los 26 idiomas probados, GPT-4 supera el rendimiento en inglés de GPT-3.5 y otros LLM (Chinchilla, PaLM), incluso para idiomas de bajos recursos como letón, galés y swahili

Sin duda, se puede decir que GPT-4 llega pisando fuerte, donde mostrará su potencial en el momento en el que también sea capaz de admitir imágenes como puntos de entrada, aunque en cualquier caso, está preparando para ofrecer respuestas únicamente en formato de texto.

Más información: OpenAI

Salir de la versión móvil