Sam Altman, CEO de OpenAI, admitió que el modelo de lenguaje GPT contiene prejuicios

Publicado el

ChatGPT

Sam Altman, el CEO de OpenAI, reconoce que el modelo de lenguaje GPT tiene prejuicios, aunque mejoró significativamente en las versiones GPT-3.5 y GPT-4.

En una entrevista con Lex Fridman, investigador de inteligencia artificial en el MIT, Altman habló sobre una variedad de temas, incluidas las críticas de Elon Musk sobre la investigación de seguridad AGI de OpenAI, la probabilidad de riesgos de IA y el tema del «jailbreaking» del que pueden ser objeto sus sistemas.

CEO de OpenAI acepta la crítica y reconoce que hay mucho por hacer en la IA

Altman admitió que GPT es prejuicioso y probablemente siempre lo será. A pesar de esto, expresó su agradecimiento a los críticos que notan los avances realizados por OpenAI y señaló que queda mucho por hacer.

El hombre clave detrás de ChatGPT también respondió a las críticas de Elon Musk sobre la investigación de seguridad AGI de OpenAI. Altman simpatizaba con las preocupaciones de Musk, pero estimaba que Musk se debía centrar más en el difícil trabajo de abordar los problemas de seguridad de la IA.

El CEO de OpenAI enfatizó la distinción entre la inteligencia general artificial (AGI) y la inteligencia artificial (IA). AGI es una máquina que puede comprender o aprender cualquier tarea intelectual que un humano pueda hacer, mientras que la IA es una máquina que sobresale en una tarea específica.

Altman también habló sobre la probabilidad de riesgos de IA. Reconoció que muchas de las predicciones sobre la IA en términos de capacidades y problemas de seguridad resultaron ser inexactas. En relación con el objetivo de OpenAI de que las personas tengan control sobre los modelos mientras tienen límites abiertos, también habló sobre el tema de «jailbreaking».

«Jailbreaking» es el nombre que recibe el proceso de modificar un dispositivo para permitir la ejecución de órdenes no autorizadas por el fabricante. En el contexto de la IA, cuando se habla de jailbreaking, se refiere a modificar un modelo de IA para que actúe de una manera no deseada o para saltarse los límites que se le han impuesto.

El alto ejecutivo de la firma de inteligencia artificial explicó que la existencia de jailbreak muestra que aún no se ha resuelto el problema de que los usuarios tengan mucho control y que los modelos se comporten como quieren dentro de límites amplios. Señaló que quieren que los usuarios tengan el control, pero no quieren que tengan que hacer jailbreak. Altman destacó que cuanto más pronto se resuelva el problema, menos necesidad habrá de hacer jailbreak.

Además de los temas relacionados con la IA, en la entrevista también se discutieron temas más generales como el significado de la vida, la diferencia entre realidad y ficción, y consejos para padres. Altman enfatizó el valor de la honestidad intelectual, aceptando que se pueden cometer errores y crecer a partir de ellos.

Comparte en: