WWWhat's new

Una página que muestra por qué ChatGPT funciona como funciona

chatgpt

Varias veces os he explicado cómo funciona ChatGPT, os he comentado el sistema de estadísticas de los modelos de IA generativa y el cómo vomita palabras con sentido en función de las frases con las que ha sido entrenado.

El caso es que hay una página que muestra de forma gráfica todo esto.

Se trata de moebio.com/mind, un experimento en el que el creador muestra la importancia de las distribuciones de probabilidad sobre palabras (o tokens) para generar texto.

En esencia, ChatGPT, como una forma de modelo de lenguaje grande (LLM), se entrena en un corpus masivo de datos de texto. Este proceso de capacitación implica aprender las probabilidades de secuencias de palabras (o tokens) en función de sus apariciones y contextos en los datos de capacitación. El modelo no comprende el lenguaje en el sentido humano, pero tiene una comprensión matemática de los patrones y secuencias de palabras.

Cuando el modelo genera texto, lo hace prediciendo la siguiente palabra (token) en una secuencia basada en las palabras anteriores. Para cualquier secuencia dada de palabras, el modelo calcula una distribución de probabilidad sobre todas las palabras de su vocabulario sobre cuál podría ser la siguiente palabra. Esta probabilidad se basa en los patrones que aprendió durante el entrenamiento.

Proceso de generación de secuencia

El proceso es el siguiente:

En la página de moebio tenemos el resultado de poner «inteligencia es» en ChatGPT y analizar los cientos de posibles resultados, tal y como se aprecia al ir moviendo el ratón por la página.

Es fascinante pensar en cómo un proceso basado en predecir la probabilidad de la siguiente palabra puede dar como resultado la generación de un texto coherente y contextualmente apropiado, es algo que no me dejará de sorprender nunca.