¿Por qué el algoritmo de ChatGPT parece “pensar” en chino?

Publicado el

Recientemente, OpenAI presentó su nuevo modelo de algoritmo denominado o1, el cual describen como un avance en el ámbito del “razonamiento”. Este algoritmo promete dedicar más tiempo a analizar las preguntas antes de responder, lo que debería traducirse en respuestas más precisas y mejor elaboradas. Sin embargo, un comportamiento curioso ha llamado la atención de los usuarios: el modelo parece “pensar” en chino, incluso en conversaciones completamente en otros idiomas.

El fenómeno: razonamiento en varios idiomas

Usuarios de internet, quienes tienen la posibilidad de observar el proceso de razonamiento del modelo, notaron que el algoritmo o1 incluía caracteres chinos y códigos en diversos idiomas en su razonamiento interno. Este hallazgo generó preguntas en redes sociales.

Por ejemplo, Rishab Jain compartió en X (antes Twitter): “¿Por qué el o1 de repente empezó a razonar en chino? Ninguna parte de la conversación estaba en ese idioma. Muy interesante… influencia de los datos de entrenamiento.” Otro usuario, identificado como Nero, también escribió: “Ehmm, ¿por qué mi GPT o1 piensa en chino? Jaja.” Aunque etiquetaron a OpenAI en sus mensajes, la empresa no proporcionó una respuesta inmediata.

Posibles explicaciones técnicas

Una explicación plausible es que el algoritmo fue entrenado con grandes cantidades de datos en varios idiomas, incluyendo chino. En palabras de Rohan Paul, un ingeniero especializado en inteligencia artificial: “Ciertas lenguas podrían ofrecer eficiencias en la tokenización o mapas más fáciles para ciertos tipos de problemas. Por eso, el modelo o1 podría estar alternando entre idiomas para encontrar caminos de cálculo más óptimos.”

Otro analista, Raj Mehta, sugirió que los modelos de lenguaje como o1 operan en un espacio latente compartido donde los conceptos son abstractos y no necesariamente están atados a un idioma específico. Esto significa que el modelo podría “razonar” en el idioma que ofrezca la representación más eficiente del problema.

Desde WWWhatsnew, creemos que estas teorías son bastante razonables y subrayan la complejidad de cómo los modelos de lenguaje procesan la información. Sin embargo, también dejan abierta la pregunta de qué tan predecibles y controlables son estos comportamientos.

La opacidad de los modelos de OpenAI

Una crítica recurrente hacia OpenAI es la falta de transparencia en sus sistemas. Luca Soldaini, investigador del Instituto Allen para la Inteligencia Artificial, explicó que, debido a la naturaleza opaca de estos algoritmos, es prácticamente imposible determinar por qué ocurren estos fenómenos. “Este tipo de observación en un sistema de IA desplegado es imposible de corroborar debido a cuán opacos son estos modelos,” comentó Soldaini en una entrevista con TechCrunch.

La falta de claridad en los procesos internos de OpenAI es irónica, considerando que su nombre promueve una misión “abierta” de desarrollo tecnológico. Esta falta de apertura no solo dificulta la comprensión de sus productos, sino que también genera desconfianza entre los usuarios. Desde WWWhatsnew creemos que una mayor transparencia sería fundamental para fortalecer la confianza en estos sistemas y permitir que los investigadores externos puedan analizar su comportamiento.

Este episodio nos recuerda que la inteligencia artificial, aunque sorprendentemente poderosa, sigue siendo un área de investigación llena de incertidumbre. Mientras los modelos como o1 continúen evolucionando, también lo hará nuestra comprensión sobre sus capacidades y limitaciones. Sin embargo, también debemos exigir que las empresas tecnológicas rindan cuentas y abran sus “cajas negras” para garantizar que estas herramientas sean útiles, confiables y responsables.

Comparte en: