Los límites cognitivos de los modelos de lenguaje: ¿pueden realmente pensar?

Publicado el

inteligencia

Uno de los errores más comunes al evaluar los avances en inteligencia artificial es asumir que la capacidad de un sistema para comunicarse con fluidez implica que posee un pensamiento sofisticado. Esta confusión, comprensible pero engañosa, ha sido alimentada por el crecimiento exponencial de los modelos de lenguaje a gran escala (LLMs), que parecen comprender y razonar, cuando en realidad sólo están manipulando patrones lingüísticos.

Benjamin Riley, fundador de Cognitive Resonance, sostiene que esta ilusión de inteligencia está construida sobre una base equivocada. En un ensayo publicado en The Verge, argumenta que el pensamiento humano y el lenguaje, aunque relacionados, son procesos distintos. Las personas piensan sin necesidad del lenguaje, y existen pruebas neurológicas que lo demuestran.

Pensamiento sin palabras

Investigaciones basadas en resonancia magnética funcional (fMRI) revelan que distintas áreas del cerebro se activan al resolver problemas lógicos, matemáticos o emocionales, en comparación con los procesos lingüísticos. De hecho, personas que han perdido su capacidad de hablar a causa de lesiones cerebrales siguen siendo capaces de razonar, entender emociones o seguir instrucciones visuales. Esta disociación entre lenguaje y pensamiento sugiere que los LLMs, por muy sofisticados que sean, no están replicando la cognición humana.

Modelos de lenguaje: imitadores, no pensadores

Los LLMs funcionan como sistemas probabilísticos: analizan enormes volúmenes de texto y predicen cuál es la próxima palabra más probable. Esto les permite redactar correos, responder preguntas o componer poesías de forma aparentemente coherente. Sin embargo, esa habilidad no proviene de una comprensión real del mundo, sino del manejo estadístico de datos previos.

Este enfoque tiene un techo difícil de superar. Como señala Riley, «los LLMs sólo emulan la función comunicativa del lenguaje»; no piensan, no razonan, no tienen modelos mentales del mundo. Si se desconecta esa capacidad lingüística, los sistemas simplemente dejan de funcionar, a diferencia de un ser humano, cuyo pensamiento puede persistir incluso sin palabras.

Escalar no es suficiente

Las grandes tecnológicas han apostado por escalar los modelos como la solución para lograr una inteligencia general artificial (AGI), aquella que iguale o supere las capacidades humanas en una amplia gama de tareas. Más datos, más GPUs, más centros de datos… y más consumo energético. Pero el modelo básico sigue siendo el mismo: estadístico y lingüístico.

Yann LeCun, reconocido como uno de los «padrinos de la inteligencia artificial» y hasta hace poco científico jefe de IA en Meta, coincide con esta crítica. LeCun defiende que los LLMs nunca alcanzarán la AGI, y propone una línea de investigación diferente: los modelos del mundo. Estos modelos buscarían aprender de forma similar a los humanos, entendiendo el espacio tridimensional, las relaciones físicas y el paso del tiempo, no solo el lenguaje escrito.

Creatividad limitada por diseño

Otra dimensión del debate gira en torno a la creatividad de los LLMs. Un estudio publicado en el Journal of Creative Behavior, dirigido por el profesor David H. Cropley, aplicó un modelo matemático para evaluar la creatividad de estas herramientas. Su conclusión fue clara: los sistemas de IA pueden imitar comportamientos creativos, pero su capacidad de generar contenido realmente original está limitada.

Cropley explica que los LLMs tienden hacia la mediocridad: generan textos plausibles, pero raramente innovadores. Como un estudiante que repite lo que leyó en libros, pero que no tiene ideas propias. Esto implica que, si se recurre a ellos como fuente principal de contenido creativo, el resultado será cada vez más repetitivo y predecible. Un riesgo importante para industrias como la publicitaria, el diseño o los medios.

Una inteligencia atrapada en el pasado

Riley describe a los LLMs como «máquinas de metáforas muertas«, atrapadas en los datos con los que fueron entrenadas. Aunque pueden combinar información existente de formas novedosas, no pueden salir del marco de referencia que les proporcionamos. Esta limitación impide que puedan proponer teorías nuevas o resolver problemas que exigen una comprensión más profunda del contexto, como el cambio climático o nuevos principios físicos.

Promesas como las de Sam Altman (OpenAI), que afirma que estas herramientas podrían incluso descubrir «una nueva física», o de Elon Musk, que cree que podrían resolver crisis globales, parecen hoy más declaraciones de marketing que afirmaciones respaldadas por evidencia científica.

El riesgo de creer en la ilusión

El entusiasmo desmedido por los LLMs puede tener consecuencias tangibles: inversiones millonarias mal dirigidas, consumo energético desproporcionado, y una sociedad que delega funciones críticas a sistemas que, aunque eficientes, carecen de entendimiento real. Creer que una IA puede pensar sólo porque habla bien es como asumir que un loro que repite frases es consciente de lo que dice.

La IA tiene un enorme potencial, sin duda, pero es necesario reconocer sus límites. Separar lo que puede hacer bien (automatizar tareas, generar contenido repetitivo, organizar datos) de lo que no puede (razonar, innovar, comprender el mundo). Solo así se podrá avanzar de forma responsable y ética.