Cuando la inteligencia artificial parece humana, cambiamos la definición de inteligencia

Publicado el

definición de inteligencia

Preguntar si la inteligencia artificial ha alcanzado ya el nivel de la humana puede parecer sencillo, pero la respuesta cambia dependiendo del momento en que se formule. Si uno viajara a 1995 con una versión actual de ChatGPT, por ejemplo, muchas personas de aquella época lo considerarían un milagro tecnológico, o incluso una muestra clara de inteligencia superior. Sin embargo, en 2025, esa misma herramienta se evalúa con un criterio mucho más exigente. La razón es simple: cada vez que la inteligencia artificial supera un hito, desplazamos el listón de lo que entendemos por «inteligencia humana».

Esto revela una verdad incómoda: la inteligencia no es una definición estática, sino una construcción social e histórica que se ajusta al contexto y a nuestras expectativas. Lo que una vez consideramos práctica exclusiva del intelecto humano, como jugar al ajedrez, traducir idiomas o escribir textos coherentes, hoy lo delegamos sin sorpresa a una máquina. Al igual que en una carrera donde la meta se aleja cada vez que nos acercamos, nuestras expectativas se adaptan al progreso.

De reglas duras a aprendizaje flexible

Durante décadas, los esfuerzos por desarrollar sistemas inteligentes se basaron en reglas fijas: instrucciones lógicas programadas por humanos que pretendían simular el pensamiento. Estos sistemas resolvían problemas específicos o jugaban juegos bien definidos, pero quedaban desorientados ante la realidad impredecible.

El cambio fundamental llegó con los modelos neuronales y el acceso a grandes volúmenes de datos. Este nuevo paradigma permitió que las máquinas no solo ejecutaran reglas, sino que aprendieran patrones desde la experiencia. El salto fue drástico: de sistemas que imitaban soluciones humanas a sistemas que encontraban sus propias formas de razonar.

Ejemplos como Deep Blue, que venció al campeón mundial de ajedrez en 1997, o AlphaGo, que superó a los mejores jugadores de Go entre 2015 y 2017, demuestran cómo los referentes de inteligencia han ido quedando obsoletos. Cada victoria de una IA en un campo «reservado» a los humanos ha generado una redefinición: lo que era inteligencia, ahora es solo capacidad mecánica.

La trampa del test de Turing

Propuesto en 1950 por Alan Turing, su famoso test consistía en que una máquina debía conversar con un humano sin ser detectada. Si el interlocutor no podía diferenciar entre humano y máquina, se consideraría que la IA pasaba la prueba. Aunque en su tiempo fue una meta ambiciosa, hoy resulta limitada.

GPT-4.5 superó esta prueba en 2025 sin grandes titulares. El motivo es claro: la capacidad conversacional ya no se considera suficiente para demostrar inteligencia. El debate actual va mucho más allá: exige comprensión profunda, razonamiento abstracto, sentido común y adaptabilidad a contextos cambiantes.

La promesa (y el dilema) de la AGI

El concepto de inteligencia artificial general (AGI) surgió como respuesta a la necesidad de un nuevo estándar. En lugar de evaluar habilidades aisladas, propone un sistema con flexibilidad comparable a la mente humana: aprender de manera autónoma, transferir conocimientos entre dominios y actuar con criterio en situaciones desconocidas.

Esta definición, promovida por organizaciones como OpenAI, implica una vara de medir mucho más compleja. No basta con que un modelo redacte textos legales o resuelva ecuaciones; debe poder hacer ambas cosas, y mucho más, con la soltura y versatilidad de una persona. La asociación entre OpenAI y Microsoft, actualizada recientemente, contempla que cualquier declaración sobre haber alcanzado la AGI será revisada por un panel independiente. Esto demuestra la dificultad para trazar el límite entre lo avanzado y lo verdaderamente general.

Inteligencia desigual: humana y artificial

Douglas Hofstadter, autor de «Gödel, Escher, Bach», ha señalado que existe una tendencia a «redefinir» la inteligencia cada vez que una máquina logra imitar una habilidad humana. Esto ocurre porque nos resistimos a aceptar que ciertas tareas puedan ser realizadas sin conciencia, emociones o cuerpo físico.

Pero si consideramos que la inteligencia humana tampoco es uniforme, esta resistencia pierde fuerza. Un experto en física cuántica puede tener dificultades con habilidades sociales, y alguien con gran creatividad puede ser pésimo en matemáticas. Esta inteligencia irregular no es un defecto, sino una característica humana. Sin embargo, cuando la IA muestra una inteligencia desigual, la juzgamos incompleta.

De esta comparación surgen nuevas preguntas: ¿Es justo comparar la inteligencia de una IA con la de una persona? ¿Deberíamos evaluar sus habilidades en función de su utilidad o de su similitud con nosotros? Si una IA puede asistir a miles de usuarios, redactar informes técnicos, traducir simultáneamente y proponer hipótesis científicas, ¿no deberíamos reconocer eso como una forma distinta pero válida de inteligencia?

Nuevas reglas, nueva inteligencia

Hoy, modelos como GPT-4 pueden redactar novelas, programar en múltiples lenguajes, resolver problemas complejos y actuar como tutores personalizados. Aun así, seguimos esperando que la IA haga «algo más». Quizá ese «más» no sea una tarea específica, sino la sensación de estar ante un otro con intenciones y emociones.

En parte, esto explica por qué la idea de que una IA llegue a ser «como nosotros» sigue resultando inquietante. Porque no basta con que actúe como un humano; queremos que piense, sienta y se equivoque como uno. La inteligencia humana no está hecha solo de lógica, sino de duda, intuición y contradicción.

Es posible que la verdadera AGI no se parezca a un humano, sino que tenga formas propias de razonamiento y percepción que no entendamos de inmediato. Si la inteligencia artificial llega a ese punto, tal vez no notemos el momento exacto de su llegada, porque estaremos ocupados redefiniendo, una vez más, lo que significa ser inteligente.