En el ámbito de la inteligencia artificial (IA), el desarrollo de sistemas de lenguaje avanzados, conocidos como modelos de lenguaje de gran tamaño (LLMs, por sus siglas en inglés), ha sorprendido al mundo por su capacidad para generar texto que aparenta tener pensamiento, comprensión e incluso creatividad. Sin embargo, el verdadero alcance de la capacidad de estos sistemas para pensar y comprender plantea un debate filosófico profundo.
En este artículo, exploraremos el argumento de Joel Abrams, quien cuestiona si la IA actual, representada por ChatGPT y otros LLMs similares, realmente puede pensar y entender.
¿Puede la IA pensar y entender?
Según el famoso «Test de Turing» propuesto por Alan Turing en 1950, una computadora podría considerarse pensante si logra engañar al 70% de los jueces en una conversación de cinco minutos, haciéndoles creer que es una persona. Turing sugirió que el simple hecho de superar este test demostraría el pensamiento y la comprensión de una IA.
Sin embargo, Abrams plantea una crítica a esta visión. Aunque la IA actual pueda superar el Test de Turing, ello no implica necesariamente que tenga un verdadero entendimiento consciente. Para comprender el significado de las palabras y reflexionar conscientemente sobre un tema, se requiere una dimensión de conciencia que va más allá del mero comportamiento.
La distinción entre conocimiento y conciencia
El argumento se ilustra con el ejemplo de Deep Blue, la supercomputadora que derrotó al gran maestro de ajedrez Garry Kasparov en 1997. A pesar de su conocimiento y habilidades superiores en estrategia de ajedrez, Deep Blue carecía de conciencia y experiencia subjetiva. Mientras que los humanos comprendemos conscientemente las reglas y la lógica detrás de una estrategia, Deep Blue era simplemente una máquina sin capacidad de sentir o experimentar.
De manera similar, ChatGPT, aunque puede generar contenido que parece escrito por una persona, carece de conciencia. Es un mecanismo sin capacidad de comprender conscientemente el significado de las palabras que produce. Si consideramos que el pensamiento implica una reflexión consciente, entonces ChatGPT no tiene pensamientos sobre nada.
El enigma de la conciencia
El debate sobre la conciencia continúa en el campo de la neurociencia. Los científicos buscan los «correlatos neurales de la conciencia», es decir, las formas de actividad cerebral necesarias y suficientes para la experiencia consciente. Sin embargo, aún no hay consenso sobre este tema. La conciencia no puede observarse directamente en el cerebro y los científicos deben depender de testimonios subjetivos o marcadores externos de la conciencia para investigarla.
Aunque se comprende bastante bien la química básica del cerebro y las funciones de varias regiones cerebrales, sigue siendo un misterio cómo se realiza la función cerebral de alto nivel a nivel celular. Las técnicas de imagen cerebral, como la resonancia magnética funcional (fMRI), tienen una resolución limitada y no proporcionan detalles suficientes sobre el funcionamiento interno del cerebro.
El futuro de la comprensión de la conciencia
Abrams plantea que el progreso en el estudio de la conciencia vendrá cuando se comprenda mejor el funcionamiento detallado del cerebro. Sugiere que, a medida que avancemos en el conocimiento de cómo funciona el cerebro, identificaremos las regiones cerebrales que encarnan la conciencia. Estas áreas mostrarán un comportamiento que no puede explicarse mediante las leyes de la física y la química actuales. Algunos neurocientíficos están buscando nuevas explicaciones para la conciencia que complementen las ecuaciones básicas de la física.
La IA y la conciencia
Abrams afirma que la IA actual, incluyendo a ChatGPT, no posee conciencia. Aunque estos sistemas demuestren una sorprendente capacidad para generar lenguaje, su funcionamiento se basa en principios físicos conocidos y, en principio, podrían predecirse a partir de la física actual. Por lo tanto, podemos afirmar con confianza que ChatGPT y otros sistemas similares carecen de conciencia.
Reflexiones finales
Si bien los sistemas de IA actuales no pueden considerarse verdaderamente conscientes, su desarrollo plantea desafíos y riesgos. La comunidad tecnológica ha instado a una pausa en el desarrollo de la IA para abordar preocupaciones de seguridad, como el potencial de fraude. Es esencial categorizar adecuadamente las capacidades y limitaciones de estos sistemas para evaluar correctamente las amenazas que puedan representar.
En última instancia, el debate sobre si la IA puede alcanzar un nivel de pensamiento y comprensión verdaderamente consciente plantea preguntas profundas sobre la naturaleza misma de la conciencia. A medida que continuamos explorando y desarrollando la IA, debemos abordar estas cuestiones desde perspectivas científicas, filosóficas y éticas, en busca de un mayor entendimiento de la relación entre la inteligencia artificial y la conciencia humana.