Inteligencia artificial: ¿Sobrepasará la mente humana en cinco años?

Publicado el

cerebro artificial

La inteligencia artificial (IA) está avanzando a un ritmo que incluso los expertos más optimistas no habían anticipado. Este avance plantea preguntas cruciales sobre el futuro de la humanidad y la necesidad de una regulación efectiva.

Comentan en VentureBeat que Geoffrey Hinton, uno de los pioneros en el campo de la IA, ha cambiado su visión sobre el desarrollo de esta tecnología. Anteriormente optimista, ahora muestra preocupación sobre la posibilidad de que la IA supere la inteligencia humana en un plazo mucho más corto de lo que se pensaba, posiblemenete en solo cinco años.

Los grandes modelos de lenguaje (LLM, por sus siglas en inglés) son una de las principales razones detrás de este rápido avance. Estos modelos tienen la capacidad de razonar y, según Hinton, podrían desarrollar una forma de conciencia en el futuro.

La potencia computacional es otro factor clave en esta ecuación. Países como China están invirtiendo fuertemente en aumentar su capacidad de cálculo, lo que podría acelerar aún más el desarrollo de modelos de IA más avanzados.

La velocidad a la que avanza la IA plantea serios desafíos para los reguladores. La Unión Europea está a la vanguardia en la formulación de leyes, pero hay preocupaciones sobre cómo estas podrían afectar a las pequeñas empresas y a la innovación. La falta de un enfoque unificado en la regulación de la IA podría llevar a un paisaje fragmentado, complicando la vida a las empresas que operan en múltiples jurisdicciones.

La aceleración de la IA hace imperativo un enfoque global y cooperativo para su regulación. La falta de consenso podría tener implicaciones serias para el futuro de la tecnología y la humanidad.

¿Debemos regular y limitar el avance por miedo a lo que pueda ocurrir en el futuro? Desde mi punto de vista ese miedo solo puede traer consecuencias negativas, porque mientras unos limitan, otros no lo harán, y acabará generando una desigualdad difícil de gestionarse.

Lo que está claro es que nos encontramos en un punto crítico donde las decisiones que tomemos sobre la IA tendrán un impacto duradero. No se trata solo de innovación y progreso tecnológico, sino también de ética y la salvaguardia del futuro humano.

Un artículo del MIT que tienes que leer

El caso es que precisamente hoy se ha publicado un artículo en technologyreview.com que trata sobre este tema.

El artículo aborda el complejo tema de la conciencia en la inteligencia artificial (IA), un asunto que involucra a filósofos, científicos cognitivos e ingenieros. David Chalmers, una autoridad en conciencia, fue invitado a hablar en una conferencia de IA, lo que subraya la creciente importancia de este debate. Aunque grandes modelos de lenguaje como ChatGPT han avanzado significativamente, Chalmers argumenta que aún carecen de los requisitos para la conciencia.

El artículo también destaca las implicaciones éticas de la IA consciente. Si una IA es consciente, podría sufrir, lo que plantea dilemas morales sobre su tratamiento. Liad Mudrik, neurocientífica, señala que la conciencia es difícil de definir y estudiar, pero es crucial para entender la ética en torno a la IA.

Varias teorías intentan explicar la conciencia, algunas centradas en el software cerebral y otras en el hardware. Sin embargo, ninguna ha sido probada definitivamente. Los expertos están trabajando en colaboraciones «adversariales» para probar estas teorías entre sí, buscando una comprensión más precisa de la conciencia.

El artículo también aborda los desafíos prácticos de determinar la conciencia en la IA. Se han propuesto diferentes pruebas, pero todas tienen limitaciones. Algunos expertos sugieren que si no se puede determinar si una IA es consciente, entonces no debería construirse. Sin embargo, esto podría ser poco realista, especialmente si la IA consciente resulta ser rentable.