WWWhat's new

Inteligencia artificial sometida a psicoanálisis por investigadores

inteligencia artificial

No sabemos exactamente lo que está sucediendo dentro del «cerebro» de la inteligencia artificial (IA) y, por ende, no somos capaces de predecir con precisión sus acciones. Podemos realizar pruebas y experimentos, pero no siempre podemos predecir y entender por qué la IA hace lo que hace.

Al igual que los humanos, el desarrollo de la inteligencia artificial se basa en experiencias (en forma de datos cuando se trata de IA). Es por eso que la IA llama la atención por la forma en que reacciona, desafiando en muchas ocasiones las normas o convenciones sociales. Bajo estas condiciones, un equipo de investigadores se propuso estudiar estos fenómenos propios de la virtualidad, pero con la óptica del psicoanálisis contemporáneo.

IA bajo la lupa del psicoanálisis

«El hecho de que podamos desarrollar un algoritmo que permita a la inteligencia artificial encontrar patrones en los datos para resolver mejor una tarea, no significa que entendamos qué patrones encuentra. Así que a pesar de que lo hemos creado, no significa que lo sepamos», dice el profesor Søren Hauberg de DTU Compute.

Lo que por un lado tiene sus raíces en la naturaleza de autoaprendizaje de la inteligencia artificial y, por otro lado, en el hecho de que hasta ahora no ha sido posible mirar en el ‘cerebro’ de la IA y ver qué hace con los datos para formar la base de su aprendizaje, deriva en una paradoja conocida como el problema de la caja negra..

Si pudiéramos averiguar con qué datos funciona la IA y cómo, correspondería a algo entre los exámenes y el psicoanálisis, en otras palabras, una forma sistemática de conocer mucho mejor la inteligencia artificial. Hasta ahora no ha sido posible, pero ahora Søren Hauberg y sus colegas han desarrollado un método basado en la geometría clásica, que permite ver cómo una inteligencia artificial ha formado su «personalidad».

Requiere conjuntos de datos muy grandes, por ejemplo, enseñar a los robots a agarrar, lanzar, empujar, tirar, caminar, saltar, abrir puertas, etc., y la inteligencia artificial solo utiliza los datos que le permiten resolver una tarea específica. La forma en que la inteligencia artificial clasifica los datos útiles de los inútiles, y en última instancia ve los patrones en los que posteriormente basa sus acciones, es comprimiendo sus datos en redes neuronales.

Sin embargo, al igual que cuando los humanos empacamos las cosas, puede parecer fácilmente desordenado para los demás, y puede ser difícil averiguar qué sistema hemos utilizado. Por ejemplo, si empacamos nuestra casa con el propósito de que sea lo más compacta posible, entonces una almohada termina fácilmente en la olla de sopa para ahorrar espacio. No hay nada de malo en eso, pero los forasteros podrían fácilmente sacar la conclusión equivocada; que las almohadas y las ollas de sopa eran algo que teníamos la intención de usar juntos. Y ese ha sido el caso hasta ahora cuando los humanos tratamos de entender por qué funciona la inteligencia artificial sistemática. Según Søren Hauberg, sin embargo, ahora es cosa del pasado:

«En nuestra investigación básica, hemos encontrado una solución sistemática para teóricamente retroceder, de modo que podamos realizar un seguimiento de qué patrones están arraigados en la realidad y cuáles han sido inventados por compresión. Cuando podemos separar los dos, nosotros, como humanos, podemos obtener una mejor comprensión de cómo funciona la inteligencia artificial, pero también asegurarnos de que la IA no escuche patrones falsos».

Søren y sus colegas de DTU se han basado en las matemáticas desarrolladas en el siglo 18 para ser utilizadas para dibujar mapas. Estos modelos geométricos clásicos han encontrado nuevas aplicaciones en el aprendizaje automático, donde se pueden utilizar para hacer un mapa de cómo la compresión ha movido los datos y así retroceder a través de la red neuronal de la IA y comprender el proceso de aprendizaje.

En muchos casos, la industria se abstiene de utilizar inteligencia artificial, específicamente en aquellas partes de la producción donde la seguridad es un parámetro crucial, por miedo a perder el control del sistema, de modo que se produzcan accidentes o errores si el algoritmo se encuentra con situaciones que no reconoce y tiene que tomar medidas por sí mismo.

Este nuevo estudio devuelve parte del control y la comprensión perdidos, haciendo más probable -bajo la óptica de los investigadores- que apliquemos la IA y el aprendizaje automático a áreas en las que estos recursos hoy no se usan.

Salir de la versión móvil