WWWhat's new

IA para dar habilidades sociales a los robots

inteligencia artificial

Actualmente, los robots pueden realizar tareas tan variadas como entregar comida en un campus universitario y golpear un hoyo en uno en el campo de golf. No obstante, hasta el robot más sofisticado no puede realizar interacciones sociales básicas que son críticas para la vida humana cotidiana.

Un nuevo sistema de aprendizaje automático ayuda a los robots a comprender y realizar ciertas interacciones sociales.

Interacciones sociales en robots, potenciadas por IA

Los investigadores del MIT ahora han incorporado ciertas interacciones sociales en un marco para la robótica, permitiendo a las máquinas comprender lo que significa ayudarse u obstaculizarse mutuamente, y aprender a realizar estos comportamientos sociales por su cuenta. En un entorno simulado, un robot observa a su compañero, adivina qué tarea quiere lograr y luego ayuda u obstaculiza a este otro robot en función de sus propios objetivos.

Los investigadores también demostraron que su modelo crea interacciones sociales realistas y predecibles. Cuando mostraron videos de estos robots simulados interactuando entre sí a los humanos, los espectadores humanos en su mayoría estuvieron de acuerdo con el modelo sobre qué tipo de comportamiento social estaba ocurriendo.

Permitir que los robots exhiban habilidades sociales podría conducir a interacciones humano-robot más fluidas y positivas. Por ejemplo, un robot en un centro de vida asistida podría usar estas capacidades para ayudar a crear un entorno más afectuoso para las personas mayores. El nuevo modelo también puede permitir a los científicos medir cuantitativamente las interacciones sociales, lo que podría ayudar a los psicólogos a estudiar el autismo o analizar los efectos de los antidepresivos.

«Los robots vivirán en nuestro mundo muy pronto, y realmente necesitan aprender a comunicarse con nosotros en términos humanos. Necesitan entender cuándo es el momento de que ayuden y cuándo es el momento de que vean lo que pueden hacer para evitar que algo suceda. Este es un trabajo muy temprano y apenas estamos rascando la superficie, pero siento que este es el primer intento muy serio de comprender lo que significa para los humanos y las máquinas interactuar socialmente «, dice Boris Katz, científico investigador principal y jefe del Grupo InfoLab en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT y miembro del Centro para cerebros. Mentes y máquinas (CBMM).

Junto a Katz en el artículo están el coautor principal Ravi Tejwani, asistente de investigación en CSAIL; el coautor principal Yen-Ling Kuo, estudiante de doctorado de CSAIL; Tianmin Shu, un postdoctorado en el Departamento de Cerebro y Ciencias Cognitivas; y el autor principal Andrei Barbu, científico investigador de CSAIL y CBMM. La investigación se presentará en la Conferencia sobre Aprendizaje de Robots en noviembre.

Para estudiar las interacciones sociales, los investigadores crearon un entorno simulado donde los robots persiguen objetivos físicos y sociales a medida que se mueven alrededor de una cuadrícula bidimensional.

Un objetivo físico se relaciona con el medio ambiente. Por ejemplo, el objetivo físico de un robot podría ser navegar a un árbol en un cierto punto de la cuadrícula. Un objetivo social implica adivinar lo que otro robot está tratando de hacer y luego actuar en función de esa estimación, como ayudar a otro robot a regar el árbol.

Los investigadores utilizan su modelo para especificar cuáles son los objetivos físicos de un robot, cuáles son sus objetivos sociales y cuánto énfasis debe poner en uno sobre el otro. El robot es recompensado por las acciones que realiza y que lo acercan a lograr sus objetivos. Si un robot está tratando de ayudar a su compañero, ajusta su recompensa para que coincida con la del otro robot; si está tratando de obstaculizar, ajusta su recompensa para que sea lo contrario. El planificador, un algoritmo que decide qué acciones debe tomar el robot, utiliza esta recompensa de actualización continua para guiar al robot a llevar a cabo una combinación de objetivos físicos y sociales.

«Hemos abierto un nuevo marco matemático sobre cómo modelar la interacción social entre dos agentes. Si eres un robot y quieres ir a la ubicación X, y yo soy otro robot y veo que estás tratando de ir a la ubicación X, puedo cooperar ayudándote a llegar a la ubicación X más rápido. Eso podría significar acercar X a ti, encontrar otra X mejor o tomar cualquier acción que tuvieras que tomar en X. Nuestra formulación permite que el plan descubra el ‘cómo’; especificamos el ‘qué’ en términos de lo que las interacciones sociales significan matemáticamente», dice Tejwani.

Combinar los objetivos físicos y sociales de un robot es importante para crear interacciones realistas, ya que los humanos que se ayudan unos a otros tienen límites a lo lejos que llegarán. Por ejemplo, una persona racional probablemente no solo le entregaría a un extraño su billetera, dice Barbu.

Los investigadores utilizaron este marco matemático para definir tres tipos de robots. Un robot de nivel 0 solo tiene objetivos físicos y no puede razonar socialmente. Un robot de nivel 1 tiene objetivos físicos y sociales, pero asume que todos los demás robots solo tienen objetivos físicos. Los robots de nivel 1 pueden tomar acciones basadas en los objetivos físicos de otros robots, como ayudar y obstaculizar. Un robot de nivel 2 asume que otros robots tienen objetivos sociales y físicos; estos robots pueden tomar acciones más sofisticadas como unirse para ayudar juntos.

Para ver cómo su modelo se compara con las perspectivas humanas sobre las interacciones sociales, crearon 98 escenarios diferentes con robots en los niveles 0, 1 y 2. Doce humanos vieron 196 videoclips de los robots interactuando, y luego se les pidió que estimaran los objetivos físicos y sociales de esos robots.

En la mayoría de los casos, su modelo estaba de acuerdo con lo que los humanos pensaban sobre las interacciones sociales que ocurrían en cada fotograma.

«Tenemos este interés a largo plazo, tanto para construir modelos computacionales para robots, como para profundizar en los aspectos humanos de esto. Queremos averiguar qué características de estos videos los humanos están utilizando para comprender las interacciones sociales. ¿Podemos hacer una prueba objetiva de su capacidad para reconocer las interacciones sociales? Tal vez haya una manera de enseñar a las personas a reconocer estas interacciones sociales y mejorar sus habilidades. Estamos muy lejos de esto, pero incluso ser capaces de medir las interacciones sociales de manera efectiva es un gran paso adelante», dice Barbu.

Los investigadores están trabajando en el desarrollo de un sistema con agentes 3D en un entorno que permita muchos más tipos de interacciones, como la manipulación de objetos domésticos. También planean modificar su modelo para incluir entornos donde las acciones pueden fallar.

Los investigadores también quieren incorporar un planificador de robots basado en redes neuronales en el modelo, que aprende de la experiencia y funciona más rápido. Finalmente, esperan ejecutar un experimento para recopilar datos sobre las características que los humanos usan para determinar si dos robots están participando en una interacción social.

«Con suerte, tendremos un punto de referencia que permita a todos los investigadores trabajar en estas interacciones sociales e inspirar los tipos de avances científicos y de ingeniería que hemos visto en otras áreas, como el reconocimiento de objetos y acciones», dice Barbu.

«Creo que esta es una aplicación encantadora del razonamiento estructurado a un desafío complejo pero urgente», dice Tomer Ullman, profesor asistente en el Departamento de Psicología de la Universidad de Harvard y jefe del Laboratorio de Computación, Cognición y Desarrollo, que no participó en esta investigación. «Incluso los bebés pequeños parecen entender las interacciones sociales como ayudar y obstaculizar, pero aún no tenemos máquinas que puedan realizar este razonamiento con algo como la flexibilidad a nivel humano. Creo que modelos como los propuestos en este trabajo, que tienen agentes pensando en las recompensas de los demás y planificando socialmente la mejor manera de frustrarlos o apoyarlos, son un buen paso en la dirección correcta».

Salir de la versión móvil