La mano robot de Google que aprende sola a girar pelotas

Publicado el

robot

Cambiar de posición dos bolas en una mano es algo que todos sabemos hacer, un ejercicio muy relajante que no necesita de excesiva agilidad, aunque para una mano robótica las cosas se pongan más difíciles.

Ese es el experimento que ha hecho Google: enseñar a una mano a girar bolas usando Inteligencia Artificial, sin ser entrenada previamente.

Los investigadores de Google Brain siguieron una novedosa técnica de planificación de tareas de robot que involucra modelos de dinámica profunda, o DDM. Afirman que su método, que describen en un documento preliminar publicado esta semana en Arxiv.org, permitió que una mano mecánica manipulara múltiples objetos utilizando solo cuatro horas de datos del mundo real. Aquí lo tenéis en vídeo:

El proyecto aborda el problema de la manipulación robótica de la mano, incluido un reciente estudio de Tencent que investigó el solucionador de cubos de Rubik con cinco dedos. Por separado, los investigadores de OpenAI detallaron en julio pasado un sistema capaz de dirigir las manos para agarrar y manipular objetos con precisión de vanguardia. En septiembre del año pasado, un equipo del MIT propuso un sistema de visión por computadora, denominado Redes de objetos densos, que permitía a los robots inspeccionar, comprender visualmente y manipular objetos que nunca antes habían visto. Y por su parte, Google a principios de este año colaboró ​​con investigadores de Princeton, Columbia y el MIT para desarrollar un robot recolector que denominaron TossBot, que aprende a agarrar y arrojar objetos en cajas fuera de los límites de su rango natural.

Estos métodos sin modelo de aprendizaje automático pueden aprender políticas que logran un buen rendimiento en tareas complejas. Requieren grandes cantidades de datos, pero son el futuro: robots que aprenden solos a partir de lo que ven y sienten.

Comparte en: