El «aprendizaje profundo» se está usando para personalizar acciones de terapia del autismo, tal y como comentan en el MIT.
Los niños con condiciones de espectro autista suelen tener problemas para reconocer los estados emocionales de las personas a su alrededor, y desde hace tiempo se están usando robots para que los niños puedan imitar sus expresiones, respondiendo de forma adecuada a las caras tristes, alegres, y demás.
La terapia en la que se usan robots que expresan emociones funciona mucho mejor cuando la máquina consigue interpretar sin problemas la conducta del niño, y los investigadores del MIT Media Lab han desarrollado un tipo de aprendizaje automático personalizado que ayuda a los robots a estimar el compromiso y el interés de cada niño durante estas interacciones, utilizando datos que son únicos para ese niño.
Los robots entrenados en observaciones humanas podrían proporcionar estimaciones más consistentes de estos comportamientos, de forma que a largo plazo se podría personalizar el contenido de la terapia y hacer interacciones más atractivas entre los robots y los niños con autismo.
Los métodos habituales de IA requieren una gran cantidad de datos, pero todos ellos son similares para cada categoría que se aprende. En el autismo reina la heterogeneidad, por lo que los enfoques normales de AI fracasan. En este caso un terapeuta humano muestra fotos de niños o tarjetas de diferentes caras destinadas a representar diferentes emociones, para enseñarles a reconocer expresiones de miedo, tristeza o alegría. Luego, el terapeuta programa al robot para que muestre estas mismas emociones al niño, y observa al niño mientras interactúa con el robot.
De momento han participado 35 niños entre los 3 y los 13 años, 17 de Japón y 18 de Serbia. Durante sus sesiones de 35 minutos reaccionaron de varias maneras ante los robots, desde aburridos y adormilados en algunos casos a saltar por la sala con entusiasmo, aplaudir, y reír o tocar al robot, muchas veces tratando al robot como si de una persona real se tratara.
Podéis leer el estudio completo en el enlace anterior de news.mit.edu.