Microsoft quiere ir un paso más allá con la dinámica que brindan sus servicios enfocados a las videollamadas. Y para ello, Microsoft Research ha puesto en marca un nuevo proyecto desarrollando una IA , que puede interpretar las emociones de los asistentes en una reunión virtual.
Este sistema enfocado a Microsoft Teams utiliza una red neuronal que analiza una serie de factores para interpretar las emociones que reflejan las expresiones de los usuarios. De esta manera, la IA puede monitorear las reacciones de la audiencia mientras se desarrolla una presentación.
Así podrías saber si tu aburres a tu audiencia con tu presentación
Microsoft no quiere que los oradores estén a ciegas cuando exponen o dan una representación en una reunión virtual, sin saber si la audiencia está interesada en el tema, les parece confusa o están involucrados en la exposición. Para ello, esta IA analiza a la audiencia y cada 15 segundos le brinda un pequeño informe al orador, destacando al usuario que parece más involucrado, teniendo en cuenta las expresiones más relevantes.
Esta IA, denominada AffectiveSpotlight, se enfoca en los rostros de los participantes para analizar sus movimientos y expresiones. Por ejemplo, si tienen las cejas fruncidas, si mueven las cabezas o qué tipo de emociones manifiestan en las expresiones faciales.
Así que mientras la IA realiza el análisis en segundo plano, el orador se puede enfocar en su exposición sin tratar de adivinar si las “señales no verbales” son positivas o no con relación a su exposición. Al contrario, aprovecha estas señales a su favor, gracias a AffectiveSpotlight.
Para medir la efectividad de esta IA se realizaron una serie de pruebas, y comprobaron que los oradores extendieron sus discursos, a la vez, que fueron más conscientes de la audiencia, tal como menciona el estudio. Sin embargo, aún está muy lejos de ser una solución, ya que hay muchos factores para analizar sobre su efectividad real al interpretar emociones, sin olvidar los problemas relacionados con la privacidad de los usuarios.