Para hacer un modelo 3D de un objeto generalmente se necesitan varias cámaras que apunten a dicho objeto desde diferentes ángulos, imágenes que posteriormente se procesan para crear el modelo en cuestión.
Conseguirlo con una sola cámara desde un solo ángulo no es tarea fácil, pero tampoco es imposible, y Facebook lo ha demostrado.
Para la conferencia anual de visión por computadora CVPR, Facebook está mostrando un algoritmo que puede generar un modelo 3D bastante detallado de una persona vestida con solo una cámara, algo que puede serle muy útil para continuar creando proyectos para Oculus, su plataforma de Realidad Virtual.
En un documento, llamado PIFuHD (ya en github), tres empleados de Facebook y un investigador de la Universidad del Sur de California proponen un sistema de aprendizaje automático para generar una representación 3D de alto detalle de una persona y su ropa a partir de una sola imagen de 1K. No se requiere sensor de profundidad ni equipo de captura de movimiento.
Es la evolución de un sistema más antiguo al que llamaron PIFu, que solo podía manejar imágenes de entrada de resolución relativamente baja, lo que limita la precisión y el detalle del modelo de salida. Ahora PIFuHD muestrea la imagen de entrada para agregar detalles finos de superficie.
El objetivo de poder hacer esto es crear un avatar 3D realista a partir de la captura frontal del usuario, lo que ayudaría en la inmersión de proyectos de Realidad Virtual.
La generación del cuerpo del avatar es otro paso en el camino hacia el objetivo final establecido, permitir que los usuarios «existan» como su verdadero ser físico en entornos virtuales, y ver a sus amigos como realmente se ven también.
Aún queda mucho tiempo para que esta tecnología esté disponible en el mercado, ya que el propio Facebook dice que están «a años de distancia» para los productos de consumo, como videoconferencia con telepresencia, por ejemplo.