Si algo nos ha brindado la tecnología con el paso del tiempo han sido cámaras cada vez más potentes con capacidad para registrar imágenes de una gran calidad en términos de color y nitidez.
Esto ha hecho de las cámaras un recurso de gran utilidad, no solo para capturar personas y paisajes, sino también para llevar a cabo experimentos o proyectos, tales como generar el modelo 3D de una persona, animar un avatar en 2D o generar un teclado invisible desde el smartphone.
Es así como recientemente se dio a conocer el desarrollo de un proyecto enfocado en el registro de videos donde es posible desplazarse de la misma manera que si estuviéramos en un video de realidad virtual, teniendo además la posibilidad de cambiar de posición y visualizar el mismo video desde una perspectiva diferente.
¿Cómo es esto posible? Gracias un total de 46 cámaras adheridas a un enorme anillo, las cuales, son las encargadas de capturar las escenas, todo esto bajo un nuevo sistema desarrollado por un grupo de investigadores de Google.
Este esfuerzo ha traído como resultado la creación de una nueva técnica por parte de Google denominada Inmersive Light Field Video, la cual, fue presentada en el SIGGRAPH 2020, evento llevado a cabo por una organización internacional sin fines de lucro destinada a presentar lo mejor en propuestas dirigidas al sector de gráficos de computadora y técnicas enfocadas en la interactividad.
Gracias a este sistema es posible obtener escenas de total inmersión de la cual está que nos sirve de ejemplo nos recuerda a la icónica escena salida de la película Blade Runner.
Una representación 3D
Aunque pueda lucir como un proceso complicado, el lograr una escena envolvente es una tarea de relativa facilidad en su ejecución, siendo que podemos replicarla hasta con un smartphone.
Para lograrlo solo es necesario disponer de múltiples cámaras y usarlas para capturar un lugar específico o, también, podemos usar una cámara con capacidad de captura de 360 grados.
Luego de haber realizado la captura, el próximo paso a seguir es el de unir las imágenes y superponerlas con el propósito de obtener una sola, la cual, manipularemos para ajustar el ángulo y tener diferentes vistas.
En el caso de las cámaras de Google estas actúan de modo diferente, comenzando por el hecho de que estas no realizan una captura en 360 grados sino en 180 grados.
Luego, las imágenes obtenidas no son superpuestas directamente para crear el efecto de ser una única imagen, sino que son procesadas por un algoritmo de DeepView sustentado por inteligencia artificial para, finalmente, armar toda la escena en un entorno 3D. Aunque lo cierto es que al final lo que observamos es el video original bajo una representación 3D.
¿Cómo ha podido ser esto posible?
La clave radica la precisión con la que se lleva a cabo esta técnica que hace al truco pasar desapercibido frente a nuestros ojos.
Todo se trata del manejo adecuado de luces y detalles en donde, por ejemplo, el sistema puede lograr representar los reflejos en superficies pulidas o en el agua.
De la misma manera, el sistema tampoco presenta problema en recrear el movimiento generado por objetos sueltos o las prendas de ropa.
Ingresando en el sitio web oficial del estudio es posible observar algunos ejemplos que demuestran la manera en que funciona este sistema.
Pese a estar preparados para ser experimentados en realidad virtual, la visualización de estos videos también puede ser llevada a cabo desde un navegador, siendo Google Chrome la opción apropiada para hacerlo, pero no sin antes activar las funciones experimentales del navegador a través de chrome://flags.