Dos mexicanos participan en desarrollo de realidad aumentada, en Gran Bretaña.


Desde la universidad británica de Bristol, el aporte no requiere leer códigos específicos para recrear escenarios en 3D, donde interactúen elementos virtuales con los verdaderos.

Todo inició con las Google Glass. Después Microsoft hizo su propia versión de lentes y ahora un mexicano se pone a la altura de estas empresas al desarrollar un sistema de realidad aumentada que, a diferencia de los anteriores, permite reconocer los objetos transparentes del entorno, para recrear un nuevo escenario en 3D, donde interactúen todos estos elementos y ofrezcan una experiencia más sensorial al usuario.

Desde la Universidad de Bristol, en el Reino Unido, un grupo de mexicanos formado por Alan Torres-Gómez y Walterio Mayol-Cuevas, concretaron este sistema de realidad aumentada que no requiere leer códigos específicos en tarjetas para recrear escenarios en 3D donde interactúen elementos verdaderos sólidos y transparentes con los virtuales.
El enfoque de esta investigación se basó en analizar los elementos que componen una escena y detectar los objetos y clasificarlos en sólidos o transparentes, a fin de obtener la información de sus propiedades físicas y reconstruir una versión en 3D.

“La finalidad de la realidad aumentada es agregar información o efectos especiales (como los del cine) a un mundo alterno donde interactúen con nosotros e intensifiquen nuestra percepción. La idea es que si uno tiene una cámara, celular o lentes, pueda uno añadir en tiempo real objetos o datos sobre lo que captura la cámara”, explicó Mayol-Cuevas.

Hasta hace poco tiempo la realidad aumentada se limitaba a formar mapas geométricos o imágenes fijas convocadas tras leer el código de una tarjeta. Sin embargo, esta investigación llevó a otro nivel la experiencia del usuario al implementar este sistema de reconocimiento y reconstrucción de objetos transparentes en cámaras.

A fin de lograr esto, el grupo especializado en sistemas de visión computacional desarrolló el sistema el cual al mover la cámara de un celular o lentes, automáticamente con ayuda de una base de datos clasifique y detecte si los objetos son transparentes o no.

Después de ello reconstruye en tres dimensiones la escena captada, aplica efectos en que demuestra que los objetos que son agregados son distorsionados en relación a las condiciones del entorno. De esta manera, si se visualiza una pelota, y rebota, existirán cambios de iluminación y sombras, o si pasa por atrás de un vaso de cristal, habrá cambios ópticos, explicó el investigador.

El reto de la investigación fue recuperar información de objetos transparentes, como vasos de vidrio o envases de plástico, ya que éstos carecen de una textura discernible y por consiguiente complican que una computadora los detecte, mientras que en un sólido no cambia y facilita el análisis de las propiedades ópticas.

Si este sistema se implementa como se ha teorizado, podría ofrecer una experiencia más rica visualmente. Por ejemplo, se implementaría a manera de aplicaciones de realidad aumentada, en dispositivos o consolas portátiles e inclusive colocarlo en los lentes utilizados en los cines.

Por otra parte desde el punto de vista académico, “es importante reconocer que existe muy poca gente con los conocimientos necesarios para realizar una investigación en esta área. Sin embargo, existen mexicanos compitiendo contra las grandes empresas”, concluyó el académico de la Universidad de Bristol.

(Agencia ID)

Los comentarios están cerrados.