.

Computación

El audio 3D genera sonidos en función de la posición del usuario

1

Los cascos permiten que parezca que la fuente virtual emisora del sonido se encuentra en el espacio físico en el que está representada

  • por Tom Simonite | traducido por Lía Moya
  • 06 Junio, 2014

Justo cuando una nueva generación de gafas de realidad virtual para videojuegos está a punto de llegar al mercado, los investigadores de Microsoft han creado lo que podría ser su complemento perfecto: una forma de que los cascos normales creen una ilusión realista de que el sonido llega desde distintos puntos del espacio.

Combinado con un dispositivo de realidad virtual como el Oculus Rift, el nuevo sistema se podría usar para hacer que parezca que los objetos o personajes de un mundo virtual están en un punto concreto del espacio, incluso aunque quede fuera del campo de visión de la persona. Los investigadores de Microsoft se refieren a la tecnología como audio 3D.

En una demostración de la tecnología en el laboratorio que Microsoft tiene en Silicon Valley (EEUU), me puse unos cascos inalámbricos que hicieron que los objetos cercanos cobraran vida. De un transistor la voz una voz de una persona, un altavoz falso emitía música de gran calidad. Y un pájaro de peluche colocado a cierta altura piaba de forma realista. Según me movía, los sonidos cambiaban, manteniendo la ilusión a pesar de que cambiaba su posición en relación con mis oídos.

Esta experiencia un poco sobrenatural era posible gracias a que menos de un minuto antes me había sentado delante de un sensor 3D de Kinect y me habían girado brevemente a izquierda y derecha. El software creó un modelo en 3D de mi cabeza y hombros para poder calcular un filtro personalizado capaz de engañar a mi sentido del oído.

Foto: El investigador de Microsoft David Johnston prueba un sistema que hace que parezca que el sonido se origina en puntos específicos del espacio. La electrónica que hay encima de los cascos tiene sensores para hacer un seguimiento de la cabeza del usuario.

Una vez registrado el filtro, lo pueden usar muchos tipos distintos de dispositivos o de software, explica el investigador de los laboratorios de Microsoft en Redmond Ivan Tashev, que trabaja en el proyecto junto con su colega David Johnston. "Se puede usar tanto para la realidad virtual como para la realidad aumentada", afirma.

Para funcionar bien, el sistema de Tashev además necesita datos sobre la posición de los cascos cuando la persona mueve la cabeza. Estos datos los recogen sensores de movimiento y una cámara. Pero, por ejemplo, los sensores de movimiento que usa el casco de realidad virtual Oculus Rift podrían proporcionar la información suficiente (ver "TR10: Oculus Rift").

El sistema de Tashev es una nueva vuelta de tuerca a una idea antigua. Desde hace mucho se sabe que la posición y forma única de las orejas de alguien, unidas a la anatomía de su cabeza alteran cómo llega el sonido a los cabales auditivos, un proceso que se describe como "función de transferencia relacionada con la cabeza", o HRTF por sus siglas en inglés. Si se programa un sistema con la descripción de estos parámetros, puede engañar a la persona para que perciba que el sonido proviene de un lugar concreto.

Desgraciadamente, capturar la HRTF de alguien es difícil. La forma más precisa es usar tapones para los oídos equipados con toda una serie de micrófonos que registran exactamente qué llega al oído cuando se tocan distintos sonidos que sirven para calibrar, pero es algo poco práctico fuera del entorno de un laboratorio. Los desarrolladores de videojuegos crean efectos sonoros espaciales usando una HRTF media, pero no sirven para ofrecer una ilusión demasiado precisa a la mayoría.

Cuando Tashev escanea la cabeza de alguien, su software genera una HRTF aproximada de ese sujeto que parece ser lo suficientemente buena como para producir un audio espacial inusualmente preciso. "Básicamente podemos predecir cómo oirás partiendo de tu aspecto", explica. "Desentrañamos el proceso físico del sonido que rodea tu cabeza y llega a tus orejas". El software que lo hace se creó capturando HRTFs precisas para 250 personas y comparándolas con escaneados en 3D de sus cabezas.

Tashev cuenta que ahora está trabajando para mejorar el sistema de captura y hacer que sea lo suficientemente fácil y rápido como para que lo pueda hacer alguien en casa con su cámara Kinect.

El profesor y director del Laboratorio de Interfaces Humanas de la Universidad de Canterbury (Nueva Zelanda) Mark Billinghurst, afirma que el método desarrollado por Microsoft podría tener mucho alcance si el proceso de escaneado se puede hacer lo suficientemente práctico. Y poder aplicar trucos de audio 3D en voces, avisos y sonidos en los juegos que se escuchan a través de los cascos del teléfono o de Google Glass, facilitaría la interacción con estos.

"Probablemente no dé unos resultados tan precisos como una HRTF detallada, pero podría seguir siendo mucho mejor de lo que ofrecen los juegos y otros medios en la actualidad", sostiene Billinghurst. "Lo que ayudaría que te sintieras más inmerso en un juego o un entorno virtual, o incluso con dispositivos portables".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  2. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores

  3. La computación cuántica se abre camino a través del ruido

    Durante un tiempo, los investigadores pensaron que tendrían que conformarse con sistemas ruidosos y propensos a errores, al menos a corto plazo. Esto está empezando a cambiar.

    Jay Gambetta dirige el desarrollo de los ordenadores cuánticos de IBM y lideró la iniciativa de llevar estos sistemas a la nube.