Actualmente, es cada vez más solicitado el contenido musical inmersivo y la realidad virtual está en pleno desarrollo para hacerlo posible de una mejor manera cada día. Desde distintas plataformas, la posibilidad tecnológica de presenciar cualquier concierto, en cualquier parte del mundo, quita ya el sueño a buena parte del público en todo el mundo, y por lo tanto, también a los profesionales del audio, que cada vez más ven la manera en la que el espectro sonoro de actuación se amplía. En esta ocasión, presentamos gratamente el proyecto de música en realidad virtual que el músico argentino, Pedro Aznar, junto al ingeniero Andrés Mayo, se encargaron de concretar recientemente.
Encuentro de artey tecnología
Aunado a su gran talento, Pedro Aznar ha estado siempre en contacto con las tendencias actuales de la música y la forma en la que ésta ha evolucionado, razón por la cual fue invitado a desarrollar su música en realidad virtual. “Fui contactado por la gente de VRTIFY (plataforma de música pensada para la realidad virtual de origen argentino), para hacer el video en realidad virtual, siendo que en ese momento aún no se había hecho esta experiencia en concierto en Latinoamérica”, comparte. El trabajo con Andrés Mayo, que ha estado muy cerca de Pedro en la producción de álbumes como Quebrado y que se ha hecho acreedor a reconocimientos como el Premio Gardel, comenzó para este proyecto cuando Andrés le hizo saber que estaba trabajando sobre audio en 360 grados y le gustaría aunar las dos tecnologías y aplicarlas sobre su concierto.
¿Cómo podría explicarse el concepto sonoro de esta grabación? Pedro Aznar responde: “La idea es que el espectador esté completamente inmerso en el lugar y en el sonido, para que la experiencia sea lo más realista posible, lo más parecido a estar ahí. Musicalmente fuimos cien por ciento fieles a lo que fue el concierto, pero lo diferente e innovador estuvo en la captura y el procesamiento del video y el audio”.
El músico argentino siempre se involucra en gran medida en la producción de sus álbumes, y esta vez continuó siendo de esa forma: “Yo hice la mezcla del audio por stems (elementos musicales), de tal manera que sumando todas las piezas de audio a un volumen igual, resultara una mezcla bien balanceada, que representara fielmente a la canción. Le entregué esos stems a Andrés Mayo para que él los trabajara sobre la plataforma 360 grados, de manera que si uno centra su vista en medio del escenario, escucha un equilibrio de todos los instrumentos y la sala, pero a medida que uno mueve su centro de visión/escucha hacia la platea o hacia algún instrumento en particular, la mezcla cambia dinámicamente para reflejar la nueva posición. Es asombroso, y el audio hace que la experiencia de realidad virtual sea muchísimo más creíble”.
Pedro Aznar ahora tiene la posibilidad de ser conocido, amén de su extensa carrera, por ser uno de los primeros músicos en el mundo en experimentar con esta tecnología. “Es un honor”, concluye; “la gente de Dolby Labs quedó muy contenta con el resultado y la canción sobre la que hicimos el trabajo. “Quebrado” fue muy bien recibida en las muestras de realidad virtual que se hicieron en Los Angeles. Hay un potencial enorme a desarrollar y pienso seguir involucrándome y aportando a estos proyectos”.
Nuevos horizontes sonoros
El ingeniero Andrés Mayo explica la manera en la que dio inicio el concepto del concierto de Pedro Aznar en realidad virtual: “Fue una linda combinación de voluntades. Pedro ha sido siempre un artista visionario, con marcado interés por las innovaciones tecnológicas. Por otro lado, la compañía VRTIFY, se acercó a él con la propuesta de crear un canal propio de VR. Y por tercera parte, yo le propuse trabajar el audio en un formato hasta ahora inexplorado en América Latina: la mezcla en 360 grados, utilizando la tecnología Atmos de Dolby”.
“El proceso de producción fue muy libre”, comenta Andrés; “con Pedro pudimos hacer todo lo que quisimos, siempre bajo el concepto implícito de llegar a una propuesta artística que involucrara muy buena calidad de audio y video en 360 grados, así que tuvimos libertad total para trabajar, tanto desde el punto de vista técnico como creativo. Cuando creímos que el proyecto estaba en condiciones de ser mostrado, lo llamamos para que lo viera y afortunadamente su respuesta fue altamente positiva”.
El principal cambio implicó entender la dimensión espacial que el proyecto requería, tal y como explica Andrés Mayo: “No se trataba de una captura en 2D, sino que todos los músicos, el público y el propio espacio acústico del teatro pasan a estar físicamente ubicados en distintos puntos del universo virtual que se crea para esta experiencia. Para esto, se trabaja con el concepto de objetos sonoros, donde cada uno tiene su propia identidad y características únicas. Por ejemplo, la reverb (cámara) de la voz de Pedro, es considerada un objeto sonoro independiente, al mismo nivel que la guitarra, la voz o los elementos de percusión. Asimismo, dentro del público, podemos identificar varios objetos sonoros, cada uno con sus propiedades. Entonces la mezcla se vuelve mucho más compleja, porque el resultado final debe ser que cuando nos coloquemos el casco de realidad virtual (también llamado HMD o Head Mounted Display), cada objeto sonoro coincida exactamente en ubicación, tamaño, distancia y características auditivas con lo que estamos viendo. Y eso requiere de una dedicación muy grande al pulido final en la etapa de mezcla”.
En cuanto a los equipos y tecnologías empleadas, Andrés detalla: “Trabajamos junto con el ingeniero Martin Muscatello, utilizando una herramienta que aún está en etapa de prueba, llamada Dolby VR Suite. Por ser alguien que se encuentra probando esta herramienta, me dieron acceso a versiones aún no liberadas comercialmente, lo que permitió simplificar mucho nuestro trabajo, al no depender del circuito comercial convencional para el uso de estas herramientas”.
“Lo más complejo fue lograr el perfecto funcionamiento de la tecnología, que para nosotros era totalmente nueva”, continúa Andrés Mayo; “tiene su complejidad, porque involucra dos máquinas, una operando con el sistema iOS y la otra con Windows, que se interconectan vía IP, dando lugar a dudas y dificultades inesperadas. Pero por suerte contamos con el total apoyo de Dolby Internacional en Burbank, California, que nos brindó asistencia técnica constante a lo largo del proceso”.
La trascendencia de este proyecto, tomando en cuenta lo novedoso que resultó, es muy grande para todos los involucrados, como lo menciona el propio Andrés: “Es importantísimo, primero por la relevancia del artista, y por tener conciencia de que estamos abriendo una puerta a futuro para ingenieros, productores y desarrolladores de VR en toda la región que desean realizar experiencias de realidad virtual y que hasta ahora no disponían de las herramientas necesarias. Considero que hay muchísimo para explotar en distintas aplicaciones, no solamente en el rubro de los videojuegos. Los conciertos son un buen ejemplo, pero también vamos a aplicar audio de 360 grados en los deportes, en el turismo y contenidos audiovisuales en general. El audio en 360 grados es quien lidera la experiencia VR, no va atrás de lo que se mira, sino al contrario, es el audio el que te hace decidir hacia dónde vas a mirar. Un buen ejemplo es Black Mass, un cortometraje de terror que te obliga como espectador a buscar en todas direcciones para saber qué te pasará. La búsqueda es por audio, mucho antes que por imagen”.
Con estas palabras, un experimentado ingeniero como es Andrés Mayo asienta las bases de lo que en un futuro no muy lejano nos encontraremos frecuentemente. Una puerta sonora más se abre, para quienes quieran pasar e intentar otras maneras de hacer audio.