Antes de comenzar el artículo y perdernos en los vericuetos del audio, vamos a hacer dos salvedades: la primera es que seguramente de este artículo se harán más entregas, ya que el tema así lo demanda y la segunda es que tenemos que emprender un viaje por los conceptos y respuestas que nos da una ciencia que para todo tiene solución: la Acústica. Sin esto no podemos empezar a hablar de nada.

Antes de las más modernas simulaciones digitales de espacios reales, emulaciones de equipos antiguos y reverbs, ya se intentaba de forma análoga simular espacios, espacialidad o reflexiones.

Reflexión y reverberación

En primer lugar, vamos a definir estos dos términos muy importantes. A partir de estos dos conceptos deduciremos otros de relevancia para aplicarlos en nuestro quehacer cotidiano.

El primero es la reflexión. En pocas palabras, es el rebote de una onda sonora sobre una superficie. Las características del material de la superficie límite determinarán cuánta energía será absorbida por éste y cuánta volverá en forma de reflexión al medio o recinto. El sonido que viaja a través del medio –sin interferencia– hasta que llega al obstáculo o superficie límite se denomina “sonido incidente” y una vez que impacta sobre la superficie, habiendo perdido una pequeña o gran parte de su energía, cambia el ángulo de trayectoria y se denominará “sonido reflejado”. Vale aclarar que un sonido en un espacio cerrado genera múltiples reflexiones.

En segundo lugar está la reverberación. Es un fenómeno sonoro producido por las reflexiones que consiste en una ligera permanencia del sonido una vez que la fuente sonora original ha dejado de emitirlo. Una forma práctica, pero no por eso menos eficaz de percibir este fenómeno, es aplaudir una sola vez en un espacio cerrado y escuchar la información que nos devuelve el recinto es en definitiva, la reverberación. Este ejercicio nos llevará a encontrarnos con lugares con distintos tipos de este fenómeno.

Con el advenimiento de las tecnologías de grabación, producción y la aparición de nuevos recursos informáticos se ha tratado de emular, primero de forma análoga y luego de manera digital, este fenómeno, intentando manejar todas sus variables para obtener distintos resultados. Luego, desde la aparición de los procesadores digitales en la historia del audio, hubieron cambios en la forma de procedimientos, abaratamiento de costos y una flexibilidad nunca antes vista, y con la inserción de las computadoras en los estudios de grabación y luego en los “home studios”, se dio lugar a otro tipos de procesos ayudados por el desarrollo de los DSP y los softwares de Impulse Response (IR, que con la medición de las respuestas al impulso de distintos lugares nos permiten disponer de las emulaciones de esos espacios para aplicarlos en nuestros trabajos), que nos han traído las más diversas y avanzadas herramientas para la producción musical.

Simulación de espacios de forma análoga (Chambers)

Antes de las más modernas simulaciones digitales de espacios reales, emulaciones de equipos antiguos y reverbs, ya se intentaba de forma análoga simular espacios, espacialidad o reflexiones, que no eran parte de la grabación original, sino un efecto artificial que “simulara” un lugar que no era el mismo sitio en que se había grabado. En un principio sólo se procesaban las voces y alguno que otro elemento de la música (un ejemplo muy notorio han sido las tarolas en los ochenta); el efecto era el resultado de realizar un “envío” de la señal hacia un altavoz en una habitación con determinado tratamiento acústico (por consiguiente una determinada reverberación) y el resultado del paso de la señal por la sala era capturado por un micrófono que finalmente volvía a la consola para ser regulada por el ingeniero. En el estudio de Abbey Road aún se conserva una de estas salas.

Otra forma de simulación análoga de espacios era pasar la señal por una caja con resortes (o muelles). El paso de la señal devolvía un sonido procesado que era usado principalmente en voces; de ahí vienen las reverbs tipo spring.

En distintos tipos de reverbs o modelos, se utilizaban convertidores externos para manejar directamente todo en dominio digital y luego si era necesario se re-convertía digital-análogo para seguir en la cadena.

Algoritmos y reverbs digitales

Una de las compañías pioneras y que sus productos aún se siguen utilizando en este tipo de procesos es Lexicon, fundada en 1971. Sus procesadores, como los modelos 224XL o 480L, se pueden escuchar en las grabaciones más importantes desde esa época hasta nuestros días. A diferencia de las “chambers” que eran audio analógico sin conversión digital, en el caso de las reverbs digitales se envía el audio análogo desde la consola hasta el dispositivo y luego la conversión es realizada por el convertidor del dispositivo dentro del mismo A/D, que procesa la señal y luego se la envía a su conversor D/A para devolver la señal por envío a la consola. Cabe aclarar que en distintos tipos de reverbs o modelos, se utilizaban convertidores externos para manejar directamente todo en dominio digital y luego si era necesario se re-convertía digital-análogo para seguir en la cadena.

¿Cómo procesa?

Si bien explicamos anteriormente cómo se maneja el envío, nos queda ver la parte del proceso matemático y emulación luego de que la señal ingresó en el convertidor análogo-digital. Ésta es analizada por un algoritmo (programa con órdenes, sentencias y cálculos) y según los ajustes que estén habilitados en el equipo o los presets con los que éste cuente, la señal procesada se devuelve al convertidor. Varios de los procesadores digitales de reverbs y los plug-ins (no los IR – Impulse Response) trabajan de esta manera, realizando miles de cálculos. Obviamente que dependiendo del desarrollo del algoritmo, la calidad de los convertidores y de los presets utilizados/seteo de parámetros nos darán un resultado más o menos creíble de la simulación del espacio.

Medición de impulsos (salas de concierto)

Muchas de las reverbs tratan de emular espacios reales como salas de concierto para darle a la mezcla un sonido característico, cohesión y unidad, a veces disimulando algunas imperfecciones del audio e imperfecciones en la ejecución. Esto pasa en la realidad también; si la sala tiene una acústica adecuada y basándonos en el concepto de que “nada mezcla mejor que el aire”, la unidad y cohesión en la música estarán garantizadas y el resultado sonará como un conjunto o bloque sonoro.

Muchos de estos espacios tan óptimos para la música se han medido y tratado de capturar (o inmortalizar) utilizando distintos métodos. Lo que nuestro programador de procesos o nuestra reverb por impulso debe tener para aplicar el proceso es justamente una “respuesta al impulso” a través de la cual, con determinados cálculos y variables, nos permitirá emular el espacio.

Definimos “impulso” como un sonido corto, de tiempo tendiente a cero (por ejemplo, el aplauso del comienzo de este artículo), el cual en su interacción con el medio (la sala), nos devuelve como resultado una respuesta al impulso.

Muchas de las reverbs tratan de emular espacios reales como salas de concierto para darle a la mezcla un sonido característico, cohesión y unidad, a veces disimulando algunas imperfecciones del audio e imperfecciones en la ejecución.

La matemática detrás del proceso

Esta parte nos dice que en el análisis funcional, una convolución es un operador matemático que transforma dos funciones (f y g, por ejemplo), en una tercera, que en cierto sentido representa la magnitud en la que se superponen la función f y una versión trasladada e invertida de g. Vamos a tratar de llevar esto fuera del campo matemático para que nos entendamos mejor. Podemos decir que nuestra función f es el sonido o audio que tenemos grabado, por ejemplo, una voz. La función g es la respuesta al impulso obtenida en el Madison Square Garden y nuestra reverb por impulso o nuestro software que simule un reverb tendrá que superponer la voz y la respuesta al impulso en negativo tomada del Madison Square Garden para sacar una tercera muestra procesada como resultante.

Este ejemplo también se podría llevar a la fotografía. Podríamos decir que la foto en color original es la función f y el filtro de tono sepia de nuestro software de edición de fotos es la función g; el software combina y obtenemos nuestra foto con filtro sepia. ¿Podríamos decir que “convolucionamos” fotos para las redes sociales?

Consumo y CPU, cálculos y más cálculos

La parte que no es tan alentadora sobre este tipo de efectos o procesos es que a diferencia de otros, las reverbs o cámaras son el proceso que más CPU nativo (el cerebro de nuestra computadora) o DSP externo consume. Esto se debe a su naturaleza: tiene que simular un espacio ficticio y la necesidad de realizar muchísimos cálculos matemáticos para obtener ese resultado. ¿Se han mejorado las técnicas, los plug-ins, los CPUs y los procesos para obtener mejores resultados? Sí, pero sigue siendo el proceso de audio que más demanda de cálculos lleva. En resumen, se trata de un poco de arqueología sobre tecnología aplicada al audio, entendiendo la evolución lógica de la misma, que se asemeja muchísimo a la forma que ha tenido en otras ramas, tanto de la industria como en la vida personal del ser humano durante el siglo XX y XXI.

*Músico de carrera, compositor, profesional del audio y la tecnología, residente en la Ciudad de México. Actualmente se desempeña como consultor en audio, productor, realizando grabaciones y masterización. Desde 2005 tiene su propio sello: Fusa Records (www.fusa-records.com). Estudiante avanzado de Ingeniería en la UTN, Argentina, colaborador en páginas sobre audio y tecnología. Miembro AES Full desde 2007, participando activamente en disertaciones sobre informática musical y tecnología aplicada al audio tanto en México como en Argentina. Contacto: mdiazvelez@fusa-records.com