Virtualidad real en los instrumentos musicales

Por Diego Merlo*

¿Cómo es que llegamos al concepto de Virtual Studio Technology (VST-i)?  ¿Un instrumento musical es actualmente un computador o al revés? ¿Cómo funciona conceptualmente un instrumento electrónico? En esta primera entrega comenzaremos a analizar la evolución de los instrumentos musicales electrónicos en la actualidad y el estado de cosas en el que actualmente se encuentra la industria musical: los antecedentes, las innovaciones y los dilemas que enfrenta, así como los diagramas lógicos y metodológicos que implican un instrumento musical en pleno siglo XXI para el músico, productor y arreglista.

El primer sintetizador

Cuando hacemos esta pregunta a una audiencia, la mayoría de los presentes comienzan a barajar nombres como Buchla o Moog, pero a menudo pasamos por alto un instrumento que surgió desde la antigüedad clásica y que logra su evolución radical entre los siglos XII y XVI: el órgano de tubos, que es, en mi opinión, el primer sintetizador aditivo.

La historia de la industria musical es sin duda una historia que tiene factores comunes desde su génesis. La búsqueda de la emulación de varios instrumentos en uno sólo es como el nirvana de los luthiers y diseñadores de sonidos, y el órgano de tubos es un ejemplo de ello. En sus etapas de desarrollo a partir del siglo XII, sin duda el creador de órganos buscaba tener una “orquesta” al alcance de un solo ejecutante de teclado. Así, los sonidos enriquecían su espectro por la adición de registros. Un registro era un juego específico de tubos que daba un sonido diferente. Algunos juegos de tubos simplemente eran un armónico de la fundamental; es decir, la octava, la doble octava o hasta a veces una quinta por encima del sonido del tubo fundamental. Pero esto fue luego creciendo en complejidad y realmente los tubos tenían diferentes colores con base en el tipo de boquilla que cada tubo tenía y a sus materiales.

Fue así como surgieron los registros de “dobles lengüetas” intentando emular a oboes, chirimías y fagots y el registro de “bronces” tratando de imitar los sonidos de trompetas e instrumentos de viento de metal. Por supuesto, una de las limitaciones es que no se podían recrear todas las variaciones acústicas que una sección de esos instrumentos era capaz en mano de un grupo de intérpretes medianamente entrenados, pero el objetivo de tener muchos timbres y un espectro enriquecido al alcance de dos manos (y dos pies, ya que había un teclado inferior manejado por los pies del organista), fue llevando en su frustración de obtener el timbre emulado a obtener sonidos y espectros inesperados que ayudarían a crear toda una literatura musical para el instrumento en sí mismo. Todos estos factores le garantizarían al órgano un lugar vital en la historia de los instrumentos y la música.

La evolución de los instrumentos “síntesis” (aquellos que pretendían ocupar el rol de otros instrumentos individuales), llevaría a la evolución de los instrumentos de teclado, partiendo del órgano, pasando por el clavecín y el piano forte, hasta llegar al Hammond, el Wurltizer y el Rhodes y arribar por fin al concepto de workstation y Digital Audio Workstation (DAW), creando toda una nueva filosofía en la composición musical.

Presione cualquier tecla para continuar

Los caminos de la síntesis y el diseño de sonido son increíblemente creativos y desafiantes a lo largo de la historia de los instrumentos eléctricos y electrónicos. En 1906 hizo su presentación oficial el Telarmonio o Dinamófono, inventado por Thadeus Cahll. Pesaba doscientas toneladas y medía unos veinte metros de largo. Su principio era la generación de sonidos eléctricos por grandes dínamos electromagnéticos operados por un instrumentista de teclado en tiempo real, sumando armónicos simples generados eléctricamente para crear un espectro más complejo. Con su uso se inauguró en Nueva York el primer servicio de streaming musical pagado, distribuido por teléfono; su mecanismo se basaba en síntesis aditiva; es decir, crear un espectro de armónicos más complejo a partir de vibraciones simples de una fundamental. (Más info en https://cetearelectronica.com/telharmonium-el-primer-sintetizador-aditivo-de-la-historia/).

Posteriormente, en la segunda década del siglo XX se fueron desarrollando otros instrumentos que controlaban la altura del sonido y la amplitud a través de la radio frecuencia. Aunque con timbres más simples, el theremin y las ondas Martenot fueron los antecesores de toda una escuela de creación de sonido. Recordemos que el nirvana de la síntesis era emular timbres de instrumentos acústicos, aunque surgiría luego toda una corriente en los compositores contemporáneos que se enfocarían por otro camino: utilizar esos timbres sintéticos para todo un nuevo lenguaje electroacústico. (Más info en https://www.timetoast.com/timelines/evolucion-de-los-sintetizadores).

En ese camino, los modos de obtener nuevos espectros podríamos decir que era sumar, restar, interferir, grabar (analógica o digitalmente) o calcular matemáticamente armónicos.

De ese modo, en la medida que la electrónica descubría componentes mas pequeños como la válvula, el transistor o los microchips, las técnicas de síntesis iban explorando el camino de la síntesis aditiva (la suma de armónicos), la síntesis sustractiva (el filtrado de una onda compleja), la síntesis de frecuencia modulada (en lugar de sumar o restar armónicos con osciladores simples, era interesante interferirlos o modularlos, para obtener timbres impensados), la síntesis PCM (que consistía en “grabar” en audio digital las notas con todos los armónicos de un instrumento acústico. —vulgarmente conocido como sampler — y sus antecedentes analógicos como el Melotrón. Y Finalmente arribar a la síntesis por modelado acústico matemático, que basa su principio en generar algoritmos matemáticos que pasan por un procesos DSP (digital signal processing) para la generación del espectro final. Obviamente, la historia de la evolución de los instrumentos electrónicos tiene vericuetos diversos que utilizaron hasta combinaciones de técnicas de síntesis, en pro de mejorar el resultado de obtener timbres naturales con el menor costo posible. Más adelante profundizaremos en la lógica de los componentes que involucran un instrumento electrónico.


El instrumento electrónico y su relación con los tambores

La clasificación de los instrumentos musicales ha sufrido diversos criterios para poder ubicar correctamente un instrumento en una familia que posea características comunes. La primitiva clasificación de los inicios de la organología distinguía la familia de la cuerda, viento, y percusión. Esta clasificación, a medida que el diseño de instrumentos progresaba, creaba complicaciones a la hora de clasificar algunos instrumentos. Por ejemplo, la voz humana, ¿era de cuerda o de viento? ¿El piano era de cuerda o percusión? Todos estos dilemas fueron organizados en 1917 por Erich Von Hornbostel y Curt Sachs, quienes definirían el sistema que utilizamos actualmente y que se basa en clasificar un instrumento por lo que origina la vibración del sonido (el cuerpo vibratorio) y no por los mecanismos que lo ponen a vibrar. Eso ordenó definitivamente al piano y a la voz en el sector de cordófonos, entonces ellos definieron cuatro grupos: cordófonos (cuerpo vibratorio: cuerda), aerófonos (cuerpo vibratorio: columna de aire), membranófonos (cuerpo vibratorio: parche o membrana) e idiófonos (cuerpo vibratorio: material sólido que vibra por sí mismo). (Para más info: https://es.wikipedia.org/wiki/Hornbostel-Sachs).

Con la invención de los instrumentos eléctricos o electrónicos se creó un nuevo grupo llamado electrófonos, pero en rigor de verdad esa clasificación está cuestionada, ya que dado que la electricidad o la electrónica en realidad son el mecanismo que pone en marcha el cuerpo vibratorio real, un instrumento electrónico (de momento), sólo puede ser escuchado a través de un altavoz (luego de diferentes etapas de amplificación) y lo que genera la vibración es finalmente una membrana. Entonces, en mi opinión, deberían estar clasificados en los instrumentos membranófonos, ya que no existe generación de espectro hasta que no son pasados a través de un altavoz. Es cierto que la electricidad y la electrónica generan frecuencia y amplitud electromagnética, pero la percepción del fenómeno sonoro requiere forzosamente de una transducción al mundo de la presión sonora. Y esa labor la realiza la membrana del altavoz o  audífono.

La aparición del MIDI

En esos primeros tiempos de la síntesis y la explosión comercial del mercado de sintetizadores, se usaban osciladores controlados por voltaje (VCO) para producir ondas elementales que luego eran modeladas por el sistema de filtros y procesos analógicos de la señal. Un generador de envolvente (ADSR: Attkack, Decay, Sustain y Release), permitía modelar la amplitud y tratar de modificar el comportamiento de la onda en tiempo real. En las primeras épocas de los sintetizadores, la búsqueda del timbre era impulsada por la necesidad de tener nuevos sonidos, que hasta ahora los instrumentos acústicos no nos habían proporcionado. La carrera armamentística hacia la emulación todavía estaba lejos de comenzar, pero lo que sí ocurría con los primeros sintetizadores es que eran monofónicos o tenían muy pocas voces de polifonía. Dos o cuatro voces era todo un lujo en 1969. Con el correr del tiempo, la cantidad de polifonía pudo llegar a ampliarse a seis voces y entre los setenta y ochenta, la polifonía de un sintetizador ya se acercaba a las 16 voces simultáneas.

El problema de la polifonía era básicamente un problema de costos. Si se necesitaban más voces, había que poner mas VCOs y eso encarecía el precio final. Entonces el camino a llegar como hoy a quinientas voces de polifonía fue un largo proceso de reducción de costos que implicaría desafíos tecnológicos innovadores. Como los teclados que se fabricaban no tenían demasiadas voces a la vez y por sus técnicas de síntesis no lograban espectros demasiado complejos como una sección de cuerdas o unos buenos sonidos de bronces, los tecladistas de bandas exitosas de la época comenzaron a utilizar varios teclados en su set en vivo. En el estudio, uno podía realizar sobre-grabaciones, pero en vivo era necesario tener acceso inmediato al sonido. Por otra parte, los sonidos de los primeros sintetizadores se configuraban a mano. No podían “guardar” su configuración de páneles (patches), en otro lugar que no fuera un papel o la memoria del intérprete, y cambiar de sonido entre tema y tema o entre una frase musical y otra, era prácticamente dificultoso. ¡Esa era la época en la que los tecladistas necesitaban una silla giratoria para acceder a todos sus instrumentos!

Poco a poco fue calando en los músicos y en los fabricantes de teclados la idea de simplificar esta engorrosa cuestión y así nació la idea de intercomunicar aparatos musicales; es decir, poder tocar desde un teclado y hacer que suene otro. Luego de algunos toscos intentos, allá por 1978 finalmente todos se pusieron de acuerdo y generaron un método de comunicación estándar con su lenguaje propio y su “hardware” específico. Dave Smith, de Sequential Circuits, fue uno de sus grandes impulsores. Dicho estándar de comunicación fue bautizado “MIDI”, como las iniciales del concepto de Musical Instruments Digital Interfase. Inmediatamente después de hacer su aparición, el MIDI revolucionó el mercado musical. Las técnicas de producción de discos, el trabajo del compositor y de los editores de música ya no serían lo mismo sin él.

Las siguientes infografías de mi autoría ilustran la solución al enriquecimiento tímbrico que proveería el MIDI:

Estén pendientes a la segunda parte de este artículo, que estará igualmente interesante. ¡Hasta la siguiente entrega!

 

*Diego Merlo es compositor, arreglista y director de orquesta con más de 35 años de experiencia docente en el tema, al frente del aula y como director. Ha sido técnico de sonido y Sound Designer para varias marcas internacionales como E-mu, Sound Blaster, Fairlight CMI, Akai, Roland y Korg.