Virtualidad Real en los instrumentos musicales (segunda parte)

En esta entrega comprenderemos cómo funciona conceptualmente un instrumento electrónico moderno. Hablaremos de partes de multi-timbralidad, polifonía, recursos de síntesis y plantearemos los fundamentos metodológicos de los sintetizadores, ya que en el episodio 3 vamos a necesitarlos para enfocarnos en los instrumentos VST-i. Todo lo que aprendamos de estos fundamentos nos va a servir indudablemente a la hora de iniciar una producción musical en cualquier DAW. Y la comprensión de estos conceptos, nos va a ahorrar muchos dolores de cabeza y optimizará nuestro método de trabajo. ¡Manos a la obra!

Términos necesarios

Algunos conceptos preliminares: Antes de progresar con el tema es necesario clarificar algunos conceptos y establecer algunas premisas técnicas básicas que nos permitirán implementar un método de trabajo más eficaz, teniendo conocimiento de qué es lo que estamos manipulando a la hora de producir una obra musical, ya sea con medios electrónicos, informáticos o acústicos.

¿Que es la polifonía? Llamamos polifonía a la posibilidad que tiene un instrumento o sistema musical de producir más de una voz a la vez. La voz humana es monofónica, es decir que sólo podemos producir un único sonido en un instante de tiempo dado (exceptuando, claro está, el canto de armónicos, que es una disciplina muy de moda actualmente, pero de escaso valor estético). Sin embargo, un coro de voces humanas podrá potencialmente producir una polifonía de “N” voces, en la que “N” es la cantidad de integrantes que constituyen la agrupación. Una guitarra tiene una polifonía máxima de seis voces (una por cuerda), mientras que un saxofón es monofónico, o sea, tiene una sola voz, sin importar ya si los sonidos de cada una de esas voces son de la misma frecuencia o si son diferentes. Para efectos técnicos, la polifonía mide la cantidad de voces.

En Armonía existe un concepto que se llama “voces reales”, en donde el número máximo de voces tiene en cuenta la cantidad de frecuencias fundamentales no repetidas. De ese modo, un coro de cincuenta personas puede tener en realidad cuatro voces reales: soprano, alto, tenor y barítono, sin embargo, hay miles de variantes en cada agrupación musical. Por su parte, en el mundo del audio, los sistemas estereofónicos tienen dos voces de polifonía, en tanto que un 5.1 tiene seis voces de polifonía, independientemente de que estén reproduciendo el audio de una orquesta sinfónica de 96 voces.

¿Como se evalúa la polifonía en un sintetizador? No lo dudemos, el argumento de siempre es: más polifonía igual a más potencia, igual a más costo. Un sintetizador de los primeros apenas tenía un par de osciladores y un generador de ruido; sus posibilidades de crear timbres realistas era muy pobre y eso justificó la evolución e incluso la creación del MIDI, como lo discutimos en la primera parte de esta columna (febrero 2021). De ese modo, la polifonía y el aumento de la misma es un factor súper importante a tener en cuenta. En el punto siguiente veremos cómo se obtiene la sensación sonora de aumento de polifonía, que no siempre está relacionada con la cantidad de osciladores, sino a veces por la potencia de los microprocesadores encargados de generar vía DSP una señal polifónica (como en el caso de los sintetizadores PCM)

¿Qué es la multi-timbralidad? Se trata de la capacidad de un instrumento o equipo de producir diversos timbres en un mismo instante de tiempo. En principio, casi todos los instrumentos tienen esa habilidad. Basta ponerle una sordina a una trompeta para que suene diferente, pero la clave es al mismo instante de tiempo, dos o más timbres diferentes. Y es por eso que algunos sintetizadores (polifónicos por supuesto), tienen la posibilidad de producir una cantidad “P” de timbres a la vez, cantidad que se mide en partes de multi-timbralidad y que generalmente comparten la cantidad de polifonía. Un sintetizador multi-tímbrico debe ser polifónico y las partes pueden variar generalmente desde 2 P a 16 P. Generalmente, el máximos de partes implementadas en los instrumentos de hardware es de un máximo de 16, porque su comando independiente está estrictamente ligado al control a través de la norma MIDI, que solo prevé la existencia de 16 canales MIDI por un mismo puerto, pero en los sintetizadores virtuales a veces podemos ver una cantidad mayor de partes, dado que pueden configurarse para que, por ejemplo, las ocho primeras de ellas reciban información para el canal MIDI 1, dejándonos quince canales MIDI libres para dirigirnos a otras partes de multi-timbralidad.

Las secciones de un instrumento electrónico digital y Arquitectura Básica de un sintetizador

La lógica de cómo funciona un instrumento es bastante similar, cualquiera que sea su naturaleza. En este punto nos abocaremos a un enfoque metodológico; es decir, usaremos metáforas lógicas para comprender el proceso sin que necesariamente éstas se expliquen desde el punto de vista técnico o tecnológico. Y esto es ad hoc para poder comprender la lógica de control de un instrumento, sea real o virtual. Lo que realmente interesa para que un instrumento sea considerado musical es que frente a una acción gestual se provoque una reacción acústica, independientemente de los intermediarios y recursos necesarios para que esa relación se establezca.

Actualmente, todo instrumento musical electrónico es sin duda una pequeña computadora especializada. Como tal, tiene un cerebro (microprocesador), integrado en una CPU (unidad de proceso de datos), una sección de memoria (Rom, SSD, Ram, disco duro), una sección de entrada de datos (las teclas, los pads, pedales, controles deslizables, puertos MIDI In y demás), una sección de salida de datos (las salidas de audio, el display, los puertos MIDI out y MIDI Thru y demás) o una interfaz MIDI USB y un sistema operativo (software de control) que organiza la tarea de todos los anteriores. Expliquemos:

  • A) Un mecanismo que inicie la acción. Que el gesto humano se traduzca en la acción de una tecla, un pad, o cualquier material (incluso hay instrumentos que se accionan por radio frecuencia o por el corte de un haz de luz) que permita enviar una demanda de acción,  a todo el sistema de síntesis.

  • B) Unidad de proceso central (CPU). Es el “cerebro” de nuestro periférico. El microprocesador, un conjunto de hardware y su correspondiente software de funcionamiento. El procesador es el encargado de regular el flujo de todas las operaciones de transmisión de información que se necesitan para que podamos hacer de este montón de circuitos un instrumento musical. El microprocesador se encarga de traducir los “gestos” musicales en información para generar sonido y/o para generar una orden MIDI.

  • C) Panel de Control. Controles de entrada de datos, cambios de programas, display y botones de edición de las implementaciones de software, en general todos ellos editables manualmente por el usuario. Nos permiten la programación del equipo, ya sea de síntesis o de los nombres de los patchs, o de cualquier cosa editable que nos permita el fabricante. Estas modificaciones promovidas serán guardadas en memoria, porque de lo contrario, cada vez que apagáramos el equipo deberíamos volver a realizar todo el proceso.

  • D) Memoria. Todos los periféricos MIDI poseen unidades de memoria. Sin ella, el resultado de largos procesos de edición de sonidos y de retoques de parámetros de síntesis, se perderían en la nada, frente al menor corte de luz. Además, el procesador necesita de instrucciones básicas para poner en marcha todas las funciones del instrumento electrónico. De este modo y haciendo una generalización más o menos amplia, diremos que los instrumentos musicales poseen varios tipos de memoria. En primer lugar, tenemos una memoria del tipo Rom (memoria de sólo lectura), que suministra las instrucciones básicas para el funcionamiento del sistema operativo del instrumento y en algunos casos almacena los datos responsables de los timbres, (ya sean parámetros de síntesis o muestras digitales PCM). En estos casos hablaremos de presets; es decir, timbres inmodificables por el usuario.

Por otro lado, tenemos también una sección de memoria Ram (Memoria de acceso aleatorio) en donde sí podemos modificar datos y que se divide en dos. La Ram Temporal (o memoria de trabajo), y la Ram estable (en donde guardamos los datos modificados). La primera suele ser volátil, mientras que la Ram estable mantiene almacenados los datos gracias a una pila interna que sigue actuando aunque el instrumento esté desconectado de la alimentación eléctrica. Como otras opciones de almacenamiento de datos, algunos instrumentos permiten guardar más información en diferentes soportes, como memorias USB y SSD.

  • E) Controles de ejecución en tiempo real. Las teclas de teclados, los “pads” en las baterías electrónicas y los controladores de viento son algunos ejemplos de elementos que generan datos MIDI. También son controles los pedales de sustain o de expresión, la rueda de modulación, la rueda de pitch bend (inflexión de afinación ), o cualquier control dispuesto por el fabricante (switches, sliders, faders y demás), para poder generar eventos MIDI en tiempo real (esto significa que en el mismo instante en que produzco la información, obtengo los resultados). De cuantos más elementos dispongamos, más control tendremos sobre nuestro sistema MIDI.

  • F) Puertos de comunicación y de transmisión de datos. La UART (Unidad de Transmisión y Recepción de Datos Asíncrona) es la interfaz encargada de generar y recibir los mensajes MIDI y es el verdadero corazón del MIDI, puesto que es la que en realidad genera los eventos MIDI hacia la red). Junto con la interfaz hallamos los puertos MIDI (in, out, thru), y por supuesto también debemos contar con este tipo de cables y de audio. En algunos casos se podría pensar en salidas directas de audio digital.

  • G) El DSP. La mayoría de los procesos de resultante acústica se realizan por un complejo cálculo de resultantes llevados a cabo por un microprocesador y por convertidores AD/DA. A veces, el mismo de la CPU; a veces, microprocesadores dedicados, pero sin duda, el procesamiento digital de la señal es vital en varios aspectos, como motor de síntesis, resultante polifónica, efectos dinámicos y hasta de los resultados gráficos en el display.

  • H) Un sistema de amplificación que traduzca todo al mundo analógico nuevamente en modo de variaciones de potencial eléctrico de mayor o menor intensidad, dependiendo si el instrumento tiene altavoces o simplemente salidas de línea. En esos altavoces es donde obtendremos la verdadera onda sonora, como resultante de los cambios de la presión sonora.

Todos esos sistemas integrados son los que terminan definiendo un instrumento electrónico en la actualidad. Sin embargo, a medida que pasa el tiempo, cada vez se implementan más innovaciones y se aumentan sobre todo las potencialidades en procesos DSP y mayor cantidad de memoria, sin contar con la capacidad de convertirse por sí mismos en DAWs (Digital Audio Workstations) completas, en las cuales inclusive podemos grabar un determinado número de pistas de audio digital desde una entrada de línea o micrófono que muchos teclados incorporan, además del consabido secuenciador MIDI.

Ahora bien, si todo eso se basa específicamente en utilizar conversores analógico digitales y DSP para el cálculo de las formantes de timbre a expensas de un microprocesador, ¿por qué no empezar a pensar en utilizar los computadoras para que hagan esa tarea? Cuando varios desarrolladores se hicieron esa pregunta, surgieron los primeros instrumentos virtuales, al principio bajo diferentes arquitecturas, pero con el tiempo se fueron unificando en el concepto de VST-i (Acrónimo de Virtual Steinberg Technology Instrument), porque de los creadores de Cubase y de ASIO surgiría esta tecnología que hoy prácticamente es un estándar para la producción musical. Pero eso es una hermosa historia que recorreremos en la siguiente entrega. ¡No dejen de seguir esta columna, para ver de qué formas la evolución de la producción musical impactará sobre nuestro quehacer cotidiano.

Por Diego Merlo*

*Diego Merlo es compositor, arreglador y director de orquesta. Con más de 35 años de experiencia docente en el tema, al frente del aula y como director. Técnico de sonido y Sound Designer para varias marcas internacionales como E-mu, Sound Blaster, Fairlight CMI, Akai, Roland y Korg.