En abril, aprovechando la visita de los ingenieros Andrés Mayo y Martín Muscatello a sound:check Xpo en la Ciudad de México, se armó una sesión especial en la Fonoteca Nacional para compartir su experiencia en la recuperación de audio, usando métodos tradicionales y herramientas asistidas por inteligencia artificial (IA). La dupla mostró piezas emblemáticas del rock argentino como “Sable chino” y “Tres agujas”, y algunas canciones del álbum “Vasos y besos”, del grupo Los Abuelos de la Nada.
Para Andrés Mayo, estos encuentros amplían el conocimiento en torno a los usos de la IA: “Estamos expandiendo este recurso para hacerlo no solo con joyas del rock nacional, que es lo que viene pasando, sino con música de todo el mundo y con muchísimas aplicaciones que hasta hace un tiempo no eran posibles, pues no existía la posibilidad de desmezclar algo que no había sido mezclado en algún formato estéreo. Es decir, si estaba grabado en un casete de audio, como pasa con las grabaciones antiguas caseras o si estaba en una cinta de dos canales, o algún formato que no permitiera nada más que un estéreo, nos encontrábamos con ese problema y dependíamos de la calidad de audio de esa grabación para poder restaurarla o tener una publicación con un sonido más moderno. Ahora, gracias a la posibilidad de utilizar aplicaciones de IA, una de las cuales está en nuestro poder y no es de uso comercial, tenemos esta herramienta increíble que nos permite volver a la esencia de esa grabación, separar por canal y remezclar y remasterizar”.

Desde hace año y medio que ambos se involucraron en la IA, investigando recursos y herramientas, y el resultado es que ahora “se tiene un recurso interesante que permite tratar piezas inéditas y no sólo tener el valor agregado que hay en la restauración de algo que ya existe, sino que, de una pieza o canción de un artista que no está más vivo, se le puede volver a revivir en su música, en piezas que la gente jamás escuchó, sacadas de grabaciones de ensayos”, destaca entusiasta Martín.

Para llegar a ese punto, Martín enfatiza la importancia de entender que la IA es generativa: “La IA no es una máquina a la que le pasas algo y te devuelve eso resuelto. Tenemos que aprender a ver qué le damos. En este caso, el input fue para probar qué resultado da y de ahí hacer más de una prueba, porque si bien el primer resultado es impresionante -tener la voz del cantante separada-, hay que intentarlo de nuevo, darle a ese motor las instrucciones de lo que se busca, entender cómo funciona el rebalanceo de stems que son extraídos por motores de IA. Debes aplicar las herramientas conocidas -ecualizadores, compresión, reproductores de ruido y técnicas de producción- porque la IA hace todo lo que puede, pero si la recuperación no es del todo satisfactoria, tendrás que instruirla a lo que quieres por una cadena enorme de prueba y error. Es una curva de aprendizaje”.
La aplicación utilizada fue creada en alianza con Audio Engineering Society y aún no será comercializada. Su operación tiene fundamentos como las de Moises y Fade que ya están integradas en workstations, pero es de uso cerrado para garantizar la confidencialidad de los trabajos.
“En la Fonoteca mostramos dos canciones de Fito Páez y usamos esos ejemplos, porque eran canciones con cuestiones muy puntuales a resolver. Hicimos ese trabajo minuciosamente y, cuando llegamos a una versión que nos gustaba, se la mandamos a Fito y la aprobó; le gustó mucho y está planteado como posibilidad hacer algo más grande a futuro. Eso es lo que sigue, nos están solicitando el servicio, músicos consagrados como perfectos desconocidos, con necesidades totalmente diferentes, pero que quieren hacer uso de la IA para recuperar lo que consideran sus propias joyas”, concluye Andrés.
Entrevista: Nizarindani Sopeña/ Redacción: Marisol Pacheco.
