Sintetizadores

Pintando sonidos y el futuro de la síntesis sonora

Yamaha DX7

La relación entre tecnologías de síntesis y paleta sonora

Siempre me gustó mucho la analogía que hacía Jean Michel Jarre entre la síntesis sonora y la pintura. Él se comparaba con Pierre Soulages, y con la forma que este tenía de dar relieve y textura al lienzo, que es en principio plano. Jean Michel pensaba en las frecuencias sonoras como si fueran un lienzo, y componía superponiendo capas y creando paisajes o atmósferas sonoras.

No es difícil ver la relación entre la síntesis y la pintura: Tanto al crear sonidos como cuadros, se trata de concebir para el deleite humano un mundo artificial (que puede o no buscar imitar al natural) usando para ello diferentes técnicas y “colores”. Es un hecho que la tecnología de síntesis usada a la hora de crear un sonido, dejará en él una huella claramente distinguible, de la misma forma que se puede distinguir (sin necesidad de ser un experto) un óleo de una acuarela.

A cada nuevo avance en las técnicas de síntesis, se abre para los músicos una nueva paleta de colores con la que experimentar.

Un ejemplo claro de cómo la tecnología afecta radicalmente a la paleta sonora se puede observar en los 80s, gracias al desarrollo de la síntesis FM por parte de Yamaha y la Universidad de Stanford. Nos permitió adentrarnos en un mundo inexplorado en el cual los sonidos eran más brillantes, metálicos e incluso etéreos. Las imitaciones de vibráfonos, pianos eléctricos y de instrumentos de viento-metal eran algo más realistas, sin tener que usar muestras (por las limitaciones tanto económicas como tecnológicas que por entonces sufrían) y sin consumir grandes recursos computacionales. Nunca podremos dejar de darle las gracias a John Chowning, el cual en este vídeo explica cómo hizo el descubrimiento.

El pionero GS-1 con sus 90 kilos y 8 operadores, los posteriores DX, así como sus equivalentes de otras marcas (Korg DS-8, Korg 707…) , cambiaron drásticamente la paleta sonora con la que trabajaban los grupos y compositores de la época. Es difícil olvidar sonidos FM tan míticos como el vibráfono de Toto en la canción África, el bajo de Take My Breath Away de Berlin (que fue usado en Top Gun), las marimbas en Axel F (usada en Superdetective en Hollywood) de Harold Faltermeyer (con la ayuda de Giorgio Moroder), entre muchos otros…

El motivo por el cual actualmente no se escuchan tanto los sintes FM en los “singles” para radio, a pesar de ser en su momento una tecnología revolucionaria, es justamente porque murió de éxito. Fueron tan usados en los 80s y 90s, que prácticamente tanto los productores como los propios consumidores de música acabamos un poco cansados de ellos. Ya se sabe lo que pasa con el arte: está sujeto a modas y tendencias.

Hartmann Neuron

Algo después (a lo largo de los 90s) destacaron por ser innovadores ofreciendo tecnologías o enfoques diferentes los siguientes sintes: la serie K5000 de Kawai y su apuesta por la síntesis aditiva, los primeros VAs (Clavia Nord Lead, Korg Prophecy y su posterior y más potente hermano el Z1, Yamaha AN1x…), el Ensoniq Fizmo con las transwaves, el Hartmann Neuron con la síntesis neuronal (a la cual no se le pudo sacar todo el provecho que debiera por culpa de una interfaz tediosa y liosa, así como a ciertos fallos e inestabilidad general del sinte), Yamaha con su modelado físico de instrumentos de viento en la serie VL (cuya única pega era el precio no apto para todos los bolsillos), y su sinte de formantes el FS1r, que para hacerlo más apetecible, también incluía FM pero su programación e interfaz no hacían justicia a las posibilidades reales del sinte y no eran fáciles de dominar.

Comprobamos que muchos de esos sintes a pesar de ofrecer sonidos muy interesantes y novedosos, no tuvieron buen desempeño comercialmente hablando. Unos por un precio elevado, otros por fallos de diseño, algunos por no tener una interfaz amigable, y otros por todo lo anterior junto… Visto así, se entiende por qué últimamente los grandes no ponen nada nuevo sobre la mesa.

El presente (2013): ¿cambio de tendencia?

En este Winter NAMM del 2013, hemos visto como por fin (después de muchos años pidiéndolo a gritos) los amantes de los sintetizadores analógicos hemos conseguido que la industria de fabricantes se replantee el camino a seguir. Por resumir:

El primer fabricante en volver a lo analógico ha sido Korg, al presentar el MS-20 Mini, que es una versión completamente funcional, al 86% del tamaño original y un precio asequible, del MS-20 (al que se le ha añadido MIDI por USB). Para colmo ha sido diseñada por los mismos ingenieros que lo crearon en el 1978, con la máxima de ser lo más fiel posible al brillante diseño inicial.

KingKorg

También de la mano de Korg nos ha llegado un sintetizador de modelado analógico (VA), el KingKorg, que meses atrás cuando fue filtrado su diseño y nombre, provocó algo de incredulidad por nuestra parte. Está especialmente pensado en el directo y bien podría entenderse como una evolución del Korg R3 y del RADIAS. Con respecto a ellos, ha pasado de 2 osciladores a 3, y ha recibido sustanciales mejoras en el modelado de filtros y osciladores.

Por ponerle alguna pega al KingKorg, pienso que con respecto a las pantallas podrían haber hecho una apuesta más innovadora. Si bien usar OLED ya supone una mejora sustancial con respecto a las LCD que solían llevar este tipo de sintes, yo esperaba una pantalla algo más grande e incluso táctil.

Eso no quita que celebre efusivamente la implementación (¡ya era hora!) de la tecnología OLED. ¿Qué beneficios tangibles trae consigo? Aporta un toque de elegancia, así como una mejor legibilidad en condiciones lumínicas desfavorables (tales como las que nos podemos encontrar en un escenario). Aun así, uno piensa que si algunos móviles de gama económica se permiten el llevar pantalla táctil a color de 3”, ¿por qué no un sinte?

De todas formas, esa decisión de diseño es comprensible, pues en directo la edición de sonidos es algo secundario y se supone que uno siempre la realiza en casa (donde dispones del editor VST o bien de un iPad y una interfaz MIDI).

Prophet 12

Quien realmente ha puesto toda la carne sobre el asador ha sido Dave Smith con su Prophet 12. Para demostrar que aún tiene mucho que decir, lo presenta en el mismo año que su creación más famosa y fiable cumple 30 años. El MIDI no parece tener la “crisis de los treinta”: sigue presente en todos los estudios del mundo, independientemente de su presupuesto y finalidad.

El Prophet 12, es para los que amamos el sonido mítico “marca de la casa” DSI un sueño hecho realidad. Tiene lo mejor del Prophet08, el Mopho y el Tetra, así como un puñado de cosas nuevas. Una bestia parda con filtros analógicos Curtis, 4 osciladores más un suboscilador, 12 notas de polifonía y bi-tímbrico (lo cual hace un total de hasta 60 osciladores simultáneos, que cómo os podéis imaginar en el modo ‘unison’ suenan brutales). Para permitir más precisión a la hora de crear un sonido a nuestro gusto, ha añadido una sección entera llamada “Character”. Por si lo anterior fuera poco, lleva una unidad de delay incorporada. Eso sí, preparad la cartera porque son $2999. Para mi criterio, vale lo que cuesta y la verdad, por ahora no tiene competencia en lo que ofrece.

Por tanto, este NAMM 2013 ha confirmado que el sonido analógico está más de moda que nunca y que los fabricantes son conscientes de ello (aunque hayan reaccionado casi con un lustro de tardanza). Nos hemos quedado con ganas de ver el Pulse 2 de Waldorf, así como la respuesta de Yamaha, Roland y la cada vez más previsible y casi desaparecida Clavia a este nuevo “revival” analógico. ¿Quizás en la Musikmesse?

Preguntas existenciales

Hace casi un año me hice las siguientes preguntas: ¿Está todo inventado en tecnología de síntesis? ¿Cuál es el futuro en la misma, cuales son las nuevas tendencias?

U-he con su DIVA, y hace unos años con ZebraHZ (también llamado Dark Zebra, usado al principio exclusivamente por Hans Zimmer en la musicalización de la brillante saga del Caballero Oscuro, y actualmente es una expansión de pago de Zebra2) ya nos indicaba que la mejora en capacidad de proceso de los ordenadores y la aplicación de técnicas avanzadas de simulación de circuitos industriales (PSpice) iba a llevar consigo una mejor emulación de sintetizadores analógicos. Siguen sin ofrecer el 100% del calor y la pegada de los analógicos reales, pero el avance ha sido magnífico y según el sonido en concreto, puede dar un resultado muy convincente. Viendo la progresión, uno se imagina que en unos años la emulación será prácticamente indistinguible del original.

Pero, ojo, el futuro de la síntesis no se queda en la vieja y manida batalla de emular analógicos de forma más realista… ¡Ni mucho menos!

Sabemos que la Universidad de Stanford lleva unos años trabajando en la nueva tecnología FM-HD. Esta conlleva propiedades de generación sonora mejorada y un editor de modelado en tiempo real que permite al usuario “trastear” con motores de síntesis Karplus-Strong así como otros aspectos del modelado físico de manera relativamente sencilla.

Fruto de una conversación con el diseñador de sintes Olivier Gillet (alma de Mutable Instruments, con el que ya hemos hablado en Hispasonic), tuvo la amabilidad de compartir con nosotros una serie de previsiones para los próximos años.

Estas predicciones parten de la actualidad y abarcan hasta el 2030. Algunas puede ser que las podamos disfrutar tan pronto como dentro de escasos 5 años, y otras aparecerán prácticamente en el mismo 2030.

Aquí van:

Para mediados de 2014, Korg se habrá medio cargado a la mayoría de fabricantes de sintes monofónicos “con encanto”. Si lo único de lo que se podía enorgullecer tu compañía de sintes es de poder decir “¡Yo hago sintes analógicos (y/o vintage), colega!” simplemente no podrás competir con el Korg MS-20 mini.

Corolario: Esos fabricantes arrinconados por Korg se replantearán su modelo de negocio. Volverán al “nos ocupamos de hacer los sintes que los grandes no quieren”. Creo que se tratará de la Sintesis Analógica de la Costa Oeste. Profetizo que una pequeña compañía sacará un sinte analógico compacto de escritorio, del estilo del Dark Energy / Minitaur, pero tendrá dos osciladores tri-núcleo, un waveshaper, un LPG, envolventes AD de bucles bizarras y un secuenciador que permitirá hacer loops sólo en números de pasos que sean números primos, lo cual nos dejará flipando a todos a la hora de hacer techno :)

“New Vintage”: la gente quiere que sus sintes sean capaces de hacer los sonidos que sonaban en la radio el año en el que se acostaron con alguien por primera vez. De ahí que los “cutres” VAs, se pondrán de nuevo de moda.

Hiper-resolución. A los VAs les costó mucho tiempo conseguir sonar bien porque la síntesis de formas de onda sin aliasing (las que producen los sintes analógicos reales) es un poco puñetera. También porque replicar en líneas de código el comportamiento de los filtros analógicos tampoco es sencillo. Hemos avanzado en ese aspecto, pero lo estamos enfocando de manera equivocada. Con la fuerza “bruta” conseguiríamos mejores resultados: el incremento en potencia de las CPU, el uso de nuevas arquitecturas computacionales (al estilo de las GPUs, pero sin la latencia que estas sufren actualmente), o el uso de hardware dedicado (FPGA), causará que los ingenieros diseñen motores de síntesis que trabajarán a frecuencias de muestreo muy altas (por ejemplo, 10MHz), o bien usarán rejillas de muestras elásticas (como hace Spice) para evitar los problemas del aliasing. Al menos una innovación en este campo se podrá conseguir gracias al método de los elementos finitos. Esto permitirá a los VAs ofrecer todas las marcianadas que los equipos analógicos y modulares permiten hacer (modulación a frecuencia audible, retroalimentación o feedback, …). Muchas cosas sonarán mejor gracias a esto último.

Emulaciones a nivel de componentes. Hasta ahora el proceso de programación de un VA es bastante empírico (una pizca de muestreo, una pizca de análisis teórico de esquemas para derivar funciones de transferencia, una pizca de medidas en tablas de respuestas, …). Todo eso se quedará obsoleto gracias a sistemas con suficiente poder computacional como para ejecutar simulaciones a nivel de transistor de los circuitos originales. Esto requerirá una cantidad bestial de recursos computacionales, pero sucederá.

Técnicas de estimación de parámetros a partir de señales de audio. Seremos capaces de grabar un sonido, dárselo a un sinte y que este se programe a sí mismo para generar un sonido que sea muy aproximado al que le dimos inicialmente. De la misma forma que ya tenemos detectores de envolventes, tendremos “detectores” para todos los parámetros musicalmente relevantes; Convertirán nuestros samples en un puñado de curvas de automatización de parámetros de síntesis. Era lo que se soñaba hacer cuando se diseñaron el Fairlight y el Synclavier (Análisis y resíntesis). Sucederá, pero para ello se requerirán de mejores “ingredientes” que una suma de ondas senoidales. Por decirlo de alguna forma, “Minimoogs” virtuales serán las nuevas ondas senoidales y esto difuminará la frontera que existe entre el muestreo y la síntesis. Podremos grabar un bucle de cello y alterar sus notas, la interpretación, sin siquiera saber el proceso que se le está aplicando a la señal: podría tratarse de alterar la propia señal original (al estilo de como hoy hacemos con Melodyne) o bien una recreación de la señal original mediante modelado en un sinte en el cual se pueden afinar los parámetros.

Un conjunto de parámetros independientes de la técnica de síntesis empleada. Con respecto a las interfaces de usuario en los sintes, siempre hay cierta polémica y cada persona tiene sus preferencias. La cantidad de knobs y pantallas táctiles que puede tener un sinte, si empieza a ser demasiado grande, se convierte en un detalle que entorpece su uso. Esto se debe a que cuando el conjunto de parámetros a modificar se hace demasiado amplio, no se traduce muy bien en conceptos que sean claramente entendibles o distinguibles por un ser humano. (Ejemplo: Un Shruthi-1 con 2 pots será más fácil de editar que un DX-7 con 20). Para evitar eso, se va a desarrollar un conjunto de parámetros general con respecto a sonidos (que tenga como mucho 30 o 40 variables) que tendrá las siguientes propiedades:

Cualquier combinación de esos parámetros ofrecerá un sonido musicalmente interesante (de forma que los presets generados aleatoriamente nunca ofrecerán el sonido de coballas gritando en una máquina de fax). Una persona sin conocimientos musicales será capaz de poder explicar con palabras cotidianas qué cambia cada parámetro. Existirá un sistema que automáticamente aprenderá a mapear (o traducir) los conjuntos de parámetros de cualquier sinte a este nuevo conjunto de parámetros. Esto se convertiría en el mayor estándar musical tras el MIDI, ya que permitiría que pudiésemos portar sonidos de sintes de unos motores de síntesis a otros.

Física aplicada a las fuentes de modulación. Podremos usar procesos físicos (una pelota rebotando en el suelo, los tiempos de impacto de un conjunto de 1000 cajas cayendo al suelo, la velocidad de un objeto que cae por un precipicio) como fuentes de modulación. Los procesos físicos más comunes en instrumentos musicales reales (oscilación, amortiguación exponencial) se corresponden en los sintes a módulos heredados de los días de los ordenadores analógicos (VCO, generador de envolventes). Avanzaremos un paso con respecto a eso. Un sonido “mítico” (e incluso un género musical derivado de él) será engendrado gracias al uso de simulaciones físicas como fuente de modulación en un proceso de síntesis sonora.

En el 2030 dispondremos de dispositivos de almacenamiento de 10 PB, lo que significa que toda la música grabada por el ser humano, podrá caber en ellos – así que cada uno tendrá su propia copia de la “jukebox celestial”. “Cogeremos” música en vez de “muestrearla”. Esto llevará a nuevos enfoques con respecto a la síntesis basados en el indexado. Por ejemplo, digamos que programas un patrón de batería en una caja de ritmos que tiene acceso a la “jukebox celestial”. Esa caja de ritmos hace una búsqueda y te informa de que es el mismo patrón usado en una pista prácticamente desconocida de los 70s, de funk tailandés y te sugiere reproducir una muestra de esa pista. O al menos, te permitirá reproducir todo el patrón rítmico aplicado a tu patrón.

La síntesis física en sí tendrá un gran papel, pero no para aplicaciones musicales. Donde más se aplicará será en los videojuegos y en Hollywood. Actualmente si queremos el video de una nave espacial que explota en pedazos, construimos un modelo en 3D de esa nave y ejecutamos una simulación física de la explosión (pero no construimos una maqueta en cartón y le prendemos fuego). De igual forma, cuando queramos el sonido del Titanic chocando contra el iceberg, también lo conseguiremos a través de simulaciones en vez de hacer que un tío golpee una sartén con botas de esquí y lo pase todo por Kyma. Igualmente, los efectos especiales de los videojuegos serán computados directamente a partir de los modelos 3D y el motor físico del juego. Para las películas, se hará la CGI y el diseño sonoro con la misma toolchain o conjunto de aplicaciones. De la misma forma que hoy hay artistas 3D y artistas de texturizado, habrá un nuevo tipo de artista que se encargará de imitar propiedades mecánicas mediante simulaciones físicas con el fin de generar audio. Le pondremos un nombre concreto a esos programas de software que simularán la realidad tanto a nivel sonoro como visual.

La síntesis analógica seguirá existiendo, pero tendrá una cuota de mercado muy reducida. Todos los productos que aparecerán serán completamente “discretos” porque el LM13700 no se fabricará ya, y THAT/CoolAudio y los demás fabricantes de chips especializados en audio probablemente habrán cerrado. Pensemos en los amplificadores de clase D, fuentes de alimentación conmutadas, radios software y otras muchas cosas que hoy hacemos con funciones analógicas se harán entonces en el dominio digital.

Un instrumento ampliamente popular y culturalmente notable habrá surgido de una aplicación de smartphone. Es decir, el tipo de instrumento que se convierte en icónico en ciertas canciones (ejemplos: el Casio VL-1 en “DaDaDa” de Trio, o la flauta de Mellotron en “Strawberry Fields Forever” de The Beatles).

La síntesis vocal se habrá quedado estancada en el valle de lo antinatural y lo cutre, pero debido a que las nuevas generaciones se habrán criado escuchando Lady Gaga y los abusos cometidos con el Autotune, tendremos que armarnos de paciencia para tolerar lo que se nos vendrá encima.

La separación de fuentes sonoras aún no se habrá podido desarrollar, y miraremos a nuestros intentos en ese aspecto con la misma cara de “¿en qué leche estaríamos pensando?” con la que hoy miramos los intentos del MIT en los 70s de resolver mediante inteligencia artificial el procesado del lenguaje humano.

El MIDI seguirá formando parte de nuestras vidas.

Condiciones - Todas las anteriores predicciones se podrán hacer realidad sólo si:

  • En el futuro hay energía eléctrica disponible, que permita continuar con los avances tecnológicos. Esa energía eléctrica pueda ser usada libremente para propósitos musicales.
  • Existe un estado de paz y prosperidad mundial que permita la consecución de estos asuntos “no necesariamente cruciales”.
  • Sigue existiendo la civilización humana en el planeta.

A lo ya dicho, otros entendidos en síntesis aportan sus reflexiones:

Johan Torneheim: “Al final, a mí personalmente no me importa si el sonido lo genera una esponja, un transistor o un procesador digital de señal (DSP). Si el instrumento se “deja tocar”, suena bien y uno se siente bien usándolo, es todo lo que necesito. Los instrumentos míticos del futuro serán fáciles de usar y sonarán bien.

Frank C. Daniels ironizaba con lo absurdo que es que en el futuro usaremos 250 millones de transistores para simular el comportamiento de un filtro “ladder” de un Moog (que requiere escasos 16 transistores).

Con respecto a las simulaciones, 6581punk cree que simular elementos visuales es más complicado que simular sintetizadores analógicos, y aun así, hoy día consiguen engañarnos con las imágenes generadas por ordenador. Es más, si por algo a veces notamos que una secuencia en una película ha sido hecha por ordenador, es porque es “perfecta”: todo se ve demasiado bien, nítido y brillante.

Para acabar, tengo que reconocer que personalmente estoy entusiasmado con respecto a todas estas nuevas tecnologías que espero nos ayuden a hacer mejor música, y provocar sentimientos positivos a la gente, que es en último lugar, a lo que creo que aspiramos.

Gracias por vuestra atención (perdón por la longitud…) y gracias a Olivier Gillet por su brillante aportación. Estoy seguro que de aquí a unos años miraremos esta publicación y podremos ir comprobando cómo muchas de estas previsiones se habrán cumplido.

¿Te gustó este artículo?
42
Comentarios

Regístrate o para poder comentar