KMI Labs, los desarrollos de Keith McMillen

Con la nueva sección KMI Labs, la web de Keith McMillen ofrece una panorámica de las tecnologías en las que están trabajando, enfocadas principalmente al mundo de los instrumentos/controladores.

KMI Labs

Los que no recordéis esta marca sólo tenéis que mirar 3 semanas atrás para ver el tipo de producto en el que se ha especializado Keith McMillen Instruments. Una noticia nos traía entonces la forma de entender los teclados al estilo KMI, buscando potenciar la expresión. Pero además de teclados y controladores orientados a la pulsación/presión, buena parte de su actividad ha estado vinculada al mundo de las cuerdas / guitarras y cómo extraer de ellas la mayor información posible para usarlas como controlador. Un control que no quiere limitarse sólo a las notas y quiere sondear más allá, buscando otros aspectos del sonido generado por el músico que puedan tener interés para gobernar otras fuentes sonoras / sintetizadores.

Encontraréis en la sección KMI Labs información y algún vídeo sobre teclados multidimensionales, pads que determinan con precisión la posición del impacto, un sistema para mantener vibrando infinitamente las cuerdas de una guitarra, un sistema de sensores para el mástil de la guitarra que ayuda a anticipar la detección de las notas ejecutadas reduciendo los errores y el retardo al analizar el sonido de las cuerdas, o un arco que informa de sus propios movimientos (no en vano Keith estaba detrás del violín Zeta, entre otros desarrollos).

Algo más escondida, encontraréis información también sobre el 'Acoustic Instrument Message' (AIM), al que os propongo que echemos un vistazo. 

Acoustic Instrument Message

Un tema que me apasiona de siempre, es el de la extracción de rasgos e información musical de alto nivel a partir de los instrumentos acústicos y sus señales audio, y al que de hecho iba enfocado parte de mi trabajo durante muchos años.

Con independencia de que llegue a cuajar como un supuesto estándar o se quede sólo como algo interno a KMI, y a pesar de que no sea todavía un producto, me ha parecido interesante presentaros qué información es la que el protocolo AIM engloba dentro de un mensaje con la pretensión de capturar una expresión más completa del sonido que está produciendo un instrumento. O más exactamente, de algunas dimensiones de ese sonido que puedan ser extrapolables a otros cualesquiera para conseguir trasladar a ellos ciertas inflexiones poderosas y expresivas que son muy naturales en el instrumento acústico. El objetivo final es el de llegar a trasladar una mayor calidad orgánica sobre el sonido sintético. Que haya más partes de la expresión sobre un instrumento acústico puestas a disposición de un motor sintético. Pensad por ejemplo en un sistema de guitarra y sinteitzador que no sólo extraiga las notas de cada cuerda, sino que sepa 'leer' la posición en la que actúa la púa, la técnica aplicada... Las posibilidades con las que se llega a matizar el sonido en un instrumento acústico hacen palidecer las más de las veces a nuestros arsenales técnológico-informáticos. Qué cantidad de matices envidiamos en el saxo, la guitarra, el violín...

AIM es sólo un formato de intercambio de mensajes, como lo es MIDI, pero el foco está en contar con campos que hagan esa mejor descripción de cómo está sonando un instrumento, resumida en unos pocos parámetros que puedan usarse por un motor de síntesis para así heredar una parte de la expresión del 'acústico' que vaya más allá del disparar notas que permite MIDI.

En lo que está previsto albergar en AIM, no hay nada especialmente llamativo, son cosas todas muy manidas y trilladas desde antes incluso de la existencia del MiniMoog. Además AIM no define en sí mismo cómo realizar el análisis. Pero conocer qué campos contiene me parece una interesante lectura para quienes practican síntesis. A algunos porque usaréis sistemas avanzados y muy personalizables (Max y semejantes) en los que tendréis ya herramientas para hacer los tipos de análisis que extraen estos rasgos. A todos porque a la hora de crear sonidos algo de reflexión sobre estos parámetros es también útil como sugerencia.

El formato actual del mensaje es el que aparece en la figura/tabla. Más allá de las críticas que podamos realizar sobre el formato y el contenido (se me ocurren unas cuantas), lo que nos interesa es que además de la información típica MIDI (nota, velocidad, pitch bend), y la presencia en la sección 'articulación' de un 'trigger' y un 'gate' (para señalar el inicio de algo, y para señalar cuándo algo -una nota- permanece activa), hay campos para indicar en cada momento durante el desarrollo de una nota lo siguiente:

  • Indicar la frecuencia / altura instantánea (con precisión mejor al cent)
  • Indicar el nivel instantáneo (con precisión de 0.5 dB)
  • El 'centroide' o 'centro de gravedad' espectral: la frecuencia 'media' sobre la que se distribuye la energía del sonido
  • El índice de predominancia de armónicos pares / impares
  • El nivel de ruido en dB, entendiendo ruido como aquello que no encaja con un patrón de tipo armónico / parciales
  • El centroide del ruido
  • El grado de inarmonicidad indicado por un factor de estiramiento o encogimiento a lo largo de la serie armónica / parciales

Pensad por un momento qué sintes tenéis que den acceso a esos parámetros. Más que posiblemente ninguno, salvo para usuarios de entornos como el ya mencionado Max. Pensad en cómo podríais crear sonidos en los que tuvierais algún control sobre esos parámetros. Hasta ahí lo fácil. Pensar en cómo sacar provecho de ese control es lo complicado. Y para ello, como casi siempre, lo que hemos de hacer es escuchar y analizar lo que ya hacen por sí mismos los instrumentos acústicos y aprender lenguaje de ellos. Si ni estas cosas tan básicas están presentes en nuestros sintes, quizá hay espacio para mejorar sus resultados.

De momento son todas cosas un tanto ‘en el aire’ para el común de los mortales, aunque sí se están usando ideas parecidas y hasta mejor elaboradas, con mayor complejidad, en infinidad de composiciones del campo de la música electroacústica. Quizá en el futuro veamos desarrollos que hagan accesibles este tipo de control de una forma más universal, pero ahora mismo este tipo de conceptos podemos a menudo aplicarlos para guiar la síntesis y nuestra reflexión sobre ella al crear sonidos, mientras van llegando herramientas que nos los pongan al alcance.

Pablo Fernández-Cid
EL AUTOR

Pablo no puede callar cuando se habla de tecnologías audio/música. Doctor en teleco. Ha creado diversos dispositivos hard y soft y realizado programaciones para músicos y audiovisuales. Toca ocasionalmente en grupo por Madrid (teclados, claro).

¿Te gustó este artículo?
3
Comentarios
  • avatar
    #1 por --430038-- el 03/11/2015
    El "traductor de matices", joder que interesante.
    1
  • #2 por incluso el 04/11/2015
    Brutal... Llenar de una expresión más realista e interpretación natural a los Sintes sería algo espectacular. Los teclados Roli siguen este protocolo Pablo?
  • #3 por pablofcid el 04/11/2015
    No. Este protocolo es sólo una especificación en borrador y no tengo constancia de que esté siendo debatido más allá de internamente en KMI.
    Era una excusa para presentar un poco este tema que me parece sugestivo.

    En su día cosas como ZIPI ya incorporaban este tipo de ideas. Y desde luego hay muchas más cosas que pueden usarse para caracterizar rasgos importantes y algo más detallados. Lo que me pareció es que esto era muy fácil de entender por todos, por ser tan básico.

    Los Roli no. Miden y usan otras cosas. Fíjate que en los Roli en esencia se trata de tener unos sensores de varias dimensiones (movimiento vertical, lateral, presión...) y eso se refiere a los gestos sobre el instrumento y no a los resultados sobre el sonido, que es de lo que se trata cuando analizas instrumentos acústicos.
  • #4 por incluso el 04/11/2015
    Aaah ... Pero KMI puede que que este presente en los teclados nuevos de Keith Mcmillen ?