Sonido en vivo

Latencia: el enemigo oculto en tus directos

Mesa de mezclas audio

Latencia es tiempo. Cuando debemos escuchar algo pero lo hacemos más tarde, tenemos latencia, así de simple. La latencia es un no tan nuevo pero desconocido, casi invisible y peligroso actor que se ha hecho protagonista con la inclusión de las tecnologías digitales. Nuestros compañeros del estudio de grabación dicen que lo conocen y bien, tratan de controlarlo de todas las maneras posibles: tienen tiempo. En realidad, invierten grandes cantidades de dinero en hardware específico que, justamente, abandera la baja latencia como claro elemento de juicio de compra, pero ¿qué pasa en el mundo del directo? ¿Es que no tenemos latencia? Claro que sí.

Existe latencia (o retardo) en toda conversión A/D y D/A: en toda. En los estudios el principal quebradero de cabeza es conseguir que si hay diferentes convertidores con latencias distintas, las señales lleguen exactamente en el mismo momento —difícil, pero no imposible—. Hay que elegir y, normalmente, supeditar los resultados a los límites que justamente la latencia impone (por ejemplo, utilizar diferentes previos analógicos pero un mismo convertidor A/D multicanal, retardarlo todo al valor más crítico o ajustarlo manualmente tras cada grabación). En directo este problema queda más o menos resuelto al utilizar exactamente el mismo convertidor en todos los canales de entrada y salida, por lo que la latencia será exactamente la misma para absolutamente todos los canales… en principio.

La latencia se suele medir en muestras (samples). Así, si sabemos que los convertidores de nuestro equipo presentan una latencia de 512 samples, podemos saber que, en el mejor de los casos, el retardo será de 0,023 s (multiplicamos por 2 esos 512 samples -entrada y salida- y dividimos el resultado por la frecuencia de muestreo que se utilice; por ejemplo, 44,1 kHz). 0,023 s o 23 ms ¿Son muchos o soportables? Depende.

Si realizamos una simple mezcla básica con ese dispositivo ya sabemos que lo que entre en la consola en analógico ‘saldrá’ 23 ms más tarde por su salida analógica. De ahí a un recinto acústico normal. 23 ms podríamos traducirlos como 9 metros, es decir, es como si comparándolo con una configuración analógica al 100 %, tuviéramos las cajas 9 metros por detrás. ¿Podemos mejorar esta latencia tan exagerada? Claro.

Los 512 samples que he utilizado en el ejemplo anterior suelen ser para ordenadores normales que se utilizan en un estudio de sonido. En realidad nuestra consola de audio para directo no es más que un ordenador pero específico para tareas de audio, por lo que las latencias de sus convertidores A/D y D/A son mucho menores. Como ejemplo, una simple medición nos permite comprobar que una Digico SD presenta sólo 0,09 ms de latencia entre SD Rack y local, mientras que en una CL5 la latencia alcanza unos nada menospreciables 1,98 ms en la propia consola (entrada/salida). ¿Problema resuelto? Claro que no.

Cada vez que entra en concurso un DSP o una parte de él, siempre, absolutamente siempre, se realizará con precisión la orden matemática a realizar, pero tal perfección tendrá como precio un nuevo retardo, una nueva latencia. Por ejemplo, en el caso de una Avid S3L-X, cada plugin que insertamos en cualquier canal añadirá, de facto, 2 samples de retardo por el simple hecho de ‘activar’ el rack de efectos, y 3 samples adicionales por cada uno de los slots utilizados. De hecho no son sólo 5 samples la latencia o retardo que se añadirá al canal, sino que cada plugin, en función de su cometido, tendrá un nuevo valor de latencia. Por ejemplo, el plugin Time Adjuster (aplica retardos de señal) añade 7 samples más. Eso quiere decir que si mi intención es retardar la señal 20 samples, en realidad tendré que ajustar el plugin para que sólo retarde 8 samples (8+7+2+3=20). Dichoso manual de usuario.

Pero, ¿qué ocurre si lo que quiero es hacer una compresión paralela de, por ejemplo, un bombo? Cojo el canal 1 que, procesado, lo envío a la salida máster, mientras que en el canal 2 añado el mismo bombo pero procesado diferente con el concurso de un plugin determinado. Como que es más complejo que el Time Adjuster anterior, su latencia es superior y, añadiendo los 5 samples que antes he mencionado, hacen que la señal una vez procesada me llegue al bus de salida máster 20 samples más tarde. Si la mesa trabaja a 48 kHz, esos 20 samples significan un retardo de 0,4 ms, es decir, 13,88 cm que podríamos traducir como la mitad de la longitud de onda de un tono de 1.250 Hz. ¿Lo véis? La suma de los dos canales provocará que, como mínimo, toda frecuencia de 1.250 Hz desaparezca. ¿Quién mezcla aquí: tú o la latencia? Teniendo en cuenta que tras el procesado ambas señales ya no son idénticas, los problemas que aparecen lo hacen en forma de phasing, atacando a más de una simple frecuencia.

Hay tres maneras de solucionar este problema. La primera es recurriendo a plugins que incorporen una opción de procesado paralelo, como el Pro Compressor de Avid. Tras ajustar la señal comprimida podemos sumarle al mismo tiempo la señal limpia y conseguir el mismo efecto de compresión paralela utilizando una combinación de señales coherentes en el tiempo. La segunda es utilizando la función de compensación de retardo (delay compensation), una prestación que no todas las mesas incorporan pero cuyo cometido es estar atentos a todos estos procesos que pueden provocar phasing y retardar (insisto: retardar) los canales correspondientes, pero sólo los canales correspondientes. A veces aceptaremos que el bombo y su compresión paralela (la suma de los dos canales) nos llegue 0,4 ms más tarde que la caja que no tiene compresión paralela (no dejan de ser sonidos diferentes), en vez de recurrir a la tercera opción: retardarlo todo, absolutamente todo, para que nos llegue tarde pero al mismo tiempo. Recordad que a esos 0,4 ms tendremos que sumarle los retardos correspondientes a las conversiones y otros procesados.

Esto es lo único que podríamos hacer, por ejemplo, con la Yamaha CL5. Recordemos que presenta una latencia media entre entrada y salida de 1,98 ms medidos en la misma mesa (no en un RIO, que alcanza retardos entre 3,06 y 4,06 ms según configuremos la red DANTE). El problema de esta consola es que no tiene compensación de retardo. Si nos sigue interesando insertar en el bombo en paralelo un compresor de su serie Portico tendremos un retardo añadido de 0,27 ms. Aunque es casi un 33% menos que en el caso de la S3L-X de Avid, lo único que tenemos es que el problema de phasing lo tendremos en una frecuencia más alta. Quizá no será un problema para un bombo al que no busquemos patada, pero imaginad una caja o, peor aún, las voces. Al no tener la posibilidad de poder mezclar ambas señales ni opción de Delay Compensation existe un truco muy viejo que es lo único que podemos hacer en este caso: utilizar un segundo slot e insertando el mismo plugin pero sin que actue y donde enviaremos todas las otras señales (o, como mínimo, el bombo que no tendrá compresión pero que deberemos mezclar con el comprimido). Puede parecer una buena noticia porque en realidad el tiempo perdido incluso es menor que en el ejemplo anterior, pero supone duplicar los recursos.

Las mediciones de latencia no son datos que habitualmente el fabricante ofrezca en sus especificaciones técnicas. Manteniéndonos en la CL5, cada vez que recurrimos a alguna de sus prestaciones añadimos más retardo a la señal (por ejemplo utilizar matrices o subgrupos). La inserción de un rack externo analógico sin duda alguna implica el concurso de dos convertidores digitales más (un primero D/A y un segundo A/D), lo que suma a nuestro canal unos vertiginosos 3,73 ms más de retardo. Si, además, lo que queremos insertar es algo como un Waves sin hardware específico, deberemos sumar la latencia de la conversión A/D y D/A de la tarjeta que utilicemos y, atención, todo el retardo de procesado que se añadirá en el rack virtual de Waves. Por algo será que Waves ofrece convertidores más rápidos y servidores específicos (más potentes y más rápidos). Aún sin el concurso de Waves, volvemos a lo de siempre: ¿son muchos esos 3,73 ms? Debes saberlo, calcularlo y empezar a entender el porqué a veces una mesa suena más “brillante” que otras: normalmente porque has realizado un procesado que, con esa mesa, no deberías realizar o, como mínimo, solucionar con antelación.

Pensemos, además, que esto mismo ocurre cuando después atacamos procesadores digitales: hay nuevos convertidores y nuevas latencias que van sumándose a nuestra cadena. Por eso empieza a ser relevante la interconexión digital que, aunque tampoco es la panacea, reduce no sólo los problemas de pérdida en las conversiones sino las latencias asociadas a conversiones D/A y A/D ya innecesarias.

R. Sendra
EL AUTOR

Con más de 20 años de experiencia en los escenarios, es técnico de sonido especializado en FOH. Trabaja para bandas nacionales e internacionales como técnico de mesa, y es productor técnico para diferentes festivales y grandes eventos. Kinosonik es su estudio de sonido basado en plataforma digital. Le gusta compartir y le encanta aprender.

¿Te gustó este artículo?
16
Comentarios

Regístrate o para poder comentar