Sonido en vivo

Delay, ese gran desconocido

Una de las funciones que menos atención prestamos al channel strip de una consola digital es el delay o retardo. No me refiero al efecto delay del que tanto nos gusta abusar, sino a esa pequeña celda numérica que suele aparecer de los primeros en la cadena de procesado, después de la ganancia y el filtro pasa-altos (o, según modelos en otro sitio o, simplemente, ni aparece). Esta ahí y seguro que muchos hemos pensado ‘¿para qué necesito yo un delay?’. Para nada… y para todo. Su poder es enorme si sabes cómo y cuándo utilizarlo.

Su función es tan simple como su nombre: añadir un retardo temporal al procesado de la señal. Si hablamos de sonido, cuando hablamos de tiempo hablamos de fase. Le vamos a dar una vuelta de tuerca: podemos aplidar retardos mediante unidades de tiempo (segundos) o unidades de espacio (metros), es decir: fase o longitud de onda. Más allá de aplicar grandes retardos en los buses matriciales para PAs colgadas lejos del escenario o —discusión de otro artículo— para alinear temporalmente todos los canales cuando hay procesados externos, ¿en qué me puede ayudar un retardo en un canal?

Mezclando en vivo
Ernst Vikne

Primer experimento

Todos sabemos cuándo aplicar el botón de contrafase en nuestra mezcla. Exacto, la caja. Solemos colocar un micro arriba de ella y otro debajo que, físicamente, están situados en un mismo eje vertical. El botón de 180º o contra-fase lo que hace es multiplicar por -1 la señal sinusoidal de uno de los dos micrófonos, por lo que la suma de ambos no se verá afectada por esta situación donde ambos micros recogen la misma señal pero en fase totalmente distinta. Si releemos esta sentencia nos damos cuenta que, para que el resultado sea perfecto, ambos micrófonos deberían estar totalmente encarados (vista al frente), pero yo nunca lo he visto así, sino apenas una diferencia de entre 90º y 135º, lejos de los 180º que maneja el botón. Hay muy pocas consolas que conviertan el botón de contrafase en un control rotatorio y, por ende, apliquen diferencias de fase controladas entre 0 y 180º. Por eso, como coletilla nos enseñan que escuchemos y elijamos la opción que más nos gusta: a veces vale la pena, otras no. Al no tener un resultado perfecto ni ante la posibilidad de poder ajustar la contrafase de manera perfecta, ¿porqué no realizamos otro ajuste aberrante como intentar retardar una de las dos señales la mitad de la longitud de onda dominante? Sí, sé que tampoco es perfecto, pero sí más controlable.

Segundo experimento (y quizá el más interesante)

Tenemos una guitarra eléctrica de la que utilizamos su salida de línea por DI y colocamos un micro a unos 10 cm (5-6 dedos) del cono del altavoz. La mayoría de veces no realizamos este montaje porque nos suena como el culo o, si lo hacemos, tendemos a panoramizar ambos sonidos, casi de manera radical. El porqué de ese sonido ‘raro’ es por la suma de dos señales casi coincidentes en el tiempo, pero que al ser su frecuencia relativamente más alta (su longitud de onda es más corta) su suma provoca notables cancelaciones, incluso desagradables (por eso es más difícil ejemplarizarlo con el bajo eléctrico, donde el concurso de una DI y un micro es más habitual, pero el retardo a aplicar menos evidente debido a la larga longitud de onda de las señales más graves). El motivo de ello es que no están en fase, justamente porque la captación de la señal en la DI es a tiempo 0, mientras que el micrófono recoje la (casi) misma señal tras 10 cm de recorrido sonoro, es decir, 0,3 ms más tarde. Si la dominante de nuestra guitarra fuese una frecuencia de 6,8 kHz nos bastaría con apretar el botón de contrafase, puesto que su longitud de onda es de 20 cm, es decir, exactamente el doble de la “distancia” entre la DI y el micrófono, pero tendríamos otros problemas. La teoría es bonita, la práctica muchísimo mejor. Al ajustar el tiempo entre la captación de ambas fuentes (es decir, en nuestro caso decirle a la señal que nos viene de la DI que se espere a que la señal que capta el micrófono llegue a un mismo tiempo) nos ahorramos todos los problemas de suma y resta descontrolada de frecuencias e independientemente de su longitud de onda, por lo que, por fin, podemos mezclar dos señales sin esos problemas fantasma.

Tercer experimento

La gran mayoría de efectos de reverberación incluyen de serie el control de pre-delay. Su objetivo es indicar a partir de qué momento se aplica el procesado correspondiente, es decir, cuánto tardamos a empezar a procesar la reverb. Esta función nos puede resultar útil para separar ligeramente la voz limpia del efecto, consiguiendo una mayor y tremendamente mejor inteligibilidad de la palabra. Puedes aplicar un pre-delay suficientemente corto para conseguir este objetivo sin que el oído humano lo perciba como un eco añadido, y esto suele ocurrir a partir de 0,5 ms más o menos.

Cuarto experimento

Buscar el desfase total. Tu banda tiene una única guitarra eléctrica y, por tanto, debe compartir el espacio sonoro central con demasiadas cosas. Puedes plantearte utilizar dos micrófonos, aunque sean idénticos, y panearlos uno a cada lado, buscando ecualizaciones e incluso procesados algo distintos para mejorar la escena sonora, pero conseguirás ir más allá aplicando un delay a uno de esos micros. Si no tienes dos micros duplica la señal en la consola. Evidentemente, entonces deberás buscar una solución para cuando esa guitarra quiera ser el centro de la atención, pues no bastará recuperar el paneo al centro ya que con el retardo aplicado puedes hacer que ese momento de gloria suene a pena. Una opción es duplicar una de esas señales en un tercer canal, procesado y ecualizado para que suene en el centro y juegas con los tres para centrar la imagen sonora de la guitarra. Otra ya implica el concurso de los snapshots de la consola, automatizando todo el proceso de manera suave y precisa al toque de un botón.

Quinto experimento

El delay en monitores. Si tienes que hacer monitores desde la PA seguramente no tendrás el feedback necesario para estar atento a lo que ocurre en el escenario. Este pequeño truco no suele funcionar si el micrófono que te da problemas está en movimiento, puesto que entonces el valor de distancia no es fijo. Pero puede suponer un ayuda aplicar un retardo muy bajo (recuerda ese valor máximo de aproximadamente 0,5 ms) para “romper” un acople que se te resista. Me ha resultado también interesante aplicar retardos a monitores, sin que sea por necesidad de los acoples, cuando me encuentro en esos espacios tediosos donde una pared cerca del frontal del escenario provoca un molesto eco de la PA en el escenario. Si este eco es muy cercano puedes “engañar” la escucha en monitores aplicando un retardo lo más cerca antes de la sensación del eco (esos 0,5 ms), lo que convierte el eco de la sala en una especie de reverb natural, resultando algo más cómodo al músico su interpretación y escucha. Eso sí, no se lo digas.

R. Sendra
EL AUTOR

Con más de 20 años de experiencia en los escenarios, es técnico de sonido especializado en FOH. Trabaja para bandas nacionales e internacionales como técnico de mesa, y es productor técnico para diferentes festivales y grandes eventos. Kinosonik es su estudio de sonido basado en plataforma digital. Le gusta compartir y le encanta aprender.

¿Te gustó este artículo?
32
Comentarios

Regístrate o para poder comentar