Sonido en vivo

Delay, ese gran desconocido

Una de las funciones que menos atención prestamos al channel strip de una consola digital es el delay o retardo. No me refiero al efecto delay del que tanto nos gusta abusar, sino a esa pequeña celda numérica que suele aparecer de los primeros en la cadena de procesado, después de la ganancia y el filtro pasa-altos (o, según modelos en otro sitio o, simplemente, ni aparece). Esta ahí y seguro que muchos hemos pensado ‘¿para qué necesito yo un delay?’. Para nada… y para todo. Su poder es enorme si sabes cómo y cuándo utilizarlo.

Su función es tan simple como su nombre: añadir un retardo temporal al procesado de la señal. Si hablamos de sonido, cuando hablamos de tiempo hablamos de fase. Le vamos a dar una vuelta de tuerca: podemos aplidar retardos mediante unidades de tiempo (segundos) o unidades de espacio (metros), es decir: fase o longitud de onda. Más allá de aplicar grandes retardos en los buses matriciales para PAs colgadas lejos del escenario o —discusión de otro artículo— para alinear temporalmente todos los canales cuando hay procesados externos, ¿en qué me puede ayudar un retardo en un canal?

Mezclando en vivo
Ernst Vikne

Primer experimento

Todos sabemos cuándo aplicar el botón de contrafase en nuestra mezcla. Exacto, la caja. Solemos colocar un micro arriba de ella y otro debajo que, físicamente, están situados en un mismo eje vertical. El botón de 180º o contra-fase lo que hace es multiplicar por -1 la señal sinusoidal de uno de los dos micrófonos, por lo que la suma de ambos no se verá afectada por esta situación donde ambos micros recogen la misma señal pero en fase totalmente distinta. Si releemos esta sentencia nos damos cuenta que, para que el resultado sea perfecto, ambos micrófonos deberían estar totalmente encarados (vista al frente), pero yo nunca lo he visto así, sino apenas una diferencia de entre 90º y 135º, lejos de los 180º que maneja el botón. Hay muy pocas consolas que conviertan el botón de contrafase en un control rotatorio y, por ende, apliquen diferencias de fase controladas entre 0 y 180º. Por eso, como coletilla nos enseñan que escuchemos y elijamos la opción que más nos gusta: a veces vale la pena, otras no. Al no tener un resultado perfecto ni ante la posibilidad de poder ajustar la contrafase de manera perfecta, ¿porqué no realizamos otro ajuste aberrante como intentar retardar una de las dos señales la mitad de la longitud de onda dominante? Sí, sé que tampoco es perfecto, pero sí más controlable. 

Segundo experimento (y quizá el más interesante)

Tenemos una guitarra eléctrica de la que utilizamos su salida de línea por DI y colocamos un micro a unos 10 cm (5-6 dedos) del cono del altavoz. La mayoría de veces no realizamos este montaje porque nos suena como el culo o, si lo hacemos, tendemos a panoramizar ambos sonidos, casi de manera radical. El porqué de ese sonido ‘raro’ es por la suma de dos señales casi coincidentes en el tiempo, pero que al ser su frecuencia relativamente más alta (su longitud de onda es más corta) su suma provoca notables cancelaciones, incluso desagradables (por eso es más difícil ejemplarizarlo con el bajo eléctrico, donde el concurso de una DI y un micro es más habitual, pero el retardo a aplicar menos evidente debido a la larga longitud de onda de las señales más graves). El motivo de ello es que no están en fase, justamente porque la captación de la señal en la DI es a tiempo 0, mientras que el micrófono recoje la (casi) misma señal tras 10 cm de recorrido sonoro, es decir, 0,3 ms más tarde. Si la dominante de nuestra guitarra fuese una frecuencia de 6,8 kHz nos bastaría con apretar el botón de contrafase, puesto que su longitud de onda es de 20 cm, es decir, exactamente el doble de la “distancia” entre la DI y el micrófono, pero tendríamos otros problemas. La teoría es bonita, la práctica muchísimo mejor. Al ajustar el tiempo entre la captación de ambas fuentes (es decir, en nuestro caso decirle a la señal que nos viene de la DI que se espere a que la señal que capta el micrófono llegue a un mismo tiempo) nos ahorramos todos los problemas de suma y resta descontrolada de frecuencias e independientemente de su longitud de onda, por lo que, por fin, podemos mezclar dos señales sin esos problemas fantasma.

Tercer experimento

La gran mayoría de efectos de reverberación incluyen de serie el control de pre-delay. Su objetivo es indicar a partir de qué momento se aplica el procesado correspondiente, es decir, cuánto tardamos a empezar a procesar la reverb. Esta función nos puede resultar útil para separar ligeramente la voz limpia del efecto, consiguiendo una mayor y tremendamente mejor inteligibilidad de la palabra. Puedes aplicar un pre-delay suficientemente corto para conseguir este objetivo sin que el oído humano lo perciba como un eco añadido, y esto suele ocurrir a partir de 0,5 ms más o menos. 

Cuarto experimento

Buscar el desfase total. Tu banda tiene una única guitarra eléctrica y, por tanto, debe compartir el espacio sonoro central con demasiadas cosas. Puedes plantearte utilizar dos micrófonos, aunque sean idénticos, y panearlos uno a cada lado, buscando ecualizaciones e incluso procesados algo distintos para mejorar la escena sonora, pero conseguirás ir más allá aplicando un delay a uno de esos micros. Si no tienes dos micros duplica la señal en la consola. Evidentemente, entonces deberás buscar una solución para cuando esa guitarra quiera ser el centro de la atención, pues no bastará recuperar el paneo al centro ya que con el retardo aplicado puedes hacer que ese momento de gloria suene a pena. Una opción es duplicar una de esas señales en un tercer canal, procesado y ecualizado para que suene en el centro y juegas con los tres para centrar la imagen sonora de la guitarra. Otra ya implica el concurso de los snapshots de la consola, automatizando todo el proceso de manera suave y precisa al toque de un botón.

Quinto experimento

El delay en monitores. Si tienes que hacer monitores desde la PA seguramente no tendrás el feedback necesario para estar atento a lo que ocurre en el escenario. Este pequeño truco no suele funcionar si el micrófono que te da problemas está en movimiento, puesto que entonces el valor de distancia no es fijo. Pero puede suponer un ayuda aplicar un retardo muy bajo (recuerda ese valor máximo de aproximadamente 0,5 ms) para “romper” un acople que se te resista. Me ha resultado también interesante aplicar retardos a monitores, sin que sea por necesidad de los acoples, cuando me encuentro en esos espacios tediosos donde una pared cerca del frontal del escenario provoca un molesto eco de la PA en el escenario. Si este eco es muy cercano puedes “engañar” la escucha en monitores aplicando un retardo lo más cerca antes de la sensación del eco (esos 0,5 ms), lo que convierte el eco de la sala en una especie de reverb natural, resultando algo más cómodo al músico su interpretación y escucha. Eso sí, no se lo digas.

R. Sendra
EL AUTOR

Con más de 20 años de experiencia en los escenarios, es técnico de sonido especializado en FOH. Trabaja para bandas nacionales e internacionales como técnico de mesa, y es productor técnico para diferentes festivales y grandes eventos. Kinosonik es su estudio de sonido basado en plataforma digital. Le gusta compartir y le encanta aprender.

¿Te gustó este artículo?
30
Comentarios
  • #1 por insula el 09/04/2015
    :birras:
  • #2 por Alberto el 09/04/2015
    Hola R.Sendra, genial el artículo. Siempre se aprende algo nuevo con estos tutoriales.

    Un único apunte. Creo que tienes un pequeño error, ya que una voz, no se empieza a percibir como eco hasta aproximadamente entre 30 y 50ms.


    Un saludo y gracias por el tutorial!
    2
  • #3 por fermarin el 09/04/2015
    Muy útil y bien explicado, muchísimas gracias!

    A mi también me chocó lo de los 0,5 ms, hubiera pensado más...

    Un saludo!
  • #4 por Seabstiaen du Mal el 10/04/2015
    disculpen la ignorancia, pero cómo es que se calcula ese desfase del ejemplo nº2 ? para establecer que esos 10cm de distancia entre el micrófono y el amplificador son 0,3ms de retraso? me interesa saber, para aplicarlo prácticamente, cómo calcular ese retraso en diversas instancias para aplicar el delay, lo divido por la velocidad del sonido o qué? saludos
  • #5 por forneret el 10/04/2015
    #4


    Velocidad = incremento de desplazamiento / incremento de tiempo
  • #6 por Mister Carrington el 10/04/2015
    Buen artículo con explicaciones claritas.
  • #7 por javiersalso el 10/04/2015
    Genial, que buen artículo.
  • #8 por oneneuron el 11/04/2015
    Lo del Dly para quitar acoples hay que ponerlo en las cuñas verdad?
    O en la entrada de canal?

    P.S. Buen articulo, y gracias ;)
  • #9 por R. Sendra el 13/04/2015
    Buenas a todos,

    Hay un par de cosas que debería 'corregir'. Efectivamente, empezaremos a identificar como "eco" una señal cuando la diferencia de tiempo ronde los 30-50 ms, como bien apunta e indica Alberto. He utilizado mal la palabra eco, cuando lo que realmente quiero decir es a partir de qué punto nuestro cerebro podría empezar a distinguir un mismo sonido como 'repetido' y para ello recurro al hecho que la distancia entre una oreja y otra de nuestra cabeza suele ser de 17 cm: para un sonido que se desplace a 340 m/s, tardará esos 0,5 ms.

    Podríamos hablar un día sobre la psicoacústica, que es donde diferenciaríamos mejor la relación entre eco y reverberación, por ejemplo.

    Mientras, os dejo un reto: si tenemos una escucha binaural (es decir, dos orejas) ¿cómo conseguimos situar la fuente de un sonido en un espacio tridimensional?

    Un saludo
    1
  • #10 por Alberto el 13/04/2015
    Si me lo permites, hilando con tu pregunta, y ¿por qué nos cuesta tanto identificar la procedencia del "cri cri" de los grillos?

    Un saludo
  • #11 por R. Sendra el 14/04/2015
    Alberto: por la longitud de onda.
  • #12 por superguille80 el 14/04/2015
    Porque la longitud de onda del "cri cri" es casi igual que la separación entre nuestro oidos, por eso cuesta mucho encontrarlos.

    Muy buen artículo.
  • #13 por korazacp el 14/04/2015
    Buen artículo R Sendra, Pero si te lee mi amigo Magú escribiendo contratase en lugar de cambio o inversión de polaridad, le veo encomendándose a Harry Olson y toda su familia.Jajajaja!
    Salud y mil gracias por compartir tus conocimientos con el mundo.
  • #14 por rodval97 el 15/04/2015
    Excelente!!! pero como bien indicas al principio del artículo, es ese botón que "simplemente, ni aparece", ese es el tipo de diferencia entre DIGICO, MIDAS, y mesas de alto nivel y las ROLAND, YAMAHA M7 e inferiores y otras marcas que es mejor no mencionar...
    Yo lo uso habitualmente y además de jugar con la fase puedes crear falsos stereos, restar el punch o cancelar intencionadamente ciertas Freq de un instrumento o simplemente resaltar una voz o instrumento solista por un cluster central, has probado a doblar bajo y bombo y enviar las señales retrasadas a las top y sin dly a los subs...? te sorprenderás...
    Como siempre es el gusto del técnico el que determine cuando usar estos parámetros, pero son pocas las ocasiones donde usarlos, no es fácil que encuentres consolas de ese nivel en salas y pequeños eventos.
  • #15 por JUAN PABLO M el 19/04/2015
    Buenas a to@s: solución rápida y la mas confiable de todas: utilizar un analizador FFT para dar el delay exacto a cada canal de entrada que lo requiera; ejemplo: mic en el snare vs mic como overhead, tomar transferesia de overhead y luego ajustar el tiempo en el microfono del snare con su fase y la anteriormente tomada.
  • #16 por Cué el 22/04/2015
    #9 ¿Por la pérdida de frecuencias medias/agudas de la oreja más lejana,al atenuarlas la propia cabeza? (Y la posterior interpretación psicoacústica del cerebro)
  • #17 por R. Sendra el 23/04/2015
    No Cué :)
  • #18 por Alee el 23/04/2015
    Muy bueno! Sobre todo el "no se lo digas" del final jajaja
  • #19 por joseiacona el 02/05/2015
    Muy buena nota! el delay es mi primer efecto siempre!
  • #20 por fast_attack el 05/05/2015
    La respuesta a la pregunta... creo que es por que escuchamos los distintos rebotes del sonido en el entorto, en el suelo principalmente.

    Otra aplicación interesante del delay del canal (para mi la principal), puede ser la de alinear una fuente muy ruidosa, con la PA principalmente en sitios pequeños. Por ejemplo retardar nuestra señal de bajo para alienarla con el sonido que escupe una nevera con 8 dieses a todo trapo.
  • #21 por Emmanuel Rodríguez el 15/07/2015
    ¿La longitud de onda de 6.8 kHz es 20 cm? ¿En serio?
  • #22 por ramones666 el 16/07/2015
    que confusión me genero.. a ver.. si dividimos por la velocidad del sonido (340 metros/seg) una freq, ej: 20hz eso da 340/20 eso daría 17 m/s, y si hago 340/6.8khz (6800hz) no da 0.05 m/s? osea.. como dio 20cm? o yo hago algo mal?
    :shock:
  • #23 por bichuelo el 23/07/2015
    #21 sí. dale un vistazo a la parte final de este video y entenderás por qué es lógico: https://www.youtube.com/watch?v=12X-i9YHzmE