Fase: la cara oculta del audio

05/02/2013 por pablofcid

Aquí comentaremos la importancia que tiene la fase en las señales y sistemas de audio; mostraremos cómo detectar y trabajar sobre esa parte del sonido, y qué ganamos o perdemos haciendo o no caso a la fase al grabar y procesar audio.

Es la atención a detalles como la respuesta en fase una de las características que a menudo diferencia equipos verdaderamente 'pro' de equipos más 'home' (y también a un técnico verdaderamente ‘pro’), así que no está de más saber de ella y aprender a dominarla. Es también una oportunidad para algunos efectos creativos que juegan con la psicoacústica para 'ecualizar' sin tocar niveles.

Este artículo tendrá continuación en una segunda parte (¡no te la pierdas!).

Fase o desfase

Personalmente más que hablar de ‘la fase’ (un concepto que parece lejano y matemático) me gusta hablar del ‘desfase’, que sí es un concepto que todos podemos entender y reconocer en situaciones cotidianas.

El conocido chiste de un batería y un bajista que se tiran de un ático y cuando se estrellan hacen ‘boom… boom’ (es decir, no llegan sincronizados, sino con un ligero desplazamiento: con un desfase entre ellos), refleja una situación de retraso comparativo entre dos eventos que esperábamos simultáneos.

Esos mismos retrasos, aunque mucho más cortos (de milisegundos o microsegundos) aparecen también en cualquier sistema audio (tanto si es analógico como si es digital).

Los problemas de desfases relativos son bien conocidos por aquellos que usan multimicrofonía o que sonorizan grandes instalaciones, puesto que al combinarse señales con diferentes retardos aparecen realces y cancelaciones (en el espectro y también en el espacio destinado a la audiencia). Pero nos afectan igualmente en el ‘santuario/laboratorio’ de nuestros estudios.

Cuando una señal musical atraviesa, por ejemplo, cualquier filtro o ecualizador, las distintas componentes espectrales de esa señal, sus distintas frecuencias, gastan tiempo en hacer el recorrido entre el ‘in’ y el ‘out’. Es más, el tiempo que gastan no es idéntico para todas ellas: unas salen rápidamente, otras se demoran más. Como resultado, a la salida tenemos el mismo efecto que el del chiste: ‘boom … boom’, pero ahora a una escala de tiempo que hace incapaz para nuestro oído escuchar eventos separados. Lo que oiremos es como los ataques que debían ser ‘instantáneos’ pierden definición y se dispersan, se emborronan, se extienden ligeramente en el tiempo. Algo que podrá afectar especialmente a las percusiones y en general a los sonidos que tengan un ataque especialmente fuerte. Más por ejemplo a un pizzicato que a un legato, más a un solista que a una sección, más a una cuerda con púa que con yema,… Incluso más a los sonidos y estilos acústicos (en los que esperamos un determinado sonido bien establecido) que en los electrónicos (en los que somos más tolerantes hacia la diferencia y lo no convencional).

¿Son las diferencias de fase que introducen los sistemas audio habituales suficientes para ser audibles? Es una cuestión sobre la que hay mucho (y encendido) debate.

Un ejemplo sonoro

Vamos a oír un primer ejemplo, exagerado a propósito, para ayudar a entender de qué hablamos. Así sabréis qué es lo que tenéis que buscar en la escucha en casos más difíciles. Escuchamos tres versiones de un mismo fragmento musical. Una de ellas tiene un retardo constante, la otra creciente con la frecuencia, la otra decreciente.

A mí me gusta decir que el retardo creciente con la frecuencia hace ‘burbujear’ a los sonidos (salen primero las componentes graves), mientras el retardo decreciente con la frecuencia imparte un efecto de tipo ‘disparos de rayos láser’ (primero viene el brillo y más tarde el cuerpo). Al oírlo lo entenderéis.

Tanto si os gustaría crear estos efectos como una herramienta creativa, como si queréis evitar que os sucedan al grabar, mezclar o procesar audio, seguid leyendo.

Las señales audio tienen fase

El ejemplo anterior era exagerado. No habrá tantísimo retardo en nuestros sistemas habituales. Oigamos ahora (mejor por cascos y sin distracciones) otros dos ejemplos, en los que una batería y unas castañuelas han atravesado un filtro paso-todo (que no cambia los niveles, sólo se altera el alineamiento en el tiempo de unas frecuencias respecto a otras).

Descargar audio en FLAC

En el caso de esta batería yo oigo la modificación especialmente en el bombo (es donde el filtro empleado tenía mayor retraso). La primera versión es el original. En la segunda (procesada) notaréis un énfasis artificial en el bombo, que suena con más brillo. No es el resultado de jugar con niveles graves/agudos, sino de haber retrasado las componentes graves: al escuchar primero la parte aguda nos captura más la atención y aparenta un mayor brillo. Muchos incluso preferirán la versión alterada por ese ‘punch’ extra en el bombo. Es una ‘ecualización psicoacústica’, que no afecta a los niveles de señal pero sí colorea la perceción.

La vista en espectrograma muestra con claridad ese retraso relativo de la parte grave (que 'se dobla', no mantiene la verticalidad).

Espectrograma

En el ejemplo de castañuelas que sigue, se puede oír cómo cambia el ‘color’ del chasquido principal (no de la cola reverberante) como resultado de la aplicación de filtrado paso-todo (necesitaréis oír el fichero FLAC, sin compresión).

Descargar audio en FLAC

Son efectos, como podemos apreciar, pequeños (tanto como lo son los minúsculos retardos relativos implicados), pero los euros se ganan céntimo a céntimo, y la suma de muchos descuidos parciales (en la toma de sonido de cada instrumento, en el tratamiento de cada pista, etc.) sí puede generar un resultado agregado que no llegue a la calidad deseada.


Además del posible efecto audible del propio desplazamiento de fase (como hemos visto, relativamente pequeño), hay también consecuencias cuando posteriormente las señales se procesan. Las dos formas de onda que se muestran a continuación tienen los mismos armónicos (seis, con intensidades en proporción 1, 1/2, 1/3,… 1/6). Sólo difieren en las fases relativas de esos armónicos (idénticas a la izquierda, y desplazadas un cuarto de ciclo en los parciales 2, 4 y 6 a la derecha). Es evidente que habiendo modificado sólo la fase hemos llegado a alterar de forma importante la señal.

¿Podríamos notar la diferencia entre ambas señales? La respuesta es (salvo para algún superdotado) no.

Pero pensemos ahora en en el tratamiento o grabación de esas señales. En una el recorrido es más extremo (excede del rango +/-1) y en la otra menos. ¿Qué pasa si estas señales pasan por unas válvulas o un previo que sature ligeramente? Pensemos que +1/-1 es el codo de saturación: sólo la señal de la izquierda será distorsionada (y recibirá el agregado de componentes espectrales nuevas), la otra permanecerá limpia.

¿Podríamos notar ahora diferencia entre ambas señales, una vez distorsionadas? La respuesta es sí.

El mismo elemento distorsionador, el mismo espectro (de amplitud) de entrada, y sin embargo salidas muy diferentes... y todo por ‘culpa’ de la fase.

Incluso aunque las diferencias de fase por sí mismas no sean fáciles de percibir, el ‘procesado’ de esas señales puede conllevar diferencias audibles. Especialmente (como veremos en el segundo artículo) en efectos y situaciones en los que la señal procesada y la original acaben combinándose (lo que nos pone ante el mismo reto ‘multicamino’ que enfrentan los técnicos de PA o quienes aplican multimicrofonía).

Los sistemas de audio tienen fase

Todos los sistemas que tratan audio modifican la fase de las señales. Vamos con un ejemplo básico: un filtro (podría ser de un ecualizador). En este caso un paso bajo.

Filtro1

En la figura aparece en rojo la respuesta en amplitud y en azul la respuesta en fase (expresada como ‘groupdelay’ que es una medida del retardo con el que trata las señales de cada frecuencia: lo que tarda cada tipo de tono en atravesar el filtro). Vemos la banda de paso (con rizado de 1 dB en amplitud -aceptable-) y un notable rechazo a partir de la frecuencia de corte. Pero vemos también un retardo muy variable con la frecuencia: entre 3 y 12 muestras.

Debe llamarnos la atención que las diferencias de retardo se manifiestan tanto más cuanto mayores variaciones muestra la respuesta en amplitud. Hay un evidente parentesco entre las dos líneas. En la zona de corte del filtro las variaciones del retardo son notablemente mayores.

Filtro2

Con esos comentarios no debe extrañarnos lo que observamos en la siguiente figura. Si subimos el orden del filtro (para hacerlo más selectivo) subimos también mucho los retrasos en la zona en la que el filtro actúa (cerca de la frecuencia de corte). Ahora el retardo varía desde un mínimo de 8 muestras hasta las 45. El retardo medio ha crecido y además se han acrecentado las diferencias de retardo entre unas y otras frecuencias.

 

Si en lugar del orden hubiéramos modificado el ancho de banda del filtro, observaríamos también un incremento del retardo y de sus ‘desniveles’:

Filtro3

¿Es esto un caos inmanejable? Afortunadamente no, hay, como vemos, una estrecha relación entre la respuesta en amplitud y la respuesta en fase, lo que nos permite ‘intuir’ el efecto de un filtro en cuanto a la fase a partir de su respuesta en amplitud.

Si en una cadena de equipos notamos problemas de dispersión de los transitorios, ya sabemos por dónde empezar a buscar a los culpables. Los filtros más ‘abruptos’ serán generalmente los que más desvirtuarán la fase de las señales. Utilizar sistemas con respuestas ‘suaves’ mejorará el tratamiento de los transitorios allí donde notemos que están sufriendo.

El porqué del retardo y de los desfases en los sistemas audio

¿Por qué el retardo difiere para cada frecuencia? A mí me gusta concebirlo con una visión independiente de la tecnología, y que por tanto habla de una realidad física que siempre existe (ya sean soluciones analógicas, digitales, o incluso acústicas):

Cualquier filtro (en realidad cualquier sistema audio) gasta tiempo (una pequeña fracción de segundo) en procesar. Es normal: ¿cómo puede saber un filtro que quite zumbido de red si una señal es de 50Hz o no? Poneos en su papel: necesita 'ver' un buen trozo del ciclo de 50Hz para saber que está ahí y decidirse a quitarlo de en medio. Y eso significa unos milisegundos que tiene que 'observar' antes de actuar. Como resultado, sí, el filtro retira los 50Hz, pero además su salida está retrasada (es decir 'desfasada') respecto a la entrada.

Un filtro al tratar graves necesita 'ver' más milisegundos para poder discernir (sencillamente porque las señales graves tienen ciclos más largos). Para agudos busca señales que son físicamente más cortas (y por tanto puede actuar más rápido). Y ya tenemos el lío montado: el retraso no es el mismo. [Nota: realmente la diferencia no la marca la distinción grave/agudo, sino cómo de ‘selectivo’ es el filtro: es igualmente difícil ‘ver’ 50 Hz, que diferenciar 4000 de 4050]

¿Pero esto se oye?

¿Se notará algo de esto sobre el resultado audio? Vuelvo a lo dicho: dependerá mucho del tipo de sonido e incluso del estilo o género musical.

Pero pensemos por un momento que hablar de 20 muestras a fs=44100 significa en el equivalente analógico retrasos de aprox. medio milisegundo (el periodo de un tono de 2000Hz). Es decir, esos tiempos de retardo, aunque parecen pequeños, sí son de un tamaño apreciable para las señales de audio, con capacidad para modificarlas apreciablemente.

Y a medida que usemos filtros de mayor orden y/o de menor ancho de banda, etc. esos tiempos de retardo crecerán rápidamente y se harán más desequilibrados  a lo largo de las diferentes frecuencias.

El rizado en amplitud de 1dB que veíamos en los ejemplos anteriores dentro de la banda de paso será a buen seguro poco significativo perceptualmente, pero no así el diferente grado de desplazamiento que sufrirán los distintos armónicos y componentes espectrales de la señal en los sistemas audio que solemos aplicar.

¿Nos parecería adecuado no corregir un retardo relativo de 20 muestras si lo viéramos en la pantalla de nuestra DAW? A buen seguro intentaríamos corregirlo.

Cuando activamos cualquier filtro en un canal de la mezcla, estamos imponiendo un retraso (y para colmo, variable en forma significativa con la frecuencia). Al menos el retardo medio en la banda de paso deberíamos pensar en compensarlo (como mínimo en pistas de percusiones).  Y cuando pese a todo notemos una degradación de los transitorios, habrá que modificar las decisiones de tratamiento, quizá reemplazando los filtros y ecualizadores o cambiando sus ajustes.

Filtro4

Hay muchos diseños diferentes de filtros que manifiestan otras formas de respuesta en amplitud y en fase. Vemos ahora un ejemplo con otro tipo de diseño, en el que el retardo dentro de la banda de paso es menor y tiene menos diferencias entre unas y otras frecuencias (‘solo’ se mueve entre 2 y 5 muestras) y que además evita el rizado en la banda de paso. Parecería ‘mejor’ para no afectar tanto a la fase, pero para conseguirlo ha tenido que sacrificar la pendiente en la zona de corte. A cambio de ser un mejor sistema para el tratamiento de impulsos ha pasado a ser menos selectivo en frecuencia. Mejora la respuesta temporal/impulsiva pero empeora la frecuencial (otro día hablaremos del compromiso tiempo-frecuencia en audio).

Cuando tengo diferentes filtros y ecualizadores y decido usar uno u otro en cada caso, a menudo estoy (guiado por el oído) eligiendo aquel cuya respuesta encaja mejor con las necesidades. No es por tanto sólo afán de coleccionismo el contar con variedad de modelos y marcas, y aprender a conocerlos y escucharlos.  Si detecto problemas en el tratamiento de los impulsos y ataques, deberé prestar atención a este tipo de cuestiones. Y podré seleccionar con criterio dentro de mi colección de equipos y plugs cuál aplicar en cada situación.

Además nosotros contamos ya con algún criterio, que hemos aprendido en estos ejemplos (y que extendermos en el siguiente artículo).

A modo de conclusión

(Y sin entrar en el uso ‘creativo’ que podamos buscar a los ‘defectos’ de fase):

  1. La fase no afecta por igual a todas las señales audio. Una señal que ha visto modificada su fase puede mostrar unos transitorios alterados, que tienden a ‘abrirse’ en el tiempo (a modo de ‘burbujas’ o de ‘disparos láser’). Generalmente será poco audible (si los desfases son suficientemente pequeños).  Pero la alteración de las fases modifica notablemente la respuesta ante la distorsión y otros procesos (especialmente con suma ‘wet/dry’), que sí puede ser muy audible.

  2. Hay una estrecha relación entre la respuesta en amplitud y la respuesta en fase en cada sistema, lo que nos permite ‘intuir’ el efecto de un filtro en cuanto a la fase y dónde (en qué frecuencias o bandas) va a ofrecer más problemas para los transitorios.

  3. Con material audio que sea crítico en su carácter impulsivo, a menudo será preferible un filtro de menor orden, rebajar el Q, usar menor pendiente, no cerrar tanto el ancho de banda, etc. Al menos cuando veamos (oigamos) que el audio sufre un efecto de ‘emborronamiento’ o ‘difuminado’ de los transitorios (que generalmente hemos de achacar a problemas en la fase).

  4. Si podemos, será mejor desplazar los puntos de corte a zonas en las que no haya señal de interés, pues en los cortes hay mayores desajustes de fase.

  5. También deberemos pensar si en alguna pista conviene ‘congelar’ el efecto de los plug-ins para a continuación poder hacer una compensación del retardo (visual o ‘a oreja’). Es una labor simple, sin esfuerzo, que puede inflar nueva vitalidad en el resultado.

La cuestión de la fase y el audio sigue siendo muy discutida. En el siguiente artículo estudiaremos algún otro caso, y propondremos otras formas de actuar y recomendaciones, además de presentar los filtros de fase lineal (los únicos capaces de garantizar un retardo idéntico para todas las frecuencias) y los problemas propios que plantean, así como los filtros paso todo y su posible utilidad correctiva y creativa.

Pablo no puede callar cuando se habla de tecnologías audio/música. Doctor en teleco. Ha creado diversos dispositivos hard y soft y realizado programaciones para músicos y audiovisuales. Toca ocasionalmente en grupo por Madrid (teclados, claro).

102
Comentarios
  • #1 por Massived el 05/02/2013
    Muy muy currado por lo que veo, cuando tenga un rato me lo leo entero. Gracias por el aporte!
  • #2 por Juan Rosa el 05/02/2013
    Hola! no aparecen disponibles los tracks, por lo menos ami no, buen estudio gracias.
  • #3 por dajrt el 05/02/2013
    Muchas gracias!
  • #4 por Ablektro el 05/02/2013
    de momento tampoco veo los audios en flac, pero muchas gracias por el artículo
  • #5 por pablofcid el 05/02/2013
    Los FLAC tengo que prepararlos esta noche en algún sitio para que los descarguéis. Como es mi primer artículo no sabía que no podía adjuntar aquí mismo en los artículos, así que buscaré una solución.
  • #6 por pablofcid el 05/02/2013
    De todas formas, yo (salvo de las castañuelas) incluso lo distingo bien reproduciendo con un iPad. Eso sí, hay que estar muy atentos.

    Como es el primer artículo que escribo para Hispasonic (y vendrán más) os comento que siempre es difícil obtener una mezcla adecuada de teoría y ejemplos, y el tema que he escogido para empezar lo hace aún más complicado. En otras contribuciones aboradaré diferentes cuestiones relacionadas con audio, efectos, síntesis y MIDI. Como en Hispasonic la audiencia potencial es tan variada es difícil contentaros a todos, pero para eso está vuestra actividad en el hilo dando continuación a la discusión que yo inicio con esta presentación. Os animo pues a participar, así como a sugerirme (en m.p. para no complicar los hilos) temas que os apetezca que trate.
  • #7 por undercore el 05/02/2013
    muy interesante
  • #8 por homenaje a tesla el 05/02/2013
    Pablo, cuánto sabes¡. mil gracias
  • #9 por igny el 05/02/2013
    Super pro, gracias
  • #10 por delia_derbyshire el 05/02/2013
    Muy buen artículo...
  • #11 por superlimon el 05/02/2013
    Entendí un poco por donde van los tiros... y menos mal !!! Gracias :)
  • #12 por fast_attack el 05/02/2013
    genial.
  • #13 por bmoreno el 05/02/2013
    Muchas gracias por compartir estos conocimientos: muy interesantes y útiles.
  • #14 por Pilgrims el 05/02/2013
    la verdad es que solo me habia preocupado por la fase a la hora de grabar, nunca a la hora de procesar el audio, muy interesante.
  • #15 por Antuan el 05/02/2013
    Pero si el batería y el bajista saltan al mismo tiempo desde la azotea, da igual que uno pese más que el otro, los dos llegarán al suelo al mismo tiempo. Esto ya lo demostró Galileo desde lo alto de la famosa torre de Pisa y lo demostraron también los astronautas del Apolo en la luna, dejando caer a la vez una pluma de ave y un martillo, en ausencia de aire, llegando al suelo ambos a la vez.
  • #16 por PereGrino el 05/02/2013
    Hola Pablo.
    Escuche' las diferencias en las muestras.
    Leí todo el articulo, pero no entendí muy bien las gráficas en donde aparece la Amplitud y el Retardo... :oops:
    Gracias por el articulo.
    Saludos,
  • #17 por Dolfo el 05/02/2013
    Enhorabuena por el excelente enfoque docente Pablo.
  • #18 por artifice el 05/02/2013
    Curradísimo, además bien explicado, esperando esa segunda entrega.
  • #19 por Mr. keys el 05/02/2013
    Genial!
  • #20 por pablofcid el 05/02/2013
    #14 : esa es una de las ideas principales, ser conscientes de que el procesado (cualquier filtro, tanto más cuanto más selectivo sea, etc) puede necesitar corrección y especialmente ahora que colocamos a veces demasiados procesos en cadena y les pedimos que hagan cosas difíciles (y que conllevan un alto retardo)
  • #21 por pablofcid el 05/02/2013
    #15 : ya avisé de que era un chiste (la gracia es que el batería y el bajista se supone que tocan 'a la vez' y para meternos con ellos decimos que ni siquiera tirándose de una ventana logran ir juntos)
  • #22 por pablofcid el 05/02/2013
    #16 : no entendí muy bien las gráficas en donde aparece la Amplitud y el Retardo...

    Quizá en otro artículo hable de filtros, sus tipos, etc. Pero básicamente esas figuras representan en la línea roja la respuesta en amplitud (la ganancia del filtro para cada frecuencia). En todos los ejemplos he puesto filtros tipo paso bajo (verás más ganancia en bajos y respuesta prácticamente nula -silencio- en altos).
    Supongo que tu problema es más con la línea azul (la del 'retardo de grupo'). Es la forma más significativa y útil de pintar la respuesta del filtro en cuanto a fase. El 'group delay' representa cuánto retardo sufren las señales al pasar por el filtro. De la misma manera que la amplitud no es fija (si no no sería un paso bajo), tampoco el retardo es fijo. Al contrario hay retardo mayor o menor en función de la frecuencia. Es decir algunos armónicos salen antes del filtro que otros y ese 'desparramamiento' es el que hace que los transitorios y ataque pierdan su claridad. Si el retardo es fijo podemos (al menos en una situación de mezcla no en vivo) compensarlo, pero como no es fijo sino dependiente de la frecuencia aparece el problema de la modificación de la forma de los transitorios.

    No sé si así te aclaro algo, si no, pregunta más concrétamente lo que quieras y lo intento.
  • #23 por Bichop el 06/02/2013
    Joder que buen artículo.
    Gracias Pablo,está todo muy bien explicado.
    Esperando la segunda entrega y sobre todo la forma de mejorar o compensar esa pérdida de definicion.
  • #24 por fernanz el 06/02/2013
    ¿Alguien podría explicarme qué son los transitorios?

    Muchas gracias y buen aporte, pablofcid
  • #25 por roncaron el 06/02/2013
    Muy bueno Pablo, gracias.