Grabación

Fase: la cara oculta del audio

05/02/2013 por Pablo Fernández-Cid

Aquí comentaremos la importancia que tiene la fase en las señales y sistemas de audio; mostraremos cómo detectar y trabajar sobre esa parte del sonido, y qué ganamos o perdemos haciendo o no caso a la fase al grabar y procesar audio.

Es la atención a detalles como la respuesta en fase una de las características que a menudo diferencia equipos verdaderamente 'pro' de equipos más 'home' (y también a un técnico verdaderamente ‘pro’), así que no está de más saber de ella y aprender a dominarla. Es también una oportunidad para algunos efectos creativos que juegan con la psicoacústica para 'ecualizar' sin tocar niveles.

Este artículo tiene continuación en una segunda parte (¡no te la pierdas!).

Fase o desfase

[Índice]

Personalmente más que hablar de ‘la fase’ (un concepto que parece lejano y matemático) me gusta hablar del ‘desfase’, que sí es un concepto que todos podemos entender y reconocer en situaciones cotidianas.

El conocido chiste de un batería y un bajista que se tiran de un ático y cuando se estrellan hacen ‘boom… boom’ (es decir, no llegan sincronizados, sino con un ligero desplazamiento: con un desfase entre ellos), refleja una situación de retraso comparativo entre dos eventos que esperábamos simultáneos.

Esos mismos retrasos, aunque mucho más cortos (de milisegundos o microsegundos) aparecen también en cualquier sistema audio (tanto si es analógico como si es digital).

Los problemas de desfases relativos son bien conocidos por aquellos que usan multimicrofonía o que sonorizan grandes instalaciones, puesto que al combinarse señales con diferentes retardos aparecen realces y cancelaciones (en el espectro y también en el espacio destinado a la audiencia). Pero nos afectan igualmente en el ‘santuario/laboratorio’ de nuestros estudios.

Cuando una señal musical atraviesa, por ejemplo, cualquier filtro o ecualizador, las distintas componentes espectrales de esa señal, sus distintas frecuencias, gastan tiempo en hacer el recorrido entre el ‘in’ y el ‘out’. Es más, el tiempo que gastan no es idéntico para todas ellas: unas salen rápidamente, otras se demoran más. Como resultado, a la salida tenemos el mismo efecto que el del chiste: ‘boom … boom’, pero ahora a una escala de tiempo que hace incapaz para nuestro oído escuchar eventos separados. Lo que oiremos es como los ataques que debían ser ‘instantáneos’ pierden definición y se dispersan, se emborronan, se extienden ligeramente en el tiempo. Algo que podrá afectar especialmente a las percusiones y en general a los sonidos que tengan un ataque especialmente fuerte. Más por ejemplo a un pizzicato que a un legato, más a un solista que a una sección, más a una cuerda con púa que con yema,… Incluso más a los sonidos y estilos acústicos (en los que esperamos un determinado sonido bien establecido) que en los electrónicos (en los que somos más tolerantes hacia la diferencia y lo no convencional).

¿Son las diferencias de fase que introducen los sistemas audio habituales suficientes para ser audibles? Es una cuestión sobre la que hay mucho (y encendido) debate.

Un ejemplo sonoro

[Índice]

Vamos a oír un primer ejemplo, exagerado a propósito, para ayudar a entender de qué hablamos. Así sabréis qué es lo que tenéis que buscar en la escucha en casos más difíciles. Escuchamos tres versiones de un mismo fragmento musical. Una de ellas tiene un retardo constante, la otra creciente con la frecuencia, la otra decreciente.

A mí me gusta decir que el retardo creciente con la frecuencia hace ‘burbujear’ a los sonidos (salen primero las componentes graves), mientras el retardo decreciente con la frecuencia imparte un efecto de tipo ‘disparos de rayos láser’ (primero viene el brillo y más tarde el cuerpo). Al oírlo lo entenderéis.

Tanto si os gustaría crear estos efectos como una herramienta creativa, como si queréis evitar que os sucedan al grabar, mezclar o procesar audio, seguid leyendo.

Las señales audio tienen fase

[Índice]

El ejemplo anterior era exagerado. No habrá tantísimo retardo en nuestros sistemas habituales. Oigamos ahora (mejor por cascos y sin distracciones) otros dos ejemplos, en los que una batería y unas castañuelas han atravesado un filtro paso-todo (que no cambia los niveles, sólo se altera el alineamiento en el tiempo de unas frecuencias respecto a otras).

Descargar audio en FLAC

En el caso de esta batería yo oigo la modificación especialmente en el bombo (es donde el filtro empleado tenía mayor retraso). La primera versión es el original. En la segunda (procesada) notaréis un énfasis artificial en el bombo, que suena con más brillo. No es el resultado de jugar con niveles graves/agudos, sino de haber retrasado las componentes graves: al escuchar primero la parte aguda nos captura más la atención y aparenta un mayor brillo. Muchos incluso preferirán la versión alterada por ese ‘punch’ extra en el bombo. Es una ‘ecualización psicoacústica’, que no afecta a los niveles de señal pero sí colorea la perceción.

La vista en espectrograma muestra con claridad ese retraso relativo de la parte grave (que 'se dobla', no mantiene la verticalidad).

En el ejemplo de castañuelas que sigue, se puede oír cómo cambia el ‘color’ del chasquido principal (no de la cola reverberante) como resultado de la aplicación de filtrado paso-todo (necesitaréis oír el fichero FLAC, sin compresión).

Descargar audio en FLAC

Son efectos, como podemos apreciar, pequeños (tanto como lo son los minúsculos retardos relativos implicados), pero los euros se ganan céntimo a céntimo, y la suma de muchos descuidos parciales (en la toma de sonido de cada instrumento, en el tratamiento de cada pista, etc.) sí puede generar un resultado agregado que no llegue a la calidad deseada.

Además del posible efecto audible del propio desplazamiento de fase (como hemos visto, relativamente pequeño), hay también consecuencias cuando posteriormente las señales se procesan. Las dos formas de onda que se muestran a continuación tienen los mismos armónicos (seis, con intensidades en proporción 1, 1/2, 1/3,… 1/6). Sólo difieren en las fases relativas de esos armónicos (idénticas a la izquierda, y desplazadas un cuarto de ciclo en los parciales 2, 4 y 6 a la derecha). Es evidente que habiendo modificado sólo la fase hemos llegado a alterar de forma importante la señal.

¿Podríamos notar la diferencia entre ambas señales? La respuesta es (salvo para algún superdotado) no.

Pero pensemos ahora en en el tratamiento o grabación de esas señales. En una el recorrido es más extremo (excede del rango +/-1) y en la otra menos. ¿Qué pasa si estas señales pasan por unas válvulas o un previo que sature ligeramente? Pensemos que +1/-1 es el codo de saturación: sólo la señal de la izquierda será distorsionada (y recibirá el agregado de componentes espectrales nuevas), la otra permanecerá limpia.

¿Podríamos notar ahora diferencia entre ambas señales, una vez distorsionadas? La respuesta es sí.

El mismo elemento distorsionador, el mismo espectro (de amplitud) de entrada, y sin embargo salidas muy diferentes... y todo por ‘culpa’ de la fase.

Incluso aunque las diferencias de fase por sí mismas no sean fáciles de percibir, el ‘procesado’ de esas señales puede conllevar diferencias audibles. Especialmente (como veremos en el segundo artículo) en efectos y situaciones en los que la señal procesada y la original acaben combinándose (lo que nos pone ante el mismo reto ‘multicamino’ que enfrentan los técnicos de PA o quienes aplican multimicrofonía).

Los sistemas de audio tienen fase

[Índice]

Todos los sistemas que tratan audio modifican la fase de las señales. Vamos con un ejemplo básico: un filtro (podría ser de un ecualizador). En este caso un paso bajo.

En la figura aparece en rojo la respuesta en amplitud y en azul la respuesta en fase (expresada como ‘groupdelay’ que es una medida del retardo con el que trata las señales de cada frecuencia: lo que tarda cada tipo de tono en atravesar el filtro). Vemos la banda de paso (con rizado de 1 dB en amplitud -aceptable-) y un notable rechazo a partir de la frecuencia de corte. Pero vemos también un retardo muy variable con la frecuencia: entre 3 y 12 muestras.

Debe llamarnos la atención que las diferencias de retardo se manifiestan tanto más cuanto mayores variaciones muestra la respuesta en amplitud. Hay un evidente parentesco entre las dos líneas. En la zona de corte del filtro las variaciones del retardo son notablemente mayores.

Con esos comentarios no debe extrañarnos lo que observamos en la siguiente figura. Si subimos el orden del filtro (para hacerlo más selectivo) subimos también mucho los retrasos en la zona en la que el filtro actúa (cerca de la frecuencia de corte). Ahora el retardo varía desde un mínimo de 8 muestras hasta las 45. El retardo medio ha crecido y además se han acrecentado las diferencias de retardo entre unas y otras frecuencias.

Si en lugar del orden hubiéramos modificado el ancho de banda del filtro, observaríamos también un incremento del retardo y de sus ‘desniveles’:

¿Es esto un caos inmanejable? Afortunadamente no, hay, como vemos, una estrecha relación entre la respuesta en amplitud y la respuesta en fase, lo que nos permite ‘intuir’ el efecto de un filtro en cuanto a la fase a partir de su respuesta en amplitud.

Si en una cadena de equipos notamos problemas de dispersión de los transitorios, ya sabemos por dónde empezar a buscar a los culpables. Los filtros más ‘abruptos’ serán generalmente los que más desvirtuarán la fase de las señales. Utilizar sistemas con respuestas ‘suaves’ mejorará el tratamiento de los transitorios allí donde notemos que están sufriendo.

El porqué del retardo y de los desfases en los sistemas audio

[Índice]

¿Por qué el retardo difiere para cada frecuencia? A mí me gusta concebirlo con una visión independiente de la tecnología, y que por tanto habla de una realidad física que siempre existe (ya sean soluciones analógicas, digitales, o incluso acústicas):

Cualquier filtro (en realidad cualquier sistema audio) gasta tiempo (una pequeña fracción de segundo) en procesar. Es normal: ¿cómo puede saber un filtro que quite zumbido de red si una señal que llega es de 50Hz o de 51Hz (un 2% más)? Poneos en su papel: necesita 'ver' una amplia duración de señal para poder diferenciar si el ciclo es de 50 o de 51Hz, para saber qué hay y decidirse a quitarlo de en medio si es el caso. Y eso significa unos milisegundos que tiene que 'observar' antes de actuar. Como resultado, sí, el filtro silencia los 50Hz, pero además su salida está retrasada (es decir 'desfasada') respecto a la entrada.

Sin embargo ese filtro pensado para eliminar los 50Hz no tiene que preocuparse mucho por las señales que claramente estan lejos de ese entorno. A esas señales les puede dar salida de inmediato porque en esas otras bandas realmente el filtro no está 'tratando' la señal, sencillamente la está dejando pasar. A las señales 'gorditas' las para para mirarlas bien y decidir si son talla 50 o 51, pero a las señales lejos de ese entorno no les hace ni caso, las puede dejar pasar sin retrasalas.

Pensad ahora en un filtro que tenga que discernir entre 4000 y 4080 Hz. (de nuevo un 2% más). Pasa algo totalmente parecido. Las señales de 4000 y de 4080 son muy parecidas. Demasiado parecidas para atreverse a decidir sin observar una cierta duración. Hay que mirarlas 'con lupa', con más cuidado. Con más detenimiento, es decir, con mayor retardo, sí. Tanto como se necesitaba para el filtro que debía discriminar entre 50 y 51, porque en uno y en otro caso la diferencia relativa es la misma.

Hay diferentes tipos de diseño de filtro. Algunos optan por retrasar a todas las frecuencias aunque sólo necesiten fijar su atención en un pequeño entorno (los que el próximo día llamaremos filtros de fase lineal o retardo constante), pero muchos de los diseños de filtros que más se usan son de tipo fase mínima, y eso corresponde a los que sólo intentan frenar a los que lo necesitan, es decir, filtros que muestran diferente retardo para unas y otras frecuencias.

¿Pero esto se oye?

[Índice]

¿Se notará algo de esto sobre el resultado audio? Vuelvo a lo dicho: dependerá mucho del tipo de sonido e incluso del estilo o género musical.

Pero pensemos por un momento que hablar de 20 muestras a fs=44100 significa en el equivalente analógico retrasos de aprox. medio milisegundo (el periodo de un tono de 2000Hz). Es decir, esos tiempos de retardo, aunque parecen pequeños, sí son de un tamaño apreciable para las señales de audio, con capacidad para modificarlas apreciablemente.

Y a medida que usemos filtros de mayor orden y/o de menor ancho de banda, etc. esos tiempos de retardo crecerán rápidamente y se harán más desequilibrados a lo largo de las diferentes frecuencias.

El rizado en amplitud de 1dB que veíamos en los ejemplos anteriores dentro de la banda de paso será a buen seguro poco significativo perceptualmente, pero no así el diferente grado de desplazamiento que sufrirán los distintos armónicos y componentes espectrales de la señal en los sistemas audio que solemos aplicar.

¿Nos parecería adecuado no corregir un retardo relativo de 20 muestras si lo viéramos en la pantalla de nuestra DAW? A buen seguro intentaríamos corregirlo.

Cuando activamos cualquier filtro en un canal de la mezcla, estamos imponiendo un retraso (y para colmo, variable en forma significativa con la frecuencia). Al menos el retardo medio en la banda de paso deberíamos pensar en compensarlo (como mínimo en pistas de percusiones). Y cuando pese a todo notemos una degradación de los transitorios, habrá que modificar las decisiones de tratamiento, quizá reemplazando los filtros y ecualizadores o cambiando sus ajustes.

Hay muchos diseños diferentes de filtros que manifiestan otras formas de respuesta en amplitud y en fase. Vemos ahora un ejemplo con otro tipo de diseño, en el que el retardo dentro de la banda de paso es menor y tiene menos diferencias entre unas y otras frecuencias (‘solo’ se mueve entre 2 y 5 muestras) y que además evita el rizado en la banda de paso. Parecería ‘mejor’ para no afectar tanto a la fase, pero para conseguirlo ha tenido que sacrificar la pendiente en la zona de corte. A cambio de ser un mejor sistema para el tratamiento de impulsos ha pasado a ser menos selectivo en frecuencia. Mejora la respuesta temporal/impulsiva pero empeora la frecuencial (otro día hablaremos del compromiso tiempo-frecuencia en audio).

Cuando tengo diferentes filtros y ecualizadores y decido usar uno u otro en cada caso, a menudo estoy (guiado por el oído) eligiendo aquel cuya respuesta encaja mejor con las necesidades. No es por tanto sólo afán de coleccionismo el contar con variedad de modelos y marcas, y aprender a conocerlos y escucharlos. Si detecto problemas en el tratamiento de los impulsos y ataques, deberé prestar atención a este tipo de cuestiones. Y podré seleccionar con criterio dentro de mi colección de equipos y plugs cuál aplicar en cada situación.

Además nosotros contamos ya con algún criterio, que hemos aprendido en estos ejemplos (y que extenderemos en el siguiente artículo).

A modo de conclusión

[Índice]

(Y sin entrar en el uso ‘creativo’ que podamos buscar a los ‘defectos’ de fase):

  1. La fase no afecta por igual a todas las señales audio. Una señal que ha visto modificada su fase puede mostrar unos transitorios alterados, que tienden a ‘abrirse’ en el tiempo (a modo de ‘burbujas’ o de ‘disparos láser’). Generalmente será poco audible (si los desfases son suficientemente pequeños). Pero la alteración de las fases modifica notablemente la respuesta ante la distorsión y otros procesos (especialmente con suma ‘wet/dry’), que sí puede ser muy audible.

  2. Hay una estrecha relación entre la respuesta en amplitud y la respuesta en fase en cada sistema, lo que nos permite ‘intuir’ el efecto de un filtro en cuanto a la fase y dónde (en qué frecuencias o bandas) va a ofrecer más problemas para los transitorios.

  3. Con material audio que sea crítico en su carácter impulsivo, a menudo será preferible un filtro de menor orden, rebajar el Q, usar menor pendiente, no cerrar tanto el ancho de banda, etc. Al menos cuando veamos (oigamos) que el audio sufre un efecto de ‘emborronamiento’ o ‘difuminado’ de los transitorios (que generalmente hemos de achacar a problemas en la fase).

  4. Si podemos, será mejor desplazar los puntos de corte a zonas en las que no haya señal de interés, pues en los cortes hay mayores desajustes de fase.

  5. También deberemos pensar si en alguna pista conviene ‘congelar’ el efecto de los plug-ins para a continuación poder hacer una compensación del retardo (visual o ‘a oreja’). Es una labor simple, sin esfuerzo, que puede inflar nueva vitalidad en el resultado.

La cuestión de la fase y el audio sigue siendo muy discutida. En el siguiente artículo estudiaremos algún otro caso, y propondremos otras formas de actuar y recomendaciones, además de presentar los filtros de fase lineal (los únicos capaces de garantizar un retardo idéntico para todas las frecuencias) y los problemas propios que plantean.

Te puede interesar