Grabación

¿Qué diferencia a la señal digital frente a la analógica?

A través de varias entregas queremos interesarnos por la A y por la D, lo analógico y lo digital, dentro del audio, sabiendo que estamos en 2017. Queremos plantearlo con seriedad, sin confrontaciones falsas propias del siglo pasado. La señal analógica y la señal digital se necesitan mutuamente. Finalmente nuestros oídos son analógicos, así que no podemos prescindir 100% de la ‘A’. Pero sólo con la ‘D’ podemos acomodar la complejidad exigida en cualquier entorno de producción actual. ¿Sigue habiendo alguna razón para el debate?

Mesa analógica

Lo analógico convertido en un efecto

Obviando la captación y reproducción de señal (los micros, altavoces y convertidores), la parte ‘A’ dentro de la cadena de producción se va reduciendo cada vez más a un mero rol de efecto. Diría que afortunadamente, si se me permite una opinión. Lo digital tiene una pulcritud y detalle que lleva a añorar a veces la personalidad o cualidad, que no la calidad, de lo analógico. Igual que usas el preset N de uno de tus plugins preferidos, si me gusta la calidez de cierto previo a válvulas, o de tal compresor analógico… lo aplicas y listo. Ya sea en la salida máster o en alguna pista por envío y retorno, pero como un efecto más que se suma a los otros que ya tenemos a través de muchísimos plugins. Pero todo el núcleo del sistema y de la actividad está intervenido digitalmente y residente en un DAW.

Eso sí, una cosa es representar la señal (de forma analógica o digital) y otra es tratar señal (con técnicas analógicas o digitales). Hablar de los sistemas digitales y los analógicos (evito a propósito el ‘frente a’ reemplazado por ese ‘y’ que habla de una inevitable convivencia) obliga a distinguir esas dos facetas:

  • La de la propia representación (diferente) de la señal en un formato analógico y en uno digital: cómo de fiel es hoy lo digital a un mundo de señales en origen analógico.
  • La de las formas de procesar (también diferentes) las señales en uno y otro dominio: qué tipo de diferencias subsisten en los procesos o efectos sobre las señales cuando se realizan con una u otra tecnología.

La representación analógica o digital de la señal

Centrándonos hoy en lo primero, lo que diferencia a la señal analógica y a la digital, son sólo tres cosas, aunque tienen su calado. Deberíamos hablar, con más rigor científico, de señal representada en forma continua y discreta, pero con analógico y digital nos entendemos mejor en nuestro ámbito.

  1. La señal digital ‘muestrea’, es decir, discretiza el tiempo. Registra sólo unos instantes concretos de la señal original, su valor fs veces por segundo (con fs la frecuencia de muestreo, ya sea 44.1, 48, 88.2, 96, 192, … kHz)
  2. La señal digital codifica esos valores con una precisión finita, es decir, discretiza esos valores instantáneos y los representa con una determinada precisión (16, 24… bits)
  3. De forma imprescindible para que la representación digital pueda ser fiel y ‘sin pérdidas’ respecto a la analógica, se exige que el contenido esté limitado en banda, no siendo capaz el mundo digital de representar adecuadamente componentes que vayan más allá de la mitad de la frecuencia de muestreo (criterio de Nyquist). Cuando no se cumple esta cuestión aparece el fenómeno del aliasing.

Vaya por delante: es probablemente hoy el aliasing la última frontera que le queda por sobrepasar al mundo digital, aunque más en la faceta del procesamiento que en la de la mera representación de la señal en formato A o D.

Respecto a la discretización del tiempo

Ya hablaremos del aliasing luego, pero pensemos por ahora que el teorema de Nyquist nos da la tranquilidad de que la discretización del tiempo no es dañina, no pierde información, permite recuperar con total fidelidad la señal original, con el único requisito de que tenga esa limitación en banda que decíamos en el punto 3 anterior. Peeeero, el teorema presupone que la captura de esos valores se hace con un reloj perfecto. Es decir, esa discretización del tiempo debe ser con una buena referencia de tiempo, con una generosa precisión en cuanto al instante de captura de las muestras individuales.

A este respecto, sinceramente, sin necesidad de irse a relojes de precisión atómica para definir los instantes de muestreo, casi cualquier sistema de conversión de hoy cuenta con una calidad de reloj de muestreo y una ausencia de jitter dignísimos, que no pueden considerarse causas de una merma que impacte en los resultados. Si es importante, en un sistema de muchos canales, garantizar la ‘sincronía’ y por tanto tener un reloj maestro compartido y aplicado por todos los conversores, pero más allá de esa cuestión, la discretización del tiempo funciona.

No veo aquí una causa relevante de posible debate A vs D.

Respecto a la discretización de los valores

Nuevamente, el teorema de Nyquist presupone que los valores son exactos, 100% fieles a la señal de origen. Pero la codificación en un número finito de bits más el nivel de ruido que pueda tener el conversor, etc. hacen que los niveles no sean de precisión y exactitud infinitas. Pueden tener pequeñas correcciones debidas al uso de esa ‘escalera’ de valores implícita a la codificación en palabras formadas por un número determinado de bits.

Con los sistemas actuales de conversión a 24 bits la precisión teórica de esas muestras está más allá de lo necesario. Puede ser más interesante revisar las figuras de ruido de los interfaces, que en muchos casos quedan por debajo de la promesa de esos 24 bits. 24bits corresponden a unos 144dB de margen que no encontraremos en prácticamente ningún conversor, al ser más limitante la propia calidad analógica y el ruido de fondo. En todo caso estamos ya en niveles en los que la codificación en bits pasa a ser un efecto menor y secundario respecto a la calidad que entrega la parte analógica de esos interfaces.

Incluso teniendo en cuenta que el uso de esos 24 bits va a ser generalmente dejando un amplio márgen de holgura para evitar que los picos de la señal se recorten, de forma que no estemos intentando aprovechar el fondo de escala sino que nos quedemos tan tranquilos 12 o 18 dBs por debajo, y por tanto 'limitados' a una resolución eficaz de 22 o 21 bits, que sigue siendo superior a los 125dB y por lo tanto todavía por encima de los estándares de calidad que vamos a encontrar en las partes analógicas.

En definitiva, de nuevo no veo aquí una causa relevante de posible debate A vs D en cuanto a la representación de la señal.

Nos queda la cuestión de la limitación en banda / aliasing

Lo decíamos antes. El teorema de Nyquist nos da la tranquilidad de que la discretización del tiempo no es dañina y permite recuperar con total fidelidad la señal original, con el único requisito de que tenga esté limitada en banda y carezca de cualquier componente por encima de fs/2 (la mitad de la frecuencia de muestreo). Cuando no se cumple esta cuestión aparece el fenómeno del aliasing.

Es por ello que en los sistemas A/D aparece una etapa de filtrado ‘antialias’ previo a la conversión, que busca retirar lo que pudiera contener la señal en frecuencias demasiado altas. En el momento de la conversión D/A aparece de nuevo otro filtrado ‘de reconstrucción’ que actúa a modo de interpolador para ‘rellenar’ el hueco que media entre cada dos muestras y recuperar la señal continua. El diseño de ambos filtros pasa a ser una parte crítica para poder garantizar que el aliasing no ocurra en el registro y posterior reproducción de la señal.

Filtrado antialias (AD) y de interpolación (DA)
Filtrado antialias (AD) y de interpolación (DA)
pablofcid

Las frecuencias de muestreo de 44,1 y 48 kHz, que familiarmente podríamos llamar como ‘x1’, son sólo ligeramente más amplias que el doble de los famosos 20kHz que supuestamente reconoce el oído humano. Eso pone en condiciones algo difíciles el diseño de los filtros. Por ejemplo en el caso de 44,1 sólo disponemos de 2kHz desde los 20kHz hasta fs/2 y eso es una estrecha franja en la que hay que concentrar una amplia caída en dBs para que las componentes superiores no estén presentes en el momento de la conversión. Filtros tan abruptos son complicados de diseñar y tienen sus propios artefactos y problemas, normalmente en forma de algún rizado en la respuesta en frecuencia y diferencias de pendiente en la respuesta en fase (diferencias de retardo de grupo, y por tanto creación de una cierta 'dispersión temporal' de la señal).

Es por aquí por donde sí podemos encontrar todavía algún compromiso de diseño en los sistemas que impacte al final en los resultados.

Pero, vaya, pocas veces las señales musicales van a tener tanta energía tan cerca de fs/s como para que podamos localizar restos apreciables de aliasing con los interfaces actuales y sus filtros incluidos, en una mera cadena ‘grabación->reproducción’. Y respecto al filtrado, tampoco es grave que, para ser más suave, se inicie un poco antes de los 20kHz. Una respuesta en frecuencia bastante más recortada tienen muchos de los sistemas de grabación analógicos. Para colmo de bienes, si damos el salto a 96 o 192 kHz nos concedemos una mejora sustancial a ese respecto, tanto por alejar la aparición del alias como por permitir un filtrado no tan abrupto.

Por cierto (y esto parece otra opinión pero es algo más que eso) yo soy de los que favorecen en el uso de esas frecuencias altas de muestreo mantener los filtros antialias y de reconstrucción con cortes cercanos a los 20kHz y únicamente aprovechar la crecida fs para reducir la pendiente de los filtros y acomodar una caída más progresiva, así como para disponer de un muestreo más denso. No tengo ningún interés en registrar lo que pulule más allá de los 20kHz, pero sigo viendo beneficios en registrar a 96 o 192 una señal que de origen (o por filtrado) está recortada aprox. en los 20. Beneficios que no surgen en la mera grabación->reproducción, pero sí en el procesamiento, de lo que hablaré otro día.

En definitiva, por lo que vengo diciendo, y máxime si damos el salto a alguna velocidad superior, tampoco veo que el aliasing pueda ser un criterio para debatir entre D y A, cuando hablamos estrictamente de el uso de lo digital sólo para registrar y reproducir.

Continuará

Parecería pues que la representación digital de las señales audio no ofrece a día de hoy problemas relevantes, una vez garantizado un mínimo de calidad que hoy es bien fácil de encontrar. Cosa diferente es cuando hablemos en relación al procesamiento, cuestión a la que pretendo dedicar artículos posteriores, en algún caso con ejemplos que quizá dejen a alguno pensativo. De hecho este artículo de hoy sólo quiere abonar el terreno para los que vendrán.

No es que no haya diferencias entre unos y otros sistemas de conversión. Por supuesto que las hay. Pero en el presupuesto que cada cual manejamos, no creo que la conversión A/D o D/A nos esté impactando más que lo que ya nos impacta la tecnología analógica que podemos adquirir. En el rango de calidad y producto que maneja cada estudio (sea home o pro) el cuello de botella de la calidad no es la digitalización de la señal. Por supuesto que grabar con la entrada de audio de tu portátil no es lo recomendable, pero si ese es tu nivel de equipamiento posiblemente tienes cuellos de botella en cuanto a calidad bastante más severos vinculados a la parte analógica y acústica (micros, previos, condiciones de grabación y escucha...).

En el otro extremo, si cuentas con unos excelentes sistemas de microfonía, previos de altísima calidad, entorno acústico bien tratado, etc. no creo que hayas sido tan cutre después de tanto gasto como para no invertir en sistemas de conversión a la altura. Si ves las especificaciones de la parte analógica y de la parte digital, raro será que no cuentes ya (usando bien los 24 bits y si acaso subiendo a una fs x2 o x4) con una representación digital que te garantice una calidad técnica por encima de la que tu costoso equipamiento analógico puede entregar.

Pero dicho eso, si hoy os parezco un 'vendido' a lo digital, esperad a que venga la segunda entrega porque en ella no podré ser tan benigno. Hablando de procesamiento en digital es cuando realmente asoman las diferencias, aunque las culpas serán quizá más nuestras que de la tecnología digital en sí.

Pablo Fernández-Cid
EL AUTOR

Pablo no puede callar cuando se habla de tecnologías audio/música. Doctor en teleco. Ha creado diversos dispositivos hard y soft y realizado programaciones para músicos y audiovisuales. Toca ocasionalmente en grupo por Madrid (teclados, claro).

¿Te gustó este artículo?
18
Comentarios

Regístrate o para poder comentar