Grabación

True peak metering: qué es y cómo usarlo

La nueva métrica ‘true peak’ lleva a pensar que la 'peak' a secas que ha sido común durante mucho tiempo medía un falso pico. Y así es. Para no seguir en el engaño es necesario entender origen y beneficios del ‘true peak’.

Hubo un día en que vúmetros RMS y picómetros era todo lo que teníamos para observar el detalle del nivel de nuestras señales audio y no parecía que viviéramos mal. Pero las técnicas de registro sonoro en el fondo son relativamente recientes, y mucho más aún su madurez. Y es con su madurez cuando llega la preocupación por el aseguramiento de la calidad y el interés por sistemas y estándares de medición. Las nuevas técnicas y las nuevas calidades en la grabación y reproducción sonora conllevan nuevas métricas, como la que hoy nos ocupa.

Un poco de historia

Podríamos remontarnos al fonoautógrafo de Édouard-Léon Scott de Martinville, patentado en 1857 y capaz de registrar una representación de un sonido pero sin posibilidad de reproducirlo, o al fonógrafo de Edison de 1877 que es típicamente considerado como el primer grabador/reproductor de sonido. Pero pensar en esas primeras grabaciones sobre cilindros y discos de cera o pizarra es pensar en un sonido válido como testimonio pero, para los estándares elevados de hoy, carente de una calidad que permita una escucha realmente placentera.

Durante muchísimas décadas en esa historia del registro sonoro, antes del asentamiento de la digitalización como forma de grabación, el vúmetro y el picómetro han sido los compañeros con los que hemos convivido para ojear cómo andaban de nivel nuestras señales. El vúmetro ofreciendo una referencia de tipo promedio, típicamente mediante una estrategia RMS (root mean square) que informa del nivel a medio plazo. El picómetro dándonos información mucho más ágil relativa al comportamiento ‘instantáneo’ de la señal y capaz por tanto de alertarnos de la presencia de potencialmente peligrosos picos breves que en una medición RMS sencillamente desaparecen bajo el efecto de la inercia y el promediado propios de medidas ‘a medio plazo’.

La importancia del pico

El objetivo del picómetro siempre ha sido ofrecernos una referencia fiable para evitar que los picos de nuestra señal sobrepasen el margen de funcionamiento ‘correcto’ del sistema. Cuando vemos el indicador ‘peak’ activo sabemos que hay que reducir nivel si no queremos introducir una distorsión severa de los picos.

En sistemas analógicos es lo habitual que exista una ‘saturación’ natural que en cierta forma ‘achata’ los picos y puede hacer más tolerable la entrada (sólo ocasional) en el territorio ‘rojo’ del picómetro. Sin embargo, en digital, superar el nivel 0dBFS que corresponde al ‘fondo de escala’ (‘Full Scale’) implica la aparición del temido recorte o ‘clipping’. Nada de un achatamiento de los picos sino su corte recto a tijera que es demasiado evidente al oído en forma de un chasquido llamativo y molesto.

No es de extrañar por tanto que aunque fuera sólo una referencia de importancia secundaria en analógico, el picómetro se vuelve capital en los entornos digitales.

El pico en digital: true peak y el ‘non-true peak’

Importante como es la cuestión del pico en digital, se hace llamativo que sólo recientemente haya pasado a existir interés general por caracterizar el ‘true peak’ (pico verdadero). Su denominación hace referencia a que hemos estado usando algo que no era el pico real.

La digitalización del audio en un convertidor A/D implica el uso de una representación en la que conservamos sólo los valores instantáneos en determinados momentos, los instantes de muestreo. No se registra la evolución de la señal durante el tiempo que media entre dos muestras. Y bien puede pasar que el verdadero pico caiga a mitad entre dos muestras. En la imagen tenéis representada una señal senoidal de 3200Hz muestreada a 44100Hz pudiendo apreciarse que considerar sólo los valores instantáneos de las muestras no garantiza que estemos observando los picos reales.

El 'true peak' y el 'non-true peak'
pablofcid

La senoide anterior, al ser una forma de onda repetitiva, al menos deja ver su pico verdadero de vez en cuando, aunque no en todos los ciclos, dentro del conjunto de muestras. Pero con las señales audio/musicales complejas los picos acostumbran a ser ocasionales, no repetitivos, y es más fácil que se nos escape la captura del verdadero máximo, sencillamente porque no va a volver a suceder salvo muy esporádicamente.

Una señal compleja y sus picos
pablofcid

¿Ha perdido la versión muestreada el verdadero pico?

En una interpretación simplista del muestreo, todavía algunos aprovechan para usar esto como otra escusa más para atrincherarse en una pretendida superioridad de lo analógico: ‘Ya te lo decía yo. Nada como lo analógico. En digital pierdes detalles ricos y esenciales de la señal’.

Pero no es cierto. La representación digital no necesita tener registrado el ’true peak’ para saber de él. No lo necesita, porque puede reconstruirse la señal, incluidos sus picos, y así lo hace la vuelta a una señal continua a través de un D/A. De hecho, la línea azul en las figuras anteriores representa tanto la señal de ‘entrada’ al A/D como la que ofrecería a su salida el D/A y es capaz de manifestar la realidad: la existencia de un pico que excede del valor de la muestra más alta / más baja.

¿Cuál es el problema entonces? El que aparece al normalizar ‘a las bravas’.

El problema: normalizar sin pensar en el pico verdadero

El ansia por aprovechar todo el margen disponible y lograr un máximo de nivel en el audio, hace que en sistemas digitales aparezca la opción de ‘normalizar’. Hacer que el pico presente en la grabación se ajuste al ‘fondo de escala’ consigue que ganemos un poco más de nivel y margen en el producto final. Dado que muchas veces mezclamos a 24 (o más) bits y los formatos finales van a ser a 16 (o menos) la normalización nos permite aprovechar al máximo los 96dB de margen teórico que nos dan los 16 bits.

Pero si la normalización se hace con pensamiento informático ‘orientado al bit’ y no con pensamiento audio ‘orientado a la señal’ caemos en un error. Elevar la señal para que la muestra más alta coincida con el ‘Full Scale’ de la representación digital hace que en el convertidor D/A la señal analógica resultante exija niveles más allá. Fijaos como en esta nueva figura (la misma señal anterior pero con normalización a 0dBFS) la señal reconstruida (azul) entra en la zona roja: excede del nivel máximo que pretendidamente queríamos garantizar.

La normalización 0dBFS y sus picos reales fuera de rango
pablofcid

Niveles que en muchos casos pueden resultar ‘fuera de límites’ para el propio convertidor o para los elementos que van a continuación de él y que están concebidos y ajustados pensando que el nivel ‘Full Scale’ jamás va a a sobrepasarse.

El consejo tradicional: no normalices al 100%

En el fondo, esta argumentación no hace sino reforzar el sentido de una recomendación práctica que siempre ha existido: cuando uses la normalización en una grabación digital no la fuerces al 100%. Cualquier editor de audio permite normalizar, pero asumimos riesgos innecesarios cuando le pedimos que ajuste el pico al valor ‘full scale’ completo dejando el nuevo pico en 0dBFS, de forma que la muestra más alta este en el extremo de su recorrido.

La recomendación siempre ha sido quedarse un poco por debajo al normalizar, aunque sea sólo un dB. Y entendemos ahora uno de los porqués. Cuando un soft de normalización te ofrece ajustar el nuevo valor de pico a 0dBFS, tentador como resulta, hay que saber que es mejor dejar un poco de hueco.

La solución actual: normaliza al ‘true peak’

Ante ese problema de que muchos usuarios de lo digital se han acostumbrado a normalizar ‘al límite’ tal como hacen por defecto muchas herramientas (con los consiguientes posibles problemas) o bien a curarse en salud con algún dB que otro de tranquilidad (y por tanto dejando escapar una pequeña mejora posible), surge la invención de la medida ‘true peak’ que ha acabado definida en forma de estándares. Quiere resolver ese dilema aportando una medida confiable del verdadero pico que pueda usarse como nueva referencia para normalizar a 0dBTP en lugar de a 0dBFS.

Si vigilamos que nuestro contenido no exceda el verdadero pico, ajustando cualquier normalización respecto al ‘true peak’, podemos tener la tranquilidad de aprovechar el máximo del espacio disponible en la profundidad de bits elegida pero a la vez no incurrir en sobrepasar niveles en la reconstrucción de la señal continua.

¿Qué hace falta para poder conocer el ‘true peak’? Se puede reconstruir digitalmente cuál sería la evolución de la señal en los periodos intermuestras mediante sobremuestreo, para tener opción de valorar el verdadero pico y por tanto poder usarlo para cualquier ajuste de normalización necesario.

Detectar perfectamente el pico verdadero obligaría a una reconstrucción (interpolación) muy detallada de la evolución de la señal que es exigente en cómputo. Por eso los estándares que se han definido para el ‘true peak’ buscan una solución de compromiso. Suficientemente cercana al ‘true peak’ pero desde unas necesidades de cómputo más reducidas.

El estándar para obtención del ‘true peak’ en ITU BS.1770

Con el título de ‘Algoritmos para medir la sonoridad de los programas radiofónicos y el nivel de cresta de audio real‘, la norma ITU BS.1770, cuyo origen se remonta a 2006 y que alcanzó en octubre de 2015 su actual versión 4, define varias mediciones para valorar la sonoridad y el pico verdadero.

Centrándonos en la cuestión ‘true peak’, para una señal originalmente muestreada a x1 (las clásicas 44,1 y 48 kHz.) la norma propone usar sobremuestreo x4 para poder así obtener una referencia mucho más adecuada del pico verdadero. Son 4 muestras en el mismo espacio de tiempo para el que antes teníamos sólo una, equivalentes a un muestreo a 192kHz. No se trata de muestrear toda la señal a 192, sino de, partiendo de la señal a 48 saber calcular 'en caliente' el valor de esas muestras intermedias más densas que puedan reflejar de forma más exacta el pico real.

Para evitar que los cálculos intermedios de ese sobremuestreo tengan problemas (nos interesa la señal en las proximidades del límite de su recorrido), especifica también reducir previamente el nivel en 12,04dB (el equivalente a dos bits) antes del sobremuestreo para finalmente compensar esa defensa. Todo eso ya está implementado en un medidor TP. aunque para curiosos aquí os dejo el diagrama de bloques del medidor de True Peak que aparece en el estándar.

Esquema tomado de BS.1770
itu.org

La norma no impide hacer implementaciones más fieles al verdadero pico, pero establece este sobremuestreo como un mínimo, un punto de partida que muchos han implementado tal cual.

Cómo de bueno es el ‘true peak’ de ITU BS.1770

No vamos a entrar en muchos más detalles sobre la norma, que puede consultarse (es de acceso gratuito), pero sí en el hecho de que el uso del sobremuestreo x4 y con diseños prácticos de filtrado interpolador (con una computación no abusiva) deja espacio para que sobreviva algún pequeño error en la estimación. Pero las matemáticas ayudan a valorarlo con precisión y por tanto a poder defenderse contra él.

La propia norma describe que con estimación del ‘true peak’ mediante sobremuestreo x4 a partir de una señal muestreada en x1, en el caso de que la máxima frecuencia presente en la señal sea de 0.45 veces la frecuencia de muestreo el error puede llegar a ser como máximo de algo menos de 0,56 dB (muy poco), que serían 0,14dB (casi ridículo) en caso de usar x8, o 0,06 en caso de x12 (prácticamente inexistente).

El TP mejorado

Por eso algunos desarrolladores usan en su medidor TP implementaciones mejores que ese ‘mínimo de referencia’ que cita BS.1770. Por ejemplo, alguien que directamente aplique un factor x8 para la estimación del TP nos permite saber que el error máximo ya es sólo de 0,15dB.

Podremos optar por normalizar con ese ya muy ridículo margen de garantía o incluso normalizar a 0dBTP (que el pico estimado se lleve exactamente al nivel ‘fondo de escala’) sabedores de que en los pocos momentos en los que la señal reconstruida final pueda tal vez superar el máximo previsto nunca lo hará más allá de esos 0,15dB y que sólo sucederá en picos muy ocasionales en la señal.

Normalización TP, cómo ajustarla en la práctica

Estad atentos por tanto a la información de vuestras aplicaciones en relación a cómo obtienen su estimación del TP.

Si os ofrecen normalización al TP (es decir, forzando al normalizar la señal un nivel 0dBTP respecto al TP que se haya estimado dentro de la señal) pero no hay información/garantía sobre qué técnica de estimación aplican o sólo dicen ‘acorde a BS.1770’ sin más detalle, daros esos 0,6 dB de tranquilidad que os citaba, por si acaso. Insisto en el ‘por si acaso’: sencillamente no sabemos si va a hacer falta o no, dependerá de la señal y de la calidad del algoritmo de ‘TP’, pero poco es ese medio dB a cambio de respirar tranquilos.

Pero veréis, especialmente en soft para ‘mastering’ (es el caso por ejemplo de los medidores TP en soft de Izotope) que a veces se usa una estimación más detallada del TP y podéis acortar ese margen de tranquilidad o incluso prescindir de él totalmente.

 

Ya sabéis aquello de ‘el conocimiento os hará libres’. Este conocimiento de hoy os hará libres del problema del recorte inadvertido de la señal que a veces podemos provocar con una normalización poco cuidadosa. La otra, la libertad personal plena no sólo de pensamiento sino de acción, me temo que no es tan sencilla de ganar.

Información sobre cursos presenciales por pablofcid en cicloquintas.es

Pablo Fernández-Cid
EL AUTOR

Pablo no puede callar cuando se habla de tecnologías audio/música. Doctor en teleco. Ha creado diversos dispositivos hard y soft y realizado programaciones para músicos y audiovisuales. Toca ocasionalmente en grupo por Madrid (teclados, claro).

¿Te gustó este artículo?
19
Comentarios
  • 1
  • 2
  • #1 por hace 2 semanas
    Joer Pablo... estas sembrao!!! Esto ya parece el coleccionable semanal de la Pronto. Un articulo semanal seria ya un tema serio, serio. ¿Por que no nos metemos ya en vereda tecnologico-cientifica de una vez? Dale gas a fondo sin piedad :cuernos:
  • #2 por Mister Carrington hace 2 semanas
    Lo que más me ha gustado ha sido tu último párrafo. ¡Así sea!

    Delicioso y clarito. :yeah:
  • #3 por casquinha hace 2 semanas
    Lo ha vuelto a hacer!!
  • #4 por pablofcid hace 2 semanas
    Pero qué majos sois, gracias. :birras:
  • #5 por insula hace 2 semanas
    :yuju:
  • #6 por 2006 hace 2 semanas
    Gracias a ti, Maestro, por tu dedicación.
  • #7 por wmrhapsodies hace 2 semanas
    La libertad es la conciencia de los condicionantes (Spinoza, creo).
  • #8 por robinette hace 2 semanas
    #3
    +1... :yeah:

    Estos tutoriales, bien empaquetados, son una "guía de oro" en el aprendizaje del sonido en la actualidad. De obligada lectura a todo el que quiera aprender de este mundillo.
    Gracias nuevamente Pablo. :birras:
  • #9 por hace 2 semanas
    Como nunca es suficiente, creo que todavía faltan más artículos para cubrir toda una generalidad sobre producción musical técnica y artística; supongo que son sólo pinceladas y nexos.

    Soyuz, ¿no te parece buena idea publicar un libro en formato digital -formato papel opcional- donde se coloque todo el ingente material revisado y estructurado de forma adecuada? Podríais aprovechar en la celebración de los 20 años de Hispa. Esperar a los 25 años no se si sería esperar demasiado porque la tecnología y procedimientos digitales vuelan.

    Que cosas se nos ocurren a los foreros eh! :desdentado:
    2
  • #10 por maximilianofv hace 2 semanas
    Una vez más, excelente artículo Pablo :plasplas:
    Lo único que, en mi opinión cabría hacer hincapié, es la importancia de ese margen de seguridad en la normalización, a la hora de re codificar el audio para pasarlo a otro formato con compresión con perdida (algo que va a suceder siempre, vamos).
  • #11 por Ernesto Massia hace 2 semanas
    Muchísimas gracias por la info.

    Me parece muy interesante y práctico.

    En brodcast se suele dejar bastante margen pero en música y otras disciplinas... hay cada cosa que...
  • #12 por Dogbert hace 2 semanas
    Aquí hay una comparativa de limitadores según la forma en que manejan el tema de los picos inter muestra (ISP):
    https://www.saintpid.se/en/isp-true-peak-limiters-test/
    3
  • #13 por pablofcid hace 2 semanas
    #12
    Muy bueno. Gracias.
    1
  • #14 por robinette hace 2 semanas
    #12
    Gran aporte. :cuernos:
    1
  • #15 por joethedemon hace 2 semanas
    Lo que me estoy viendo yo aquí es que entonces estás bajando el nivel total de tu mezcla en el caso de usarlo en una mezcla máster.

    El nivel "peak" se quedará más bajo con tal de adecuar el nivel "True Peak" para evitar esas distorsiones entre muestras, y entonces tu nivel RMS estará bajando.

    Para conseguir el mismo RMS necesitarías comprimir mucho más en tu máster, o tu mezcla sonará más baja que la del resto de producciones...

    Loudness war, te odio xDDD
  • #16 por roberto hace 2 semanas
    gracias por el articulo
  • #17 por Marc Usmirrer, baix hace 2 semanas
    Enhorabuena, Eloy, muy interesante, me lo voy a releer con lupa.
  • #18 por Last_Monkey hace 2 semanas
    #12 Muy interesante, gracias.
  • #19 por Marc Usmirrer, baix hace 2 semanas
    Creo que es preceptivo que se exponga aquí el modelo teórico de la normalización , una vez establecidas estrategia más finas para evitar el error (en realidad para minimizarlo algo, bastante) y luego, si no disturba demasiado la cuestión, aplicaciones prácticas de la normalización; es que parece que encontrados nuevos protocolos como la norma Itu nueva más garantistas, es por fin el momento de darle a la normalización.
    Y en mi corta experiencia no me he encontrado proceso alguno más makoki (para abreviar) que éste .

    No se qué te parecerá Eloy, vecino mío...
  • #20 por pablofcid hace 2 semanas
    Debo estar espeso por el calor. Acláramelo, Carmelo.
  • #21 por Marc Usmirrer, baix hace 2 semanas
    ¿Lo de makoki?, pues que el resultado de la normalización suele ser antimusical.
  • #22 por pablofcid hace 2 semanas
    Pero entonces hablas más bien del aumento de sonoridad/nivel medio, ¿no? Porque la normalización de la que hablaba aquí es una ganancia pura, un pequeño cambio de escala, pero sin interferir en la forma de la señal, sólo en su tamaño. Y me da que tú hablas más de que presentemos en otro artículo cosas tipo mediciones LUFS, etc. ¿Va por ahí?
  • #23 por Marc Usmirrer, baix hace 2 semanas
    Hay dos procesos que ofrece cualquier editor de audio digital: el volumen y el normalizador; a éste último me refiero Eloy
    El volumen sobe toda la onda, valles, crestas y picos por igual; el norrmalizador actúa como un limitador sin respetar la dinámica haciendo que todo intente acercarse al umbral de normalización; o al menos así se me ha presentado las vece que lo he probado. Puedo estar escribiendo una auténtica memez, no me lo tengáis muy en cuenta, en menos de veinte días me acercaré al último año antes de la vejez numérica.

    No me refería a los medidores.
  • #24 por pablofcid hace 2 semanas
    Ok. Yo usaba normalizar en el sentido matemático, de dividir por el valor pico para normalizar 'a 1'. Tú lo usas en el sentido de compresión canalla.
    De esti que dices, sí, podríamos preparar algún tutorial. Usando las normas nuevas para intentar educar en la insensatez de la apisonadora aplana dinámicas que ha traído la guerra del volumen y su despreocupación por un mi uno de sensibilidad hacia las orejas del oyente y hacia su cabeza, salvo que el objetivo sea precisamente el de marearlo, cosa que no hay que descartar.
    Empezar con el true peak me parecía más sencillo y me permite ver si hay interés por estos temas para continuar o no.
  • #25 por Marc Usmirrer, baix hace 2 semanas
    Estaría encantado de realizar unas pruebas.

    Es más que nada para preservar a la muchachada de las apisonadoras.
  • 1
  • 2