Grabación

Grabar a 44,1 o 48 kHz: ¿cuál es mejor y por qué?

    En este artículo...
Focusrite Clarett Octopre frecuencia de muestreo

A veces tener opciones es bueno, y a veces, como en esta del uso de 44,1 o 48 kHz como frecuencia de muestreo, sólo sirve para liar las cosas. Intentamos dar una opinión razonada sobre una cuestión que surge en algunos debates, pero bienvenidas tambíén tus impresiones y experiencias.

Los argumentos son extrapolables a otras parejas (como 88,2 y 96). Si lo que te interesa es saber qué razones pueden justificar el paso de las velocidades x1 (44,1 o 48) a las superiores (88,2; 96; 176,4; 192,...) encontrarás una buena lectura en este otro artículo.

¿Le importa al oído el mayor ancho de banda posible?

Plantearse la elección entre 44,1 y 48 por una cuestión de que se percibe a oído el incremento de ancho de banda lo encuentro bastante ridículo. La diferencia en ancho de banda que permite el paso de una a otra es menor que 1 semitono con 46 cents. Es menos que 1/8 de octava. Para colmo en una región ya tan alta que nuestro oído no va a apreciar de forma significativa tan ínfimo incremento. Lo mismo puede decirse de 88,2 y 96, o de 176,4 y 192, etc. Siempre se trata de ese menos de 1,5 semitonos y en zona cada vez más alta.

No significa esto que no se oiga alguna forma de mejora, pero no está vinculada directamente a ese espacio de más que pueda llegar a ganarse en una zona apenas audible. Se trata de efectos secundarios de la digitalización. Así que pensemos si podría suponer algún beneficio para los sistemas Y veremos que un poco sí.

¿Le importa a los interfaces?

El principal problema de la grabación digital es el aliasing, derivado de la incapacidad para representar adecuadamente señales que superen la mitad de la frecuencia de muestreo. Eso conlleva la necesidad de filtrar la señal analógica antes de la digitalización, es decir, imponer un límite máximo en las frecuencias registrables. Un filtrado que debe ser suficientemente selectivo para que las componentes que excedan el límite y se vean reflejadas por el aliasing ya vengan muy rebajadas en nivel (idealmente hayan desaparecido), pero a la vez respetando (dejando pasar sin filtrar) tanto recorrido del espectro audible como sea posible (es decir, haciendo que su frecuencia de corte sea cercana a los 20kHz). Son dos criterios claramente antagónicos.

En ningún filtro práctico encontraremos una pendiente ‘infinita’, o al menos no sin incurrir en otros problemas al tratar la señal. Como resultado siempre existirá una determinada caída de nivel progresiva (una pendiente, no un acantilado) a partir de la frecuencia de corte y podemos hablar de una ‘zona de transición’ entre la banda de paso y la banda ya suficientemente eliminada para no ser conflictiva.

Y ahí habría varias opciones respecto a cómo definir ese filtro.

Filtro ‘cero alias': No, gracias

Situando la transición para que al llegar a 20kHz haya un rechazo altísimo, y estar así seguros de que el alias no nos afecte de forma apreciable, estaremos afectando con una reducción de nivel en la parte alta de la banda audio, con lo que perdemos algo de presencia aguda/brillante.

Filtros para alias mínimo, demasiado recorte de agudos
pablofcid

¿Cómo de grave es ese recorte? Depende de la pendiente del filtro. Pero llegar a tener un rechazo de las componentes ‘fuera’ de la banda permisible tan alto como para que no degrade la calidad de la que hablan 16 o 24 bits de cuantificación es terriblemente exigente. Pensad que esas componentes deberán tener una energía bajísima para que no eleven un pedestal de ruido por cuantización que está en cifras tan bajas como -96 o -144 dB.

Las pendientes típicas varían mucho, pero pueden situarse en unas decenas de dBs por octava. Quizá rondando los 24 o 48 dB/oct, a veces mayores (especialmente con diseños híbridos analógico-digitales, como los conversores sigma-delta y semejantes, de ahí su popularidad). Pensad en 48dB/oct en el filtro: necesitaríamos comenzar la caída dos octavas antes del límite. Eso nos lleva a la la zona de 5000Hz., algo que nadie deseamos.

No es por tanto ese el tipo de diseño que se usa.

Échale la culpa al marketing

El marketing presiona para ofrecer a la gente aquello que espera leer y no para enseñarles qué es lo que les viene mejor. Para ofrecer cifras ‘de 20Hz a 20kHz’, que son las que todos gustamos de encontrar en las especificaciones, el arranque de la banda de transición tiene que llevarse bien arriba:

Filtros para respectar los 20kHz... no, gracias
pablofcid

No he querido ni pintar el ‘espejo’ de esas frecuencias demasiado altas. Pero dejan claro que sí o sí, hay que asumir que algo de aliasing tendremos. De hecho un alias máximo con este tipo de orientación en el diseño del filtro. Salvo que la selectividad del filtro, su pendiente, fuera abruptísima, esas transiciones una vez reflejadas hacia abajo van a extender la presencia de alias más que en ninguno de los otros casos.

Una solución de compromiso

La gente se echa para atrás en sus decisiones de compra cuando le dicen que el ancho de banda llega hasta por ejemplo 18kHz en vez de hasta 20kHz, quizá desconociendo que al final puede ser mejor limitarse un poco. Vale, está bien tener ancho de banda amplio, pero en la digitalización, de verdad, no pasa nada (y hasta salimos ganando por el menor aliasing) por decir adiós al extremo alto.

Sería posible situar en fs/2 un rechazo amplio, pero no exhaustivo. Eso repartiría el problema: menos recorte en agudos que en el 'cero alias', pero a cambio más presencia potencial de aliasing.

A medio camino
pablofcid

No olvidemos que las frecuencias superiores a fs/2 no existen en digital y aparecen ‘reflejadas’:

Los problemas siguen estando, pero de otra forma
pablofcid

Alguna actuación de ese tipo, cortando a propósito algo de brillo, pero también admitiendo un cierto alias es una posible alternativa al compromiso que existe en el diseño del filtro. Realmente el extremo de los 20kHz no suele necesitarse, menos aún cuando para tenerlo lo vamos a acompañar de unas dosis altas de aliasing que se extiendan hacia frecuencias más bajas.

Con este tipo de diseño vemos confinados en la zona alta los problemas, tanto de pérdida de brillo, como de introducción de alias. Sencillamente aquí está repartido el compromiso de otra forma.

Cuánto mejora 48 respecto a 44,1

¿Qué tipo de respuesta ofrecen nuestros interfaces? Para mi gusto, la presión por poder ofrecer cifras de ancho de banda que se extiendan de 20 a 20k es determinante y al final podemos tener un exceso de alias que no queda justificado por el posible beneficio de extendernos hasta esos 20k.

En ese escenario ¿mejora la cosa con 48 kHz frente a 44,1? Por tomar una referencia, con un filtrado de 48dB/oct, ese semitono y medio más de espacio (1/8 de octava) que nos aporta el uso de 48 frente a 44,1, conseguirá unos 6dB adicionales de rechazo. No es despreciable, ciertamente, pero también los podemos conseguir rebajando ese semitono y medio el corte al adquirir a 44,1, si lo que necesitamos es un producto final a 44,1.

Reflexión que podemos ampliar un poco más.

¿Y si sobrefiltramos nosotros?

Podéis imaginar por dónde voy. No es nada descabellado pensar en, antes de vuestros conversores excelentísimos que prometen respuestas ultralineales de 20 a 20k forzar un filtrado que recorte un poco la parte alta, siempre que sea de buena calidad.

Quizá vaya siendo hora de que además de los clásicos ‘low cut’ que tantísimos sistema audio tienen, pidamos que haya unos ‘high cut’ analógicos en las entradas que nos permitan decidir sobre ese compromiso entre brillo y alias que es inevitable en cualquier digitalización.

Pero mientras ese día llega (no lo veo cercano en absoluto) igual podemos pensar en contar con algún filtro analógico que añadamos a nuestras entradas, al menos cuando capturemos señales muy generosas en energía en frecuencias altas.

La alternativa pasaría por grabarlas a velocidades superiores (88,2 o 96, etc.) con los inconvenientes clásicos de mayor espacio de almacenamiento y sobre todo un consumo de CPU que crece exponencialmente. Pero si sobra CPU y falta dinero para hardware, tampoco lo despreciéis. Y en ese caso, no olvidéis el consejo de Euridia en un tutorial reciente de no usar esas frecuencias altas para conservar la actividad de 20k a 40k. Es conveniente eliminar la señal en esa mitad alta, pese a que la frecuencia de muestreo parezca poderla asumir. Queremos ese espacio como un colchón donde dejar que se desarrolle el alias al procesar sin verse reflejado a la banda de 20-20k, sabedores de que podremos retirarlo.

Los AD típicos: filtro fijo pese a fs variable

Alguna reflexión más. No tengo datos estadísticamente significativos al respecto, pero en los casos que sí conozco (y es razonable pensar que sea así con carácter general) los interfaces AD operan con un mismo filtro, tanto si el usuario escoge frecuencia de muestreo 44,1 como si usa 48. La frecuencia de corte de esos filtros no se cambia para adaptarse a la frecuencia de muestreo que hayamos elegido.

Enterarse de si nuestro interfaz usa filtrado diferenciado con 44,1 y con 48 no es tarea fácil porque no suelen decirlo las especificaciones (y poca gente se va a dedicar a probarlo). Si lo usa (un filtro un poco más cerrado con 44,1) no habría especial mejora en ir a 48. Si no lo usa (que es lo que suele pasar) dependemos de cómo de estricto sea el filtro. Si la pendiente es alta puede tener cierta utilidad ir a 48 en vez de a 44,1 (esos 6dB de rechazo adicional si era un filtro de 48dB/oct -que ya es un señor filtro-). Si la pendiente es baja, pasa a tener menor impacto la opción por uno u otro.

Las más de las veces, a día de hoy, las especificaciones sólo están contadas para una de las dos frecuencias (típicamente la de 48 porque sale mejor) y no tenemos información sobre el filtro, su frecuencia de corte ni su pendiente. Y aunque es posible hacer pruebas para averiguarlo, es laborioso.

En todo caso, nos puede quedar la idea de que sí: hay una cierta mejora en usar la velocidad 48 en vez de la 44,1 que es tanto mayor cuanto más abruptos sean los filtros antialias.

Pero ¿qué velocidad elijo?

Pese a esa posible mejora al usar la velocidad alta de cada par, hay que tener una cuestión más en cuenta. Tras grabar a 48, si el formato final principal de nuestro producto va a ser a 44,1 se va a necesitar una conversión de frecuencia de muestreo al final. Esa conversión no deja de ser un nuevo proceso susceptible de incorporar sus propios problemas.

Lo ideal sería que probarais qué os ofrece mejor resultado a oído: partir de grabar a 48 y realizar al final una conversión a 44,1 o bien grabar directamente a 44,1. Hace algunos años, la recomendación más plausible era la de realizar la grabación a la frecuencia del proyecto final. Si iba a ir destinado a CD mejor grabar a 44,1 para evitar esa última conversión.

Pero a día de hoy:

  • Casi siempre vamos a tener que salvar en varios formatos (44,1 para CD, 48 para DVD,…)
  • Existen sistemas de conversión de frecuencia de muestreo de buena calidad

Así que la opción casi siempre pasa por grabar en la velocidad alta de cada par, por ser la que presumiblemente nos dará un pequeño margen de mejora, que no va a hundir una conversión final a otra frecuencia de muestreo.

Ojo con los conversores de frecuencia nativa fija

Pero toda regla tiene su excepción. En la misma línea de argumento que el párrafo anterior, pensad que a veces los conversores ofrecen una velocidad ‘nativa’ de grabación que es fija y la opción de 44,1 o 48 se consigue porque el propio interfaz calcula a partir de las muestras tomadas a su velocidad nativa las que corresponderían a la otra. Eso es una conversión de frecuencia de muestreo en toda regla. En esos casos, mucho ojo.

Va a ser siempre preferible grabar a la velocidad nativa del hardware (a día de hoy casi siempre 48) y dejar para un momento posterior y final (ya sobre el máster) la conversión a la velocidad deseada.

Pensad que esa conversión de frecuencia de muestreo en el interfaz se está haciendo a tiempo real y para colmo posiblemente con una latencia baja. Tanto el ir a tiempo real como lo de la latencia baja implican que se está usando poco cómputo, o al menos un cómputo mucho menor que el que puede llegar a disfrutar una conversión de la frecuencia de muestreo a la que le demos más CPU y más tiempo. Y creed que esa conversión de 44,1 a 48 es algo exigente. Sólo una de cada 7 millones de muestras (7056000 para ser exactos, el mínimo común múltiplo de 44100 y 48000) es coincidente, todas las demás necesitan ser calculadas.

Esos 7 millones de muestras hablan de unos dos minutos y medio... y durante ese tiempo el ruido debido al intento de aproximar el valor verdadero crece y decrece en un ciclo que dura esos 150 segundos. Nuestras pruebas de calidad no pueden basarse de forma fiable en un fragmento que dure menos que eso. Yo evitaría a toda costa la conversión de frecuencia de muestreo ‘en caliente’. Esos errores y ruidos irían individualmente agregados a cada pista y se sumarían en el resultado final.

Mejor grabar cada pista a la velocidad nativa, realizar toda la mezcla, y sólo al final, y con un software específicamente orientado y preparado para esa conversión de frecuencia de muestreo, realizar el cambio a la velocidad final. Revisad las opciones de los procesos de conversión. Muchas veces están por defecto aplicando unos ajustes ‘medios’ pero tenéis otros ‘óptimos’ que podéis activar (con el coste de una mayor latencia y cómputo, pero perfectamente asumibles en una conversión final de fichero máster a 48 a fichero en 44,1).

Conclusión

Visto lo visto, al menos espero haberos convencido de que es un engorro esto de que haya dos velocidades. No sirve para una gran mejora, y sí para dar la lata a menudo, obligando a conversiones de frecuencia de muestreo. Conviene, como siempre, echar un vistazo a las especificaciones de la tarjeta, y pensar sobre esa base, cuál es la mejor combinación que podemos aplicar.

En la práctica, a día de hoy y con hardware y software reciente, casi siempre pasará por registrar y procesar en la velocidad alta de cada par (48), y, sólo si es imprescindible por cuestión de formato final, convertir el máster último a la velocidad del soporte de distribución (como los 44,1 del CD) usando las opciones de mayor calidad disponibles.

La grabación y procesado en la velocidad alta del par conseguirán casi siempre una pequeña mejora, que podremos ampliar aún más si usamos un filtrado adicional antes de la entrada, reconociendo que a la postre, el extremo cercano a los 20kHz es en buena medida innecesario. La vía de las velocidades altas x2, x4, etc siempre está abierta para quien pueda permitírsela pese al consumo de CPU y almacenamiento que origina.

Pablo Fernández-Cid
EL AUTOR

Pablo no puede callar cuando se habla de tecnologías audio/música. Doctor en teleco. Ha creado diversos dispositivos hard y soft y realizado programaciones para músicos y audiovisuales. Toca ocasionalmente en grupo por Madrid (teclados, claro).

¿Te gustó este artículo?
20
Comentarios
  • 1
  • 2
  • pepe potamo
    #1 por pepe potamo hace 2 semanas
    En un lenguaje "llano" o "simplista" ..."si llenas el cantaro hasta que lo puedas transportar, si te resbalas siempre quedara algo...si lo llevas justo te puedes quedar sin nada..." trabajar con 48 reduce un poco la latencia...y una pregunta del "monton" ¿ porque los grandes estudios (los caros) graban a frecuencias de 96 o 192 si al final se van a convertir en CD, o sea 44,1 o peor aun MP3...?...la cuestion no esta en las frecuencias extremas si no en TODAS las frecuencias...cuanta mas informacion grabes mas se acerca a la realidad...perdona si las cuestiones son "facilonas"
  • alvaro
    #2 por alvaro hace 2 semanas
    Gracias por el artículo. Precisamente es algo que me planteaba recientemente, puesto que para mi nuevo proyecto me pasé a los 48 pensando que no notaría diferencia alguna, y resulta que los renders ahora me suenan "mejor", en particular las guitarras hi-gain (amp sim) suenan con un toque menos “digital” en su top end, con menos aliasing o hiss. Me resulta dificil de explicar, pero está ahí cuando lo comparo con antiguos renders a 44.1kHz (ambos a 24bit).

    Solo me ha quedado una duda ¿cómo averiguo cual es la velocidad nativa de mi interface? Uso una Focusrite Forte, que soporta frecuencias de muestreo de 44.1 a 192, pero en la documentación del fabricante no aparece ninguna de ellas fijada como 'nativa', tampoco en el panel software de control:

    https://global.focusrite.com/usb-audio-interfaces/forte/specifications

    Gracias de nuevo.
  • Eternalsin
    #3 por Eternalsin hace 2 semanas
    Yo no creo que la frecuencia de muestreo sea TAN importante, la verdad. Y los convertidores poco más de lo mismo. No hablo de una Sound Blaster vs Lynx, pero si que puedo hablar de que hay discos con un nivel de excelencia sonora que el 99% de los hispasónicos nunca llegaremos a alcanzar y que se grabaron con interfaces 888 que trabajaban a 16bits y que hoy en día puedes conseguir por menos de 100€. A partir de esto que cada uno saque sus propias conclusiones...
    7
  • pablofcid
    #4 por pablofcid hace 2 semanas
    #2
    No siempre los interfaces van a tener una única frecuencia nativa. Eso pasaba en algunos muy básicos. Lo normal en interfaces de cierta calidad es que las dos sean nativas, es decir, realmente el conversor trabaja con dos frecuencias diferentes de conversión (no con una sola velocidad y obteniendo la otra por interpolación).
    En todo caso, saber esos detalles no siempre es fácil.
    Podrías hacer un test grabando a las dos velocidades (44,1 y 48) fuente de señal como podría ser un CD (o un reproductor de WAV) con tonos de prueba. Coge un tono elevado (en plan 5000Hz o 10000Hz, p.ej., incluso más, aunque no lo oigas, la señal estará ahí). Esas señales son 'complicadas' de interpolar (tanto más cuánto más cercanas estén a fs/2).
    Si el resultado de la grabación, analizado (por ejemplo míralo con SPAN de Voxengo) es claramente peor en una de ellas, tendrías un indicador.
    1
  • Soundscapes
    #5 por Soundscapes hace 2 semanas
    El otro dia hice un A/B entre la f. muestreo de mi Eleven Rack, de 44.1 a 96, adaptando tmb la de la tarjeta, y el cambio es muy perceptible. Supongo que entre 44.1 y 48 lo será en menor medida, pero ahí estará.
  • pablofcid
    #6 por pablofcid hace 2 semanas
    #1 #5
    Para el tema de grabar a x1 o a x2, x4, etc., tenéis otros artículos, como el reciente que os decía de Euridia
    https://www.hispasonic.com/tutoriales/merece-pena-grabar-altas-frecuencias-muestreo/43242
    o el que escribí yo hace ya un tiempo sobre 'muestreo crítico'
    https://www.hispasonic.com/tutoriales/nyquist-muestreo-critico-96khz/38357

    Sería mejor preguntar/opinar de eso allí, por claridad.
  • Andi Star
    #7 por Andi Star hace 2 semanas
    A mi parecer, el principal problema en usar una frecuencia u otra lo vamos a tener en las incopatiblidades en el uso cotidiano.
    La diferencia auditiva apreciable es inferior a la cantidad de problemas que vamos a encontrarnos a la hora de trabajar.
    2
  • El_Ingeniero
    #8 por El_Ingeniero hace 2 semanas
    Ostras, ya van 4 articulos... erre que erre, ande o no ande :desdentado:

    Nunca es suficiente...
  • AnthonyClass
    #9 por AnthonyClass hace 2 semanas
    desde hace años, yo grabo a 88.2 justo la mitad de 44.1
    1
  • pepe potamo
    #10 por pepe potamo hace 2 semanas
    siempre estamos hablamos de los "extremos" !!, pero el oido humano es mas sensible a las frecuencias medias, y ahí tener "mas datos" ayuda a que el sonido sea mas natural
  • 8noise
    #11 por 8noise hace 2 semanas
    Otro tutorial IMPRESIONANTE.

    Gracias maestro!!!!!
    1
  • miguez
    #12 por miguez hace 2 semanas
    Sabes más que una ración de chopitos...
  • BlahBlah
    #13 por BlahBlah hace 2 semanas
    #2

    La mayoría de interfaces se adaptan "nativamente" a cualquiera de las frecuencias típicas.

    Sin embargo, lo más probable (de tener una "nativa") es que sea una de los submúltiplos de la máxima (192 KHz). Así las cosas, 192 / 2 = 96, 96 / 2 = 48, que sería la más probable (aunque no tiene necesariamente por qué).
    1
  • Agressive Musik
    #14 por Agressive Musik hace 2 semanas
    Todo el artículo se refiere al muestreo para grabación pero, ¿Esto afecta a los sintes virtuales, al proceso de plugins y etc?
  • euridia
    MOD
    #15 por euridia hace 2 semanas
    Estupendo artículo!!!!! :plasplas: :plasplas: :bananaguit:
  • BlahBlah
    #16 por BlahBlah hace 2 semanas
    #14

    Muchas de las cosas citadas son aplicables en efecto a otros aparatos digitales.
  • hyperzoid
    #17 por hyperzoid hace 2 semanas
    No se supone que a mayor muestro mayor fidelidad en la señal??? Menor cuadratura en la onda...? Menor "pixelacion"?
  • robinette
    #18 por robinette hace 2 semanas
    Gracias Pablo una vez más. =D> :yeah:
  • tnero
    #19 por tnero hace 2 semanas
    Gracias por el artículo, lo leeré detenidamente. Era necesario, porque si hay un tema que que siempre acaba en trolerismo barato en Hispasonic, sin duda es este. Un saludo.
  • pepe potamo
    #20 por pepe potamo hace 2 semanas
    #19 ...lamentablemente esto es "mal de todos...consuelo de tontos" cada vez salen al mercado "superprofesional" conversores que se pasan por encima estas afirmaciones, que son ciertas,pero por poner un simil;....los coches solo hace 50 años, gastaban el doble y su rendimento era menos de la mitad de los actuales...y siguen teniendo cuatro ruedas...

    Esto afortunadamente NO acaba aqui, la tecnologia viaja a mucho más que los antiguos teoremas, que aunque sean la base, en cualquier momento puede cambiar y quedarse obsoletos...he dicho
  • BlahBlah
    #21 por BlahBlah hace 2 semanas
    #20

    Alguien escribió:
    antiguos teoremas, que aunque sean la base, en cualquier momento puede cambiar y quedarse obsoletos...


    Sí, obvio, como les pasó al Torema de Pitágoras o al de Tales.
    3
  • Plodustol Pegalups
    #22 por Plodustol Pegalups hace 2 semanas
    #20 Tal vez deberías repasar el significado del término teorema... he dicho. :silbar:
  • pepe potamo
    #23 por pepe potamo hace 2 semanas
    No quiero discutir aqui ni de fisica ni matemáticas...Hasta llegar a Galileo,el "teorema" era que el sol giraba en torno a la tierra...benditos mortales!!
  • pablofcid
    #24 por pablofcid hace 2 semanas
    Eso de la tierra era una hipótesis. La necesaria demostración de un teorema hace que estos jueguen en otra liga. No son ideas peregrinas, sino pruebas formales de la validez de unas conclusiones dentro de un cierto marco axiomático.
    Y lo del fs/2 es un límite infranqueable sin provocar la aparición de aliasing, que cuestiones tecnológicas no podrán solventar, dentro de lo que son sistemas de muestreo.
    6
  • Plodustol Pegalups
    #25 por Plodustol Pegalups hace 2 semanas
    #23 Insisto: deberías repasar el significado del término teorema... :silbar:
    1
  • 1
  • 2