Convertidor Digital de 384 Khz capado a 22,05 Khz de frecuencia

--38357--
#16 por --38357-- el 01/07/2017
#15

Eso es algo que nunca he terminado de entender.

¿Que beneficio puede implicar una mayor frecuencia en la salida? En un convertidor digital/análogo estas reproduciendo información que ya viene limitada en banda, como ya hemos dicho en muchas ocasiones, no se puede sacar de donde no hay.

Entiendo que ese convertidor es PCM, no DSD, por lo que la alta tasa de muestreo pareciera no tener mucha justificación.

¿Trabajan realmente a esa frecuencia, o son especificaciones mentirosas para impresionar mas que nada?
Subir
pablofcid
#17 por pablofcid el 01/07/2017
No preguntes por privado. escribió:
¿Que beneficio puede implicar una mayor frecuencia en la salida?


Básicamente el mismo. Pasar de A a D exige interponer un filtrado 'anti-aliasing', pero en la reconstrucción en el D/A hace falta igualmente un filtro que recupere las transiciones y 'borre' las imágenes espectrales superiores que introduce el hecho de que la señal esté discretizada en el tiempo. Y si se opera a velocidades altas, ese filtro de reconstrucción es más simple. En particular, una parte de él puede realizarse todavía en dominio digital antes de un inevitable último filtro analógico, y este último pasa a ser menos exigente gracias a que esa señal digital de partida tuviera esa mejor tasa.
Subir
pablofcid
#18 por pablofcid el 01/07/2017
Respecto a la pregunta original:

Rodrigo escribió:
Que os parecería si alguien sacará un convertidor digital que muestreara la señal a 384 kHz pero sobre un ancho de frecuencias capado a 22,05 KHz.


Yo soy de los que sí le ven sentido. Disponer de más muestras por ciclo, y no tan 'ajustados' al límite de Niquist, facilita un mejor detalle de la señal que se traduce en que los efectos digitales que vayamos a realizar después funcionen, en la práctica, mejor. De eso va lo que vendrá en la tercera entrega de la serie sobre analógico vs digital que estoy publicando justo estos días en unos artículos aquí en hispasonic.
No quisiera adelantar mucho (creo que esta tercera parte la tendré para esta semana que entra), pero es algo parecido a lo que decía en el comentario #17 anterior: igual que el filtro analógico resulta más sencillo y con menos condiciones 'difíciles' en su diseño si estamos en una alta velocidad de muestreo, también los procesos digitales viven más tranquilos cuando les damos un poco de generosidad y les ofrecemos la señal sobremuestreada.

Un caso, para ilustrar la cosa: ¿Cómo haces un delay de media muestra, por ejemplo para alinear dos tomas con micros un poco aparte uno de otro? En muestreo x1 'inventarse' el valor entre dos muestras es un proceso exigente (el filtrado necesario para hacerlo sin demasiado error necesita un orden elevado), pero en muestreo x4 (o lo que sea) el orden se puede reducir en esa misma proporción. Partes de un mejor detalle de la señal y es más fácil obtener el resultado deseado.
Teniendo en cuenta que en la práctica para muchos plugins no solemos tener sistemas de orden elevadísimo sino un impacto importante en su diseño del criterio de 'consumo de CPU' y del de 'latencia', al final el sobremuestreo tiene sentido práctico aunque el papel, las fórmulas y la teoría apunten a que es innecesario. Lo es en el mundo ideal de las matemáticas, pero en el real se demuestra útil.
Subir
--38357--
#19 por --38357-- el 01/07/2017
#17

Ok, lo del filtro lo entiendo pero ¿hace falta realmente dispararse a esas tasas de muestreo?
Subir
--38357--
#20 por --38357-- el 01/07/2017
pablofcid escribió:
Yo soy de los que sí le ven sentido. Disponer de más muestras por ciclo, y no tan 'ajustados' al límite de Niquist, facilita un mejor detalle de la señal que se traduce en que los efectos digitales que vayamos a realizar después funcionen, en la práctica, mejor. De eso va lo que vendrá en la tercera entrega de la serie sobre analógico vs digital que estoy publicando justo estos días en unos artículos aquí en hispasonic.


Pero eso refiere mas bien al entorno de trabajo, el cual no necesariamente está condicionado por el muestreo al grabar. Que sí, que lo lógico sería conservar el mismo formato de información desde la grabación ¿pero hay utilidad real en tasas tan altas al momento de grabar?

Y bueno, hay que considerar la problemática de la pregunta, que básicamente es tener la información útil mucho mas limitada, lo que desde el punto de vista del sobre muestreo deja de tener sentido. Si vas a sobre muestrear no tiene sentido que la limitación en banda sea mucho menor que el muestreo, no ahorraras nada, la misma cantidad de muestras se tomarán, solo que estarán registrando nada.
Subir
vagar
#21 por vagar el 01/07/2017
No preguntes por privado. escribió:

Ok, lo del filtro lo entiendo pero ¿hace falta realmente dispararse a esas tasas de muestreo?


Es cuestión de meter octavas para facilitar y abaratar mucho la parte analógica. Si muestreas a 64x, como esos ADC del otro hilo, tienes log2(64) = 6 octavas de margen y te vale cualquier filtro analógico estándar para dejar el aliasing por los suelos.

Luego en digital le pegas un hachazo de 444 dB por octava y adios al aliasing a la frecuencia de Nyquist objetivo.

Para la salida es a la inversa.

pablofcid escribió:

Yo soy de los que sí le ven sentido.


Pero implica almacenar información que no aporta significado. Supongo que podría tener sentido como una caché de sobremuestreo, pero ahí ya sería cuestión de medir qué es más rápido, si cargar una señal sobremuestreada o sobremuestrearla al vuelo mientras se carga. Sospecho que lo segundo hoy en día, a ojo de buen cubero, el sobremuestreo es muy paralelizable.
Subir
pablofcid
#22 por pablofcid el 01/07/2017
#21 Me faltaba aclarar que le veo sentido no como formato final de distribución, sino como posibilidad para cuando va a haber procesamiento intensivo. El sobremuestreo al vuelo es también muy exigente para que tenga calidad, un buen porrón de coeficientes/operaciones.
Subir
vagar
#23 por vagar el 02/07/2017
pablofcid escribió:
El sobremuestreo al vuelo es también muy exigente para que tenga calidad, un buen porrón de coeficientes/operaciones.


Sería más o menos como descodificar un MP3 al cargarlo en una sesión del DAW.
Subir
pablofcid
#24 por pablofcid el 02/07/2017
#23
Sí.
Interesante, nunca había oído la idea de tener un DAW en el que el audio original esté registrado en x1 y al cargar modifique todo para disponer de una versión sobremuestreada en alta calidad para facilitar los procesos posteriores. Sólo he visto como posibilidad para aplicar en cada efecto individual el correspondiente sobremuestreo en tiempo real.
Subir
vagar
#25 por vagar el 02/07/2017
#24

¿No es algo que hacen muchos DAW cuando cargan archivos de audio que no están muestreados a la frecuencia de la sesión?
Subir
Rodrigo
#26 por Rodrigo el 02/07/2017
pablofcid escribió:
Yo soy de los que sí le ven sentido. Disponer de más muestras por ciclo, y no tan 'ajustados' al límite de Niquist, facilita un mejor detalle de la señal que se traduce en que los efectos digitales que vayamos a realizar después funcionen, en la práctica, mejor.

Esa era una de las preguntas que me hacía en la reflexión, si sería aprovechable a la hora de trabajar en el pc.
No preguntes por privado. escribió:
Si vas a sobre muestrear no tiene sentido que la limitación en banda sea mucho menor que el muestreo, no ahorraras nada, la misma cantidad de muestras se tomarán, solo que estarán registrando nada

Los tamaños de los archivos serían iguales, pero puede (que no lo sé) que de alguna forma, al solo registrar el rango audible, sea más fácil y tenga menos carga para el pc al no tener que operar con las frecuencias más altas, y por tanto menor número de operaciones por ciclo de la cpu. Por lo que poder aprovechar todo su potencial en lo que verdaderamente se oye. Esto es otra suposición :).
Me parece extraordinario que "sesudos del audio digital" le dediquéis unos minutos a estos temas que se me pasan por la cabeza.
Gracias.
Subir
Plodustol Pegalups
#27 por Plodustol Pegalups el 03/07/2017
Rodrigo escribió:
mis pocos conocimientos técnicos en audio digital
Creo que esta es la única frase que has escrito que a mi juicio parece tener algo de sentido.
Subir
Rodrigo
#28 por Rodrigo el 03/07/2017
Mejor me callo... escribió:
Creo que esta es la única frase que has escrito que a mi juicio parece tener algo de sentido

A lo mejor ni esa...;)
Pero ya sabes, no te encasilles...be water my....
Subir
pablofcid
#29 por pablofcid el 03/07/2017
#26 dijo:
Alguien escribió:
Los tamaños de los archivos serían iguales, pero puede (que no lo sé) que de alguna forma, al solo registrar el rango audible, sea más fácil y tenga menos carga para el pc al no tener que operar con las frecuencias más altas, y por tanto menor número de operaciones por ciclo de la cpu


Eso es precisamente. Al poder trabajar con una señal ampliamente sobremuestreada (ya sea porque esté adquirida a mayor fs o porque el efecto aplique sobremuestreo internamente) los procesos/efectos no las pasan tan canutas. En realidad en cuanto a uso final de CPU tampoco se ahorra, porque puedes hacer menos operaciones para el mismo resultado pero las tienes que hacer más veces por segundo (por no hablar de la carga asociada al upsampling y downsampling si el sobremuestreo es interno al efecto). Además el objetivo no es hacer lo mismo de otra forma, sino aprovechar para hacerlo algo mejor.
Si vamos a la cruda realidad en la que muchos efectos están implementados (aunque esto va mejorando) muchas veces se potencia tanto lo de no consumir mucha CPU (por ejemplo para permitir tener muchas instancias de un efecto) que acaba afectando a la calidad. Operar ese mismo efecto a una mayor velocidad de muestreo a veces ayuda a ganarle un plus de calidad.
Por ejemplo, un chorus (ya ves tú que cosa más sencillita... aparentemente), como está teniendo que reconstruir los valores intermuestras necesita un buen interpolador (el ideal, la función sinc, exige un cómputo en teoría infinito y en la práctica, para mantener una calidad / limpieza de suficientes decenas de dBs también una barbaridad de coeficientes / operaciones). Ofrecerle al chorus una señal que ya de origen venga muestreada a una tasa más alta, resulta beneficioso en ese sentido. Y es que, en el caso particular de los chorus, la verdad es que hay implementaciones con interpolaciones muy pobres y de ahí que generen tal cantidad de ruido y otros indeseables (aliasing).
A lo que voy es a que, no para el formato final de distribución, etc., sino durante la elaboración/mezcla, haber usado una tasa alta de muestreo (aunque la de 384 se me antoja ya demasiado) puede dar un mayor éxito en el funcionamiento de efectos que muchas veces están programados con una combinación de requisitos entre los que la calidad es sólo uno más, y a veces cede espacio para que otros (latencia, uso de CPU) mejoren.
Subir
pablofcid
#30 por pablofcid el 03/07/2017
#25
Tendría que revisar las opciones, pero así de memoria me da que en ese caso generan y guardan ficheros nuevos, con lo que primero se generan todos los contenidos a la nueva velocidad y luego ya comienzas realmente el proyecto y la mezcla siempre sobre ficheros en la velocidad final elegida.
En algún momento había pensado (pero creo que era mi imaginación) que te referías a guardar todo el audio en x1 y que las máquinas (DAWs) hicieran en caliente el upsampling de todo el proyecto en tiempo real durante la mezcla, para que el proceso de mezcla de beneficiara de esa fs ampliada de forma global (y no en efectos concretos en los que activemos sobremuestreo interno).
Yo lo que recuerdo es cosas de tipo 'primero convierta su proyecto' a la nueva velocidad (y con recomendaciones de activar todos los modos 'HQ' para ello, para poder tener una mejor conversión, con lo que a veces advierten de que puede consumir un tiempo apreciable) y luego póngase a trabajar.
Subir

Hilos similares

Respuesta rápida

Regístrate o para poder postear en este hilo