Litrucci escribió:
¿Que determina la frecuencia/profundidad de un instrumento virtual? ¿Será la configuración de la interfaz que se esté usando? ¿Y esta se "materializa" al momento de renderizar?
Pensemos en que te refieres a un sampler, es decir algún instrumento virtual que utiliza muestras ya grabadas y simplemente las reproduce al presionar una tecla (es lo que hace kontakt por ejemplo) en dicho caso las muestras fueron grabadas para crear la librería a determinada frecuencia y bits, puede ser a 44/16 o 48/24, o 44/24, eso va a depender de quien creó la librería. Entonces en este caso la frecuencia y profundidad en bits de dicha librería ya viene determinada, se determino durante la creación de la librería y tu no tienes muchas opciones de elegir dichos parámetros.
En un DAW la profundidad en bits siempre será mayor a las pistas por que debe contener las sumas de varias pistas. Para entender esto piensa en los bits como las posiciones de un ábaco. Tienes una columna que representa unidades, otra decenas y otra centenas. Si sumas por ejemplo 50 + 50 el resultado generará una centena, es decir una columna mas, ya que cien se compone de 3 posiciones. Lo mismo pasa con los bits, la cantidad de bits es similar a la cantidad de columnas necesarias para sumar sin que te falten posiciones, por ejemplo si tienes un ábaco de 2 columnas, pues no puedes sumar valores que den mas de 99 por que no tienes una columna para representar las centenas, y en el caso de los bits si sumas muestras grabadas a 24 bits, se hacen necesarios mas bits para no generar valores que no puedan ser representados.
Cuando tu seleccionas los bits de tu interfaz, estas seleccionando la resolución a la que trabajaran los convertidores de la interfaz, luego en el DAW necesariamente tendrás mayor resolución para poder sumar dichos valores.
La frecuencia no opera de forma similar, ya que tu no necesitas una resolución mayor para contener las sumas, las frecuencias no se suman, lo que se suma es la amplitud de la señal y eso está representado por los bits, en este caso la frecuencia es simplemente el ritmo al que se reproducen las muestras, y un archivo grabado a 44 khz perfectamente puede ser reproducido a 96 khz, la gran diferencia es que esto afectará el tono ya que las mismas muestras se estarán reproduciendo mas rápido, a una tasa de 96 mil veces por segundo, siendo que originalmente fueron capturadas a 44 mil veces por segundo. Para evitar estas diferencias de tono al trabajar con proyectos que tienen frecuencia distinta a las muestras, es que los DAW tienen opciones para convertir las señales a la frecuencia del proyecto. Esta conversión no agrega mas información, es decir algo que fue grabado a 44 khz convertido a 96 khz tendrá la misma respuesta que a 44 khz, no se agregará contenido frecuencial que no fue registrado durante la grabación, por el contrario aquella señal grabada a 96 khz si perderá información al ser convertida a 44 khz. En esta explicación hay que obviar el hecho de que una conversión siempre conlleva perdida de información producto del resampleo, pero no es a lo que me refiero, si no mas bien a información filtrada de la fuente al momento de grabar que no se podrá recomponer por un resampleo a la alta ya que no fue registrada si la grabación fue a menor frecuencia.
Respecto a instrumentos virtuales que no son samplers, pues la información es generada mediante algoritmos, que si son afectados por la frecuencia de muestreo del proyecto. Esto es debido a que el sonido es producido por algoritmos matemáticos que simulan un generador de señales y obviamente a la frecuencia que opere dicho algoritmo ofrecerá mayor contenido armónico.
En este caso lo que influye es la configuración del proyecto, luego la configuración de la interfaz simplemente controlará a que frecuencia será reproducido dicho proyecto y eso afecta lo que tu escuchas, pero no directamente como son realizados los cálculos del plugin. Es por eso que hay que tener claro en que afecta la configuración de cada cosa, una es la configuración del proyecto y otra la de la interfaz.