Normalizar

crazylovernb
#16 por crazylovernb el 04/03/2013
Hola de nuevo, ya se que voy a destiempo puesto que estais hablando de latencia y esas cosas (que no tengo ni idea de que es xD), pero volviendo a lo de normalizar, viendo un vídeo que han colgado en Hispasonic donde un profesor te da una clase de una hora sobre mezcla y masterización explica que no es bueno tener el master muy bajo porque esto hace que bajen los bits, entonces lo tenemos que tener a un volumen que permita que no distorsionen los sonidos y que entren los bits necesarios para cada instrumento...

Una vez que ya has exportado a MP3 por ejemplo un instrumento con un numero de bits no puedes volver a aumentar los bits pero de ninguna forma, si le das volumen desde el master se va a oir igual que si lo normalizas, porque el problema estará en que ya se ha renderizado digamos con unos bits... Tiene sentido lo de que no hay que normalizar pero lo que no me entra es lo que dices de que lo que hay que hacer es subir volumen, ¿no es lo mismo?, si ya no vas a subirle bits ¿no?.
Que cacaos me hago...

Un saludo.
Subir
1
Harpocrates666
#17 por Harpocrates666 el 05/03/2013
El valor máximo de amplitud de una señal digital es 0 dBfs.

No puedes superar este valor ni al grabar (una señal superior es información que no se puede digitalizar ya que no existen mas combinaciones de bits para representarla) ni al reproducir un audio.

La pista master de un proyecto de mezcla es la ultima etapa antes que la señal sea convertida en audio, por lo tanto esta pista no debe superar el valor de 0 dBfs, si lo supera, es información perdida que se escucha como un clip, de ahí el nombre en ingles, clipping.

Solo en estas dos etapas, en la conversión Analógica/digital que ocurre en la grabación y en la etapa digital/analógica que es cuando los bits se transforman en sonido y lo escuchas por tus altavoces, solo en esos instantes tienes dicha restricción.

En una pista común y corriente que no sea la pista master, en cualquier otra pista menos esa, tu puedes mover el fader hacia arriba y hacia abajo sin que eso implique perdida de información. Esto es por que los motores de audio de los secuenciadores utilizan por lo general 32 bits en coma flotante, lo que te da un rango dinámico virtualmente infinito. No tienes un techo, por que con números en coma flotante puedes representar valores muy grandes con poca cantidad de bits.

PERO, y siempre hay un pero, las pistas de cada instrumento, están todas ruteadas a la pista master, por lo tanto, la suma de todas las pistas no debe superar van a provocar que el master llegue a 0 dBfs.

El master es tu referencia, tu mueve el resto de las pistas a tu antojo, pero siempre debes mirar que el master no llegue a rojo.

Recuerda que una pista tiene cierta potencia, si le sumas otra pista, vas a tener mas potencia, si son muchas pistas, pues una sola puedo que no genere clipping en el master, pero muchas, pues si lo van a generar.

Tu mezclas con el objetivo en mente de nunca generar clipping en el master.

Entonces, debería la mezcla sonar baja? pues va a sonar tan baja como tu la dejes, si la dejaste baja es problema tuyo, tu lo hiciste mal, PERO, que suene baja no quiere decir que esté mal.

Si una mezcla, tiene un nivel pico, 15 dB por debajo de los 0 dBfs, pues es un absurdo, puedes mover el fader de cada pista hacia arriba, de manera de que los picos queden mucho mas cerca de los 0 dBfs sin que eso signifique ningún problema.

Cada pista no solo va a ser posicionada mediante los fader, si no que van a haber sido comprimidas, si recuerdas lo que es la compresión, pues sabrás que reduce el rango dinámico, esto implica que, luego de la compresión, puedes amplificar la pista (el mismo compresor integra un amplificador para recuperar la potencia perdida en la compresión) y al amplificarla, pues como redujiste el rango dinámico con la compresión, inmediatamente tienes un nivel RMS mayor, en definitiva mas volumen, sin necesidad que los picos aumenten del valor donde estaban.

Por lo tanto una mezcla bien hecha, nunca, jamas va a estar tan baja como para requerir normalizarla, y entiéndelo, no es que le vallas a dar volumen con el fader de la pista master, no, le vas a dar mas volumen, posicionando el fader de cada pista mas arriba, si tu quieres hacerlo pues prueba a normalizar cada pista cada vez que quieras mover el fader, a parte de ser absurdo ese metido no va a ser sano para la señal, la vas a destruir un poco en cada normalizacion, te pongo este ejemplo para que te quede claro que no es lo mismo normalizar que mover el fader de volumen, pero no es el del master el que debes mover, es el de cada pista, y sumado a la compresión, pues lograras mayor volumen, la normalizacion no es mayor volumen, ya que simplemente llevas los picos mas arriba, pero se mantiene el mismo rango dinámico, y el volumen no depende de los picos, depende del nivel RMS y la única manera de subir el nivel RMS es disminuyendo el rango dinámico antes de mover el fader (o amplificar que es lo que hace el fader, no normalizar)

Luego de entender todo esto, lo que queda es saber que el volumen final se logra en la masterizacion, por eso digo que una mezcla que suene baja no es que suene mal, es que le falta ser masterizada aun y no estamos hablando de sonar 10 dB de pico por debajo de los 0 dBfs, estamos hablando de que una mezcla terminada tiene sus picos solo un par de dB por debajo de los 0 dBfs y en la masterizacion se usara un limitador para llevar esos picos lo mas cerca de los 0 dBfs sin que los sobrepase y un compresor para hacer subir el nivel RMS, en ningún momento se hace necesario ni mover el fader ni normalizar.

No hay forma mas simple de explicarlo, si no lo coges explicado así, no va a ver forma que lo comprendas.
Subir
2
Aitor Wilzig aka EleFuNK
#18 por Aitor Wilzig aka EleFuNK el 05/03/2013
Estoy totalmente de acuerdo con Harpocrates...

Si haces las cosas bien no tiene ningún sentido normalizar. Y por todo lo que he visto y leido durante los años que llevo produciendo, normalizar es un proceso MUY destructivo con el que jodes hasta el rango dinámico.

Saludos.
Subir
crazylovernb
#19 por crazylovernb el 05/03/2013
Gracias por la explicación, madre mia, eres una enciclopedia viviente jajajaj pero entonces, ¿para que van a inventar lo de normalizar?, cada vez me suena todo mas absurdo pero no importa porque si no voy a acabar mas loco de lo que estoy.

Un saludo.
Subir
Harpocrates666
#20 por Harpocrates666 el 05/03/2013
crazylovernb escribió:
¿para que van a inventar lo de normalizar?


Es una herramienta de edición de audio, como cortar/pegar. Te hemos dicho en que casos no usarla, pero este mundo es bastante amplio y habrá muchos casos en que la puedas necesitar.
Subir
Alfonso Bedoya
#21 por Alfonso Bedoya el 06/03/2013
Joooder bravo, un hilo muy interesante hoy nos vamos a la cama sabiendo algo nuevo, saludos a todos.
Subir
oxipek12
#22 por oxipek12 el 06/03/2013
Un aplauso por harpocrates!!! Te lo mereces. Pero me ha quedado la duda del midi. ¿Por que no se debe mezclar pistas midi? Me has dicho eso y casi se me cae el mundo encima. Creo que estoy delante de un descubrimiento grande en mi vida. Pues hasta ahora siempre he producido de esta manera y no me parecia nada malo lo que producia. ¿Me explicarias un poco las ventajas de hacerlo de ese modo que comentas?.

Joder pues tengo entre manos una produccion de unas 35 pistas... Me da a mi que un poco de tiempo si que voy a perder...
Subir
Harpocrates666
#23 por Harpocrates666 el 06/03/2013
oxipek12 escribió:
Joder pues tengo entre manos una produccion de unas 35 pistas... Me da a mi que un poco de tiempo si que voy a perder...


35 pistas MIDI? esas se exportan a audio en media hora, quizás 45 minutos, eso si lo haces pista por pista, pero si tu secuenciador tiene una opción para renderizar todas las pistas automáticamente no te debería tomar mas de 10 minutos. Dejas renderizando a la hora de almuerzo y ya.

Yo no tengo que explicar las ventajas de por que hacer lo lógico, expliquen ustedes a mi mejor que ventaja ven en trabajar en un proyecto de mezcla con todas las pistas en MIDI, por que de verdad yo no lo comprendo.
Subir
oxipek12
#24 por oxipek12 el 06/03/2013
Yo soy principiante y no me entero mucho. Yo pienso que para que exportar a audio si se puede trabajar con la misma pista en midi. Imaginate que tengo un instrumento virtual como por ejemplo un sintetizador. Por que hay que exportarla a audio cuando finalice de componer el tema si puedo trabajar con la misma pista?? Te estoy hablando de la mas absoluta ignorancia!! No te lo tomes mal por favor...
Un saludo
Subir
Alfonso Bedoya
#25 por Alfonso Bedoya el 07/03/2013
Espero impaciente la contestación, ayudarías a varios harpocrates.
Subir
Kamikase ??
#26 por Kamikase ?? el 07/03/2013
Bah, trabajar pistas MIDI y VSTi es fácil y cómodo.

Lo dificil es cuando no tienes procesador y congelas, y en la mezcla debes comenzar a descongelar para editar el MIDI.

http://wwwtranstursanhueza.cl/cubase.html

http://wwwtranstursanhueza.cl/cubase2.html

http://wwwtranstursanhueza.cl/cubase1.html

Por si a alguien le pudieran servir mis videos.
Subir
Alfonso Bedoya
#27 por Alfonso Bedoya el 08/03/2013
De nuevo por aqui, compartiendo la duda del por que es mejor mezclar en midi o en audio junto a Oxipek12 he encontrado este foro en el que comentan sobre el tema, leelo primero.

https://www.hispasonic.com/foros/empezar-mezclar/319855#post3520783

Para mi conclusion, creo que el mezclar con una u otra cosa es una cuestion de gusto o necesidad, por lo que he leido y lo he leido todo muy bien, nadie dice que hacerlo de tal manera tenga mas calidad dentro de lo que es el sonido, solo comentan cosas de comodidad, de rendimiento o de gustos.

Asi que a mi gusto seguire mezclando los beats en midi y en ocasiones pues sera necesario el audio, pero en cuestion de calidad de sonido que a por lo que vamos todos no hay un por que...
Subir
Harpocrates666
#28 por Harpocrates666 el 08/03/2013
#27

Ah ok, tu duda iba a si afecta la "calidad" del audio, no pues no se ha dicho eso, pero si quieres que lo enfoque de esa manera, pues basta que el instrumento tenga una resolución interna a 64 bits float por ejemplo, y que luego le insertes un plugin para procesarlo y que este tenga una resolución menor para tener truncamiento de datos y por consecuencia perdida de calidad. Renderizando te aseguras que la resolución en bits va a ser 24 bits (renderizar a 32 bits no le veo ninguna necesidad ni beneficio) y reduces la posibilidad de que el plugin insertado posteriormente valla ocasionar truncamiento de bits.

Pero esto no se trata de ese ejemplo en particular, se trata de poner atención a todos los detalles, y la mejor manera de hacerlo es tener una metodología de trabajo, cuando te encuentras con una persona que trabaja de la manera que describo mas atrás:

Alguien escribió:
La gente tiende a componer, grabar y ponerse a mezclar todo al mismo tiempo


Pues te das cuenta que estas en frente del eslabón mas débil de la cadena y obviamente eso se va a ver reflejado en la calidad.

Calidad no se trata de previos, convertidores, frecuencia ni bits, se trata de que quien mueva los potenciometros sepa que hacer y por que.
Subir
oxipek12
#29 por oxipek12 el 08/03/2013
Esta bien ya lo comprendo. Muchas gracias. Aun asi me gustaria saber como trabajas tu , por saber metodologias mas que nada.
Una dudilla!! Y si yo por ejemplo estoy componiendo con una bateria virtual y quiero añadirle un delay, ese delay iria en la mezcla o en el momento de componer?. Por que si fuera en la mezcla seria una locura imaginarte cada instrumento con sus efectos no?

Esto esta interesante!! :plasplas:

Un saludo a todos.
Subir
Alfonso Bedoya
#30 por Alfonso Bedoya el 08/03/2013
Es un gusto que estés por aquí harpocrates, cada vez nos enseñas más a los que llevamos poco tiempo en la producción.

Ahora para comprender del todo tu post alguien me explicar algo sobre los bits y eso de truncamiento de datos?...
Subir
Hilos similares
Nuevo post

Regístrate o para poder postear en este hilo