Tutorial de reverb para orquesta

EDDDU
#16 por EDDDU el 18/06/2008
Buf, y si cargas y doblas tantísimos patches..como haces para no acabarte la RAM en un pis pas si tienes que meter toda la orquesta?

Hablando de trompetas solistas, habies visto esto, que estaba en portada:

http://www.samplemodeling.com/es/products.php

Parece muy chulo, la verdad.
Subir
OFERTASVer todas
  • -35%
    Set de grabación completo de Focusrite
    184 €
    Ver oferta
  • -26%
    AKAI MPC Key 61
    1.290 €
    Ver oferta
  • beyerdynamic DT-770 Pro
    138 €
    Ver oferta
Ludwigvan mod
#17 por Ludwigvan el 18/06/2008
Pues..fácil, no trabajo en midi. Cada pista que hago la paso a audio y descargo el VSTI. Rara vez paso de 1 Gb de memoria, y el ordenador va muchíiiiiisimo más suelto
Subir
Luchos
#18 por Luchos el 18/06/2008
Ludwigvan escribió:
Hola a todos,

Pero hace no mucho leí un razonamiento de un profesional de los USA en el que decía que colocar una reverb por envío era tema de eficiencia y presupuesto; antiguamente cuando no existían los ordenadores había que distribuir la señal de uno o dos módulos de reverb por todos los canales, y la única forma de hacerlo era por envío. Además, cuando se empezó a utilizar los ordenadores, las reverbs eran uno de los plugins que más machaban la CPU, con lo que se hacía realmente inviable poner una reverb en cada pista.

Este hombre defendía que un equipo moderno con múltiples cpus y con múltiples DSPs (lo que debía tener!!!) podía perfectamente manejar una reverb por pista siempre que fuera nativa del DSP. Y defendía que en el envío el efecto SE SUMA al sonido original mientras en la inserción SE MEZCLA, y que la reverb no era un añadido al sonido sino que formaba parte del mismo.

Era muchísimo más extenso, pero se me quedó sobre todo la lógica de que, efectivamente, la reverb en mi forma de verlo forma parte del propio sonido, un instrumento tocando en un gran hall desde la primera centésima de sonido se nota que no está en una habitación, formando la reverb parte del sonido.

La lógica me dice que esto no lo es demasiado.

¿Cual es la diferencia entre sumar y mezclar según este hombre? Tanto en un send como en un insert, al final, siempre acaban mezcladas.

¿Algún link a ese foro?

Yo la única diferencia que podría ver, si es que la hay (que tampoco lo creo) es en el summing de los instrumentos a una única instancia de reverb. Me refiero a que a varios instrumentos ya mezclados, se les aplica la reverb.
Subir
EDDDU
#19 por EDDDU el 18/06/2008
No hay diferencia alguna entre sumar la reverb en insert o en envío si mantienes los mismos niveles.

A mi siempre me ha molestado el hecho de tener tropecientas pistas en un proyecto y, desde que mi core 2 duo me lo permite, aplico reverbs individuales por canal como insert. No sólo por el tema del numero de pistas si no también por que a cada instrumento le va mejor su reverb "custom".

Ludiwgvan, pues vaya rollo lo de hacer renders cada dos por tres. Una verdadera lástima q con las máquinas q hay hoy en día tengamos q seguir trabajando como hace 5 o 6 años.
Subir
Ludwigvan mod
#20 por Ludwigvan el 18/06/2008
Pues si pongo una reverb por inserción y la misma por envío a 0, a mi no me suena igual...

De todas formas, me parece absurdo que discutamos sobre los fundamentos teóricos, los he puesto sólo como anécdota. ES un experimento, he probado una forma distinta de utilizar la reverb y los resultados que he obtenido A MI me gustan, y por eso los comparto. Yo no había conseguido una ambientación realista utilizando sends y sinceramente poner reverbs individuales a cada pista me parece un poco exagerado en proyectos de 20 ó 30 pistas.

Y yo también tengo un core duo, pero me gusta trabajar rápido. Y la forma más rápida que he encontrado (con muuuuuucha diferencia) es renderizar cada pista.

Y aunque no fuera la más rápida también lo haría así por aspectos para importantísimos: una vez que tengo una pista en audio automáticamente voy haciendo la mezcla con las demás, la ecualizo, la comprimo si es necesario, automatizo el volumen etc. Y no se parece en nada el sonido disparado desde el VSTI que cuando la has retocado el audio, seguramente ocupará otro plano, otras frecuencias, otro espacio, de forma que lo que te pida componer el cuerpo en ese momento será mucho más realista si el resto está en audio.

Me refiero a que por ejemplo a que tengas un pasaje de cuerdas que en midi suene muy intenso (que es lo que buscas) pero al pasarlo a audio y comprimirlo y ecualizarlo pierda bastante fuerza (como pasaría en una orquesta), y a lo mejor lo que deberías es haber acompañado el pasaje de trompas, por ejemplo, para que diera robustez.

Si haces un tema todo en midi ese tipo de cosas no te das cuenta, pues el midi es un sonido a fin de cuentas irreal; no son instrumentos sonando en una orquesta, son instrumentos grabados en un estudio donde mantienen todas sus frecuencias y características, cosa que en una orquesta no pasa

SAlu2
Subir
EDDDU
#21 por EDDDU el 19/06/2008
Lo de la reverb q suene igual en envío que en inserción es fácilmente demostrable si renderizas ambos casos, a uno de ellos le inviertes la fase y los sumas: cancelación total, o lo q es lo mismo, "no oigo ná". Evidentemente en la reverb tendrás q variar los parametros dry/wet para ajustarlos a la ruta que sigue la señal en cada uno de los casos. No sé..si hay mucho interés en ésto podría subir una sesión de cubase con las dos opciones.

Ludwigvan, intento comprender lo que expones pero no soy capaz de digerirlo #-o :D

Osea, q para empezar a mezclar un sonido es inevitable pasarlo a audio primero? Normalmente, una pista renderizada suena (o debería sonar igual) que el audio q emite el nstrumento virtual q estemos usando. Por qué entonces es indispensable ese paso? Porqué no comprimir, ecualizar y automatizar sobre el instrumento directamente? Además de ver la forma de la onda en el secuenciador yo no veo diferencia alguna.

El caso q mencionas de tener q doblar una linea melódica porque ha perdido fuerza con la compresion, eq, etc. te puede pasar también si trabajas directamente sobre el VSTi. Aunque yo soy de los q prefiere componer todo con todos los instrumentos posibles primero y luego mezclar. Supongo q cada uno sigue su metodología.

Saludos!
Subir
Luchos
#22 por Luchos el 19/06/2008
Yo pienso además, que usar compresión indiscriminada en cada instrumento, es perder la dinámica de este, y convertir en algo irreal lo que debe ser real. Y ojo, sé que se hace últimamente bastante en BSO, pero se hace con un sentido musical tremendo, sin perder los sonidos dinámicos y vivos, y usando los timbes como modo de dinamismo.

Ludwig, tus ideas, tu dedicación, tus pensamientos personales... :wink: me gustan mucho, pero en esto no te puedo dar la razón.
Subir
Luchos
#23 por Luchos el 19/06/2008
Y también pienso como EDDDu, un rollazo con las maquinas de hoy en día tener que pasar a audio. El problema es que la obra no está nunca del todo acabada, y tienes que volver atras, modificar notas, cada poco tiempo.
Subir
Ludwigvan mod
#24 por Ludwigvan el 19/06/2008
¿?

Hasta las orquestas clásicas se comprimen....

Con todos los respetos, no os dejéis llevar por opiniones que muchas veces son teóricas pero muy poco fundadas.

Pensemos una cosa: al grabar una orquesta sinfónica (me da igual real o con samples, clásica o BSO) se emula nuestra forma de escuchar. Se emula la situación en que estamos en la fila 15 de un hall escuchando y la sensación que percibiríamos en nuestros oídos.

Ahora bien, los samples están grabados a un par de metros como mucho. Y las orquestas reales, también; a parte de los micrófonos omnidireccionales que graben el conjunto, cada sección tiene sus propios micrófonos que recogen los detalles, pistas que luego se mezclarán con el conjunto.

Eso signfiica QUE NO ESTÁN GRABADAS TAL COMO LAS ESCUCHAMOS. ES más, por perversiones del oído humano si pusiéramos dos micrófonos en la fila 15 simulando nuestros oídos, la grabación sería completamente distinto a como imaginamos; en ningún momento nos sonaría preciamente a concierto escuchado en la fila 15.

Dicho esto, en la producción de esa grabación es necesario coger esas pistas grabadas con detalle a 1-2m y hacer toda una serie de procesos para que nos parezca que estén grabadas en un hall a una cierta distancia.

Eso puede incluir ponerles reverb, ecualizar (la distancia hace perder frecuencias) y comprimir (la distancia comprime el sonido) para simular una escucha en directo. Es decir, pasos muy muy parecidos a lo que se hace con los samples, aunque por lógica el trabajo de humanización no es necesario.

Es por eso que si no haces un trabajo de 'alejamiento' los samples suelen sonar ásperos, demasiado poco dulces, la mayor parte de las veces por tener demasiada información en la parte del espectro que da la definición al instrumento (2k-9k), que es una de las partes que se pierden con la distancia, o con demasiado cuerpo, por tener demasiadas frecuencias por debajo de 200hz que también se pierden con la distancia. .

El timbre puede ser hasta desagradable, porque una orquesta es la suma de los timbres de un monton de instrumentos pasado por el tamiz de una distancia QUE MODIFICA UN MONTÓN ese sonido. Es el típico sonido nasal de utilizar un conjunto de samples sin 'reformar' (EQ+compresión), que en conjunto suenan decentemente pero no suenan a orquesta pues su tratamiento es erróneo

Porque es imposible escuchar cada instrumento a 1m; si coges samples (o una orquesta en la que has grabado cada sección con sus propios micros) y lo pones tal cual, estás recreando un hecho que es imposible de hacer en la realidad. Hasta el director en su sitio privilegiado tiene una gran diferenica de audición entre los elementos.

Probar esto es sencillo; coged en vuestro master un plugin de estos que comparan las EQ (Voxengo EQ, por ejemplo) y comparad vuestro tema con VSTI con la EQ final de una orquesta o BSO. Me jugaría algo a que sobra una barbaridad de información en esa banda (2-9k), especialmente entre 4-5K. Y sin embargo cualquier instrumento a 1m sí que tiene esa información

Cuando se suele hablar de estas cosas se dice que las orquestas no se comprimen o ecualizan AL GRABARLAS, no al mezclarlas.

Por eso mismo si estamos componiendo para orquesta y lo hacemos con samples, la fórmula que mejor resultado nos dará (a mí por lo menos) es cada vez que compones un instrumento es ponerlo 'en su sitio'. PUes un instrumento a 1m te dará unas características completamente distintas a las que te dará colocado en su sitio final, caracaterísticas de textura, de frecuencias, de importancia o plano con respecto a lo demás. Y si compones toda la obra en midi, no estás teniendo en cuenta esos aspectos, con lo cual al pasarlo a audio obtendrás una obra seguramente descompensada.

Pongo otro ejemplo distinto al anterior; ponemos una línea melódica de violines 1ºs en una octava media (3, por ejemplo) que llevarán en un movimiento el peso del tema durante unos segundos. Utilizamos el VSTI y queremos rellenar un poco la melodía, y pensamos hacerle una segunda voz, pero sin recargar demasiado.

Como quiero hacerle un intervalo grande (con los VSTI suele quedar mejor), pruebo a hacer una tercera pero una octava por debajo. Y queda bastante bien y se nota lo necesario, los primeros violines son brillantes la segunda queda estupenda.

Ahora bien, si paso los primeros a audio...puede resultar tranquilamente que esos violines tan brillantes al ponerlos en su sitio pierdan una grandísima parte del sonido que 'raspaba'. Y que ya no necesiten una octava por debajo sino....por arriba. Si pusiéramos la voz una octava por debajo, su sonido se perdería con las violas (o los chelos, o lo que sea), creando confunsión, sin embargo por arriba hay mucho espacio y se perfilaría mejor.

Si tengo TODOS los isntrumentos pasados a audio y mezclados tomaré una decisión, y si están en midi....otra, seguramente bastante distinta.

Y eso aplicado al conjunto de la mezcla hace muchísimo. Porque mientras trabajes todo con samples, compondrás para samples; si el resto lo tienes en audio, tenderás más a comoner como si fuera una orquesta real.

Haz la prueba con un tema y lo verás; importa el midi, conecta un instrumento y pásalo a audio, y lo vas mezclando. Te sorprenderá como irás cambiando tus decisiones; instrumentos que cambian de octava, algunos que desaparecen, otros que vas necesitando que no pensabas ponerlos. Hasta que el resultado es muy muy distinto a cuando has compuesto todo en VSTI y creo que mucho más real.

Además, que por lo menos a nivel de PC casero por mucho dual core que sea me parece inviable ponerle plugins en la salida de los VSTI. En su momento lo hice, pero no da buen resultado, cuando tienes 30 pistas y 50 plugins entre los de pista, reverbs, master el PC hace muchísimo que murió....

Salu2
Subir
1
EDDDU
#25 por EDDDU el 19/06/2008
Alguien escribió:
Por eso mismo si estamos componiendo para orquesta y lo hacemos con samples, la fórmula que mejor resultado nos dará (a mí por lo menos) es cada vez que compones un instrumento es ponerlo 'en su sitio'


OK, con eso entiendo q no estás de acuerdo con el sonido base del que parte la librería y, antes que nada, lo quieres adecuar a cómo lo oirías realmente si estuvieras escuchando a una orquesta en persona. Capisco. :)

Alguien escribió:
Ahora bien, si paso los primeros a audio...puede resultar tranquilamente que esos violines tan brillantes al ponerlos en su sitio pierdan una grandísima parte del sonido que 'raspaba'. Y que ya no necesiten una octava por debajo sino....por arriba.


Aquí es donde me descoloco totalmente. Realmente si haces un bounce de un instrumento virtual se te degrada tanto el sonido? Aquí no has hablado aún de poner ningún efecto a ese canal y, como dije antes, en estas condiciones, el bounce de esa pista debería ser idéntico a la pista del VSTi. De no ser así me inclino a pensar que tienes tu secuenciador trabajando internamente con poca resolución (tal vez al crear el audio te de un archivo a 16 bits?). Es que lo que planteas es un cambio super drástico, pasas de necesitar una voz por debajo a una por arriba!! es demasiado.

Alguien escribió:
Además, que por lo menos a nivel de PC casero por mucho dual core que sea me parece inviable ponerle plugins en la salida de los VSTI.


Desde q lo compré trabajo así para la mayoría de géneros que compongo. El tema orquestal es otra historia porque cargas mucho en RAM, pero la limitación viene de ahí, no del procesador. No suelo pasar de un 70% de carga de CPU a 3 ms de latencia (mi C2D está overclockeado, eso sí).

Saludos
Subir
Ludwigvan mod
#26 por Ludwigvan el 19/06/2008
Cuando me refiero a ponerlo en 'su sitio' es a que hago el bounce, y el archivo resultante lo pongo en su sitio final (como si no fuera a tocarlo más), es decir, lo comprimo si veo que le hace falta, lo ecualizo, le pongo reverb...

Principalmente al ecualizarlo es cuando pierde bastante, pues esas frecuencias que debe perder para colocarlo en su sitio son las que me 'sobraban' en el midi

Estoy 100% 'de acuerdo' (me ha gustado la expresión :D) con el sonido base de las librerías, en muchas es impresionante. Para mí el fallo está en que no haya (salvo un par de honrosas excepciones) un motor inteligente del manejo de articulaciones, pero el sonido en muchas es impresionante.

Ahora bien, en el 100% de las librerías (aunque traigan reverb) el sonido grabado corresponde a un instrumento grabado con un micro cercano para recoger detalles.
Eso significa que como punto de partida es perfecto, pero no es lo mismo un cuarteto de trompa en un room que un ensemble de 4 trompas dentro de una oruqesta en un hall. En el primer caso sonará muchísimo más brillante, y ese es el efecto al que me refiero.

Si no vas pasando a audio y mezclas sobre la marcha, estás componiendo para una orquesta...en una habitación pequeña de estudio (me refiero a las frecuencias, no a la reverb). Y creo que el resultado no es el mismo...

De todas formas, en ningún caso digo que haya que hacerlo así; digo QUE YO lo hago así. Y a la larga me es bastante más cómodo; un proyecto aunque tenga tropecientas pistas me carga en 10 segundos (nunca dejo vstis conectados...), y el PC me va super ligero, que para mí es algo fundamental. Si tienes la CPU al 70% la reproducción no es inmediata, y yo perdería mucho tiempo, me gusta automatizar hasta rozar el absurdo y estoy constantemente parando-arrancando la reproducción y cambiando el trozo a reproducir, si se me enlentece el proceso pierdo mucho.

Exporto a 24 bits 44.1; las pruebas que he hecho con más (96, 32 bits..) no he notado ningun diferencia.

Te animo a que hagas la prueba de la EQ , te quedarás impresionado. Zimmer le mete una caña impresionante a los graves (que hacen un efecto parecido, recorta menos los agudos y potencia los graves), Shores (me encanta!!!) tiene unos recortes de agudos bestiales, ese sonido tan denso de ESDLA, Elfmann utiliza una orquesta más cercana para los temas 'bucólicos' (Eduardo manostijeras) y caña de España para las animaladas (Spiderman), donde recorta frecuencias a mogollón. Quizás el que más se parece en cuanto a frecuencias a una orquesta de samples sin retocar es Williams, aún así la diferencia es bestial.

La orquesta no se concibe como la unión de una serie de elementos sin más, debe haber un espacio de escucha. En un grupo de rock grabas cada elemento por separado y luego lo mezclas y queda bien; en una orquesta eso es imposible.

Y en los samples los instrumentos vienen como si fuera una grabación de un grupo de rock: todos iguales, todos a tope de frecuencias. Con lo que hay que tratarlos para que de verdad parezca que estén tocando juntos en un gran espacio. Y la reverb es sólo uno de los temas a tratar...

Salu2
Subir
1
Luchos
#27 por Luchos el 19/06/2008
Ludwigvan escribió:

Hasta las orquestas clásicas se comprimen....

¿? ¿Dónde has visto esa información?
Alguien escribió:
Pensemos una cosa: al grabar una orquesta sinfónica (me da igual real o con samples, clásica o BSO) se emula nuestra forma de escuchar. Se emula la situación en que estamos en la fila 15 de un hall escuchando y la sensación que percibiríamos en nuestros oídos.

Las orquestas sinfónicas se han grabado por decadas con un micro estéreo o un matched pair en XY. Si había solistas, se les solía poner un micro de refuerzo. Usualmente el par se suelen poner encima de la cabeza del director. Y así es como las hemos escuchado siempre, hasta que han sacado nuevas técnicas para recuperar el brillo que se pierde en la distancia (que no es tanta como en la fila 15), metiendo unos cuantos micros a las secciones, y luego mezclandolo con cuidado para no perder realismo con el general.

Por supuesto, de compresión, cero patatero.

Alguien escribió:
Eso signfiica QUE NO ESTÁN GRABADAS TAL COMO LAS ESCUCHAMOS. ES más, por perversiones del oído humano si pusiéramos dos micrófonos en la fila 15 simulando nuestros oídos, la grabación sería completamente distinto a como imaginamos; en ningún momento nos sonaría preciamente a concierto escuchado en la fila 15.

Si el par de micros los pones en el sitio donde te sientas, cun una buena técnica XY, como si fueran tus propias orejas, deberían sonar de forma casi idéntica. Todo poniendo micros, previos y conversores lo más trasparente posibles, por supuesto...

Alguien escribió:
Dicho esto, en la producción de esa grabación es necesario coger esas pistas grabadas con detalle a 1-2m y hacer toda una serie de procesos para que nos parezca que estén grabadas en un hall a una cierta distancia.

Eso puede incluir ponerles reverb, ecualizar (la distancia hace perder frecuencias) y comprimir (la distancia comprime el sonido) para simular una escucha en directo. Es decir, pasos muy muy parecidos a lo que se hace con los samples, aunque por lógica el trabajo de humanización no es necesario.

Es cierto que en casi todas las grabaciones de samples las hacen a 1m, y si quieres "colocarlas" en su plano, debes jugar con la reverb y la EQ.
¿Pero que la distancia comprime el sonido? No había oído nunca algo parecido.

Alguien escribió:
Es por eso que si no haces un trabajo de 'alejamiento' los samples suelen sonar ásperos, demasiado poco dulces, la mayor parte de las veces por tener demasiada información en la parte del espectro que da la definición al instrumento (2k-9k), que es una de las partes que se pierden con la distancia, o con demasiado cuerpo, por tener demasiadas frecuencias por debajo de 200hz que también se pierden con la distancia. .

El timbre puede ser hasta desagradable, porque una orquesta es la suma de los timbres de un monton de instrumentos pasado por el tamiz de una distancia QUE MODIFICA UN MONTÓN ese sonido. Es el típico sonido nasal de utilizar un conjunto de samples sin 'reformar' (EQ+compresión), que en conjunto suenan decentemente pero no suenan a orquesta pues su tratamiento es erróneo

Porque es imposible escuchar cada instrumento a 1m; si coges samples (o una orquesta en la que has grabado cada sección con sus propios micros) y lo pones tal cual, estás recreando un hecho que es imposible de hacer en la realidad. Hasta el director en su sitio privilegiado tiene una gran diferenica de audición entre los elementos.

Probar esto es sencillo; coged en vuestro master un plugin de estos que comparan las EQ (Voxengo EQ, por ejemplo) y comparad vuestro tema con VSTI con la EQ final de una orquesta o BSO. Me jugaría algo a que sobra una barbaridad de información en esa banda (2-9k), especialmente entre 4-5K. Y sin embargo cualquier instrumento a 1m sí que tiene esa información

Bueno, aquí hablas de EQ todo el tiempo, y es obvio que la distancia va cortando las altas frecuencias. Pero sigo diciendo que la compresión no se debe utilizar, y es que además no es lógico.
Cuanto más acústica es una grabación, en todos los estilos, menos compresión deben llevar. Me remito por ejemplo al jazz o alguna música folclórica.

Bueno dejo ya de quotear que ya lo que sigue habla sobre todo de EQ y de sistema de trabajo.

Pero también decias que el 100% de las grabaciones de samples están grabadas de cerca por lo que se tienen que producir a posteriori, pero me parece que el EWQL no funciona así. Está grabado de la forma que expliqué antes, y sumado a micros de ambiente por secciones (de esto ponen poco, es para meter algo más de brillo y detalle). Esto significa que no habría que haber apenas fase de producción y proceso sobre las pistas.
Estuve en el estudio de un amigo hace un año y me enseñó el EWQL Gold. Tenía algún midi de orquesta, no se si vendrían con el programa (seguramente). Lo cargamos y lo reproducimos, y sonaba tremendamente realista, sin más procesos. No necesitaba EQ, ni paneo, ni siquiera reverb (de compresión no digo nada porque ya sabeis que pienso).
Esto me llevó a la conclusión de que gastar demasiado tiempo en la producción de orquesta, es, y sobre todo será, algo inútil.
Desde ese día uso el EWQL silver, que aunque no suena tan bien, me permite escuchar como sonaría realmente una orquesta. Dedico mi tiempo (muy poco, la verdad) solo en la música.

Para terminar diré que creo que se le presta demasiado atención al proceso en la orquesta. Como dije antes, lo más realista es como antaño, con un par de micros. He escuchado unas cuantas cosas por aquí en hispa y me parece que suenan bastante bien; producidas muy bien, técnicamente correctas en sentido musical... pero noto una carencia de matices, timbres, no se usan las disonancias apenas (algo que llena de vida la orquesta sinfónica) y el movimiento suele ser demasiado plano, y con pocas pausas.

Un saludo a tod@s
Subir
EDDDU
#28 por EDDDU el 19/06/2008
Ok, mi falta de experiencia en el género me impide seguir charlando con cierta propiedad. Una verdadera lástima. :D

No me deja de chocar por eso tu manera de trabajar. A los freezes o bounces es algo a lo que todos llegamos alguna vez, pero normalmente esto se da más tirando hacia el final del proceso de producción, no cada vez q tienes listo un instrumento. Como poco es...peculiar. ;)

Si eres tan meticulosos automatizando y puliendo entonces tampoco entiendo como no te reservas la posibilidad de , en un momento dado, volver atrás opara dar más expresión a tu interpretación y cambiar algún CC midi, articulación etc. Si vas a base de bounces todo esto lo pierdes..

Colegas utilzan varios ordenadores con FX teleport precisamente para eso, para no andar con bounces un pasito para alante y otro para atrás. Tampoco me parece adecuado montarte una granja de ordenadores. Lo suyo seria poder usar 8 GB de memoria con windows o un sistema d DFD o sucedáneo totalmente eficiente.

Raro también que tu PC no arranque a la primera cuando está cargadito de CPU. Normalmente lo que tienes son clicks y pops, pero no un retraso enel play. Y sí, q tarde tanto en cargar la sesión.. jode. :lol:
Subir
EDDDU
#29 por EDDDU el 19/06/2008
Después de leer el último post de Luchos debo decir que yo también trabajo así con EWQL. Todo a piñón componiendo y retocando mínimamente la mezcla al final de todo. Algo de EQ quizas y compresión a veces, pero todo super sutíl. Lo que cuenta, en mi opinión es la orquestación. yo creo que sería un porcentaje de 90 componer- 10 mezclar.
Subir
Luchos
#30 por Luchos el 19/06/2008
He visitado la página de eastwet para ver ejemplos de cómo suena.

http://www.eastwestsamples.com/details. ... index=1010

La verdad es que suenan de lujo. Alguien que no sepa de esto no creería en ningún momento que se trata de una orquesta midi.

La pregunta es, ¿creeis que utilizan algún proceso de mezcla? Según ellos no lo hacen... :roll:
Subir
Hilos similares
Nuevo post

Regístrate o para poder postear en este hilo