Sonido e imagen

Postproducción de audio en series de TV: importación y organización del proyecto

Seguimos adelante con este tutorial introductorio de postproducción —es el tercer capítulo de cuatro—. Una vez importado el proyecto de Entre2aguas, llega el momento de trabajar con las pistas directamente sobre el DAW, con el vídeo sincronizado.

Con la colaboración de CPA Formación Audiovisual.

Adolfo García Pascual
EL AUTOR

Ingeniero industrial por la Universidad de Zaragoza. Director de Estudios Roma. Ingeniero de grabación para el Conservatorio Superior de Música de Aragón y el Auditorio-Palacio de Congresos de Zaragoza. Profesor de postproducción de sonido en CPA Formación Audiovisual. Arreglista, compositor y músico de directo.

¿Te gustó este artículo?
14
Comentarios
  • #1 por Francesc el 18/02/2014
    Otro!!!
    Bien!!!
  • #2 por Noraz el 18/02/2014
    Otra genial entrega. A por la cuarta!
  • #3 por René Rivera el 18/02/2014
    super!!
  • #4 por Mr Appletree el 18/02/2014
    Muy interesante lo de la nueva normativa para evitar las variaciones de dinámica durante una emisión. Ya era hora, porque en ciertas cadenas es exagerado el nivel de salida que le meten en los anuncios. Muy buenos esta serie de videos :plasplas:
  • #5 por Jose el 18/02/2014
    Que app estas usando para controlar Nuendo desde el Ipad??
  • #6 por critical el 18/02/2014
    #5 Air Display o iDisplay son buenas opciones. Dicen que la mejor es, y yo personalmente la uso, Air Display. Pero cuidadín con la latencia ;)
  • #7 por Dolfo el 18/02/2014
    Utilizo Splashtop Streamer. Tiene mejor respuesta que Air Display.

    Gracias por vuestros comentarios.
    3
  • #8 por critical el 18/02/2014
    #7 Genial Dolfo, me la apunto y la probaré ;)

    Por cierto, muy instructivo el video, muy bien explicado. Enhorabuena.

    Aunque me surge una pregunta sobre los derechos de las canciones que utilizas en el video. En los efectos de sonido de librería, generalmente ya sabemos que, con los derechos que se adquieren al comprar la librería adquieres también permiso para uso comercial, así que solucionado. Pero... ¿Y las canciones? ¿Y si quisiera poner música comercial en la postproducción? ¿Cómo solucionáis estos temas habitualmente?

    Porque ponerse en contacto con todas las discográficas de las canciones utilizadas puede ser engorroso, retrasar todo el proceso, y si te niegan el uso de alguna y ya la has trabajado en el video, puf. Estaría bien que pudieras dedicar un video a este tema con algunos ejemplos y experiencias curiosas, ¿Qué te parece?
  • #9 por Raygun el 18/02/2014
    me encantan esos arreglos y la explicacion, buen video
  • #10 por angeruroth el 18/02/2014
    He descubierto hace un ratín el post y me he visto los tres del tirón.
    Muy interesante ver cómo trabaja un profesional.

    También quería comentaros que con las pantallas táctiles, que al menos para PC están saliendo a buen precio desde hace unos meses, se puede hacer como con el iPad pero con una pantalla mucho más grande (21"), aunque lamentablemente el software aún no está preparado para multitactil, así que no puedes por ejemplo mover varios volúmenes a la vez.
    Esta limitación a mí me lleva a combinarlo un dispositivo externo con faders y knobs asignables, pero cuando el software esté preparado creo que resultará de lo más natural apoyar varios dedos de una mano en los volúmenes mientras retocas otro efecto con la otra mano.

    Felicidades por los videos!
  • #11 por Dolfo el 18/02/2014
    #8
    Hola critical, gracias por tu apreciación.

    Efectivamete los derechos de efectos de sonido se adquieren al comprar las librerías. Para la música no ocurre así. Nosotros tenemos un contrato que renovamos anualmente con una gestora de librerías musicales. Con este contrato adquieres un derecho de sincronización, que cubre los derechos de autor y permiso de edición, no los de reproducción mecánica ni difusión, que deben ser abonados en caso de hacer uso (fabricación de soporte como CDs, DVDs, memorias USB... o difusión por radio, televisión o internet).

    Normalmente los derechos de emisión los cubren las diferentes emisoras mediante cánones anuales, es decir, las radios y televisiones tienen contratos con las gestoras de derechos mediante los que evalúan los temas de los asociados que son utilizados, y se elabora un reparto de los derechos recaudados. En Internet es más complicado puesto que cualquiera con un portal se convierte en emisor, así que cualquier tema sujeto a derechos que se incluya en una página web, deviene unos derechos de emisión que deberá abonar el propietario de la página web. Hay plataformas que al igual que las emisoras de radio y televisión, tienen convenios anuales. Un ejemplo de estas plataformas son YouTube, Vimeo... por lo que es recomendable, cuando se quiera adjuntar por ejemplo un audiovisual a una página web que contenga música con derechos de autor vigentes, hacerlo mediante un enlace a una plataforma como las anteriormente citadas, ya que así los derechos de emisión quedan cubiertos por esa plataforma.

    Para la música comercial la cosa cambia, porque aunque los derechos de autor y de emisión están tarificados, no ocurre lo mismo con el de sincronización ni edición o adaptación, que deben ser negociados directamente con el propietario editorial de los temas. Es una tarea bastante ardua y que como comentas hay que gestionar con cada editorial independientemente, generando contratos con contraprestación económica o no, dependiendo de la negociación. Evidentemente, para gestionar una serie como "Entre2aguas", hay que pensar que hay una productora potente detrás, que coordina y gestiona todas estas materias con departamentos especializados en cada área para que quede todo registrado y contractualizado.

    No sé si te he aclarado algo estos conceptos, o he conseguido lo contrario.

    #10
    Gracias por tu felicitación, de verdad que animan mucho vuestros comentarios.

    Existen varios dispositivo de control táctil para DAWs, desde el legendario Lemur, hasta las modernas consolas RAVEN. Yo particularmente insisto en el control físico, de hecho soluciones como Nuage o Avid System 5, evidencian la necesidad del profesional hacia dispositivos con retroalimentación física. Creo más bien que las soluciones táctiles se basan sobre todo en el abaratamiento de este tipo de control, ya que la implementación de faders motorizados, knobs con pantallas, joysticks... es notablemente más cara.

    Las soluciones intermedias como controladores con unos 8 faders y 8 knobs más un control táctil (Mackie Control, Artist control, Tango, Behringer X-Touch...), pienso que son la solución más racional y abordable para muchos requerimientos.
    1
  • #12 por critical el 18/02/2014
    #11 Pues me has aclarado bastante, Dolfo. Había detalles que desconocía, la verdad. El caso es que, cuando pienso en estos temas, sospecho que ha de hacerse de la forma lógica. Pero uno no tiene la seguridad de que sea así, fundamentalmente, por desconocimiento del medio.

    Mil gracias por tu aclaración. En mi opinión, es información muy interesante.
  • #13 por RaulMX el 18/02/2014
    Fantástico tutorial no me lo pierdo, es muy esclarecedor, gracias por compartirlo en :hispasonic:
  • #14 por Alee el 18/02/2014
    Me parecen interesantísimos!
  • #15 por lunetico el 19/02/2014
    Gracias por el aporte, buen trabajo.

    Una par de cuestiones.

    Por lo que veo el proyecto comienza en 1:00:53

    Cual es el motivo de no comenzar en 00:00:00, por numeracion de la bobina o hay alguna otra razon?

    Por otra parte hace un par de años hice un modulo de postpro con pro tools, y nos comentaban que el punto de sincro simpre iba 2 segundos antes del primer frame, y lo representabamos con un tono de 1 khz de duracion 1 frame, que coincidia con el segundo 2 de un fragmento de precuenta, que imitaria al clack de claqueta en la grabacion.

    Es habitual que sea asi o el punto de sincro lo podemos ubicar a conveniencia?
  • #16 por Dolfo el 19/02/2014
    Hola lunetico.

    El TC del proyecto depende del proyecto de Final Cut que haya preparado el realizador, ya que en la importación de OMF respetamos los códigos de tiempo. Esto es muy útil por si después por ejemplo nos aportan nuevo material tras una modificación en la edición de video. Piensa que seguramente el realizador haga la ingesta del material con TC embebido, pero no se mantiene un TC máster en la grabación, por lo que irá colocando los archivos según le convenga, así que después aproximadamente comienza en el TC 1:00:00, pero no de manera exacta. En realidad esto era un inconveniente en los sistemas lineales, pero en la actualidad no supone más que añadir un offset o directamente desplazar el proyecto en la línea de tiempo adonde nos convenga.
    Respecto a tonos y señales de sincronía, hay mil fórmulas, y cada productora, distribuidora, televisión... nos pedirá una. En las cintas betacam, tanto SP, como digital, era o es muy común 4 tonos de 1 frame a 1 kHz comenzando 10 segundos antes. También he visto claquetas con 10 tonos, 1 tono... no hay un estándar prefijado.
    1
  • #17 por lunetico el 19/02/2014
    Gracias de nuevo por compartir tu trabajo y aclarar nuestras dudas.
  • #18 por Noraz el 19/02/2014
    #15 y #16

    Gracias a los dos por hablar de ese tema, qué se me pasó preguntarlo.

    Por más que lo veas te empapas de cosas interesantes.
  • #19 por Noraz el 19/02/2014
    Una cosa que me viene ahora a la cabeza:

    En este caso concreto se ha trabajado con librerías, pero si fuese un proyecto en el que el margen de tiempo para la postpro de sonido es muy amplio ¿Se recurriría aún así a librerías, o cabe la posibilidad de recrear efectos?

    ¿Estas cosas suelen ser a criterio del técnico de postpro o como funciona en la planificación?
  • #20 por Dolfo el 19/02/2014
    #19
    Como casi todo, depende del presupuesto del proyecto. A mí personalmente me gusta tener muchos recursos grabados in situ para después trabajarlos en el estudio. Suelo grabar infinidad de wildtracks e incluso cuando voy a una localización juego a grabar todo lo que encuentro por si acaso. Después en estudio utilizo todo lo que puedo del material real grabado y lo que no puedo salvar lo edito con librerías de efectos. En pocas producciones he tenido la ocasión de grabar efectos ad hoc en la postproducción, aunque pequeños recursos siempre tienes que usar. Recuerdo por ejemplo un efecto de derrumbe de edificio industrial que grabé haciendo vibrar una caja de plástico rígido llena de tornillos con un taladro pegado. Después rebajamos el pitch y velocidad y quedó muy bien. Pero este es otro tema...

    Actualmente estoy haciendo la sonorización y postproducción de "Putokrío" que son unos capitulitos cortos de animación que aparecen en el programa de la2 "Alaska y Coronas". En este caso, al ser animación, va todo de librería.
  • #21 por yusford el 19/02/2014
    Hace tiempo hice la postpo de un documental en el que la música era parte importante. Fué un arduo trabajo encontrar los niveles perfectos para cuando hay voz en off o entrevistas con música de fondo siempre intentando que la voz se entienda y que la música esté presente. Utilizando el side chain siempre de manera muy sutil , ¿cual es la diferencia de niveles que usas entre música y voz? . Traté de buscar información en internet sobre este asunto y nunca me he encontrado nada al respecto . Un saludo.
  • #22 por Noraz el 19/02/2014
    #20 Muchas gracias. Me imaginaba que el presupuesto iba a ser el que mandase más.

    La anécdota del edificio derrumbándose es muy curiosa. Yo tuve que simular la guantera de un coche con un cajón de la cocina y filtros lowpass.

    #21 A mí en un curso de sonido en cine me explicaron que en la mezcla de las tres bandas (ya casi al final del proceso) tenías que tener mucho cuidado, porqué la voz era lo primero de la película, así que si te pasabas con los niveles de la música te lo dejaban todo abajo. Supongo que lo trabajarán a oído (al menos en el caso que te comento, según me explicaron), buscando el nivel donde la voz prime sobre lo demás pero no pierda presencia ni la banda de efectos ni la musical.
  • #23 por Dolfo el 19/02/2014
    #21 supongo que lo que quieres es saber dB de diferencia entre voz y música cuando hay música por debajo de la voz. NUNCA he usado una diferencia de referencia, ya que es un error cuantificar en dB el valor pico de señal para evaluar su volumen. Deberíamos siempre referirnos a valor RMS, porque te pongo un ejemplo: una voz femenina puede marcar un valor pico igual que una masculina con muchos graves y sin embargo tener una percepción de volumen muy diferente, ya que normalmente el valor RMS acumulado de la voz masculina será mayor, por ello deberemos actuar con compresión multibanda para igualar este valor RMS, que será el que nos dará la percepción real de volumen. Lo mismo ocurriría con la música, una guitarra acústica nos dará un valor RMS mucho menor que por ejemplo un pad con gran componente en frecuencias graves, con lo que podríamos tener un picómetro indicándonos un valor inferior al de la guitarra y sin embargo tener una percepción de volumen mayor. Así que tratando de valor RMS, la diferencia que suelo aplicar estará entre los 4 y 10 dB de diferencia, pero como muy bien dice Noraz, tiene que ser la estimación auditiva subjetiva la que valore el volumen a aplicar.
  • #24 por yusford el 20/02/2014
    Gracias por tu respuesta , entiendo que tiene que ser la percepción auditiva la que mande en muchos casos , y porsupuesto en valores RMS , en mi caso apliqué una reducción de unos 6dB, no válido para todo el conjunto del docu , pero como media fué lo que me funcinó.

    Gracias de nuevo por la respuesta , se que es un tema muy subjetivo y siempre que he intentado preguntar sobre este asunto me han contestado del tipo : "eso va al gusto de cada uno" , "no hay nada escrito" etc.. entiendo por supuesto que mezclamos con las orejas , pero nunca está demás conocer unos parámetros de referencia para saber por donde moverse. Gracias.