Sonido en vivo

Jugando con la psicoacústica (I): memoria acústica

Oído humano

Uno de los campos donde más me he divertido en mis etapas de formación e investigación es, sin duda alguna, en la psicoacústica. Debido a mi naturaleza basada en el entendimiento y en el intentar descomponer el porqué de las cosas, siempre que iba a un concierto y este sonaba mal me resistía a pensar que era por culpa del técnico. A veces, cuando tenía la suerte de conocerlo, sabía de antemano que era casi imposible que esa persona hiciera mal su trabajo, pero había algo en su mezcla que hacía que prefiriera irme a casa en vez de disfrutar del concierto. ¿Cómo podía ser? Lo fácil (y habitual) es dirimir la discusión a la mala praxis del técnico del momento, pero empecé a preguntarme que quizá era yo quien escuchaba mal las cosas. En definitivas cuentas, el resto del público seguía disfrutando del concierto y no parecía estar enojado por esa misma mezcla que a mi me parecía casi horrorosa. ¿Estaría sordo? ¿Qué estaba pasando?

Empiezo esta serie de artículos que se alejan de las vicisitudes técnicas y nos acercan a la imperfección del ser humano. Basados en los conceptos básicos de la psicoacústica, nos ayudarán a resolver algunos de los problemas más habituales a los que nos encontramos en nuestro trabajo y que no hemos sido capaces de resolver. A todo ello, sigo esperando respuesta a uno de los dilemas que publiqué hace ya algunas semanas: ¿cómo es que el ser humano, con sólo dos orejas, es capaz de reconocer si un sonido viene del frente o de detrás?

 

Escucha más nuestro cerebro que nuestros oídos

Los más veteranos sin duda reconocerán esta habitual anécdota. ¿Os acordáis cuando los teléfonos eran analógicos, a pulsos, y no tenían pantallita alguna? Nos llamaban a casa y el que más cerca estaba del aparato lo recogía con un “dígame” universal. Luego, nuestro cerebro empezaba su catarsis: a partir del “hola” siguiente debía resolver a velocidad de vértigo quién se encontraba al otro lado del aparato. En ambientes familiares nadie se presentaba, como dando por hecho que todo el mundo se reconoce, pero no es así.

Los teléfonos analógicos (e incluso los digitales de hoy en día) utilizan un método de compresión de datos muy eficiente: reducen el ancho de banda en la respuesta de frecuencia para así enviar menos datos. La voz tiene su dominante en frecuencia entre los 2 y 6 kHz, por lo que todo lo que está por debajo y encima es futil si lo que queremos es centrarnos en el mensaje. Bueno, lo es menos para un dato: son esos armónicos superiores e inferiores los que determinan el timbre de cada uno de nosotros. Pero el teléfono los elimina, los dilapida. Así, cuando nos llamaban y el interlocutor nos descubría empezaba a preguntarnos cómo estábamos, si estaban papá o mamá y que se pusieran al interfono… ¡Qué rabia! El del otro lado sabía quien era, pero yo era incapaz de saberlo. Pero de pronto lo reconocías: ¡era el tío José! Y en ese momento, esa voz distante, capada y fuera de lugar, parecía verdaderamente como si fuera emitida por alguien que realmente estaba a tu lado, hablándote a dos centímetros de tu cabeza. Bienvenida psicoacústica. 

En el momento exacto que nuestro cerebro sabe determinar a quién pertenece esa voz, recurre a los recuerdos almacenados para reconstruir todo aquello que no nos llega. A tiempo real, añade todos esos matices que ni tan siquiera el teléfono es capaz de ofrecer, porque los ha eliminado, ofreciéndonos esa sensación de que, realmente, nuestro interlocutor está a nuestro lado.

Bose Acoustimass

Bose, entre otras cosas, fue reconocida por su serie de altavoces Acoustimass. Se basaban en este mismo principio. Fue capaz de ofrecer un sonido contundente y ‘espectacular’ utilizando unos minicubos y un pequeño subwoofer. ¡Sonaba de escándalo! De hecho, las primeras demostraciones de estos sistemas se hacían con trampa: permitían a los espectadores escuchar una pareja de altavoces de tipo columna, de algo más de metro de altura; y cuando estaban convencidos de la calidad de ese equipo, alguien sacaba de dentro de esa caja inherte esos dos minicubos pequeños y dejaba asombrados a los asistentes. Yo compré una pareja de ellos. Los tuve en mi casa durante unos pocos meses: sonaban bien, pero me fatigaban. Bose no inventó la capacidad de un altavoz de baja pulgada para reproducir perfectamente todas las frecuencias del espectro sonoro, sino que jugó hábilmente con nuevas ecualizaciones muy drásticas y otros elementos para conseguir una sensación de respuesta absoluta, pero que dejaba en manos del cerebro la necesidad de reconstruir todos esos sonidos que eran imposibles de reproducir físicamente. Así, tras un largo rato de escucha mi cabeza casi explotaba, cansada de estar recalculando frecuencias y generando a partir de recuerdos sonidos no emitidos. Lo mismo ocurre con los MP3.

 

A ver con qué pruebas el equipo de sonido

Linn Products es un pequeño, extraño pero prestigioso fabricante de productos de alta fidelidad. Los conocí hará una decena de años y me sorprendieron cuando los visitaba para realizar audiciones de sus equipos de música: nunca me permitieron utilizar mis propios CDs. Con el tiempo no sólo les doy la razón, sino que ahora entiendo el porqué. Estaban tan orgullosos de sus equipos que podían permitirse este arriesgado experimento.

Linn Products Klimax

Basándose en la anterior premisa, sabían que nuestro cerebro sería capaz de reconstruir infinidad de detalles sonoros incluso si las cajas no lo reproducían. Así las cosas, te incitaban a escuchar sus equipos con músicas que no conocieras, justamente, para evitar que lo que no escuchabas fuera reconstruido por tu cerebro. Cuando pruebas un equipo de sonido con una música que conoces de sobra es probable (por no decir seguro) que tu cerebro te engañe, pues además tenemos poco control sobre él. Te hará escuchar graves profundos y controlados donde no hay más que rebomborio acústico o, incluso, añadir colas de reverb donde no las hay. Si en cambio pruebas un equipo con un pasaje musical que no conozcas demasiado estarás obligado a escuchar lo que escuchas: tu cerebro no sabrá si ahí hay una línea de bajo definida, un detalle en agudos a apreciar o si existe inteligibilidad de la palabra. Si escuchas una canción en tu idioma materno es fácil que “reconozcas” palabras enunciadas donde hay barullo; en cambio, si reduces la escucha a un idioma que conozcas pero no sea tu habitual, el simple hecho de reconocer fácilmente palabras hará que estés de acuerdo con la reproducción, justamente, del espectro más crítico para el ser humano y la palabra: entre 2 y 6 kHz.

Aún así, la memoria auditiva o acústica es muy volátil si no está fijada en el recuerdo. El perfil de la voz del tío José permanecerá casi intacto de por vida, pero un ajuste determinado de un compresor para un bombo que nos suene bien puede volatilizarse en cuestión de un par de segundos, mucho antes de poder ajustar de nuevo el compresor. Por ello, muchos fabricantes de software incluyen la opción A-B que nos permite hacer esta comparación rápidamente. Y tenemos que hacerlo ipso-facto: esperar apenas 1 segundo entre dos sonidos a comparar nos inducirá totalmente al engaño.

Antes de terminar este artículo, el primero de una serie (si me lo permitís), recordar otra anécdota tremendamente común: el músico que pide que le subas un poco la guitarra y que de pronto te felicita por ello cuando tu ni siquiera has tocado potenciómetro alguno. Lo mismo nos ocurre a nosotros (como técnicos): la cantidad de ajustes que realizamos al vuelo durante una actuación que no ejercen función alguna pero que, engañados por nuestro cerebro, creemos que son factibles. Para solucionar esto saquemos provecho de lo que hemos dicho justo ahora: si nuestra memoria acústica es volátil al segundo, entre un cambio y la comparación del siguiente hagamos un mini-reset de nuestra percepción sonora. ¿Cómo? Escuchamos el bombo, lo modificamos y acto seguido centramos nuestra atención en la caja… para luego volver a escuchar el bombo, esta vez limpio de recuerdos, para oir lo que realmente suena

R. Sendra
EL AUTOR

Con más de 20 años de experiencia en los escenarios, es técnico de sonido especializado en FOH. Trabaja para bandas nacionales e internacionales como técnico de mesa, y es productor técnico para diferentes festivales y grandes eventos. Kinosonik es su estudio de sonido basado en plataforma digital. Le gusta compartir y le encanta aprender.

¿Te gustó este artículo?
46
Comentarios
  • 1
  • 2
  • #1 por vagar el 22/05/2015
    Muy buena pinta el artículo y entretenido el tema, a ver qué nos cuentas =D> :comer:

    Por aportar algo, la banda telefónica analógica tradicional, que luego se ha heredado en algunos sistemas digitales, es de 300 a 3400 Hz.

    Alguien escribió:

    ¿cómo es que el ser humano, con sólo dos orejas, es capaz de reconocer si un sonido viene del frente o de detrás?


    Bueno, es un tema amplio, y depende del sonido. La respuesta más simple sería por la interferencia del p. a. (lo dejo críptico por si alguien quiere investigar la respuesta :desdentado: ), pero hay tochos de tesis doctorales que hablan sobre los distintos matices de la direccionalidad de fuentes sonoras.
  • #2 por mariocrespo el 22/05/2015
    Muy buen artículo, espero ver más de la colección.

    En cuanto a la pregunta que propones; el ser humano es capaz de distinguir, no sin dificultad, entre delante y detrás por una serie de factores. Los más significativos son el HRTF y el PRTF. Es por esto que cuando oímos una grabación binaural, ya sea con un Dummy Head o simulada por sofwtare, es decir, uso de HRTF y PRTF no individualizados, sufrimos una gran dificultad para localizar sonidos fuera de la cabeza (internalización) o confusiones delante-detrás o detrás-delante (inversiones).

    Nosotros somos capaces de resolver estos problemas porque desde nuestra infancia aprendemos a escuchar con nuestro HRTF y PRTF propios, y cuando tenemos algún problema para discernir entre delante-detrás o viceversa, movemos ligeramente la cabeza, haciendo que entren en juego las diferencias interaurales.

    Un saludo
    5
  • #3 por R. Sendra el 22/05/2015
    Bien mariocrespo.
    1
  • avatar
    #4 por --543762-- el 22/05/2015
    Muy interesante.
  • #5 por fabianlmb el 22/05/2015
    No me había puesto a pensar los del teléfono, es tan cotidiano, que nunca me detuve a pensar porque reconocemos la voz de un momento para otro, es como un proceso automático. Me dejaste así O_o O_o O_o O_o ahora pregunto escuchar en MP3 puede producir fatiga por que nuestro cerebro esta constantemente re-calculando y accediendo a recuerdos sonoros? Pero si es la primera vez que escuchamos un tema en MP3?

    Gracias por compartir
  • #6 por lastsystem el 22/05/2015
    otra cosa mas que se ! :hola:
  • #7 por angelmus el 22/05/2015
    ¡Que buena nota!...
    y cuanta ignorancia hay en los médicos acerca de las necesidades de un músico.
    Los otorrino.... solo entienden que es importante escuchar, pero "como escuchas" es irrelevante.
    Seguiré de cerca la evolución de tus notas acerca del tema.

    Respecto de como sabemos que un sonido viene de atras, creo que tiene que ver con que no solo escuchamos con los oídos sino también con el cráneo en las zonas cercanas a los oídos y que luego esa info se suma en el cerebro, pero es solo mi teoría.
    Cuando te hacen una audiometría, los test son:
    Frecuencias escuchadas con auriculares.
    Palabras escuchadas con auriculares.
    Y vibración cercana a los oidos por medio del cráneo.

    Muchas gracias.
  • #8 por Tony Carmona Vives el 22/05/2015
    Muy interesante el artículo Sendra.
    He aprendido cosas que no sabia, como lo de quedar agotado de tanto reconstruir frecuencias que no están etc..
    Creo que ha faltado aclarar el porqué muchos técnicos de sonido, antes de empezar la mezcla escuchan su propia música grabada. Con el fin de poder hacer una comparativa respecto a las frecuencias o "Colores" a las que están acostumbrados a escuchar esos temas. ¿Están haciendo lo incorrecto?
    Por otro lado en el caso que comentas de los equipos Linn, Sin poner en cuestión la calidad que acreditan, da la falsa impresión de que prefieren que escuches canciones que no has escuchado nunca para así no poder comparar, eso es algo que te puede dejar con dudas a la hora de tomar la decisión final de adquirir el equipo.
    Me gustaría añadir, que a la psicoacústica le afecta mucho la visión.
    El caso más claro está en los conciertos grabados con imagen, en cuanto un músico es enfocado en primer plano, parece que el volumen de su pista haya subido de nivel.
    Y ya por último y sin haber investigado mucho, lanzo este enigma:
    Yo soy de los que creen que solo podemos detectar sonidos en estéreo, ni delante ni detrás ni de arriba o de abajo.
    Muchas gracias por este foro acústico tan interesante.
  • #9 por 289122 el 22/05/2015
    yo creo que si podemos oir la procedencia delante y atras... lo que no se como lo hacen los oidos... antes estaba obsesionado por estas cosas jajajaj
  • #10 por Alamiro Arias Navarro el 22/05/2015
    Muy buen artículo! Gracias!

    Con respecto al reconocimiento espacial del sonido, creo que el PAC (procesamiento auditivo central) es el encargado de discriminar de donde está la fuente sonora entre otros.

    http://www.dipa.cat/esp/docs/ProcesamientoAuditivoCentral.html

    Ahí hay algo de información. Saludos!
  • #11 por victor828 el 23/05/2015
    Muy interesante para aclarar conceptos que no se saben explicar técnicamente si no has estudiado.

    Justo mi caso je....

    Gracias y lo sigo...

    Salud !!
  • #12 por RaulMX el 23/05/2015
    Muy bueno, gracias por compartirlo Sendra.
  • #13 por Drumming Damian el 23/05/2015
    Buenísimo articulo! Un abrazo mi gran señor! (Jajajaja)
  • #14 por Manu Ache el 23/05/2015
    Muy buen artículo, gracias por esta valiosa información Sr. Sendra ;)

    Me uno a las dudas de #5 Fabianlmb
    y bajo mi punto de vista creo que si puede llegar a producir fatiga (Escuchar en Mp3 temas que ya has escuchado en varias ocasiones)

    Saludos!
  • #15 por Januman García el 24/05/2015
    Interesantísimo. Muchas gracias!
  • #16 por mikrokosmiko el 24/05/2015
    Muy bueno e interesantísimo, gracias!
  • #17 por wolfojean el 25/05/2015
    Hace tiempo hice un trabajo para la facultad sobre el Virtual Surround. Leyendo artículos me fui enterando de varias cosas.

    - Los pliegues de los lóbulos de la oreja sirven para localizar el sonido en el plano vertical. La explicación es que esos pliegues realizan ligeras modificaciones en la fase del sonido que el cerebro puede reconocer.
    - El tener dos orejas sirve para localizar el sonido en el plano horizontal.
    - Y ya solo queda el poder distinguir entre delante y atrás. El pabellón auditivo hace de filtro paso bajo, por lo que sonidos que provengan desde atrás carecerán de agudos y parecerán como más apagados y con menos brillo.

    Ese tipo de modificaciones en el sonido (aplicar filtros, cambios de fase) es lo que se intenta hacer en el Virtual Surround (con más o menos éxito) para conseguir un sonido más envolvente con solo dos altavoces.
    5
  • #18 por Peluco el 25/05/2015
    Que buen artículo!! Gracias
  • #19 por eaom el 26/05/2015
    Muy buen articulo.
  • #20 por Los Hilos de la Marioneta el 27/05/2015
    Gran artículo, por su poder didáctico. Y grandes comentarios, subiendo el nivel de la discusión. Un placer leer hoy aquí.

    Gracias a todos.-
  • #21 por atrapa_tupez el 27/05/2015
    En algún momento un profesor de sonido me explicó que la clave para distinguir de donde vienen los sonidos está en la forma de la oreja. Como dijo wolfojean, el sonido se va modificando a medida que va "chocando" con las diferentes formas y pliegues de la oreja, por eso nuestro cerebro puede interpretar de donde viene el sonido.
    A partir de eso me surge una duda, si uno está escuchando música con audífonos ¿Se puede distinguir si el sonido viene de adelante-atrás y arriba-abajo? Creo que sería una herramienta bastante interesante a la hora de mezclar.
    1
  • #22 por IOI el 27/05/2015
    Entonces Niki Lauda no podría conducir...
  • #23 por gheibiK el 06/06/2015
  • #24 por Aku el 11/06/2015
    Que gran artículo, gracias Ramon!
  • #25 por Fernando Monreal el 15/06/2015
    Esto explica porque siempre digo que entre un mp3 y un 24 bits 44 Khz´s hay mucha diferencia, y es que generalmente lo que hago, sin querer es un A/B muy rápido, recién terminada la mezcla(todo esto non pro) convierto al mp3 y me suena el mp3 muy estéril y con mucha perdida de datos, comparado con la mezcla original, que como es non pro y hecha en unas malas condiciones de escucha, tampoco quiere decir que estuviera bien, yo creo que siempre están bastante mal. Porque con el oído descansado le saco muchos fallos tanto a la de 24/44 como a la versión mp3. eso si siempre el mp3 esta siempre peor, bueno lo que pasa es que le faltan datos. Pero me confunde el hecho de que el tema lo conozco y mi cerebro debería engañarme. no sé curioso?? bueno ya entiendo al hacerlo rápido no le doy tiempo al cerebro a que me engañe. Sin embargo al día siguiente el mp3 me sonaría mucho mejor
  • 1
  • 2