Informática musical

La historia de Auto-Tune: de la geofísica a la música cibernética

Auto-Tune 8

Con la informática musical siempre sucede que los inventos más populares, que en muchos casos dan lugar a géneros, tendencias y nuevas formas de arte, tienen su raíz en profundos hechos científicos e investigaciones que poco tienen que ver con aquello en lo que resultan; se da a menudo el caso de que el inventor no se imagina el uso que le darán a su herramienta.

En la historia de la producción musical, cada época ha tenido sus protagonistas, desde una flauta hasta el fonógrafo, pasando por la síntesis, pasando por el sampling, los sistemas operativos y los entornos modulares. Hoy sería difícil hablar de un protagonista y más bien podríamos ubicar varias tendencias y rutas, pero sin duda entre todas ellas, la corrección de pitch, o mejor, la modificación de pitch, específicamente en las voces humanas, tiene un espacio significativo.

Comenzó como un inocente algoritmo de corrección para convertirse en una paradigmática herramienta de robotización de lo humano, de digitalización de la voz al punto de poderla acomodar a cualquier situación, escala, gesto. Más que simplemente usar al extremo este efecto o de servir para ocultar a quienes no saben cantar, las voces de hoy se caracterizan por utilizarlo de formas siempre nuevas, creando un sonido típico de nuestra época, hijo de una cultura cibernética, resultado de una búsqueda de la afinación que terminó siendo entrada a nuevas rutas del timbre.

Todo este proceso de exploración sonora se inaugura con Auto-Tune, el primer software popular para el control automático de pitch, un invento sin duda tan controversial como estimulante para la industria musical. Controversia porque ha desatado todo tipo de críticas, sobre quién realmente canta, cuando realmente se hace música o no; incluso fue catalogado por la revista Time como uno de los 50 peores inventos del siglo 20 –al lado de los crocs, los pop-up ads, el betamax y el spa de mascotas. Es particularmente diciente lo que observa David Toop al respecto, quien expresa su inconformidad con el efecto pero invita a su aceptación actual:

"La música a todo volumen en los autos es menos común de lo que solía ser en Londres. Hace unos días, escuché una canción pop-R&B que salía de un auto estacionado con la puerta abierta. Como suele ocurrir con el pop contemporáneo o la música dance, las voces habían sido corregidas digitalmente con auto-tune. Ese sonido tiene algo molesto, es difícil decir exactamente qué es, pero define el espíritu de nuestro tiempo, en el que mucha gente vive en un espacio inédito que está a medio camino entre la vida física y la red digital, a la que pueden acceder a través de sus teléfonos, tablets y computadoras. El auto-tune, mitad androide y mitad humano, nos habla de ese estado de suspensión. Nos guste o no, es uno de los sonidos más importantes del siglo XXI."

Pero llegar a semejante extremo del juicio es también cierta falta de visión, porque en gran medida es una herramienta más, otro instrumento, que ha dado lugar también a grandes creaciones y momentos históricos para la música de nuestros días, volviéndose por ello un estímulo a la creación. Tal vez a estas alturas ya no estamos para consideraciones puristas sino más bien para aceptar y explorar los nuevos métodos creativos. Por tal motivo, más allá de si es un plugin utilizado para ocultar la falta de talento o por lo contrario es un efecto que permite nuevas posibilidades creativas, es claro que en general los sistemas de corrección de pitch, hoy abundantes en los DAW, generaron –y lo siguen haciendo– una notoria transformación musical, para algunos molesta, para otros llena de futuro.

Pero dejemos a un lado los juicios personales y ahondemos en este caso en lo que ya decíamos al principio: la ingeniería tras el efecto, la ciencia que dio origen a la herramienta, que en el caso del Auto-Tune tiene sus raíces en la geofísica y la investigación con petróleo, como cuenta su creador Andy Hildebrand en una conversación con priceonomics, donde narra que debido a su descubrimiento al analizar capas del suelo terrestre, logró dar con un método de transformación de la voz en la música. Evidente desde un punto de vista cosmológico, eso de que las cuerdas vocales y las placas tectónicas compartan la vibración. Pero quizás no tan evidente al principio para este alocado científico que debido a su imaginación, le ha tocado sortear todo tipo de cambios en su vida, desde reformular por completo su camino laboral hasta ser demandado por figuras importantes de la industria.

Andy Hildebrand
Andy Hildebrand (cortesía priceonomics)

La historia de Hildebrand es la de un típico obsesivo matemático, insaciable en conocimiento, ratón de biblioteca, para quien la escuela era insuficiente y el reto de ir más lejos siempre le atrajo. Terminó un PhD en ingeniería eléctrica en la universidad de Illinois en 1976 con una serie de desarrollos en aplicaciones de teoría de estimación lineal y procesamiento de señal, lo cual lo llevo a la petrolera Exxon, con quienes trabajó para salvarlos de una pérdida multimillonaria.

Si podía salvar una petrolera de la quiebra, entonces seguramente podía hacer algo mejor para sí mismo, pensaba. Pero esto no sucedería sino años después, ya que de su trabajo como ingeniero de software y hardware dedicados a mapear en 2D y 3D la superficie terrestre, sentía un gran vacío con sus creaciones y la ajetreada industria del petróleo. Su ambición entonces lo llevó más lejos: no solo superó sus expectativas en su campo, sino que lo condujo a otro sector, musical, sónico, creativo. Para ello primero tuvo que abandonar la industria petrolera para retornar a la escuela a estudiar composición, donde comenzó a trabajar con samplers, los cuales le darían el impulso para desarrollar sus propios algoritmos musicales.

Su argumento para ese entonces era que los instrumentos basados en sampling sonaban a basura y el problema era que las máquinas no podían sostener muchos datos. Su idea fue entonces la de un algoritmo que pudiese condensar datos al punto de permitir mejor sustain, mejor timbre, más diversidad en la reproducción de sonidos, resultando así un software llamado Infinity, cuya popularidad alcanzó picos inimaginables por su creador, quien decidió por allá en los comienzos de la década de los 90, comenzar su propia empresa musical: Antares Audio Technology.

Software Infinity

Auto-Tune no sería construido sino hasta 1996, gracias a una broma que alguna vez le hizo una asistente a una conferencia, quien ante la pregunta de Hildebrand de "¿qué hay por inventar?", le respondió: "un software que me haga cantar afinada". Meses después, la respuesta, en un principio ignorada, le dio al inventor su momento eureka, donde se dio cuenta que los mismos métodos de procesamiento utilizados en su sistema de análisis de suelo para la geofísica de petróleo, le servirá para construir una herramienta de corrección de pitch.

Hasta ese entonces los métodos de corrección de pitch de una voz eran bastante escuetos y limitados. Por ejemplo, cuenta Hildebrand que uno de sus productores amigos había sido contratado por $60.000 para corregir manualmente el pitch de las canciones de Cher, quien en poco tiempo se convertiría en la encargada de disparar el efecto Auto-Tune, con su sencillo 'Believe' publicado en 1998. Antes de ella ya se había utilizado el efecto pero únicamente de forma suplementaria, como herramienta adicional para sutilmente corregir asuntos de la voz. Pero en Cher, los productores Mark Taylor y Brian Rawling, decidieron hacer uso de variaciones intencionales de los parámetros para darle el hoy trillado sonido robótico del efecto Auto-Tune.

Tanto el Auto-Tune como la idea de los productores de Cher, se dispararon en ventas. "Todos querían tenerlo en sus manos", cuenta Hildebrand de cuando presentaba su algoritmo en ferias de mercadeo musical. Su éxito en la industria fue inmediato y no escatimó en géneros: "pop, country, western, reggae, Bollywood. Era usado incluso en llamados para rezar en el Islam", cuenta el inventor.

Auto-Tune se vendió solo. La mayoría de estudios, comenzando en Los Angeles y esparciéndose por innumerables rincones del planeta, lo fueron adoptando y cada vez la experimentación con el efecto fuera de lo sutil y hacia los extremos de transformación de la voz, fue logrando mejorías y gran popularidad, sobre todo en el momento en el que T-Pain, cantante que se encargó de culminar el proceso de masificación del software, en gran parte por sus producciones entre 2005 y 2009, donde logró un estilo personal en el manejo del Auto-Tune que lo llevaría de hecho a un contrato con Antares para publicitar el efecto y desarrollar una app llamada I Am T-Pain, en colaboración con Smule y orientada a generar fácilmente el efecto sobre cualquier voz.

I am T-Pain

T-Pain se sentiría luego utilizado por Antares como producto publicitario y se separaría para unirse a iZotope y crear el "T-Pain Effect", una especie de copia personalizada de Auto-Tune, netamente enfocada en generar el conocido efecto. Tras demandar a Antares, la empresa respondió con una contra-demanda y finalmente acodaron fuera de la corte.

Antares obviamente no dependía de T-Pain y fue por ello que su software continuó sin problemas, aunque con la dificultad de cada día nuevos competidores. Un detalle curioso es que T-Pain siempre ha usado el efecto por estrategia para sonar diferente al resto –solo posible por ese entonces– y no propiamente por desafinación. Basta escucharlo para darse cuenta.

La idea del Auto-Tune y en general los algoritmos de corrección de pitch se fueron aceptando con el tiempo, aunque es claro que generaron –y aún lo hacen– una serie de controversias, en un principio nacidas de mentalidades conservadoras que se preocupaban por el uso indiscriminado de Auto-Tune y lo peligroso de permitir que cualquier persona pudiese cantar afinada gracias al algoritmo en cuestión.

Patente Auto-Tune
Patente original de Auto-Tune (cortesía priceonomics / Antares)

Pero hoy por hoy la cuestión puede replantearse, cuando ya todos somos conscientes de que incluso gente fuera del mundo de la informática musical, reconoce el efecto y sabe cuando se está utilizando o no. Si bien hay usos sutiles del efecto, nunca el plugin hará al cantante, por más hits, más ventas o más oídos que tenga al frente. De hecho hoy la corrección extrema de pitch se ha vuelto un juego creativo y si uno se detiene a explorar lo que se hace con este efecto, se sorprende de la cantidad de usos que le dan. Tal vez al ciborg prematuro del siglo XX le costaba más la escucha del efecto y ahora, ya por cerrar la segunda década del segundo milenio, la escucha estará más dispuesta o al menos capaz de tolerar mejor la robótica tras tantas voces que hoy se oyen por ahí.

Decir que suena a lo mismo, que suena a robot, que suena a algo falso, es decir que la guitarra suena a guitarra y el piano a piano. Es un efecto para alterar la voz, moldearla, tratar su contenido armónico, explorar las cuerdas vocales en una dimensión cibernética donde más que afinar a alguien, lo transforma, lo fusiona con la máquina y le permite un nuevo sonido. Así la modificación de pitch se convierte en una especie de instrumento en sí mismo, propio de nuestra época, explorado de diversas formas, algunas exitosas, otras no tanto, pero a fin de cuentas todas juntas en el hecho de ser representación de una forma nueva de cantar.

"Si te vas a quejar por el Auto-Tune, entonces también quéjate de los altavoces. Y de los sintetizadores. Y de los estudios de grabación. Grabar la voz humana, en cualquier capacidad, no es natural", dice Hildebrand, y en gran parte tiene razón: Que el efecto está bastante trillado, que se escucha por doquier, que efectivamente permite "cantar" a quienes "no saben", es cierto. Pero eso no pone en peligro una gran voz, como un DAW no pone en peligro una gran canción. Son sólo herramientas y no es la que hace al escritor.

Miguel Isaza
EL AUTOR

Miguel es un investigador que relaciona la filosofía, el arte, el diseño y la tecnología del sonido. Vive en Medellín (Colombia) y es fundador de varios proyectos relacionados con lo sonoro, como Éter Lab, Sonic Field y Designing Sound.

¿Te gustó este artículo?
13
Comentarios

Regístrate o para poder comentar