Hola gente!.
Hace unos meses estuve experimentando un poco con visualización de audio en Blender. Blender es un soft de producción 3D multiplataforma y completamente gratuito con una bonita comunidad de usuarios detrás, típicamente freelancers del rollo 3D. Dí con un plugin llamado Audvis que permite modificar gráficos (básicamente cualquier parámetro de un modelo 3D) a partir de sonido en tiempo real.
El otro día se me ocurrió que podía proyectar los gráficos en el estudio para dar más interés a los vídeos y bueno, básicamente flipamiento personal. Por 70 euretes me pillé un miniproyector en Amazon que no está mal. De sobra para estos experimentos!.
Esto en principio sólo eran pruebas, pero no me sonaba mal del todo y con un poco de truquito de montaje (la parte coloreada, hacia la mitad del vídeo, es de otra jam jugueteando con los mismos patrones) igual tiene algo de sentido y todo.
Un Launchpad Pro MK3 está secuenciando un Bass Station 2 (dos pistas, una para los drums y otra para la mini-frase melódica) pasado por un delay analógico Artek, un Microsampler cargado con unas pocas muestras tomadas del mismo BS2, y un Korg NTS-1. Los efectos del Microsampler (delay con modulación) y NTS-1 (reverb) son de las mismas máquinas.
Para el BS2 tenía tres patrones con la misma secuencia de cuatro notas, pero con aleatoriedad creciente aplicada a algunas notas. El NTS-1 con el arpegiador activo casi tdo el rato no varía apenas, y el uso del Microsampler ser reduce a cambiar de patrones de percusión y juguetear con el volumen a la hora de lanzar la frase melódica.
Si alguien tiene interés en el tema de Blender/Audvis y tiene alguna duda pues que me pregunte por privado. Cuando lo tenga más por la mano ya abriré algún hilo exponiendo el tema más en detalle.