Grabación

¿Qué diferencia a la señal digital frente a la analógica?

A través de varias entregas queremos interesarnos por la A y por la D, lo analógico y lo digital, dentro del audio, sabiendo que estamos en 2017. Queremos plantearlo con seriedad, sin confrontaciones falsas propias del siglo pasado. La señal analógica y la señal digital se necesitan mutuamente. Finalmente nuestros oídos son analógicos, así que no podemos prescindir 100% de la ‘A’. Pero sólo con la ‘D’ podemos acomodar la complejidad exigida en cualquier entorno de producción actual. ¿Sigue habiendo alguna razón para el debate?

Mesa analógica

Lo analógico convertido en un efecto

Obviando la captación y reproducción de señal (los micros, altavoces y convertidores), la parte ‘A’ dentro de la cadena de producción se va reduciendo cada vez más a un mero rol de efecto. Diría que afortunadamente, si se me permite una opinión. Lo digital tiene una pulcritud y detalle que lleva a añorar a veces la personalidad o cualidad, que no la calidad, de lo analógico. Igual que usas el preset N de uno de tus plugins preferidos, si me gusta la calidez de cierto previo a válvulas, o de tal compresor analógico… lo aplicas y listo. Ya sea en la salida máster o en alguna pista por envío y retorno, pero como un efecto más que se suma a los otros que ya tenemos a través de muchísimos plugins. Pero todo el núcleo del sistema y de la actividad está intervenido digitalmente y residente en un DAW.

Eso sí, una cosa es representar la señal (de forma analógica o digital) y otra es tratar señal (con técnicas analógicas o digitales). Hablar de los sistemas digitales y los analógicos (evito a propósito el ‘frente a’ reemplazado por ese ‘y’ que habla de una inevitable convivencia) obliga a distinguir esas dos facetas:

  • La de la propia representación (diferente) de la señal en un formato analógico y en uno digital: cómo de fiel es hoy lo digital a un mundo de señales en origen analógico.
  • La de las formas de procesar (también diferentes) las señales en uno y otro dominio: qué tipo de diferencias subsisten en los procesos o efectos sobre las señales cuando se realizan con una u otra tecnología.

La representación analógica o digital de la señal

Centrándonos hoy en lo primero, lo que diferencia a la señal analógica y a la digital, son sólo tres cosas, aunque tienen su calado. Deberíamos hablar, con más rigor científico, de señal representada en forma continua y discreta, pero con analógico y digital nos entendemos mejor en nuestro ámbito.

  1. La señal digital ‘muestrea’, es decir, discretiza el tiempo. Registra sólo unos instantes concretos de la señal original, su valor fs veces por segundo (con fs la frecuencia de muestreo, ya sea 44.1, 48, 88.2, 96, 192, … kHz)
  2. La señal digital codifica esos valores con una precisión finita, es decir, discretiza esos valores instantáneos y los representa con una determinada precisión (16, 24… bits)
  3. De forma imprescindible para que la representación digital pueda ser fiel y ‘sin pérdidas’ respecto a la analógica, se exige que el contenido esté limitado en banda, no siendo capaz el mundo digital de representar adecuadamente componentes que vayan más allá de la mitad de la frecuencia de muestreo (criterio de Nyquist). Cuando no se cumple esta cuestión aparece el fenómeno del aliasing.

Vaya por delante: es probablemente hoy el aliasing la última frontera que le queda por sobrepasar al mundo digital, aunque más en la faceta del procesamiento que en la de la mera representación de la señal en formato A o D.

Respecto a la discretización del tiempo

Ya hablaremos del aliasing luego, pero pensemos por ahora que el teorema de Nyquist nos da la tranquilidad de que la discretización del tiempo no es dañina, no pierde información, permite recuperar con total fidelidad la señal original, con el único requisito de que tenga esa limitación en banda que decíamos en el punto 3 anterior. Peeeero, el teorema presupone que la captura de esos valores se hace con un reloj perfecto. Es decir, esa discretización del tiempo debe ser con una buena referencia de tiempo, con una generosa precisión en cuanto al instante de captura de las muestras individuales.

A este respecto, sinceramente, sin necesidad de irse a relojes de precisión atómica para definir los instantes de muestreo, casi cualquier sistema de conversión de hoy cuenta con una calidad de reloj de muestreo y una ausencia de jitter dignísimos, que no pueden considerarse causas de una merma que impacte en los resultados. Si es importante, en un sistema de muchos canales, garantizar la ‘sincronía’ y por tanto tener un reloj maestro compartido y aplicado por todos los conversores, pero más allá de esa cuestión, la discretización del tiempo funciona.

No veo aquí una causa relevante de posible debate A vs D.

Respecto a la discretización de los valores

Nuevamente, el teorema de Nyquist presupone que los valores son exactos, 100% fieles a la señal de origen. Pero la codificación en un número finito de bits más el nivel de ruido que pueda tener el conversor, etc. hacen que los niveles no sean de precisión y exactitud infinitas. Pueden tener pequeñas correcciones debidas al uso de esa ‘escalera’ de valores implícita a la codificación en palabras formadas por un número determinado de bits.

Con los sistemas actuales de conversión a 24 bits la precisión teórica de esas muestras está más allá de lo necesario. Puede ser más interesante revisar las figuras de ruido de los interfaces, que en muchos casos quedan por debajo de la promesa de esos 24 bits. 24bits corresponden a unos 144dB de margen que no encontraremos en prácticamente ningún conversor, al ser más limitante la propia calidad analógica y el ruido de fondo. En todo caso estamos ya en niveles en los que la codificación en bits pasa a ser un efecto menor y secundario respecto a la calidad que entrega la parte analógica de esos interfaces.

Incluso teniendo en cuenta que el uso de esos 24 bits va a ser generalmente dejando un amplio márgen de holgura para evitar que los picos de la señal se recorten, de forma que no estemos intentando aprovechar el fondo de escala sino que nos quedemos tan tranquilos 12 o 18 dBs por debajo, y por tanto 'limitados' a una resolución eficaz de 22 o 21 bits, que sigue siendo superior a los 125dB y por lo tanto todavía por encima de los estándares de calidad que vamos a encontrar en las partes analógicas.

En definitiva, de nuevo no veo aquí una causa relevante de posible debate A vs D en cuanto a la representación de la señal.

Nos queda la cuestión de la limitación en banda / aliasing

Lo decíamos antes. El teorema de Nyquist nos da la tranquilidad de que la discretización del tiempo no es dañina y permite recuperar con total fidelidad la señal original, con el único requisito de que tenga esté limitada en banda y carezca de cualquier componente por encima de fs/2 (la mitad de la frecuencia de muestreo). Cuando no se cumple esta cuestión aparece el fenómeno del aliasing.

Es por ello que en los sistemas A/D aparece una etapa de filtrado ‘antialias’ previo a la conversión, que busca retirar lo que pudiera contener la señal en frecuencias demasiado altas. En el momento de la conversión D/A aparece de nuevo otro filtrado ‘de reconstrucción’ que actúa a modo de interpolador para ‘rellenar’ el hueco que media entre cada dos muestras y recuperar la señal continua. El diseño de ambos filtros pasa a ser una parte crítica para poder garantizar que el aliasing no ocurra en el registro y posterior reproducción de la señal.

Las frecuencias de muestreo de 44,1 y 48 kHz, que familiarmente podríamos llamar como ‘x1’, son sólo ligeramente más amplias que el doble de los famosos 20kHz que supuestamente reconoce el oído humano. Eso pone en condiciones algo difíciles el diseño de los filtros. Por ejemplo en el caso de 44,1 sólo disponemos de 2kHz desde los 20kHz hasta fs/2 y eso es una estrecha franja en la que hay que concentrar una amplia caída en dBs para que las componentes superiores no estén presentes en el momento de la conversión. Filtros tan abruptos son complicados de diseñar y tienen sus propios artefactos y problemas, normalmente en forma de algún rizado en la respuesta en frecuencia y diferencias de pendiente en la respuesta en fase (diferencias de retardo de grupo, y por tanto creación de una cierta 'dispersión temporal' de la señal).

Es por aquí por donde sí podemos encontrar todavía algún compromiso de diseño en los sistemas que impacte al final en los resultados.

Pero, vaya, pocas veces las señales musicales van a tener tanta energía tan cerca de fs/s como para que podamos localizar restos apreciables de aliasing con los interfaces actuales y sus filtros incluidos, en una mera cadena ‘grabación->reproducción’. Y respecto al filtrado, tampoco es grave que, para ser más suave, se inicie un poco antes de los 20kHz. Una respuesta en frecuencia bastante más recortada tienen muchos de los sistemas de grabación analógicos. Para colmo de bienes, si damos el salto a 96 o 192 kHz nos concedemos una mejora sustancial a ese respecto, tanto por alejar la aparición del alias como por permitir un filtrado no tan abrupto.

Por cierto (y esto parece otra opinión pero es algo más que eso) yo soy de los que favorecen en el uso de esas frecuencias altas de muestreo mantener los filtros antialias y de reconstrucción con cortes cercanos a los 20kHz y únicamente aprovechar la crecida fs para reducir la pendiente de los filtros y acomodar una caída más progresiva, así como para disponer de un muestreo más denso. No tengo ningún interés en registrar lo que pulule más allá de los 20kHz, pero sigo viendo beneficios en registrar a 96 o 192 una señal que de origen (o por filtrado) está recortada aprox. en los 20. Beneficios que no surgen en la mera grabación->reproducción, pero sí en el procesamiento, de lo que hablaré otro día.

En definitiva, por lo que vengo diciendo, y máxime si damos el salto a alguna velocidad superior, tampoco veo que el aliasing pueda ser un criterio para debatir entre D y A, cuando hablamos de el uso de lo digital sólo para registrar y reproducir.

Continuará

Parecería pues que la representación digital de las señales audio no ofrece a día de hoy problemas relevantes, una vez garantizado un mínimo de calidad que hoy es bien fácil de encontrar. Cosa diferente es cuando hablemos en relación al procesamiento, cuestión a la que pretendo dedicar artículos posteriores, en algún caso con ejemplos que quizá dejen a alguno pensativo. De hecho este artículo de hoy sólo quiere abonar el terreno para los que vendrán.

No es que no haya diferencias entre unos y otros sistemas de conversión. Por supuesto que las hay. Pero en el presupuesto que cada cual manejamos, no creo que la conversión A/D o D/A nos esté impactando más que lo que ya nos impacta la tecnología analógica que podemos adquirir. En el rango de calidad y producto que maneja cada estudio (sea home o pro) el cuello de botella de la calidad no es la digitalización de la señal. Por supuesto que grabar con la entrada de audio de tu portátil no es lo recomendable, pero si ese es tu nivel de equipamiento posiblemente tienes cuellos de botella en cuanto a calidad bastante más severos vinculados a la parte analógica y acústica (micros, previos, condiciones de grabación y escucha...).

En el otro extremo, si cuentas con unos excelentes sistemas de microfonía, previos de altísima calidad, entorno acústico bien tratado, etc. no creo que hayas sido tan cutre después de tanto gasto como para no invertir en sistemas de conversión a la altura. Si ves las especificaciones de la parte analógica y de la parte digital, raro será que no cuentes ya (usando bien los 24 bits y si acaso subiendo a una fs x2 o x4) con una representación digital que te garantice una calidad técnica por encima de la que tu costoso equipamiento analógico puede entregar.

Pero dicho eso, si hoy os parezco un 'vendido' a lo digital, esperad a que venga la segunda entrega porque en ella no podré ser tan benigno. Hablando de procesamiento en digital es cuando realmente asoman las diferencias, aunque las culpas serán más nuestras que de la tecnología digital en sí.

Información sobre cursos presenciales por pablofcid en cicloquintas.es

Pablo Fernández-Cid
EL AUTOR

Pablo no puede callar cuando se habla de tecnologías audio/música. Doctor en teleco. Ha creado diversos dispositivos hard y soft y realizado programaciones para músicos y audiovisuales. Toca ocasionalmente en grupo por Madrid (teclados, claro).

¿Te gustó este artículo?
18
Comentarios
  • 1
  • 2
  • #1 por El_Ingeniero el 16/06/2017
    Me encanta ver que siempre hay alguien dispuesto a deslumbrar a los demas ;)


    1
  • #2 por BlahBlah el 16/06/2017
    El problema de siempre en esta eterna discusión es que el significado de la expresión "sonar bien" cambia sustancialmente en función de la perspectiva: técnica o musical.
    1
  • #3 por casquinha el 16/06/2017
    Bravo. Bravisimo. Espectacular. Brillante. Histórico.

    Hasta yo lo he entendido, hasta el punto de que creo que podría explicarselo a cualquier otro tan tonto como yo. Lo mejor que he leído en muuuuuuucho tiempo.

    Esperando con ansias la segunda entrega. Gracias.
    1
  • --625251--
    #4 por --625251-- el 16/06/2017
    soy dueño de sintes analogicos como el model-D, Ms20 mini y korg arp odyssey, pero mi instrumento favorito es sin duda, novation x-station 61, todo lo que suena desde este teclado sintetizador VA, suena a 24 bits 48000 khz´s, cosa que mi ms20 mini o model-D no podria conseguir esa calidad y claridad para sonidos exigentes complejos del trance o ambient... pero con x-station si, por que uso muchas emulaciones a esa resolucion, como el korg monopoly o el cs80, fm8 y sonidos complejos solo con digital puedo lograr, con analogico en mi caso seria mas caro e incomodo para lograr los mismos resultados y se me queda lejos por falta de espacio, los analogocos para mi son para sonido mas clasico y experimental, pero tambien los tengo para procesar digitales vsti desde la x-station con el filtro analogico de los sintes que tengo.

    buena informacion de pablo cid el cual estoy de acuerdo al 100%, genial vision para saber valorar mas lo que tenemos, gracias y un saludo.
  • #5 por Danbeg el 16/06/2017
    Gracias Pablo, excelente artículo como siempre. De ahora en adelante remitiremos a los que pregunten sobre el tema a este artículo para evitar más debates inútiles.
  • #6 por Last_Monkey el 16/06/2017
    Increible Pablo, genial artículo, espero ansioso el siguiente.
    Muchas gracias.
  • #7 por pablofcid el 16/06/2017
    Ojito que falta la segunda parte y ahí las cosas no van a ser tan positivas. Alguna sorpresita habrá.
    2
  • #8 por TpuntoGarcía el 16/06/2017
    Jajaja. como siempre interesante...

    Gracias Pablo, a ver esa segunda entrega.
  • #9 por Carlos Castillo Alatorre el 17/06/2017
    Claro y preciso, felicidades!! Me inclino a favor de evitar debates innecesarios, lo que suena debe sonar adecuadamente y acorde a su fin como producto... en este sentido, todos queremos un Lamborghini, pero necesitamos un sedán para movernos a diario... simple.
  • #10 por jaqjen el 18/06/2017
    Gran artículo, esperando el siguiente!!!

    Al leerlo me surge un interrogante....como "la representación digital de las señales audio no ofrece a día de hoy problemas relevantes", no debería haber mucho problema en hacer diversas conversiones...o dicho de otro modo, cuantas conversiones podría soportar una señal antes de que se dañe de algún modo perceptible o relevante? Claro que dependerá del equipo, pero habría alguna forma de medir o comprobar los efectos de diversas conversiones?
  • #11 por El_Ingeniero el 18/06/2017
    #10

    Haz la prueba tu mismo... haz n copias del mismo archivo y convierte cada una x veces. Luego compara cada conversión con el original invertido de fase para ver como aumentan las diferencias con cada versión más procesada que la anterior.

    También se podría ver cada muestra en un analizador para comprobar si hay más o menos distorsión, aliasing u otros efectos adversos.
  • #12 por rokko101 el 18/06/2017
    Esgrimir la comodidad, la limpieza o la pulcritud de lo digital como factores determinantes a la hora de evaluar su desempeño en cuanto a lo sonoro es casi una mera excusa de porque nunca llega a convencer.
    Lo analógico es la realidad. Es la representación en el mismo campo físico de fenómenos que logran englobar el concepto de infinito. Entre punto y punto de una onda acústica que se propaga en el aire hay infinitos puntos ... y siguen siendo infinitos mientras se mantienen en el ámbito de la electrónica analógica.
    Una vez que son traducidos al mundo digital que conocemos el concepto de infinito viene sustituido por una representación ficticia adaptada a un molde de valores limitados.
    Lo digital es el equivalente a la Matrix. Es un mundo frío y falso ... que trata desesperadamente de emular la realidad ... pero que obviamente jamás podrá lograr.
    2
  • #13 por Teserac el 18/06/2017
    Buen artículo. Objetivo y al grano. Cosa que a veces se echa de menos en otros artículos. Felicidades.
  • #14 por jaqjen el 18/06/2017
    #11

    Gracias voy a probar a lo de invertir la fase, entiendo que la señal que suene es la señal que pierdo.
  • #15 por Danbeg el 18/06/2017
    #12 un comentario esoterico. Si nos ponemos en plan metafísico podríamos concluir que que el sonido son partículas en movimiento y por lo tanto no es una onda infinita. Pero claro, la realidad es la realidad: la mayoría no distingue un mp3 de un wav. Y nadie distingue una grabacion a 48000 hz de una a 96000. Creo que Pablo ha sido claro y científico en su exposición y ha dicho lo que influye y donde influye.
    2
  • #16 por pablofcid el 19/06/2017
    En la codificación de la señal acústica hacia el cerebro, nuestro sistema auditivo emplea una codificación 'binaria' masivamente paralela para representar su análisis de la señal hacia el cerebro. De manera muy resumida, el nivel de la señal en cada grupo de cilios de la coclea (en caba banda de frecuencias) se codifica en la velocidad media de activaciones de unos grupos de nervios que son de tipo 'sí/no'. Es lo que hay, algo así, tan poco 'analógico', en nuestro sistema auditivo.
    Cierto que no es un sistema discreto, en el sentido de lo que llamamos audio digital . Pero claramente no tenemos oídos 'analógicos', mal que pese a muchos.


    La señal analógica captada por un micro no deja de ser 'otra' representación, no es la realidad de lo que existe en el aire. Es una señal eléctrica sólo parecida a lo que existe en el aire. Nuestro propio sistema auditivo crea esa 'otra' representación de la que hablaba, que además tiene diferencias enormes de una a otra persona.

    No creo que podamos descalificar lo digital frente a lo analógico por considerarlo una 'representación' de la realidad. Ambas señales son representaciones en un dominio diferente al acústico original. Cada una con sus características. Ruido y distorsión en lo analógico electrónico (ruido y distorsión además crecientes con la complejidad del sistema, haciendo imposible un sistema analógico ampliamente complejo), frente a principalmente el problema del alias en la representación digital.
    Defiendo es que el alias, en cuanto a la representación de la señal (su grabación e inmediata reproducción, sin mediar procesamiento) hoy no es tampoco un problema.

    Hace años en las etapas de A/D y D/A podíamos encontrar abundantes motivos para ser algo más críticos, pero ha llovido mucho y no cabe, razonablemente, mucha queja a día de hoy, para nuestra fortuna.

    Cosa distinta (que vendrá en la segunda parte) es qué pasa cuando procesamos señal en analógico y en digital. Ahí sí entenderemos que hay determinadas diferencias.

    Como representación 'fiel' no creo que nadie ponga en duda el valor superior de lo digital. Y si lo digital es fiel, el 'color' analógico puede capturarse y retenerse en la fidelidad de la representación digital. Lo clásico de colorear con un previo o un compresor analógico cuyo determinado color nos convence, para registrar su resultado en digital. Por eso decía lo de lo analógico convertido hoy en mero efecto. Y poco a poco lo iremos también sustituyendo, como ya pasa, por efectos realizados en digital que lo emulen.

    Si el color de algo analógico nos atrae y no lo tenemos equivalente en digital (o reconstruirlo en digital nos resulta trabajoso), se aplica ese color en analógico, pero al final lo registramos en digital. ¿Cuántos sistemas de grabación en cinta analógica permanecen en uso y con algún objetivo que no sea el del puro 'reclamo' y un cierto esnobismo/fetichismo?
    Incluso, en algunos casos, podremos tener toda la mezcla en analógico con una macro mesa gigante de 100 canales (para que ese procesamiento tenga el color de lo analógico en el channel strip de cada pista) pero el registro va a ser en digital. Y en esta entrega de hoy, hablábamos del puro registro. Ni siquiera de la mezcla.

    Insisto: la continuación, centrada en el tratamiento y no en el registro, será mucho más reconfortante para quienes queréis poder siguiendo defender que hay cosas que lo analógico hace mejor que lo que hoy nos ofrencen comercialmente en digital, pero también habrá que ver si somos justos en esa comparativa, considerando cuánto estamos dispuestos a gastar en analógico y cuánto en digital.
    También habría que poner en la balanza otras cosas (y se ponen en las decisiones de compra de algunos grandes estudios) relacionadas con aspectos más 'de gestión': el mantenimiento de los sistemas digitales (versiones, incompatibilidades sobrevenidas entre piezas de los puzzles que ligan sistema operativo, aplicaciones, plungins, etc.) es uno de ellos, y la familiaridad otro (cualquier técnico medianamente breado puede entender en poco tiempo el flujo de una mesa analógica grande porque hay un botón para cada cosa, pero en digital hay que conocer el manejo específico de cada sistema, porque las opciones son tantas que no hay botones dedicados para todo).

    Lo que intento es pensar en alto sobre dónde realmente están las diferencias que pueden aún subsistir, en un proceso de evolución en el que muchas de las antiguas críticas han encontrado respuesta y no pueden mantenerse.
    7
  • #17 por RBPmusic el 19/06/2017
    Fantástico artículo y genial contestación a anacrónicos y fetichistas cargados de divinidad analógica. Espero impaciente el siguiente.
    2
  • #18 por jBetances el 19/06/2017
    #12

    Esgrimir argumentos misticos como los tuyos en pleno siglo XXI son la razon por la que hay tanto creyente de historietas, como el chupacabras, la virgen maria que llora sangre o la homeopatia.

    "Entre punto y punto de una onda acústica que se propaga en el aire hay infinitos puntos"

    Ciertamente: Entre punto y punto hay infinitos puntos. Pero resulta que el ancho de banda que podemos escuchar con nuestros oidos NO ES infinito.

    "y siguen siendo infinitos mientras se mantienen en el ámbito de la electrónica analógica."

    En serio? Entonces me diras que el vinilo, o un compresor analogico, o un amplificador tiene ancho de banda infinito?

    Por otro lado, acaso crees que lo que escuchas en el aire son variaciones de voltajes? A ver si te enteras que las señales de audio que pasan a traves de la electronica analogica son representaciones electricas de fenómenos acústicos.

    "Lo digital es el equivalente a la Matrix. Es un mundo frío y falso ... que trata desesperadamente de emular la realidad ... pero que obviamente jamás podrá lograr."

    Creeme chico, si que podra. De hecho, PUEDE, Y LO HACE.

    Y por lo que parece, lo hara para siempre, al menos claro, que podamos alterar la genetica humana para poder escuchar musica a frecuencias tan desmesuradas como los rayos X... aunque de seguro para ese entonces, ya la electronica digital muestreara a esa frecuencia, sin aliasing. :wink:
    4
  • #19 por makues el 19/06/2017
    Pedazo articulo :shock: y como decia un compañero mas arriba, lo he podido entender bien hasta despues de pensar en berde. Enorme! Eres un artista, eskerrik asko, muchas gracias!

    El eterno debate... Bueno... Esta bien,sigan pues.,:comer:
  • #20 por BlahBlah el 20/06/2017
    #18

    ¿escuchar "frecuencias tan altas como los rayos X?

    No, créeme. Si los rayos X tuviesen una frecuencia de 500 Hz tampoco los escucharías ;)
  • #21 por jBetances el 20/06/2017
    #20

    Por eso dije "frecuencias", y no "ondas", o "señales". :desdentado:
  • #22 por Victor_rotciV el 20/06/2017
    Buen artículo.

    Al final nuestra percepcion del sonido funciona de manera discreta.
    No obstante, nuestro entorno se manifiesta de manera contínua.
    Por eso nuestra experiencia es siempre distinta, única y personal.

    Espero el seguiente artículo, a ver si puedo optimizar mi sistema.
  • #23 por pablofcid el 20/06/2017
    #22
    Ojo; ya he comentado que no es discreta nuestra representación interna del sonido. Piensa más bien en que se trata de un montón de hilos de tipo sí/no para cada banda, y en cada hilo lo que importa es cuántas veces se produce la 'activación' durante un determinado tiempo. Al final es una representación capaz de albergar algo contínuo, aunque se en forma de múltiples 1s y 0s venga a cambiar. Es una representación 'borrosa' o 'probabilística' respecto a lo que es la señal que ha llegado al oído. La densidad de cambios de estado en ese mazo de hilos es lo que permite identificar si hay más o menos actividad en las frecuencias que atiendo una cierta sección de la cóclea.
    Todo dicho de forma muy aproximada y para entendernos, porque hay muchos detalles más.
  • #24 por Carmelo Peciña el 22/06/2017
    Buen artículo, bien explicado, aunque la mayoría conozcamos bien el detalle y el fondo.
    Espero sobre todo lo referente a lo analógico como construcción política, medio popular; medio inducida, como paradigma del gusto, como efecto a añadir.

    En cuanto al solapamiento digital, creo que el autor está siendo muy benigno, o no se lo ha encontrado cara a cara (con mal gesto), ,lo suficiente.
    También de acuerdo en lo referente a la precisión de los relojes sin necesidad de contador geiger a estas alturas
  • #25 por pablofcid el 22/06/2017
    #24
    Qué gusto, por fin alguien que manifiesta algún tipo de desacuerdo. ;-)

    El aliasing me lo estoy encontrando demasiadas veces. Muchas de ellas injustificables para mi gusto. No entiendo, aunque sea acudir a otro ámbito que no es el de la grabación/mezcla, que tantísimos sintes que se comercializan como recreación en digital del mundo analógico estén tan plagaditos de alisaing, ya incluso en los osciladores, sin añadir nada más.

    El ser benigno con el alising en este artículo se basa (igual no quedó suficientemente marcado) en el hecho de que está sólo enfocado a la conversión A/D y D/A, al puro registro, y a que podemos usar velocidades de 96 o 192 kHz para registrar una señal filtrada a 20kHz, ganando más espacio para acomodar la caída los filtros y ganando más lejanía del 'codo' en torno al cual se produce la 'reflexión' de las frecuencias altas que sucede con el aliasing.
    En esas condiciones le pegamos una buena bajada a su presencia.Y sobre todo en esas condiciones mejoradas actuales en la parte A/D y D/A el foco de atención respecto al aliasing se está desplazando. Deja de estar en los conversores y pasa a estar en los tratamientos/efectos (que es lo que viene en la próxima entrega).

    Contando con que hemos pasado a procesar masivamente en el terreno digital, incluso cuestiones no lineales, la cantidad de alias que nos puede llegar a introducir el procesado pasa a ser el nuevo 'foco' de atención respecto al alias, porque su impacto supera con mucho al de la mera conversión. Y para colmo veremos que alias hay incluso procesando con un mero filtro digital (supuestamente lineal y en el que muchos no esperan que aparezca).
    De tal forma que, el alias que introduce la conversión (pequeño, especialmente en frecuencias de muestreo que no sean x1) lo estamos acompañando a veces demasiado despreocupadamente o demasiado confiados, con un montón de nuevos generadores de aliasing (los procesamientos que realizamos) que acaban siendo dominantes en el resultado.
    El objetivo de los dos artículos será precisamente ese, el de llevarnos a la necesidad de realizar un buen balance entre la calidad de nuestros conversores y la calidad de nuestros procesos en digital. La necesidad de ser más críticos con los procesos digitales y dedicar algo de interés a las opciones que tenemos para que funcionen mejor. La conveniencia de seleccionar (ahora todos tenemos un montón de efectos, entre los nativos del DAW más los añadidos vía plugin) qué efectos son menos 'corruptores' de nuestras señales.
    Eso es más o menos lo que vendrá en la segunda parte, no sé si este viernes o ya el lunes o martes (según cómo se me dé).
  • 1
  • 2