Señales discretas identificando fenómenos físicos.
La vida que percibimos es analógica, vivimos en un continuus donde un efecto, una magnitud, es medible en instantes tan próximos, uno de otro, como la tecnología del sistema de medición nos permita. No obstante lo anterior existen teorías, como la defendida por el físico y matemático Achim Kempf donde se propone una superposición de estados continuo y discreto a escala de magnitudes de Plank (del orden de 10-34 lejos de los valores de tiempo por el que nos regimos pero perfectamente aplicables a nivel de las partículas fundamentales) donde la teoría de Relatividad y la mecánica cuántica tendrían un primer punto de encuentro, algo así como suponer que la vida misma es la suma de infinidad de estados consecutivos discretos que forman un todo estroboscópico como una sucesión de fotogramas mostradas a gran velocidad forman una película en un falso (pero creíble) movimiento continuo. Esto permite introducir el problema de dar traslado de una función continua a otra equivalente en valores discretos.
La matemática ha salido, una vez más, en ayuda del ser humano para que el proceso pueda realizarse sin pérdida de información y esto es un logro extraordinario. Si nos fijamos en una señal de onda acústica, continua en el eje de tiempo, podríamos tomar valores aislados de ella (discretos) para modelizar una nueva onda que pasara por esos mismos puntos de forma que el resultado visible fuera muy próximo dando la sensación de que se trata de la misma señal pero, con una gran ventaja como es, que cada dato extraído lleva asociada una información que hay que almacenar y hemos pasado de tener infinitos datos de una función continua a sólo un puñado de ellos que nos permiten tener una reproducción fiel del original ocupando menos “espacio de almacenamiento”.
Aquí, surge la necesidad de determinar el número de muestras que habrá que tomar cada segundo para asegurar que la onda sea replicable con exactitud y reversible en sentido tanto analógico/digital como digital/analógico, lo que se denomina hallar la frecuencia de muestreo.
Para ayudarnos en esto contamos con el teorema de Whittaker-Nyquist-Kotelnikov-Shannon que por diversos motivos aglutina a 4 personajes que desde la primera conjetura en 1928 hasta la demostración 2 décadas más tarde intervinieron en su desarrollo. En él se recoge que para poder replicar con total reversibilidad, desde un punto de vista matemático, la forma de una onda, es necesario que la frecuencia de muestreo sea superior al doble de la máxima frecuencia a muestrear.
Esto lo podemos comprobar acudiendo a los formatos de audio. En un CD de audio estándar la frecuencia de muestreo es de 44.1 kHz y esto es debido a que el rango de frecuencias audibles para un humano se encuentra entre los 20 Hz y los 20 kHz. El motivo de la holgura dejada en el rango de 100 Hz no es debido a inexactitud matemática del teorema sino, antes bien, a la imposibilidad de construirse filtros analógicos ideales que reconstruyan la onda sin pérdidas. Como vemos, se diseña este sistema para que cumpla que la tasa de muestreo es superior al doble de la frecuencia máxima alcanzada en la onda despreciando aquellas frecuencias que salgan del rango de audición pero, en realidad, el convertido A/D no las desprecia sino que da lugar a un fenómeno conocido como “aliasing” donde una frecuencia mayor que la mitad de la tasa de muestreo puede provocar una suerte de plegado que obligue a ser considerada con una frecuencia menor que la que tiene provocando que, al revertir la onda, se cambie la forma de la señal original perdiéndose para siempre. Para evitar este efecto se hace pasar la señal analógica en el dominio de tiempo a través de un filtro pasa bajo cuya frecuencia de corte coincidirá con la de Nyquist a nivel teórico (en realidad con aproximadamente el 80% de ese valor por cuestiones de los parámetros de fabricación). Si el muestreo se realiza sobre la señal filtrada aplicando la transformada discreta de Fourier, el espectro en frecuencia carecerá de aliasing siendo una imagen exacta de la frecuencia de la señal original y se perderán las frecuencias superiores a la de Nyquist por efecto del filtrado.
Por otro lado, tenemos que poder medir el nivel de la señal y esto lo conseguimos asignándole una porción del rango total que nos permita la codificación binaria en función del número de entradas que tengamos. Si, por ejemplo, tenemos una profundidad de 3 bits significa que tenemos un número binario con 3 cifras cada una de las cuales puede adoptar valores 0 y 1, arrojando 2n combinaciones, es decir, 8 posibles combinaciones luego el nivel de la señal se corresponderá con uno de los 8 tramos asignándole un valor único (000, 001, 010, 011, 100,101, 110 y 111). En un sistema normal se emplearán 12 ó 24 bits creándose 212 y 224 niveles posibles de resolución respectivamente. Con cada bit adicional se duplica el número de niveles posibles. Cuanto mayor resulta este valor, más niveles distanciarán la onda captada del ruido de fondo en lo que viene a llamarse el rango dinámico (relación entre señal y ruido). Si éste se incrementa se reducirá el error de cuantificación en el sistema a la entrada del codificador.
Recientemente nuevos formatos de audio como el Súper Audio CD han aparecido en el mercado exhibiendo unas enormes tasas de muestreo en comparación con los sistemas anteriores usando sistemas de codificación DSD (Direct Stream Digital). Sin embargo no parece que el aumento en las muestras se justifique desde el punto de vista de la percepción auditiva pues, por aplicación del teorema que venimos tratando, cualquier muestra tomada por encima de la doble frecuencia máxima de señal no mejora el perfil de ésta. Este sistema no es comparable con la conversión estándar debido a la tecnología empleada pues se trata de cuantificación en 1 bit combinando técnicas de modelado de ruido (modulación PDM, Pulse Density Modulation) y no ser constante el rango dinámico respecto de la frecuencia, trabajando en órdenes admisibles de hasta 100 kHZ (poco útil de cara al usuario por estar muy por encima del rango audible). Hasta el momento no se conoce un estudio riguroso que justifique las ventajas de este tipo de sistemas de cara al usuario aunque sí de cara a la industria del audio digital pues admite el registro de más de dos canales que permitirán avanzar poderosamente en la protección contra la piratería por medio de los sistemas PSP (Pit Signal Processing) que graba 2 marcas de agua, una invisible que se graba en la cadena de datos y otra visible sobre la superficie del disco que impide determinar el tamaño exacto de la pista a leer siendo imposible su copia, al menos, por el momento. Eso sí, los equipos reproductores de estos nuevos formatos admiten leer formatos anteriores pero los dispositivos de uso doméstico que todos empleamos no son compatibles con los nuevos formatos lo que obligará a cambiar todos los dispositivos de audio donde queramos reproducir los nuevos sistemas de grabación, ¡ojo!, sin que a fecha actual, se haya demostrado que se perciba una mejora en la experiencia acústica del usuario.
Autor: Javier Luque @fdetsocial
Co-fundador del blog divulgativo de FdeT
Biliografía consultada.
-Procesado Digital de Señales. Eduard Bertran Albertí, Upc Edicions
– Tratamiento digital de señales. Emilio Soria Olivas
– Tratamiento digital de la señal: Una introducción experimental. José B. Mariño y otros autores
-Sistemas de telecomunicación. Constantino Pérez Vega y otros autores