Muestreo de una señal de voz en comparación con el de una señal musical de alta fidelidad La voz humana tiene un espectro que no sobrepasa los 4.000 Hz. Si atendemos al criterio de Nyquist, deberemos muestrearla con una frecuencia no inferior a los 8.000 Hz; en otras palabras, deberemos tomar un mínimo de ocho mil muestras cada segundo. Los sistemas telefónicos utilizan distintas reglas para cuantificar la voz digitalizada. Los más usados son la ley m (en Europa) y la ley A (en Japón y Estados Unidos). Para el nivel del curso no es trascendente conocer en qué se basan estas leyes, sólo es significativo saber que usan 8 bits para cuantificar las muestras. Si se toman ocho mil muestras por segundo y se usan 8 bits para cuantificar cada nivel de cada muestra, se obtiene que serán necesarios sesenta y cuatro mil bits por segundo para transmitir voz. No es coincidencia que los canales de telefonía digital (RDSI) sean de 64 Kbps. Se considera alta fidelidad los equipos de audio capaces de reproducir sonidos entre las frecuencias de 20 Hz y 20.000 Hz. Si se desea muestrear señales de 20.000 Hz y respetar el criterio de Nyquist, es necesario tomar un mínimo de cuarenta mil muestras por segundo. Si la tarjeta digitalizadora de sonido es de 16 bits, necesitará nada menos que 40.000 * 16 = 640.000 bits para almacenar un segundo de música. A mayor calidad necesitamos más recursos. Algo similar ocurre para almacenar fotografías o vídeo. Para evitar tal abuso de recursos aparecen los algoritmos de compresión que consiguen almacenar la misma información, pero reduciendo recursos (en realidad, en muchos algoritmos de compresión se pierde calidad, el objetivo es que esta pérdida de calidad no sea perceptible por el ojo/oído humano). |