2: Principios digitales básicos

2.1   Estándares. Es fundamental para la preservación del sonido que los formatos, resoluciones, soportes y sistemas tecnológicos escogidos se adhieran a estándares internacionalmente consensuados y adecuados a los fines del archivo. Los formatos, resoluciones o versiones no estandarizados pueden no hallarse entre los procedimientos de preservación futuros que garanticen el acceso a largo plazo y las subsecuentes migraciones de formato.

2.2 Frecuencia de muestreo. La frecuencia de muestreo determina el límite máximo en la respuesta frecuencial del sistema. La IASA recomienda una frecuencia de muestreo mínima de 48KHz para la producción de copias digitales a partir de cualquier material analógico. Sin embargo, la adopción de frecuencias más elevadas hoy en día disponibles (frecuencias de sobremuestreo) puede resultar ventajosa para muchos tipos de contenido. A pesar del hecho de que las frecuencias de sobremuestreo codifican el sonido más allá del dominio del oído humano, el efecto conjunto del sobremuestreo y la tecnología de conversión aporta una mejora cualitativa también dentro del margen del oído humano. Por otro lado, las inesperadas distorsiones o artefactos sonoros que puedan aparecer en la grabación forman parte a su vez del documento sonoro, sean producto inherente al proceso de fabricación de la grabación o consecuencia del desgaste, el uso incorrecto o el almacenamiento defectuoso. Ambas fuentes de información, sonido y artefactos sonoros, deben preservarse con la mayor precisión. Para ciertas señales y ciertos tipos de ruido, frecuencias de muestreo superiores a los 48KHz pueden ser beneficiosas. La IASA recomienda 96KHz, no como valor máximo sino únicamente como pauta. Para la mayoría de los materiales sonoros estas frecuencias de muestreo serán suficientes. En el caso de objetos originalmente digitales, la frecuencia de muestreo del sistema de almacenamiento debería coincidir con la del objeto digital.

2.3  Número de bits por muestra. El número de bits por muestra3 determina el margen dinámico o fondo de escala del audio codificado de un evento u objeto sonoro. El uso de 24 bits teóricamente codificará un margen dinámico aproximable al de los límites físicos del oído humano, aunque ciertas limitaciones técnicas reduzcan ligeramente su valor final. 16 bits, el estándar del CD, pueden ser inadecuados para captar la dinámica de muchos tipos de material, especialmente durante la codificación de transitorios de alto nivel que a menudo aparecen en las transferencias de discos dañados. La IASA recomienda al menos 24 bits de codificación por muestra de audio para capturar cualquier material analógico. En el caso de objetos de audio ya digitales de origen, el número de bits por muestra del sistema de almacenamiento deberá ser al menos igual al del ítem original. Es conveniente asegurar el máximo aprovechamiento del margen dinámico del sistema de grabación durante los procesos de transferencia de la señal de audio.
 
2.4 Conversores de analógico a digital (A/D)

2.4.1 El proceso de conversión del audio analógico a flujo de datos digitales (A/D) no debería colorear ni añadir al sonido ningún tipo de ruido. Los conversores son el componente más determinante en la cadena digital de la preservación. En la práctica, el conversor A/D incorporado en la tarjeta de sonido de un ordenador convencional no puede cumplir las especificaciones requeridas, teniendo en cuenta los circuitos electrónicos de bajo coste y el ruido eléctrico inherente a todo ordenador. La IASA recomienda el uso de conversores A/D discretos (independientes, no integrados) conectados a otros dispositivos, sea mediante interfaces dedicadas AES/EBU o S/PDIF, sea mediante interfaces de bus en serie como IEEE 1394 (FireWire) o USB, en cualquier caso capaces de convertir el audio analógico a digital según las especificaciones que se indican a continuación. Todas estas especificaciones deberán medirse en la salida digital del conversor (A/D) de acuerdo con los estándares Audio Engineering Society AES 17-1998 (r2004),4 IEC 61606-3 y otros estándares asociados allí donde se especifiquen.

2.4.1.1    Distorsión armónica total más ruido (THD+N)
Con una señal de referencia de 997Hz a -1dBFS, la distorsión armónica total más ruido (THD+N) del conversor A/D será menor de -105dB sin ponderar, -107dBA (ponderación A), limitada en banda de 20Hz a 20KHz.
Con una señal de referencia de 997Hz a -20dBFS, la distorsión armónica total más ruido (THD+N) del conversor A/D será menor de -95dB sin ponderar, -97dBA (ponderación A), limitada en banda de 20Hz a 20KHz.

2.4.1.2    Margen dinámico (Relación señal / ruido)
El conversor A/D deberá disponer de un margen dinámico no inferior a 115dB sin ponderar, 117dBA (medido como THD+N relativa a 0dBFS, limitado en banda a 20Hz a 20KHz, señal de referencia 99Hz a -60dBFS).

2.4.1.3    Respuesta frecuencial
Para una frecuencia de muestreo de 48KHz, la respuesta frecuencial medida deberá ser mejor que ± 0,1dB para la banda de 20Hz a 20KHz.
Para una frecuencia de muestreo de 96KHz, la respuesta frecuencial medida deberá ser mejor que ± 0,1dB para la banda de 20Hz a 20KHz y que ± 0,3dB para la banda de 20Hz a 40KHz.
Para una frecuencia de muestreo de 192KHz, la respuesta frecuencial medida deberá ser mejor que ± 0,1dB para la banda de 20Hz a 20KHz y que ± 0,3dB para la banda de 20Hz a 50KHz.
(Señal tomada de referencia 997Hz, amplitud -20dBFS).

2.4.1.4    Distorsión de intermodulación (IMD según SMPTE/DIN/AES 17)
La distorsión por intermodulación del conversor no deberá exceder los -90dB (utilizando las secuencias de tonos emparejados propuestas por AES 17/SMPTE/DIN, tonos combinados equivalentes a una onda senoidal única de máxima amplitud a escala completa).

2.4.1.5    Linealidad de amplitud
El convertidor A/D deberá mostrar una linealidad en la ganancia de amplitud de ±0,5dB en el margen de -120dBFS a 0dBFS (referencia senoidal de 997 Hz).

2.4.1.6    Señales enarmónicas espurias
Mejor que -130dBFS con señal de referencia de 997Hz a -1dBFS.

2.4.1.7    Precisión del reloj interno de muestreo
Para un conversor sincronizado a su reloj de muestreo interno, la previsión frecuencial medida a la salida del flujo de datos digital deberá ser mejor que ±25 ppm.

2.4.1.8    Jitter o ruido de fase
El jitter —desviación en la exactitud temporal del proceso de muestreo— medido a la salida de la interfaz del conversor A/D deberá ser de <5ns.

2.4.1.9    Sincronización externa
En caso de sincronizar el reloj interno de muestreo del conversor A/D a una referencia externa, el conversor deberá reaccionar de forma transparente a las variaciones entrantes de la frecuencia de muestreo en un ± 0,2% de la frecuencia nominal.
El circuito de resincronización externa deberá rechazar el jitter entrante de modo que el reloj de muestreo sincronizado a la fuente externa quede libre de artefactos sonoros y alteraciones.

2.4.2 Interfaces de audio IEEE 1394 (FireWire) y USB. Muchos conversores A/D permiten la conexión directa con un ordenador central a través de las interfaces en serie de alta velocidad IEEE1394 (FireWire) y USB 2.0.5 Ambas se utilizan con éxito como interfaces de transmisión de audio a través de la mayoría de plataformas de ordenadores personales y pueden reducir la necesidad de instalar interfaces de sonido de alta calidad en el chasis de los ordenadores. La calidad del audio digital es generalmente independiente de la tecnología de interfaz que se utilice.

2.4.3 Selección de conversores A/D. El conversor A/D es el componente tecnológico más determinante en el proceso digital de la preservación. Para la elección del conversor, antes de cualquier evaluación, la IASA recomienda verificar las especificaciones en función de los estándares arriba descritos. Todo dispositivo que no cumpla las especificaciones técnicas básicas recomendadas por la IASA producirá conversiones de insuficiente precisión. Junto con la evaluación técnica deberán realizarse tests estadísticamente válidos de escucha a ciegas sobre una lista limitada de conversores, con el objeto de determinar la idoneidad y rendimiento globales. Todas las especificaciones y tests descritos son complejos y rigurosos y su cumplimiento es de gran importancia en la elección y evaluación de los conversores A/D. Las especificaciones que los mismos fabricantes facilitan son a veces difíciles de comparar entre sí, a menudo incompletas y ocasionalmente difíciles de conciliar con el rendimiento efectivo del dispositivo al que pretenden describir. Puede ser del interés de ciertas comunidades o grupos llevar a cabo tests coordinados de grupo para maximizar recursos. Algunas instituciones, como archivos públicos, bibliotecas o departamentos académicos de ámbito científico facilitan asistencia en los procedimientos de evaluación.

2.5    Tarjetas de sonido. La tarjeta de sonido utilizada por un ordenador a efectos de preservación de audio deberá disponer de una entrada digital dotada de un mecanismo de sincronización del flujo de bits de audio digital de alta calidad, capaz de permitir la transmisión de dicho flujo sin cambios o alteraciones. Puesto que el conversor A/D deberá ser externo e independiente, la principal tarea de la tarjeta de sonido en el proceso de preservación será la de transmitir de forma transparente la señal digital al bus de datos del ordenador, aunque pueda también devolver la señal entrante en audio analógico con fines de monitorización. Deberá comprobarse la compatibilidad de la tarjeta elegida con las frecuencias de muestreo y número de bits adecuados a nuestro propósito, así como asegurar la inmunidad a ruidos o distorsiones extrañas al proceso. La IASA recomienda el uso de tarjetas de sonido de alta calidad que respondan a las siguientes especificaciones:

2.5.1     Margen de frecuencias de muestreo: de 32KHz a 192KHz, ±5%.
2.5.2     Cuantificación de audio digital: de 16 a 24 bits por muestra.
2.5.3     Variabilidad de la frecuencia de muestreo (varispeed): automática según el flujo de bits de audio digital entrante (autosincronización) o según wordclock (referencia externa de reloj de muestreo).
2.5.4     Sincronización: reloj interno, reloj externo (wordclock), autosincronización a la entrada de audio digital.
2.5.5     Interfaz de audio: AES/EBU de alta velocidad conforme a las especificaciones AES 3.
2.5.6     Tolerancia al jitter (ruido de fase): regeneración de señal sin error para entradas con jitter de hasta 100ns.
2.5.7     Transmisión exacta de entrada a salida de subcódigos de audio digital.
2.5.8 Entradas de código de tiempo opcionales.

2.6  Sistemas basados en ordenador y software de procesado de datos. Las generaciones de ordenadores más recientes tienen capacidad suficiente para manipular grandes ficheros de sonido. Ya en el dominio digital, la integridad de los ficheros de audio debe mantenerse. Como se ha ido argumentando, los puntos clave en el proceso de preservación son la conversión de audio analógico a digital (tarea que corresponde al conversor A/D) y la introducción de datos en el sistema, sea a través de una tarjeta de sonido u otro puerto de datos. Algunos sistemas, sin embargo, truncan el número de bits por muestra digital (el también llamado wordlength) a efectos de procesado interno de los datos, hecho que resulta en una reducción del número efectivo de bits por muestra; otros sistemas solo procesan formatos comprimidos de fichero, como el MP3. En cualquiera de los casos, el resultado no es aceptable. La IASA recomienda la adopción de sistemas profesionales de audio basados en ordenador cuyo número de bits por muestra de procesado exceda el propio del fichero de audio (es decir, supere los 24 bits) sin alteración alguna del formato original del fichero.

2.7 Reducción de datos. Se considera una norma general en la archivística de audio digital la no aceptación de formatos destino (o máster) basados en la reducción de datos —con frecuencia llamados, erróneamente, formatos «comprimidos»— mediante técnicas de codificación perceptual (codificadores con pérdidas, del inglés lossy codecs). Las transferencias basadas en estas técnicas implican la pérdida irremediable de información original. El resultado de estos procesos sonará quizá idéntico al original, al menos en la primera generación, pero la reutilización o retransferencia del material reducido quedará severamente limitada y su integridad archivística comprometida.

2.8 Formatos de fichero

2.8.1 Existe un bueno número de formatos de audio lineal utilizables para la codificación de sonido. Sin embargo, cuanto mayor sea la aceptación y uso del cierto formato en el ámbito del audio profesional, mayor será la probabilidad de aceptación a largo plazo y mayor también la cantidad de instrumentos desarrollados para la migración de dicho formato a futuros estándares cuando resulte necesario. Dada la simplicidad y ubicuidad de la modulación lineal de pulsos codificados (LPCM, Linear Pulse Code Modulation) [multiplexada para la información en estéreo], la IASA recomienda el uso del formato WAVE (con extensión de fichero *.wav) desarrollado por Microsoft e IBM como una extensión del formato RIFF (del inglés Resource Interchange File Format, formato de fichero para el intercambio de recursos). Los ficheros WAVE son muy utilizados en la industria del sonido profesional.
    
2.8.2     Ficheros BWF [EBU Tech 3285]. Los ficheros BWF (Broadcast Wave Format) son una extensión de los ficheros .wav (WAVE) apoyados por la tecnología de audio más reciente. Los beneficios de BWF tanto para el archivo como para la producción de sonido radican en su incorporación de metadatos en las propias cabeceras del fichero. Esta característica representa una ventaja en la mayoría de los casos típicos de intercambio y archivo de datos. Sin embargo, la naturaleza fija de la información embebida en el propio fichero puede resultar una carga inconveniente en sistemas de gestión de datos de alta complejidad y tamaño (ver la discusión al respecto en los capítulos 3 y 7). Esta y otras limitaciones propias de BWF pueden paliarse mediante la introducción y uso de un conjunto mínimo de metadatos en las cabeceras de los ficheros BWF, a la vez que se mantienen otros metadatos vinculados en sistemas externos de gestión. El estándar AES 31-2-2006 («Transferencia de audio a través de ficheros y redes -Transferencia e intercambio de ficheros de audio- Formatos de fichero para la transferencia de datos de audio digital entre sistemas de diferente tipo y fabricación») es notablemente compatible con el conjunto de metadatos propuesto por BWF, con lo que se espera que los futuros desarrollos en este campo continúen apostando por la viabilidad de este formato. BWF ya está muy aceptado por la comunidad archivística de manera que, a pesar de sus limitaciones, la IASA recomienda el uso de los ficheros BWF [EBU Tech 3285] a fines de archivo.

2.8.3 Para las sesiones de audio multipista, las bandas sonoras de cine, vídeo o en general, ficheros de audio de gran tamaño, puede usarse el formato MBWF/RF64 [EBU Tech 3306], compatible con BWF, AES 31 y también como fichero .wav en un contenedor MXF (Media Exchange Format). Puesto que este formato se halla todavía en proceso de desarrollo, una opción pragmática sería la creación de múltiples ficheros BWF monofónicos síncronos, agrupados en un fichero contenedor con formato tar (tape archive).

2.9  Cadena de audio. La combinación de equipos de reproducción, cableado de señal, mezcladores y otros dispositivos de procesado del sonido deberá responder en su conjunto a especificaciones que igualen o superen las del audio digital de destino, con la frecuencia de muestreo y número de bits por muestra especificados. El equipo de reproducción, cadena de audio, formato de destino (máster) y estándares adoptados deberán superar en su conjunto las especificaciones propias del soporte de audio original.


3. También llamado «profundidad de bits», en traducción literal del inglés bit depth (n. de los t.).

4. Actualmente en su revisión r2009 (n. de los t.).

5. Ambas interfaces han sido recientemente actualizadas, como en el caso de USB 3.0 (n. de los t.)