Sie sind auf Seite 1von 20

https://www.tonspion.

de/news/was-bedeutet-320-kbits-samplerate-bittiefe-und-bitrate-erklaert

27.Oktober 2017 | Chris Umbach

Was bedeutet 320 kbit/s – Samplerate, Bittiefe und Bitrate erklärt

Das passiert beim Komprimieren von Audiodateien

Hi-Res-Streaming und -Audio verspricht uns verlustfreien und besonders guten Klang beim
Abspielen von digitaler Musik. Aber was genau bedeutet das? Samplerate, Bittiefe und Bitrate
erklärt.

16 Bit und 44,1 kHz – CD Qualität: Oft wird bei der Vermarktung von hochauflösenden und
verlustfreien Audio-Formaten und Equipment mit diesem Slogan geworben. Was aber hat es
damit genau auf sich?

Die Qualität von digitalen Audiosignalen wird hauptsächlich von drei Dingen bestimmt:
Samplerate, Bittiefe und Bitrate.

Samplerate

Prinzipiell muss man sich vorstellen, dass ein digitales Audiosignal kein konstanter
Informationsstrom ist. Vielmehr ist die Musik in sehr, sehr viele kleine “Scheiben” (Samples)
unterteilt, die jeweils über einen kurzen Abschnitt die Information für den Digital-Analog-
Wandler trägt.

Desto mehr Samples ein Signal pro Zeiteinheit hat, desto genauer kann das analoge
Originalsignal abgebildet werden.

Wie dicht die Samples gepackt sind, verrät die Samplerate: Die 44,1 kHz einer CD stehen
dabei für 44100 Samples pro Sekunde.

Bittiefe

Die Bittiefe (Auflösung) wird in “Bit” angegeben und gibt an, wie viele unterschiedliche
Werte jedes Sample annehmen kann. Bei 16 Bit (CD-Qualität) sind das 2^16, also 65.536. Im
Tonstudio wird in der Regel mit 24 oder gar 32 Bit gearbeitet. 

Hier setzen viele Hi-Res-Formate an und versprechen mit einer Auflösung von 32 Bit
ebenfalls Studioqualität.

Bitrate

Die Bitrate (Bandbreite) einer Audiodatei ist bei unkomprimierten Formaten zunächst nichts
anderes als die Zusammenfassung von Samplerate, Bittiefe und der Anzahl der Kanäle. Sie
wird in kBit/s angegeben und liefert damit einen ersten Kennwert zur Einschätzung der
Qualität einer Datei.

Beispiel: Eine Stereo-CD speichert auf zwei Spuren mit 44,1 kHz bei einer Bittiefe von 16
Bit. Das bedeutet, ihre Bitrate beträgt 44,1 kHz x 16 bit x 2 Kanäle = 1.411,2 kBit/s.
Was genau passiert nun beispielsweise bei einer MP3 mit 128 kBit/s?

Bei der Umwandlung von WAV (CD-Dateien) in MP3, AAC oder andere komprimierte
Formate gibt 128 kBit/s die maximale Bandbreite an, die der Encoder zur Verfügung hat, um
die Sounddatei zu speichern. 

Durch die Analyse der Musik errechnet der Encoder, an welchen Stellen er die Bittiefe oder
Samplerate gegenüber des Originals reduzieren kann, um Speicherkapazität zu sparen. 

Genau hier ergibt sich der Qualitätsunterschied der Formate und es kann erklärt werden,
wieso eine AAC+ mit 256 kBit/s besser klingen kann als eine MP3 mit 320 kBit/s – der AAC-
Encoder ist, einfach formuliert, besser darin, einzuschätzen, welche Informationen wichtig
und welche unwichtig sind.

Außerdem werden die übrigen Daten – ähnlich wie bei einer ZIP-Datei – strukturiert
gespeichert, sodass eine zusätzliche Kompression stattfindet.

Hi-Res-Formate (Lossless)

Sogenannte verlustfreie Formate wie FLAC oder ALAC komprimieren die Datenmenge
gegenüber der Originaldatei ebenfalls. Allerdings verzichten sie dabei in der Regel auf die
“Beschneidung” des Signals, sondern beschränken sich auf die Speicherreduzierung durch
Analyse und “geschicktes Packen”. 

Dadurch kann die Dateigröße gegenüber einer WAV in der Regel auf die Hälfte reduziert
werden, die Qualität des Ausgangssignals bleibt aber unverändert.
Audio

29.September 2017 | Chris Umbach

MP3, FLAC, ALAC, WAV – die wichtigsten Musikformate im Vergleich

Die größten Vor- und Nachteile der Audioformate

Mal abgesehen von hartgesottenen Vinyl- und Kassettenfans hören wir Musik 2017 eigentlich
nur noch digital. Aber was hören wir da eigentlich genau und welche Vor- und Nachteile
haben die Formate, die wir benutzen? Eine Übersicht.

WAV

Hier haben wir den Benchmark für digitale Soundqualität. WAV ist gemeinhin das Format,
das auf Audio-CDs verwendet wird. Auch dieses Format simplifiziert die analogen Signale,
die zum Beispiel auf Vinyl und Kassette verwendet werden.

Dabei ist die Informationsdichte aber so hoch, dass das menschliche Ohr gegenüber dem
Originalton keinen Unterschied feststellen kann.

Ein großer Nachteil des WAV Formats ist, dass es, im Gegensatz zu allen anderen Formaten
dieser Liste, keine Metadaten, wie zum Beispiel Interpret, Songtitel oder Artwork speichern
kann. Da es nicht komprimiert ist, benötigt es außerdem verhältnismäßig viel Speicherplatz.

MP3

Dieses Format ist die Mutter und der Vater aller modernen digitalen Musikformate. In den
frühen Neunzigern entwickelt, machte MP3 es möglich digitale Musik aus dem Internet zu
laden und unterwegs auf begrenzten Speicherplätzen zu transportieren und zu hören.

Durch das Weglassen von “unwichtigen” Informationen wie extremen Höhen und Tiefen und
einer Reduzierung der Abtastrate kann MP3 die Größe einer Audiodatei um den Faktor 10
verkleinern. Das ist natürlich schlecht für die Klangqualität, macht sich aber in den meisten
Situationen nicht wirklich bemerkbar.

AAC und AAC+

Im Prinzip leisten diese beiden Formate das gleiche, wie es auch das MP3-Format tut. Sie
reduzieren die Informationen eines Audiosignals und speichern diese komprimiert ab.

Allerdings tut gerade AAC+ dies auf einem höheren Niveau als das 1992 entwickelte MP3
und kann damit mit der gleichen Speichermenge bessere Klangergebnisse erzielen.

FLAC

Flac ist zwar genau wie AAC und MP3 ein komprimiertes Audioformat. Allerdings ist es
verlustfrei. Das bedeutet, dass keinerlei Informationen der Originalaufnahme, die zum
Beispiel in WAV vorliegt, verloren gehen.
Der Vorteil gegenüber WAV liegt darin, dass FLAC die Daten komprimieren kann und
hierdurch bis zu 50% weniger Speicherplatz als WAV benötigt.

Außerdem ist es im Gegensatz zu AAC und MP3 lizenzfrei und kann deshalb von Herstellern
kostenfrei in Geräte implementiert werden.

ALAC

ALAC ist das FLAC von Apple. Es macht prinzipiell exakt das Gleiche und strukturiert
verlustfrei Daten so, dass etwas 60% des Speicherbedarfs einer WAV gespart werden kann.

Der Vorteil gegenüber FLAC: ALAC bietet die Möglichkeit eines Kopierschutzes.

Bisher wird ALAC von Apple noch nicht im Apple Store angeboten, obwohl
Netzgeschwindigkeit und Speicherplatz moderner Geräte dafür völlig ausreichen würden.
Apple begründet das damit, dass der herkömmliche Nutzer den Unterschied zwischen ALAC
und AAC+ ohnehin nicht hören kann.

Fazit

MP3 ist nach wie vor der König unter den Audioformaten, auch wenn es technisch veraltet ist
und dank größeren Speicherkapazitäten und schnellen Internetverbindungen keine
Notwendigkeit mehr für die extreme Kompression besteht.

Warum bisher trotzdem nur wenige Anbieter von AAC+ und MP3 Abschied genommen
haben und auf verlustfreie Formate wie ALAC und FLAC setzten, bleibt ein Rätsel. Sie sind
aber ohne Zweifel die Zukunft der digitalen Musik. Sowohl im Download- als auch
Streamingbereich.
https://www.fairaudio.de/hintergrund/digital-technik-audio-hifi-musik-grundlagen-bericht-1-dwt/

1 Grundlagen & Grundbegriffe der digitalen Audiotechnik

Januar 2013 / Jens Bondarenko

Weshalb klingen für einige Musikhörer analoge Tonquellen wie Schallplatten


attraktiver, musikalisch involvierender als digitale? Trotz allem analogen Leiden einer
Rille im Vinyl, das bei der CD und insbesondere bei sich auf Festplatten und Servern
tummelnden Dateien komplett vermieden wird. Was spielt zusammen, wenn wir über
digital konservierte Musik sprechen und uns ärgern, dass trotz aufwändiger und
kostspieliger Technik eine Restverdrossenheit über den immer noch nicht ganz den
Wünschen entsprechenden Sound herrscht? Diese Frage wollen wir hier versuchen zu
beleuchten.

Analoge Signale – das heißt Amplitudenschwankungen mit einer bestimmten Frequenz –


werden für Musik immer dann digitalisiert, wenn sie mit geeigneten digitalen Tonträgern und
entsprechender Hardware verarbeitet werden sollen. Ein Mehrwert ergibt sich für uns Hörer
und Anwender allein schon dadurch, dass digitale Signale weit weniger empfindlich auf
Einflüsse von außen auf die Tonträger oder Hardware reagieren und natürlich dadurch, dass
wir zufällig eine Erfindung namens Computer in den meisten Haushalten vorfinden. Das
Kopieren wird erleichtert sowie das Lagern, nicht zuletzt ist Verschleißfreiheit mehr als ein
nettes Beiwerk.

Diese Tatsachen legten schon früh nahe, digitalisierte Musik mit Standard-Computern zu
verarbeiten – und die Verbreitung des Internets machte es einfach, Audiodateien beliebig zu
transportieren, zuvor für Musik völlig undenkbare Anwendungsszenarien waren bald Alltag
und praktischerweise hatte man mit der (anfangs nicht
kopiergeschützten) CD auch schon fast das passende
Tonträgerformat für alle denkbaren Szenarien in der
Hand.

Das Digitalisieren wird im Falle von Audiosignalen Sampling


genannt, das Ergebnis des Digitalisierens sind sogenannte
Samples. Samples sind Träger einer abgegrenzten digitalen
Information, aus denen sich mittels Analog-Digital-
Wandlung die ursprünglichen analogen Signale
rekonstruieren lassen. Diese Rekonstruktion zurück ins
Analoge gelingt niemals zu 100% perfekt, aber in der Regel
sehr stark genähert – sie unterliegt heftigen Einflüssen der
Samplingfrequenz (Samplerate) und der „Auflösung“ der
Samples, auch Bittiefe genannt. Daneben gibt es weitere
Einflüsse auf die Rekonstruktionsqualität, die dem
Transport geschuldet sind, auf dem zwar keine Samples
verloren gehen, der aber trotzdem die Wandlung ins
Analoge beeinflusst.
Wir sehen bereits nach dieser vereinfachenden Einleitung, dass sich jede Menge Fragen stellen, wenn
das Digitalisieren oder der Transport von digitalen Signalen und erst Recht deren Analogisierung
anstehen. Wir wollen daher zunächst etwas zum sicheren Umgang mit den Begriffen und den
dahinter stehenden Vorgängen beitragen.

Freilich hat das mit Musik auf den ersten Blick erst einmal weniger zu tun. Aber so unterscheiden sich
beispielsweise Digital/Analog- oder Analog/Digital-Wandler bisweilen erheblich hinsichtlich
Konnektivität und Klang. Beim Filmen oder Fotografieren, dem Digitalisieren von (analogem) Licht,
greifen wir ja auch nicht einfach so ins Discounter-Regal, denn die Unterschiede von Kameras kennt
man häufig aus eigener (teils nervtötender) Erfahrung. Eines sei aber vorweggenommen: Bei
digitalem Audio sind anders als bei Sensorauflösungen von Digitalkameras große Zahlen immer
besser …
2 Samplingrate und Bittiefe

Der Vergleich zur Digital- beziehungsweise Filmkamera ist von mir nicht ganz zufällig
gewählt: Die Samplingfrequenz bei Audiosignalen, also die Häufigkeit von Samples pro
Zeiteinheit (meistens pro Sekunde angegeben), ist vergleichbar mit der Bildfrequenz pro
Sekunde einer Filmkamera. Die Pixelanzahl für jedes einzelne Bild wiederum könnte man der
Bittiefe gleichsetzen: HD-Filme „sehen besser aus“ als Super-8-Filme. Je größer die
Pixelanzahl des Sensors und je häufiger ein Bild aufgenommen wird, desto exakter lässt sich
das „aufzunehmende Licht“, die Szenerie digital reproduzieren.

Zu unserem Glück hat ein gewisser Harry Nyquist einen Herrn Claude Shannon vor langer
Zeit inspiriert, zu dessen Überlegungen ein Theorem (eine theoretische Behauptung oder auch
Lehrsatz) aufzustellen, das angibt, dass ein Audiosignal mit der doppelten Frequenz
gleichmäßig abgetastet werden muss, um das Ursprungssignal hinreichend rekonstruieren zu
können. Die Bandbreitenbegrenzung der hörbaren Frequenzen nimmt uns dabei
praktischerweise unser Gehör ab, das im Grunde nur Frequenzen zwischen maximal 20 Hz
und 20.000 Hz bewusst wahrzunehmen vermag.

Der Aufwand, das analoge Ausgangssignal vollständig exakt zu rekonstruieren, ist theoretisch
unendlich groß, da digitale Signale ihrem Wesen nach in jedem Falle diskontinuierlich sind,
analoge dagegen immer kontinuierlich. Dass digitale Informationen nur dazu taugen, analoge
Signale genähert zu speichern, ist also leider unumgänglich. Das Ausgangssignal wird
„approximiert“ – schönes Wort, nicht wahr? Nyquists Theorem gilt übrigens auch bei
Digitalkameras: Dort geht es ebenfalls um Frequenzen, nämlich denen des Lichts.

Mit Blick auf die für den Menschen mehr oder weniger relevanten Signale bis 20 kHz genügt
gemäß des erwähnten Theorems eine Samplingfrequenz von 40 kHz. Die für CD-Qualität
übliche 44,1 kHz Samplingfrequenz/-rate rührt aus den 1970er-Jahren beziehungsweise aus
Sonys „Puls Code Modulationsverfahren“ (PCM) zur Speicherung digitaler Signale auf
Videobändern. Später entwickelte Sony daraus mit Philips den Red-Book-Standard für Audio-
CDs.

Die um zusätzliche 4000 Hz etwas breitere Frequenz als die doppelte für den Menschen
hörbare hat ihren Ursprung in möglichst einfachen Filtern, die sogenannte Aliasingeffekte
beim Digitalisieren aus dem Hörbereich des rekonstruierten analogen Signals entfernen sollen
– je breiter dieser „Korridor“, desto einfacher die Filtertechnik.

Exakt 44,1 kHz wurden daraus, weil sich Samplingratenkonvertierer einfacher gestalten
lassen (genutzt für Studiotechnik oder auch Datenträgerüberspielungen), wenn die
Samplingfrequenz ein ganzzahliges Vielfaches der Ausgangsfrequenz ist. Ausgangsfrequenz
war hier die bei der Videodigitalisierung genutzte 60-Hz-Netzfrequenz bei 525 Linien für das
zu digitalisierende TV-Signal. Die 60 Hz zu verändern, wäre sehr aufwändig gewesen, man
behielt sie bei. Nicht zufällig erreicht man aber durch Multiplikation von 525 mit einem
ganzzahlingen Faktor eine Frequenz höher 44.000 Hz, die wir ja erreichen wollen, um die
Filter für das Anti-Alaising einfach zu halten: Die nächste größere Ganzzahl, die durch 525
teilbar ist, ist 44.100. Der Multiplikationsfaktor ist damit 84, wie gewünscht eine ganze Zahl,
die uns ansonsten aber nicht weiter interessieren soll.

Antialiasing kommt Bedeutung zu, weil durch die Aufteilung des analogen Ausgangssignals
in einzelne Bits und die anschließende Rekonstruktion treppenartige Stufungen im
Ergebnissignal auftreten würden. Um diese Artefakte einzudämmen, wird interpoliert, um
einen möglichst kontinuierlichen analogen Signalverlauf zu erhalten.

Ein zweiter Grund für das Antialiasing sind zu niedrig wiederhergestellte Frequenzen bei
ursprünglich oberhalb der halben Nyquist-Frequenz liegenden Signalen. Das so nicht
originalgetreu rekonstruierte analoge Signal weist Klangverfälschungen auf (Verletzung des
Nyquist-Theorems). Hierin liegt auch ein Grund dafür, dass in Tonstudios generell
Frequenzen oberhalb 44,1 kHz verwendet werden, denn Mikrofone nehmen alle analogen
Signale auf, die ihr nutzbarer Frequenzbereich ermöglicht und dabei ist das Ende oft nicht bei
20 kHz erreicht. Instrumente weisen teils noch erheblich höhere maximale Frequenzanteile
auf. Daher ist nachvollziehbar, warum konsequent hohe Abtastraten bis zur finalen D/A-
Wandlung an der Hifi-Anlage meistens zu besserem Klang beitragen: Aliasing-Effekte treten
mit steigender Samplingfrequenz immer weniger auf, Antialiasing kommt weniger zum
Tragen.

Filter, die alle Frequenzen oberhalb der halben Samplingfrequenz eliminieren, bevor
gesampelt wird, sind in der Digitaltechnik essenziell, denn für diese wäre ja genau das
Nyquist-Theorem verletzt. Wer CDs hört, die gleich nach dem ersten Aufkommen der
Digitaltechnik produziert wurden, kann im Vergleich zu aktuellen Produktionen
nachvollziehen, wie unzulänglich damals diese Filtertechniken waren: Sie führten zu hörbarer
Sterilisierung und verringerter Musikalität bei digitalen Aufnahmen. In Kombination mit der
bei jeder Digitalisierung dem Wesen nach obligatorischen Quantisierung, dass heißt der
Aufteilung des kontinuierlich verlaufenden analogen Signals in abgestufte Signalbausteine,
kommt es bei der Digitalisierung zu Klangverfälschungen.

Bei all dem spielt auch die Bittiefe eine Rolle. Die Quantisierung erfolgt bei einem
Digitalisierungsvorgang mit einer konstanten, bestimmten Bittiefe: Sie bedeutet die
Genauigkeit, mit der jedes einzelne Sample digital repräsentiert wird und bestimmt
gemeinsam mit der Samplingfrequenz, wie exakt das Ausgangssignal insgesamt digitalisiert
wird – und letztlich wieder rekonstruiert werden kann. Je höher die Bittiefe, desto exakter die
„digitale Beschreibung“ des analogen Ausgangssignals pro Sample. 16 Bit Tiefe bedeuten,
dass 2 hoch 16 = 65.535 Quantisierungsschritte pro Sample errechnet beziehungsweise
analoge Amplituden beim A/D-Wandeln rekonstruiert werden können. Bei 24 Bit Tiefe sind
es schon 16.777.216 Schritte. Man sieht leicht, dass eine höhere Bittiefe zu „feiner“
aufgelösten Signalen führt. Die Basis „2“ rührt übrigens von der binären Speicherung digitaler
Daten her: Es gibt nur die Werte/Zustände „0“ und „1“, also nur zwei verschiedene.

Höhere Bittiefen haben des Weiteren den positiven Effekt, dass für leise Passagen der Musik
mehr Bits „übrig bleiben“, um das Signal digital zu repräsentieren. Lauteste Passagen werden
mit maximal verfügbarer Bittiefe digitalisiert, leise mit zunehmend geringerer, das ist bei
jedem Sampling so. Zuweilen bleiben so von den 16 Bit voller Bittiefe der CD für leise
Abschnitte nur 5 Bit übrig. Für zum Beispiel leise Flötentöne ist das offenkundig zu wenig,
wie man bei Aufnahmen mit geringer Auflösung und einhergehendem harschen, unklaren
Klang schnell bemerken würde. Steigt also die verfügbare Bittiefe auf beispielsweise 24 Bit,
bleibt bei leisen Passagen für subtile Pegel- respektive Amplitudenänderungen des analogen
Signals mehr Bittiefe verfügbar.

Um zum Beispiel Kamera zurückzukommen: Je höher die Bittiefe beim Bildsensor


beziehungsweise der Bildspeicherung, desto naturgetreuer, leuchtender und vielfältiger sind
die Farben der Natur, des analogen Ausgangsmotivs. 24-Bit-Bilder einer Digitalkamera bilden
rund 16,7 Millionen Farben ab, von denen ein Computermonitor sehr viele, aber nicht alle
darstellen kann. Exakt so ist es bei der Musik: Je höher die Bittiefe, desto natürlicher klingt
(theoretisch) die digitalisierte und später rekonstruierte Musik.

16 Bit haben sich aufgrund des Red-Book-Standards der CD eingebürgert. 24 oder 32 Bit,
inzwischen auch teils 64 Bit hingegen sind Studiostandard. 16 Bit für CDs werden daraus
übrigens mit erheblichem Aufwand mittels sogenannten Ditherings errechnet, einem
Verfahren, um die unerwünschten Klangverschlechterungen aufgrund des „Weglassens“ von
Bits bei der Reduzierung von beispielsweise 24 auf 16 Bit zu mildern. Dabei wird dem
analogen Signal Rauschen in unhörbaren Frequenzbereichen künstlich beigemischt, um
Probleme durch die Reduzierung der Bittiefe bei geringen Amplituden/Pegeln möglichst zu
minimieren. Die CD ist somit technisch gesehen kein besonders erfreuliches Format für
digitale Audiodaten, die Bittiefe ist vergleichsweise gering.

Jetzt haben wir zwei wesentliche Einflussfaktoren bei der Digitalisierung von analog
vorliegender Musik kennengelernt: Samplingrate und Bittiefe. Das analoge Ausgangssignal
wird also beim Sampling in viele kleine Teile zerlegt, den Samples, und im DAC wieder
zusammengesetzt.
3 Welche Rolle aber spielt die Bitrate?

Diesen Begriff kennt man vor allem aus der Qualitätsbeschreibung von verlustbehaftet
komprimiertem Audio (z. B. MP3). Hier kommt leider noch erschwerend hinzu, dass sich bei
kanalgetrenntem Komprimieren die Bitrate auf die beiden Kanäle aufteilt: Stereo-MP3 (nicht
zu verwechseln mit Dual-Channel) mit einer Bitrate von 320 kBit/Sek. nutzt pro Kanal nur
160 kBit/Sek. Oder unterschiedliche Bitraten pro Kanal: Joint-Stereo (errechnetes Monosignal
mit zusätzlicher Stereoinformation) hingegen arbeitet mit Lautstärkedifferenzen beider
Kanäle und kann die Bitrate somit wesentlich effizienter nutzen.

Was genau hat es mit der offensichtlich so wesentlichen Bitrate auf sich? Bei einer CD nach
dem Red Book-Standard errechnet sich die Bitrate wie folgt: 2 Kanäle * 44,100 Hz
Samplingrate * 16 Bit Bittiefe pro Sample ergeben 1.411.200 Bit/Sek., sprich 1,4112
MBit/Sek. Bitrate. Das ist offenkundig erheblich mehr als komprimierte Formate bereitstellen
(sollen). Man sieht, wie komprimierende Verfahren arbeiten: Nicht zuletzt reduzieren sie
mehr oder weniger geschickt die Bittiefe pro Sample bei gegebener Samplerate von zum
Beispiel 44,1 kHz. Die Datenmenge sinkt und genau das ist das Ziel jeder Datenkompression
– so bringt die Halbierung der Bitrate exakt eine Halbierung der Datenmenge.

Beispielhaft habe ich einige verbreitete Dateiformate für digitales Audio gegenübergestellt:

Format

Codec(s)

Multi-channel

Samplerate

Bittiefe beziehungsweise sich aus der Bitrate ergebende Bittiefe

Kompression
/Akustische Verlust-
behaftung

WAV

PCM u.a.

Ja

beliebig

beliebig

Optional, je nach Codec, auch verlustlos

AIFF

PCM u.a.
Nein

beliebig

beliebig

nein

FLAC

FLAC (Free Lossless Audio Codec)

Ja

0,001 kHz-655.350 kHz

4, 8, 16, 20, 24, 32

verlustlos

Apple Loss-
less
MP4

ALAC (Apple Lossless Audio Codec)

Ja

0,001 kHz-384.000 kHz

16, 20, 24, 32

verlustlos

MP3

MPEG I Layer 3 in versch. Inkar-


nationen wie z. B. LAME

Nein

8-48 kHz

8-320 kBit/Sek. CBR/VBR oder 640 CBR für Freeformat-MP3

obligatorisch verlustbehaftet

Die meisten Leser werden wissen, dass verlustbehaftete Kompression häufig auch auf
psychoakustischen Modellen beziehungsweise natürlichen Begrenzungen des menschlichen
Hörvermögens beruht: Was wir Menschen nicht hören können (sollen), wird auch nicht im
Musiksignal gespeichert und geht unwiederbringlich verloren – man braucht es ja angeblich
nicht. Beliebtestes Beispiel dafür ist das bereits angesprochene betagte Format MP3. Für
einige Audiophile ist verlustbehaftetes Komprimieren allein wegen seiner Definition
unbrauchbar für ernsthaftes Musikhören, unabhängig davon, ob sie die
Komprimierungsverluste überhaupt bemerken würden. Für andere klingen mit 320 kBit/Sek.
codierte MP3s bei Popmusik identisch zur CD, sie sind zufrieden.

Verlustfreie Komprimierung wiederum wird aber seit stetig steigenden Internetbandbreiten


und Speicherkapazitäten zunehmend beliebter. Exemplarisch sei wieder das Format FLAC
genannt, das erfreulicherweise auch noch „open source“ ist, also frei genutzt und sogar
programmtechnisch verändert werden darf. Inzwischen wird es sogar meist von proprietärer
Audio-Hardware direkt unterstützt, wobei dann FLAC-Dateien ohne Hilfe eines Computers
abgespielt und teils sogar erstellt werden können (CDs rippen). FLAC unterstützt – wie auch
die Tabelle oben zeigt – sehr hohe Bittiefen und Samplingraten sowie Mehrkanalsound.

Bei FLAC erfolgt die Codierung des Tonsignals auf Basis von rechenleistungsschonend
berechenbaren Festkommaalgorithmen, bei der schrittweise Blöcke gebildet werden und die
Stereo-Separierung in eine Mitte-Seite-Separierung umgerechnet sowie eine
Signalummodellierung mit Differenzspeicherung vorgenommen wird. Dabei gehen keine
Informationen verloren, diese werden vielmehr effizienter als beispielsweise auf einer CD
gespeichert – abhängig von der Komplexität des Audiosignals werden dadurch
Kompressionsraten von bis zu 30% erreicht.

Es sei noch einmal klar gestellt, dass FLAC oder MP3 Dateiformate sind und sich daher mit
dem PCM der Red-Book-Codierung einer CD oder DSD (siehe folgender Abschnitt) nicht
direkt vergleichen lassen. Dabei wollen wir es zum Thema Datenkompression belassen.
4 Digitalisierungsverfahren und Quantisierungsrauschen

PCM steht für ein sehr weit verbreitetes Digitalisierungsverfahren: Die PulsCodeModulation,
die auch Basis für die „normalen“ Audio-CDs ist. Bei ihr werden, wie oben beschrieben,
kontinuierliche (analoge) Signale in diskrete (digitale) Signale gewandelt, die Abtastrate ist
dabei konstant. Nach der Quantisierung erfolgt die Speicherung als Binärdaten – perfekt für
die Verarbeitung mit Personal Computern.

Eine Alternative zu PCM stellt unter anderem Direct Stream Digital (DSD) dar, welches eine
Abtastfrequenz von 2,8224 MHz oder auch 5,6448 MHz nutzt, mit denen zum Beispiel per
Super Audio CD analoge Frequenzen bis zu theoretisch 100.000 Hz rekonstruiert werden
könnten – die besten analogen Aufzeichnungssysteme in Studios erreichen derweil
Frequenzen bis zirka 50.000 Hz.

Im Gegensatz zum PCM-Verfahren mit Quantisierung werden hier aber sogenannte Delta-
Sigma-Werte, Änderungsangaben zum Verlauf des Audiopegels, genutzt. Jedes
„Informationspaket“ enthält damit in wechselnder sogenannter Impulsbreite immer nur 1 Bit
(also 0 oder 1), um die Amplitudenänderungen zu repräsentieren. Der Datenstrom einer
SACD ist somit ein sogenannter „Single Bit Pulse Stream“.

DSD ähnelt dadurch analogen Signalen, was ein erklärtes Ziel von DSD ist: Durch die sehr
hohe Abtastfrequenz erfährt fast jede noch so winzige Amplitudenänderung des analogen
Signals eine Repräsentation im Digitalen. Wenn man so will, wird dem analoge Signal
förmlich akribisch „nachgefühlt“. Von Samplingfrequenz sollte man hier kundigerweise nicht
sprechen, da keine Samples im Sinne von PCM erzeugt werden.

Anti-Aliasing-Filter sind für DSD prinzipbedingt überflüssig, genauso wie steilflankige Filter,
um außerhalb der Nyquist-Frequenz liegende Frequenzanteile zu filtern – wegen der hohen
Abtastfrequenz gibt es keine außerhalb der Nyquist-Frequenz liegenden analogen Signale,
oder kennen Sie Instrumente, die noch oberhalb von 100.000 Hz arbeiten? Das filterlose
Design garantiert somit Verfärbungsarmut. Allerdings hat man es mit erhöhtem
Wandlungsrauschen zu tun, das aber per Filter (es geht also nicht ganz ohne) in für den
Menschen zunehmend schlechter wahrnehmbare Frequenzbereiche oberhalb von 40.000 Hz
gelegt wird.

Auch arbeiten klassische PCM-D/A- und A/D-Wandler intern per DSD, um das digitale
Signal den verschiedenen Verarbeitungsstufen zuzuführen. Es lag nahe, irgendwann allein
dieses Signal nutzen zu können und PCM zu umgehen. Tonstudios arbeiten intern teils seit
langem mit DSD als Produktions- und Archivierungsformat, entsprechend liegen viele
Aufnahmen nicht nur als PCM, sondern auch via DSD digitalisiert vor – ideal für audiophile
Wiederveröffentlichungen.

Zum Thema Rauschen sei gesagt: Ungeliebte Quantisierungsfehler – die Ursache fürs
sogenannte Quantisierungsrauschen – entstehen immer dann, wenn das zu rekonstruierende
analoge Ausgangsignal zwischen zwei Quantisierungsschritten einem der möglichen
„benachbarten“ Quantisierungsschritte zugeteilt werden muss. Quantisierung bedeutet, dass
das kontinuierliche analoge Signal in diskrete, also auf einen Zeitraum bezogene
„Wertepakete“ – die Samples – abgebildet wird. Kehrt man den Vorgang um, errechnet aus
einzelnen Samples also wieder das analoge Signal, entsteht eine treppenförmige Signalwelle.
Das Ergebnis sind schlicht Verzerrungen. Der durch die anschließende Interpolation dieser
„Treppe“ auftretende Fehler – die Differenz von Originalsignal zu rekonstruiertem Signal –
wird als Quantisierungsfehler mit daraus resultierendem Quantisierungsrauschen bezeichnet.

Das Quantisierungsrauschen nimmt zu, je geringer die Bittiefe ist: Der Signal-Rausch-
Abstand sinkt, das Rauschen wird schneller hörbar. Je mehr Quantisierungsschritte im
digitalen Signal zur Rekonstruktion des analogen Signals zur Verfügung stehen, desto
geringer sind die Quantisierungsfehler.

Wie wird man aber Herr dieses Treibens? Sogenannte nichtlineare Quantisierung hilft
(wenngleich beispielsweise bei der CD immer linear quantisiert wird). Bei diesem Verfahren
werden abhängig von der Amplitude des analogen Signals die Quantisierungsschrittweiten
(Samplingfrequenz) verändert. Pegelschwache Signale werden mit häufigeren/kleineren
Schritten gleicher Bittiefe quantisiert, laute Signalanteile mit weniger/größeren
Quantisierungsschritten. Bei der D/A-Wandlung wird dann mittels einer inversen Kennkurve
das analoge Originalsignal wiederhergestellt. Das Ergebnis ist, dass sich das Signal-Rausch-
Verhältnis (Quantisierungsrauschen) trotz gleichbleibender Bittiefe bei leisen Signalen hörbar
verbessert, bei lauten Signalen dagegen nur mehr oder weniger unmerklich verschlechtert, da
lautere Signale das darunter liegende Rauschen sowieso weniger deutlich zutage treten lassen.

Bei diesem Verfahren kann wahlweise auch die Bittiefe verringert werden (bleibt aber
konstant), ohne übermäßige klangliche Verluste hinnehmen zu müssen: Es wird davon
gesprochen, dass klanglich gesehen 12 Bit Bittiefe bei nichtlinearer Quantisierung 16 Bit bei
linearer Quantisierung (CD) entsprechen. Dieses Verfahren wurde beim Longplaymodus von
Sonys MiniDisc auch eingesetzt.

Quantisierungsfehler äußern sich wie gesagt in harschem, rauem Klang und störendem
Rauschen. Extrem hörbar ist das beispielsweise bei der 1990 produzierten CD Vigil In The
Wilderness Of Mirrors von Marillions ehemaligem Sänger Fish. Zu Beginn des Titels A
Gentleman’s Excuse Me pratzelt und kreischt es in den leisen Passagen, während in den
lauteren Ruhe herrscht. Meiner Meinung nach sind das Fehler bei der Digitalisierung
aufgrund mangelnder Bittiefe, die in diesem Fall sicher extremer ausfallen.

Leider muss ich Ihnen an dieser Stelle mitteilen, dass es noch weitere Einflussfaktoren auf die
Klangqualität digital gespeicherter Musik gibt. Und zwar etwas verstecktere als die ex ante
definierbaren Samplefrequenz und Bittiefe …
5 Weiterer Störenfried: Jitter

Ganz vorn im Boot, quasi am Steuerrad dieser subtileren Einflussfaktoren, sitzt der
sogenannter Jitter. Jedes digitale Signal „lebt“ förmlich von zeitlicher Kohärenz. Ein DAC
wird ein digitales Signal nur dann so verarbeiten können wie es auf dem Datenträger
gespeichert war, wenn während der Übertragung keine Änderung an der zeitlichen
Information des Signals vorgenommen wird: Dem Takt.

Der hier gemeinte Signaltakt – der zeitliche Aspekt des Digitalsignals – hat die gleiche
Wichtigkeit wie der Takt bei Musikern: Einsätze von Musikern werden nur dann korrekt
erfolgen, wenn in einem Orchester jede Reihe von Musikern zeitgleich dasselbe Taktsignal
erhält (Dirigent). Bei der digitalen Musikverarbeitung resultieren Taktschwankungen der
einzelnen Samples beziehungsweise Ungenauigkeiten bei der Samplefrequenz/Samplerate in
Amplitudenschwankungen, wie sie in der Natur niemals vorkommen würden. Daher reagiert
das menschliche Gehör so empfindlich auf diese Schwankungen.

Der Begriff Takt wird auch gern mit „Clock“ umschrieben, analog zum Metronom eines
Musikers. Die Clock-Informationen werden bei einigen Digitalschnittstellen direkt mit dem
digitalen Musiksignal quasi im „Huckepackverfahren“ übertragen. Was für ein Fauxpas! Die
im Clock-Signal eingebetteten digitalen Musikinformation werden vom Empfänger (zum
Beispiel einem DAC) mittels PLL-Technik (Phase-Locked-Loop, wird zur Anpassung eines
Regelkreises/Schaltung an eine bestimmte Frequenz benutzt) zwar quasi eingetaktet, aber
PLLs neigen leider zur Anpassung an das Eingangssignal und nicht umgekehrt. Die
ursprüngliche Zeitinformation des digitalen Signals wird verändert. So können subtile, aber
eben doch hörbare Amplitudensprünge entstehen.
6 Einsen und Nullen auf der Reise: Digitale Schnittstellen

Wie aber digitale Daten zwischen verschiedener Hardware auf die Reise gehen, wollen wir im
Folgenden näher betrachten, denn hierbei treten Aspekte ins Licht, die sich auf die
verfügbaren digitalen Schnittstellen (die Übertragungswege) beziehen. Schließlich sollte man
sich als anspruchsvoller Hörer über die Gründe im Klaren sein, warum unterschiedlichste
Schnittstellen an DACs, Netzwerk- oder (SA)CD-Playern angeboten werden: Jede hat ihre
spezifischen Vor- und Nachteile.

Um es gleich vorweg zu sagen: Alle digitalen Schnittstellen versuchen zwei Probleme mehr
oder weniger erfolgreich in den Griff zu bekommen: Das Wirken beziehungsweise Auftreten
von Jitter und die Veränderung oder gar den Verlust von digitaler Information durch die
Übertragung auf analogem Weg. Analoger Weg? Ja, digitale Signale werden per Spannungs-
und Stromänderungen, also im Grunde als kontinuierliches Signal übertragen. Auch deshalb
„klingen“ unterschiedliche digitale Schnittstellen beziehungsweise digitale Verbindungskabel
verschieden.

Prinzipiell haben wir es derzeit mit vier verschiedenen digitalen Schnittstellen zu tun, die ihre
Daseinsberechtigung bisher allesamt millionenfach bewiesen haben: S/PDIF, USB, I²S und
Ethernet/LAN. (WLAN ist nichts anderes als die Nutzung des Ethernet-Protokolls über das
Wireless-Local-Area-Network-Protokoll, einem Drahtlos-Datenübertragungsstandard in
verschiedenen Varianten, die sich in Trägerfrequenz und maximal übertragbarer Bandbreite
unterscheiden. Ethernet ist per geräteinterner Konvertierung direkt kompatibel mit WLAN-
Adaptern, sogenannten Access Points. Datenübertragung per WLAN unterliegt damit
denselben Rahmenbedingungen wie reines Ethernet per Kabel.)

Fangen wir also mit Ethernet an, ohne auf die (nur etwas zäh erklärbare) Technik im
Hintergrund einzugehen. Mittels des Übertragungsstandards „TCP“ (Transmission Control
Protocol) werden Daten per Ethernet-Standard mit bis zu 10 Gigabit/Sek. übertragen. Das
genügt also für die Datenraten der oben beschriebenen Digitalisierungstechniken. Leider ist
TCP nicht frei von Jitter, allerdings wirkt er sich hier anders aus: Die Datenpakete werden in
der falschen Reihenfolge empfangen. Mittels sogenannter „Jitter Puffer“ ist hier aber eine
Reduzierung des Jitters möglich, diese müssen in der verwendeten Hardware und Software
fest eingebaut werden. Benutzt wird TCP beispielsweise von Netzwerkplayern.

S/PDIF (Sony/Philips Digital Interface Format) ist ebenfalls eine Transportvorschrift für
digitale Daten und die wohl im HiFi-Bereich am meisten verbreitete. Das analoge
Trägersignal der Verbindung wird dabei per Modulation so verändert, dass die digitalen Daten
übertragen werden – dadurch können die Zustände 0 und 1 empfängerseitig rekonstruiert
werden.

Die Daten werden framebasiert, das heißt in abgegrenzten Blöcken transportiert. In diesen
Frames sind die Samples der digitalen Daten enthalten. Leider transportiert S/PDIF neben den
Daten die Clockinfomationen beziehungsweise den Takt der Signale im gleichen Datenstrom,
was zu vermehrtem Jitter führen kann. Ebenso beeinflusst die Leiterbeschaffenheit inklusive
der Steckverbindungen die Signalqualität, zum Beispiel durch den jeweiligen
Wellenwiderstand.

Hardwareseitig nutzt S/PDIF als Übertragungswege koaxiale (RCA), optische (Toslink), aber
auch BNC– oder AES/EBU– beziehungsweise XLR-Verbindungen.
Bei der Übertragung mittels Toslink, einer Toshiba-Handelsmarke, die eigentlich EIAJ
Optical heißen müsste, weil sie von der Electronics Industries
Association of Japan entwickelt wurde, hatte man zwei Ziele
im Auge: Billige Stecker/Buchsen und Kabel sowie die
Abwesenheit elektromagnetischer Strahlung, um generell
keine Probleme mit den FCC-Bestimmungen für
Strahlungsarmut zu bekommen. Wo in den 1990er-Jahren ST-Verbinder, Glasfaserkabel und
spezielle Stecker für sehr gut klingende Toslink-Verbindungen genutzt wurden, wird im HiFi-
Bereich heute vielfach Plastik als Lichtleiter eingesetzt.

Und damit wären wir beim Übertragungsprinzip: Das digitale Signal (S/PDIF) wird auf (für
Menschen sogar sichtbare) Lichtsignale moduliert und am Empfänger demoduliert. Die
Übertragung findet theoretisch verlustfrei statt, solange der Leiter und die Verbinder keine
Defekte haben. Die können zum Beispiel durch starke Knicke des Leiters entstehen, so dass
das Signal verändert oder unterbrochen wird.

Leider weist Toslink mit 6 MHz die geringste Bandbreite aller gebräuchlichen digitalen
Verbindungen auf und klingt damit potenziell am schlechtesten, weil Jitter mit steigender
Bandbreite abnimmt (höhere zeitliche Auflösung des Signals). Das kann sich in verhangenem
Klang, geringerer Instrumentenseparierung, weniger Basskontrolle und geringer ausgeprägter
Fähigkeit, Ruhe in Musikpausen zu „transportieren“, äußern. Elektrische S/PDIF-
Verbindungen können dagegen bis zu 500 MHz nutzen.

Bei optischen Verbindungen irrelevant, bei elektrischen dagegen umso wichtiger sind
zueinander passende elektrische Widerstände. 75 Ohm Wellenwiderstand sind der Quasi-
Standard für S/PDIF-RCA-Verbindungen, +/- 5% sind laut offizieller Spezifikation für
Längen bis 10 m erlaubt, bei Längen über 10 m sogar 35%, und zwar inklusive
Steckverbindungen. Die hierbei verwendeten Kabel und Stecker/Buchsen sehen denen für die
analoge Signalübertragung genutzten Kleinsignal-Cinchkabeln sehr ähnlich – beide
Kabelarten funktionieren im Prinzip auch in jedem der beiden Einsatzbereiche. Trotzdem sind
spezielle Digitalkabel ratsam, um die Leitereigenschaften optimal ans digitale Signal anpassen
zu können, speziell hinsichtlich des Widerstandes: Quelle, Kabel und Empfänger (DAC)
sollten impedanzseitig zueinander passen. Der Grund ist die Vermeidung von Jitter
induzierenden Reflexionen des Signals in der Verbindungstrecke.

Einstreuprobleme, ein weiterer klangschädlicher Einflussfaktor, machen nicht nur analogen


Kleinsignalkabeln (Cinch) zu schaffen, sondern auch digitalen Verbindungen – und wie in der
analogen so wird auch in der digitalen Welt versucht, dem Problem mittels symmetrischer
Signalübertragung entgegenzutreten: AES/EBU-Schnittstellen (Audio Engineering
Society/European Broadcasting Union) sind inzwischen mitunter sogar an preiswerteren
DACs zu finden, wenngleich diese Verbindungsart technisch aufwändiger zu realisieren ist.
AES/EBU-Verbindungen (Wellenwiderstand 110 Ohm, +/- 20%, bis 100 m) arbeiten mit 5
Volt verglichen zu 0,5 Volt bei digitalen RCA-Verbindungen, was bei Letzteren schon alleine
deshalb eine höhere Einstreuempfindlichkeit nach sich zieht (analoges RCA funktioniert bei
Hochpegelquellen dagegen mit zirka 2 Volt).

Der Ursprung der symmetrischen Signalübertragung liegt im Studiobereich, wo häufig


längere Kabelstrecken zu überwinden sind als im Heimbereich – und ob digital oder analog,
die Grundwirkungsweise ist identisch: Mithilfe dreier Leiter werden jeweils das „normale“,
das invertierte Signal sowie die Masse übertragen. Durch Subtraktion der beiden
gegeneinander invertierten Signale werden auf sie von außen gleichermaßen einwirkende
Störsignale automatisch „gegengerechnet“ beziehungsweise kompensiert – am Empfänger
resultiert daraus ein Ausgangssignal mit doppelter Amplitude und um 6 dB erhöhtem
Signal/Rausch-Abstand.

Und weil es mit RCA, Toslink und AES/EBU offenbar noch nicht genügend S/PDIF-
Schnittstellen gab, erfand man eben noch eine weitere: Das
unsymmetrische BNC (Bayonet Neill Concelman,
Wellenwiderstand von 75 Ohm) wird im Studio zuweilen
alternativ zu AES/EBU eingesetzt: BNC ist mechanisch
stabiler als RCA. Elektrisch bietet sich ebenfalls ein
Vorteil: Der Durchmesser des Kontaktstiftes des BNC-
Steckverbinders ist so konstruiert worden, dass er besser
zum 75-Ohm-Widerstand der verwendeten Kabel als der
Kontaktstift von RCA-Steckern passt. Dadurch kann BNC
durchaus klangliche Vorteile gegenüber RCA-S/PDIF
aufweisen.
7 Kann fast alles: USB

Der Universal Seriell Bus – die meistgenutzte Schnittstelle für externe Geräte an
Personalcomputern/Notebooks – wurde schon 1995 von Intel entwickelt, ist sehr gut
standardisiert und für Audio auch im professionellen Bereich geeignet. 5 Volt Spannung
liegen an der Leitung an – im Gegensatz zu allen anderen im HiFi-Bereich gebrauchten
digitalen Verbindungen ermöglicht USB auch die Stromversorgung eines Gerätes,
beispielsweise eines DACs.

Das universelle an USB ist, dass es nicht von Bedeutung ist, welche Art von Daten übertragen
wird: Audiosignale, Dateien, Tastatursignale etc. Vorzüge sind zudem die relative
Anspruchslosigkeit hinsichtlich Kabel-/Steckerqualität beziehungsweise Kabellänge (max. 5
m) sowie die möglichen hohen Bandbreiten, die mit maximal 480 MBit/Sek. (USB 2.0)
ausreichen, um die zirka 12,3 MBit/Sek. von 192 kHz-Audiotracks mit 32 Bit Bittiefe zu
transportieren. DSD-Datenströme übrigens benötigen bei 5,6448 MHz Abtastfrequenz (nicht
Samplingfrequenz) Schnittstellen, die die 128-fache Datenrate der Audio-CD, also zirca 180,6
MBit/Sek., übertragen können. USB 2.0 genügt auch dafür.

Wie bei PC-Technik so üblich, entwickelt sich auch USB prächtig: Waren vor rund 10 Jahren
nur die Standard-Raten bis 48 kHz/16 Bit üblich (die kann man nativ ohne besondere Treiber
nutzen, 96 kHz werden heutzutage aber ebenfalls seitens der verbreiteten PC/Mac-
Betriebssysteme unmittelbar unterstützt), so liegt die derzeitige Spitze meines Wissens nach
bei 384 kHz und 64 Bit Bittiefe. Das erreicht man allerdings nur mit eigens entwickelten
USB-Controllern und Treibern für DACs, wie zum Beispiel beim Zodiac Gold von Antelope
Audio realisiert. 192 kHz, ebenfalls nur mithilfe spezieller Treiber zu erreichen, sind dagegen
bei den meisten höherwertigen DACs üblich.

384-kHz-Quellmaterial wird meines Wissens nach derzeit nicht kommerziell angeboten –


Antelope Audio bediente früher hauptsächlich den professionellen Studiomarkt, wo der
Toningenieur selbst bestimmt, mit welcher Auflösung studiointern gearbeitet wird.

Im Zusammenhang mit USB und DACs reden wir auch häufig von Streaming. Dieser schöne,
bereits fleißig ins Fach-Deutsch übernommene Begriff kennzeichnet die Audio- oder
Videowiedergabe von digitalen Quellen, ohne dass das D/A-wandelnde Gerät selbst zwingend
einen eigenen Speicher nutzt. Es wird also von der Quelle direkt ohne eine zuvor
abgeschlossene Übertragung der gesamten Audiodatei ein Signal zum DAC transportiert und
von diesem sozusagen „live“ ausgegeben. Verbinden wir einen DAC mit einem PC oder Mac
und spielen beispielsweise mit einem Mediaplayer wie Foobar Audiotracks ab, so ist das
bezogen auf den DAC also Streaming. Foobar selbst allerdings streamt in diesem Kontext
nicht, sondern öffnet die Datei von der Festplatte vollständig und spielt sie ab.

Das Wesen des Streamings ist also die Datenverarbeitung am Empfänger, ohne dass dieser
weiß, wann der Datenstrom zu Ende ist. Generell ist Streaming dabei abhängig vom
Datenformat und Übertragungsweg. Formate wie MP3 sind streamingfähig, da sie decodiert
(abgespielt) werden können, bevor die gesamte Datei übertragen wurde. Das erledigt die
Architektur des Datenformates für uns Nutzer. Gleiches gilt für WAV und FLAC. Die
Verarbeitung von Red-Book-Daten in einem CD-Player ist auch eine Art von Streaming: Die
Blöcke auf der CD werden nach und nach an den internen (oder externen) DAC gereicht und
verarbeitet, ohne dass zunächst die gesamte CD oder ein ganzer Track vollständig gelesen
werden muss.
Aber ist USB immer gleich USB? Seit geraumer Zeit ist der sogenannte asynchrone USB-
Modus schwer in Mode, sprich bei höherwertigen DACs beinahe standardmäßiges Feature.
Der DAC oder Netzwerkspieler, der den USB-Datenstrom im asynchronen Modus empfängt,
kann dann selbst per eigener Clock eine Neutaktung des Signals vornehmen, was der
Spaßbremse Jitter wirksam Einhalt gebieten soll.

Allerdings sind nicht alle Anbieter USB-bewehrter Audioelektronik von dessen Vorteilen
überzeugt, so vertraut man beispielsweise beim norwegischen Hersteller Hegel (siehe
fairaudio-Test Hegel HD11) bewusst auf den adaptiven Modus und ersinnt eigene
jitterminimierende Maßnahmen. Andere (beispielsweise Antelope Audio, Benchmark) gehen
die Eliminierung von Jitter – und darum geht es primär bei der USB-Modus-Entscheidung –
mittels komplett eigener Lösungen an. Das fairaudio-Lexikon gibt zu den genannten USB-
Modi ausführliche Auskunft im Detail, wenn man das Thema weiter vertiefen möchte.

USB 3.0 spielt meines Wissens nach bei High-End- oder Studio-Audiogeräten noch keine
besondere Rolle. Dessen sehr hohe maximale Datentrate von 4GBit/Sek. ist – wie wir gesehen
haben – für die derzeit verbreiteten Audiodaten auch nicht nötig.

Last but not least: I²S

Als ob die digitale Schnittstellenwelt nicht schon vielfältig genug wäre, gibt es freilich noch
weitere, wenngleich weniger populäre digitale Schnittstellen – eine davon soll nicht
unerwähnt bleiben: Das Inter-IC Sound Interface I²S. Es wurde bereits 1996 spezifiziert und
wird standardmäßig in CD-Playern oder Laufwerk/Wandler-Kombinationen zwischen
Laufwerk und DAC-Sektion eingesetzt.

I²S ist im Gegensatz zu USB ausschließlich für die unidirektionale Verbindung spezifiziert
und daher nur in der Lage, Daten zu empfangen, nicht aber zu senden und damit
Steuerungsinformationen an den Datenlieferanten zu übertragen. Anders als beispielsweise
bei S/PDIF werden aber Audiodaten und Taktinformationen getrennt übertragen. Für die
Masterclock – den erwähnten Dirigenten der digitalen Signale – steht eine eigene Leitung zur
Verfügung. Es entfallen damit der Kodierungs/Dekodierungs-Aufwand sowie das
Rekonstruieren der Samplingfrequenz, wodurch sich Jitter erheblich besser im Zaum halten
lässt.

Die bei I²S mögliche Bandbreite von 12,288 MHz für 192 kHz Samplingfrequenz bei max. 48
Bit Bittiefe genügt auch hochauflösendem Datenmaterial. Zudem wurden Varianten von I²S
für Mehrkanalformate entwickelt.

Das Problematische an I²S ist der fehlende Standard für Steckverbindungen: Alles ist
möglich, von BNC, über HDMI, Computer-Netzwerkanschlüssen (RJ45) oder gar DIN-
Verbindern. Dies ist sicher ein Grund für dessen Schattendasein bis zum heutigen Tag,
obwohl bereits 2006 alle Patente für die Schnittstelle ausgelaufen und dadurch entsprechende
Implementierungen preiswert geworden sind. Einige wenige Hersteller hochwertiger DACs
und Laufwerke (beispielsweise B.M.C. Audio, North Star Design, PS Audio) haben sie aber
in letzter Zeit neu für sich entdeckt – oft mit nicht standardisierten Steckverbindungen.