Sie sind auf Seite 1von 139

Stand: August 2005

Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Dieses Werk ist notariell urheberrechtlich geschützt worden. Verbreitung,


photomechanische und elektronische Wiedergabe, Vervielfältigung,
Übersetzung, auch auszugsweise nur mit ausdrücklicher schriftlicher
Genehmigung des Verfassers.
Alle im Rahmen des Werkes genannten und genutzten und ggf. durch Dritte
geschützten
Marken- und Warenzeichen unterliegen uneingeschränkt den Bestimmungen
des jeweils
gültigen Kennzeichenrechts und den Besitzrechten der jeweiligen eingetragenen
Eigentümer.
Allein aufgrund der Nennung ist nicht der Schluss zu ziehen, dass
Markenzeichen nicht durch Rechte Dritter geschützt sind. Dieses Werk dient
nur zu Informationszwecken. Es wurde mit größter Sorgfalt gearbeitet, um
Widersprüche und Fehler auszuschließen. Der Autor behält sich das Recht vor,
dieses Werk jederzeit ohne Vorankündigung zu ändern. Für eventuelle
inhaltliche Fehler wird keine Haftung übernommen.

2
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

INHALT

Einführung 7
Pre-Mastering 7
loudness race 8
Mastering 12
CD-Glassmaster und Master-CD 12
Audio-CD und CD-R 12
Qualität von CD-R Rohlingen 13
Qualitätsgrad und Block-Error-Rate 14
Beschichtungen von CD-Rs (Dye) 15
Andere Beschichtungen 16
Psychoakustik 17
Studio- oder Homerecording? – Rückblicke und Ausblicke 22

Grundlagen in Digital Audio 27


Lautstärke (Schalldruck) 27
Peakmeter und Clipping 28
Verzerrungen bei + dBFS 30
Lautheit, loudness, RMS 30
dBA -, Phon-, Sone-Tabelle 32
Höroptimum (Fletcher-Munson-Phänomen) 33
Digitalisierung 33
Klangqualität 35
Samplerate 35
Bitrate und Samplewert 36
Signal-to-Noise (Rauschabstand) 37
Red-Book-Format 38
Bitraten-Konvertierung und Quantisierungsrauschen 38
Dithering 39
Noiseshaping 41
Quantisierungsfehler 42
DC-Versatz 43

3
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Dynamikbearbeitung 44
Breitband-Kompressor (Einzelbandkompression) 44
Make-Up-Gain und Auto-Gain 46
Hard Knee und Soft Knee 47
Opto-Kompressor und Electro-Kompressor 48
Downward- und Upward-Kompressor 48
Multibandkompression 49
Vintage-Kompressoren 50
Side-Chain 51
Downward- und Upward-Expansion 51
Normalizer 52
Frequenzspektrum des EQs 53
Frequenzbereiche und ihre Charakteristika 53
Low-Cut und High-Cut 54
Graphischer und parametrischer EQ 55
Flankensteilheit 57
EQ-Filtertypen 58
Lineare Equalizer 61
Limiter 62
Brickwall-Limiter und Soft-Limiter 63

Raumakustik 64
Reflexionen 64
Raumresonanzen 65
Diffusoren 65
Akustik im Aufnahmeraum 66
Akustik im Abhörraum 66
Aufstellung von Studiomonitoren 68

Schalldämmung 68
Absorber 69
- Poröse Absorber 69
- Akustikputz 70
Resonatoren 70
- Plattenresonatoren 70
- Helmholtz-Resonator 71

4
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

- perforierte und mikroperforierte Absorber 72


Dämmen von Türen und Fenster 73
Dämmen des Bodens 74
Dämmen von Wänden 74
Bau eines Plattenresonators 75
Dämmen der Decke 75
PC-Dämmung (Silent PC) 76

Studiomonitore (Studiolautsprecher) 80
Frequenzgang 81
Impulswiedergabe 82
Aktive Monitore 83
Verstärkung von passiven Monitoren 83
Konstruktion und Basswiedergabe 84

Mixing 85
Aufnahmequalität und Klangmaterial 86
Pegel-Angleichung der Spuren 86
Abhörlautstärke 87
EQing 88
Kompression von Einzelsignalen 89
Komprimieren des Bassbereiches 90
Allgemeines zu Attack-Werten 90
Allgemeines zu Treshold (Schwellwert) und Ratio-Werten 91
Alles auf einen Blick: EQing und Kompressor-Tabelle 92
Anordnung der Instrumente im Stereo-Bild (Panorama) 97
Hall und Delays auf einzelnen Instrumenten 100
Monokompatibilität, Korrelationsgrad 100
Exiter auf Einzelsignalen 101
Saturationseffekte auf Einzelsignalen 102
Referenz 102
Pegelaussteuerung bei 24 Bit 102

Pre-Mastering 104
A/B-Vergleich beim (Pre-)Mastern 104
Empfohlene Sampleraten und Bitraten für das (Pre-)Mastern 105

5
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Fehlerkorrekturen der Summe 106


- De-Noising/De-Humming 106
- De-Clicking 107
- De-Essing 107
- Messung des DC-Versatz 107
- Stereobild-Korrektur 107
Sweetening mit EQ 107
Sweetening mit Kompressor 109
Klangveredelung und psychoakustische Effekte beim Pre-
Mastering: 112
- Saturation 112
- Hall 115
- Enhancer und Exiter 115
- Stereoverbreiterungs-Effekte (Stereo-Enhancer) 115
Limitieren 116
Re-Sampling 117
Bitrate-Conversion & Noise-Shaping 117

Mastering 118
Tracklist 118
PQ-Editing 119
Fade-Outs und Fade-Ins (Spacing) 120
Amtlicher Summenpegel 121
Anfertigen der Master-CD 122

Musikrecht 123
Urheberrecht 123
Schutz vor Urheberrechtsverletzungen 125
Urheberrechtsverletzungen –unnötige Sorge?! 126

Anhang 131
Diverse Grafiken 131
432 Hertz – Musik in neuen Tönen 133

Impressum 137

6
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Einführung

Pre-Mastering

Beim Pre-Mastering wird das fertig gemixte Musikstück in Frequenzgang,


Dynamik, Lautstärke und Stereoverhalten (Panorama) so angeglichen, dass es
vergleichbaren amtlichen Produktionen entspricht. Außerdem werden
Fehlerkorrekturen und Klangveredelungsmaßnahmen durchgeführt.
Das Stück bekommt dabei alle Vorraussetzungen um im Rahmen einer
Musikzusammenstellung auf CD, Vinyl oder ein anderes
vervielfältigungsfähiges Master-Medium übertragen zu werden. Alle
Arbeitsschritte des Pre-Mastering beziehen sich auf das Summsignal und nicht
auf die einzelnen Spuren im Mix.
Summensignal ist dabei die Bezeichnung für die Summe von mehreren
Einzelsignalen Die Bearbeitung einzelner Spuren nennt man daher
Einzelsignalbearbeitung, sie erfolgt üblicherweise während oder vor dem
Mixing.

Das Pre-Mastering und Mastering sollte möglichst von einen Mastering-


Engineer vorgenommen werden. Der Mastering-Engineer macht oft nichts
anders als Stücke zu (pre)mastern, wohingegen andere Leute kaum mehr als
ihre eigenen Stücke mastern. Daher weiß ein Mastering-Engineer sehr genau,
was wann zu tun ist und ist mit tontechnischen Feinheiten vertraut. Da der
Mastering-Engineer eine neutrale Peson ist und die Produktion im Gegensatz
zu den jeweiligen Künstlern vorher nicht schon zig Mal gehört hat, geht er mit
frischen und unvoreingenommene Ohren an die Arbeit. Oft hat ein Mastering-
Engineer Erfahrungen mit jeder Art von Musik, andere wiederum haben durch
ihre Arbeit besondere Erfahrungen in bestimmten Musikrichtungen.

Pre-Mastering ist kein Wundermittel! Es legt nur den allerletzten Feinschliff an


eine Produktion und wird in seinen Stellenwert – gerade von (noch)
unerfahrenen Produzenten – oft überbewertet. Pre-Mastern allein nützt aber

7
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

nicht viel, wenn ein amtlicher Klang erreicht werden soll. Ohne einen
professionellen Mix und qualitativ hochwertige Samples und Aufnahmen im
Stück, wird selbst das beste Pre-Mastering das Stück nicht amtlich klingen
lassen.

Dennoch wird Pre-Mastern immer noch zu professionelleren Ergebnisse


führen, als wenn man es bequemerweise ganz weg lassen würde. Defizite in der
Einzelsignalbearbeitung können dabei aber logischerweise nur selten
ausgeglichen werden.

loudness race

Beim Pre-Mastering wird besonders viel Wert darauf gelegt, dass das
Audiomaterial möglichst laut und druckvoll klingt. Die Musik sollte bei relativ
gleicher Lautstärke mindestens so laut klingen, wie aktuelle amtliche
Produktionen des selben Genres. Eine hohe Lautstärke wird besonders für
Chartmusik angestrebt, um sich gegenüber anderen Produktionen
lautstärkemäßig durchzusetzen. Außerdem müssen die Musikstücke, die auf
dem Tonträger später zusammengestellt werden sollen, auch untereinander eine
einheitliche Lautstärke bekommen. Zusätzlich wird das Material aber auch vom
Frequenzgang und dem Klang der Produktion an sich angeglichen. So klingen
auch Stücke mit sehr unterschiedlichen Klangmaterial, oder solche, die unter
ganz verschiedenen akustischen Bedingungen aufgenommen worden,
untereinander angeglichen. Die manchmal sehr unterschiedliche Musik auf
einem Album bekommt durch Pre-Mastering also ihren Zusammenhalt.
Dadurch ist ein Pre-Mastering letztendlich mitentscheidend für den Klang des
gesamten Albums.

Pre-Mastering beinhaltet natürlich noch andere verschiedene Korrektur- und


Klangveredelungsmaßnahmen, die noch im weiteren Verlauf dieses Buches
besprochen werden.

Zur Dynamikbearbeitung beim Pre-Mastering kommen insbesondere Audio-


Kompressoren und Limiter zum Einsatz. Sie verringern die Dynamikspanne im
Audiosignal, indem sie den Unterschied zwischen leisen und lauten Stellen
verkleinern, bzw. hohe Pegelspitzen absenken. Dadurch wird es möglich, die

8
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Gesamtlautstärke der Musik noch höher einstellen zu können, ohne dass es zu


Verzerrungen kommt. Es entsteht dadurch nicht nur ein gleichmäßigerer,
verständlicherer sondern auch ein druckvollerer und lauterer Sound. Diese
subjektiv empfundene Klangstärke von Musik umschreibt man mit dem Begriff
„Lautheit“. Lautheit sollte deshalb nicht mit Lautstärke verwechselt werden.
Lautstärke bezeichnet strenggenommen nur den gemessenen Schalldruck, sagt
aber noch nichts darüber aus, wie laut dieser gemessene Schalldruck tatsächlich
vom Hörer empfunden wird. Wenn normale Leute also von Lautstärke
sprechen: z.B. „Ist das wieder eine Lautstärke hier!!“, dann müssten sie eher das
Wort „Lautheit“ benutzen.

Der Sinn, warum ein Stück überhaupt möglichst laut klingen soll, ist, dass alle
Produktionen im Radio oder Fernsehen, die lauter klingen als andere zu Anfang
eher die Aufmerksamkeit des Hörers auf sich ziehen. Dies ist aber nur ein
kurzzeitiger Effekt, weil sich das Ohr schnell an geänderte
Lautstärkeverhältnisse gewöhnt. Die Unterschiede zwischen lauten und leisen
Produktionen werden also nur im direkten Vergleich bemerkt.
TV- und Radio-Werbespots trimmt man so auf Lautheit, dass sie sich oft
störend vom vorhergehenden Programm abheben. Obwohl die Lautstärke der
Werbespots rein messtechnisch gesehen nicht lauter ist als das vorhergehende
Programm, wirkten sie deutlich lauter. Das Motto ist also: Wer lauter klingt als
die anderen, hat gewonnen. Es steckte somit viel Konkurrenz-. und
Geschäftsdenken dahinter und dieses Denken hat schließlich auch die Musiker
infiziert.
Deswegen versuchen viele Produzenten heute durch massiven Kompressor-
und Limiter-Einsatz, ihre Produktionen noch lauter klingen zu lassen, als die
ohnehin schon lauten Konkurrenz-Produktionen. Dieser scheinbar nicht
endende Wettstreit um die lauteste Produktion nennt sich im Fachjargon
loudness-race. Im Zuge der loudness-race wird schon mal recht grob
vorgegangen: So sind Fälle von amerikanischen Produzenten bekannt, die sogar
das Risiko von kleinen Übersteuerungen (Verzerrungen) in ihren Produktionen
in Kauf nahmen, nur um ihre Musik lauter als die der Konkurrenz zu
bekommen. Gerade im Bereich elektronischer Tanz-Musik beurteilen viele DJs
die Vorführtauglichkeit einer Produktion nach deren Lautheit. Manche weigern
sich deshalb schon im Vorfeld dazu, „leise“ Produktionen überhaupt in ihr Set
aufzunehmen. Dabei wird offensichtlich vergessen dass es Lautstärkeregler gibt,
mit denen man unterschiedliche laute Produktionen problemlos aneinander

9
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

angleichen kann. Auch in Sendeanstalten von TV und Rundfunk setzt man


eine gewisse Lautheit der Musikproduktion bereits voraus, obwohl hier selbst
lautes Material oft noch kräftig nachkomprimiert wird. Der "amtliche" Klang
einer Produktion wird also insbesondere durch die Dynamikbearbeitung
(Dynamikabtötung? ) eines Stückes erreicht.

Es ist bedenklich, wie durch den Einsatz von übermäßig viel Kompression und
(Pre-)Limiting das letzte Quentchen Dynamik aus einer Aufnahme
rausgequescht wird, nur um konkurrenzfähig zu sein. Da heute jeder möglichst
laut produziert, setzt sich eine laute Produktion letztendlich doch nicht mehr
wirklich von aktuellen Konkurrenzproduktionen ab. Außerdem ist die Frage ob
die Aufmerksamkeit die ein lauteres Stück auf sich zieht immer positiver Art ist.
Wenn einen die Musik gefällt schon, - aber wenn nicht, wird man es eher als
störend empfinden, dass es plötzlich lauter wird. Besonders wenn statt Musik
laute Werbung in das Filmerlebnis hereinbricht. Dies ist wohl eher aufdringlich
und marktschreierisch als hörer- oder kundenfreundlich.
Die Taktik, die man mit der loudness race eingeschlagen hat ist also eine
Sackgasse, schon allein deshalb, weil es gewisse technischen Grenzen für
maximale Lautheit und Lautstärke gibt. Heute, so könnte man meinen, muss
deshalb schon möglichst viel Lautheit erreicht werden, um nicht ganz im
Schwarm der loudness-race unterzugehen. Gerade dieser Denkansatz erhält das
Phänomen der loudness race aber aufrecht. Das Argument „Das machen doch
alle so!“, ist deshalb genau die Ursache dafür, dass es auch weiterhin alle so
machen werden...

Allein das Benutzen der Wörter „Konkurrenz“ und „Produktion“ zeigt, wie
sehr es nur noch um Marketing-Interessen – also Geld – geht und darum, ganz
oben dabei zu sein. Ein druckvoller Klang und Verständlichkeit in der Musik ist
eine gute Sache, solange die Lebendigkeit der Musik dabei nicht komplett
verloren geht. Viele Aufnahmen klingen lebendiger mit mäßiger Kompression
und wirken bei zu viel Kompression schnell steril und platt. In einem echten
Orchester gibt es auch laute und leise Passagen und auch in allen anderen
natürlichen Wiedergabesituationen wird man Dynamik finden. Eine Erhaltung
eines gewissen Anteils an Dynamik bei Musikproduktionen wäre daher
wünschenswert, zumal heute die Technik soweit ist um in hoher Qualität große
Dynamikspannen wiederzugeben, was damals zu Zeiten der Vinylplatte noch
nicht möglich war. Selbst zu dieser Zeit hatten Aufnahmen dennoch wesentlich

10
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

mehr Dynamik als heute.

Die Anwendung von Kompression war ursprünglich jedoch eine rein


technische Notwendigkeit; hierzu ein Beispiel: Ein Orchester hat einen
Dynamikumfang, der nicht dem Dynamikumfang einer Vinylplatte entspricht.
Deswegen kann man solche Aufnahmen ohne Kompression nicht 1:1 auf Platte
schneiden, ohne dass die leisen Signale im Grundrauschen und Knistern der
Platte untergehen und laute Signale Verzerrungen oder das Springen der Nadel
hervorrufen. Die lauten Signale können zudem bei der Anfertigung der Platte
die Vinylmatrize zerstören. Es war damals also ein Kunststück, ohne
Kompression einen geeigneten Gesamtpegel zu finden. Dieses Kunststück
gelang erst mit Einführung des Audio-Kompressors wirklich. Audio-
Kompressoren wurden zu diesem Zweck in den 50`er und 60`er Jahren
ausschließlich bei der Pressung eingesetzt. Durch sie konnte der
Dynamikumfang der Aufnahme reduziert und dadurch auf die
Dynamikkapazität der Platte abgestimmt werden, was eine problemlose
Wiedergabe ermöglichte. Die so komprimierte Musik ermöglichte auch eine
bessere Übertragung per Rundfunk.
Dies hatte natürlich auch den Nebeneffekt, dass der Hörer nicht zu vosichtig
bei der Wahl der Abspiellautstärke sein musste. Ohne oder mit zuwenig
Kompression gibt es innerhalb einer Aufnahme sehr große
Lautstärkeunterschiede und fängt die Aufnahme sehr leise an, kann es sein, dass
der Hörer die Lautstärke zu hoch drehte und seine Lautsprecher bei den lauten
Stellen beschädigt werden (z.B. ein Orchester was aufeinmal vom piano ins
fortissimo geht). Erst in den 70`er Jahren wurde der Kompressor im Studio
auch eingesetzt, um bewusst die Lautheit von Musik zu erhöhen.

Würde man heutzutage im Bereich der U-Musik (Unterhaltungsmusik) weniger


komprimieren, wäre das z.B. bei elektronischer fast schon ein Stilbruch. U-
Musik lebt heutzutage weitesgehend von Hyperkompression. Das
Hauptmerkmal von Hyperkompression ist ein recht lebloser und überdichter
Klang ohne jegliche Transparenz. Ein gemäßigter Einsatz vom Kompression
wird aber auch im bereich der U-Musik als "musikalischer" empfunden, da die
Musik durch eine größere Dynamikspanne lebendiger wirkt. Tatsächlich klingen
nahezu alle Produktionen bis Mitte der 90iger Jahre noch musikalischer als die
heutigen amtlichen Sachen, da damals eine erheblich größere Dynamik
beibehalten wurde.

11
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Mastering

Der Ausdruck Mastering wird oft synonym für das Pre-Mastern verwendet. Das
eigentliche Mastering oder Mastern besteht aber strenggenommen nur aus dem
Erstellen einer Tracklist (Auswahl und Abfolge der Musikstücke für eine
Musikzusammenstellung) und dem Zusammenstellen der Musik auf einen
vervielfältigungsfähigen physikalischen Datenträger (z.B. Vinyl-Platte, Kassette,
CD). Für CD-Produktionen muss ein sog. CD-Glassmaster gepresst werden,
das im Presswerk als Vorlage für die Herstellung der CD-Serie dient.

CD-Glassmaster und Master-CD


Viele Homerecordler und Hobby-Producer lassen sich aus Kostengründen
keine gepressten CDs herstellen und brennen ihre Musik beim Mastern auf eine
herkömmliche CD-R (CD-Recordable.) Dies ist nicht weiter schlimm, denn
solange eine CD-R im sog. Red-Book-Format gebrannt wird, das die
Spezifikation für eine Audio-CD festlegt, kann sie jederzeit in einem Presswerk
auf ein CD-Glassmaster überspielt werden.

Audio-CD und CD-R

Der physikalische Unterschied zwischen einer gebrannten CD (CD-R) und


einer gepressten CD ist dabei folgender: Bei einer gepressten CD werden kleine
Vertiefungen in die CD gesetzt. Die sich daraus ergebenden Abfolgen von
winzigen unsichtbaren (!) Einkerbungen (Pits) und planen Stellen (Lands)
repräsentieren die digitale 0 bzw. die digitale 1, durch die die Musik codiert
wird. Der Laserstrahl reflektiert nun beim Abtasten der sich drehenden CD-
Scheibe in den Pits und Lands unterschiedlich und liest somit je nach
Reflektionsgrad eine 1 oder 0. Gepresste CDs haben eine hohe Lebensdauer
von mindestens 100 Jahren.
Bei einer gepressten Audio-CD sind die Daten auf mehreren Schichten
abgelegt, selbst bei Kratzern gehen sie also nicht so schnell verloren.

12
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bei einer CD-R wird beim Beschreiben eine organische Beschichtung (Dye)
durch den Laserstrahl angeschmilzt, so dass sich deren Reflexionseigenschaft
ändert und es einem Pit gleicht. Durch die so erzeugten Pits und Lands
übermittelt der Laserstrahl den digitalen Code genauso effektiv wie bei einer
gepressten CD. CD-Rs haben je nach Fabrikat sehr unterschiedliche
Lebensdauern von 10 bis 100 Jahren. Mittlerweile sind auch CD-Rs im Umlauf
sind, die laut Herstellerangaben (Herstellerbehauptungen? ) bis zu 500 Jahren
ihre Daten halten können. Dies sind natürlich immer alles theoretische
Angaben, denn durch die manchmal ungenügende Verarbeitung von CD-Rs
(mangelnde Kratzfestigkeit, beschädigter Dye etc.) können Daten durchaus mal
sehr schnell verloren gehen, hierbei spielt natürlich auch die richtige Lagerung
und Handhabung eine Rolle.

Qualität von CD-R Rohlingen


Ein Problem beim CD-R Kauf ist, dass man nie sicher weiß, was wirklich
drinsteckt.
Man unterscheidet zwischen Herstellern von CD-Rs und Anbietern von CD-
Rs. Der Anbieter ist immer die Marke, die auch auf der Verpackung draufsteht.
Manchmal sind Anbieter und Hersteller auch identisch. Viele Hersteller treten
nie selber als Anbieter in Erscheinung und produzieren mal für diesen und
dann für jenen Anbieter. Die Anbieter nehmen aber auch nicht immer den
gleichen Hersteller sondern wechseln oft. Es gibt insgesamt weit mehr Anbieter
als Hersteller. Manche Anbieter stellen auch selbst CD-Rs in Eigenproduktion
her, die dann auch unter eigenen Namen vertrieben werden, sind also auch
Hersteller. Viele solcher Anbieter lassen einen Teil ihrer CD-R-Serie aber noch
zusätzlich von einen anderen Hersteller anfertigen. Meist sind dies dann Billig-
Hersteller, wodurch gewährleistet wird, dass der Anbieter kostengünstiger seine
eigenen CD-Rs herstellen kann. So kann es sein, dass z.B. in einer 10er Box
CD-Rs in einen Fall die hauseigenen CD-Rs des Anbieters drin sind (z.B. TDK)
und ein anderes Mal welche aus der Produktion eines Billig-Herstellers. Es gibt
auch Fälle, wo ein Anbieter eine zeitlang seine CD-Rs von einen namenhaften
Hersteller anfertigen lässt und dann später, wenn es die Marketing-Strategie
erfordert (nach einen guten Testbericht? ) zu einen billigeren wechselt, um
noch mehr Gewinn zu machen oder Kosten zu senken. Je namenhafter der
Anbieter ist, desto wahrscheinlicher ist es, dass auch gute Hersteller, wie z.B.

13
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Tayio Juden, Ritek etc. hinter dem Anbieter stecken. Auch gibt es Fälle, wo
bekannte Hersteller selber als Anbieter in Erscheinung treten und dabei
ausschließlich hauseigene Rohlinge verwenden.

Sichere Auskunft über den Hersteller des CD-Rohlings, den Dye etc. liefert der
Barcode auf der CD-R-Verpackung EAN-Code (European-Article-Number
[besteht aus 13 Ziffern]) und der UPC-Code (Universal-Production-Code
[besteht aus 12 Ziffern]). Dies kann man in Internetdatenbanken recherchieren
(http://www.cdr-forum.de/showcdrhersteller.php?ID=150). Auch können
diese Informationen mittels spezieller Software von der CD-R im CD-Laufwerk
ausgelesen werden.

Qualitätsgrad und Block-Error-Rate

Die Qualität eines CD-R-Rohlings (Grade) wird durch die Block Error Rate
(BLER) definiert, je geringer diese ist, desto höher die Datenintegrität. Daraus
leiten sich fünf Qualitätsgrade ab:

A Grade (E-Grade)
höchster Fertigungsgrad, perfekt, exzellent
ave bler (average block error rate [= BLER bezogen auf die gesamte CD]):
unter 6
keine E22, keine E32 Fehler
(E32 sind Fehler, die unter Umständen auf Audio-CDs hörbar werden können,
E22 sind korrigierbare Fehler).

B Grade
nicht perfekt aber sehr gut
ave bler: unter 51
keine E22, keine E32 Fehler

C Grade
ave bler: mehr als 101
keine E32 Fehler
weniger als 1000 Aussetzer

14
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

D Grade
ave bler: alle 10 Sekunden weniger als 220

F Grade
schlechteste Fertigungsqualität
ave bler: alle 10 Sekunden mehr als 220, oder Titelverlust

Beschichtungen von CD-Rs (Dye)

Bei CD-Rs unterscheidet man folgende Beschichtungen:

Cyanin (blaugrün)

Cyanin ist der Standard-Dye und kompatibel zu nahezu jedem Laser und CD-
Recorder. Cyanin in Verwendung mit einer goldenen Reflexionsschicht ergibt
eine grüne Datenschicht, bei einer silberner Reflexionsschicht ist sie blaugrün
oder blau.

Phtalocyanin (farblos)

Phtalocyanin hat höchste Reflexionsgrade und eine hohe Datenbeständigkeit


weil es relativ unempfindlich gegen UV-Licht ist. Es hat deshalb eine etwas
höhere Haltbarkeit als Cyanin und lässt sich auch besser bei höheren
Geschwindigkeiten beschreiben. Dennoch macht dieser Unterschied zum
Cyanin in der Praxis nicht viel aus. In den meisten Fällen liefern beide Dye-
Sorten also gleichgute Ergebnisse. Man sollte hierbei auch nicht vergessen, dass
noch wesentlich mehr Sachen über die Rohling-Qualität entscheiden als der
Dye.

15
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Phtalocyanin ist unsichtbar. Ist die Reflexionsschicht bei Phatalocyanin-


beschichteten CD-Rs aus Gold, ergibt sich eine goldene Färbung der
Datenschicht. Bei einer silbernen Reflexionsschicht ist sie hingegen hellgold.

Azo (blau)

Azo ist blau und in Verbindung mit einer silbernen Reflexionsschicht tiefblau.
Es ist recht langlebig, aber nicht so stabil wie Phtalocyanin und Cyanin.

Andere Beschichtungen

Silberfarbene Beschichtungen können im Lauf der Jahre oxydieren und damit


unbrauchbar werden. Reine Goldbeschichtungen werden aus Kostengründen
selten verwendet, meist ist noch etwas Silber enthalten (Gold/Silber-
Beschichtungen). Manche CD-Rs sind nur vorne goldfarben und können so
den Verkäufer leicht irre führen, dass eine goldene Reflexionsschicht
vorhanden wäre. Ausschlaggebend ist also grundsätzlich, wie die CD hinten,
also auf der Datenschicht, aussieht.

Manche CD-Rs haben einen UV-Filter, der vor der Datenschicht liegt. Durch
diesen Filter werden Datenverluste durch Lichteinwirkung praktisch

16
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

ausgeschlossen, was höchste Langlebigkeit garantieren soll. Schwarze


Beschichtungen zu diesem Zwecke kommen normalerweise zustande durch
eingefärbtes Polycarbonat.

Insgesamt benutzen die CD-R Hersteller ihre eigenen Sorten eines bestimmten
Dye-Typs. Cyanin ist also nicht immer überall dasselbe Cyanin. Durch
verschiedene andere Beschichtungen wird auch oft versucht, die Robustheit
und Datenbeständigkeit einer CD-R zu erhöhen, sie für höhere
Brenngeschwindigkeiten zu optimieren oder ihre Kompatibilität zu steigern.

Bei guter Handhabung der CD-R (im lichtgeschützen Case o.ä. aufbewahren)
überlebt sie einen leicht. Chemisch aggressive Kleber von Etiketten können im
Lauf der Zeit die CD-R zerstören, falls diese nicht durch eine zusätzliche
Farbschicht geschützt ist. Ebenso sollten zur Beschriftung sicherheitshalber
weiche Stifte auf Wasserbasis benutzt werden.
Ist man sich über die Lebensdauer seiner CD-R nicht sicher, sollte sie alle paar
Jahre auf eine neue CD-R umkopiert und am besten gleich nach dem Brennen
auf Fehler überprüft werden. Bei der Überprüfung werden dann die gebrannten
Daten der CD-R mit den Originaldaten verglichen. Es gibt dafür verschiedene
kostenlose CD-R-Diagnose-Programme im Internet zum download.

Psychoakustik

In der Psychoakustik werden die Auswirkungen von Schall (Musik, Geräusche,


Lärm) auf das subjektive Empfinden und Verhalten von Lebewesen erforscht.
Dabei spielen sowohl biologische, physikalische als auch psychologische
Faktoren eine Rolle. Die meisten Entdeckungen sind physikalisch erklärbar. Es
kommt aber auch zu Phänomenen, die nur rein subjektiv (psychisch) begründet
sind. Psyche und Physis beeinflussen also aneinander.

Im folgenden einige Beispiele für psychoakustische Phänomene: Wenn


Schallereignisse als angenehm bewertet werden, dann verändert sich ebenso die
qualitative Bewertung der Lautstärke. Leute neigen oft dazu, Musik, die sie
nicht mögen als laut und störend zu empfinden. -Musik, die sie mögen können
sie hingegen bis hin zum Hörschaden hören, ohne sie überhaupt als laut zu
empfinden.

17
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Auch Hörumgebung bzw. optische Faktoren spielen eine wichtige Rolle: Eine
Studie belegt, dass Probanden Musik in dunklen Räumen klanglich anders
empfinden als in hellen Räumlichkeiten. Dieses psychoakustische Phänomen
kann man auch auf Hifi-Anlagen bzw. Musikhard- und Software und deren
optisches Erscheinungsbild übertragen. Man könnte dabei sagen, dass viele
glauben das zu hören, was sie sehen: Einer „hässlichen“ Anlage traut man
nunmal keinen so guten Klang zu, weshalb solche Systeme dann unterbewertet
werden, obwohl sie durchaus gut klingen mögen. Diesen Effekt machen sich
viele Hersteller zu nutze, um den Käufer durch ein schickes Design einen
besseren Sound vorzugaukeln.

Ein anderes psychoakustisches Phänomen ist der Verdeckungseffekt. Er


beschreibt, wie bestimmte Bestandteile der Musik durch andere verdeckt und
dann nicht mehr wahrgenommen werden. Dies machte man sich bei der
Reduzierung der Datengröße von Audiodateien für das MP3-Format oder der
Mini-Disk zu nutzen. Nicht mehr bewusst wahrnehmbare Audioinformationen,
die daher für den Gesamtklang auch keine Rolle spielen, werden dabei einfach
aus dem Signal rausgenommen um dessen Datengröße zu verkleinern. Fehlt in
einer musikalischen Folge der Grundton wird er automatisch anhand von
Obertönen im Signal vom Gehör künstlich hinzugerechnet und dann
wahrgenommen, obwohl er ja überhaupt nicht im Signal vorhanden ist. Dies
bezeichnet man als Residuum-Effekt.

Auch jegliche Form von Gehörgewöhnung zählt zu den psychoakustischen


Phänomenen. Wenn man auf der Stereoanlage z.B. plötzlich die Höhen anhebt,
wirkt der Klang dadurch zunächst nasal. Nach kurzer Zeit klingt das ganze aber
vollkommen gewohnt, so als wäre der Höhenanteil nie verändert worden. Dies
liegt daran, dass der Vergleich zum tieferen Klang von vorher sehr schnell aus
der Erinnerung (Kurzeitgedächtnis) verschwindet. – Und wo es keine zwei
Sachen gibt, die man miteinander vergleichen kann, gibt es auch keinen
wahrnehmbaren Unterschied mehr. Deshalb verschwindet sehr schnell die
anfängliche Empfindung darüber, dass es zuvor „höher“ oder „tiefer“ klang.
Dies gilt in gleicher Weise auch für Lautstärkeveränderungen.

In den 50iger Jahren entdeckte man, dass weißes Rauschen, sobald man es
kaum hörbar in Büros einspielt, die Lärmbelästigung durch PC, Lüfter, Trafos

18
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

etc. verdecken konnte und dadurch für ein stressfreieres Arbeitsklima sorgte.
Leider wurde diese Tatsache bis heute von den meisten Betrieben ignoriert.
Dazu sei gesagt: Das Hinzufügen von künstlichen Rauschen zu digitaler Musik
spielt auch beim sog. Dither-Effekt eine Rolle, um einen angenehmeren Klang
für das CD-Format zu erzielen und Rauschen ist naturgemäß auch bei analogen
Aufnahmen immer im Signal vorhanden.

Auch die Entwicklung des Hörsinns spielt eine entscheidende Rolle bei der
Beurteilung von Klangereignissen. Das Gehör vieler Leute ist so wenig
geschult, dass sie nicht in der Lage sind, kleine Spielfehler und Ungenauigkeiten
in einem vorgetragenen Stück herauszuhören. So erlebt man manchmal
Instrumentalisten, die mehr Ungenauigkeiten im Spiel haben, als fallende
Blätter im Herbstwald, was aber dem Laien normalerweise nicht auffällt.

Menschen mit einen trainierten sog. „absolutem Gehör“ schaffen es rein nach
Gehör, feinste Tonhöhen- und Rhythmusveränderung zu bemerken. Sie
können dadurch, leicht lernen, welche Tonhöhe man welcher Note zuordnet.
So ist es ihnen möglich rein nach Gehör Töne, Intervalle und Akkorde in
einem Musikstück sofort zu benennen bzw. deren Position auf einem
Instrument zuzuordnen. Auch blinde Menschen haben bekanntlich einen
außergewöhnlich weit entwickelten Hörsinn, der ihr Defizit im Sehen nahezu
ausgleicht.

Wie ein Musikstück wahrgenommen wird liegt zum großen Teil auch daran,
worauf sich die Aufmerksamkeit des Hörers fokussiert. Je nachdem wo diese
gerade liegt, werden ganz unterschiedliche Details zur Geltung kommen: z.B.
Bass, Spieltechnik, Hintergrund-Instrumente, Stimme des Sängers etc. Dies
kann man mit dem Sehsinn vergleichen, denn auch dort hat man die
Möglichkeit sich auf bestimmte Objekte im Gesichtsfeld zu fokussieren, wobei
alle anderen dann in den Hintergrund treten. Letztendlich ist Musik also ein
lebendiger Prozess, denn bei jedem Hörvorgang entsteht die Musik quasi neu
und von Hörer zu Hörer, von Situation zu Situation, kann ein und dasselbe
Stück dabei ganz unterschiedlich empfunden werden.

Aber nicht nur die Prägungen von Hörgewohnheiten spielen eine


entscheidende Rolle, für das, was in unseren Ohren gut ist, auch das Wissen
über eine Sache beeinflusst das subjektive Empfinden mehr als man denkt.

19
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Wenn z.B. einer Anlage durch eine Fachzeitschrift eine gute Testnote verliehen
wird, scheint schon im vornherein und auch beim späteren Anhören der
Anlage, der Eindruck zu entstehen, dass diese Anlage wirklich so gut sein muss,
wie es das Testergebnis verspricht. Der Käufer geht dann mit einer durch den
Testbericht geprägten Erwartungshaltung an den Kauf heran, die er unbewusst
zu bestätigen versucht. Schließlich wurde die gute Testnote von Experten
verliehen. Für den potenziellen Käufer ist somit klar, dass er als Idiot dastehen
würde, wenn er mit der Expertenmeinung nicht übereinstimmt. Daher ist es für
den potenziellen Käufer leichter, die Meinung von Experten zu übernehmen,
als sich selber eine eigene zu bilden.

Manchmal sind die tatsächlichen Klangunterschiede selbst bei preislich weit


voneinander entfernten Geräten nicht so groß, wie es zunächst den Anschein
hat, mal abgesehen von den vielen, teils auch überflüssigen Features, die man
bei High-End-Produkten für gewöhnlich findet. Klingt eine teure Anlage
dunkler als eine billigere, wird ihr das genauso zu Gute gehalten, als wenn sie
heller klingen würde als die billige. Man sagt dann dazu „warm und weich“ oder
„brilliant und klar“, bei preislich billigeren Geräten sagt man dann eher „dunkel
und verwaschen“ oder „steril und höhenlastig“. Wäre das billigere Gerät aber
eine Anlage, von der man weiß, dass sie in Testberichten gut abgeschnitten hat
würde man sie auch besser bewerten. Natürlich gibt es sehr deutliche
Klangunterschiede zwischen absoluten Billigfabrikaten und High-End-
Produkten, doch innerhalb der obersten Liga sind die Qualitätsunterschiede des
Klanges oftmals nur wilde, rein subjektive und dennoch als objektiv dargestellte
Überinterpretationen von klanglichen Minimalunterschieden. Es gibt sogar
einige Produkte, die ein vielfaches günstiger sind und genauso gut klingen wie
Produkte der obersten Liga, aber dann meist weniger schick designed sind bzw.
weniger Features besitzen.

Die Psychoakustik beweist: Man darf nie die Subjektivität des Hörers außer
Acht lassen. Dies ist auch für das Pre-Mastern und Mastern, ja für die gesamte
Musik maßgeblich. Niemals kann etwas wirklich rein objektiv beurteilt werden,
weil immer unsere Subjektivität unsere Wahrnehmungen beeinflussen wird.
Objektivität ist also ein Bestandteil von Subjektiviät und nichts was außen vor
steht. Auch wenn viele Leute zum selben Ergebnis kommen, heißt das nicht,
dass es deswegen eine objektive Annahme ist. Die Objektivität wird hier nur
gebildet von verschiedenen subjektiven Meinungen, die in bestimmten Punkten

20
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

gleich sind und daher eine Schnittmenge bilden. Unser subjektives Empfinden
wird dabei entscheidend bestimmt von unseren durch die Vergangenheit
geprägten Wertmaßstäben und ist damit also auch von unserer Kultur abhängig.

Wo hier soviel von Klang von Anlagen geredet wird: Eine wirklich gute Anlage
sollte gar nicht klingen und die Musik unverfälscht wiedergeben können, so
dass man den Eindruck hat, die Musiker stünden im Raum. Es ist bislang nur
einen Audiotechniker in Deutschland Anfang der 90iger gelungen solche
Anlagen zu bauen (die Firma P-Hifi in Weißenburg). Eine bekannte
Fachzeitschrift hat dies in einer Berichterstattung dokumentiert. Das
Hörerlebnis soll dabei so gewesen sein, dass man z.B. beim Hören einer
Gitarrenaufnahme oder einer Sprechstimme, denn Eindruck hatte, der Musiker
bzw. Sprecher stünde lebendig vor einem im Raum. Dies ist dadurch gelungen,
dass bei der Konstruktion dieser Anlagen paradoxerweise genau das Gegenteil
von dem gemacht wurde, was Tontechniker als richtig bezeichnen würden. Z.B.
hatten die Boxen technisch gesehen keine linearen Klangeigenschaften, hatten
aber dennoch ein absolut neutrales Klangverhalten, also überhaupt keinen
Eigenklang. Die Membrane wurden künstlich beschwert, die Positionierung der
Boxen war genau das Gegenteil von der ansonsten empfohlenen Stereo-
Dreiecks-Aufstellung. Dennoch wurde vom Hörer ein absolut unverfälschtes
Musikerlebnis wahrgenommen, das bisher von keinem anderen
Wiedergabesystem jemals erreicht wurde. Dolby-Sourround wird bei diesen
System übrigens mit nur zwei Boxen realisiert. Das Wiedergabeverhalten
normaler Anlagen ist im Vergleich dazu sehr effektvoll und durchaus
hörenswert, aber bei genauerer Betrachtung wirklichkeitsverzerrend und damit
künstlich. Der Klang eines Wiedergabesystems legt sich nämlich immer wie ein
Filter zwischen Hörer und Musik. Genauso wie die Bildqualität von heutigen
modernen Filmmaterial im Vergleich zu dem, was man mit eigenen Augen real
sieht, übertrieben scharf und kontrastreich und damit strenggenommen
unrealistisch wirkt, obwohl sie natürlich gut aussieht. In diesem Sinne maskiert
also auch jedes normale Wiedergabesysteme die Musik. Man muss dazu z.B. nur
mal in Kinosälen auf die Geräuschkulisse acht geben: Hört man dort Geräusche
hat man als aufmerksamer Hörer immer noch nicht den Eindruck dass es
wirklich real klingt. Es klingt nur sehr voluminös und laut, aber nicht so, wie es
in Wirklichkeit klingen würde. Man höre sich im Vergleich dazu mal die
entsprechenden Geräusche real an und wird dann deutliche Unterschiede
feststellen. Z.B. klingt ein Gewitterdonner aus einer gewissen Entfernung

21
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

niemals so wie es im Kino durch die Lautsprecher dargestellt wird. Der


Bassanteil eines echten Gewitters liegt mehr in einem sanften Infraschall und
die hörbaren Bassanteile eines Gewitters sind in keinster Weise so tief und
donnerig, wie man es in Kinosälen hört.

Bild: P-Hifi Boxen (Udo Petscher), Modell „Alien“

Studio- oder Homerecording? – Rückblicke und Ausblicke

Da der Otto-Normal-Hörer durch die Medien ständig amtlich produzierte


Musik um sich hat, kann man davon ausgehen, dass er den professionellen
Sound einer amtlichen Produktion als vollkommen selbstverständlich
voraussetzt. Dies sind durchaus hohe Maßstäbe.

Homerecording ist ein Sammelbegriff für Produktionen, die privat zu Hause


und nicht in einem externen Tonstudio produziert werden. Meist wird beim
Homerecording weniger und günstigeres Equipment verwendet als in amtlichen
Tonstudios, weswegen es auch der Sektor ist, auf dem sich viele Hobby-
Producer tummeln.
Die Soundqualität ,die eine homerecordete Produktion an sich hat ist heute
bereits so gut, dass Vergleiche zur Klangqualität von Studioproduktionen nicht
gescheut werden brauchen. Selbst viele Profis arbeiten heutzutage in ihren
eigenen kleinen Homerecordingstudio. Manche „Homerecodler“ besitzen auch
sehr hochwertiges Equipment und verfügen über professionelles Know-How,

22
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

dadurch ist die Grenze zwischen Studio- und Homerecording manchmal


fließend.
Der Ausdruck Homerecording sollte heute also keine abwertende Bezeichnung
mehr sein, sondern gibt lediglich einen Hinweis auf den Ort wo produziert
wird.

Noch vor 10 bis 15 Jahren war Homerecording deutlich abgegrenzt von


Studioproduktionen, da man sich damals mit einen Durchschnittsgehalt kaum
das nötige Equipment für gute Ergebnisse leisten konnte. Solche Produktionen
taugten daher höchstens zu Demozwecken. Damals konnte sich ein Hobby-
Producer z.B. gerade mal einen Mehrspur-Kassettenrecorder leisten und ein
Kondensator-Mikro war für die meisten kaum erschwinglich. Die Keyboards
boten viel weniger Klangqualität und technische Möglichkeiten. Absolut
rauschfreie Aufnahmen waren im Homerecording-Sektor ebenfalls noch nicht
möglich. Wirklich gute Produktionsergebnisse blieben also Tonstudiobesitzern,
unter Vertrag genommenen Künstlern und gute situierten Privatleuten
vorbehalten.

Eine gute Aufnahmequalität ist innerhalb der letzten 10 bis 15 Jahren auch im
Homerecording-Bereich - nicht zuletzt durch den immensen Fortschritt in der
Computertechnologie - auch für Otto-Normal-Verdiener erschwinglich
geworden. Viele Hersteller haben es geschafft, auch in unteren Preissegmenten
so viel zu bieten, dass sich gute Klangergebnisse erreichen lassen. Das Gefälle
zwischen Amateur- und Profiequipment ist also deutlich geschrumpft.
Dennoch ist parallel dazu auch im professionellen Bereich die Soundqualität
natürlich wieder etwas gestiegen.

Die in den Anfangstagen des Homerecordings entstandenen Billigproduktionen


haben den Ausdruck Homerecording dennoch geprägt und dem Produzieren
zu Hause und am PC einen schlechten Ruf eingebracht. Viele denken, wenn sie
heute den Ausdruck Homerecording hören, noch immer an jemanden, der mit
Anfänger-PC-Programmen wie „Music Maker“ und Billig-Keyboard am PC
sitzt und verrauschte Aufnahmen auf Kassetten produziert.
Gerade der PC-Bereich bietet heute enorme Möglichkeiten.
Sequenzerprogramme und Software-Synthesizer stellen eine brauchbare und
manchmal auch bessere Alternative zu so mancher Hardware dar, man denke

23
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

z.B. an den Klang des virtuellen Absynth Synthesizer von Native Instruments,
der so manchen Hardware-Synth hinter sich lässt.

Viele professionelle Musiker unserer Zeit produzieren schon lange in den


eigenen vier Wänden und zeigen, dass professionelles Produzieren auch im
privaten Bereich möglich ist. Insofern darf man Homerecording nicht aufgrund
dessen, dass hier Musik im Wohnzimmer auf dem Schreibtisch und mit weniger
Hardware-Equipment gemacht wird, für unprofessionell halten. Ein „richtiges“
Tonstudio ist an sich nur ein etwas größer dimensionierter Raum, mit mehr und
oft sehr hochwertiger Hardware, allen voran ein größeres Hardware-Mischpult
und einer Trennung zwischen Aufnahme- und Abhörraum und einigen
baulichen Anpassung zur Verbesserung der Akustik. Diese Merkmale lassen
sich aber auch im häuslichen Bereich erreichen, indem man selber die
akustischen Verhältnisse optimiert, ein kleineres oder virtuelles Mischpult und
weniger aber dennoch gute Hardware nutzt und ansonsten virtuelles
Equipment benutzt, wo es sinnvoll ist. Statt eines separaten Aufnahmeraumes
kann man die Aufnahmen im selben Raum vornehmen oder mit Samples
arbeiten. Um dennoch einen separaten Aufnahmebereich zu haben, kann zu
Tricks gegriffen werden wie z.B. sich eine Gesangskabine aus einen
Kleiderschrank zu basteln. Was zählt ist also letztendlich das klangliche
Ergebnis und nicht wo und wie es erreicht wird. Gute Musik und Können
bleiben gute Musik und Können, egal ob auf einem 3 Meter oder 30 cm breiten
Mischpult.

Professionelles Produzieren bringt man meist unweigerlich mit dem Begriff


Tonstudio in Verbindung. Tonstudio ist aber kein geschützter Begriff, darf also
von jedem verwendet werden. Kleinere Tonstudios, die meist im privaten
häuslichen Bereich ihren Sitz haben und sich nur auf wenige Dienstleistungen
spezialisieren nennt man meist zur besseren Unterscheidung Projektstudios.
Diese Projektstudios sind aber auch Tonstudios. Der Begriff Projektstudio
schließt die Bezeichnung Tonstudio also mit ein. Dennoch tummeln sich grade
im Bereich Projektstudio einige schwarze Schafe, die ungenügende
tontechnische Kenntnisse und Erfahrungen haben und dennoch
Dienstleistungen kostenpflichtig anbieten.
Kleinere Studios im häuslichen Bereich, die keine Dienstleistungen anbieten,
bezeichnet man eher als Homestudio.

24
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Was bietet die Zukunft? Irgendwann wird es bestimmt möglich sein, rein
Software-basierend Musik zu produzieren, die absolut amtlich klingt. Dann
wird das Studio praktisch nur noch im PC seinen Sitz haben. Selbst heute
existieren virtuelle Studios als PC-Anwendungen die für komplette
Musikproduktionen konzipiert sind und ein PC ist in fast jeden Ton - bzw.
Projekt-Studio anzutreffen. Dort wird er aber, weil es kein gewöhnlicher
sondern speziell für Audiozwecke ausgelegter PC ist, unter der Bezeichnung
DAW (Digital Audio Workstation) oder Recording PC geführt

Auf rein virtueller Ebene kann derzeit nur selten ein wirklich professionelles
Niveau erreicht werden. So klingen analoge Hardware-Kompressoren, - EQs
und - Effektgeräte der gehobenen Preisklasse immer noch konkurrenzlos zu
deren Software-Alternativen und vielen digitalen Geräten. Die Software-
Lösungen setzen sich aber meist gegen digitale Hardware der unteren
Preisklasse in Leistungsumfang und Qualität durch.
Die Klangunterschiede von Software-Plug-Ins, die analoges Klangverhalten
von amtlicher Hardware virtuell nachzuahmen versuchen sind oft recht groß
zum Original und der pseudo-analoge Eigenklang solcher Software ist an sich
nichts Besonders. Durch ein grafisches Design, was oft dem von analoger
Hardware nachempfunden wird, gehobene Preise und unzählige teils
überflüssige Funktionen und das „Einkaufen“ von guten Testergebnissen
werden solche Plug-Ins oft überbewertet. Gerade unerfahrenen Producer
hören dann bei diesen Plug-Ins Sachen heraus, die gar nicht da sind. Dabei wird
es dem Homerecordler auch nicht gerade leicht gemacht: Ein Umstellen von
sehr subtil wirkenden Features erweckt den Eindruck, dass nun eine „große“
Klangveränderung zu erwarten ist und Parameter, die durch ihre Benennung
schon dem Benutzer vorschreiben, wie die jeweilige Einstellung klingen wird:
warm, valve (>Röhrensound), analog etc. erschweren eine unvoreingenommene
Beurteilung. Dazu noch ein dunkles formschönes Design der Plug-Ins,
vielleicht noch mit einer glühenden Röhre drauf abgebildet und ein VU-Meter
im Vintage-Look. Diese Tricks bringen einen oft dazu, eher das zu hören, was
man sieht und nicht unbedingt das, was tatsächlich zu hören ist. Schließlich will
man ja auch nicht als Idiot dastehen und zugeben, dass man eigentlich keine
besondere Klangaufwertung vernimmt. Lautstärkeveränderungen, die
insbesondere bei Plug-ins für Dynamikbearbeitung wie EQs und
Kompressoren zwangsläufig im Signal vorgenommen werden, werden schnell
mit einer gestiegenen Klangqualität verwechselt. Es ist nämlich eine

25
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

psychophysikalische Tatsache, dass man das Signal wenn es lauter wird oft als
druckvoller oder besser klingend empfindet. Hier werden also Quantität und
Qualität leicht miteinander verwechselt. Die klanglichen Unterschiede zwischen
Software-Plug-Ins sind zweifellos vorhanden und durch aufmerksames Hören
und Ausprobieren auch leicht feststellbar, dennoch sind selbst die besten Plug-
Ins nicht so gut, wie die beste Hardware, aber zumindest in einigen Fällen eine
gute Alternative.

Heutzutage kann dennoch jeder selbst mit billigstem Equipment schon


vorführreife Demoproduktionen hinbekommen, die zumindest in den Ohren
eines Laie durchaus professionell anmuten mögen. Jeder kann seine eigene CD
produzieren, sich über das Internet durch Musiker-Communities, die eigene
Homepage oder Tauschbörsen Gehör verschaffen. Sowas hat aber auch
Nachteile, denn es führt in gewisser Weise zu einer virtuellen
Überschwemmung der Musikkultur, wobei dann auch (besonders durch das
Internet) vollkommen unmusikalische Menschen die Möglichkeit haben, sich
publik zu machen. Das sind Leute, die sonst nie Musik gemacht hätten, sich
aber mal eben schnell Musik-Produktions-Software besorgt haben und von
ihren ersten musikalischen Gehversuchen oft zu Unrecht so überzeugt sind,
dass sie damit das Internet und die Labels überfluten. Solche Sachen sind meist
nicht nur musikalisch gesehen absolute Durchschnittskost oder gar Müll,
sondern sind auch schlecht produziert. Insgesamt ist es dadurch zu einen regen
Anstieg an Musikproduktionen gekommen. Es ist aber nicht unbedingt als
schlecht anzusehen, dass sich fast jeder mittlerweile selbst veröffentlichen kann.
Talente, die nicht in das kommerzielle Raster von Plattenlabels passen und
solche, die bislang nicht gefördert wurden, keine Mitspieler oder das Geld für
Studio und teures Equipment hatten, können nun nämlich auch endlich zum
Zuge kommen und eine gewisse Hörerschaft erreichen.

26
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Grundlagen in Digital Audio

Lautstärke (Schalldruck)

Lautstärke wird üblicherweise in Dezibel (dB) angegeben. Die Messung von


Pegeln in dB beschreibt aber nur einen Relativwert, soll heißen, die Differenz
zwischen zwei Werten. Der absolute Wert des Signals ist dabei unerheblich. Um
mit dB einen absoluten Wert zu beschreiben, ist also ein Referenzpunkt
notwendig. Die Einheit dB ist deshalb also keine echte Maßeinheit. Es gibt
verschiedene Definitionen, die den Wert eines dB bestimmen. Um die
Lautstärke (Schalldruckpegel) in dB anzugeben wird zur besseren
Unterscheidung oft dBSPL (engl. Sound Pressure Level=Schalldruckpegel)
oder oft in dBA ausgedrückt, wobei das hinzugefügte A bedeutet, dass der
angegebene dB-Wert sich auf die Messung des Schalldruckpegels bei einer
bestimmte Frequenzgewichtung bezieht, die auf das menschliche
Hörempfinden abgestimmt ist. Die meisten Angaben werden deshalb in dBA
gemacht und auch die meisten Angaben von dBSPL beziehen sich auf den
Bewertungsfilter A (dBFS (A)). Es gibt aber auch noch den B- und C-
Bewertunsgfilter (dBB; dBC). Auch ist die abweichende Schreibweise als db(A),
dB(B), dB(C) gebräuchlich. Die Hörschwelle liegt sogar bei – 10 dBSPL (und
nicht bei 0 dBSPL), was natürlich aber von der Frequenz abhängig ist. Die
Schmerzgrenze wird ab 120 dBSPL(A) erreicht.

1 dB gilt als der Wert, den man gerade noch so raushören kann (manch einer
kann natürlich eventuell noch feinere Lautstärkeveränderungen wahrnehmen).
Eine Erhöhung um 10 dB bedeutet immer eine Verdopplung des
physiologischen Lautheitsdrucks.
Bei der digitalen Audiobearbeitung liegt der Referenzpunkt bei 0 dBFS (= dB
Full Scale, der Einfachheit halber oft nur als 0 dB angegeben). Oberhalb von 0
dBFS kommt es stets zu Verzerrungen (Clipping), weil digitale Aufnahmen nur
bis 0 dBFS reichen können. Deshalb werden alle Werte in Minuswerten von
dBFS angegeben. Ein Verstärker dessen momentan gemessene Lautstärke z.B.
bei "- 10 dBFS" liegt, könnte dann also noch um 10 dB erhöht werden, ehe die

27
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Maximallautstärke von 0 dBFS erreicht wird. Die Hörschwelle in dBFS


angegeben liegt bei ca. – 100 dBFS.

Peakmeter und Clipping

Gängige digitale Peakmeter zeigen aufgrund mangelnder Messgenauigkeit beim


Playback nicht immer eine vorhandene Verzerrung des Signals an und wenn
dann erst, sobald die übersteuerte Stelle so hoch geregelt wird, dass sie vom
Peakmeter erfasst werden kann. So kann ein Peakmeter z.B. bei 0 dBFS
Verzerrungen erfassen, aber regelt man die Wiedergabelautstärke auf –0,1 dB
werden diese Verzerrungen eventuell gar nicht mehr angezeigt. Daher bringt es
auch nichts, ein Peakmeter beim Playback einer Aufnahme runterzuregeln
sobald ein Clipping angezeigt wird, denn dadurch kann das Clipping fortan
zwar nicht mehr vom Peakmeter erfasst werden, ist aber dennoch weiterhin auf
der Aufnahme vorhanden. Das Runterregeln des Pegels nützt nur bei
Verzerrungen, die vor dem Aufnehmen oder bei Playbacks auftreten, wenn das
Signal zu hoch ausgesteuert wird, nicht aber bei Verzerrungen, die in der
Aufnahme bereits enthalten sind. Bereits beim Aufnehmen muss dieser Punkt
also berücksichtigt und der Aufnahmepegel so gewählt werden, dass die
lautesten Stellen nicht zu Übersteuerungen führen. Das Problem ist nämlich,
dass es beim digitalen Recorden natürlich zu Signalen oberhalb von 0 dBFS
kommen kann, die dann als Verzerrung auftreten. Weil aber keine höheren
Werte als 0 dBFS für ein digitales Signal formulierbar sind, reicht auch ein
durch Clipping verzerrtes Signal nach der Aufnahme dennoch wieder nur bis 0
dBFS, wobei dann alle aufgenommenen Verzerrungen nach der Aufnahme
plötzlich unterhalb von 0 dBFS liegen.

Durch die eben angesprochene Problematik versteht es sich von selbst, dass
möglichst hochsensible und gute Peakmeter verwendet werden sollten. Viele
Hersteller sparen leider aus Kostengründen an korrekt arbeitenden Peakmetern.
Ein Peakmeter sollte nicht mit einen VU-Meter (VU=Volume Unit)verwechselt
werden, das VU-Meter hat eine ganz andere Skala, arbeitet absolut inakkurat
(über 200 ms Ansprechzeit) und ist eher gut für die ungefähre Beurteilung der
Lautheit eines Signals, - ersetzt in diesem Zusammenhang aber niemals das
menschliche Ohr.

28
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: links Pegel mit Übersteuerung (Clipping), rechts Pegel ohne


Übersteuerung.

Bild: VU-Meter

29
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Verzerrungen bei + dBFS

D/A-Wandler wandeln zur Wiedergabe von Musik digitale Werte in ein


analoges Signal um und machen es somit hörbar. D/A-Wandler findet man also
in jedem digitalen Wiedergabegerät. Ein erst innerhalb der letzten Jahre bekannt
gewordenes Problem ist das Wiedergabeverhalten von billigen D/A-Wandlern
(z.B. in manchen CD-Playern) in Verbindung mit lauten Produktionen. Manche
D/A-Wandler geben auch (obwohl sie es nicht sollten) durchaus Signale
oberhalb von 0 dBFS wieder, was dann automatisch zu Verzerrungen führt.
Diese Verzerrungen liegen dabei im Inter-Sample-Bereich und oberhalb von o
dBFS, wo man ja normalerweise nicht nachmisst. Es kann nicht sicher gesagt
werden, inwieweit diese Verzerrungen das Hörempfinden beeinflussen, da dazu
keine psychoakustischen Studien vorliegen, jedoch haben viele Personen
angegeben, dass diese Verzerrungen subtil hörbar wären. Es wurden besonders
bei aktuellen auf Lautheit getrimmten Produktionen Verzerrungen von bis zu
+3dBFS gemessen. Dieses Phänomen in Verbindung mit der Nutzung zu
hoher Kompressionsgrade hat also dazu geführt, dass grade aktuelle CD-
Produktionen der letzten Jahre an sich schlechter klingen, als noch vor 10 bis
15 Jahren. Um diesen Effekt vorzubeugen empfiehlt sich nie lauter als bis – 3
dBFS auszusteuern.

Lautheit, loudness, RMS

Die Lautheit (Klangstärke) wird in der Einheit Sone gemessen und in der Regel
in RMS (Root-Mean-Square) angegeben. Lautheit definiert wie laut ein
Geräusch subjektiv empfunden wird. Der RMS-Wertes eines Signals wird
ermittelt, indem er in Relation zu einer Quadrat-Welle mit maximaler
Schwingung gesetzt wird, - diese stellt nämlich die „lauteste“ und somit
energiereichste mögliche Aufnahme dar. Der RMS-Wert wird durch rein
rechnerische Analyse des Signals ermittelt, wobei auch Frequenzen
berücksichtigt werden, die gar nicht hörbar sind, aber trotzdem die Energie des
Signals verstärken, z.B. Tiefbässe. Dadurch kann der RMS-Wert also höher
oder niedriger sein, als es die tatsächlich subjektiv empfundenen Lautheit
rechtfertigt. Er bezeichnet daher eher die Energie des Signals und nicht
unbedingt wie viel davon auch tatsächlich hörbar ist. Dennoch ist er ein

30
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

wichtiger Anhaltspunkt zur theoretischen Ermittlung der Lautheit eines Signals,


genauso die Angabe der Lautheit in der Einheit Sone.

Die tatsächlich empfundene Lautheit – auch als loudness bezeichnet - hängt


aber von vielen Faktoren ab: Insbesondere spielen das Alter der Person, die
Raumverhältnisse, die Vorbelastung der Hörorgane, - aber auch die Art der
Musik und die Stimmung und körperliche Verfassung des Hörers eine Rolle:
Beispielsweise erscheinen einen kurz vor dem Einschlafen Geräusche lauter als
sonst und werden dann als störend empfunden. Zwei Signale, die den gleichen
Dezibel-Wert haben, können also eine unterschiedlich empfundene Lautheit
haben, selbst wenn ihnen messtechnisch jeweils der gleiche RMS- oder Sone-
Wert zugeordnet wird. Ebenso können zwei Signale mit unterschiedlichen
Dezibel-Werten als gleichlaut empfunden werden, auch wenn sie dies aufgrund
unterschiedlicher RMS - oder Sone-Werte nicht seien dürften. Lautheit lässt
sich also gar nicht wirklich messen, sondern eher mit Hilfe von Messgeräten
rein theoretisch einschätzen, dadurch kann man auch sagen, dass sich
Lautstärke nicht messen lässt, denn das Wesen der Lautstärke (Schalldruck) ist
schließlich deren Lautheit (Klangstärke). Das einzige wirkliche Messgerät für
Lautstärke bzw. Lautheit ist und bleibt also das menschliche Ohr.

31
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

dBA -, Phon-, Sone-Tabelle

Lautstärke Schallereignis
0 dB (A) Stille >Definierte Hörschwelle (da hört man nichts!)
10 dB(A) Blätterrauschen im Wald
20 dB(A) Tropfender Wasserhahn
30 dB(A) Flüstern
40 dB(A) Brummen eines Kühlschranks
50 dB(A) Leise Radiomusik, üblicher Tagespegel im Wohnbereich
60 dB(A) Umgangssprache, Pkw in 15 m Abstand
70 dB(A) Rasenmäher (von draußen!), Schreibmaschine in 1 m Abstand
80 dB(A) Pkw mit 50 km/h in 1 m Abstand, maximale Sprechlautstärke
<guter Anhaltspunkt für 85 dB!
90 dB(A) Lkw-Motor in 5 m Abstand, Pkw mit 100 km/h in 1 m Abstand
100 dB(A) Kreissäge, Lärm in einem Kraftwerk, Posaunenorchester
110 dB(A) Propellerflugzeug in 7 m (!) Abstand, Bohrmaschine, laute
Diskothek
120 dB(A) Verkehrsflugzeug in 7 m Abstand, Beginn der Schmerzgrenze
130 dB(A) Düsenjäger in 7 m Abstand, Walkman Maximalbelastung,
Schmerzgrenze
160 dB(A) Gewehrschuss in Mündungsnähe

(Diese Tabelle stellt nur einen Anhaltspunkt dar und sagt nichts über die
tatsächlich empfundene Lautheit dieser Schallereignisse aus, die ja auch, je
nachdem wie sie erzeugt werden, unterschiedliche messtechnische
Lautstärkegrade erreichen können, die von denen in dieser Tabelle abweichen
können.)
dB(A) Phon - Sone

20 20 0,15 Nicht wahrnehmbar


30 30 0,3 Kaum wahrnehmbar
35 35 0,5 Kaum wahrnehmbar
40 40 1 Wahrnehmbar
50 50 2 Wahrnehmbar
60 60 4 Laut
70 70 8 Laut
80 80 16 Sehr laut Lautstärke

32
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Höroptimum (Fletcher-Munson-Phänomen)

Der Frequenzgang des Gehörs ist abhängig von der Lautstärke (Schalldruck).
Bei 83 dBSPL nimmt das Gehör die unterschiedlichen Frequenzbereiche am
ausgewogensten wahr (sog. „Fletcher-Munson-Phänomen“).

(Ein Beispiel welche Lautstärken ungefähr 83 dBSPL entsprechen, entnimmt


man aus der dBA -Tabelle.)

Bild: Das Höroptimum nach Fletcher-Munson ist der grün markierte


Frequenzgang.
(Auf der waagrechten Achse ist die Hz-Frequenz angegeben, auf der
senkrechten die Lautstärke in dBSPL. Die Zahlen im Diagramm geben die
Lautstärke in Phon an.)

Digitalisierung

Bei digitalen Aufnahmen wird ein analoges Schallereignis durch einen A/D-
Wandler (Analog-Digital-Wandler) in digitale Signale umgewandelt. A/D-
Wandler findet man daher in jedem digitalem Recordinggerät. Der Schall wird
pro Sekunde mit einer bestimmten Häufigkeit (Abtastrate, Samplerate) und in
einer bestimmten Messtiefe/Genauigkeit (Bitrate) abgerastert. Diesen Vorgang

33
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

nennt man sampeln. Je nachdem mit welcher Messtiefe der Prozessor des A/D-
Wandlers maximal arbeiten kann, desto genauer kann das Signal erfasst werden.
Der Punkt, wo das Schallsignal am lautesten ist, ist der Punkt, dem der höchste
digitale Wert zugeordnet wird. Dieser Wert entspricht 0 dBFS.

Da digital recorded wird ist eine sehr genaue Erfassung möglich, viel genauer
als beim analogen Recording. Soll das digital aufgezeichnete Signal
wiedergegeben werden, werden die digitalen Bitwerte gemäß der Abtastrate
durch einen D/A-Wandler (Digital-Analog-Wandler) wieder in Spannungswerte
umgerechnet und als analoges Schallereignis wiedergegeben. Schall an sich ist
übrigens immer analog. Die durch das digitale Aufzeichnen entstehende
Schallkurve ist aber stets eckiger als das Original, aber dafür im Vergleich zu
analogen Aufnahmeverfahren eben überaus präzise. Im Innenohr passiert beim
Hören analoger Signale sogar ähnliches: Das Signal wird bei den letzten
Schritten des Hörvorgangs aufgequantelt und sozusagen digitalisiert, allerdings
wesentlich gröber als es bei heutigen Digitalaufnahmen der Fall ist.

Vielleicht liegt also der als hart empfundene Klang digitaler Aufnahmen an
deren hohen Präzision, die dadurch paradoxerweise selber eine Fehlerquelle
darstellen könnte? Schließlich wird der Schall beim digitalen Aufzeichnen ja in
einer Art Abrasterung erfasst, aber nicht als ganzes. Man stelle sich das Signal
als Kurve vor, wo man ein feines Rastergitter drüberliegt. Jedes Raster erfasst
einen Bereich der Kurve.
Befürworter digitaler Aufnahmeverfahren argumentieren, dass analoge
Aufnahmen unscharf und verwaschen wären, - hier wäre der Fehler mangelnde
Präzision. Befürworter analoger Aufnahmen sehen darin aber einen
musikalischeren Klang als den künstlicheren Charakter digitaler Signale. Somit
haben sowohl Analog als auch Digital Audio Eigenschaften, die man je
nachdem als Vorteil oder als Nachteil deuten kann. Hier haben beide Seiten auf
ihre Weise recht.

34
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Klangqualität

Die Klangqualität einer digitalen Audioaufnahme definiert sich also durch die
Einheiten Samplerate und Bitrate.

Bitrate (Anzahl der Stufen in die ein Signal untergliedert wird)

Samplerate (Häufigkeit mit der ein


Signal erfasst/wiedergegeben wird)

Samplerate

Die Samplerate (Abtastrate) legt fest, wie oft ein Audiosignal pro Sekunde
abgetastet wird (Messhäufigkeit). Bei einer Samplerate von 44.100 Hz wird das
Signal 44.100 mal pro Sekunde abgetastet. Folglich wird bei einer 44.100 Hz-
Aufnahme, 44.100 mal pro Sekunde ein Sample aus dem Signalstrom
aufgezeichnet und bei einer Wiedergabe in 44.100 Hz, 44.100 mal pro Sekunde
wiedergegeben..

Der Frequenzumfang der von einer Samplerate wiedergegeben/erfasst werden


kann, ist immer halb so groß wie die jeweilige Samplerate. 44.100 Hz
Samplerate ergibt demnach einen Frequenzumfang von 22.050 Hz. Da der
Mensch „bewusst“ nur bis höchstens 16.000 Hz hören kann, reicht dies aber
vollkommen aus. Eine Samplerate von 20.000 Hz würde nur einen
Frequenzumfang von 10.000 Hz darstellen können, - das klingt dann eher
dumpf, da nur ein gewisser Teil der hörbaren Höhen wiedergegeben wird.

35
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Je höher die Samplerate, desto besser ist die Klangqualität. Eine höhere
Samplerate braucht aber auch mehr Speicherplatz.

20 kHz Radio-Qualität
44.1 kHz CD-Qualität
48 kHz Studionorm
96 kHz DVD Audio

Eine Samplerate von 96 kHz kann bei der Nachbearbeitung eines Signals
Vorteile bringen, da präzisere Algorhythmen möglich werden, wodurch z.B. ein
EQ genauer arbeiten kann. Außerdem gelingen digitale Simulationen analoger
Klangeigenschaften authentischer bei 96 kHz. Eine Samplerate von 88,2 kHz
wird manchmal verwendet, da diese genauer auf das CD-Format (44,1 kHz)
runtergerechnet werden kann. Dennoch reicht es aus, wenn Audiomaterial mit
einer Samplerate von 48.000 Hz aufgenommen wird. Einige Tonstudios
erzielen nach wie vor auch noch mit 41.000 kHz gute Ergebnisse.

Bitrate und Samplewert

Die Bitrate definiert, wie schon erwähnt, die Auflösung eines einzelnen
Samples, also wie genau es pro Abtastung erfasst wird (Messtiefe). Man
bezeichnet die Bitrate auch als Wortbreite, Wortlänge oder Auflösung. Der
Einfachheit halber wird im folgenden immer der Begriff Wortlänge oder Bitrate
verwendet werden. Mit jedem zusätzlichen Bit verdoppeln sich die darstellbaren
Messwerte und es erhöht sich die Bitrate.

Je höher die Bitrate eines A/D-Wandler bzw. D/A-Wandler ist, desto mehr
Werte sind darstellbar, in die ein Sample aufgeteilt werden kann. Die jeweilige
Anzahl dieser Werte bezeichnet man als Quantisierungs - oder Lautstärkestufen
oder als Samplewert.

32 Bit- 4 294 900 000 Lautstärkestufen


Audiosignal 16 777 215 Lautstärkestufen
24 Bit- 65 536 Lautstärkestufen
Audiosignal 255 Lautstärkestufen
16 Bit-

36
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Audiosignal
8 Bit-
Audiosignal

Der jeweils maximal Mal mögliche Samplewert entspricht dabei immer dem
Erreichen der 0 dBFS-Marke und daher dem lautesten Signal.

Signal-to-Noise (Rauschabstand)

Als Signal-to-Noise (Abkürzung: SNR) bezeichnet man den Bereich vom


lautesten bis zum leisesten Signal (Dynamikspanne), der störungsfrei
wiedergeben werden kann. Das lauteste Signal liegt bei 0 dBFS, das leiseste je
nach Bitrate bei ca. – 49; -98 oder .144 dBFS (vergl. Tabelle).

Wortbreite (Bit) und theoretischer Rauschabstand in dBFS:

8 Bit - 49.925 (dBFS)


16 Bit - 98.090 (dBFS)
24 Bit - 144.000 (dBFS)

Beim theoretischen Rauschabstand wird übrigens davon ausgegangen, dass das


jeweilige Signal voll auf 0 dBFS ausgesteuert ist, was in der Praxis natürlich
nicht immer der Fall ist. Bei allen leiseren Signalen verringert sich der
Rauschabstand natürlich wieder etwas, denn leise Töne beanspruchen nur
wenige der Lautstärkestufen und sind deshalb nicht so weit vom
Grundrauschen entfernt wie laute Signale.
Unterhalb des Platzes für das leisesten störungsfrei darstellbaren Audiosignals
(also unterhalb des Signal-to-Noise) liegt das Grundrauschen des Aufnahme-
bzw. Wiedergabegerätes. Daher wird der Signal-to-Noise auch als
Rauschabstand bezeichnet. Je größer die Bitrate eines Signals bzw. Systems
desto größer der Signal-to-Noise. Signale, die unterhalb des jeweiligen Signal-
to-Noise liegen, können demnach nicht mehr störungsfrei wiedergegeben
werden, da sie ins Rauschen eintauchen.

37
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Red-Book-Format

Eine Samplerate von 44.100 Hz und 16 Bit Wortbreite legt maßgeblich den sog.
"Red-Book-Standard" fest. Dieser bereits 1981 von Sony und Phillips
entwickelte Standart definiert die Soundqualität und physikalischen
Eigenschaften einer CD-DA (Compact Disc-Digital Audio), - also einer ganz
normalen Audio-CD.

Daraus geht hervor: Will man eine Musik-CD erstellen, muss immer als letzter
Schritt vor der CD-Erstellung das Summensignal auf 16 Bit heruntergerechnet
werden.
Da man dafür normalerweise von einer Bitrate höher als 16 Bit auf die 16 Bit
runterrechnet, werden die überschüssigen Bits dabei abgeschnitten (im
Fachjargon: Truncation, (to truncate = engl. beschneiden, stutzen). Außerdem
muss die Samplerate auf 44.1 kHz runtergerechnet werden, was durch ein Re-
Sampling geschieht.

Bitraten-Konvertierung und Quantisierungsrauschen

Um das Signal auf das CD-Format von 16-Bit zu bringen, muss die Bitrate also
reduziert werden. Schneidet man die überflüssigen Bits ab, ergibt sich kein
sauberes Ergebnis. Durch das Beschneiden (auch als Runterrechnen,
Quantisieren, Konvertieren oder Truncation bezeichnet) auf eine kleinere
Bitbreite entsteht ein Rundungsfehler (Quantisierungsfehler) am
niederwertigsten Bit des jeweiligen SNR. Man kann das vergleichen mit einer
Bruchrechnung die nicht aufgeht und daher einen Rest enthält, der nicht auf
oder abgerundet werden darf, dadurch koreliiert dieses fehlerhafte Bit mit dem
Grundrauschen und es kommt zu Fehlern, die sich klanglich als
Quantisierungsrauschen äußern. Klanglich besteht es aus einen weißen
Rauschen mit disharmonischen Verzerrungen (= Granulationsrauschen). Das
Quantisierungsrauschen wird dabei aber nicht direkt als verzerrt, sondern eher
als ein rauer Klang empfunden. Somit hat man es mit einen Rauschen oberhalb
des SNR zu tun, (z.B. bei 16 Bit – 98 dBFS) was dort ohne Bitfehler gar nicht
auftreten würde. Anders gesprochen verkürzt sich also praktisch der

38
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Rauschabstand durch das Auftreten von Quantisierungsrauschen in diesem


Bereich.

Da bei 24 Bit das niederwertigste Bit bei -144 dBFS liegt, fallen jedoch
Quantisierungsrauschen und dadurch auftretende Verzerrungen nicht mehr ins
Gewicht, denn die Hörschwelle liegt schließlich bei -100 dBFS (entspricht 0
dB[A])!
Außerdem ist im Vergleich sogar das Eigenrauschen von fast jedem
Wiedergabegerät schon lauter (allgemein zwischen ca. - 96 bis - 144 dBFS).

Dithering

Das Konvertieren der Bitrate um ein Stück Red-Book-kompatibel zu machen


lässt sich nicht vermeiden, jedoch lässt sich vermeiden, dass das daraus
entstehende Quantisierungsrauschen hörbar wird. Dazu wird es durch die
Hinzugabe eines künstlichen Rauschens - dem Dither - verdeckt. Das
Ditherrauschen liegt dabei lautstärkemäßig im Schnitt sogar noch 10-20 dB
höher als das Quantisierungsrauschen. Es ist also an sich noch deutlich lauter
und erhöht zudem den Gesamtrauschanteil des Signals. Die niederwertigsten
Bits tauchen dann quasi in dieses Rauschen hinein, so dass das
Quantisierungsrauschen nicht mehr hörbar ist.
Der Gedanke dahinter: Ein Rauschen wird immer noch als angenehmer
empfunden als ein rauer Klang. Das Quantisierungsrauschen ist generell aber
bei einer sehr kleinen Bitrate, und auch da nur an leisesten Stellen, wie etwa am
Ende eines Fade-Outs, deutlich hörbar und nur sofern man diese Stellen auch
laut genug anhört.

Bei Unterhaltungsmusik, die in der Regel von der gesamten jeweils zur
Verfügung stehenden Dynamikspanne konkret oft nur die obersten 12 dB
ausnutzt, kann überhaupt kein Quantisierungsrauschen durch die
Konvertierung auf 16 Bit auftreten. - Das niederwertigste Bit liegt bei 16 Bit
nämlich bei - 96 dBFS! Es kann hier also nur dann zum
Quantisierungsrauschen kommen, wenn nach der Bitraten-Konvertierung
Signale unterhalb von – 96 dBFS wiedergegeben werden sollen. Dies ist bei
solch geringen Dynamiknutzung von 12 dB natürlich nicht der Fall. Selbst bei
Signalen unter – 96 dBFS würde das Quantisierungsrauschen nahe der

39
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Hörschwelle (-100 dBFS) liegen. - Man müsste also dann die leisesten Stellen
ziemlich anheben, um das noch bewusst rauszuhören. Bei der Konvertierung
auf 16 Bit macht das Hinzufügen eines Ditherrauschens um damit das
Quantisierungsrauschen zu verdecken also wenig Sinn, solange die tatsächliche
Dynamik im Stück gering ist.

Ditherrauschen bei der Konvertierung auf 24 oder auf 32 Bit zu verwenden,


wäre sogar ein einziger Schwachsinn, weil dort das Dither- und
Quantisierungsrauschen beide nicht mehr im wahrnehmbaren, - sondern eher
in atomaren Bereich liegen.
Hingegen ist das Hinzufügen von Dither bei der Konvertierung auf 8 Bit
unbedingt nötig, da hier der Rauschabstand sehr viel geringer ist, viel weniger
Lautstärkestufen vorhanden sind, und Quantisierungsrauschen deshalb
deutlicher hörbar wird.

Zum Verschleiern von eigentlich überhaupt nicht auftretenden und wenn dann
unter normalen Hörlautstärken nicht bewusst wahrnehmbaren
Quantisierungsrauschen bei 16 Bit macht das Hinzufügen eines
Ditherrauschens also strenggenommen keinen Sinn. Es ist dann eher so, als
hätte man einen kleinen brennenden Zweig gefunden und sagt: „Lasst ihn uns
löschen, indem wir das ganze Waldstück in Brand legen!“ Hörtests an
Probanden haben jedoch ergeben, dass Musik in 16 Bit, die ein Ditherrauschen
enthält, unbewusst als angenehmer empfunden wird, als Musik ohne
Ditherrauschen. Die im Vergleich zu analogen Aufnahmen hart klingende
digitale Musik scheint durch das Rauschen eine Art künstliche Fehlerquelle zu
bekommen, eine Ungenauigkeit im Signal, die aber auf die Ohren, wenn auch
nicht bewusst gehört, angenehm wirkt. Die klanglichen Vorteile von Dither
liegen zumindest bei 16 Bit Audio wahrscheinlich mehr am Dither selbst als an
der Negativität des Quantvisierungsrauschens.

Auf keinen Fall sollte man mehrmals Dither benutzen, also z.B. eine Datei auf
16 Bit mit Dither konvertieren und diese dann nochmal mit einen
Ditheralgorhythmus versehen, - dies verhilft nämlich nur dem Rauschen zum
Ausdruck, nicht aber der Musik. Jeder Wandler eines CD-Player enthält
übrigens intern ebenfalls ein Ditherrauschen, das der Musik hinzugefügt wird.

40
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Durch das Hinzufügen von Dither kann übrigens die Dynamikspanne erhöht
werden ohne dass die Bitbreite erhöht werden muss, so dass z.B. bei 16-Bit
auch leiseste Klanginformationen bis in den Bereich unterhalb von – 96 dBFS
darstellbar werden (z.B. Rauminformationen und Decayphasen), obwohl die
Bitrate nach wie vor nur 16 Bit beträgt.

Noiseshaping

Durch das sogenannte "Noiseshaping" wird das Frequenzspektrum des


Ditherrauschens mittels Filter so beeinflusst, dass ein möglichst großer Anteil
vom Rauschen in hohe Frequenzbereiche verlagert wird, die vom Ohr weniger
gut oder gar nicht mehr wahrgenommen werden. Somit kommt es zu einer
Minderung des Rauschanteils. Auch der bekannte Algorhythmus „Apogee UV
22“ basiert auf diesem Prinzip. Er verlegt aber kein Ditherrauschen in höhere
Frequenzbereiche, sondern legt stattdessen nur ein Signal in hohen
Frequenzbereichen (bei 22 kHz) ab. Der UV 22 ist daher kein Dither- oder
Noise-Shaping Effekt sondern eher eine spezielle Art Signal, die aber alle
wünschenswerten Ergebnisse eines Ditherings und Noise-Shapings
hervorbringt. Der UV 22 ist daher noch immer Standard in vielen Studios.
Durch die sog. Autoblack-Funktion wird das Ditherrauschen nachdem das
Signal einen bestimmten Schwellwert erreicht hat entfernt, z.B. bei Pausen oder
überaus leisen Stellen. Der derzeit rauschärmste Ditheralgorhythmus ist der
POW-R Algorhythmus. Wenn aber tatsächlich das Dither-Rauschen selbst, also
unabhängig davon, ob mit ihm Quantisierungsrauschen beseitigt wird oder
nicht für eine Verbesserung des digitalen Klanges sorgt, ist die Frage, ob ein
absolut unhörbares Rauschen noch einen solchen psychoakustisch positiven
Effekt hervorbringen kann.

Nach Dithering und Noise Shaping sollten grundsätzlich keine weitere


Bearbeitung mehr stattfinden, weil sonst störende Nebeneffekte auftreten
können, denn durch weitere Bearbeitungsschritte am Signal würde sich die
Bitrate wie im folgenden erläutert erhöhen und das würde besonders wenn im
Signal bereits ein Dither liegt ab einem gewissen Punkt schnell alles ruinieren.
Das Dithering- und Noise-Shaping ist also immer der allerletzte
Bearbeitungsschritt, danach kommt höchstens nur noch das Verändern des
Gesamtpegels eines Stückes (Normalisieren) zum Zweck der lautstärkemäßigen

41
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Angleichung in einer Audiozusammenstellung. Das Normalisieren ändert dabei


aber nichts am SNR.

Quantisierungsfehler

Durch die Bearbeitungsprozesse, die man am Signal vornimmt (z.B. Equalizing


etc.) erhöht sich ständig die Wortlänge (Auflösung, Messtiefe, Bitrate). Ein
Signal kann also anfangs in 8 Bit Auflösung vorliegen und nach der Bearbeitung
aufeinmal 16 Bit Auflösung haben. Da man aber schlussendlich immer wieder
die Bitzahl runterrechnen muss, weil man für das CD-Format 16 Bit benötigt,
können dabei leicht Rundungsfehler (Quantisierungsfehler) im Rechensprozess
entstehen. Dies ist deshalb der Fall, weil im digitalen Bereich nur diskrete Werte
akzeptiert werden, d.h. alles muss im Bereich endlicher Zahlen absolut glatt
aufgehen, um zu funktionieren. Es dürfen also keine unendlichen
Kommastellen und keine Brüche mit Rest rauskommen. Ein einziger Fehler in
einer Rechenfolge, z.B. dass zwei zu addierende Beträge durch die hunderste
Nachkomma-Stelle nicht ganz aufgehen, kann zu falschen Rechenergebnissen
und somit zu Datenverlusten führen, die sich irgendwann in gekippten Bits
äußern. Es wird dann eine digitale 0 statt einer 1 ausgegeben. Da alles
miteinander zusammenhängt führt ein einziger Fehler in der Rechenkette auch
bei allen anderen nachfolgenden Berechnungen zu Fehlern. Durch zu viele
ungenaue Bearbeitungsschritte gehen also Informationen im Signal verloren. Je
mehr Bearbeitungsschritte vorgenommen werden, desto höher wird die
Wortlänge des Signals, desto mehr muss man die Wortlänge wieder verkürzen
und desto präziser müssen die Systeme arbeiten, um Verluste zu vermeiden. Je
größer die Bitrate und damit der Messwert eines Signals, desto mehr kann es
bearbeitet werden (bzw. desto ungenauer könne die Rechenschritte sein), ohne
dass die bei der Bearbeitung oft zwangsläufig entstehenden
Quantisierungsfehler hörbar werden. Bei 24 Bit-Dateien ist die Wortbreite aber
erfreulicherweise so groß, dass unzählige Bearbeitungsschritte vorgenommen
werden können, ehe es zu hörbaren Fehlern kommt.

42
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

DC-Versatz

Ein DC-Versatz (DC-Offset, >Gleichstrom) tritt dann auf, wenn in einem


Audiosignal eine zu große DC-Komponente vorhanden ist. Dadurch wird das
Signal nämlich nicht mehr richtig auf dem Nullpegel der Achse zentriert. Dies
kann dann auftreten, wenn die Audiogeräte nicht richtig aufeinander
abgestimmt sind. Der Versatz vermindert die Grundlautstärke eines Signals, je
nachdem wie weit er von der "Nullpegel-Achse" entfernt ist. So können also
kaum sanfte Übergänge zwischen einzelnen Audiodateien erzielt werden.
Außerdem werden bestimmte Bearbeitungsschritte durch einen DC-Versatz
erschwert: Da dass Signal nicht mehr richtig um die Nullachse zentriert ist,
kann es z.B. nicht mehr effektiv komprimiert werden. Die Entfernung des DC-
Versatzes wird oft beim (Pre-)Mastern eines Stückes vorgenommen. Ein DC-
Versatz kann vorhanden sein, ohne dass er auf den ersten Blick sichtbar ist.
Obwohl ein Versatz bei heutigen technischen Gegebenheiten immer
unwahrscheinlicher wird, lohnt sich die Überprüfung.

Bild: Audio-Signal links mit und rechts ohne DC-Versatz

43
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Dynamikbearbeitung

Breitband-Kompressor (Einzelbandkompression)

Einiges über Sinn und Zweck von Kompressoren wurde bereits im Kapitel
„loudness-race“ erwähnt. Für professionelle Audiobearbeitung ist es
unabläßlich das Funktionsprinzip eines Kompressors zu verstehen. Obwohl es
viele unterschiedliche Audio-Kompressoren gibt, ist die Arbeitsweise eines
Kompressors immer die selbe:
Wenn der Pegel des zu komprimierenden Audiomaterials einen eingestellten
Wert (Treshold [Treshold=engl Schwelle; Schwellwert]) für eine bestimmte
Dauer (Attack) überschreitet, wird dieser im eingestellten Verhältnis (Ratio) für
eine gewisse Dauer (Release) abgesenkt.

Soll heißen: Mit dem Attack-Wert stellt man ein, ab „wann“ der Kompressor
das eingehende Signal beeinflussen soll: Ist Attack nun auf den Wert 2 ms
eingestellt, beeinflusst der Kompressor erst nach 2 ms das eingehende Signal.
Die ersten 2 ms des eingehenden Signals bleiben also unbeeinflußt!

Das Signal wird solange beeinflusst, wie es mittels des Release-Wertes festgelegt
wird (z.B. Release=20 ms) und in einen Verhältnis, wie es durch „Ratio“
definiert wird, (z.B. Ratio 2:1)

- Dies bedeutet: Wenn das Eingangssignal z.B. 6dB "höher" als der Schwellwert
(Threshold) liegt, wird es danach nur noch 2:1 dessen höher sein (- also nur
noch 3 dB höher!).
Der Kompressor dämpft also einfach gesprochen zu laute Signale (also Signale,
die über dem Threshold liegen) ab. Dadurch wird ein einheitlicheres
Lautstärkeverhältnis und ein dichterer Klang erreicht, da sich die Dynamik des
Signals verringert.

Durch den Kompressor entsteht jetzt ein leiseres Signal als zuvor, wodurch
man dann das Stück in seiner Gesamtlautstärke wieder auf die vorige Lautstärke
(oder höher) anheben kann und es dabei dann dichter und lauter klingt als

44
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

vorher. Also machen Kompressoren nicht "lauter", wie es oft behauptet wird,
sondern leiser, - aber: Durch sie kann man den Mix dann letztendlich lauter
regeln, also mehr "Lautheit" rausholen, ohne dabei die kritische 0 dBFS-Grenze
zu überschreiten.

Arbeitsweise eines Kompressors anhand des Waves C1:

Bild: Kompressor bei der Arbeit – Waves C1

Abschnitt 1:

Hier sieht man die einzelnen Parameter des Kompressors:


- Treshold (- 27,5 dBFS)
- Ratio (3.96:1)
- Attack (2.99 ms)
- Release (50 ms)
- Make-up-Gain (4,5 dB)

45
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Make-Up-Gain und Auto-Gain

Mit dem Parameter "Make-up-Gain“ kann das komprimierte Signal um einen


selbst definierten dB-Wert lauter geregelt werden. Wenn eine "Auto-Gain"-
Funktion vorhanden ist, wird das komprimierte Signal automatisch soweit
angehoben, wie es ohne Verzerrungen möglich ist. Dabei behält das Signal
natürlich seine Kompression bei.

Abschnitt 2:

- Der Treshold ist hier noch mal durch den gelben Pfeil markiert auf der
dBFS-Skala markiert.
- Der lila Balken stellt das Eingangsignal dar und das kleine schwarze
Kästchen unterhalb davon zeigt, dass es bei -16 dBFS liegt. 4.5 dB
kommen vom Make-Up-Gain, der dem Eingangsignal hinzugefügt
wurde, demnach beträgt der Wert vom ursprünglichen Eingangsignal -12
dBFS!.
- Nur der Teil des Eingangsignals, der über dem gelben Pfeil liegt, wird
komprimiert, - also alles von - 27 dBFS bis 0 dBFS.
- Alles was unterhalb des Treshold-Pfeils liegt (also alles von - 27 dBFS bis
- 100 dBFS) bleibt unbehandelt.
- Da das Signal in der Abbildung einen Pegel von -16 dBFS hat und der
Treshold bei – 27, 5 dBFS liegt, beträgt der Anteil vom Signal der
komprimiert wird hier 11,5 dB.

Abschnitt 3:

Hier sieht man, wie ein roter Balken anzeigt an wie groß die
Lautstärkeminderung durch die Kompression ist (Kompressionsgrad). Der
Wert beträgt 10,3 dB und wird, da es sich um eine Lautstärkeminderung
handelt mit einen Minusvorzeichen angezeigt, nicht zu verwechseln mit dBFS-

46
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Werten! In diesem Beispiel kommt es also durch die Kompression zu 10,3 dB


Lautstärkeminderung.
(Der andere Teil der Skala liegt im Plusbereich, dort zeigt sich der rote Balken
wenn der C1 im Expander-Modus arbeitet.)

Hard Knee und Soft Knee

Der Parameter Knee (Knie) regelt wie schnell die Kompression einsetzt, sobald
der Treshold überschritten und der Attack-Wert erreicht ist. Im Modus Hard
Knee setzt die Kompression sofort gemäß der Kompressoreinstellungen ein,
sobald das eingehende Signal den Treshold überschreitet.

Im Soft-Knee-Modus, setzt ein kleiner Teil die Kompression schon kurz bevor
der Treshold erreicht wird ein und erhöht sich dann erst allmählich, wenn der
Treshold überschritten wird, auf den durch Ratio festgelegten
Kompressionsgrad. Je größer der Knee-Wert, desto behutsamer und
unauffälliger wird also komprimiert, weswegen ein Kompressor im Soft-Knee-
Modus oft als musikalischer angesehen wird.

Bild: Funktionsprinzip des Knee-Paramaters

Manche Kompressoren geben den Knee-Modus durch einen Zahlenwert an.


„0“ entspricht dabei normalerweise einen „Hard Knee“ und alles über 0 geht in
Richtung „Soft Knee“.

47
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Opto-Kompressor und Electro-Kompressor

Immer wenn beim Opto-Kompressor das eingehende Signal durch die


Kompression um mehr als 3 dB leiser wird, wird der Release-Wert größer.
Dadurch wird quasi etwas dekomprimiert, denn durch das langsamere Release
kann ein Teil des Signals unbearbeitet passieren.
Immer wenn das Signal aber um weniger als 3 dB leiser wird, wird der Release-
Wert kleiner, - dadurch steigt dann wieder der Grad an Kompression. Durch
dieses Verhalten lassen Optokompressoren also eher Transienten (kurze und
schnelle Signalspitzen) durch. Zudem arbeiten Opto-Kompressoren nicht in
allen Frequenzbereichen gleich stark.

Im Electro-Mode arbeitet ein Kompressor genau anders rum: Immer wenn die
durch den Kompressor hervorgerufene Lautstärkereduzierung das Signals um
mehr als 3 dB absenkt, wird der Release-Wert kleiner. Dann wird das Signal
also noch stärker komprimiert.
Beträgt die Lautstärkereduzierung aber weniger als 3 dB erhöht sich der
Release-Wert, wodurch etwas weniger komprimiert wird. Das Signal kann
dadurch schneller wieder lauter werden und die Kompression dadurch schneller
wieder einsetzen.

Man kann also sagen, ein Electro-Kompressor liefert einen stärkeren und
umfassenderen Kompressionsgrad und ein Opto-Kompressor einen geringeren,
wirkt aber dadurch oft musikalischer.

Downward- und Upward-Kompressor

Ein Kompressor ist in der Regel ein Downward-Kompressor. Dass heißt, er


senkt laute Pegel ab und verkürzt auf diese Weise den Dynamikumfang, die
leisen Stellen bleiben dabei unberührt. Ein Upward-Kompressor arbeitete
genau umgekehrt:
Er verkürzt die Dynamikspanne durch Anhebung leiser Pegel, statt durch
Absenkung lauter Pegel. Die lauten Signalanteile bleiben dabei unbehandelt und
können dann später separat (z.B. mit einen Limiter) bearbeitet werden.
Dadurch bleiben die hohen Pegel wie sie sind und leisere Stellen werden mehr
in den Vordergrund gerückt.

48
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Multibandkompression

Zum Pre-Mastern ist manchmal der Multiband-Kompressor von Interesse. Er


kann natürlich auch zur Einzelsignalbearbeitung eingesetzt werden.

Beim Multiband-Kompressor wird das Stück in mehrere Frequenzbänder


aufgeteilt und jedes einzelne Band kann dann individuell komprimiert werden.
Dabei ist folgende Frequenzaufteilung empfehlenswert:

1. Band bis 180 Hz (Bassbereich)


2. Band bis 1 kHz (Grundtöne und erste Harmonische)
3. Band bis 8 kHz (obere Mitten & Höhen)
4. Band ab 8 kHz (Brillanz)

Da man beim Multiband-Kompressor für jedes Band die Ratio und den
Treshold separat einstellen und die einzelne Frequenzbändern EQen kann,
kann man mit ihm recht flexibel arbeiten, aber bei falscher Anwendung auch
die gesamte Summe verderben. Der Multiband-Kompressor ist also nie besser
als die Hände, die ihn bedienen.

Bässe sorgen für die meisten Peaks im Signal und haben die meiste Energie,
dadurch spricht dort ein Kompressor schnell an und versucht diese Peaks
runterzuregeln. Bei zu schnellen Attack- und zu kurzen Release-Werten, kommt
es dann aber wieder zu Zerrungen im Bassbereich und zu Pumpeffekten, denn
durch das schnelle und häufige Wechseln von Begrenzen und Loslassen des
Signals werden die Sinuswellen zu Rechteck-Wellen verformt, die einer
Verzerrung entsprechen. Durch eher niedrigere Attack- und höhere Release-
Zeiten für den Bassbereich lassen sich solche Nebeneffekte auf der Summe
vermeiden.

Hohe Töne schwingen schneller, d.h. es kommt schneller zum nächsten


positiven Welle, weshalb die Release-Zeit kürzer sein muss, sonst verpasst der
Kompressor zu viele der nachfolgenden Pegelspitzen und lässt sie unbearbeitet
durchgehen.

49
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Viele Kompressoren haben eine Auto-Release-Funktion, die den Release Wert


automatisch regelt und dadurch unerwünschten Effekte vermindern hilft.
Solchen Auto-Release Funktionen sollte man aber (je nach Gerät..) nicht zuviel
Vertrauen schenken, besser ist es alles manuell einzustellen.

Beim Multiband-Kompressor dieselben Attack- und Release-Werte für den


gesamten Frequenzumfang eines Stückes zu benutzen wäre falsch. Auch beim
Einstellen der Ratio sollte man überlegt vorgehen. Insbesondere das
übermäßige Komprimieren der Höhen kann dazu führen, dass bestimmte
Anteile, die im Höhenbereich des Mixes zu laut sind, dann noch lauter werden
und unangenehm hervorstechen. Dabei darf auch nicht vergessen werden, dass
das Gehör sowieso hohe Töne deutlicher wahrnimmt als Tiefe. Daher liegen
auch alle Warn- und Signaltöne immer in hohen Frequenzbereichen. Die
Präsenz und Dichte der Musik lässt sich durch Komprimieren der obersten
Mitten und Höhen von 1-12 kHz zwar erhöhen, dies kann aber wenn es
übertrieben wird, schnell leblos und anstrengend wirken. Insbesondere der
Bereich von 1,5 kHz bis 4 kHz wo man am deutlichsten Veränderungen in der
Lautstärke bemerkt, sollte nicht durch zuviel Kompression verfälscht werden,
es sei denn dieser Bereich ist im Mix unterbetont. Als Faustregel gilt also: Bässe
viel, Mitten mäßig und Höhen sehr gering komprimieren.

Vintage-Kompressoren

Vintage Kompressoren sind alte Kompressor-Modelle der 50` bis 60`ger Jahre,
die mit rein analogen Komponenten arbeiten. Sie haben keine Ratio-Regler
zum Festlegen des Kompressionsgrades. Der Grad der Kompression wird
durch die Stärke des anliegenden Eingangsignals bestimmt. Ein höheres
Eingangssignal führt also zu höherer Kompression, parallel dazu kann natürlich
auch das Ausgangssignal nachgeregelt werden.
Sie haben einen typisch analogen Klangcharakter, denn man mit warm, weich
und luftig umschrieben kann.
Heutzutage versuchen manche Software Hersteller die Klangeigenschaften
dieser Kompressoren digital zu simulieren, wobei auch das Design der Software
oft den Hardware Vorbildern nachempfunden wird.
Obwohl manche dieser Plug-Ins in ihren Klangverhalten den großen
Vorbildern etwas ähneln, ist der Klang von Vintage-Kompressoren derzeit mit

50
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

digitaler Software nicht direkt zu erreichen. Teils wird auch versucht den Klang
der Hardware zu sampeln (Impulse Responses) um authentischere Ergebnisse
zu bekommen. Diese Methode erfreut sich besonders bei Halleffekten großer
Beliebtheit.

Side-Chain

Immer wenn ein Signal in den Sidechain-Input des Kompressors eingeht, wird
das ausgehende Kompressor-Signal leiser, als das im Sidechain anliegende
Signal. Das im Sidechain anliegende Signal wird dann also immer etwas lauter.
Der Sidechain wird häufig bei Radiostationen benutzt: Immer wenn der Radio-
DJ spricht, gelangt sein Mikrosignal in den Sidechain des Kompressors, der
dann automatisch die Musik leiser regelt.
Außerdem ist der Sidechain-Kompressor beliebt um z.B. das Verhältnis von
Bass und Bassdrum so zu regeln, dass sich diese Instrumente nicht gegenseitig
verdecken (da sie ja im selben Frequenzbereich liegen): Immer wenn also z.B.
das Bassdrumsignal in den Sidechain eingeht, regelt der Kompressor den Bass
etwas leiser. Dabei stellt man es so ein, dass der Bass allein, also in den
Bassdrumpausen, ungefähr so laut wird wie zuvor Bassdrum und Bass
zusammen. Es ergibt sich dadurch ein ausgeglichenes Verhältnis beim Bass,-
und Bassdrum-Zusammenspiel.

Downward- und Upward-Expansion

Bei Downward-Epandern werden die leisen Signalanteile noch leiser geregelt,


dadurch weitet sich die Dynamikspanne des Stückes nach unten hin. Sinnvoll
ist dies z.B. um Rauschen und Störgeräusche auf einer Aufnahme zu
unterdrücken. Viele Rauschunterdrückungsverfahren und Noise Gates arbeiten
daher nach diesem Prinzip.

Bei Upward-Expandern werden laute Signalanteile noch lauter geregelt,


dadurch weitet sich dann der Dynamikumfang nach oben hin. Sinnvoll ist dies
um zu schwache oder verloren gegangene Pegelspitzen zu erhöhen/zu
restaurieren und damit mehr Lebendigkeit in die Musik zu bekommen zu
verstärken. Ein Upward-Expandern ist das genaue Gegenteil der Arbeitsweise

51
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

eines Downward-Kompressors.
Oft muss man nach dem Upward-Expander einen Limiter benutzen, um
eventuell zu hohe Pegelspitzen wieder zu senken. Dies kann unter Umständen
wieder eventuelle Pumpeffekte durch das Limitieren nach sich ziehen und den
Dynamikgewinn durch den Upward-Expander wieder etwas schmälern.

Normalizer

Beim Normalisieren eines Signals wird dessen Pegel relativ zur höchsten
Pegelspitze auf einen bestimmten Wert angehoben. Der Spitzenpegel des
Signals wird hierbei durch einen Scan ermittelt. Meist liegt der Wert für die
Pegelanhebung unterhalb von 0 dBFS, da es oberhalb von 0 dBFS stets zu
Verzerrungen kommen würde. Der Rauschabstand des Signals wird durch das
Normalisieren nicht verändert, jedoch kommt es beim Normalisieren zu einer
Anhebung des Spitzenpegels, wobei auch der Teil des Signals der das
Grundrauschen enthält angehoben wird. Außerdem stellen sich durch diesen
Bearbeitungsschritt Quantvisierungsverzerrungen ein, die ab einen gewissen
Maß störend werden.

Ab wann sich dies nun störend im Signal bemerkbar macht, liegt am


Rauschabstand– und somit an der jeweiligen Bitrate -, dem Dynamikumfang,
dem Spitzenpegel des Stückes und dem Anteil an Rauschen und sonstigen
Störgeräuschen im Signal und natürlich daran, wie weit der Pegel durch das
Normalisieren verändert wird. Es ist also - entgegen vieler Behauptungen -
nicht notwendig, generell auf das Normalisieren zu verzichten. Ebensowenig
verbessert aber das Normalisieren die Klangqualität oder Lautheit eines Stücks.

Normalisiert werden immer nur einzelne Signale oder alle Stücke einer Audio-
Zusammenstellung, - aber niemals nur die Summe eines einzelnen Stückes.
Wird jeder Song einzeln normalisiert, wird natürlich für jeden Song ein anderer
Spitzenpegel ermittelt und somit werden die Grade der Lautstärkeanhebung
durch das Normalisieren bei jeden Song anders sein, selbst wenn jeder Song auf
den gleichen Wert normalisiert wird. Dadurch passen Songs die zusammen auf
eine CD sollen von der Lautstärke nicht mehr zusammen.

52
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Frequenzspektrum des EQs

Im EQ ist die gesamte Musik in ein Frequenzspektrum aufgeteilt, dass i.d.R. bis
ca. 20 kHz reicht. Frequenzen über 16 kHz zählen zum Ultraschallbereich und
unterhalb von 16 Hz liegt der Infraschall. - Also höchstens nur noch für
Erdbebenforscher und Fledermausohren interessant.... .

Die Einheit Hz (Hertz) in der die Frequenz angegeben wird, wird definiert mit
einer Schwingung (f) pro Sekunde. Je mehr Schwingungen pro Sekunde, desto
höher die Frequenz.

Der bewusste Hörumfang des menschlichen Ohres liegt bestenfalls zwischen


16 Hz und ca. 16 kHz (also 10 Oktaven). Alles unter 40 Hz wird überwiegend
mehr gefühlt als gehört (Tiefbass) und alles oberhalb von ca. 16 kHz wird eher
unbewusst „mitempfunden“ (Psychoakustik). Hinzu kommt, dass der bewusste
Hörumfang für hohe Frequenzen sich mit steigenden Alter auf 8 -12 kHz
verringert.

Einige Untersuchungen der Universität Heidelberg haben jedoch beweisen,


dass der Mensch, wenn auch unter Schmerzen, noch weitaus höhere
Frequenzen bis 40 kHz wahrnehmen kann.

Frequenzbereiche und ihre Charakteristika

20 Hz und tiefer >Dieser Bereich ist unhörbar und kann in jedem Fall
abgeschnitten werden.
60 Hz und tiefer >Sub-Bass (Tiefbass), dieser Bereich ist nicht hörbar sondern
nur fühlbar
80-100 Hz >fühl- und hörbarer Bassbereich
100-250 Hz >tiefe Töne
250 Hz >Dieser Frequenzbereich bildet das Fundament eines Mixes, wird er zu
überbetont kommt es zu Dröhnen
250-500 Hz >Dieser Frequenzbereich kann bei Betonung einen Mix wärmer
machen, aber auch zu mulmig klingen lassen
300-400 Hz >Mittenbereich

53
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

500-2 kHz >“Definition“, „Verständlichkeit“ im Mix werden durch die


Betonung dieser Frequenzen erreicht, bei Überbetonung dieser
Frequenzbereiche entsteht der sog. "Telefonsound"
800-4 kHz> Hier liegt das Timbre der Stimme
2 KHz - 8 kHZ >Dies ist der Bereich für Präsenz im Mix
5-7 kHz >Bereich für S- und Zischlaute (De-Essing)
4,5 kHz> Wird vom Ohr sehr sensibel wahrgenommen, daher empfiehlt sich
oft eine leichte Absenkung
4-9 kHz >Definition, Helligkeit
11-15 kHz >Luft und Präsenz
8 kHz - 20 kHz >Dieser Frequenzbereich ist für Transparenz und Brillanz
zuständig, und hebt Details hervor. Wird hier zuviel betont kommt es zum
"Schlangenzischeln" – ein nasaler, zischelnder Klang. Ein Hig-Cut in diesen
Bereich mildert zu starke Höhen und gibt einen dunkleren Klang.

Low-Cut und High-Cut

Aus dem gerade Gesagten geht hervor, dass in der Regel (außer bei "Club-
Musik"), alles unter 20 Hz „gecutet“ werden kann, solch einen Arbeitsschritt
bezeichnet man als "Low-Cut". Dies ist auch deswegen sinnvoll, um später die
Lautheit der Musik nicht unnötig zu begrenzen, denn solche tiefen Subbässe
können einen großen Anteil der Energie im Signal ausmachen, obwohl sie nicht
zu hören sind. Dadurch wird der Spielraum zur Steigerung der hörbaren
Lautheit unnötig gesenkt.

Bässe unter 60 Hz sollten nur beibehalten werden, wenn die Musik garantiert in
Clubs gespielt werden soll, wo ja auch solch tiefen Subbässe erwünscht sind
und durch die dortige PA fühlbar gemacht werden. Dieses Kribbeln im Bauch...

Das „cutten“ der oberen Bereiche (sog. "High-Cut",) erfolgt irgendwo


zwischen 16-21 kHz. Ein High-Cut ist immer notwendig, da sehr hohen
Frequenzen (ab ca. 20 kHz) bei sehr großen Lautstärken die Boxen beschädigen
können. Heutige CD-Player cutten automatisch alle Frequenzen ab 20 kHz.

54
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Ein High-Cut unter 16 kHZ ist in der Regel nicht üblich. Dennoch gibt es eine
Produktion, die einen High-Cut bei 13 kHz hat und trotz dieses sehr tiefen
High-Cuts sehr gut und durckvoll klingt: Limp Bizkit - "chocolate starfish and
the hot dog flavored water".

Bild: Low-Cut bei 40 Hz (links) und High-Cut bei 16,5 Hz (rechts).

Graphischer und parametrischer EQ

Man unterscheidet in der Erscheinungsform der Arbeitsoberfläche eines EQs


zwischen graphischer und parametrischer.
Bei der graphischen Variante wird der Frequenz-Bereich horizontal auf einer
Geraden und der dB-Bereich vertikal dargestellt, da drüber liegt die EQ-Kurve,
durch die beliebige Frequenzen auf der Hz bzw kHz-Geraden angehoben oder
abgesenkt werden können.

Beim parametrischen EQ hingegen werden Frequenzen Schieberegler


zugeordnet und dann mittels dieser Regler angehoben oder abgesenkt. Bei
vielen parametrischen EQs ist für jeden Regler genau eine bestimmte Frequenz
festgelegt.

55
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: 8-bändiger graphischer EQ

Bild: 8-bändiger parametrischer EQ

Das Senken Anheben von Frequenzen erfolgt normalerweise durch den


Parameter „Gain". Man kann also ganz gezielt bestimmte Frequenzen
verstärken oder absenken oder sogar durch extreme Absenkungen mehr oder
weniger "auslöschen" (>cutten).

Hier spielt aber auch der Wirkungsbereich des EQs eine Rolle, also um wieviel
dB er maximal anheben/absenken kann und wie laut das Audio-Signal „an
sich“ ist. Mit einen EQ der einen "Range" (Umfang) von +/- 6 dB hat wird
man nichts effektiv „cutten“ können, da man für einen Cut höhere

56
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Wirkungsgrade benötigt, - beispielsweise eine Absenkung von - 20 dB oder


mehr.

Flankensteilheit

Der Q-Wert regelt die Flankensteilheit eines EQ-Bandes und damit wie sehr die
Anhebung/Absenkung des EQ-Bandes benachbarte Frequenzen mit
beeinflusst.
Man kann dadurch also einen weit gefächerten (breitbandigen) oder einen eng
definierten (schmalbandigen) Bereich im Frequenzspektrum bearbeiten.

Bild: Schmalbandige Absenkung bei 377 Hz. Die hohe Flankensteilheit wird
durch den Q-Wert von 4.82 erzeugt. Benachbarte Frequenzbereiche werden
dadurch kaum beeinflusst.

57
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Breitbandige Absenkung bei 375 Hz, die sich durch niedrige
Flankensteilheit von 0.56 (Q-Wert) ergibt. Im Gegensatz zur schmallbandigen
Absenkung, werden die benachbarten Frequenzbereiche deutlich
mitbeeinflusst.

EQ-Filtertypen

Für die EQ-Bändern lässt sich außerdem meist ein bestimmter Filtertyp
einstellen:

1. Peak, Bell (Glockenfilter)

Dies ist der am häufigsten verwendete Filtertyp. Ein gewisses Spektrum um die
gewählte Frequenz herum wird dabei bearbeitet. Vom Aussehen her entspricht
der Frequenzgang dann einer Glocke, daher die Bezeichnung „Glockenfilter“
(vom engl. Bell = Glocke)

58
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: EQ-Band 4, Absenkung um – 4,5 dB bei 1622 Hz mit dem Bell-Filter.

2. Shelve (Kuhschwanzfilter)

Hier unterscheidet man den High-Shelf- und Low-Shelf-Filter.

Der High-Shelf-Filtertyp hat die Eigenart alle Frequenzen oberhalb der


gewählten Frequenz zu beeinflussen. Beim Low-Shelf-Filter verhält es sich
genau andersrum.

Wird ein Frequenzbereich mit diesen Filtertypen bearbeitet, ähnelt er vom


Aussehen her einen Schweif bzw. Schwanz, daher die Bezeichnung
„Kuhschwanzfilter“.

59
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

EQ-Band 4, Absenkung um - 8,5 dB bei 1628 Hz mit dem High-Shelf-Filter.

EQ-Band 3, Ansenkung um - 10,8 dB bei 406 Hz mit dem Low-Shelf-Filter

60
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

3. Notch (Kerbfilter)

Dieser Filtertyp ermöglicht eine extrem schmalbandige Bearbeitung, wie man


sie auch von einer hohen Flankensteilheit her kennt. Das Aussehen des
Frequenzganges ähnelt dann einer „Einkerbung“, daher die Bezeichnung
„Kerbfilter“ (notch = engl.: Kerbe).

4. High-Pass (Hochpassfilter)

Der High-Pass-Filter läßt alle höheren Frequenzen über der gewählten


Frequenz unbeeinflusst „passieren“ (engl.: to pass = vorbeilassen, überqueren)
aber cuttet alles unterhalb der gewählten Frequenz steil ab. Dieser Filtertyp
wird auch für einen Low-Cut benutzt.

5. Low-Pass (Tiefpassfilter)

Der Low-Pass-Filter läßt alle tieferen Frequenzen über der gewählten Frequenz
unbeeinflusst passieren aber cuttet alles oberhalb der gewählten Frequenz je
nach Flankensteilheit mehr oder weniger steil ab. Dieser Filtertyp wird also
auch für den High-Cut benutzt.

Lineare Equalizer

EQs kolorieren stets den Klang durch sog. Phasenverschiebungen, was aber als
gewohnte und typische Eigenschaft eines EQ empfunden wird und (je nach
EQ... ) auch für einen guten Klang sorgt. Lineare Equalizer tun dies hingegen
nicht und dadurch entsteht ein transparenter Klang, der sich aufgrund seiner
Sauberkeit und Neutralität besonders für neutrale Bearbeitungen eignet.
Obwohl neutral im Klangverhalten sorgen lineare Equalizer oft für ein
qualitativ hochwertiges Klangergebnis.

61
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Limiter

Schnelle und kurze Signalspitzen (Transienten), die weit aus der Wellenform
des Signals herausfallen, hindern einen daran, die Lautheit und Lautstärke eines
Stücks effektiv zu erhöhen. Schließlich wird beim Normalisieren immer nur
von der höchsten Signalspitze ausgegangen und der Rest der Musik relativ dazu
mitangehoben.

Sind einzelne Signalspitze nun sehr viel größer als der Rest des Signals, wird
sich die Gesamtlautstärke insgesamt nicht so sehr erhöhen lassen, als wenn die
Signalspitze kleiner wäre. Außerdem geben zu große Signalspitzen der Musik
mehr Dynamik als vielleicht nötig.
Durch den Limiter werden Pegelspitzen deshalb also einfach abgesenkt. Viele
sprechen davon, dass ein Limiter Signalspitzen „abschneiden“ würde, dies mag
einen so erscheinen und im Sprachgebrauch so verwendet werden, ist aber
nicht so.

Man kann die Funktionsweise eines Limiters gut mit einen Kompressor mit
„unendlicher Ratio“ und sehr schnellem Attack vergleichen. Dies birgt aber
auch die Gefahr von Verzerrungen: Denn durch einen schnellen Attack und zu
kurzen Release-Zeiten des Limiters wird das Signal so schnell und häufig
abgesenkt, dass es sich von Sinuswellen quasi zu Rechteck-Wellen verformt und
dadurch zerrt. Diese Gefahr ergibt sich ja auch beim Kompressor.

Da der Limiter die Dynamik des Signals beschneidet, kann die Musik dadurch
auch zu steril klingen. Bei zu viel Limiting können die Transienten so sehr
abgesenkt und dem übrigem Signal gleichgemacht werden, dass manche
Klangbestandteile nicht mehr richtig wahrnehmbar werden und manche
Instrumente dann dumpf und unnatürlich klingen können. Wieviel gelimited
werden sollte liegt ganz am Klangmaterial, manche Sachen vertragen
Absenkungen der Pegelspitzen von bis zu 6 dB andere gar keine.

62
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Limitieren eines Signals. Die Pegelspitzen werden entlang der grünen Linie
abgesenkt. Das Eingangsignal wird durch die waagrechte Achse (IN), das
Ausgangsignal durch die senkrechte Achse dargestellt (OUT). Das
Eingangsignal wird hier z.B. bei - 7,8 dB auf - 12,9 dBFS limitiert usw.

Brickwall-Limiter und Soft-Limiter

Ein Brickwall-Limiter reduziert sofort jedes eingehende Signal, was über einem
bestimmten Treshold liegt. Muss der Limiter dann sehr viele Signalspitzen
schnell nacheinander limitieren, kann dies zu Verzerrungen führen. Beim Soft-
Limiter tastet der Limiter deshalb das Signal schon immer einige Millisekunden
im voraus nach Signalspitzen ab (Look-Ahead-Funktion), dadurch wird ein
verzerrungsfreies Limitieren möglich.

63
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Raumakustik

Reflexionen

Bei einer Mikrofonaufnahme in einem normalen Raum, klingt das Ergebnis oft
deutlich verhallt. Dies liegt an ungünstigen raumakustischen Verhältnissen, die
meist erst auf der Aufnahme deutlich hörbar werden.

Schall wird je nach Oberflächenstruktur reflektiert, absorbiert oder zerstreut.


Wenn der Schall auf eine glatte Oberfläche trifft, wird er entsprechend seines
Einfallswinkels dort reflektiert. Man unterscheidet deshalb zwischen
Direktschall, der direkt von der eigentlichen Schallquelle kommt, und dem
Reflexionsschall. Ein leerer Raum mit glatten parallel zueinander stehenden
Wänden ermöglicht sehr viele Reflexionen. Irgendwann werden die Reflexionen
dann so groß, dass sie als Hall wahrnehmbar sind. Deswegen klingt es in leeren
Räumen auch deutlich verhallter, als in einem möblierten Zimmer. Das Holz
der Möbel, die Vorhänge, Teppiche, das kleinere Raumvolumen durch
aufgestellte Möbel, all dies absorbiert oder verstreut den Schall. Reflexionen
sind beispielsweise verantwortlich für einen engräumigen, matschigen Sound
und für unangenehme Auslöschungen im Frequenzspektrum. Reflexionen
können durch jedes Schall-absorbierende Material (=Absorber), beseitigt
werden. Damit kann ein Raum sogar vollkommen schalltot gemacht werden.
Zu Absorbern zählen z.B. Schaumstoffe und jedes faserige Material. Oft
entstehen Reflexionen besonders zwischen zwei geraden glatten und parallel
zueinander stehenden Wänden, wo es dann zu Flatterechos kommen kann.
Stehen solche Wände zu nah beieinander (z.B. durch Zimmerecken), kann es
auch zur Auslöschung bestimmter Frequenzen kommen (sog.
Kammfiltereffekt). Sehr gut wäre es also, wenn überhaupt keine Wände parallel
zueinander stehen würden. Dies ist aber selten wirklich der Fall, deshalb muss
nachgeholfen werden. Eine Wandseite sollte zur gegenüberliegenden immer
möglichst schräg konstruiert werden, um Flatterechos zu vermeiden. Der
Versatz muss dabei allerdings größer als 30 cm sein um überhaupt eine
Wirkung zu erzielen.

64
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Mit Schrägen versetzte Wandseite Glatte Wandseite

Raumresonanzen

Raumresonanzen (auch Raummoden genannt) führen zu schmalbandigen


Lautstärkeüberhöhungen bestimmter Frequenzen durch stehende Wellen im
Raum. Je nach Abmessung eines Raumes ergeben sich unterschiedliche
Raumresonanzen. Betroffen ist vor allem der Bass- und Mitten-Bereich: Es
klingt nicht mehr druckvoll, sondern dröhnt. Diese stehenden Wellen müssen
ermittelt und durch den Einsatz von Resonatoren wie z.B. dem Helmholtz-
Resonator oder sog. Plattenresonatoren beseitigt werden. Bei höheren
Frequenzen sind solche Raumresonanzen hingegen so dicht und normalerweise
soweit gedämpft, dass sie nicht mehr stören.

Diffusoren

Diffundierendes Material benutzt man um einen guten Eigenklang des Raumes


ohne stehende Wellen zu erzielen. Diffundierendes Material hat eine
unregelmäßige Oberfläche mit vielen Höhen und Tiefen, an der Schall streuend
reflektieren kann (z.B. Eierkartons). Je ausgeprägter die Unebenheiten der
Oberfläche sind, desto tiefere Frequenzen können diffundiert werden. Da
Eierkartons relativ kleine Erhebungen an der Oberfläche aufweisen, wirken
diese auch nur bei höheren Frequenzen diffundierend. Für tiefere Frequenzen
bräuchte man deshalb auch sehr große Zerklüftungen im Material.

65
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Beispiele für Diffusoren


(Anhand der Konstruktionsform sieht man, dass als Alternative auch ein teils
vollgestelltes Bücherregal als Difussor dienen kann!)

Akustik im Aufnahmeraum

Für eine schlechte Akustik im Aufnahmeraum sind eher tiefe Frequenzen und
Mitten verantwortlich. Ein Aufnahmeraum sollte nicht total schalltot sein, ein
bisschen Raumklang darf also erhalten bleiben. Erwünscht sind Reflexionen
vom Fußboden. Dazu kleidet man den Boden mit Parkett aus. Das Parkett
sollte dann mit Filz der Trittschallmatten ausgekleidet werden um Trittschall
einzudämmen. Teppichboden würde höchstens eine geringe schalldämmende
Wirkung bringen, aber keine Reflexionen ermöglichen. Unerwünscht sind
Reflexionen von der Decke, deshalb sollte diese z.B. mit Pyramidenschaum
abgedämpft werden.

Akustik im Abhörraum

Jeder Raum hat gewissen klangliche Eigenarten. Da nur die wenigsten Leute in
schalloptimierten Räumen Musik hören, ist es wichtig Musik auch unter
gängigen raumakustischen Verhältnissen zu beurteilen. Jeder hört nun mal in
der Regel zu Hause Musik und geht dazu weder in die Besenkammer noch in
schalloptimierte Studioräume. Es sollte für den Abhörraum deshalb eine sog.
Wohnzimmerakustik hergestellt werden, also eine Raumakustik, wie sie einen
normalen häuslichen Raum entspricht. Der Abhörraum sollte seine
Eigenresonanz behalten, also nicht zu neutral klingen, aber auch keine
störenden Fehlerquellen haben: Dröhnen, Frequenzauslöschungen, übermäßige

66
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Reflexionen etc. müssen natürlich trotzdem beseitig werden. Durch diese


beiden Punkte wird gewährleistet, dass man nicht das Empfinden dazu verliert,
wie der Mix in einem normalen Raum klingt und dass durch die leichte
Optimierung der Raumakustik trotzdem die Instrumente und
Lautstärkeverhältnisse im Mix besser eingeschätzt werden können. Es ist
vergebliche Mühe einen Abhörraum absolut zu perfektionieren. Eben diese
akustisch perfekte Abhörumgebung wäre dabei die Fehlerquelle. Die Musik
vermischt sich immer etwas mit dem Raumklang des Raumes, in dem sie gehört
wird und jeder Raum klingt anders. Wie soll man da also in der
Abhörumgebung einen Raumklang erzeugen, der stellvertretend für alle
möglichen Räume steht, in dem die Musik später einmal gehört werden könnte?
Was ist überhaupt die Vorgabe, für „den“ Raumklang? Wie soll ein Abhörraum
gestaltet werden, in dem „gleichzeitig“ berücksichtigt werden kann, wie ein Mix
in den akustischen Verhältnissen sehr kleiner und sehr großer Räume klingt?
Diese Frage führen zur Antwort, dass es gar nicht möglich ist einen Abhörraum
so zu bauen, wo ein dort erstellter Mix in allen Räumen „gleichermaßen“ gut
klingt. Wenn ein Mix in jeden Raum gleich gut klingen soll, dann müsste man
ihn jeweils auf den Raum, in dem er gespielt werden soll abstimmen oder alle
Räume in denen Musik gehört werden soll, werden identisch gebaut und
eingerichtet.

Für Produktionen von Filmmusik sind bestimmte Eigenschaften des


Abhörraumes Pflicht. Filmmusik wird aber auch überwiegend in (je nach
Film...) vollen oder leeren Kinosälen gehört, deren Akustik nun wirklich ganz
anders ist, als Wohnzimmerverhältnisse. Hier macht es also Sinn in einer sehr
spezieller Abhörumgebung zu arbeiten, die dieser speziellen Akustik
nachempfunden ist. Für alles andere macht die Wohnzimmerakustik mehr Sinn.
Durch das Aufstellen etlicher Zimmerpflanzen kann man übrigens leicht
unerwünschte Reflexionen ausfiltern und die gewisse Wohnzimmerakustik
begünstigen. Der Schall kann sich an den Zimmerpflanzen gut verstreuen und
es kommt nicht zu harten Reflektionen.
Natürlich mag das seltsam aussehen, aber es zählt ja das Ergebnis, was dabei
rauskommt.

67
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Aufstellung von Studiomonitoren

Für eine genaue Abbildung des Mixes, bewährt es sich, dass die Boxen nicht in
Richtung einer glatten Wand hinstrahlen, da dies zu Reflexionen führen könnte.
Man sollte dort also diffundierendes (=den Schall zerstreuendes) Material
anbringen (z.B. Diffusorplatten) oder als Notbehelf ein vollgestelltes
Bücherregal. Die Seitenwände und die Wand hinter den Boxen sollten
absorbierend gedämpft werden, und keine direkte Reflexionen ermöglichen.
Es ist ebenso sinnvoll die Decke oberhalb des Abhörbereiches abzudämpfen.
Die Boxen werden durch Gumminoppen o.ä. vom ihrer Standfläche
entkoppelt, um Resonanzen zu vermeiden, die zwar die Basswiedergabe
erhöhen, aber dabei auch die Klarheit der Basswiedergabe mindern würde. Der
Abstand zwischen den Boxen beträgt ca. 1-3 Meter zueinander und es darf
dabei nichts zwischen den Boxen stehen. Subwoofer sollten etwas vor Mittel-
und Hochtöner aufgestellt werden, da Tiefbässe aufgrund längerer
Einschwingzeiten der Membrane etwas verzögert wiedergegeben werden als
hohe Töne.
Der Abstand zur Wand hinter den Boxen sollte 0,5 bis 1 m betragen, dadurch
werden Dröhngeräusche durch Resonanzen mit der hinteren Wand vermeiden.

Schalldämmung

In diesen Kapitel gibt es nun ein paar mögliche Vorgehensweisen, um mit


relativ einfachen und günstigen Mitteln eine brauchbare Schallisolierung zu
erreichen. Das Ausmaß der erforderlichen Maßnahmen richtet sich danach, wie
laut es nun im Raum zugehen soll und wie viel davon nach außen dringen darf.

Generell kann man erst einmal sagen: Je schwerer ein Dämmstoff ist, umso
besser ist die schalldämmende Wirkung (=Absorbtion; lat. absorbeo =
aufsaugen, für sich in Anspruch nehmen). Es geht dabei nicht um die Dicke
und das Volumen des Materials, sondern es kommt auf dessen Dichte an. Dann
beeinflusst auch noch die Oberflächenstruktur eines Materials dessen
schalldämmende Wirkung. Für die Schalldämmung und den Wirkungsgrad von
schalldämmenden Materialien kommt es aber auch darauf an, in welchen

68
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Abstand diese Materialien vor einer zu dämmenden Wand oder Decke


angebracht werden. Sind diese Materialien nämlich mit einen gewissen Abstand
zu Wand oder Decke befestigt, fangen sie die Schallwellen an dem Punkt ab,
wo der Schall sein Maximum erreicht und können dort am effektivsten
absorbieren. Würde man sie aber direkt an der Wand oder Decke anbringen,
müssten sie um den gleichen Grad an Absorption zu erzielen erheblich dicker
sein. Je größer der Abstand solcher Materialien zu Wand oder Decke ist, desto
wirksamer werden diese Baustoffe gerade auch bei niedrigeren Frequenzen.
Daher sind dann sogar poröse und offenporige Baustoffe, die sonst als
Hochtonschlucker gelten, auch zur Schallabdämmung im Mittenbereich
geeignet. In offenporigen Baustoffen steigt außerdem mit zunehmender Anzahl
der Poren die Schall-absorbierende Wirkung des Baustoffes. Das Dämmen mit
Eierkartons und Styropor bringt entgegen vieler Gerüchte keine
Schalldämmung sondern Abdämpfung und Diffusion im Höhenbereich.

Schallabdämmendes Material untergliedert sich in folgende Gruppen:

Absorber

Zu den Absorbern zählt man::

- Schwere bzw. dichte Materialien


z.B. Metalle, Beton, Stein, Kies, Alutape, Holz, Glas etc.

- Poröse Absorber
Dazu zählen alle offenporigen Schaumstoffe z.B. Pyramidenschaum,
Kantenabsorber (speziell für Zimmerecken) und jedes faserartige Material: z.B.
Textilien (Flachs, Flies, Baumwolle), Mineralfaser, Mineralwolle, Glasfaser etc.

69
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Pyramidenschaum und Kantenabsorber (für Zimmerecken)

- Akustikputz
Das ist Putz, der so auf die Decke, Unterdecke oder auf anderes Material
aufgetragen wird, dass viele kleine miteinander verbundene Hohlräume
entstehen. Daraus ergibt sich je nach Dicke der Verputzung und dem Abstand
zur Decke eine gute Absorbtion.

Resonatoren

- Plattenresonatoren

Dies sind Platten aus schweren aber dennoch biegsamen Material. Sie werden je
nach Konstruktion und Maße bei bestimmten Frequenzen des Schalls zum
Mitschwingen angeregt (Resonanz, lat. resono = wiederhallen, ertönen) und
entziehen ihm somit die Schallenergie in eben diesen Frequenzbereichen. Diese
Platten befinden sich vor einem geschlossenen Luftvolumen, also z.B. vor einer
Wand. Das Luftvolumen dient als Feder, wenn die Platte vom Schall zum
Schwingen angeregt wird. Werden solche Platten in zu kleinem Abstand an eine
Wand geschraubt, wird die Schalldämmung nicht genug gemindert, da nicht
genug Lufthohlraum hinter der Platte ist. Hat die Platte gar Kontakt mit der
Wand wird gar nichts gedämmt, weil sich durch die Kontaktstellen der Schall
auf die Wand überträgt. Also müssen diese Platten in einem gewissen
Mindestabstand vor der Wand angebracht werden, ohne sie zu berühren. Das
kann man machen, indem man sie z.B. an einem Ständewerk befestigt, was vor
der Wand aufgestellt wird. Da die Platte meist irgendwo eingespannt werden
muss, schwingt sie nicht als ganzes sondern es entstehen Biegeschwingungen.
Oft werden solche Platten auch als Front eines Gehäuses angebracht, das eine
schallharte Hinterwand besitzt. Dieses Gehäuse wird dann meist noch mit
offenporigen Schaumstoff, Mineralwolle o.ä. zusätzlich ausgefüllt. Die Platte
schwingt dann auf dem Luftvolumen im Gehäuse bzw. auf dem Luftvolumen
des Schaumstoffs, der Mineralwolle o.ä. mit dem Schall mit. Der Schaumstoff
bzw. die Wolle sorgt dabei noch für eine zusätzliche Schallabsorption. Eine
solche Konstruktion sieht im Prinzip so aus, wie das Bild des perforierten

70
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Absorbers weiter unten, bloß eben ohne Löcher. Zu Plattenresonatoren zählen


z.B. Holzplatten, Gipskartonplatten, Hartfaserplatten, Glasswollplatten,
Steinwollplatten, Kunststoffplatten etc.

- Helmholtz-Resonator

Ein Helmholtz-Resonator ist ein hohles Gehäuse beliebiger Form, das


entweder mit einen einzigen Loch oder einer ins Gehäuseinnere (oder nach
außen) führenden hohlen Röhre versehen ist. Dies stellt die einzige
Gehäuseöffnung dar. Der Luft in der Röhre bzw. im Lochbereich wird durch
den Schall zum Schwingen angeregt. Die Luftmasse unterhalb der Röhre dient
dabei als Luftpolster (Feder). Der Schall schwingt dann gestützt auf dem
Luftpolster in der Röhre bzw. im Loch hin- und her und durch die Reibung an
der Röhren- bzw. dem Lochinnenfläche wird die Schallenergie gemindert. Meist
ist dafür noch zur Unterstützung ein Flies hinter der Öffnung angebracht.
Dieses Wirkungsprinzip bezeichnet man allgemein als Feder-Masse-System. Je
größer die Röhrenbreite (Lochbreite), Röhrenlänge und das Gehäusevolumen
(bzw. Volumen des Luftpolsters) dabei ist, desto tiefere Frequenzen absorbiert
der Helmholtz-Resonator. Bei welchen Baumaßen welche Frequenzen
absorbiert werden kann man mit entsprechenden Berechnungsprogrammen
genau ermitteln.

Helmholtz-Resonatoren sind gut geeignet um stehende Wellen im Mitten-


Bereich zu beseitigen und eigenen sich daher gut zur Korrektur und
Optimierung der Raumakustik (Abdämpfung) in schmallbandigen Bereichen.
Für sehr tief stehende Wellen braucht man leider sehr große Helmholtz-
Resonatoren, daher sind sie für tiefe Frequenzen nur bedingt zu empfehlen, da
sie viel zu viel Platz wegnehmen würden, - genauso gut wirkt da ein im Kapitel
Schallabdämmung besprochenes Masse-Feder-System durch Plattenabsorber.
Allerdings kann der Absorptionsgrad des Helmholtz-Resonatoren durch das
Bespannen mit etwas schalldämmenden Material mehr in den Bassbereich
verlagert werden. Helmholtz-Resonatoren werden auch oft unterhalb der
Decke angebracht, dann aber meist als gelochte Platten, denn das
abgeschnittene Luftvolumen, was sich zwischen Platte und Decke befindet,
wirkt schon als Luftpolster und daher braucht man kein typisches Gehäuse um
extra ein abgeschlossenes Luftvolumen zu erzeugen.

71
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bilder: Beispiele für das Konstruktionsprinzip eines Helmholtz-Resonator links


einmal mit innen und recht einmal mit außen liegender Röhre. Der grau
gezeichnete Bereich ist das Luftpolster.

- perforierte und mikroperforierte Absorber

Eine dem Helmholtz-Resonator ähnliche Variante sind (micro)perforierte


(=gelöcherte) Absorber. Dies sind im Prinzip Platten mit vielen kleinen
Löchern. Diese Platten stehen vor einem abgeschlossenen Luftvolumen: z.B.
wird die perforierte Platte in einem gewissen Abstand auf eine andere Platte
befestigt und an den Seiten abgedichtet, wodurch ein abgeschlossenes
Luftvolumen entsteht. Die vom Schall zur Schwingung gebrachte Luft reibt
sich also, gestützt durch das dahinterliegende Luftvolumen, innerhalb vieler
kleiner Löcher und entzieht somit dem Schall die Energie. Durch perforierte
Absorber können größere Frequenzbereiche absorbiert werden als mit einen
normalen Helmholtz-Resonator. Wenn man perforierte Absorber vor einem
Helmholtz-Resonator aufstellt erhöht sich dessen Absorbitionsgrad noch
beträchtlich.

72
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Beispiel für einen perforierten Resonator. Der grau gezeichnete Bereich ist
wieder das Luftpolster.

Dämmen von Türen und Fenster

Die Türen und Fenster sollten möglichst schwer sein. Man kann deshalb am
besten eine Stahltür einbauen oder eine hohle Tür von oben mit Sand oder
Steinen auffüllen, damit sie schwerer wird. Dabei ist darauf zu achten, wie viel
Belastung die Türscharniere aushalten, sonst bricht die Tür aus dem Rahmen.
Die Tür kann man, um sie schwerer zu machen, mit dicken Holzplatten
versteifen und/oder mit Bitumenpappe auskleiden. Bitumenpappe ist die
günstigste Lösung, weil diese auch recht schwer ist und von daher gut dämmt,
leider aber auch sehr stinkt. Generell empfehlenswert sind auch
Mineralfilzplatten. Auch hier kann man so viele Schichten anbringen, wie die
Tür aushält. Die Ritzen zwischen Tür und Türrahmen sollten auch keinen
Schall durchlassen und deshalb gut abgedichtet werden.

Fenster aus schwerem Material, z.B. Holzfenster haben eine bessere


Dämmwirkung als leichte Plastikfenster. Auch die Dicke des Glases, das
Vorhandensein mehrerer Glasschichten und der Abstand der Glasschichten
zueinander spielen dabei eine Rolle. Wenn man auf Tageslicht verzichten kann,
kann man schwere Holzplatten auf die Fensterrahmen nageln und diese noch
mit Bitumenmatten oder ähnlichem auskleiden. Auch hier ist wieder darauf zu
achten, dass die Scharniere die Belastung aushalten. Braucht man keine Fenster

73
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

im Raum, kann man auch gleich eine große dicke Holzplatte drübernageln und
diese mit dämmenden Material auskleiden oder man baut die Fenster aus und
mauert zu. Wenn weniger gedämmt werden muss, reicht es auch schwere dicke
Vorhänge mit viel Faltenwurf vor die Fenster zu hängen. Ritzen von Fenstern,
durch die Schall nach außen dringen kann, Fenster- und Fensterrahmen
unbedingt mit Dichtungsband auskleiden. Auch andere Schallbrücken im Raum
sollten ermittelt und beseitigt werden. Dazu zählen: Lüftungskanäle,
Heizungsrohe, evntl. Hohlräume in Wand, Decke und Boden, undichte Fugen,
Verglasungen, durchgehend schwimmender Estrich etc.

Dämmen des Bodens

Der Boden kann mit mehren Schichten Dämmmaterial gedämmt werden: z.B.
Teppiche, Sperrholzplatten, Trittschalmatten, Akustikvlies, Gipskarton etc. Ein
dünner Teppichboden allein hat aber kaum eine dämmende Wirkung, daher
sollte man mehrere dicke Teppichböden nehmen. Ein Schlagzeug kann man für
bessere Dämmung des Bodens auf einem Potest aufbauen, z.B. auf
Holzpaletten und diese dann innen dicht mit Mineralfilzwolle auskleiden.

Dämmen von Wänden

Es wurde gesagt, je schwerer und massiver etwas ist, desto besser dämmt es, -
das ist im Prinzip richtig, aber nun kann man sich meist nicht so leicht eine
neue Wand vormauern oder einen Betonklotz vor die Tür stellen. Insbesondere
darf man zumeist einen Proberaum nicht baulich verändern und neue Wände
hochziehen und es ist zudem eine nicht unerhebliche Kostenfrage dies zu tun.
Um leichter eine optimale Dämmwirkung zu erzielen, nutzt man deshalb
Plattenresonatoren. Die höchsten Dämpfungswerte werden dort bei der
Resonanzfrequenz des jeweiligen Materials erzielt: Gipskartonplatten von 12,5
mm mit ca. 10 kg/Quadratmeter haben bei 2 cm Abstand zur Wand ihre
Resonanzfrequenz bei ca. 200 Hz und Gipskartonplatten von 12,5 mm mit ca.
10 kg/Quadratmeter haben bei 10 cm Anstand zur Wand bei ca. 100 Hz ihre
Resonanzfrequenz. Plattenresonatoren sind also ideale "Tieftonschlucker".
Steigert man nun den Abstand zur Wand, wird die Schallabdämmung des
Bassbereiches noch effektiver. Da das Dämmen des Bassbereiches am

74
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

wichtigsten ist, sollte der Abstand zur Wand also möglichst groß sein, allerdings
nicht so groß, dass man in dem Raum nicht mehr vernünftig arbeiten kann oder
er bis zur Hälfte schrumpft.

Bau eines Plattenresonators

Auf dem Fußboden wird mindestens 6 cm vor der Wand eine Holzlatte
angeschraubt, dabei unbedingt Dämmfilz zwischen Holzlatte und Fußboden
setzen. Auf diese Holzlatte werden dann vertikal andere Holzlatten angebracht.
Damit ist dieses Untergestell schalltechnisch von Wand und Boden entkoppelt.
Es dient als Ständewerk für den Plattenresonator, also die jeweiligen Platten.

Zwischen den vertikalen Holzlatten werden nun Mineralfilz-Platten angebracht


und dann wird eine Schicht Gipskartonplatten aufgeschraubt. Danach kann
noch eine zweite Schicht Gipskartonplatten auf die erste geschraubt werden,
um die Dämmwirkung zu erhöhen, dabei die Platten fest und dicht anbringen.

Vor diesen entkoppelten Ständewerk mit Gipskartonplatten-Verschalung kann


man nun in etwas Abstand noch ein zweites aufbauen. Solch ein doppeltes
entkoppeltes Ständewerk bietet dann optimale Schallabdämmung.

Alle die nicht soviel Schalldämmung erzielen müssen, können vor die Wände in
gewissen Abstand schwere Teppiche oder Speerholzplatten anbringen, was
auch bereits für eine brauchbare Abdämmung sorgt.

Dämmen der Decke

Zur Abdämmung der Decke wird eine zweite künstliche Decke in möglichst
großen Abstand da drunter angehängt (Unterdecke). Man befestigt dazu
mehrere Aufhänger an der Decke und diese Aufhänger tragen dann ein oder
mehrere Gestelle aus Holzlatten, die mit Mineralfilzplatten versehen sind und
mit Gipskartonplatten beschraubt werden, die auch noch mit Akustikputz
verspachtelt werden können. Es geht zwar dadurch etwas Raumhöhe verloren,
wofür sich aber die schalldämmende Wirkung erhöht.

75
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Wenn nicht ganz so viel Schalldämmung erforderlich ist, reicht es auch, die
Decke mit Holzlatten zu versehen und darauf die Mineralfilzplatten und den
Gipskarton anzuplanken. Auch ein dicker Teppich oder anderes
schalldämmendes Material auf der Decke angebracht kann natürlich schon eine
schalldämmende Wirkung erzielen.

PC-Dämmung (Silent PC)

PCs werden heutzutage bei Musikproduktion fast immer als DAWs (Digital
Audio Workstation) verwendet, stehen aber nicht immer getrennt vom
Aufnahmeraum. Die Betriebsgeräusche des PCs können dann nicht nur auf die
Nerven gehen und bei konzentrierter Arbeit stören, sondern später auch auf
der Mikroaufnahme zu hören sein, wenn im selben Raum recordet wird. Die
größten Lärmverursacher im PC sind Festplatten, Netzteil, Grafikkarte-, CPU -
und Gehäuse-Lüfter und zeitweise auch die Betriebsgeräusche von CD- und
DVD-Laufwerke. Sind diese Teile zu laut, wird auch die oft empfohlene
Abdämmung der Wände des PC-Gehäuses kaum den Schall dämmen.

Die mit Abstand größte Lärmquelle im PC ist meist der Lüfter des Netzteils.
Man sollte deshalb ein Netzteil benutzen, was nur einen 80 mm Lüfter hat,
dieser kann nämlich leicht durch ein leiseres Modell ersetzt werden, z.B. ein 12
dB lauter Papst-Lüfter. Wichtig ist, dass der Lüfter laut Herstellerangaben auch
für den Betrieb in Netzteilen geeignet sein muss. Meist kommen Netzteile der
300 bis 350 Watt-Klasse mit einen 80 mm Lüfter aus. Die 300 – 350 Watt-
Klasse reicht i.d. Regel für die meisten PC-Konfigurationen aus. Man muss
dabei bedenken, dass die Wattzahl ja die maximal mögliche Power ist, die das
Netzteil bietet, aber der PC nicht konstant soviel Power gleichzeitig benötigt.
Bei bescheidenen PC-Konfigurationen würde sogar ein 250 Watt Netzteil
reichen. Man kann den neuen Lüfter auch ohne Lötarbeiten durch sog.
Schnellverbinder für 2-adrige Kabel in das Netzteil einbauen. Dadurch hat man
dann sein Netzteil mit einfachen und günstigen Mitteln modifiziert und
erheblich leiser bekommen, da selbst Netzteile, die mit „silent“ beworben
werden oft noch bis über 20 dB laut sind!

Viele Netzteile - besonders solche der 400-550 Watt-Klasse - haben zwei


Lüfter oder einen großen 120 mm Lüfter, die oft temperaturgesteuert sind. Mit

76
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

steigender Gehäusetemperatur, erhöht sich die Drehzahl und es wird lauter.


Auch bei solchen Netzteilen kann man leisere Lüfter einbauen, sollte sich da
aber genau informieren. Wer sich mit solchen Do-it-yourself-Arbeiten nicht
sicher ist, kann natürlich auch ein spezielles „Silent“-Netzteil kaufen, was
ebenfalls idealerweise 12-16 dB laut und meist auch ein vernünftiges
Markennetzteil ist. Viele Netzteile werden jedoch mit dem Prädikat „Silent“
angeboten, sind es aber nicht. Ein hinten im Gehäuse liegendes Netzteil (also
fast jedes!) kann auch durch einen speziellen Aufsatz, der auf die hintere
Außenseite des Gehäuses montiert wird, schallgedämmt werden. Außerdem
kann das Netzeil durch eine Entkuppelung, die zwischen Netzteil und Gehäuse
angebracht wird, noch zusätzlich vom Gehäuse entkoppelt werden. Ebenso
lassen sich Gehäuselüfter durch Gummiaufsätze und spezielle
Gummischrauben vom Gehäuse entkoppeln.

Viele CPU-Lüfter bieten viel zu viel Kühlung und sind bis Pentium 4 bzw.
AMD 3200 und mehr lizenziert, obwohl im PC viel schwächere CPUs
verwendet werden. Falls dies der Fall ist, sollte man sich einen Lüfter suchen,
dessen Kühlstärke für den jeweils verwendeten CPU ausreicht und der nicht
unnötig viel Kühlleistung liefert. Dabei darf man aber auch nicht vergessen,
dass ein stärkerer CPU-Lüfter immer noch Leistungsreserven bietet, sollte der
CPU durch höhere Gehäusetemperatur, z.B. im Sommer, doch heißer werden
als üblich.
Bei temperaturgeregelten Lüftern gilt dieser Tip aber nicht, da sie je nach
Innentemperatur ihre Geschwindigkeit und somit auch Lautstärke verändern
und deshalb auch bei leistungsstarken CPUs zeitweise auch mal sehr leise
laufen. Die Lautstärke eines CPU-Lüfters liegt idealerweise zwischen 12 und 20
dB. Oft wird hier auch die Lautstärke in der Einheit Sone angegeben, die die
tatsächlich empfundene Lautheit darstellen soll und nicht die rein
messtechnische. 1 Sone entspricht dabei ungefähr 20 dB. Hierzu ist es
interessant auch mal das Kapitel über Lautstärke und Lautheit in diesem Buch
zu lesen.
Eine Wasserkühlung anstelle eines CPU-Lüfters ist selten eine gute Alternative,
weil Wasserkühlungen auch oft ähnlich laut sind wie Lüfter.

Bei aktiv gekühlte Grafikkarten machen deren kleindimensionierte Lüfter durch


hohe Umdrehungszahlen einen enorm Lärm. Man sollte deshalb passiv
gekühlte Karten bevorzugen. Bei aktiv gekühlten kann man versuchen deren

77
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Lüfter mit geringerer Umdrehungszahl zu betreiben oder aber ausprobieren, ob


die Grafikkarte auch ganz ohne Lüfter läuft. Wenn man kein „Gamer“ ist, wird
die Grafikkarte meist nicht besonders beansprucht und es ist gut möglich, dass
sie dann mit schwächeren oder gar ganz ohne Lüfter betrieben werden kann.
Am besten die Hitzentwicklung auf der Karte überprüfen! Für manche Modelle
gibt es auch spezielle Kühlaufsätze zu kaufen, die die Grafikkarte passiv kühlen,
wodurch diese dann ohne aktiven Lüfter betrieben werden kann.

Insbesondere Festplatten mit hohen Umdrehungszahlen können besonders in


Zugriffszeiten sehr laut werden. Festplatten machen insgesamt eher hohe
Geräusche, daher bringt eine Entkoppelung eher was bei tieffrequenten
Geräusche, die durch den Lesekopf ausgelöst werden, nicht aber bei den hohen
Frequenzen. Deshalb ist es sinnvoll die Festplatte in ein schalldämmendes und
entkoppelndes Gehäuse mit guter Wärmeableitung und integrierter Kühlung zu
setzen. Im Fachhandel gibt es dafür viele Modelle. Man kann sich solche
Festplattenboxen natürlich auch selbst bauen, Anleitungen dazu finden sich im
Internet. Allerdings sind diese Do-it-yourself-Lösungen meist Konstruktionen,
die zusätzliche aktive Lüfter benötigen, welche dann natürlich auch wieder
etwas Lärm machen.

Die oft hohen Betriebslautstärke von CD- und DVD-Laufwerken lassen sich
mit Software-Tools wie „CD-Bremse“ o.ä. eindämmen.

Durch spezielle „Silent-Tower“ (schallgedämmte Gehäuse), die ab € 100,- zu


haben sind, kann der PC zusätzlich wirkungsvoll in der Lautstärke reduziert
werden. Solche Gehäuse sind meist auch ganz anders konstruiert, z.B. Netzteil
vorne, Lufteinzug durch ein Loch im Boden, aufgehängter Festplattenkäfig,
schraubenlose Befestigung von PCI-Steckkarten etc. Ein schallgedämmtes
Gehäuse allein hilft aber nicht viel, wenn die PC-Komponenten schon von sich
aus sehr laut sind. Ein Austausch gegen leise Lüfter, leisere Netzteile, leise oder
gedämmte Festplatten, passive Grafikkarten ist in jedem Fall viel wichtiger. Ein
schallgedämmtes Gehäuse kann die Dämmwirkung also höchstens verstärken,
reicht aber nicht aus, um optimal Abdämmung zu erzielen. Will man seinen
Towers selber dämmen, kleidet man die Seitenwände, des PCs von innen mit
Bitumenmatte aus, die man mit Heißkleber aufklebt, - oder mit speziell zur PC-
Dämmung hergestellten selbstklebenden Matten. Die Bitumenmatte kann
allerdings sehr stinken und die PC-Dämmmatten sind vergleichsweise teuer und

78
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

bequem anzubringen, aber manchmal mit zu geringer Dämmwirkung. Auf die


Bitumenmatte kann noch eine dünne Schicht Schaumstoff angebracht werden.
Insgesamt sollte die Schicht aber nicht zu dick sein, da man sonst den PC nicht
mehr zubekommt. Außerdem sollte man natürlich nicht die gesamte Innenseite
der Seitenwand auskleiden, sondern dort Freiräume lassen, wo die Seitenwand
ins Gehäuse eingehangen wird. Die Front des PC wird ebenso mit Schaumstoff
ausgekleidet, leere Laufwerkschächte werden mit Schaumstoffblöcken
aufgefüllt. Der Schaumstoff sollte möglichst hitzeunempfindlich und schwer
entflammbar sein, da in einem PC-Gehäuse locker mal 60 Grad erreicht
werden. Durch das Auskleiden mit Dämmmaterial erhöht sich natürlich die
Innentemperatur des Gehäuses, weshalb es sein kann, dass ein zusätzlicher
Gehäuselüfter eingebaut werden muss. Dies kann eventuell vermieden werden,
wenn im PC eine gute Luftzirkulation garantiert ist. Alle Lüftungsschlitze des
Gehäuses sollten in jedem Fall unbedingt offen bleiben. Die Kabel werden mit
Kabelbinder gebunden um die Luftzirkulation nicht zu behindern. Das
Gehäuse sollte groß genug sein, damit alle Teile genügend Luft bekommen
oder die Teile müssen so angeordnet werden, dass genug Spielraum da ist. Das
Mainboard kann durch kleine dicke Gummiringe, die zwischen
Mainboardverschraubung und Gehäuse angebracht werden, entkoppelt werden
(dafür sind meist längere Schrauben notwendig als die originalen). Vibrationen
des Mainboards, z.B. durch die Lüfter, übertragen sich dann nicht so sehr auf
das Gehäuse. Auch ein Loch, was man in den Boden des Gehäuses sägt, kann
helfen die Luftzufuhr zu verbessern.

Eine andere etwas radikalere Möglichkeit ist, den PC ins gegenüberliegende


Zimmer zu stellen und nur die angeschlossenen Geräte (Monitor, Tastatur etc.)
im Arbeitsraum zu haben. Durch ein Loch in der Wand werden dann die
Geräte (notfalls mit Kabelverlängerungen) mit dem PC-Tower verbunden.
Ebenso kann man sich eine große möglichst abdämmende Holz-Box bauen, die
mit Luftlöchern versehen ist und die man dann wenn man seine Ruhe haben
möchte über den PC stellt. Durch die Luftlöcher dringt zwar immer noch
Schall durch, aber nicht mehr soviel wie zuvor. Sind zuwenig Luftlöcher
vorhanden und steht diese Apparatur zu lange über dem PC kann sich aber
auch der Hitzetod des Rechner einstellen. Mal abgesehen davon, dass solch eine
Box seltsam aussieht kann sie jedoch im Notfall Abhilfe schaffen, z.B. wenn
mal kurz eine Mikroaufnahme gemacht werden soll.

79
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Studiomonitore (Studiolautsprecher)

Bei Studiomonitoren ist im Gegensatz zu Hifi-Lautsprechern ein schönender


Frequenzgang mit besonderer Betonung in den Höhen und Bässen nicht
erwünscht. Daher ist eine lineare und neutrale Klangeigenschaft bei ihnen das
A & O.

Als Monitoring bezeichnet man das ständige und präzise Erfassen,


Überwachen, Kontrollieren und Abhören mittels Anzeige- oder Messgeräte.
Durch die sehr genaue Wiedergabe von Studiolautsprechern und das
kontrollierende Hören des Mastering-Engineers stellt auch dies ein genaues
Erfassen und Kontrollieren da und fällt somit unter den Begriff Monitoring.
Deshalb werden also Studiolautsprecher in der Regel als Studio“monitore“
bezeichnet oder als Abhörmonitore (Abhöre).
Auch Lautsprecher auf einer Bühne, die zu den Live-Musikern gerichtet sind
um ihnen bessere Kontrolle über ihre Musik zu ermöglichen, nennt man
Monitore.
Auch im Bereich von Messinstrumenten und Computern findet man den
Begriff Monitor. Und genauso wie man also auf einem Computermonitor das
Videosignal punktgenau erkennen und die Abläufe im PC dort genau sichtbar
machen kann, soll man bei einen Studiomonitor das Audiosignal ebenso präzise
darstellen können. Sie soll ebenso klar und unverfälscht wiedergegeben werden,
wie das Bild auf einem Computermonitor. Daher ist auch der Ausdruck

80
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Abhören oder Abhöre hier bitte nicht im kriminalistischen Sinne zu verstehen.


Abhören oder Abhörmonitore sind also keine Spionagewerkzeuge zum
Abhorchen der Nachbarn.

Frequenzgang

Studiomonitore sollten einen möglichst breiten Frequenzbereich (z.B. 50-


22.000 Hz) linear abbilden können. Der Abstrahlwinkel des Lautsprechers
sollte breit genug sein und der Frequenzgang im Wirkungsbereich der Box
möglichst überall gleich. In möglichst jeder Hörposition vor dem Monitor
sollten sich die Klangeigenschaften also nicht ändern. Eine absolut lineare
Wiedergabe ist aber nicht jedem Lautsprecher möglich: Lauten die
Herstellerangaben zu einen Lautsprecher z.B. „Frequenzgang: +/- 3 dB bei 80
Hz“, heißt das, bei 80 Hz schwankt das Signal in Bereichen von bis zu +/- 3
dB. Es gibt viele Lautsprecher, die laut Herstellerangaben sehr ähnliche oder
gleiche Frequenzgänge haben, aber dennoch unterschiedlich klingen. Selbst
wenn ein Lautsprecher aber einen absolut linearen Frequenzgang hat, klingt er
nicht unbedingt linear. Dies mag auch daran liegen, dass der Frequenzgang auf
eine Art gemessen wird, die nicht zu sehr aussagekräftigen Ergebnissen führt.
Man nimmt dazu einfach ein Mikro und stellt es in bestimmten Winkel und
Abstand fixiert vor den Lautsprecher. Das Messergebnis erfasst dann also nur,
wie es an einer Position klingt. Aussagekräftiger sind Angaben zum
Frequenzgang, die auch andere Positionen berücksichtigen und damit auch die
gesamte Schallenergie, wozu auch der Reflexionsschall zählt, und akustische
Phasigkeit berücksichtigen.
Linearität und neutraler Klang ist bei Lautsprechern zum Abhören natürlich das
wichtigste, dennoch sagt man paradoxerweise auch solchen Lautsprechern ja
immer einen eigenen „Klang“ nach, z.B.: „...Diese Abhöre gibt die Mitten sehr
gut wieder...“; „...Diese Box ist präsent in den Mitten, - aber etwas zu weich in
den Höhen etc.“. Hätte ein Abhörmonitor wirklich ein absolut lineares und
damit ein neutrales Klangverhalten, dann würde „er“ gar nicht klingen, sondern
nur 1:1 die Aufnahme wiedergeben. Dennoch klingt Musik je nach benutztem
Abhörlautsprecher unterschiedlich und immer ist der Eigenklang des
Lautsprechers bzw. der Wiedergabekette Bestandteil der Musik, weswegen man
strenggenommen nicht von einer neutralen Wiedergabe sprechen kann, denn
wenn ein Lautsprecher wirklich neutral klingt, hat er „an sich“ keinen eigenen

81
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Klang. Die Tatsache, dass auch jeder Studiomonitore ein bestimmtes


Wiedergabeverhalten hat äußert sich auch darin, dass oft davon gesprochen
wird, dass es wichtig sei, mit der Abhöre genaustens vertraut zu sein, um die
Musik richtig beurteilen zu können. Dieses Zeugnis der „Nicht-Neutralität“ ist
strenggenommen ein großes Manko, da ständig ein störender Filter zwischen
der Musik und dem Hörer liegt, der ja eigentlich gar nicht da sein sollte.
Natürlich hört man bei Studiomonitoren mehr Feinheiten raus als bei normalen
Durchschnittsboxen, aber es ist ja auch die Frage, inwieweit alle Details dann
auch wirklich unverfälscht wiedergegeben werden. Aufgrund der
größtmöglichen klanglichen Linearität in den Mitten, galt für Studiomonitore
früher ein ähnliches Wiedergabeverhalten, wie es bei Küchenradios zu finden
ist. Die Basswiedergabe war also eher dürftig. Heutzutage haben
Abhörmonitore jedoch eine recht gute Basswidergabe, denn ansonsten würde
man Gefahr laufen, zu basslastig zu produzieren.

Impulswiedergabe

Gute Verstärker und Boxen zeichnen sich durch eine gute Impulswiedergabe
und geringes Nachschwingen aus. Wie stark ausgeprägt dieser Effekt ist und
welches Resonanzverhalten die Box dadurch an den Tag legt, ist für den Klang
sehr entscheidend. Größtes Problem sind die Übergangsfrequenzen von
Basslautsprechern und Hochtonlautsprechern, denn der Basslautsprecher kann
nur den Bass- und Mittenbereich linear wiedergeben, weswegen alles darüber
von einer Frequenzweiche abgeschnitten werden muss (High-Cut). Ebenso
kann der Hochtöner nur die oberen Frequenzbereiche linear wiedergeben. -
Hier muss die Frequenzweiche dann alles unterhalb wegschneiden (Low-Cut).
Da die Übergangsfrequenz stets im hörbaren Bereich liegt, sollten die
Frequenzweichen aus Filtern mit hoher Flankensteilheit bestehen,
typischerweise 24 dB/Oktave.

Im Bereich der Nahfeldmonitore haben sich Zweiwegboxen durchgesetzt.


Diese erfordern nur eine Übergangsfrequenz, weil nur zwei Lautsprecher
miteinander verbunden werden. Ein weiterer Vorteil ist, dass sich
Zweiwegeboxen leicht mit Subwoofern kombinieren lassen für den ganz tiefen
Bassanteil.

82
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Aktive Monitore

Bei sog. „aktiven“ Boxen ist die Endstufe gleich in das Boxengehäuse integriert.
Endstufe und Box sind dabei in der Regel optimal aufeinander abgestimmt. Bei
aktiven Lautsprechern arbeitet die Frequenzweiche aktiv und kann so die
Trennfrequenz flexibel anpassen, was manchmal auch vom Anwender von
außen justiert werden kann. Aktive Boxen haben dadurch einen Vorteile
gegenüber normalen (passiven) Boxen. Weitere Vorteile aktiver Monitore sind:
kurze Kabelverbindungen zum internen Endstufe, optimales Time Alignment,
Limiter für jeden Lautsprecher in der Box und oft digitale Eingänge und oft
Bass- oder Höhenfilter für Korrekturen im Frequenzgang. Einige dieser
Merkmale finden sich aber dennoch auch bei Boxen ohne interne Endstufe
bzw. bei bestimmten externen Verstärkern. Dennoch sind nicht alle Monitore,
die als aktiv vermarktet werden, wirklich aktiv. Manchmal handelt es sich nur
um passive Lautsprecher mit interner Endstufe im Gehäuse. Dabei sollte man
aber bedenken, dass bei billigen aktiven Monitoren oft die interne Endstufe so
unterdimensioniert ist, dass eine lineare, verzerrungsfreie Wiedergabe kaum
möglich ist.

Verstärkung von passiven Monitoren

Benutzt man sog. „passive“ Lautsprecher braucht man zusätzlich immer einen
externe Endstufe. Die Endstufe muss entweder gut auf die Lautsprecher
abgestimmt oder überdimensioniert sein, das bedeutet, sie muss etwas mehr
Leistung abgeben als die Box wiedergeben kann. Man kann zwar mit der hohen
Verstärkerleistung den Lautsprecher zerstören, doch viel wahrscheinlicher ist
die Zerstörung eines Hochtöners durch verzerrte Signale eines zu schwachen,
überlasteten Verstärkers. Leistungsfähigere Verstärker bieten zudem einen
besseren Dämpfungsfaktor und die Fähigkeit, schnelle Spannungsanstiege
fehlerfrei zu übertragen. Gängige externe Verstärker haben einen deutlichen
Eigenklang, so dass ein und derselbe Abhörlautsprecher ganz anders klingen
kann, je nachdem mit welchem Verstärker er betrieben wird. Studioverstärker
hingegen geben ein „lineares“ Signal aus und arbeiten daher neutraler. Bei
normalen Verstärkern kann ein „schönender“ Effekt meist etwas umgangen
werden, indem Funktionen wie „Loudness“, „EQ“ etc. abgeschaltet werden
und alle Tonregler (Bass, Middle, Treble) neutral eingestellt werden. Eine

83
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

mögliche Schwachstelle beim Gebrauch einer externen Endstufe ist der


Anschluss und die Übertragung des verstärkten Signals zur Box. Die Kabel
sollten deshalb möglichst kurz, gut geschirmt, robust und mit geringem
Widerstand und die Anschlüsse möglichst massiv (vergoldet) sein, denn auch
Kabel und Stecker haben Einfluß auf Klang und Übertragungsverhalten.
Beachtet man das alles, kann auch mit einen externen Verstärker ein ebenso
gutes Ergebnis erzielt werden, wie mit aktiven Boxen.

Konstruktion und Basswiedergabe

Die Gehäusekonstruktion eines Studiolautsprechers sollte keine Kanten


aufweisen, an denen sich der Schall streuen kann. Besonders Hochtöner werden
daher im Gehäuse meist so untergebracht, dass sich die Schallwellen nahezu
„wegbiegen“, aber auch einen großen Abstrahlwinkel ermöglichen. Idealerweise
wird ein Studiolautsprecher komplett in eine Wand eingelassen und hat dadurch
quasi eine unendlich ausgedehnte Vorderseite, doch sowas ist meist nur in
teuren Studios zu finden. Da Boxen nach vorn und nach hinten abstrahlen,
kann es zu hörbaren Reflektionen führen, wenn der Schall auf glatte
Oberflächen trifft. Bei der Aufstellung der Box in einem Regal können
außerdem Resonanzen entstehen, die dann zu Dröhngeräuschen führen. Daher
sollten solche Resonanzen und Reflexionen durch Diffusoren oder
Resonatoren abgedämmt werden.
Gute Hochtöner-Membrane bestehen aus Titan und gute Basslautsprecher-
Membrane aus Polypropylen. Weniger gute Hochtöner-Membrane werden aus
Textil und die Basslautsprecher-Mebran aus Pappe angefertigt. Aufgrund der
Konstruktion des Monitors (zu wenig Gehäusevolumen), kann gerade bei
kleinen Modellen die auf dem jeweiligen Monitor tiefstmöglichste Frequenz
nicht mehr hörbar sein, obwohl sie wiedergegeben wird.

84
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Mixing

Hall, Delay, Panorama

dBSPL
„Räumlichkeit“
130

85

50 Monobild Stereobild

Dynamik (Lautstärke)

0 200 500 1000 4000 20000 Hz


Downward-Kompressor Frequenz
(Tonhöhe)
Upward-Kompressor
Downward-Expansion
Upward-Expansion Equalizer
Limiter Exiter, Enhancer

Abb: Die Grundelemente eines Instruments im Mix: Dynamik, Tonhöhe,


Panorama

85
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Aufnahmequalität und Klangmaterial

Die einzelnen Spuren sollten in möglichst hoher Auflösung recorded werden


(24 Bit). Eine Auflösung von 24 Bit in Verbindung mit einen sinnvollen Einsatz
der Bearbeitungsmöglichkeiten, ermöglicht es zum Schluss besser die vollen 16
Bit und 44.100 Hz an Klangqualität, die die fertige CD liefern kann, auch bis
auf das letzte Bit auszunutzen.
Aufnahmen in 16 Bit Audio haben nicht nur 46 dB weniger Dynamikumfang,
sondern sind auch empfindlicher für Rundungsfehler, die durch zahlreiche
Bearbeitungsschritte dort schneller zu klanglichen Abstrichen führen als bei 24
Bit Audio.
Es kann nicht schaden, dass Signal mit 96 kHz aufzunehmen bzw. ein
aufgenommenes Signal für die weitere Bearbeitung auf 96 kHz hochzurechnen,
damit digitale EQ-Bearbeitung und digital simulierte Analogeffekte präziser
gelingen. Ein Argument bereits die Aufnahme in 96 kHz erfolgen zu lassen ist
folgendes: Bei analoger Technik wird ein Frequenzbereich bis 50 kHz
aufgezeichnet. Da bei der jeweiligen Samplerate der dargestellte
Frequenzbereich immer der Hälfte der Rate entspricht, werden bei 96 kHz also
48 kHz wiedergegeben, dies entspricht also schon annähernd dem analogen
Vorbild. Manche hören den Unterschied von 96 kHz Aufnahmen zu
Aufnahmen mit niedrigerer Samplerate durchaus raus und sprechen bei 96 kHz
von einer sehr viel besseren Qualität der Aufnahme.
Alles Aufnahmen, Samples und dergleichen sollten hochwertige Qualität haben
(saubere Mikrofonaufnahmen, aufwendig produzierte Samples, gute
Synthsounds). Werden hier große Kompromisse gemacht, lässt sich dies nur
bedingt durch Effektbearbeitung einzelner Spuren oder der Summe
ausgleichen. Das verwendete Mischpult sollte intern mit möglichst hoher Bit-
Auflösung arbeiten.

Pegel-Angleichung der Spuren

Liegen die gemessenen Lautstärke der einzelnen Spuren zu weit auseinander,


wird das Mixing recht unkomfortabel. Z.B. kann der Sound auf Kanal 1 selbst
bei hochgefahrenen Kanalzug zu leise sein, obwohl die LED des Kanalzugs fast
bis nach oben aufleuchtet, wohingegen auf einem benachbarten Kanal das
Signal so laut anliegt, dass man den Fader nicht weiter hochschieben kann, aber

86
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

die LED dennoch kaum aufleuchtet. Die LED-Anzeigen der einzelnen


Kanalzüge sagen dann nichts mehr über Lautstärkeverhältnisse aus und
erschweren so die Übersicht.

Um dies zu beheben kann man nun entweder versuchen den Pegel der
anliegenden Instrumente anzugleichen oder, falls die Spur schon als fertige
Aufnahme vorliegt, normalisieren. Durch das Normalisieren einzelner Spuren
im Mix kann erreicht werden, dass die Spuren bei gleicher Fadereinstellung
auch zumindest messtechnisch möglichst gleichlaut sind und alle LED-
Anzeigen mehr oder weniger gleichmäßig aufleuchten. Wenn dadurch keine
gravierenden Abstriche in der Soundqualität in Kauf genommen werden
müssen, sollte man alle Signale also normalisieren. Will man danach die
einzelnen Spuren noch weiter bearbeiten, etwa durch Komprimierung o.ä., ist
es möglich, dass wenn zu viel normalisiert wurde, spätestens beim
Komprimieren das Quantisierungsrauschen störend hörbar wird.

Abhörlautstärke

Die Kanalzüge des Mischpults werden allesamt resetted (nach unten geregelt).
Dann wird zunächst die Lautstärke für Bassdrum und Bass festgelegt, die so bei
– 10 dBFS liegen sollte, woran sich die anderen Lautstärkeverhältnisse dann
orientieren. Gerade den Bassbereich nimmt das Ohr bei unterschiedlichen
Lautstärke sehr unterschiedlich wahr. Bei hohen Lautstärken werden die
Bassanteile deshalb lauter empfunden. Wenn man beim Mischen zu laut dreht,
neigt man also dazu, die Bassinstrumente zu leise zu machen und umgekehrt.
Da Musik aber auch leise und sehr laut gut klingen soll, muss so gemixt werden,
dass es in jeder Lautstärke relativ gut klingt. Mixen bei sehr geringer Lautstärke
hat dabei den Vorteil, dass man Feinheiten besser raushört. Beim bereits
erwähnten Höroptimum von 83 dB werden zwar alle Frequenzen
ausgeglichener wahrgenommen, da das Gehör bei solch hoher Lautstärke
relativ schnell ermüdet, kann man jedoch nicht lange bei dieser Lautstärke
mixen. Zudem würde ein Mix der bei 83 dB optimal klingt, wenn man ihn leiser
hört wieder anders klingen, da das Höroptimum eben nur bei 83 dB
Abhörlautstärke liegt, Musik aber nun mal nicht immer bei 83 dB gehört wird.
Das Wiedergabeverhalten von Lautsprechern ist zudem ab einer bestimmten
Lautstärken in vielen Fällen nicht mehr ganz linear. Natürlich kommt es dabei

87
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

besonders auf die verwendeten Boxen an, was es zu hören gibt. Doch dazu
später mehr. Es ist also ratsam, die Lautstärke zu finden, wo man am meisten
raushört und alles möglichst linear wiedergegeben wird. Dies kann je nach
Eigenschaften der Lautsprecher auch mal eine Lautstärke deutlich unter 83 dB
sein. Lautstärken über 83 dB sollte man aber eher vermeiden. 85 dB können
z.B. schon recht laut sein, - ab diesen Wert müssen Arbeitgeber bereits einen
Gehörschutz zur Verfügung stellen.

Im Bereich von ca. 1-4 kHz reagiert das Gehör am empfindlichsten auf
Lautstärkeschwankungen. Dieser Bereich ist gerade für E-Gitarren und Gesang
sehr prägnant, die sich deshalb dort nicht in die Quere kommen sollten.

Es ist ratsam beim gesamten Mixing-/(Pre-)Mastering-Vorgang die Augen


öfters mal von den Bedienelementen zu nehmen und sich stattdessen auf sein
Gehör zu verlassen. Die LED-Anzeigen am Mischpult dienen der Orientierung
aber die wirkliche Beurteilung der Lautstärke der Spuren übernimmt das Ohr.

EQing

Die einzelnen Spuren im Mix werden falls nötig mit dem EQ bearbeitet.
Man erzielt dabei einen deutlich transparenteren Klang, indem man die
Frequenzbereiche, die nicht betont werden sollen absenkt und die Frequenzen
die betont werden sollen möglichst unbearbeitet läßt. Es werden dann also zu
betonende Frequenzbereiche in den Vordergrund gebracht, ohne dass sie direkt
bearbeitet werden müssen.

Welche Frequenzbereiche man betonen sollte, liegt an den Instrumenten und


an deren Rolle im Mix. Da selbst bei gleichen Instrumentengattungen
unterschiedliche Klangcharaktere vorkommen, sollte man immer ausprobieren
was wann gut klingt. In der Regel, kann all das, was nicht den typischen
Klangcharakter eines Instruments ausmacht extrem gesenkt bzw. teilweise
sogar gecuttet werden. Dies hat zwar zur Folge, dass die einzelnen Instrumente
solo teilweise dünn klingen können, aber im Gesamtmix entsteht dadurch eine
angenehme Transparenz. Jedes Instrument hat dann seinen Platz im
Frequenzspektrum, ohne dass Signale von anderen Instrumenten sich auf

88
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

diesen Bereichen mit „ein-mischen“. Ein Klangbrei und eine mangelnde


Definition des Mixes wird dadurch also vermieden.

Durch EQ-Anhebungen (boost) erreicht man natürlich ebenfalls die Betonung


der jeweiligen Frequenz, aber diese Frequenz wird dann ja vom EQ bearbeitet.
Jeder zusätzliche Bearbeitungsvorgang kann aber die Qualität des
Ausgangsmaterial mindern. Zudem kommt es bei zu hohen Anhebungen
insbesondere bei "Billig-EQs" zu sog. „Boosteffekten“, die den Klang deutlich
verschlechtern. Senkt man hingegen die Frequenzen ab, die nicht betont
werden sollen, beeinflusst der EQ eben eher diese abgesenkten Frequenzen, -
die ja, weil sie sowieso abgesenkt werden sollen, musikalisch auch nicht so
wichtig sind. Dennoch färbt jeder EQ (ausser den linearen EQs) den Klang
generell etwas ein, was insbesondere beim Mastering in einen gewissen Maße
erwünscht ist. Auch beim Mixing bietet es sich an sich diesen Effekt
gegebenenfalls zu Nutzen zu machen. Manchmal sind dann Boost zur
Betonung einer Frequenz sogar besser, weil dadurch mehr der Klangcharakter
eines EQ zur Geltung kommt.

Die Arbeit mit dem EQ bringt einen weiteren Vorteil: Auch die Lautstärke der
Spur lässt sich mit dem EQ beeinflussen, da sie ja durch das boosten und
absenken bestimmter Frequenzbereiche beeinflusst wird. Den Rest der
Lautstärkeregelung macht man dann wie gewohnt über die Kanalzüge im
Mischpult. Dabei sollte immer wieder herumexperimentiert werden, solange bis
es wirklich gut klingt.

Es ist oft der Fall, dass eine Spur nicht das gesamte Stück über gleichlaut sein
sollte, daher muss der dazugehörige Kanalregler automatisiert werden, d.h. man
kann einprogrammieren, wie der Kanalregler im Laufe des Stückes die
Lautsstärke der Spur automatisch anhebt oder absenkt (Automation). Diese
Funktion bietet normalerweise jedes gute Mischpult. Dass Mixen also nur mit
den Lautstärkefadern am Mischpult erfolgt und bei der Arbeit mit dem EQ in
erster Linie nur Anhebungen benutzt werden, ist eine weit verbreiteter Irrtum.

Kompression von Einzelsignalen

89
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Oft ist es angebracht einzelne Spuren noch zu komprimieren und gegebenfalls


zu limitieren, um einen verständlicheren lauteren Sound zu bekommen oder die
Ausklingzeit (Sustain) von Instrumenten und die Räumlichkeit durch gesteigerte
Hallfahnen zu erhöhen. Eine gute Ausgangsbasis zum Komprimieren ist immer
ein Attack von 20 ms und ein Release von 200 ms. Von dort aus kann man sich
leicht an die jeweils passenden Werte „heranregeln“. Nicht jede Spur muss
komprimiert werden, man muss selbst entscheiden, wann ein Instrument zuviel
oder zuwenig Dynamik hat. Stark verzerrte E-Gitarren z.B. brauchen meist
überhaupt nicht komprimiert werden. Ebenso sind viele Syntheziser-Sounds
und Sounds von Sample-CDs bereits gut komprimiert, sofern sie also nicht zu
dynamisch eingespielt werden (Anschlagsstärke) ist meist keine oder wenig
Kompression erforderlich. Manchmal können aber auch hier durch viel
Kompression noch interessante leisere Klanganteile mehr nach vorne gebracht
werden. Oft wirkt es aber auch sehr unnatürlich eigentlich sehr leise Töne
durch Kompression den lauten Tönen anzugleichen.

Komprimieren des Bassbereiches

Bei Bass und Bassdrum und allen anderen tieffrequenten Instrumenten sollten
höhere Release-Zeiten (ab 200 ms) gewählt werden, um Pumpeffekte zu
vermeiden.
Dabei wird der Attack soweit wie möglich runtergeregelt um neue Einsätze
auch gleich aufzufangen, es sei denn ein hörbare Einschwingphase ist
gewünscht (z.B. der Kick von der Bassdrum). Hier solle man aufpassen, dass es
nicht durch zu kurze Attackzeiten zu Verzerrungen kommt. Je tiefer ein Ton
desto länger kann der Attackwert sein, da ein tieferer Ton eine längere
Einschwingdauer hat als höhere Töne.

Allgemeines zu Attack-Werten

Lange Attackzeiten heben Zisch- und Poplaute aber auch die Einschwingphase
eines Instruments, z.B. den Hit auf der Snare, Saitenanschlag oder
Anblasgeräusche hervor, da dadurch die Attacks der Instrumente unbearbeitet
durchkommen.

90
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Allgemeines zu Treshold (Schwellwert) und Ratio-Werten

Mit niedrigem Treshold (z.B. – 5 db) und wenig Ratio ergibt sich eine normale
Klangverdichtung, bei einer hohen Ratio wird diese Verdichtung noch
verstärkt. Sie wirkt sich in beiden Fällen eher auf die höheren Pegel des Signals
aus (die dann abgesenkt werden) und verändert dadurch deutlich die
ursprüngliche Dynamik.

Bei mittleren bis hohen Treshold (bis zu max - 40 dB) und geringer Ratio ergibt
sich eine tiefgreifende, aber dezente Verdichtung bei der die ursprünglichen
Dynamikverhältnisse weitesgehend erhalten bleiben, weswegen sich solche
Einstellungen auch gut für das Mastering eignen.

Bei hoher Ratio wirkt es sich stark auf den Gesamtpegel aus und es kommt bei
entsprechend kurzen Attackzeiten zu der Wirkungsweise eines Limiters, alle
Pegelspitzen werden dann radikal abgesenkt.

91
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Alles auf einen Blick: EQing und Kompressor-Tabelle

Bass

EQ
cut: 20-40 Hz, 5-10 kHz
down: unter 80 Hz
alles unter 500 Hz (Fretless)
boost: bei 60-80 (Fülle)
bei 200 -300 Hz (Wärme)
500-800 Hz (Definition)
1-2 bei 4-5 kHz (knurriger Sound)
2-3 kHz (Saitengeräusche, Slap)

Kompression
Release: 3 ms (kurze Basstöne) - 1 Sek. (bei langen Basstönen),
Die Releasezeit wird immer etwas kürzer eingestellt als die jeweilige
Ausschwingzeit des Basses
Die Töne sollten nicht mit der Release-Phase des vorigen Tons überlappen.
Slap-Bass: kürzeren Attack und mehr Ratio als beim Fingered und Picked Bass
einstellen.

92
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bassdrum

EQ
cut: alles unter 60 Hz
down: 300 Hz (schmallbandige Absenkung)
bei 300-500 Hz (hier mehrere [!] schmallbandige Absenkungen setzen für mehr
Druck. Um dort den richtigen Punkt zu finden die „Resonanzfrequenz“ suchen,
die läßt sich daran erkennen, dass es zu Zerrungen und einen hohlen Klang
kommt wenn man dort schmalbandig und extrem anhebt.)

boost: bei 60-80 Hz (für Electromusik u.ä.)


bei 100-110 und bei 300 Hz (für Rockmusik u.ä.)
bei 2-6 kHz (Attack)
bei 250-350 (woody)

Kompression
Attack: 5-50 ms, Release: 50-300 ms, Ratio 4:1 bis 8:1
Attack: 2 ms (für Pop, sanften Rock)
Attack: 5-10 (für Rn`B, Hip-Hop Dance, Techno, - der Kick bleibt erhalten)
Attack: 5-10, Release: 30 ms (für Hardrock, Metal u.ä.)

Snare

EQ
cut: alles unter 150 Hz kHz
down: 400 Hz (trocken)
boost: 100 Hz (Fülle)
bei 200 - 250 (Volumen)
3 kHz (Attack)
7 kHz (Schärfe)

Kompression
Attack: 2 ms; Release: 1 Sekunde (soft)
Attack: 5-15 ms, Release: max. 200 ms (punchy)

93
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Toms

EQ
cut/down: alles unter 150 Hz
(evntl. Teile des Bassbereichs cutten um Überschneidungen mit der Bassdrum
zu vermeiden.)
down: 300-500 Hz oder 400-600 Hz (Weiche)
boost: 80-120 Hz oder 200-300 Hz (Volumen)
4-6 khz (Druck)

Kompression
nur wenn nötig komprimieren, Release 20 ms

Becken

EQ
cut: unter 500 Hz
down: 6-7 kHz
boost: 8 kHz (seidig)
10 kHz, 16 kHz

Hi-Hat

EQ
cut: alles unter 600 Hz (Definition)
down: 1 kHz (schmallbandig absenken)
boost: 5 kHz

Piano

EQ
cut: alles unter 80 Hz
down: 160 Hz
boost: 2-7 kHz (Brillianz)
80-160 Hz (Tiefe)

94
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

A-Gitarre

EQ
down: 250 Hz, 850 Hz
boost: 80-100 Hz, 100-200 Hz (leichte Anhebung!), 10 kHz (leichte Anhebung!)
80-120 Hz (Tiefe)
200-300 Hz (Fülle)

Kompression
Attack 5-10 ms, Release 80-200, Ratio 2:1
Akkordspiel: längeren Attack und Release,
Solospiel: kürzeren Attack und Release.

E-Gitarre

EQ
cut: alles unter 100 Hz
down: 1,5 kHz (gegen nasalen Klang)
1 bis 6 kHz (um Vocals hevorzuheben)
boost: 80 bis 100 Hz, 100 bis 200 Hz (leichte Anhebung!)
10 bis 15 kHz (leichte Anhebung!)
bei 80-100, 2bei 00-300 Hz (Druck & Fülle),
bei 2-3 kHz (Definition)
2-3 Khz (Bissigkeit, Gitarrensolo)

Kompression
Attack 5-10 ms, Release 80-200, Ratio 4:1 (je härter der Gitarrensound desto
weniger Ratio einstellen)

95
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Voice

EQ
Männliche Stimme: 120-160 Hz
Weibliche Stimme: 220-330 Hz
Vokale: 0.8-1.2 khz (A)
400-600 Hz + 2.2-2.6 khz (E)
200-400 Hz + 3-3.5 khz (I)
400-600 Hz (O)
200-400 Hz (U)
cut: alles unter 60 Hz
down: unter 80 Hz
schmallbandig bei 1 bis 2 kHz (Smoothness)
1 bis 2 kHz und 2 bis 4 kHz (Abschwächen der Stimme)
schmallbandig bei 5-7 kHz (De-Essing)
bei 200-400 (Klarheit)
boost: 100 bis 200 (Volumen)
bei 200-600 (Bass, Tiefe)
1 bis 2 kHz, 2 bis 4 kHz (Betonung)
6 kHz (offener Sound)
10-12 kHz

Kompression
Attack: 10-50 ms, Release: 200-2000 ms (Bei tiefen Stimme stellt man längere
Release Zeiten ein, bei hohen Stimmen schnelleren Attack und kürzeres
Release. Bei der Aufnahme mit mittlerer Ratio komprimieren, später dann nur
noch einmal mit kleinerer Ratio.)

Blasinstrumente

Kompression
Attack: 10-50 ms (läßt Anblasgeräusche besser durch), Release: 300 ms

Strings

Kompression
längerer Attack und Release-Werte, softe Kompression

96
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Anmerkung zur EQing und Kompressor-Tabelle:

Die Wendung „bei“ bezeichnet, dass „irgendwo“ im dort angegebenen


Frequenzbereich eine (oder mehrere) Anhebung/Absenkung vorgenommen
werden sollten z.B. „down: bei 4-12 kHz“. Es heißt also nicht, dass alle
Frequenzen von 4-12 kHz abgesenkt werden sollen!
Die Wendung „bis“ bezeichnet, dass der gesamte angegebene Frequenzbereich
bearbeitet werden soll, z.B. „boost: 100 bis 250 Hz“. Durch die in diesen
Kapitel beschrieben EQing-Technik ist klar, dass wenn in der EQing -Tabelle
von einer Anhebung die Rede ist z.B. „boost: 12 kHz“ dann in der Praxis die
benachbarten Frequenzbereiche z.B. 8-11 und 13-15 kHz abgesenkt werden,
um die Anhebung auf indirektem Weg zu erreichen. Bei den in der Tabelle
verzeichneten Absenkungen (down, cut) wird beim EQing hingegen die
angegebene Frequenz direkt bearbeitet. Das ganze EQing wird dadurch also
durch Absenkungen und Cuts vorgenommen! Natürlich steht es frei auch mit
direkten Anhebungen zu EQen.

Anordnung der Instrumente im Stereo-Bild (Panorama)

Alle Instrumente im Mix sind nicht nur in einem bestimmten Lautstärke - und
Frequenzspektrum, sondern auch in der Räumlichkeit des Stereobildes
(Panorama) angesiedelt. Durch die zwei Schallquellen eines Stereo-
Wiedergabesystems ergibt sich eine ein erweiterter Bereich in der
Dimensionalität. Dieser Bereich ist aber nicht dreidimensional, sondern gleicht
eher einer gegenüber Monophonie erweiterten Zweidimensionalität. Die
Klangwahrnehmung ist also immer noch flach und liegt auf der Ebene jedoch
ist die Breite dieser Ebene größer als bei Monowiedergabe. Daher ist der
Ausdruck Stereo-Raum fehl am Platze, da man erst bei Dolby-Sourround von
einen echten 3-D-Raum sprechen kann. Dennoch kommt durch den zweiten
Lautsprecher eine Erweiterung zustande. Dies kann man gut mit dem

97
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

menschlichen Auge vergleichen. Mit einen Auge sieht man nur einen kleinen
Bildausschnitt, mit zwei Augen entsteht ein größerer.

Um einen interessanten und transparenten Mix zu bekommen sollten einzelnen


Spuren im Panorama verteilt werden und nicht überall auf "Mitte" stehen.
Wenn alle Instrumente mittig im Stereobild platziert sind, fehlt es dem Mix
nämlich an Breite und den Instrumenten an Platz. Deswegen sollten manche
Instrumente etwas nach links, andere etwas nach rechts platziert werden,
wiederum andere extrem nach rechts oder links. Genauso hat ja auch in einem
Orchester jeder Musiker seinen Platz und es müssen sich nicht zwei zusammen
auf einen Stuhl drängeln. Nur die grundlegenden Bestandteile des Beats (also
die Bassdrum und der Bass) und die essenziellen Instrumente (z.B. Lead-
Stimme) sollten im Stereobild genau mittig positioniert sein. Die räumliche
Anordnung der Schlagzeugsounds sollte denen eines realen Drumsets
entsprechen. Doppelungen der Leadstimme oder von Gitarrenspuren können
natürlich noch extrem im Panorama verteilt werden. So doppelt man z.B. oft
den Gesang, legt eine Spur davon mittig und andere verteilt man etwas leiser in
verschiedenen Bereichen rechts und links im Panorama. Ebenso bei der E-
Gitarre, jedoch wird hier die Spur, sofern der tonale Inhalt der gleiche ist, nicht
einfach durch Kopieren verdoppelt (dies würde nämlich zu
Phasenauslöschungen führen), sondern indem man sie mehrmals neu aufnimmt
und die einzelnen Aufnahmen dann im Panorama verteilt.

98
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Räumliche Anordnung eines Drumsets


Bei klassischer Musik bzw. Filmmusik sollte die räumliche Anordnung eines
echten Orchesters auf das Panorama übertragen werden:

99
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Hall und Delays auf einzelnen Instrumenten

Bei den Halleffekten unterscheidet man zwischen denen, die reale Räume
virtuell simulieren und solche, die künstliche Räume erzeugen. Der Halleffekt
kommt immer in den Send-Einschleifweg des Mischpultes und wird nur in
Ausnahmefällen im Insert benutzt, z.B. wenn ein sehr großer Hallanteil erzeugt
werden soll.

Einzelne Signale im Mix können durch Halleffekte in der Tiefe positioniert


werden, wodurch eine gewisse Pseudo-Räumlichkeit innerhalb des Stereo-
Bildes entsteht. Dies stellt eine ideale Ergänzung zur Panoramaregelung dar, da
der zweidimensionale Stereoraum dadurch scheinbar eine 3. Dimension
gewinnt. Dies kann man vergleichen mit einen Landschaftsbild, wo durch die
Anordnung der Objekte der Eindruck von Räumlichkeit erzeugt wird, obwohl
das Bild selbst nur zweidimensional ist. Bei einen Landschaftsbild so wie es
Kinder malen, liegen gar alle Objekte auf einer Ebene und ein Bild wirkt
dadurch rein zweidimensional, was es ja auch an sich immer ist. Je größer der
Hallanteil der Instrumenten, desto mehr kann man sie räumlich nach hinten
verschieben, wobei es leiser wird und etwas an Höhenanteil verliert. Dieser
Effekt kann durch ein Begrenzen des Höhenanteils im Signal verstärkt werden.
Auch durch sehr kurzen Hall, kann ein Signal voluminöser wirken und tote
Signale gewinnen Räumlichkeit. Durch Zusatz von Effekten, wie Hall etc.
kommt es natürlich immer zu ei ner Klangveränderung, die man gegebenenfalls
noch mit dem EQ nachjustieren sollte.

Monokompatibilität, Korrelationsgrad

Ist ein Stück monokompatibel, dann sind auch im Monobetrieb alle


Bestandteile des Mixes hörbar. Durch falsche Panoramabearbeitung innerhalb
eines Mixes kommt es jedoch häufig zu Ergebnissen, die nicht mehr
monokompatibel sind. Sind nämlich viele musikalisch wichtigen Signale im

100
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Panorama zu weit nach rechts oder links positioniert -, gehen auf


Monowiedergabegeräten wichtige Bestandteile der Musik verloren. Nicht
monokompatible Stücke werden deshalb normalerweise nicht im Radio
gespielt. Das Beurteilen der Monokompatibilität sollte man nicht unbedingt nur
Messgeräten überlassen, sondern in erster Linie erfahrenen Ohren.

Die theoretische Monokompatibilität eines Stückes kann mittels eines


Korrelationsmessgerätes, welches die Phasendrehung des Stereosignals misst,
ermittelt werden. Dabei gelten folgende Werte:

-0.1 bis -1 Stereo-Signal, linker und rechter Kanal in bestimmtem


Maße
phasengedreht, daher nicht monokompatibel

0 ein Kanal ist leer

0.2 -0.7 Stereo-Signal, linker und rechter Kanal sind


unterschiedlich
aber monokompatibel

1 Mono-Signal, linker und rechter Kanal sind identisch

Wenn nun aber weder das Korrelationsmessgerät noch die bereits erwähnten
Peak- und VU-Meter mitsamt den dBSPL und RMS-Angaben und auch
Frequenzspektrometer ein Ersatz für die Beurteilung rein nach Gehör sind,
wozu misst man überhaupt diese Sachen, wozu braucht ein Mixing und
Mastering-Engineer diese Geräte? Die Antwort ist, sie dienen lediglich als
Anhaltspunkt und ermöglichen teilweise auch Bereiche darstellbar zu machen,
die man nicht hört, z.B. tiefer Infraschall auf dem Frequenzspektrometer.

Exiter auf Einzelsignalen

Exiter fügen dem Signal mehr Obertöne hinzu, indem sie ein neues
Obertonspektrum synthetisch auf Basis non-linearer Verzerrungen generieren.
Dadurch klingt das Signal transparenter, heller und etwas lauter. Sie werden

101
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

verwendet, da Signale durch lange Signalketten oft dumpf werden und daher
eine Auffrischung im Obertonbereich benötigen.
Exiter eignen sich deshalb auch besonders für die bessere Verständlichkeit von
Sprachaufnahmen (verstärken dort aber auch Zischlaute und eventuelles
Lispeln) und um den perkussiven Charakter und die Einschwingphasen
(Attacks) einzelner Instrumente mehr hervorzuheben, z.B.
Anzupfgeräusche/Anschlaggeräusche von Gitarren und Bässen,
Anblassgeräusche bei Blassinstrumente, Gesang, Attack der Snare, Chor,
Streicher (Bogenstrich, Pizzicato), Becken, und natürlich bei allen dumpfen
Sounds. Enhancer arbeite ähnlich wie Exiter bloß dass Frequenzen betont
werden, indem die Phasenlage der Frequenz geändert wird, wodurch diese dann
lauter wirkt ohne angehoben werden zu müssen. Es gibt ebenso Exiter
(Enhancer) für den Bassbereich.

Saturationseffekte auf Einzelsignalen

Saturationseffekte simulieren das nonlineare Klangverhalten von analogen


Bandmaschinen, Röhren oder Signalverstärkern im Bereich hoher
Eingangspegel und sind zur Aufwertung rein digitaler Produktionen oft
empfehlenswert. Man sollte bereits sehr vorsichtig damit sein solche
Saturationseffekte für einzelne Spuren im Mix einzusetzen. Leicht ist dort die
Grenze zwischen angenehm und grausam überschritten und dieser Fehler ist
später beim Pre-Mastering nicht wieder gut zumachen. Bei Musikstilen die
absolute Originalgetreue und Präzision des Signals erfordern, wie Klassik und
Jazz sollten Saturationseffekte ganz weggelassen werden.

Referenz

Um den Mix besser beurteilen zu können, sollte eine amtliche Produktion, die
der Musik des Mixes ähnelt im Vergleich angehört werden. Dies natürlich stets
über die selben Boxen mit denen auch der Mix angehört wird.

Pegelaussteuerung bei 24 Bit

102
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Nach dem Mixing sollte die Summe eine bestimmte Gesamtlautstärke haben
aber auch jede einzelne Spur sollte eine gewissen Spitzenpegel erreichen. Früher
galt als Faustregel, dass dieser immer 0 dBFS betragen sollte. Diese
Empfehlung entstand aber zu Zeiten wo es gängig war in 16 Bit aufzunehmen.
Mittlerweile sind aber 24 Bit zur Aufnahme und Bearbeitungszwecken Standart.
Dies bringt einige Veränderungen mit sich, die man für die Wahl des Pegels -
egal ob Summe oder Einzelsignal - beachten sollte. Da 24 Bit Aufnahmen einen
Signal-to-Noise von 139 dB haben und 16 Bit Aufnahmen nur 91 dB, besteht
keine Notwendigkeit ein 24 Bit-Signal so hoch auszusteuern wie bei 16 Bit.
Audiomaterial in 24 Bit hat also immer 48 dB mehr. Bei 16 Bit Recordings ist
es durchaus sinnvoll gewesen, dass Signal möglichst dicht an die 0 dBFS-Marke
zu bringen, damit dessen leisesten Stellen möglichst weit entfernt vom Bereich
des Noise-Levels liegen. Bei 24 Bit Audio besteht dafür jedoch keine
Notwendigkeit mehr.

Im Gegenteil, eine Aussteuerung auf 0 dBFS bringt sogar erhebliche Nachteile


mit sich: Wenn das fertige Stück nach dem Mixing zu dicht an die 0 dBFS
Marke ausgesteuert wird, kann es beim Pre-Mastering insbesondere durch
digitales EQing und Samplerate Konversion zu Übersteuerungen kommen.
Nach dem Mixdown muss für das Mastering also noch genug Headroom zur
Verfügung sein. Der Pegel der Summe sollte deshalb bei – 10 dBFS oder höher
liegen, aber niemals mehr als – 3 dBFS betragen. Dies ergibt sich durch das
Problem mit einigen D/A-Wandlern (vergl. Kapitel „Verzerrungen bei +
dBFS“). Besonders im Bereich – 10 bis – 6 dB bleibt noch genug Luft für das
Mastering, wo durch Komprimieren und Limitieren ja oft noch eine gewisse
Anhebung der Lautstärke/Lautheit erreicht wird. Der Gesamtpegel der Summe
eines digitalen Musikstücks sollte nach dem Pre-Mastering für sauberste
Ergebnisse also nie höher als bei- 3 dBFS liegen. Dafür muss dann zur Not das
Stück auf – 3 dBFS normalisiert werden. Die maximale Aussteuerung auf – 3
dBFS führt bei 24 Bit auch entgegen aller Befürchtungen nicht zu
Dynamikverlusten oder sonstigen Qualitätseinbußen

103
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Pre-Mastering

Im folgenden werden die typischen einzelnen Schritte beim Pre-Masterings und


Masterings beschrieben. Dazu muss gesagt werden, dass es keine Allround-
Lösungen und damit auch keinen pauschalen richtigen Ablauf für das Pre-
Mastering gibt, es gibt aber sehr wohl eine ungefähre Reihefolge nach der man
sich richten kann, obwohl nicht jeder Schritt in dieser Reihenfolge auch bei
jedem Stück gemacht werden sollte und manche Schritte auch mehrmals
gemacht werden können. Es gehört viel Erfahrung dazu zu entscheiden, was
nach dem Mix noch gemacht werden sollte und was nicht.

Der ideale Mix macht ein Pre-Mastering überflüssig. Die Stücke sind dann
bereits absolut perfekt. - Genug Lautheit, richtiger Pegel, warmer satter Sound,
amtlicher Frequenzgang etc. Dann wäre nur noch ein Mastering notwendig.
Dies ist aber ein in der Praxis eher seltener Fall, fast immer muss noch pre-
mastered werden. Durch das Pre-Mastering wird insbesondere versucht den
heute gängigen digitalen Produktionen einen analogen Anstrich zu geben.
Dabei werden oft analoge und sehr teure Hardwaregeräte eingesetzt um dieses
Ziel zu erreichen. Ein gemixtes Stück wird also niemals in der Summe
bearbeitet und dann zum Mastering gegeben, d.h. keinen EQ, keinen
Kompressore, Limiter, keinen Halleffekt, keine Saturation etc. auf der Summe.
Dadurch bleiben - sofern man nicht selber (pre)mastered – dem Mastering
Engineer alle Möglichkeiten offen. Der folgende Text bezieht sich auf das Pre-
Mastering und Mastering für ein CD-Zusammenstellung.

A/B-Vergleich beim (Pre-)Mastern

Während des (Pre-)Masterns hört man das Musikstück grundsätzlich im


Vergleich mit einer amtlichen Produktion, die der Musik der eigenen
Produktion ähnelt (Referenz-Produktion). Diesen Vergleich führt man
natürlich immer unter den selben Hörbedingungen durch. Man hört also z.B.
niemals die Referenzproduktion auf einem anderen Wiedergabegerät als die
eigene Produktion. Das vergleichende Hören, zweier unterschiedlicher Quellen
auf ein und denselben System nennt man A/B-Hören, da eine Quelle (A) mit

104
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

einer anderen (B) verglichen wird oder Referenz. Ziel dabei ist es, einen
Frequenzgang zu erreichen, der der amtlichen Referenzproduktion ähnelt. Man
sollte die Produktion während und nach dem (Pre-)Mastern auf verschiedenen
anderen Wiedergabesystemen im Vergleich zur Referenz-Produktion hören,
(z.B. Hifi-Anlage unterschiedlicher Art, Autoradios, Mono-Geräte). Das gibt
einen besseren Eindruck davon, wie die Produktionen unter anderen
Wiedergabebedingungen klingt und ob sie dort ähnlich klingt wie die amtliche
Referenzproduktion. Es ist logisch, dass die eigene Produktion auf einen
Küchenradio nicht mehr so gut klingt wie auf einer High-End-Anlage. Das Ziel
ist auch nicht, dass sie überall gleichgut klingt, sondern relativ (im Verhältnis
zur Referenzproduktion) ähnlich.
Die Boxen, die man hauptsächlich zum Abhören benutzen, sollten unbedingt
den gesamten Frequenzumfang des Stückes wiedergeben können.
Besonders bei Techno-Produktionen ist es deshalb wichtig, auch denn Sub-
Bassbereich beurteilen zu können, also alles ab 20 Hz. Deswegen wäre für
elektronische Musik eine zusätzliche Subwoofer-Abhöre sehr wichtig, für alle
anderen Musikarten und wenn die Musik nicht in Clubs gespielt werden soll,
reichen Boxen mit einer vernünftigen Basswiedergabe ab 50 Hz (dort hört man
auch Rumpelgeräusche, Trittschall und ähnliches gut raus). Viele Monitore
geben laut Herstellerangaben zwar theoretisch schon sehr tiefe Frequenzen ab
50 Hz wieder, aber in der Praxis hört man es nicht, da das Boxengehäuse oft
nicht genug Volumen bietet, um diese Frequenzen hörbar zu machen. Stellt
man die Boxen dicht vor einer (Gehäuse-)Wand auf, z.B. in einem Regal, kann
dies Basswiedergabe meist etwas „verbässern“ , wird dann aber auch schnell
undifferenziert.

Kopfhörer sind für das Pre-Mastern und Mixen nicht zu empfehlen, da der
Klangeindruck durch Kopfhörer in Bezug auf Hallräume, Panorama und Bässe
stets ganz anders ist als über Lautsprecher-Boxen. Sie sind höchstens gut, um
zu beurteilen ob leiseste Elemente im Mix noch leise oder bereits unhörbar sind
und um das Stereo-Bild besser beurteilen zu können.

Empfohlene Sampleraten und Bitraten für das (Pre-)Mastern

Das Musikstück wird, wenn es fertig gemixt wurde, zu einer Summendatei


exportiert.

105
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Das Audio-Summe sollte mit min. 24 Bit Bitrate und mit min. 41 kHz
Sampelrate vorliegen und ca. – 10 dBFS (max. – 3 dBFS) an gemessener
Durchschnitts-Lautstärke aufweisen. Es verbessert übrigens nicht nachträglich
die Aufnahmequalität, die Samplerate hochzurechnen oder die Bitzahl zu
erhöhen, wenn der Mix in einer geringeren Bit- und Samplerate vorliegt.
Ein Stück auf 96 kHz zu konvertieren, bringt jedoch Vorteile für die
Rechengenauigkeit von digitalen EQs und bei digitalen Effekten, die analoges
Klangverhalten simulieren und ist deshalb für das Pre-Mastering sehr nützlich.
Das Konvertieren auf 44,1 kHz, gelingt bei Sampleraten die ein Vielfaches von
44,1 sind (wie z.B. 88,2 kHz) präziser.

Super-Video-CD- und DVD-Mastering: 24 Bit; 96 kHz.


High-End-Mastering: 24 Bit; 88,2 kHz; 96 kHz
Mastering: 24 Bit; 48 kHz

Ingesamt ist die Wahl von 24 Bit aber wichtiger als eine Samplerate von 88,2
oder 96 kHz. Auf keinen Fall sollte die Samplerate aber unter 44,1 kHz liegen.

In der Applikation mit der pre-mastered wird, sollten die „sekundären Dateien“
mit der Auflösung erzeugt werden, in der auch das Audiomaterial vorliegt.

Von der ungemasterten Rohversion des Stückes fertigt man nun eine
Sicherungskopie auf einem hochwertigen Rohling an oder legt eine
Sicherungskopie auf der DAW ab. Falls etwas schief geht, kann man von dort
aus das Pre- Mastering erneut von vorne beginnen.

Fehlerkorrekturen der Summe

- De-Noising/De-Humming

Entfernen von Rauschen und Rumpelgeräusche durch ein Noise-Gate (vergl.


Kapitel „Downward und Upward-Expansion“) oder durch EQ-Absenkungen/-
Cuts im entsprechenden Bereich).

106
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

- De-Clicking

Entfernen von Klickgeräusche durch einen De-Clicker.

- De-Essing

Entfernen von Zischlaute beim Gesang durch einen De-Esser bzw. mittels EQ-
Absenkungen im entsprechendem Bereich (vergl. EQing und Kompressor-
Tabelle).

Diese Schritte sollte alle möglichst schon bei der Einzelsignalbearbeitung


erfolgt sein. Es kann sehr schwer sein, Fehler nachträglich auf der Summe zu
entfernen.

- Messung des DC-Versatz

Messung vom DC-Wert und gegebenenfalls Entfernung eines DC-Versatzes.


(vergl. Kapitel: „DC-Versatz“).

- Stereobild-Korrektur

Messung des Stereo-Bildes und eventueller Versuch der Korrektur mittels


Stereo-Enhancer (siehe hierzu auch das Kapitel: „Monokompatibilität,
Korrelationsgrad“).

Sweetening mit EQ

Es ist Geschmackssache, ob man beim Pre-Mastering zuerst EQed oder zuerst


komprimiert. Es ergibt sich jedenfalls kein Nachteil oder Vorteil, der es
rechtfertigen würde, in diesem Fall eine bestimmte Abfolge zwingend
vorzuschreiben. Es muss auch nicht immer EQed werden.
Beim Sweetening mit dem EQ geht es nur noch um Feinarbeit. Durch den
Eigenklang eines hochwertigen Eqs soll die Summe veredelt werden. Daher der
Ausdruck „sweetening“ (engl.: versüßen). Ziel ist, dass der Frequenzgang der
Summe möglichst so „amtlich“ klingt wie auf der Referenz-Produktion. Ein
echter analoger Hardware-EQ oder ein Software-EQ mit analogen

107
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Klangcharakter ist deshalb die richtige Wahl. Ein Bass- und High-Cut wird
vorgenommen, um unnötige Frequenzbereiche zu entfernen, den Bassbereich
zu mildern oder Rumpelgeräusche zu beseitigen.
Um zu Beurteilen ob ein Bass-Cut notwendig ist und in welchen Bereich er
liegen sollte, sollte unbedingt über gut eingestellte Subwoofer bzw.
Abhörmonitore gehört werden und niemals über Hifi-Subwoofer oder Auto-
Anlagen hören, da diese meist zu hot eingestellt sind. Der Subbassbereich von
20 Hz und alles da drunter kann normalerweise in jedem Fall bedenkenlos
gecuttet werden. Schwieriger wird es einzuschätzen, ob und wie viel bei dem
fühlbaren Subbassbereich von 40 Hz und tiefer und dem fühl- und hörbaren
Subbassbereich von 60 Hz und tiefer eventuell gecuttet werden soll. Dies liegt
natürlich vor allem an der Musikrichtung. Bei Rockmusik kann getrost ein Low-
Cut bei ca. 70 Hz erfolgen.

Bei zu starken Bässen setzt man schmalbandige EQ-Absenkungen in den


Oktaven: z.B. bei 40, 60 und 80 Hz. Es ist sinnvoll, sich den Bassbereich
separat mal anzuhören, dass geht gut mit dem Multiband-Kompressor, wo man
die Frequenzbänder auch jeweils einzeln anhören kann. Welche Frequenzen
welche klanglichen Ergebnisse hervorrufen entnimmt man dem Abschnitt
„Frequenzbereiche und ihre Charakteristika“.

Man benutzt nicht für jedes Stück was später auf die CD soll die selben EQ-
Einstellungen benutzen, obwohl es sein kann, dass das angebracht ist, z.B.
wenn nur High- und Low-Cuts gesetzt werden sollen. Wichtig ist, dass alle
Stücke untereinander ein ähnliches Frequenzverhalten bekommen. Es bringt
also nichts zwei Stücke so zu bearbeiten, dass deren Frequenzgänge im
Vergleich mit anderen Produktion zwar amtlich klingen, wenn beide Stücke
dann dennoch solch unterschiedliches Frequenzverhalten haben, dass das eine
z.B. sehr viel wärmer klingt als das andere und dadurch innerhalb des Albums
nicht mehr zusammenpassen. Man muss also nicht nur das einzelne Stück im
Vergleich zur Referenz-Produktion hören, sondern auch die Stücke für Musik-
Zusammenstellung im Vergleich zueinander hören. Es ist klar, dass auch immer
die gleiche klangliche Färbung vom Eigenklang des EQ bei jedem Stück der
Zusammenstellung vorhanden sein sollte. Also möglichst immer denselben EQ
für das komplette Pre-Mastering aller Stücke einer Produktion nehmen.
Irgendwo muss der rote Faden ja herkommen. Das hier gesagte gilt im
übertragenden Sinne auch für das Komprimieren und Limitieren beim

108
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Mastering. Sinnvoll ist auch, entsprechende System-Ressourcen vorausgesetzt,


alle Stücke für die CD in ein und dieselbe Datei zu laden, diese können dann ja
trotzdem noch innerhalb der Datei einzeln bearbeitet werden. Dies verbessert
den Überblick und ist später, wenn es um das Normalisieren und das Erstellen
des Datenträgers geht, sowieso unabläßlich.

Bild: Pultec EQP-1A3 Equalizer

Sweetening mit Kompressor

Zum Komprimieren benutzt man möglichst einen Einzelbandband-


Kompressor. Der Kompressor sollte einen analogen Eigenklang haben.
Benutzt man einen Breitbandkompressor wäre eine empfehlenswerte
Vorgehensweise, die Summe bei einem sehr tiefen Treshold ( z.B. - 39 dBFS)
und einer sehr geringen Ratio (max.: 1:8:0) zu komprimieren. Dies führt dann
zu einer relativ gleichmäßigen ganz leichten aber umfassenden Komprimierung
des Mixes, - ohne das Risiko, den Mix dynamisch zu verfälschen. Komprimiert
man zu stark, kann man zwar oft noch mehr Lautheit rauskitzeln aber dies geht
schnell auf Kosten der Lautstärkeverhältnisse im Mix. Man sollte nicht erwarten
durch extreme Komprimierung der Summe das Stück fett zu machen, es wird
dadurch nur dynamisch verfälscht klingen, was sich manchmal auch erst nach
längeren Hören bemerkbar macht.

109
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: DBX 160SL Kompressor


Wenn also nicht schon im Mix die einzelnen Spuren ausreichend und richtig
komprimiert worden sind bzw. dort schon genug Lautheit hatten, kann man
dies durch das Mastering nicht mehr nachholen, dies gilt ebenso für
Lautstärkeverhältnisse einzelner Spuren zueinander. Eine Notlösung bietet da
lediglich der Multibandkompressor. Ein Multibandkompressor wird nur dann
genommen, wenn einzelnen Frequenzbereiche im Stück sich klanglich und
dynamisch sehr voneinander absetzen, aber kein Re-Mixing mehr möglich ist.
Dann können mit dem Multibandkompressor die Frequenzbänder durch
Verändern der Ausgangslautstärke quasi EQed und komprimiert werden. Ein
Nachteil des Multibandkompressors ist jedoch, dass bei Übergangsfrequenzen
der einzelnen Bänder zu Phasenschmierereien kommt und bei unüberlegten
Einstellungen die dynamischen Verhältnisse im Mix schnell deutlich
verschlechtern kann. (Zum Multibandkompressor siehe auch Kapitel
„Multibandkompression“.)

Um herauszufinden, ob die Kompression das Stück klanglich nicht


verschlechtert, hört man sich das komprimierte und unkomprimierte Signal
unbedingt einmal in gleicher Lautstärke an. Dazu regelt man während der
Kompressor arbeitet den Lautstärkefader soweit hoch, dass, wenn der
Kompressor stummgeschaltet wird (Bypass-Taste) das Ursprungssignal genauso
laut klingt wie zuvor das komprimierte. Man muss dazu also ständig den
Kompressor abwechselnd stummschalten und dann wieder anschalten, bis man
mit dem Lautstärkeregler den Punkt gefunden hat, wo komprimiertes und
unkomprimiertes Signal exakt gleichlaut klingen. Erst dann kann man beide
Signal auch qualitativ miteinander vergleichen. Manchmal entsteht nämlich nur
der Eindruck, dass das Signal durch Komprimierung besser klingt, weil durch
die Komprimierung das Signal eben leiser/lauter geregelt wurde. Bei der Auto-

110
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Gain-Funktion ergibt sich ja sogar automatisch eine Lautstärkeanhebung. Es


kann dann also passieren, dass die veränderte Lautstärke über den eventuellen
Verlust von Klangqualität hinwegtäuscht. Bei solchem Vergleichen sollte aber
immer die selbe Musikstelle einmal mit und einmal ohne Kompression
unmittelbar hintereinander vergleichen werden und nicht verschiedene
Musikstellen in großen zeitlichen Abständen. Dies alles gilt im übertragenden
Sinne auch um den Klang eines EQ oder Halleffektes besser zu beurteilen.
Diese Vorgehensweise ist besonders dann anzuwenden, wenn man den Klang
von Software-Plug-Ins zur Audiobearbeitung besser untereinander vergleichen
will. Diese haben nämlich im Gegensatz zu analoger Hardware nicht viel
Eigenklang. Ein analoger Hardware Kompressor wertet den Klang eines
Stückes deutlich anders auf als digitale Hardware oder Software. Bei Software-
Kompressoren ist deren jeweiliger „Klang“ gerade für Anfänger und über
schlechte Abhören sehr viel schwerer herauszuhören. Deshalb ist es wichtig,
sich genau darauf zu konzentrieren und nicht auf die Musik oder die sonstigen
Veränderungen, die sich zwangsweise durch Dynamikbearbeitung ergeben.
Viele machen bei solchen Vergleichstests leider den Fehler, ein Stück in voller
Länge einmal mit den einen Gerät und dann mit einen anderen durchzuhören
und glauben dann deren Klangunterschiede richtig beurteilen zu können. Das
ist natürlich oftmals Blödsinn. Wenn man z.B. ein dreiminütiges Stück beim
zweiten Durchlauf mit einen anderen Kompressor hört, dann ist es ja wenn
man dessen Anfang hört drei Minuten her, dass man genau diese Stelle mit dem
anderen Kompressor gehört hat! Und innerhalb dieser drei Minuten hat schon
längst der Gewöhnungseffekt eingesetzt. Unterschiede im Klangunterschied
beider Geräte würden einen dann nur von der sich in den drei Minuten immer
wieder verändernden Musik oder durch bloße Einbildung vorgegaukelt werden.
So kann leicht der Unterschied in der Musik mit den Unterschied der
Soundqualität der Hard- oder Software verwechselt werden. Wenn man dann
noch jeweils unterschiedliche Parameter-Einstellungen bei den zu
vergleichenden Geräten wählt, entzieht sich völlig jeder Vergleich, denn der
Unterschied denn man dann hört, basiert überwiegend auf die
unterschiedlichen quantitativen Ausmaße der Signalbearbeitung aber nicht auf
den qualitativen Unterschied der Geräte bei den jeweiligen
Bearbeitungsschritten. Am besten ist es ein Stück oder eine Passage zu wählen,
die musikalisch immer absolut gleich bleibt. Erst dann werden direkte
Vergleiche möglich, die es wirklich erlauben den Eigenklang von Plug-Ins oder
Hardware genauer zu beurteilen.

111
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Klangveredelung und psychoakustische Effekte beim Pre-Mastering:

- Saturation

Im Idealfall wird der Summe analoge Sättigung hinzugefügt, indem man das
digitale Musikstück mittels hochwertiger D/A-Wandler auf eine ½ Zoll 2-Spur
Bandmaschine aufnimmt und von dort aus mittels A/D-Wandler wieder zurück
auf die DAW. Damit dies möglichst korrekt funktioniert dürfen keine normalen
Wandler benutzt werden, wie man sie in Workstations, CD-Playern und DAT-
Recorden findet, sondern nur hochwertigste High-End-Wandler. Ansonsten
würde es beim Übertragen des Signals zu erheblichen Klangverlusten kommen.
Daher stammt auch die ansonsten geltende Regel niemals digitale Signale für
weitere Bearbeitung in den analogen Bereich zu übertragen, es sei denn zu
Wiedergabezwecken. Hochwertige D/A- bzw. A/D-Wandler sind daher auch
gefordert, wenn das digitale Signal noch mit analogen Hardwaregeräten wie
Kompressoren und EQs bearbeitet werden soll, die klanglich rein digitaler
Hardware überlegen sind. So können solche analogen Geräte selbst bei
ursprünglich rein digitalen Mixen noch beim Mastern eingesetzt werden.
Durch das re-recorden auf Bandmaschine wird dem Signal jede digitale Härte
genommen, was mit digital simulierten Saturationseffekten niemals so
überzeugend zu erreichen wäre. Diese Technik bezeichnet man als Layback
Mastering und sie wird von den meistern Top-Producern angewendet. Jedoch
sind die dafür zum Einsatz kommenden Bandmaschinen sehr teurer, aber
gebraucht durchaus erschwinglich. Bandmaschinen werden heutzutage außer
einigen 2 und 24 Spur-Modellen nicht mehr hergestellt und neue
Bandmaschinen sind ebenfalls recht teuer. Die gebrauchen Bandmaschinen
haben hingegen teilweise schon jahrzehntelange Arbeitszeiten hinter sich, außer
sie stammen aus unbenutzten Lagerbeständen. Bandmaschinen und Tonbänder
unterliegen stets einen gewissen Verschleiß und erfordern daher regelmäßige
Pflege, Wartung und teils auch mal eine Reparatur. Für viele alte Modelle sind
Ersatzteile schwer oder aufzutreiben und oft sehr teuer.
Wegen diesem technischen Aufwand wird Layback Mastering eher im semi-
professionellen und professionellen Bereich angewendet. Die Bandmaschine
sollte hohe Abspielgeschwindigkeiten von 38 m/Sekunde (30 inch per second)
haben, eine Rauschunterdrückung ist dann nicht mehr erforderlich. Alles unter
38 m/Sekunde ohne Rauschunterdrückung macht für Masteringzwecke keinen

112
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Sinn, da der Rauschabstand dort zu gering ist. Außerdem sollte die


Höhenwiedergabe möglichst gut sein, was nur bei höheren
Laufgeschwindigkeiten der Fall ist. Ein 2 Spurgerät ist für Mastering Zwecke
der besseren Klangqualität wegen vorzuziehen. Je nach Modell lassen sich auch
ganz unterschiedliche Saurationsgrade erreichen. Beim Mastering ist das Ziel
nicht viel Sättigung hinzuzufügen auf Übersteuerungen kann deshalb verzichtet
werden. Doch für andere Aufnahmezwecke ist manchmal eine deutliche
Sättigung gewünscht. Eine hohe Bandsättigung kann manchen Maschinen
allerdings auch sehr belasten und den Tonköpfen schnell das Leben kosten. In
Studios wurde für Mastering Zwecke oft Modelle der Firmen Studer und Revox
eingesetzt, die auch heute selbst gebraucht noch recht teurer gehandelt werden.
Diese Geräte gelten als recht reparaturanfällig. Ersatzteile sind wegen der
Bekanntheit dieser Marken aber gut zu beschaffen. Klanglich zählen sie zur
allerersten Güte. Danach folgt Tandberg, was bereits damals als Geheimtipp
gehandelt wurde. Auch die eine oder andere Teac/Tascam, Braun und Philips
bietet einige sehr gute Modelle. Wichtige Punkte bei Bandmaschinen sind
darüber hinaus immer der Zustand der Tonköpfe, der Mechanik, die
Beschaffbarkeit von geeignetem Bandmaterial und evntl. Ersatzteilen, eine
gleichmäßige Laufgeschwindigkeit.
Durch das Re-recorden auf eine Bandmaschine kann auch die Lautheit des
Signals nochmals gesteigert werden und typische analoge Klangeigenschaften,
wie Weichheit in den Höhen und mehr Anhebung im Bassbereich wird dadurch
erreicht. Sämtliche digitale Härte lässt sich so aus der Aufnahme entfernen, was
mit digital simulierter Saturation nicht wirklich überzeugend möglich ist. Der
Bassbereich wird prägnanter und wärmer, die Höhen klingen perliger und auch
die Wiedergabe der Mitten wirkt angenehmer.

Dennoch eignet sich Saturation– egal ob echt oder simuliert - nicht für jede
Musikart. In klassischer Musik und Jazz findet man einen sehr großen
Dynamikumfang, der fehlerfrei wiedergegeben werden will. Da sich durch die
analoge Bearbeitung der Rauschabstand verringert, begrenzt sich auch der
fehlerfrei darstellbare Dynamikumfang. Daher ist es besser Musik dieser
Stilistiken rein digital zu mastern. Außerdem verfälscht die analoge Sättigung
und Geschwindkeitsabweichungen (wow & flutter), die selbst in besten
Bandmaschinen vorkommen, den Klang der Instrumente. Der Klang der bei
Klassik und Jazz eingesetzten Naturinstrumente kann dadurch nicht mehr
originalgetreu reproduziert werden. Auch im Bereich Electronic wird wegen der

113
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

erforderlichen Tempogenauigkeit eher keine analoge Saturation verwendet.


Deshalb eignet sich das Layback Mastering digitaler Produktionen eher für
Rock, Pop, R n`B, Country, Folk u.ä. Die Musik klingt durch Saturation anders
und dicker als im Original, wovon natürlich besonders E-Gitarren, E-Bässe und
Schlagzeug profitieren. Nun kann man meinen, dass die angenehme Wirkung
echter analoger Saturation ja auch erreicht werden kann, indem man auf ein
anderes analoges Band überspielt, wie z.B. VHS oder eine normale Kassette.
Dieser Gedankengang ist verständlich aber dennoch falsch. Die Saturation
entsteht nicht nur durch das Band, sondern auch durch die Bauteile der
jeweiligen Bandmaschine, weshalb es auch bei Bandmaschinen erhebliche
Klangunterschiede gibt, und VHS-Recorder und Kassettendecks liefern dazu
im Vergleich keine guten Ergebnisse.

Bild: Revox PR 99 MK III 2-Spur Bandmaschine

114
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

- Hall

Ein qualitativ hochwertiger kurzer Hall- oder Delay-Effekt kann auf das ganze
Stück bzw. auf der kompletten Zusammenstellung angewendet werden. Dies
wird beim Pre-Mastering recht selten gemacht, was aber nicht heißt, dass es nie
gemacht werden muss. Der Effekt sollte so minimal sein, dass man den
Hallanteil nicht deutlich raushört. Er dient nur dazu, den Instrumenten etwas
mehr Zusammenhalt und der Summe Räumlichkeit oder Tiefe zu geben, falls
das im Mix fehlt. Inwieweit das erforderlich ist, muss der Mastering-Engineer
wie immer mit Bedacht entscheiden.

- Enhancer und Exiter

Exiter (bzw. Enhancer) sollten nur äußerst vorsichtig eingesetzt werden, wenn
ein Stück wirklich zu dumpf klingt. Exiter (Enhancer) waren damals sehr
beliebt beim Mastering, da man mit ihnen analogen Aufnahmen zu mehr
Frische verhelfen konnte. Da viele digitale Aufnahmen jedoch nicht die gewisse
Dumpfheit analoger Produktionen haben, sind Exiter (Enhancer) selten
notwendig. Bei vernünftig dosierten Exiter/Enhancer-Einsatz fällt es kaum auf,
wenn der Exiter (Enhancer) stummgeschaltet wird. Je größer aber der
Unterschied im Klang der Summe ohne und mit Exiter bzw. Enhancer ist,
desto wahrscheinlicher ist es, dass der Effekt zu extrem eingesetzt wird und die
Summe bereits zu briliant klingt.

- Stereoverbreiterungs-Effekte (Stereo-Enhancer)

Stereoverbreiterungs-Effekte verbreiten zwar das subjektive Stereobild und


geben dadurch mehr Raum und Fülle ohne Nachhallzeiten hörbar zu
vergrößern, machen einen Mix aber leicht monoinkompatibel und können
sogar den Sound verschlechtern. Je nach Boxenaufstellungen bei den
Wiedergabesystemen können sich übermäßig verwendete Stereo-Enhancer
nämlich neutral, vorteilhaft oder nachteilig auf den Gesamtklang auswirken.
Dies ist ein hohes Risiko. Durch Stereo-Enhancer aber auch durch fast alle
anderen Signalbearbeitungsprozessoren kommt es zu Phasenverzerrungen, die
nicht Verzerrungen im normalem Sinne des Wortes entsprechen und deshalb

115
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

nicht bewusst hörbar sind, aber nach einer gewissen Hördauer subtil
mitempfunden werden. Das Ergebnis ist dann, dass das Gehör nach längeren
Hören gestresst wird und man das Stück leiser dreht oder ausmacht und nicht
wirklich weiß, warum. Deswegen wird die wirkliche Qualität eines
Signalprozessors erst auf dem zweiten und nicht auf dem ersten Blick
ersichtlich.

Durch Veränderungen, die sich im Frequenzgang durch den Einsatz von


Effekten evntl. ergeben haben, kann es erforderlich sein, noch mal im EQ den
Frequenzgang etwas nachzubearbeiten oder im Kompressor die Einstellung
zu modifizieren.

Limitieren

Als letzter Schritt der dynamischen und klanglichen Bearbeitung des Stückes -
wird ein Limiter benutzt um Pegelspitzen zu reduzieren. Es sollte nie zuviel
limitiert werden. Im Zweifelsfall limitiert man lieber sehr wenig oder gar nicht,
als zuviel. Doch was ist „zuviel“? Bei einen Stück ist bereits 1 dB zu viel, beim
anderen erst 7. Wieder eine Entscheidung die nicht pauschalisiert werden kann
und der Erfahrung des Mastering-Engineers unterliegt. Der Limiter sollte
möglichst eine Look-Ahead-Funktion bieten, damit sanftes Limiting ermöglicht
wird. Nach dem Limitieren kann die Summe, bedingt durch die
Dynamikreduzierung bzw. Herabsenkung des Höchstpegels, meist noch etwas
höher ausgesteuert werden. Dabei sollte die Summe zum Schluß nie die – 3
dBFS Marke überschreiten. (näheres hierzu im Kapitel „Verzerrungen bei +
dBFS.“)

116
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Teletronix LA2A Limiter

Re-Sampling
Durch Re-Sampling wird das Stück auf 41,1 kHz heruntergerechnet.
Es muss ein echtes Re-sampling stattfinden, - also nicht einfach die
Summendatei unter der neuen Samplerate abspeichern! Das Re-Sampling auf
niedrigere Auflösungen gelingt in den meisten DAWs präziser, wenn die
Samplerate ein Vielfaches der Samplerate ist auf die down-gesampled werden
soll. (Z.B. 88,2 KHZ auf 44,1 kHz)

Das Re-sampling findet grundsätzlich vor der Konvertierung der Bitrate statt.

Bitrate-Conversion & Noise-Shaping

Zum Schluß wird noch die Bitrate des Stücks unter Verwendung eines Dither-
Algorhythmus (eventuell in Verbindung mit Noise-Shaping) auf 16 Bit
konvertiert.

117
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Mastering

Tracklist

Man überlegt sich eine musikalisch sinnvolle Reihenfolge der Stücke für die
Musik-Zusammenstellung (Tracklist). Eine normale CD im Red-Book-Format
bietet dabei Platz für 74 Min. Musik und einer maximalen Anzahl von 99 Titel.
Jeder weiß, je nachdem welche Stücke man hintereinander spielt, ergeben sich
ganz bestimmte Wirkungen. Nicht umsonst hat man früher noch für Freunde
Musik auf Kassetten überspielt und dabei genau auf die Reihenfolge und
Auswahl der Stücke geachtet. Solchen Zusammenstellungen hatte eine ganze
persönliche Note, egal ob es Stücke von verschiedenen oder ein und denselben
Interpreten waren. Das Abspielen von Songs in einer bestimmten Reihenfolge
ist wie Poesie: Zeile für Zeile entfaltet sich die Wirkung.
Bereits in klassischer Musik findet sich eine Satzform, in der die Bestandteile
eines Werkes untergliedert sind, z.B. der Sonatensatz, für den folgende Abfolge
charakteristisch ist:
Erster Satz: sehr ruhiges Stück, quasi ein Vorspiel oder gleich ein mitreißendes
schnelles Stück.Zweiter Satz: ruhiges Stück oder etwas beschwingtes, leichteres
im mittleren Tempo
Finale: Sehr schnelles energisches Stück. Oft wird das Tempo im Finale zum
Schluß hin nochmals gesteigert oder es folgt ein ruhiger Ausklang, der
manchmal auch an den Anfang des Werkes anknüpft. Es werden also immer
Spannungsböigen innerhalb eines gesamten Musikwerkes aufgebaut. Wäre die
Sonate also ein Musik-Album auf CD, wären die einzelnen Sätze also die
verschiedenen Musikstücke der CD. Für den Hörer wäre es auch sicher
langweilig, zwei langsame Sätze hintereinander zu hören oder mehrere schnelle.
Deshalb setzt man auf Abwechslung und eine Entwicklung und Struktur der
einzelnen Sätze und das nicht nur durch Tempos, sondern auch durch
Tonarten und Strukturen in der Musik selbst.
Eine Note ist wie ein einzelner Buchstabe und genauso wie aus Buchstaben
Wörter und aus den Wörtern Sätze und ganze Geschichten und Sinn werden,
vermag auch die Musik zu erzählen.

118
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Die Musikzusammenstellung sollte demnach immer mit einen relativ starken,


also „hit-verdächtigen“ Song als Opener beginnen oder mit einen Stück, was als
Einleitung dient.
Nach der Einleitung, also als zweites Stück sollte dann wirklich ein starker Song
folgen. Danach kann die Gangart wieder für einige Tracks zurückgehen. Zur
Mitte des Albums sollte noch unbedingt ein musikalischer Höhepunkt folgen
oder ein Stück was besonders originell ist. Tatsächlich sagt man von vielen
Platten, dass die besten Tracks in der Mitte des Albums liegen, was meist bei
Nr. 7 und Nr. 8 liegen, auch wenn diese nicht immer als Singleauskoppelungen
gewählt werden. Ebenso bietet es sich an zur Mitte oder nach den ersten zwei
Dritteln des Albums eine Art Zäsur zu setzen und Musik zu wählen, die den
Album einen anderen Charakter gibt als zu Anfang. Z.B. könnten der Anfang
ruhig sein, danach wird es poppiger, und dann klingt es mit mehreren sehr
schweren Stücken ruhig aus und hinterlässt dann mehr einen schweren
Charakter in seiner Gesamtwirkung als wen die poppigen Stücke das letzte
Drittel der Zusammenstellung ausmachen würden. Das letzte oder vorletzte
Stück des Albums sollte noch so etwas sein, wie ein Finale. Ein Stück also, was
sozusagen den Schlussakkord des Albums bildet. Gern wird als vorletztes Stück
noch mal ein richtig guter Song als Höhepunkt verwendet und das letzte Stück
dient als musikalischer Fade Out, z.B. eine reine Instrumental-Nummer oder
ein ruhiges Stück oder ein Stück was an den Opener des Albums anknüpft und
wodurch sich ein Rahmen in der Zusammenstellung bildet. In diesem Fall
würde das vorletzte Stück vergleichbar sein mit einen musikalischen
Trugschluß. Man denkt, das Album würde jetzt enden aber dann kommt noch
mal ein ruhiger oder vielleicht sogar schneller energiereicher Abspann: als
unerwartete Zugabe oder als letzter Nachhall. Für so eine Wirkung bieten sich
auch Bonustracks oder versteckte Tracks an, die erst etliche Minuten nach dem
„letzten“ Song einsetzen. Durch das Erstellen der Tracklist kann man also
durchaus etwas beeinflussen, wie der erste Eindruck des Albums wird und
welchen Eindruck es hinterlässt.

PQ-Editing

Die Pausen zwischen zwei Stücken dürfen gemäß des Redbook-Standards


offiziell nicht kürzer als 2 Sekunden sein. Was nicht heißt, dass nicht auch
kürzere oder längere Pausen zwischen Tracks vorgenommen werden könnten,

119
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

außer vor dem ersten Track sind standardmäßig immer 2 oder 3 Sekunden
Stille. Das Setzen der Punkte für die Pause zwischen zwei Tracks nennt man
PQ-Editing. Es sollte am Anfang jedes Tracks ca. eine halbe Sekunde Stille
eingefügt werden. Billige CD-Player haben nämlich die Eigenschaft, das Signal
am Anfang der Track-ID stummzuschalten, um das Rauschen der billigen
D/A-Wandler zu verstecken.

Zum PQ-Editing gehört auch die Möglichkeit, innerhalb eines Tracks oder
einer Musikzusammenstellung beliebig Indizpunkte (Subindex) zu setzen.
Manche CD-Player können diese Punkte jeweils anspringen, sie dienen dann
sozusagen als Lesezeichen um sich flexibler durch die CD zu bewegen.
Außerdem kann für den kommerziellen Gebrauch ein ISCR-Code eingetragen
werden, der aus Länder- und Eigentümercode, Herstellungsjahr und
Seriennummer der CD besteht. Der ISCR-Code ist jedoch erst für echte
kommerzielle Zwecke wichtig. Zu den Aufgabenbereichen des PQ-Editings
zählt auch das Setzen von Kopierschutzflags, die jedoch in der Praxis nahezu
wirkungslos sind.

Durch die Option CD-Text können außerdem Infos über Songtitel, Interpret
und Album zu den einzelnen Tracks eingetragen werden, die dann bei CD-
Text-fähigen CD-Playern im Display angezeigt werden.

Fade-Outs und Fade-Ins (Spacing)

Hat ein Musikstück kein richtiges Ende, endet es also nicht auf einem
Schlußton, Schlussakkord oder ähnlichem, wird in der Regel ein Fade-out
gesetzt. Ein Fade-out läßt das Musikstück zum Ende hin gleichmäßig leiser
werden bis es schließlich verstummt. Bei einen Fade-In ist es genau umgekehrt.
Die Musik wird eingeblendet bis der normale Pegel erreicht ist. Selten gibt es
auch Kombinationen von Fade-outs und –Ins im Stück. Durch Fade-Outs und
Fade-Ins, deren verschiedenen Anschwell- und Ausklingzeiten und des
verschiedenen Tempos von Stücken, ergeben sich selbst wenn z.B. immer
genau 2 Sekunden Stille zwischen zwei Tracks liegt, stets ganz unterschiedliche
Pausen. Dies sollte bei der Erstellung der Tracklist also berücksichtigt werden.
So sollte man nach einen längeren Fade-out keine lange Pause setzen, da der
Hörer eventuell gar nicht mehr den letzten Teil des Fade-outs wahrnimmt und

120
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

durch eine nachfolgende lange Pause bis zum nächsten Titel wird der Abstand
dann vielleicht zu groß. Als Faustregel gilt: Zwischen zwei schnellen Songs lässt
man kurze, zwischen langsamen und schnellen Songs lange Pausen und
zwischen schnellen und langsamen mittelange Pausen. Im Endeffekt ist das
aber auch Geschmackssache und liegt stark an der Musik und dem
angestrebtem Konzept des Albums.

Amtlicher Summenpegel

Die Tracks der Zusammenstellung werden durch Normalisieren in der


Lautstärke auch aneinander angepasst. Dabei werden alle Musikstücke für die
CD-Erstellung gemäß der Tracklist in eine Datei zusammengefasst. Dort wird
nach dem Spitzenpegel gescannt und dieser dann proportional zum
Gesamtpegel auf einen bestimmten Wert angehoben.
Der beste Wert hierfür ist ein max. Peak von – 3 dBFS. Dadurch sind (rein
rechnerisch gesehen) alle Stücke auf der CD gleichlaut. Ist die „Lautheit“ der
einzelnen Stücke aber extrem unterschiedlich wird das Normalisieren keinen
großen Erfolg bringen.

Eine andere Methode wäre das Normalisieren in Bezug zum RMS-Level. Der
RMS-Wert wird durch einen Scan ermittelt und das Signal wird dann auf einen
bestimmten RMS-Wert angehoben. Da hierbei aber eher von der Energie des
Signals und nicht von der tatsächlich empfundenen Lautheit ausgegangen wird
und auch der Spitzenpegel nicht berücksichtigt werden, kann dies zu
Übersteuerungen führen. Andererseits kann es passieren, dass trotz eines
rechnerisch hohen RMS-Level die Musik dennoch nicht so laut klingt, wie
Produktionen mit dem selben gmessenen RMS-Level. Wobei wieder zum
Vorschein kommt, wie wichtig und unersetzlich die Ohren für die Beurteilung
von Lautheit sind. Die Lautheit der Summe sollte rein messtechnisch gesehen
idealerweise bei einem RMS-Pegel zwischen –13 und – 10 dBFS liegen, ohne
dass es zu Clipping oder Verzerrungen kommt. Der ideale messtechnische Wert
für die Lautstärke sollte nicht höher als – 3 dBFS sein. Hält man das Problem
der bereits erwähnten Verzerrungen im Inter-Sample-Bereich bei billigen D/A-
Wandlern für nicht weiter wichtig, kann der gemessene Maximalpegel auch bis
0 dBFS reichen.

121
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Anfertigen der Master-CD

Die Stücke werden nun im Red-Book-Format auf eine hochwertige CD-R


gebrannt.
Hochwertig heißt hier, dass der Rohling die in diesem Buch bereits
besprochene Grade-A-Qualität aufweisen sollte.Das Beschreiben im Red-Book-
Format kann mit nahezu jeder herkömmlichen Brennersoftware erfolgen.
Dabei wird die CD in einen Durchgang (at once) beschrieben und nicht
abschnittsweise (track-by-track). Bei der Track-by-Track-Schreibweise kann es
zu E32 Fehlern auf der CD-R kommen, da der Laser nach jedem geschriebenen
Track kurz aussetzt, dies kann sich später als hörbarer Knackser bemerkbar
machen. Daraus folgt, dass auch nicht im Multisession-Mode beschrieben
werden sollte. Bei heutigen Brennern und Rohlingen kann in minimal 8-facher
Geschwindigkeit bereits sicher beschrieben werden. Solche eine Master-CD-R
im Redbook-Format reicht vollkommen aus, um einen Presswerk als Vorlage
zur Herstellung eines CD-Glassmasters zu dienen. Das CD-Glassmaster
wiederum dient dann als Vorlage für die Pressung der CD-Serie.

Bild: Anfertigung eines CD-Glassmasters

122
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Musikrecht

Urheberrecht

Das Urheberrecht für ein geistiges Werk besteht immer schon bereits mit
Schaffung des Werkes. Dabei ist es bei musikalischen Schöpfungen gleichgültig,
ob sie aufgenommen, niedergeschrieben, oder sonst wie festgehalten werden.
Es reicht z.B. schon aus, wenn es als Idee im Kopf entsteht, denn bereits dann
handelt es sich ja schon um eine geistige Schöpfung. Es heißt hierbei auch
nicht, dass es unbedingt ein richtiges Musikstück im normalem Sinne sein muss.
Es reicht schon eine komponierte Abfolge von Tönen und Geräuschen. Das
Urheberrecht für geistiges Eigentum ist an die Person des Urhebers gebunden,
erlischt 70 Jahre nach seinem Tod und ist vererbbar.

Der Urheber und niemand sonst ist berechtigt, sein Werk zu verbreiten, zu
verändern und zu vervielfältigen. Wichtig ist aber, dass das Musikstück eine
persönliche geistige Schöpfung von ihm ist. Das kann nicht von jedem
Musikstück behauptet werden, jedoch gibt es kaum ein Stück, welches vom
Urheberrecht ausgeschlossen wird.

Das Urheberrecht umfasst immer das gesamte Werk als Ganzes und nicht
einzelne Teile davon, wie z.B. einzelne Melodien oder den Songtitel. Diese sind
nur dann schutzfähig, wenn sie an sich schon eine schöpferische Leistung
darstellen, auch hierfür sind die Kriterien nicht sehr streng. Natürlich umfasst
das Urheberrecht auch alle anderen geistigen Schöpfungen, wie Schriftwerke,
wissenschaftliche Arbeiten, Malerei etc. Dem Urheber stehen das
Vervielfältigungsrecht (z.B. Pressen der Musik auf CDs), das Verbreitungsrecht
(die CDs in den Verkehr bringen) und das Veröffentlichungsrecht (die CDs
öffentlich abspielen) seiner Werke uneingeschränkt zu. Diese Rechte können
auch auf andere übertragen werden, z.B. kann einer Plattenfirma das
Vervielfältigungsrecht übertragen werden und der Urheber selbst behält sich
das Veröffentlichungsrecht vor. Als öffentliche Darbietung gilt übrigens alles,
was über den privaten Rahmen hinaus öffentlich gemacht wird, - sogar eine
Telefonwarteschleife und auch das Abspielen von Musik auf einer Internet-
Seite. Jeder der Musik also öffentlich abspielen will, muss die Rechte dazu

123
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

ersteinmal erwerben, sofern er nicht selbst der Urheber ist, (ausgenommen


davon sind private Feierlichkeiten, da dort nur ein bestimmter Personenkreis
geladen ist und diese naturgemäß nicht jedem zugänglich gemacht werden.)

Der Copyright Vermerk (©) muss nicht angebracht werden damit ein
Musikstück unter Urheberschutz steht, er wird nur bei Schriftwerken
angebracht. Für Musikaufnahmen gilt das phonorecordet-Zeichen ( ). In
manchen Staaten (z.B. den USA) ist der Copyright-Vermerk aber
Grundvoraussetzung, damit das Werk unter Urheberschutz steht.

Die Hinterlegung eines Werkes bei der GEMA sichert entgegen vieler
Behauptungen übrigens nicht das Urheberrecht und kann demnach auch nicht
im Streitfall die Urheberschaft beweisen, da die GEMA keine Information zu
den Melodien, Texten etc. des Werks speichert. Diese Infos sind aber
ausschlaggebend zum Nachweis der Urheberschaft. Auch Eintragungen der
Urheberrolle im Patentamt sind vollkommen überflüssig. Das machen Leute,
die einen Künstlernamen haben damit ihre Werke auch noch bis 70 Jahre nach
ihrem Tod geschützt sind, denn das Gesetz sagt aus, dass anonym
veröffentlichte Werke (und ein Künstlername ist ja schließlich etwas was
Anonymität verschafft) nur 70 Jahre ab Erstveröffentlichung den
Urheberschutz genießen. Solche Künstler lassen sich also die Urheberschaft für
ein Stück, was sie unter Künstlernamen veröffentlichen, auf ihren bürgerlichen
Namen durch die „Urheberrolle“ beim Patentamt bescheinigen. Das aber ist
noch kein geltendes Beweismittel, dass sie zu Recht die Urheberschaft tragen.

Haben mehrere Leute an einen Stück komponiert, haben diese alle gemeinsam
das Urheberrecht, egal wie groß die schöpferische Beteiligung der jeweiligen
Urheber war. Solche Stücke dürfen also nur dann veröffentlicht und
vervielfältigt werden, wenn alle Urheber ausdrücklich damit einverstanden sind.
Damit ein anderer zum Miturheber wird, muss seine schöpferische Leistung an
der Komposition erkennbar sein, dies kann z.B. schon ein Akkord oder eine
Melodie sein, die dem Stück eine andere Wendung gibt.
Eine schöpferische Leistung, die die Miturheberschaft rechtfertigt, ist aber nicht
der Fall, wenn z.B. nur das Arrangement verändert worden ist, bzw. die Klänge
oder der Rhythmus. Das Ändern des Arrangements und des Rhythmus und
Sounds stellt nämlich keine eigenständige Schöpfung am Musikstück an sich
dar weil die Komposition auch ohne diese Bearbeitungen eigenständig wäre.

124
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Dennoch ist ein Arrangement an sich geschützt, aber der Arrangeur enthält
damit keine Urheberschaft am Musikstück, was er arrangiert hat.
Ist der Beitrag eines anderen am Stück aber sehr schöpferisch, obwohl nur
Rhythmus, Sound oder Arrangement am Stück verändert worden sind, kann er
in Ausnahmefällen dennoch die Miturheberschaft am Stück gewinnen. Hat
einer der Urheber seinen Beitrag zuvor schon als eigenständiges Stück kreiert, -
also bevor jemand anderes etwas hinzukomponierte, hat er für diese
Erstversion seines Stückes (Frühversion) natürlich das alleinige Urheberrecht.
Für die zweite Version, wo ein andere mit komponierte, sind natürlich beide die
Urheber. Die Basis muss natürlich sein, dass die Personen, die das Stück
miteinander schreiben, im gegenseitigem Einverständnis daran arbeiten.

Auch relativ simple Stücke wie Drum n`Bass-Produktionen, wo oft nur


verschiedene von anderen erstellten Samples, vorgefertigten Phrasen und
Sounds zusammengestellt werden unterliegen der Urheberschaft, da diese
Vorgänge schon eine kreative Leistung darstellen.
Es gilt nicht, wie subjektiv gut oder originell die geistige Schöpfung ist oder wie
viel Arbeitsaufwand in sie investiert wurde, sondern dass eine eigenständige
schöpferische Leistung stattgefunden hat und erkennbar ist, selbst wenn sie nur
bescheiden war. Eine bereits bekannte Melodie also 1:1 nachzukomponieren
und drumherum ein bisschen was zu verändern wäre also eindeutig ein Plagiat.

Schutz vor Urheberrechtsverletzungen

Natürlich hat jeder Urheber ab Schöpfung des Werkes bereits das


Urheberrecht. Jedoch muss er im Zweifelsfall auch beweisen können, dass er
wirklich der Urheber ist. Es geht dabei also nicht um den „Anspruch“ auf
Urheberrecht für die eigenen Werke, sondern um dessen Berechtigung und
Sicherung.

Wirksam schützen kann man ein Musikstück nur, wenn es beim Rechtsanwalt
in einer sog. Prioritätsverhandlung hinterlegt wird. Man kann sich als
Komponist des Stückes durch die Prioritätsverhandlung die Urheberrechte
schützen bzw. sichern lassen.
Hat man das Stück nur aufgenommen kann man durch eine
Prioritätsverhandlung sichern, dass man als ausübender Musiker an diesem

125
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Stück beteiligt war. Ist man sowohl ausübender Musiker, als auch Komponist in
einer Person wird natürlich beides gesichert.

Zum Beweis der Priorität hinterlegt man einen Datenträger, wo die Stücke als
Musik oder Noten gesichert sind, beim Rechtsanwalt vor, dazu ein Beiblatt wo
der Titel, die Abfolge, die Dauer der Stücke und deren Urheber und die an der
Aufnahme beteiligten Personen bezeichnet sind. Wenn einen die Urheberschaft
durch andere strittig gemacht wird, kann man durch die Hinterlegung beim
Rechtsanwalt, nun jederzeit rechtskräftig beweisen, dass man selbst tatsächlich
der Urheber des Werkes ist.

Zur Sicherung des Urheberrechts aber die Stücke per Einschreiben an sich
selbst zu schicken, ist kein ausreichender Schutz, da dieses Verfahren zu leicht
manipulierbar ist und vor Gericht daher nicht als ausschlaggebendes
Beweismittel gelten muss. Inwiefern verschiedene Anbieter, bei denen man
gegen eine Gebühr eigene Werke zur Aufbewahrung hinterlegen kann, einen
rechtlich geltenden Beweis über die Urheberschaft darstellen ist noch strittig, da
solche Dienstleistungen nicht der Hinterlegung bei einem Rechtsanwalt oder
Notar gleichkommen.

Urheberrechtsverletzungen –unnötige Sorge?!

Ob ein Song Potenzial hat oder nicht entscheidet nicht nur die Meinung des
Songwriters, sondern natürlich auch die Meinung des jeweiligen Hörers. Damit
ein Stück Gefahr also läuft als Plagiat von jemand widerrechtlich ganz oder
teilweise übernommen zu werden, ist es egal, wie der Songwriter selbst über
sein eigenes Stück denkt. Es geht also erst mal nur darum, ob es andere gut
finden und wie viele von diesen anderen, bereit wären, das Stück zu klauen.
Erst durch eine hohe Beliebtheit eines Songs erwächst die Gefahr, dass jemand
versuchen könnte geistigen Diebstahl zu begehen. Was würde es aber jemanden
nun konkret bringen einen Song zu klauen?! Geld natürlich, ein anderes Motiv
gibt es selten für solche Taten. Doch es müssen bestimmte Vorbedingungen
herrschen, damit der Dieb auch erfolgreich sein könnte. Dieser jemand müsste
es schaffen, damit einen gewissen kommerziellen Erfolg zu erlangen, der genug
finanziellen Gewinn garantiert. Ist der finanzielle Anreiz zu gering, wird auch
die Lust am Klauen verschwinden, es sei denn rein persönliche Motive spielen

126
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

eine Rolle. Dadurch scheidet schon einmal jede Form von nicht kommerzieller
Musik größtenteils aus, weil es dort in der Regel kein Hitpotenzial gibt.

Gelingt dem Dieb Erfolg mit dem Stück, dann ist die andere Frage, ob es
überhaupt glaubhaft ist, dass es wirklich aus seiner Feder stammt. Ist der Dieb
z.B. jemand, der schon zuvor etwas veröffentlicht hat oder noch künftig
veröffentlichen will (also durch das Plagiat seine künstlerische Kajerre
voranbringen will), dann muss es in die Reihe seiner Musik passen und also
auch von Stil, Qualität und Produktion her sich angleichen.
Er muss dann also nicht nur schauen, ob ihm das Stück gefällt und es
kommerziell erfolgreich werden könnte, sondern auch, ob es glaubwürdig wäre,
dass es von ihm ist.
Zur Not müsste er sich eine neue künstlerische Identität zulegen und dann mit
dem geklauten Material versuchen sich bekannt zu machen. Oder aber er
müsste seine Kompositionen unter verschiedenen Pseudonymen
veröffentlichen und von Vertragsmusikern darbieten lassen und lediglich als
(angeblicher) Komponist und Produzent im Hintergrund agieren. Dabei ist es
auch sehr wahrscheinlich, dass er das Stück mit eigenen Mitteln selber nochmal
neu produzieren muss bzw. lernen muss, es auch live zu spielen. Solange der
Dieb keine bevorzugte Stellung im Musikbusiness hat, wird es für ihn genauso
schwer werden ein Stück, mag es auch noch soviel Hitpotenzial haben, zu
kommerziellen Erfolg zu bringen wie für jeden anderen auch, also ein nicht
unerheblicher Aufwand.

Man kann also zusammenfassen: Es gibt nur wirtschaftliche Argumente, die


Musiker zum Stückeklau verleiten könnten. Nur um der Kunst willen, würde
keiner was stehlen. Ein wirklicher Künstler gibt sich nicht als Urheber von
Sachen aus, deren Urheber er nicht ist, - selbst wenn er Sachen von anderen
Leuten besser findet als die eigenen. Genauso ist ja auch jeder Vater auf seine
eigenen Kinder stolz ist und niemals zu einen fremden Kind so sehr stehen
würde, wie zudem, dass er selbst erschaffen hat, - selbst wenn das fremde Kind
„besser“ wäre. – Jeder Künstler ist im Prinzip ein solcher Vater! Da tausende
von MP3s im Internet kursieren und die Labels zugepflastert mit
Demoeinsendungen werden, ist es sehr unwahrscheinlich, dass ein Dieb ohne
gute Kontakte es leichter hat sich dort zu etablieren als die ehrlichen Musiker.
Da heutzutage die meisten Plattenlabels ihren Musiker nicht viel Vergütung
bieten können und große Plattenfirmen eher auf gecastete Gruppen und

127
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Künstler setzen bzw. auf bereits bestehende Topacts, ist geistiger Diebstahl
selten und selbst wenn er vorkommt musst der Urheber diesen Diebstahl erst
mal bemerken und das geschieht normalerweise erst, wenn die geklauten
Sachen kommerziell auf gewisse Weise erfolgreich werden. Deshalb kann man
davon ausgehen, dass Ideenklau entweder kaum bemerkt wird oder kaum
stattfindet. Insofern ist die Angst vor Ideenklau zunächst einmal nur eine
gedankliche Annahme, mit der man sich selbst Angst machen kann oder auch
nicht. Man könnte es tatsächlich als Beschützerinstinkt werten, dass Leute oft
so besorgt sind um ihre Werke. Genauso wie ein Vogel der seine Eier im Nest
bewacht. Dennoch ist es in keinster Weise zu verharmlosen, dass es jeden
kränkt, wenn das, was er geschaffen hat von anderen missbraucht wird, - selbst
wenn der Dieb damit keine finanziellen Erfolge erzielt. Daraus entstehendes
böses Blut und es kommt leicht zu persönliche Auseinandersetzungen, die für
beide Seiten eine Belastung werden können.

Ziehen wir nun das Pferd von hinten auf: Angenommen ein Künstler ist seit
einiger Zeit im Musikbusiness erfolgreich tätig und macht damit sein gutes
Geld. Aufeinmal kommt eine bis dato unbekannte Band und behauptet, „er“
hätte ihr Stücke geklaut und seine Top-10 CD besteht in Wirklichkeit aus den
Stücken ihrer ersten, nun schon drei Jahre alten, Demo-CD. Nun kommt diese
Band mit einen Prioritätsvertrag vom Rechtsanwalt an: Sie haben einfach
bereits vor drei Jahren die Stücke des inzwischen bekannten Künstlers auf ihren
Namen als Urheber hinterlegen lassen.

Die inoffizielle Vorgeschichte davon ist folgende: Die Band lernten denn
damals unbekannten Künstler auf einer Party in der hiesigen Dorfscheune
kennen. Er hatte ihnen zum musikalischen Austausch ein Demo mitgegeben,
das Demo gefiel der Band so gut, dass sie später dessen Stücke heimlich für ihr
Repertoire klauten, neu aufnahmen und sich das Urheberecht beim
Rechtsanwalt sichern ließen. Jetzt wo der sonst unbekannte Künstler als erster
Erfolg hatte mit diesen Stücken, freut sich die Band, denn Sie können nun als
angeblich rechtmäige Urheber Klagen einlegen. Hat der Künstler aber als erstes
seine Musik in einer Prioritätsverhandlung geschützt, was die Band ja nicht
sicher wissen kann, dann würde die Band zu Recht als Betrüger dastehen. Doch
was, wenn der Künstler es versäumt hätte seine Stücke frühzeitig zu schützen?
Um es anzudeuten: Ein Künstler, der grade eine Kajerre mit seiner Musik
anfängt, erste beachtliche kommerzielle Erfolge hat oder über gesunde

128
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Beziehungen verfügt, wird sicher schnell einen Anwalt finden, der für einen
kleinen Aufschlag oder aus Gefallen eine Prioritätsverhandlung anfertigt, die
dem Künstler hilft sein Problem zu lösen. Schließlich hat nicht nur der
Künstler selbst Interesse daran, dass seine Kajerre weitergeht, sondern auch die
dahinterstehende Plattenfirma und alle anderen Beteiligten. Solche
Manipulation wäre natürlich gesetzlich nicht gerechtfertigt, was aber nicht
heißt, dass so etwas nicht geschehen „könnte“. Wenn nun eine andere Band
ankommt und behauptet, der eigentliche Urheber zu sein, ist das also eine
Bedrohung. Deshalb werden solche Streitfälle vorab meist auch
außergerichtlich durch hohe Zahlungen geklärt. Alles nur auf die
Prioritätsverhandlung zu setzen ist aber nicht nötig, denn ein Richter wird
dieser zwar viel Beweiskraft zugestehen, aber auch noch andere wichtige
Punkte beachten. Wenn jemand anhand zahlreicher Aufnahmen, Noten,
Zeugenaussagen und allgemein überzeugenden Auftreten dokumentieren kann,
dass er der rechtmäßige Urheber ist, wird er das auch ohne
Prioritätsverhandlung beweisen können. Letztendlich liegt es also nicht nur an
den Beweisstücken (Prioritätsverhandlung), sondern zu einen großen Teil auch
im Ermessen des Richters wie er diese Beweisstücke wertet, besonders wenn
die Sachlage nicht eindeutig ist.
Denn wenn die mächtigere, aber absolut unglaubwürdige Gegenpartei
aufeinmal eine frühzeitigere Prioritätsverhandlung aus dem Ärmel zaubert und
dadurch die Urheberschaft für sich gewinnt, wäre das ein sehr seltsames Ende.
Normalerweise kommen solche Betrügereien natürlich nicht vor und es soll
auch niemanden hier solche Absichten und Taten unterstellt werden. Viel eher
sollte klar werden, dass es absolute Sicherheit nicht geben kann, denn selbst
manche Richter sind korrupt und sind auch nur Menschen. Ein Spiel kann eben
nur funktionieren, wenn sich alle an die Regeln halten und auch alle mitspielen
wollen. Meistens liegt die Angst vor Ideenklau auch nur an der Überschätzung
der eigenen Kompositionen und an der Angst vor finanziellen Nachteilen, die
durch einen geistigen Diebstahl entstehen könnten. Viele malen sich immer
noch aus, dass ihr Song die große geheime Aktie wäre, die sie eines Tages in
ihre eigene Neverlandranch bringen würde, wo es dann heißt „Rock n` Roll
dreams come true“ , - aber so was ist so wahrscheinlich wie ein 6er im Lotto.
Natürlich ist aus der persönlichen Sichtweise heraus, die eigene Komposition
oft sehr gut, wenn nicht genial. Da aber jeder komplett andere Vorstellungen
davon hat, was gut ist und was nicht, wird dies alles sehr relativiert, so dass man
sich fragen muss, ob man das überhaupt pauschal beurteilen kann. Die

129
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Erfolgsquoten von Betrügern sind in der Praxis wirklich nur minimal und
sicherlich wird jemand, dem es um Geld geht, mit allen anderen Betrugsarten
mehr und schnellere Erfolge einkassieren, als mit geistigen Diebstahl.

130
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Anhang

Diverse Grafiken

Bild: Töne der Klaviatur und ihre


Frequenzen bei einer Stimmung von
a1=440 Hz.

131
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Bild: Zuordnung der Werte der Gitarren-Tabulatur zu Klaviatur und


Notensystem
Tonumfang und Zuordnung zur Klaviatur für männliche Stimmlage (Bass,
Tenor), weibliche Stimmlage (Sopran), Streichinstrumente (Cello, Viola,
Violine) und E-Gitarre sowie klassische Konzertgitarre.

132
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

432 Hertz – Musik in neuen Tönen

Musiker stimmen ihre Instrumente nach einen bestimmten Bezugston, der für
jedes Instrument immer derselbe ist, der sog. Kammerton. Erst dadurch kann
ein harmonisches Zusammenspiel ermöglicht werden. Da es für diesen
Kammerton immer Mal wieder unterschiedliche Definitionen gab, einigte man
sich 1939 in London darauf, den Kammerton mit a1 = 440 Hz festzulegen.
Diese Wahl war rein willkürlich und es wurde heftig dagegen demonstriert,
jedoch fand dies in den Wirrungen des 2. Weltkrieges keine Beachtung mehr.
Seitdem wird bevorzugt auf dieser Stimmung musiziert, aber nicht alle folgten
dieser Einigung: Z.B. benutzen einige Orchester eine höhere Stimmung um
einen brillanteren Klang zu erzielen oder Intonationsprobleme bei
Blasinstrumenten korrigieren zu können und in den USA wird bisweilen gar mit
einen Kammerton von a1 = 450 Hz gearbeitet.
1950 setzte die Pariser Académie des Sciensces den Kammerton für Frankreich
auf a1 = 432 Hz herab. Auch schon zu früheren Zeiten wurde generell ein
Kammerton gewählt, der tiefer liegt als 440 Hz. Mozarts Stimmgabel war auf
421,6 Hz geeicht. Würde eine Musik auf einen tieferen Kammerton als 440 Hz
nicht auch in den meisten Fällen viel eher den ursprünglichen
Klangvorstellungen des Komponisten gerecht werden?
Der Kammerton von a1 = 432 Hz war also in der Vergangenheit durchaus
geläufig, dies war übrigens auch der alte englische Kammerton. Giuseppe Verdi
(1813-1901) erließ 1884 gar ein Dekret, was die Musiker anwies, sich auf den
Kammerton von c= 126 Hz zu beziehen, - dies entspricht a1 mit 432 HZ! Die
Funde alter ägyptischer Instrumente zeigen, dass deren Instrumente auch
überwiegend auf 432 Hz gestimmt waren, ebenso die Instrumente der alten
Griechen und vieler alter Urvölker. Auch die Instrumente des indischen
Raumes waren und sind auf Frequenzen basierend auf 432 Hz gestimmt, -
selbst der berühmte Ton „Om“ basiert auf dieser Schwingung, er wird auch als
Erdton bezeichnet, da er sich aus der Eigenschwingung der Erde ableitet.
Warum also wird seit Urzeiten eine Stimmung bevorzugt, die tiefer liegt als 440
Hz, und warum kristallisieren sich dabei gerade die 432 Hz so sehr heraus? Die
Ursache hierfür scheint in den menschlichen Hörgewohnheiten und in unserer
Biologie zu liegen, der Musik basierend auf 432 Hz am besten gerecht wird. So
schwingt das Cortische Organ im Innenohr, welches auch für den
Gleichgewichtssinn verantwortlich ist, auf c 126 Hz (dies entspricht a mit 432

133
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

HZ!) Deswegen benutzen auch Ohrenärzte und Neurologen Stimmgabeln mit c


126 Hz bzw. c 256 Hz (>eine Oktavehöher als das c mit 126 Hz!). Aus diesen
Schwingungen leitet sich auch der Kammerton von a1 mit 432 Hz ab! Auch in
der Musiktherapie werden solche Schwingungen benutzt, da sie eine sedierende
(entspannende) Wirkung hervorrufen und somit Schmerzen, und Streß lösen
können, - die heilende Wirkung des Kammertons mit a 432 Hertz ist in der
Schulmedizin mittlerweile allgemein anerkannt.

Joseph Sauveur (1653-1716) konnte als einer der ersten beweisen, dass sich aus
der Frequenz c = 256 Hz auch die Schwingungszahlen der Stimmbänder beim
Singen und die der Lippen beim Blasen und Pfeifen ableiten lassen, sowie alle
Eigentöne mittönender Rezonanzkörper, die Hohlräume im menschlichen
Körper und selbst die kaum wahrnehmbar kleinen Intervalle des
Vogelgesanges. Musik auf 432 Hz ist im Stande alle Obertöne hervorzubringen,
wohingegen Musik auf 440 Hz nur 8 Obertöne durchkommen lässt. Auch der
Mathematiker Johannes Kepler (1571-1630) ermittelte für den Kammerton das
C mit 126 Hz (und somit die davon abgeleiteten 432 Hz für das a1!)

All diese Frequenzen sind ein Vielfaches von 8 Hz und somit auf 8 Hz
zurückzuführen, was hat es aber nun wiederum mit diesen 8 Hz auf sich? Die
Welt scheint auf diesen 8 Hz getaktet zu sein, so beträgt die Frequenz der Erde
(Schumann Frequenz) 8 Hz und auch die Kommunikation zwischen unseren
beiden Gehirnhälften mittels der Alphawellen erfolgt auf 8 Hz! Der zu 90%
ungenutzte Neocortex des Gehirns wird durch Schwingungen basierend auf 8
Hz vollständig aktiviert. Im Institute of Heartmath in USA wurde festgestellt,
dass ein menschliches organisches Herz im Zustand der Liebe auf 8 Hz
schwingt. Der Atomphysiker Dr. Robert Beck, ist um die ganze Erde gereist,
um die Gehirnströme von Heilern zu messen. Erkam zu den Ergebnis, dass alle
Heiler während ihrer Heilarbeit das gleiche Gehirnwellenmuster von 7,8 - 8 Hz
aufweisen, unabhängig von ihrer Methode oder den Widersprüchen Alles pure
Zufälle? Delphine sind dank ihres hochentwickelten Gehörs im Stande diese 8
Hz und somit auch unsere Gehirnaktivität z hören. Wir selbst hingegen können
nur ein vielfaches dieser Frequenz wahrnehmen, z.B. 72 Hz (9 × 8 Hz), 144 Hz
(18 × 8 Hz) und (54 × 8 Hz = 432 Hz!) Die 8 Hz findet sich auch wieder in der
DNA, die in der 66. Oktave der Eigenfrequenz unserer Erde schwingt

134
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

(=00,00001157Hz), denn die 64 Codons der D.N.A. geben uns einen weiteren
indirekten Verweis zur 8, denn die 64 ist die Summe von 8 × 8!

Eine weitere auf 8 Hz basierende Schwingung ist 72 Hz, - auch hier gibt es
Auffälliges: So fällt es dem Herzen am leichtesten, Blut in die endokrinen
Drüsen zu leiten, wenn es mit 72 Schlägen die Minute arbeitet, - dies entspricht
dem normalen Herzschlag. Die 72 findet man auch in Zusammenhängen von
kosmischer und kultureller Bedeutung wieder, so ändert sich der sog.
„Frühlingspunkt“ durch die Pendelbewegung der Erdachse alle 72 Jahre um
einen Grad. (Der Frühlingspunkt ist die geozentrisch beobachtete
Sonnenposition zur Tagundnachtgleiche im Frühling.) Bei den Meru-Pyramide
von Borobodur, Java findet man 72 Stuppas und 432 Buddhas und in der
jüdischen Kabbala ist die Rede von 72 Gottesnamen. mDie Zahl 432 begegnet
uns auch wieder im Maßstab vieler Bauwerke alter Hochkulturen und der Gizeh
Pyramide (1 : 43.200), - ferner beträgt eine Seitenlänge dieser Pyramide 432
Erdeinheiten. 43.200 ist zudem genau die Hälfte der Sekunden eines Tages und
beschreibt damit den Zeitraum von 12 Stunden, also einer halben Umdrehung.

(Eben diese Zahl 12 hatte in vielen Kulturen eine wichtige Bedeutung. Beispiele
der Verwendung der 12 sind die 12 Monate im Jahr, zweimal 12 Stunden pro
Tag, 12 Tierkreiszeichen, 12 Zeichen in der chinesischen Astrologie.
In vielen europäischen Sprachen gibt es eigene Zahlennamen für 11 ("elf") und
12 ("zwölf"). Dies weist, wie auch die Verwendung des Dutzend, auf eine breite
Verwendung der Basis 12 hin. Zusätzlich hat die 12 die Eigenschaft, durch
relativ viele Zahlen teilbar zu sein (2, 3, 4, 6), was ihre Verwendung als
Größeneinteilung (z.B. bei Zoll und Fuß) zur Folge hatte. )

Doch kommen wir nun anstatt uns weiter mit symbolischen (analogen) und
mathematischen Verhältnissen zu beschäftigen, die manch einer aus
Unwissenheit vielleicht nur als zahlenmystische Spekulation und bloße
Zufälligkeiten oder esoterischen Schwachsinn belächeln wird, wieder auf die
tatsächlichen Erfahrungen und Zusammenhänge mit Musik basierend auf 432
Hz.

Es wurde in der Praxis festgestellt, dass sich im Gegensatz zu höheren


Stimmungen viel leichter und natürlicher singen lässt und das Interferenz- und
Inharmonizitätswerte im Klangspektrum wieder belebend wirken.

135
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Klanganalysen des Klavierbauers Andreas Wenig bestätigen, dass in sich


geschlossene Spannungsböigen im gesamten Klangbild (also Teiltonspektrum
und seine Überlagerungen, Hüllkurven und Interferenz-/Inharmonizitätswerte
etc.) am intensivsten bei 432 Hz und ähnlichen vorkommen.
Bässe und Mitten scheinen mehr an Prägnanz zu gewinnen und die Höhen
wirken musikalischer und reiner. Diese Erfahrungen bestätigen viele, sobald sie
ihre Instrumente auf den Bezugston 432 Hz einstimmen. Das Schillerinstitut
setzt sich erfolgreich für die Darbietung von Musik in dem von Verdi damals
geforderten Stimmton mit 126 Hz ein! (entspricht c 256 bzw. a 432Hz)! In
einer Publikation des Instituts aus dem Jahre 1992 namens „A Manual on the
Rudiments of Tuning and Registration, Vol. I, Introduction and Human
Singing Voice“, wird demonstriert dass ein Kammerton von C=256 (entspircht
a 432 Hz) in den physikalischen Gesetzen unseres Universums begründet ist.
Das Schillerinstitut setzt sich zusammen mit zahlreichen Musiker dafür ein den
Kammerton wieder auf die von Verdi geforderte Stimmung zu bringen, um
somit die klassische Musik von Bach bis hin zu Verdi, wieder so klingen zu
lassen, wie sie klingen sollte. Der weltberühmte Verdi Bariton Piero Cappuccilli
hat zudem beweiskräftig dargestellt wie nachteilig die heutige Stimmung von
440 Hz für den Gesang ist. Auch viele zeitgenössische Musiker haben bereits
die Vorteile von Musik auf 432 Hz erkannt und engagieren sich für deren
Verbreitung. Heutzutage lässt sich nahezu jedes Instrument leicht auf den
Kammerton von 432 Hz einstimmen.

136
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Impressum
Arrange Mixing & Mastering Studio

www.arrange-tonstudio.de

Audio-Mastering-Guide

Copyright © 2005 by Michael Horn

Autor: Michael Horn

Layout und Gestaltung: Michael Horn

Stand: Oktober 2005

Arrange
Michael Horn
Wasbekerstr. 133
D-24534 Neumünster

137
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

138
Arrange Mixing & Mastering Studio Audio-Mastering-Guide

Mixing und Mastering sind die Kardinalthemen der Audiobearbeitung und für jeden, der seine
Stücke professionell klingen lassen will ist dieses Buch der richtige Schritt dorthin.
Mixing und Mastering ist ein Prozess der mit vielen anderen Themen der Audiobearbeitung
verknüpft ist. Fehlt es dort an Hintergrundwissen führt dies schnell zur falschen Arbeitsweise
und dadurch zu mangelhaften Ergebnissen.
Daher wird in diesem Buch alles an Wissen vermittelt was man für Mixing und Mastering im
digitalen Bereich braucht. Dazu gehören z.B. Dithering, Bitrate, Raumakustik, Schalldämmung,
Kenntnisse über Dynamikbearbeitung und psychoakustische Effekte, Studiomonitore und vieles
mehr. Darüberhinaus gibt es wichtige Infos zum Thema Urheberrechtsschutz und ein Traktat
zur Bekanntmachung des Kammertones auf Basis von 432 Hertz. .

Der Audio-Mastering-Guide räumt mit vielen Vorurteilen und Fehlannahmen im Bereich


Audiobearbeitung auf und wendet sich an alle die Kenntnisse in Audiobearbeitung erlangen
und vertiefen wollen, egal ob Anfänger oder Fortgeschrittene: Homerecordler, Musiker,
Producer etc. Das Wissen kann leicht auf die praktische Arbeit im Homerecording- und Studio-
Alltag übertragen werden. Die Themenabfolge und Begriffe werden so beschrieben, dass ein
roter Faden entsteht, der Gesamtzusammenhänge noch besser verständlich macht.

139