Sie sind auf Seite 1von 43

Erweiterung des Panoramas und der

Lokalisation in 2-Kanal-Stereo-Mischungen


Wie unser Ohr die Richtung des Schalls bestimmt und wie
man diese zweckmig manipuliert








Name: Thomas Abbrederis
Kurs: AEDS 412
Instiution: SAE Wien
Datum: 13.2.2014
Wordcount: 8976




In der vorliegenden Arbeit werden die Bezeichnungen [Hrer, Proband, ] soweit nicht
explizit angegeben fr beide Geschlechter verwendet, wobei diese Verkrzung einzig und
allein auf eine Erleichterung der Leseflusses abzielt.


Inhaltsverzeichnis

1. Einleitung.........................................................................................................................1
1.1 Thematische Hinfhrung ..........................................................................................1
1.2 Forschungsfrage.......................................................................................................1
1.3 Ziel der Arbeit ...........................................................................................................2
2. Theoretische Funktionsweise der Richtungsortung ...................................................3
2.1 Die Anatomie des Gehrs ........................................................................................3
2.2 Koinzidenzeffekt .......................................................................................................5
2.3 Frequenzunterschiede..............................................................................................5
2.4 Pegeldifferenzen.......................................................................................................7
2.5 Laufzeitdifferenzen ...................................................................................................7
2.6 Lokalisationsschrfe.................................................................................................8
2.7 Akustische Phnomene der Lokalisation................................................................10
3. Praktische Anwendung im Mix ....................................................................................12
3.1 Verbreiterung in der Horizontalebene.....................................................................12
3.2 Panning ..................................................................................................................14
3.3 Hinzufgen einer Medianebene..............................................................................18
3.4 Hinzufgen einer Frontalebene ..............................................................................20
4. Probleme........................................................................................................................24
4.1 Hrsituation ............................................................................................................24
4.2 Verschiedene Ohrformen .......................................................................................24
4.3 Monokompabilitt ...................................................................................................25
4.4 IKL ..........................................................................................................................25
4.5 Kopfbewegungen....................................................................................................25
4.6 Signalart .................................................................................................................26
4.7 Klangqualitt ...........................................................................................................27
4.8 Optische Verknpfung ............................................................................................27
5. Audiobeispiele...............................................................................................................28
5.1 Jules Attic Coldest Night......................................................................................28
5.2 Matt Morgan Raise Your Voice............................................................................30
5.3 Lets Go Radio Shape Your Fate .........................................................................31
5.4 Weitere Beispiele....................................................................................................33
6. Fazit ................................................................................................................................34
6.1 Derzeitige Marktsituation ........................................................................................34
6.2 Zusammenfassung .................................................................................................36
6.3 Ergebnisse..............................................................................................................36


Abbildungsverzeichnis

Abbildung 1 Gehrgang ...........................................................................................................4
Abbildung 2 Jeffress Modell ....................................................................................................5
Abbildung 3 HRTF Horizontale + Mediane...............................................................................6
Abbildung 4 Lokalisationsunschrfe nach Signaltyp ................................................................9
Abbildung 5 Lokalisationsunschrfe nach Frequenz................................................................9
Abbildung 6 Benennung der 3 Dimensionen..........................................................................12
Abbildung 7 HRTF Horizontale mit mehreren Versuchspersonen .........................................15
Abbildung 8 HRTF Horizontale summiert...............................................................................16
Abbildung 9 Zeitversatz Horizontale.......................................................................................17
Abbildung 10 Phasenlage Horizontale ...................................................................................17
Abbildung 11 Blauert Lokalisation hinten ...............................................................................19
Abbildung 12 Blauert Lokalisation vorne................................................................................19
Abbildung 13 Blauert Lokalisation oben.................................................................................21
Abbildung 14 HRTF Frontale..................................................................................................21
Abbildung 15 Lokalisation Frontale - Versuchsaufbau...........................................................22
Abbildung 16 Blauertsche Bnder .........................................................................................23
Abbildung 17 Drehbeweungen zur Lokalisation.....................................................................26

1
1. Einleitung

1.1 Thematische Hinfhrung

Die Wiedergabe ber Stereolautsprecher verflscht die Realitt. Das Schallereignis befindet
sich bei Mischen auf 2 Kanlen auf lediglich einer Ebene; links und rechts. Gehrt wird
deshalb ein nur noch 1-dimensionales Schallereignis. Da die meisten Wiedergabegerte nur
2 voneinander unabhngige Lautsprecher haben, gilt es herauszufinden, wie das einstige
und bei der noch Aufnahme 3-dimensionale Hrerlebnis auf die jeweilige Hrsituation
transferiert werden kann.

Zunchst muss jedoch der Begriff stereo konkretisiert werden. Eigentlich bedeutet stereo
im Gegensatz zu mono, einen 3-dimensionalen Raumeindruck zu vermitteln. Das heit, dass
der Begriff stereo synonym fr die Wiedergabe von 2 oder mehr Lautsprechern verwendet
werden kann. (Gardner 1997, S. 21) In der folgenden Arbeit steht stereo jedoch
stellvertretend fr die Wiedergabe mit zwei Lautsprechern, wo auch der Schwerpunkt des
Themas liegt. Das heit, dass ebenso die Wiedergabe ber Kopfhrern nicht Teil dieser
Arbeit ist.
Es wird erlutert werden, wie Schall wahrgenommen und im Kopf verarbeitet wird. Dann wird
zurckgegriffen und auf das eigentliche Signal eingegangen und besprochen, welche
Parameter fr die Richtungslokalisation ausschlaggebend sind. Nur so ist es im mglich
herauszufinden, wie bei einer Wiedergabe durch Stereolautsprecher Schall so verndert
werden kann, dass die Lokalisation getuscht wird.

Die Hypothese, die es zu untersuchen gilt lautet, ob es durch das gezielte Tuschen mglich
ist, einen Rundumklang beim Hrer zu schaffen, welcher nicht nur auf einer Ebene zwischen
den Lautsprechern stattfindet, sondern auch auerhalb 3-dimensional um den Hrer platziert
werden kann.

1.2 Forschungsfrage

Die vorliegende Arbeit stellt sich zur Aufgabe, herauszufinden welche Methoden es gibt, um
Schallsignale aus 2-Kanal-Stereolautsprechern rumlich grer erscheinen zu lassen als sie
tatschlich sind. Ferner soll untersucht werden, wie eine Mischung zu bearbeiten ist, sodass
einzelne Signale nicht zwischen, sondern flschlicherweise auerhalb der Lautsprecher

2
gehrt werden. Dies wre ein entscheidender Fortschritt fr eine Mischung, da eine grere
rumliche Trennung vorgenommen werden kann. Schlussendlich kann damit auch das
Hrgefhl intensiviert werden, indem die Beschallung nicht nur mehr von vorne, sondern
auch vermeintlich aus mehreren Richtungen erfolgt. Das Klangbild erstreckt sich also um
den Hrer herum.

1.3 Ziel der Arbeit

Ziel dieser Arbeit ist es, die Mglichkeiten aufzudecken, die es gibt, die vermeintliche
Lokalisierung von Schallquellen im Raum beliebig zu positionieren, obwohl der Hrer die
Signale nur aus Stereolautsprechern konsumiert. Dafr wird zunchst erlutert, wie das
Gehr Schall aufnimmt und das Gehirn Richtungsinformation auswertet. Auf Basis dieses
Wissens knnen dann psychoakustische Phnomene beschrieben werden, die beim
Richtungshren entscheidend sind. Ist die Funktionsweise der Lokalisation erklrt, so wird im
Folgenden darauf eingegangen werden, wie diese manipuliert werden kann. Der
praxisbezogene Teil dieser Arbeit zeigt, wie verschiedene Effekte in Stereomischungen
eingesetzt werden knnen und wie sich diese auf den Hrer auswirken. Da hierbei auch
einige Probleme auftreten werden, ist auch ein Thema der kritischen Reflexion gewidmet.
Anschlieend werden drei Produktionen erlutert, die die Vor- und Nachteile der
Manipulation der Richtungsortung aufzeigen und einen grtmglichen Praxisbezug
herstellen sollen.

3
2. Theoretische Funktionsweise der Richtungsortung

Um verstehen zu knnen, wie man die Schalllokalisation verndern kann, muss zunchst
besprochen werden, aus welchem Grund wir berhaupt verschiedene Klnge im Raum
lokalisieren knnen. Durch die Erluterung der Funktionsprinzipien ist es erst mglich, die
Richtungsortung anschlieend mit technischen Mitteln zu manipulieren.

2.1 Die Anatomie des Gehrs

Die Funktionsweise der Ohren eines Menschen ist sehr komplex. Der folgende Abschnitt soll
lediglich einen berblick zeigen, wie die Prozesse des Hrens und speziell die des
Richtungshrens funktionieren.
Das Ohr ist grundstzlich in drei verschiedene Bestandteile zu Gliedern, die alle fr das
Hren selbst, sowie auch teilweise fr die Richtungsortung verantwortlich sind.

2.1.1 Auenohr

Das Auenohr bezeichnet die sichtbare Ohrmuschel am Kopf. Es fngt und bndelt die
Schallsignale, die dann weiter in den Gehrgang zum Mittelohr geleitet werden. Durch die
Form des Auenohrs kommt es bei der Aufnahme von Schall zu Vernderungen des
ursprnglichen Frequenzspektrums sowie einer berlagerung von Direktschall und
Reflexionen der Ohrmuschel. Es entstehen Kammfiltereffekte und Pegeldifferenzen, die so
durch die Form des Auenohrs herbeigefhrt werden. Die Auswertung dieser Artefakte
macht einen Groteil der Lokalisationsfhigkeit aus. (Grne 2008, S. 103-105)
(Hellbrck/Ellermeier 2006, S. 151)

2.1.2 Mittelohr

Das Mittelohr besteht im Wesentlichen aus den drei Knochen Hammer (Maleus), Amboss
(Incus) und Steigbgel (Stapes). Sie fungieren als wie eine Art mechanischer
Audioverstrker, da das Signal, welches zu diesem Zeitpunkt noch aus bewegter Luft
besteht, sich im Innenohr, durch die Umwandlung der Bewegung in einer Flssigkeit,
fortbewegt. Die Verstrkung wird erreicht durch die Hebelwirkung der Gehrknchelchen
(Hammer, Amboss, Steigbgel), sowie durch eine bertragung der Energie vom greren

4
Trommelfell auf das kleinere ovale Fenster, welches die Schnittstelle zum Innenohr darstellt.
(Gauggel/Herrmann 2008, S. 377-378)

2.1.3 Innenohr

Im Innenohr befindet sich die so genannte Cochlea, die schlussendlich die Signale auswertet
und somit das eigentliche Hrorgan bildet. Sie besteht ebenfalls aus 3 Teilen, die Scala
vestibuli, die Scala media und die Scala tympani. Die Scala vestebuli und die Scala tympani
bilden Gnge, durch die die Flssigkeit (Perilymphe) sich im Innenohr hindurchbewegen
kann. Die Perilymphe im Innenohr wird durch das Ovale Fenster angeregt und leitet die
ehemaligen Schallimpulse auf die Basilarmembran, die die Scala media nach unten
abgrenzt, weiter. Auf der Membrane entstehen, je nach Frequenz verschiedene
Schwingungen an verschiedenen Orten, die anschlieend vom Corti-Organ erfasst werden.
Im Corti-Organ befinden sich 16.000 sensorische Hrchen, die unter einer gallertartigen
Schicht liegen (Tektorialmembran). Diese Hrchen reagieren ebenfalls unterschiedlich auf
verschiedene Frequenzen und sind dementsprechend auch lokal strukturiert. Durch die
Basilarmembran wird die Bewegung auf die Tektorialmembran und somit die Hrchen
weitergegeben. In der Scala Media befindet sich ebenfalls eine Flssigkeit, die mit Kalium
angereichert ist und Ionenkanle in der Membrane der Haare anregt. So entsteht schlielich
ein Impuls, der dann an das Gehirn weitergeleitet werden kann. (Gauggel/Herrmann 2008, S.
377-380)

Abbildung 1: Ausgerollte Schnecke, im kleinen Bild ist die eigentliche Form dargestellt
(Gauggel/Herrmann 2008, S. 378)

5
2.2 Koinzidenzeffekt

Neben der Fhigkeit, Frequenzen genau zu hren und analysieren, ist es fr das rumliche
Hren berdies enorm wichtig, geringste zeitliche Unterscheide zwischen den Signalen, die
binaural gehrt werden, festzustellen. Das Gehirn muss deshalb stndig den eintreffenden
Schall in beiden Ohren vergleichen und auswerten. Ein sehr komplexes, neuronales
Verfahren, welches das so genannte Koinzidenzmodell oder Jeffress Modell (1948 erstmals
von Jeffress vorgestellt) beschreibt. (Hellbrck/Ellermeier 2006, S. 151)


Abbildung 2: Jeffress Modell (Stern/Wang/Brown 2006, S.11)

Fr das rechte und linke Ohr gibt es mehrere Zeitschwellen, die miteinander verglichen und
dann auf ihre Koinzidenz berprft werden. Kommt beispielsweise ein Signal auf der rechten
Ohrmuschel frher an, so wandert es ber mehrere Zeitkonstanten (als !T gekennzeichnet)
nach links, bis es sich mit dem von links kommenden Signal trifft. An dieser stelle werden die
Signale an einen Koinzidenzpunk (als X gekennzeichnet) weitergefhrt, wo dann die
verschiedenen Outputs einem Zeitunterschied zugeordnet sind. Es wird also anhand der
Zeit, die das rechte Signal braucht, bis es mit dem Linken zusammenluft, der zeitliche
Unterschied von eintreffenden Signalen festgestellt. (Stern/Wang/Brown 2006, S. 2 ff.)
Weshalb eine sehr genaue zeitliche Unterscheidung fr das rumliche Hren so wichtig, und
wofr dies fr dessen Manipulation von groer Bedeutung ist, wird in den folgenden
Abschnitten dieses Kapitels besprochen.

2.3 Frequenzunterschiede

Der Aufbau des menschlichen Ohrs und das Zusammenspiel mit dem Gehirn, das aus
Erfahrungen Klangfarben einer bestimmten Richtung zuordnen kann, lsst uns Schall an

6
einer bestimmten Position hren. Die Ohrmuschel gleicht dabei einem Entzerrer, der je nach
Einfallswinkel der Schallwellen einen bestimmten Frequenzgang hat.

Durch lebenslange Hrerfahrung ist es auf diese Weise mglich, die gefilterten Frequenzen
zu entschlsseln und einer Position im Raum zuzuordnen. Man kann daher, wenn auch nur
erschwert, auch mit nur einem funktionsfhigen Ohr Schall lokalisieren. Da kein Ohr dem
anderen gleicht, hnlich wie bei einem Fingerabdruck, haben auch alle einen
unterschiedlichen Frequenzgang, sodass jeder Mensch Schall aus verschiedenen
Richtungen unterschiedlich wahrnimmt. (Jecklin 2003, S. 10-11)
Dennoch sind die Abweichungen der Ohrmuscheln nicht allzu gro und es knnen
bestimmte Frequenzen festgestellt werden, die bei allen Menschen hnlich auftreten. Je
nach Einfallswinkel des Schalls treten sehr schmalbandige Kammfiltereffekte auf, die um fast
20 dB vom eigentlichen Signal abweichen knnen. Ein Versuch mit verschiedenen
Probanden zeigt folgende Parallelen auf: (Grne 2008, S. 103-104)

Abbildung 3: Frequenzunterschiede am Ohr bei Beschallung aus verschiedenen Richtungen
(Grne 2008, S. 104)

7
Dieses Phnomen wird im Englischen auch head related transfer function kurz HRTF oder
zu deutsch Auenohrbertragungsfunktion genannt. Es beeinflusst jedoch nicht nur wie
dargestellt die Horizontalebene, sondern auch das Empfinden von vorne und hinten sowie
oben und unten. Bei der Wiedergabe mittels Kopfhrern, kann beispielsweise durch Plugins,
die durch eine Impulsantwort des Gehrs dessen Frequenzgang nachbilden, eine Surround
Mischung in Stereo aufgeteilt und beliebige Positionen von Schallquellen simuliert werden.
(Grne 2008, S. 105)
Diese Arbeit fokussiert sich jedoch auf die Wiedergabe durch 2-Kanal Lautsprecher, wofr
genannte Erkenntnisse unter anderem auch eine groe Rolle spielen werden. Wie dies
realisiert wird, wird im 3. Kapitel besprochen.

2.4 Pegeldifferenzen

Ein weiteres, wichtiges Mittel zur Positionierung von Schallereignissen sind kleine
Intensittsunterschiede, die sich durch den Abstand unserer Ohren zueinander, sowie dem
Kopf als Trennkrper dazwischen ergeben. Je direkter der Schall seitlich auf ein Ohr eintrifft,
desto grer sind diese Unterschiede. Sie sind allerdings auch frequenzabhngig; das heit
je niedriger die Frequenz, desto grer die Schallwellen und desto weniger wirkt unser Kopf
auch als Hindernis. Hohe Frequenzen kommen nur schwer um den Kopf herum, sodass
grere Intensittsunterschiede entstehen und die Lokalisierung leichter fllt. (Jecklin 2003,
S. 11) Der Abstand zwischen beiden Ohren betrgt im Durchschnitt 17 cm. Das bedeutet,
dass fr Signale, deren Wellenlnge 2 kHz oder grer ist, der Kopf ein Hindernis darstellt.
Bei diesen Frequenzen ergeben sich Intensittsunterschiede, die vom Gehirn ausgewertet
werden knnen. (Grne 2008, S. 118-119) Versuche mit Kopfhrern haben gezeigt, dass
das Gehirn imstande ist, Intensittsunterschiede von minimal 0,5 bis 1,5 dB wahrzunehmen
und zu verarbeiten. (Karnath/Thier 2003, S. 189-191)

2.5 Laufzeitdifferenzen

quivalent zu Pegeldifferenzen knnen wir tiefere Signale durch unterschiedliche
Laufzeitdifferenzen zwischen den Ohren unterscheiden. Der Schall muss bei einem
seitlichen, rechtwinkligen Einfallswinkel im Schnitt etwa eine Strecke von 21 cm um den Kopf
herum zurcklegen, bis er beim gegenberliegenden Ohr ankommt. Das entspricht maximal
etwa 0,6 ms Zeitversatz oder etwa einer Periode bei einer Wellenlnge von 1,6 kHz (bei
einer Schallgeschwindigkeit von 340 m/s). Bei hheren Frequenzen kommt es oft zu
Verwechslungen, da diese Phasengleich an beiden Ohren auftreten knnen. Deshalb

8
werden vor Allem darunter liegende Frequenzen mittels Laufzeitdifferenzen lokalisiert. Das
menschliche Gehr kann sogar noch viel kleinere unterscheide wahrnehmen. Ein Signal
welches lediglich 0,01 ms versptet an einem Ohr ankommt, kann bereits differenziert und
lokalisiert werden. (Grne 2008, S. 118-119)
Beim Versuch mit Kopfhrern knnen sogar Phasenverschiebungen von 10 bis 20 "s
identifiziert werden. Im oberen Frequenzbereich, indem die Lokalisation vermehrt durch
Pegeldifferenzen erfolgt liegt, dieser Grenzwert hingegen etwa doppelt so hoch. Die Klnge
werden als Ganzes erfasst und es knnen zeitliche Unterschiede von 20 "s bis 50 "s
zwischen den Ohren wahrgenommen werden. (Karnath/Thier 2003, S. 189-191)

Die Tatsache, dass das Gehr zwei verschiedene Techniken fr verschiedene
Frequenzspektren zur Lokalisation verwendet, begrndet eine Duplex-Theorie. Demnach
berschneiden sich beide Differenzierungsverfahren. Bei breitbandigen, komplexen Signalen
knnen beide Mechanismen miteinander funktionieren, um eine bessere Lokalisierung zu
gewhrleisten. Ebenso ist es mglich, wie vorher bereits erwhnt, in hheren Frequenzen
geringe zeitliche Differenzen von Klngen zu erkennen. Dabei wird nicht nur die Intensitt
unterschieden, sondern auch Vernderungen der Hllkurven. Ein Beispiel dafr ist das so
genannte Trading-Phnomen, bei dem ein separiertes Stereosignal, welches auf einer Seite
lauter ist, durch Zeitkorrekturen wieder in der Mitte lokalisierbar gemacht werden kann.
(Karnath/Thier 2003, S. 190) (Karnath/Thier 2012, S. 255)

2.6 Lokalisationsschrfe

In Summe sind wir also mit drei verschiedenen Techniken ausgestattet um die Richtung von
Schallereignissen zu bestimmen, die auch kombiniert zum Einsatz kommen. Gerade in den
bergangsfrequenzen von Laufzeit- und Pegeldifferenzierung ist das Ohr besonders
empfindlich und kann Abweichungen von etwa einem Grad erkennen. Vor Allem kurze
Signale mit Impulscharakter knnen, evolutionsbedingt, gut lokalisiert werden. Statische
Signale hingegen eher weniger (wie in der untenstehenden Abbildung ersichtlich). Schwierig
zu Orten sind lediglich sehr tiefe Frequenzen, da die Wellenlngen zu gro sind um gut
unterschieden werden zu knnen. (Grne 2008, S. 117-119). Eine weitere Variable, die die
Lokalisationsschrfe beeinflussen kann, ist der Abhrraum. Langandauernde, hallige Klnge
sind demnach, schwerer zu lokalisieren als kurze Impulse in hallarmen Rumen. Dennoch
kann ein gewisser Anteil an Rauminformationen helfen, die Lokalisierung von Schall zu
beeinflussen und zu manipulieren, was im folgenden Kapitel ausfhrlicher behandelt werden
wird. (Blauert 1997, S. 3-4)


9
Die Lokalisationsunschrfe bezeichnet die Kennzahl der Vernderung der Position, die von
mindestens 50% der Probanden bei akustischen Versuchen erkannt wird. (Blauert 1974, S.
30) Die untenstehenden Abbildungen zeigen Experimente mit verschiedenen Signalen; die
Genauigkeit der Richtungsortung, sowie die Abhngigkeit der Lokalisationsfhigkeit aufgrund
der Frequenz des Schalls. Beide Abbildungen beziehen sich auch Versuche mit der
Schallquelle in Vorwrtsrichtung, da die Lokalisierung von Vorne am besten Funktioniert. Je
weiter aus der Mitte abgewichen wird, desto grer wird auch die Lokalisationsunschrfe.*
(Blauert 1974, S. 31-34)


Abbildung 4: Lokalisationunschrfe nach Signaltyp (Blauert 1974, S. 31)

Abbildung 5: Lokalisationsunschrfe nach Frequenz bei a) Impulsen und b) Dauertnen
(Blauert 1974, S. 32)


10
2.7 Akustische Phnomene der Lokalisation

2.7.1 Lokalisation durch Hrerfahrung

Lokalisation durch Hrerfahrung ist ein weiterer wichtiger Bestandteil beim Richtungshren.
Oft gelingt es uns, obwohl das Signal nicht richtig ausgewertet werden kann, die Richtung
aus persnlicher Erfahrung zu bestimmen. So wird beispielsweise ein Hubschrauber
automatisch oben lokalisiert. (Hellbrck/Ellermeier 2004, S. 152) (Malaka/Butz/Humann
2009, S. 125)

Gleichermaen beruht das auch Bestimmen von Entfernungen oft auf Hrerfahrungen.
Flstern wird demnach immer nher am Hrer empfunden als Schreien, auch wenn die
Schallquelle dieselbe ist. (Blauert 1974, S. 37) Auch im rumlichen Umfeld knnen wir auf
Hrerfahrungen zurckgreifen, was die Lokalisierung vereinfacht. So haben Versuche
gezeigt, dass Probanden, die zur Aufgabe hatten, immer das selbe Signal neu zu
lokalisieren, sich vor allem auf die Frequenzunterschiede zum vorher gehrten Originalsignal
berufen knnen um die Ereignisrichtung zu erkennen. Dennoch sind sich Wissenschaftler
ber diesen Punkt noch nicht ganz einig. Begrndet ist jedoch die Tatsache, dass bereits
bekannte Signale sich wesentlich besser lokalisieren lassen als noch unbekannte. Bei einem
Versuch, die Richtung von bekannten und unbekannten Sprechstimmen im Raum zu
bestimmen, wurden die Unbekannten oft flschlicherweise hinten statt vorne gedeutet.
Gerade in der Medianebene, wo der natrliche Filter des Ohrs die Richtung bestimmt, kommt
es oft zu Schwierigkeiten. Dies schliet daraus, dass der Frequenzgang des Signals noch
nicht bekannt ist und es demnach schwierig ist, das gefilterte Signal der Ohrmuschel richtig
auszuwerten. (Blauert 1974, S. 81-86)

2.7.2 Im-Kopf-Lokalisation

Im Gegensatz zum rumlichen Hren, kann es auch passieren, dass die Schallquelle direkt
im Kopf lokalisiert wird. Das passiert vor Allem, wenn auf beiden Ohren gleiche oder
zumindest sehr hnliche Signale ankommen, wie es beispielsweise beim monophonen
Abhren ber Kopfhrer vorkommt. (Weinzierl 2008, S. 99-100)
Dies ist deshalb fr diese Arbeit relevant, da die Im-Kopf-Lokalisation auch ber die
Wiedergabe von Lautsprechern entstehen kann. Es passiert dann, wenn die Entfernung
kleiner als die Gre des Kopfes geschtzt wird. Bei der Wiedergabe auf 2-Kanal-Stereo
Lautsprechern, die gegenphasig gleiche Signale wiedergeben, kann es zur Im-Kopf-

11
Lokalisation kommen. Besonders hufig passiert es wenn, hnlich der Lokalisation in der
Medianebene, die Schallsignale dem Hrer noch fremd sind. (Blauert 1974, S.97-111)

2.7.3 Przedenz Effekt

Der Przedenz Effekt oder auch Gesetz der ersten Wellenfront genannt, bezeichnet die
Fhigkeit, Schallquellen in Rumen zu lokalisieren, auch wenn mehrere Reflexionen aus
verschiedenen Richtungen auf das Ohr treffen. Sogar bei hnlich lautem Pegel von
Diffusschall und Direktschall, kann das Signal immer noch einer Richtung zugeordnet
werden. Das Bedeutet, dass der Schall, der zuerst unser Ohr erreicht also die erste Welle
auch fr die Lokalisation verantwortlich ist. In Konzertslen kann der Hall deshalb gezielt
dafr genutzt werden, das Klangbild grer und voller erscheinen zu lassen, ohne dass die
Lokalisierbarkeit dabei verloren geht. Die Echoschwelle liegt je nach Signal dabei sehr
unterschiedlich. Klicks knnen schon ab einer Verzgerung von fnf Millisekunden als
eigenstndiges Signal wahrgenommen werden, whrend komplexere und weniger
impulshafte Signale bis zu 40 Millisekunden spter am Ohr ankommen knnen, ohne separat
gehrt zu werden. (Hellbrck 2004, S. 153)

Verwandt mit dem Przedenz Effekt ist der so genannte Haas Effekt, der vor Allem bei
groen Konzertveranstaltungen oder Open-Airs von groer Bedeutung ist. Dabei werden
Lautsprecher, die hinter den Bhnenlautsprechern stehen zeitverzgert, sodass die Erste
Schallwelle mittig von der Bhne aus den Zuschauer trifft. Die hinteren Lautsprecher knnen
dann bis zu 10 dB lauter sein, ohne dass die Signalortung von den Bhnenlautsprechern
abweicht. Dieser Effekt kann auch im Studio von groem Nutzen sein. Wie und weshalb wird
allerdings im folgenden Kapitel besprochen, indem die praktische Umsetzung dieser Technik
thematisiert wird. (Grne 2008, S. 120-121) (Sengpiel 2003, Haas-Effekt und Przendenz-
Effekt).

Zusammenfassend gibt es also eine Vielzahl von Mechanismen, die die Lokalisation
bestimmen und beeinflussen und meist auch miteinander vernetzt agieren. Nachdem die
theoretischen Prinzipien und Funktionsweisen der Lokalisierung nun erlutert wurden, ist es
somit auch mglich, diese zu manipulieren. Im nchsten Kapitel wird auf die praktische
Umsetzung in einem 2-Kanal Mix eingegangen.

12
3. Praktische Anwendung im Mix

Im vorherigen Kapitel wurde erklrt, wie die Lokalisation von Schallquellen funktioniert und
von welchen akustischen Phnomenen sie beeinflusst wird. Das dritte Kapitel wird nun
erlutern, wie man gerade diese Erkenntnisse nutzen kann, um das Klangbild bei der
Wiedergabe von Stereo-Lautsprechern zu vergrern. Der Hrraum wird in die drei
Dimensionen aufgeteilt werden. Es ist zu unterschieden zwischen Medianebene,
Frontalebene und Horizontalebene.


Abbildung 6: Benennung der 3 Dimesionen (Blauert 1974, S. 11)

3.1 Verbreiterung in der Horizontalebene

Als erstes wird die Horizontalebene betrachtet, welche bei 2-Kanal Stereowiedergabe durch
das Panorama schon teilweise abgedeckt wird. Dennoch gibt es Mglichkeiten, das
horizontale Panorama hervorzuheben und zu verstrken, sowie den Eindruck zu vermitteln,
dass die Schallquelle noch breiter ist oder sich sogar auerhalb der aufgestellten
Lautsprecher befindet.


13
3.1.1 Stereo-Enhancer

Ein Stereo-Enhancer ist ein Effekt, oft als Plugin ausgefhrt, der das Stereofeld vergrern
kann. Das heit, die Schallquelle breiter als das tatschliche Stereofeld erscheinen lsst.
Diese Prozessoren arbeiten meist mit separater Bearbeitung der Kanle Links und Rechts.
Dabei werden mittels Phasenverschiebungen knstliche Stereoeffekte erzeugt. Das
funktioniert so, indem das phasengedrehte Signal einer Seite auf die gegenberliegende
Seite kopiert wird und umgekehrt. Alle phasengleichen Anteile werden nun abgesenkt, was
dem Ohr die Illusionen einer breiteren Stereobasis vorspielt. Auch werden zum Teil einzelne
Frequenzbereiche der Kanle um 90 Grad gegeneinander verschoben, sodass es zu einer
Manipulation der Laufzeitstereophonie kommt. Darber hinaus kommen neben Entzerrern
und Phasenverschiebungen auch vor Allem Zeiteffekte zum Einsatz wie ein sehr kurzes
Delay, sowie Chorus, Phaser oder Flanger. Ein hnlicher Effekt kann auch mittels separater
Tonhhenvernderung der einzelnen Kanle erreicht werden. Ein links und rechts
unterschiedlich laufendes Vibrato kann das Stereofeld ebenso etwas verbreitern. Wird die
Mono-Kompabilitt kontrolliert, ist dieser Effekt durch einseitig verschobene Phasen noch
enorm zu verstrken. Die meisten Stereo-Enhancer Plugins bieten eine Kombination der
beschriebenen Effekte an und sind mehr oder weniger hnlich aufgebaut. (Senior 2011, S.
268-270) (Mistele 2012, S. 178-179)

3.1.2 Doppeln

Ein sehr weit verbreiteter Trick, das Stereopanorama zu vergrern, ist das Doppeln von
Signalen. Diese Technik funktioniert im Grunde hnlich wie ein Stereo-Enhancer. Der
Unterschied ist jedoch, dass die Dopplungen nicht von Effekten nach einem Muster generiert
werden, sondern die Unterschiede zwischen den Signalen vielmehr willkrlich durch die
eigene Spielweise auftreten sollen. Dabei ist es wichtig, dass die gedoppelte Spur nicht die
exakt gleiche ist wie die Originale, sondern eine nachgespielte oder durch Effekte wie Pitch-
Shift und Time-Stretching verndert wurde. Trotzdem mssen die Signale immer noch
unisono klingen. Allein durch minimale Zeit und Tonhhenunterschiede, sowie klangliche
Unterschiede die beim Nachspielen entstehen, wirkt das Panorama wesentlich breiter als es
in Wirklichkeit ist. Sehr gut funktioniert diese Technik beispielsweise fr Rhythmus-Gitarren,
die sich am ueren Rand der Mischung befinden sollen. (Senior 2011, S. 261-262)


14
3.1.3 Haas-Effekt

Der Haas-Effekt bedient sich der Erkenntnisse aus dem Gesetz der ersten Wellenfront,
welches im vorherigen Kapitel schon ausfhrlich erklrt wurde. Demnach wird ein Signal
immer dort lokalisiert, wo es zuerst auftrifft, auch wenn es auf der gegenberliegenden Seite
lauter ist.
Das Ohr kann mithilfe dieses Effektes ausgetrickst werden, indem Mono Signale auf beide
Seiten kopiert werden, wobei eine Seite ein kurzes Delay von einigen Millisekunden
bekommt und das gegenberliegende Signal ein paar dB lauter gemacht wird. Das
verzgerte Signal scheint eine Reflexion des Originals zu sein, obwohl es lauter ist als das
Original. Die Lokalisation wird somit ausgetrickst und die Schallquelle erscheint breiter.
Bei der Verzgerungszeit sollte darauf geachtet werden, dass sie so lang wie mglich ist,
ohne dass dabei ein Echo wahrgenommen werden kann. Zu kurze Delays erzeugen schnell
Phasenauslschungen und somit unerwnschte Kammfiltereffekte. Je nach Hllkurve des
Klangs kann bis zu 30 ms verzgert werden. Sehr perkussive und transientenreiche
Instrumente knnen allerdings schon weit unter dieser Grenze als Echo wahrgenommen
werden. Das verzgerte Signal kann bis zu drei dB lauter als das Original abgemischt
werden, ohne dass die Ortung zu sehr verwaschen wird oder aus der Mitte abweicht.
Schlielich knnen durch einen leichten High-Shelf EQ die Hhen auf der verspteten Seite
leicht gedmpft werden, wie es auch in natura vorkommt, da Frequenzen, deren Wellenlnge
kleiner als der Durchmesser des Kopfes ist, nur verschwcht auf der anderen Seite
ankommen. (Mistele 2012, S. 176) (Senior 2011, S. 267-268)

3.2 Panning

Im vorherigen Abschnitt wurde besprochen, wie ein Signal breiter als die eigentliche
Schallquelle dargestellt werden kann. Im Folgenden soll gezeigt werden, welche Methoden
es gibt, um gezielt einzelne Signale auerhalb auf einer Seite der Lautsprecher zu platzieren
(zu pannen).

3.2.1 Head Related Transfer Function (HRTF)

Beim Hren in der Horizontallage stellen Kopf und Oberkrper ein Hindernis fr den Schall
dar. Es ergeben sich somit auf beiden Seiten unterschiedliche Frequenzgnge, je nach dem,
ob das Ohr der Schallquelle zu- oder abgeneigt ist. Dabei sind vor Allem bei hohen

15
Frequenzen groe Unterschiede festzustellen, da diese nur schwer um den Kopf herum
kommen. Das untenstehende Bild zeigt die Artefakte auf, die bei der seitlichen Beschallung
von 90 Grad durch Krper- sowie Ohrreflexionen und -Resonanzen entstehen. (Mller et al.
1995, S. 306-307)

Abbildung 7: Unterschiede der Signale bei Beschallung von Links; Linke Seite: 1
Versuchsperson, Rechte Seite: mehrere Versuchspersonen (Mller et al. 1995, S. 307)

Ab etwa 1 kHz kommt es beim Zugewandten Ohr zu starken Resonanzen im Auenohr,
sodass bei etwa 4 kHz breitbandig angehoben werden kann. Im Gegensatz dazu fllt die
Frequenz auf der abgewandten Seite ab etwa 1-2 kHz stark ab, da ab dieser Wellenlnge
der Kopf ein Hindernis darstellt. In der unteren Hlfte der Abbildung sind auch zeitliche
Vernderungen sichtbar. Das Signal trifft auf das Linke Ohr wesentlich frher auf als auf das
Rechte. Die Tatsache, dass hier sogar eine negative Zeit fr das dem Signal zugeordneten
Ohr angegeben ist, bedeutet, dass im Mix ein Signal, welches von einer Seite auftrifft, im
entsprechenden Lautsprecher auch frher ankommen muss. (Mller et al. 1995, S. 306-308)

Ein weiteres Beispiel mit geringerem Einfallswinkel zeigt die Untenstehende Abbildung.
Folgende Impulsantwort wurde bei einem Versuch aufgedeckt, in dem Schall aus einem
seitlichen Einfallswinkel von 40 Grad gehrt wurde. (Stern/Wang/Brown 2006, S. 2ff)
(Hellbrck/Ellermeier 2006, S. 151)

16

Abbildung 8: HRTF bei Beschallung von Links und Rechts (Stern/Wang/Brown 2006, S. 7)

Hier ist ebenfalls sehr gut ersichtlich, dass das rechte Signal im Vergleich zum linken
wesentlich mehr Hhen und einen, durch Kopf und Oberkrper vernderten, Frequenzgang
nachweist. Befindet sich ein identisches Signal auf zwei verschiedenen Kanlen fr die
jeweilige Seite, so kann das Panning drastisch intensiviert werden, indem neben der
Amplitude auch die Zeit je nach Hllkurve des Klangs um einige Millisekunden verschoben,
sowie ein Filter in den Hhen angesetzt wird. Um die Arbeit beim Mixdown zu erleichtern,
gibt es einige Plugins am Markt, auch als Freeware, die HRTF-Frequenzspektren nachbilden
knnen. So ist es sehr einfach, die Filterkurve des Kopfes nachzuempfinden und das Signal
ber die Stereobasis zu hinaus zu pannen.

3.2.2 Phasenverschiebungen

In den vorherigen Techniken wurde bereits schon fters erwhnt, dass das Verschieben der
Phase das Signal nochmals um einiges breiter erscheinen lsst. Im Folgenden wird erklrt,
wie man mittels Phasenmanipulation die Lokalisation in eine bestimmte Richtung
verschieben kann. Neben dem Gesetz der ersten Wellenfront, womit sich die Position durch
die einseitige Verzgerung eines Signals verndern lsst, ist es auch mglich, mittels
Phasenverschiebungen einen hnlichen Effekt zu erreichen. Wie in Kapitel 2 besprochen
nutzt das Ohr auch beide Techniken fr die Lokalisation in unterschiedlichen
Frequenzbereichen. Bei einem Ohrabstand von 21 cm betrgt die Phasenlnge 0,63 ms.
Maximal kann die Phasenlaufzeit auf etwa 0,8 bis 1 ms heraufgesetzt werden, bis der Effekt

17
nicht mehr wahrnehmbar ist. Leider ist der Umkehrschluss, zu sagen, dass bei 0,63 ms
Laufzeitunterscheid das Signal 90 Grad seitlich lokalisiert wird, nicht mglich. Die
Phasenlagen verhalten sich je nach Frequenz und Bandbreite des Signals sehr
unterschiedlich. Werden unterschiedliche Phasenlagen in einem Mixdown angewendet, so
wird zwar die Lokalisationsunschrfe zwar etwas beeintrchtig, jedoch ist es mglich, sehr
breit ber die Stereobasisbreite zu pannen. Fr konstante Sinuswellen ohne Obertne
knnte theoretisch berechnet werden, mithilfe welcher Phasenverschiebungen ein
bestimmter horizontaler Lokalisationswinkel wahrgenommen wird. Da dies in einem Mix
jedoch so gut wie nie vorkommt, ist diese Methode fr das Abmischen von Musik nur wenig
zielfhrend. (Blauert 1974, S. 111-118)
Vielmehr lsst sich durch den Einsatz von All-Pass Filtern das seitliche Panning erweitern.
Man kopiert das Signal auf zwei Spuren, und stellt das gewnschte Panning ein. In eine Spur
oder ein bestimmtes Frequenzband wird ein All-Pass-Filter geschaltet, wodurch mittels
einem Sweep durch die Frequenzen schnell die gewnschte Position im erweiterten
Stereobild gefunden werden kann. (Winer 2012, S. 19-20) (Winer 2012, S. 36-37) (Rumsey
2001, S. 218)

Abbildung 9: Seitliche Auslenkung bei Impulshaften Signalen (Blauert 1974, S. 116)

Abbildung 10: Verhalten der Phasenlage bzw. Zeitversatz bei Breitbandrauschen im Verhltnis
zum Seitenwinkel (Blauert 1984, S. 51)

18
3.2.3 Doppler-Effekt

Der Doppler-Effekt beschreibt die Vernderung des Klanges bei Bewegung der Schallquelle.
Indem sich die Quelle mit ihrem ausgegebenen Schall mitbewegt, werden die Wellen kleiner
und die Frequenz erhht sich. Simuliert man also eine Bewegung im Mix etwa durch
Automation des Pannings, so kann der rumliche Eindruck der Bewegung stark intensiviert
werden, wenn ebenso der Doppler-Effekt bercksichtigt wird. Die Simulation ist
mathematisch sehr komplex, jedoch gibt es einige Plugins am Markt, womit dies sehr einfach
und schnell umgesetzt werden kann. (Grne 2008, S. 39-40)

3.3 Hinzufgen einer Medianebene

Im Normalfall reprsentiert ein Lautsprecher-Stereopaar ein Klangfeld, welches sich ber
zwei Dimensionen erstreckt, ab; die Breite zwischen und, wie im vorherigen Abschnitt
beschrieben, auch etwas auerhalb der Lautsprecher, sowie die Tiefe, die die Entfernung
des Signals zum Hrer darstellt.

3.3.1 Richtungsbestimmende Bnder

Die Richtungsbestimmung in der Medianebene erfolgt nicht immer zweifellos. Gerade
impulshafte, kurze Klnge werden in der Medianebene oft nicht ganz richtig erkannt, wenn
der Klang noch nicht bekannt ist. So kommt es vor, dass die Schallquelle flschlicherweise
statt von vorne, hinten lokalisiert wird. (Blauert 1974, S. 36) Demnach ist es von Vorteil, in
einem Mix, indem ein Klang noch nicht bekannt ist, ihn zunchst an vorderer Stelle erklingen
zu lassen, sodass er danach besser in der Medianebene manipuliert werden kann. Zudem
eignen sich sehr schmalbandige Signale, deren Frequenzspektrum kleiner als zwei Terzen
ist, nicht sehr gut fr die Platzierung in der Medianebene, da sie je nach Frequenz des
Signals falsch lokalisiert werden knnen. So kommt es beispielsweise vor, dass weies
Rausche um etwa 10 kHz oder 1 kHz hinten, whrend das selbe bei 200 Hz
beziehungsweise 2 kHz oder 16 kHz oft vorne lokalisiert wird. (Blauert 1974, S. 36) Sind die
Signale also zu schmalbandig, sttzt sich das Gehr vor Allem auf einen verminderten
Pegel, der durch die Filterung unseres Kopfes zustande kommt. Ist es jedoch breitbandig
genug, so hat das Ohr die bentigte Spektralinformation, die durch die Ohrmuschel gefiltert
wird, sowie, neben dem vernderten Frequenzgang, auch die vernderte Phasenlagen
einzelner Spektralanteile, die zur Lokalisation zur Verfgung stehen. Ein Signal, dessen
Richtung in der Mediane bestimmt werden soll, muss Frequenzanteile oberhalb von 2 bis 8

19
kHz vorweisen um gut erkannt zu werden. Es eignen sich somit nicht alle Klnge in einem
Mixdown fr die Manipulation in der Medianebene. Welche Frequenzen neben Pegel und
Phasenunterschieden fr die Richtungsbestimmung von Vorne und Hinten verantwortlich
sind, ist in der untenstehenden Graphik zusammengefasst. Dabei wurden Probanden
Signale in Terzschritten aus den Richtungen vorne, hinten und oben jeweils einmal pro
Frequenz vorgespielt. Gemessen wurde die Anzahl der Antworten fr die Richtung, abhngig
von der Frequenz des Testsignals. (Blauert 1974, S. 80-89)

Abbildung 11: Die Hufigkeit in Prozent, die die Schallquelle hinten lokalisiert hatte (Blauert
1974, S. 88)

Abbildung 12: Die Hufigkeit in Prozent, die die Schallquelle vorne lokalisiert hatte (Blauert
1974, S. 88)

Da den Probanden bei den Versuchen die Signale aus allen Richtungen vorgespielt wurden,
aber einzelne Frequenzbereiche dennoch eine sehr hohe Hufigkeit gleicher Antworten

20
aufweisen, kann hier zur Manipulation der Lokalisation angesetzt werden. (Blauert 1974, S.
87-90) Um eine Schallereignis somit vorne zu platzieren, knnen die Frequenzen 315 Hz
sowie 3150 Hz mit einer Filterbreite von 2 Terzen um bis zu 4 dB angehoben werden. Fr
eine Lokalisation hinter dem Hrer sind die Frequenzen 1 kHz sowie 10 kHz entscheidend.
Sie mssen jedoch sehr schmalbandig mit einer Terz Breite angehoben werden.
(Ammermann/Gieselmann 2006, S. 239) Auf diese Weise kann im Mixdown der Hrer gezielt
getuscht werden. Wie die Richtungslokalisation nach Oben und Unten manipuliert wird, wird
im Abschnitt 3.4 besprochen werden.

3.3.2 Hrerfahrung

Neben der Lokalisierung mittels der Verzerrungen durch das Auenohr, ist es fr uns auch
mglich, durch Hrerfahrungen zu bestimmen, wo ein sich eine Schallquelle befindet.
Lerneffekte sind fr sicheres Richtungsbestimmen von groer Bedeutung, da die Kenntnis
ber einen Klang und dessen Frequenzspektrum uns leichter feststellen lsst, wie die
Vernderungen durch Reflexionen und Filter im Auenohr klingen. Bei Versuchen konnte
ermittelt werden, dass Signale, die den Probanden bereits bekannt waren, mit sehr groer
Wahrscheinlichkeit immer richtig lokalisiert wurden, whrend es bei Unbekannten noch
einige Streuungen und Verwechslungen gab. So geling es beim Versuch, sogar Signale,
deren Frequenzspektrum weit kleiner war, als das vorher zur richtigen Lokalisation
vorgeschlagene, trotzdem gut lokalisiert werden konnten. (Blauert 1974, S. 80-86) Es ist
auch mglich, die HRTFs von anderen Menschen zu bernehmen und zu lernen, sodass
sich das Gehirn auf leicht vernderte Frequenzkurven zur Lokalisationsbestimmung, zum
Beispiel whrend dem Hren eines Albums, gewhnen kann. (Hellbrck/Ellermeier 2004, S.
152)

3.4 Hinzufgen einer Frontalebene

3.4.1 Richtungsbestimmende Bnder

hnlich wie bei der Lokalisation in der Medianebene, ist es wichtig, dass die Signale
mglichst breitbandig sind, sodass das Ohr gengend Spektralinformationen hat, die vom
Gehirn ausgewertet werden knnen. Frequenzen oberhalb von 7 kHz sind essentiell, um
einen Eindruck von Oben und Unten zu vermitteln. (Blauert 1974, S. 84) Aus demselben in
Abschnitt 3.3.1 beschriebenen Versuch, lassen sich auch die Frequenzen abbilden, bei

21
denen die Probanden vermehrt auf ein Signal von Oben schlossen. Demnach wird dieser
Effekt erreicht, wenn mit einem Entzerrer die eine schmalbandige Verstrkung bei 8 kHz
vorgenommen wird. (Ammermann/Ellermeier 2006, S. 239)

Abbildung 13: Selber Versuchsaufbau wie im vorherigen Abschnitt. Die Hufigkeit in Prozent,
die die Schallquelle oben lokalisiert hatte. (Blauert 1974, S. 88)

Gerade bei der Wiedergabe mit Kopfhrern hat sich die HRTF weit etabliert, woraus auch
Frequenzunterschiede fr alle Richtungen ableitbar sind. Diese Funktion kann auch bei der
Wiedergabe mit Lautsprechern verwendet werden. Es ist jedoch zu beachten, dass schon
bei einer frontalen Beschallung ohne Erhebungswinkel der Frequenzverlauf durch
Reflexionen von Kopf und Oberkrper schon erheblich verndert wird. In der
untenstehenden Abbildung ist dies durch die rote mittlere Kurve dargestellt. Im Gegensatz zu
den richtungsbestimmenden Bndern, die einen Durchschnittswert der wichtigsten
Frequenzbnder fr die Lokalisation darstellen, zeigt die HRTF die Vernderung vom
Frequenzgang der Wiedergabe bis zur bertragung im Ohr. (Mller et al. 1995, S. 307-319)

Abbildung 14: Head Related Transfer Function bei gerader Beschallung sowie 40 Grad von
oben und Unten
1


1
http://theheadphonelist.com/brain-localize-sounds/ Zugriff am 11.2.2014

22
3.4.2 Hrerfahrung

Ebenso wie in der Medianebene spielen Hrerfahrungen auch in der Frontalebene eine
wichtige Rolle. Hohe Tne werden hierbei tendenziell hher lokalisiert als Tiefe. Wie in der
untenstehenden Graphik abgebildet, hngt die Lokalisation stark von der Frequenz eines
Signals ab. Erstaunlich ist, dass auch bei Kindern und Blinden, die einen weniger
ausgeprgten Bezug zu optischen Erfahrungen haben und denen die Bedeutung der
Tonhhe fremd war, dasselbe Versuchsergebnis erreicht wird. (Blauert 1974, S. 87)


Abbildung 15 : Versuchsaufbau zur Lokalisation in Frontalebene mit der durchschnittlichen
Abweichung der Angaben der Probanden im Vergleich zur Frequenz der Testsignale (Blauert
1974, S. 87)

Beim Hren von Musik ist somit die Manipulation der Frontalebene sehr schwierig, da durch
die Lautsprecher immer ein optischer Bezug vorhanden ist. Signale, die wir bereits von mit
einer bestimmten Richtung assoziieren, wie etwa ein Hubschrauber von oben, werden auch
dort lokalisiert, obwohl sie mglicherweise einen anderen Entstehungsort aufweisen.
(Malaka/Butz/Humann 2009, S. 125)

Jens Blauert, auf dessen Versuche die Richtungsbestimmenden Bnder basieren, fasst die
Lokalisation fr vorne, hinten und oben ein einer Graphik zusammen, in der die wichtigsten
Frequenzen zur Richtungsortung abgebildet sind. Sie werden auch Blauertsche Bnder
genannt.

23

Abbildung 16: Versuchsergebnisse zusammengefasst. Strichlierte Bereiche wahrscheinliche
Lokalisierung; weie Bereiche 90% richtige Ortung (Blauert 1974, Seite 89)

Wie bereits angedeutet, funktionieren die Methoden zur Tuschung der Richtungsortung
nicht immer einwandfrei. Das nchste Kapitel wird sich deshalb den Problemen widmen, mit
denen man bei der Manipulation der Lokalisation konfrontiert wird.

24
4. Probleme

4.1 Hrsituation

Ungleich zur Wiedergabe mit Kopfhrer-Surround, wodurch mittels der HRTF ein sehr
authentischer Raumeindruck geschaffen werden kann, ist das Problem bei Lautsprechern
der Raum selbst, sowie in Abhngigkeit dazu, der Ort, an dem sich der Hrer befindet. (Heer
2011, S. 47) Im Gegensatz zu Kopfhrern verndert sich der Schall, bis er von den
Lautsprechern ber den Raum an das Ohr gelangt. Es knnen stehende Wellen und
Flatterechos auftreten, die den Klang wesentlich verndern. Gerade in Umgebungen, die
nicht wie im Studio schalloptimiert sind und daher viele Schallreflexionen aufweisen, ist dies
sehr kritisch, da somit auch das Frequenzspektrum der Klnge verndert und die
Lokalisation erschwert wird. (Heer 2011, S. 5-8) (Walker 2007, Stereo Image Trickery With
PC Plug-ins)
Andererseits wird bei Technologien, die einen virtuellen Raumeindruck mittels
Phasenverschiebungen und HRTFs simulieren, der Sweet Spot vergrert, da die
Lokalisation nicht nur mehr auf Basis der Lautstrkenunterschiede zwischen den Boxen
erfolgt. (Wolff 2010, Virtual Surround fr das Wohnzimmer) (Leeder 1998, Virtual 3-D
Surround Products)

4.2 Verschiedene Ohrformen

Die Form der Auenohren kann sehr unterschiedlich sein. Das bedeutet, dass demnach
auch die Auenohrbertragungsfunktion, welche die Blauertschen Bnder begrndet und fr
einen Groteil der Lokalisierungsfhigkeit verantwortlich ist, nicht mit jedem Mensch
bereinstimmt. Deshalb kann es passieren, dass die Signale, welche durch Entzerrern den
Blauertschen Bndern angepasst wurden, von Zuhrern falsch interpretiert werden. Oft
kommt es beispielsweise zu Verwechslungen von Vorne und Hinten und gerade in der
Vertikalen ist es schwierig, ein Signal einer eindeutigen Richtung zuzuweisen.
(Cheng/Wakefield o.J., Problems with HRTF-synthesis of Spatial Audio).
Der Grund dafr ist, dass im Frequenzbereich, indem die Unterscheidung zwischen Oben
und Unten stattfindet, die Streuung zwischen den verschiedenen Ohrformen sehr gro ist.
Das kritische Band zur Lokalisierung befindet sich in einem sehr hohen Frequenzbereich und
deshalb bedeuten schon kleine anatomische Unterschiede eine verhltnismig groe
Vernderung der Auenohrbertragungsfunktion. (Mller et al. (1995), S. 309 ff)

25
Blauert beschreibt in seinen Versuchen zur Richtungsbestimmung, dass etwa zehn Prozent
der Probanden auch breitbandige Signale immer falsch lokalisierten. Dies hatte ebenfalls
den Grund, dass die Ohrmuschel nicht bei jedem das exakt selbe Frequenzspektrum filterte.
(Blauert 1974, S. 93-94)

4.3 Monokompabilitt

Bei der Verbreiterung der Stereobasis wird sehr viel mit Phasenverschiebungen gearbeitet,
um die Schallquelle weiter seitlich erscheinen zu lassen. Beim Hren in Mono knnen sich
diese gegenphasigen Signale allerdings auslschen, sodass es oft zu ungewnschten
Artefakten kommt. Es ist deshalb wichtig, entweder zu wissen, auf welchem Abspielmedium
die Mischung spter wiedergegeben wird, oder aber diese Effekte nicht zu intensiv in
Anspruch zu nehmen, sodass die Monokompabilitt nicht gefhrdet ist. (Mistele 2012, S.
178-179)

4.4 IKL

Wie schon in Kapitel 2 beschrieben steht IKL fr die Im-Kopf-Lokalisation und ist meist
unerwnscht. Dies kann auftreten, wenn etwa beide Richtungsbestimmenden Bnder fr
vorne und hinten gleichermaen bearbeitet werden. So kommt es entweder zur Lokalisation
im Kopf oder das Signal wird in einen vorderen und einen hinteren Bereich aufgeteilt.
(Blauert 1974, S. 93)

4.5 Kopfbewegungen

Wir machen stets kleine Peilbewegungen mit unserem Kopf, um Signale besser orten zu
knnen. Klnge, die aus mehreren schmalbandigen Signalen bestehen, wie zum Beispiel
Verzerrungen oder verschiedene Synthesizerklnge, die auch in der Musik oft vorkommen,
werden oft falsch lokalisiert. Die unterschiedlichen Frequenzen werden dabei vom Gehirn als
Richtungsinformation aufgefasst und falsch interpretiert. Der Kopf macht minimale
Peilbewegungen, um mehr Information ber die Position des Signals zu erhalten, sodass
dieser Effekt bei einer nicht starren Kopfhaltung kaum mehr auftritt. (Blauert 1974, S. 31-35)
Dadurch werden auch die manipulativen Mglichkeiten eingeschrnkt.
Es werden vor allem die Zeit- und Intensittsdifferenzen, welche in den vorherigen Kapiteln
bereits ausfhrlich beschrieben wurden, die sich durch einen neuen Einfallswinkel ergeben,

26
genutzt. Zahlreiche versuche haben gezeigt, dass Probanden, denen man erlaubt den Kopf
zu bewegen, die Schallereignisse nur noch sehr selten falsch orten. (Blauert 1974, S. 143-
153)

Abbildung 17: Drehbewegungen zur Lokalisation in der Medianebene (Blauert 1974, S. 145)

Durch gezielte Kopfbewegungen knnen wir also das vorher manipulierte Audioereignis
berlisten, sodass die Lokalisation wieder in Richtung der Lautsprecher wahrgenommen
wird. Die vorher eingestellten richtungsbestimmenden Bnder im Entzerrer sind somit bei
einem Mixdown teilweise auer Kraft gesetzt. Was bleibt ist jedoch die Unterscheidung
zwischen prsent fr die Manipulation nach Oben und Vorne, sowie diffus fr das Gegenteil.
Allein auf diese Weise ist es mglich, sehr viel mehr Tiefe in einem Mix zu erreichen.
(Blauert 1970, Ein neuartiges Prsenzfilter)

4.6 Signalart

Es wurde im Verlauf dieser Arbeit mehrmals angedeutet, dass die Fhigkeit der
Lokalisierung auch mit der Art des Signals zusammenhngt. Neben der Tatsache, dass die
Richtung von aus der Natur unbekannten Klngen schwerer zu ermitteln ist, ist auch eine
gewisse Bandbreite fr die Manipulation essentiell. Dies gilt vor Allem fr Effekte, die auf der
Filterfunktion des Ohrs beruhen. Schmalbandige Signale deren Bandbreite kleiner als zwei
Terzen ist, werden aufgrund fehlender Spektralinformation unabhngig vom Entstehungsort
lokalisiert. Vielmehr ist dann die Frequenz entscheidend dafr, wo das Hrereignis
wahrgenommen wird. Ein weiterer wichtiger Faktor zur Erkennung der Richtung ist die
Hllkurve des Signals. Dauertne sind dabei tendenziell wesentlich schwieriger zu
lokalisieren als solche, die nach etwa 700 ms oder weniger ausklingen. (Blauert 1974, S. 30-
37)



27
4.7 Klangqualitt

In Fachliteratur wird oft geschrieben, dass Stereo- und 3-D-Effekte die Klangqualitt
verschlechtern. Die Musik klingt weniger druckvoll, die Phasen werden zu sehr manipuliert
und die Lokalisierung verschlechtert. Es ist ratsam, diese Effekte nicht zu extrem
einzusetzen, da ansonsten ein Mix neben der schlechteren Monokompabilitt auch schnell,
verwaschen und drucklos klingt. (Blauert 1974, S. 30-37) (Blauert 1974, S. 111-118) (Senior
2011, S. 261-264) (Mistele 2012, S. 178-179) (Walker 2007, Stereo Image Trickery With PC
Plug-ins) (Langford 2011, S. 298)

4.8 Optische Verknpfung

Ein weiteres Problem bei der Manipulation von Schallereignissen stellt die optische
Verbindung von Lautsprecher und Hrer dar. Auch hier haben Versuche gezeigt, dass
optische Reize die Akustischen dominieren. Das heit, dass beispielsweise bei einer seitlich
vertauschten Stereowiedergabe die Versuchspersonen das Schallereignis flschlicherweise
dort lokalisierten, wo auch die visuelle Verknpfung bestand. Im Gegenzug dazu erkannten
Probanden, die anschlieend ihre Augen geschlossen hielten, den Schallereignisort wieder
richtig. (Blauert 1974, S. 155-158)
Die optische Verknpfung zum Wiedergabemedium erlaubt es demnach kaum mehr, den
tatschlichen Schallereignisort fr lngere Zeit zu manipulieren. Trotzdem kann durch die in
Kapitel 3 beschriebenen Techniken eine grere rumliche Trennung erreicht, sowie
bestimmte Effekte erzielt werden, die scheinbar ber die Stereobreite hinaus reichen. Im
folgenden Kapitel werden drei Beispiele erlutert, die diese Effekte veranschaulichen sollen.

28
5. Audiobeispiele

Die folgenden Audiobeispiele sollen einige von den im dritten Kapitel besprochenen
Methoden zu Manipulation der Richtungsortung in einen praxisbezogenen Kontext stellen.
Drei relativ verschiedene Popsongs stehen hierbei zur Auswahl. Die Beispiele zeigen einige
Techniken von sehr subtil bis offensichtlich , die in einem Mixdown eingesetzt werden
knnen. Es handelt sich dabei um eigene Produktionen, da hierbei die Mglichkeit besteht,
in den Mixdown einzublicken und etwa einzelne Instrumente oder Stimmen solo wieder-
zugeben, wodurch die Beispiele sehr viel detaillierter und anschaulicher erlutert werden
knnen. Im Anschluss sind noch weitere Songs von anderen Produzenten angefhrt, die
aber nur weniger ausfhrlich besprochen werden knnen, da keine unbearbeiteten
Einzelspuren vorhanden sind. Auf der beiliegenden CD finden sich dazugehrende Audio-
beispiele, jeweils mit dem ganzen Song sowie den einzelnen Spuren, die bearbeitet wurden.

5.1 Jules Attic Coldest Night

Jules Attic ist ein Singer-Songwriter, dessen Songs meist mit nur einer Stimme und einer
Akustikgitarre beginnen, sich aber ber den weiteren Verlauf aufbauen zu einer vollen
Instrumentierung mit Schlagzeug, E-Gitarren, Bass und Keyboards. Auch dieses Beispiel ist
hnlich arrangiert. Die Schwierigkeit hierbei war, den Song von Anfang an gro wirken zu
lassen, aber am Ende dennoch die Mglichkeit zu haben, Platz zu schaffen fr weitere
Instrumente und Stimmen. Der Wunsch des Knstlers war es, den Song am Ende
aufgehen zu lassen, sodass er mglichst gro und breit wirkt. Dennoch wurde hier, im
Gegensatz zu den anderen Beispielen, sehr subtil vorgegangen, sodass der Song immer
noch sehr natrlich und in sich geschlossen klingt.

Audiobeispiele: Nr. 1 Jules Attic Coldest Night

5.1.1 Dopplungen

Bereits beim Aufnehmen wurde entschieden, Dopplungen einiger Instrumente zu machen,
um einen dichteren und breiteren Klang zu erreichen. Die Stimme ist zu beginn nur einfach
und mono in der Mitte zu hren. In der hlfte der ersten Strophe kommen links und rechts
Dopplungen hinzu, die beide ganz nach auen gepannt sind. Die Stimmen wurden separat

29
aufgenommen, singen aber genau dasselbe wie die Hauptstimme, wodurch sich der Gesang
breit ber beide Lautsprecher verteilt.

Audiobeispiele: Nr. 2 Jules Attic Stimme, Nr. 3 Jules Attic Stimme Gedoppelt

Darber hinaus wurden auch die E-Gitarren am Ende mehrmals eingespielt. Neben den
leichten Timing- und Tonhhenvarationen die beim doppeln entstehen, wurden hierbei auch
verschiedene Verstrkermodelle und -einstellungen fr beide Seiten verwendet. Im Kontext
soll die E-Gitarre die Akustikgitarre umschlieen und dem Song die notwendige Breite
verleihen. Zudem suggeriert ein groer Hall dem Zuhrer ein groer, weiter Raum, in dem
sich die Gitarren befinden.

Audiobeispiele: Nr. 4 Jules Attic Gitarre Mono, Nr. 5 Jules Attic Gitarre Gedoppelt

5.1.2 Stereo Enhancer

Die gedoppelten E-Gitarren am Ende wurden beim Mix mit einem Stereo Enhancer Plugin
noch weiter verbreitert. Die Lokalisation befindet sich nun scheinbar auerhalb der Laut-
sprecher. Diese Manahme war notwendig, um einerseits den Song grer wirken zu
lassen, sowie um die Gitarren von den ebenfalls gedoppelten Stimmen rumlich zu trennen.

Audiobeispiele: Nr. 5 Jules Attic Gitarre Gedoppelt, Nr. 6 Jules Attic Gitarre Gedoppelt Stereo
Enhancer

5.1.3 Richtungsbestimmende Bnder

Am Ende des Songs kommt in das schon sehr dichte Arrangement noch ein Chor hinzu. Um
Platz dafr zu finden wurden die Stimmen zusammengefasst mit einem Entzerrer bearbeitet,
wobei die Kurve des hinteren richtungsbestimmenden Bandes adaptiert wurde. Das heit,
dass der Bereich um 250-500Hz abgesenkt, bei 1kHz und 9-12 kHz schmalbandig
angehoben, sowie dazwischen bei 3-5 kHz stark gefiltert wurde. Ungleich der Impuls-
antworten von HRTF-Messungen, wurden die betreffenden Bnder weniger stark verstrkt,
da sich die Stimmen ansonsten zu weit von den restlichen Instrumenten abgesetzt htte,
was nicht zum Grundsound des Songs gepasst htte. Es scheint im Mix nun als befinde sich
der Chor etwas entfernt von der Band ganz auen.

Audiobeispiele: Nr. 7 Jules Attic Chor ohne EQ, Nr. 8 Jules Attic Chor mit EQ

30
5.2 Matt Morgan Raise Your Voice

Raise Your Voice ist ein Dance-Pop Song des Wiener Sngers Matt Morgan. Hierbei
konnten zwei interessante Wege zur Manipulation in der Horizontal- sowie Medianebene
vorgenommen werden. Da dieser Song berwiegend elektronisch arrangiert ist, musste nicht
so sehr auf die Natrlichkeit der Instrumente geachtet werden. Es war daher mglich, die
Signale strker zu bearbeiten als im vorherigen Beispiel. Nichtsdestotrotz ist es oft
schwieriger, elektronische Klnge zu manipulieren, da sie per se dem Hrer nicht bekannt
sind und daher auch die Lokalisation nicht immer fehlerfrei funktioniert.

Audiobeispiele: Nr. 9 Matt Morgan Raise Your Voice

5.2.1 Haas-Effekt

Bei elektronischen Songs ohne akustische Instrumente entfllt meist die Mglichkeit zu
doppeln, da digitalen Klangerzeugern die Ungenauigkeiten fehlen, die bei menschlicher
Spielweise auftreten. Deshalb wurde sich des Haas-Effekts bedient, wodurch die Breite
zweier identen Signale stark vergrert werden kann. In diesem Beispiel wurde diese
Methode fr die Synthesizer-Leads, die in den Refrains spielen, eingesetzt. Auf diese Weise
konnte fr die groe, gedoppelte Stimme platz gemacht, und die Stereobasis verbreitert
werden. Es wurde mit einem Pegelunterschied von etwas mehr als 3 dB sowie einem
zeitlichen Versatz von 15 ms von der leiseren zur lauteren Spur gearbeitet. Darber hinaus
wurde auch auf einer Seite die Phase gedreht, sodass das Panorama nochmals breiter
erscheint.

Audiobeispiele: Nr. 10 Matt Morgan Synth-Lead Mono, Nr. 11 Matt Morgan Synth-Lead Haas, Nr. 12
Matt Morgan Synth-Lead Haas + Phase

5.2.2 Richtungsbestimmende Bnder

Beim Songwriting von Raise Your Voice standen ursprnglich zwei verschiedene Gesangs-
melodien zur Auswahl. Bei der Produktion konnten mit einer Melodie als Hauptstimme, sowie
der zweiten als Hintergrundstimme, beide verwendet werden. Die rumliche Trennung beider
Stimmen erfolgt neben leichtem Panning zur Seite, hnlich wie im vorhergehenden Beispiel;
es wurde wieder das richtungsbestimmende Band fr die Lokalisation Hinten verwendet um
dem Song eine weitere rumliche Ebene zu verleihen. Die Hintergrundstimmen stehen somit

31
sehr frei im Song und berdecken auch die anderen Instrumente im Mix nicht. Von groem
Vorteil ist diese Technik am Ende des Songs im letzen Chorus, wo beide Stimmen
gleichzeitig zu hren sind, sich aber nicht maskieren. Diese Methode funktioniert deshalb so
gut fr diesen Song, da der Hrer immer die Hauptstimme als Referenzpunkt hat.

Audiobeispiele: Nr. 13 Matt Morgan Stimme ohne EQ, Nr. 14 Matt Morgan Stimme mit EQ

5.2.3 Prsenzfilter

Beim Piano wurde eine den richtungsbestimmenden Bndern hnliche Technik angewendet,
die Jens Blauert in einem Artikel einen neuartigen Prsenzfilter nennt. (Blauert 1970, Ein
neuartiges Prsenzfilter) Dabei wurde ein Entzerrer auf der Pianospur automatisiert.
Whrend dem Break steht es sehr frei und relativ weit im Vordergrund. In den restlichen
Teilen werden allerdings Filterfrequenz und Verstrkung automatisiert. Zunchst hat das
Piano einen leichten Cut bei etwa 1 kHz sowie 8-10 kHz, was es im gesamten etwas nach
vorne rcken soll. Spter verlaufen sich diese Frequenzen in eine schmalbandige
Verstrkung bei 1 kHz und 10 kHz, sodass das Signal weiter in den Hintergrund rckt. Bei
der nur leichten Vernderung bleibt die Lokalisierung erhalten, jedoch lsst sich zwischen
rumlich prsent und diffus wechseln.

Audiobeispiele: Nr. 15 Matt Morgan Piano ohne EQ, Nr. 16 Matt Morgan Piano mit EQ

5.3 Lets Go Radio Shape Your Fate

Lets Go Radio ist eine Synth-Pop Band aus Wien. Ihr Sound ist zwar poppig, lsst aber
dennoch viel Spielraum fr Experimente. In diesem Beispiel sind sehr wirkungsvolle
Techniken eingesetzt worden, um das Stereopanorama zu erweitern. Der eigentliche Song
bleibt dennoch sehr kompakt und in sich geschlossen. Es werden mittels der Effekte lediglich
Akzente gesetzt, die die Aufmerksamkeit des Hrers wecken und den Text akustisch
untersttzen.

Audiobeispiele: Nr. 17 Lets Go Radio Shape Your Fate




32
5.3.1 Virtual Surround Plugin

Um dem Gesang mehr Ausdruck zu verleihen, wurden die Roboterstimmen im Pre-Chorus
mit einem 3-D-Audio Plugin bearbeitet. Im Text wird im PreChorus die Zeile I will start to
rise akustisch untersttzt, indem mittels HRTF Impulsantworten die das Plugin bietet, der
Gesang nach oben verschoben wird.

Audiobeispiele: Nr. 18 Lets Go Radio Stimme ohne Plugin, Nr. 19 Lets Go Radio Stimme mit Plugin

5.3.2 Doppler-Effekt

Um die vorher beschriebene Auslenkung nach oben zu intensivieren wurde zudem noch ein
Doppler-Plugin verwendet, welches die Tonhhenvernderung bei Bewegung der
Schallquelle simuliert. Wandert die vermeintliche Schallquelle also aus der Mitte nach oben,
wird die Tonhhe relativ dazu leicht verndert, als wrde das Signal sich auch in Wirklichkeit
am Hrer vorbeibewegen. So entsteht ein Bewegungsablauf, der noch etwas realistischer
wirkt.

Audiobeispiele: Nr. 19 Lets Go Radio Stimme mit Plugin, Nr. 20 Lets Go Radio Stimme mit Plugin +
Doppler-Effekt

5.3.3 Phasenverschiebungen

Der White Noise Effekt, der ebenso im PreChorus spielt, wurde mittels Phasenver-
schiebungen stark seitlich ausgelenkt und automatisiert. Das Signal wurde Kopiert und beide
in einer Gruppe zusammengefasst. Nun kann mittels Automation der Filterfrequenz eines
Allpassfilters ein extrem breites Stereopanorama simuliert werden, welches den Sound
teilweise ber die Lautsprecherbreite positioniert. In der Gruppe wird das normale Panning
fr beide Spuren zusammengefasst ebenfalls automatisiert.

Audiobeispiele: Nr. 21 Lets Go Radio Effekt ohne Allpassfilter, Nr. 22 Lets Go Radio Effekt mit
Allpassfilter





33
5.4 Weitere Beispiele

5.4.1 Pink Floyd Pulse

Das Album Pulse von Pink Floyd aus dem Jahr 1995 enthlt einige Stellen, an denen die
Stereobasis weit verbreitert wurde, sowie weitere Effekte, die das Ohr in der Lokalisation
tuschen. Realisiert wurde dies mittels QSound. Eine Technik, die einen virtuellen Surround
Klang simuliert
2
. (Della Sala 2006, Pink Floyd. Pulse Review)

5.4.2 Sting The Soul Cages

The Soul Cages von Sting ist ebenfalls ein Album, bei dem der QSound Algorhythmus
angewendet wurde, um ein virtuelles Surroundabbild zu erschaffen. Im gleichnamigen Song
beispielsweise sind einige interessante Panningeffekte zu hren, die die Stereobreite weit
ber die Lautsprecher vergrern lassen.
3
(Walker 2007, Stereo Image Trickery With PC
Plug-ins)

5.4.3 Imogen Heap Propeller Seeds

Der Song Propeller Seeds von Imogen Heap aus dem Jahr 2011 ist ein sehr aktuelles
Beispiel fr den Einsatz von Stereoeffekten. Verschiedene Soundscapes,
Rhythmuselemente und Atmos bilden eine 3-dimensionale Klangwelt um den Hrer.
(Shepherd 2011, Propeller Seeds by Imogen Heap)

Neben den geannten Beispielen, gibt es noch viele weitere Songs und Alben, die Mittel zur
Vergrerung des Panoramas verwenden. Die aufgelisteten Beispiele sind Anspieltipps, die
sehr offensichtliche Effekte aufzeigen und berblicksartig den Praxisbezug dieser Arbeit
darstellen sollen.

2
http://www.qsound.com/spotlight/users/recording-artists4.htm Zugriff am 11.2.2014
3
http://sting.com/discography/index/album/albumId/17/tagName/Albums Zugriff am 11.2.2014


34
6. Fazit

Im folgenden Kapitel werden die Ergebnisse aus dieser Arbeit nochmals kurz wiederholt.
Auerdem werden einige Produkte zur 3-dimensionalen Bearbeitung von Audiomaterial
aufgelistet, womit die Umsetzung schnell und einfach gelingen sollte.

6.1 Derzeitige Marktsituation

Zurzeit gibt es einige Plugins sowie Soundprozessoren, die auf den Erkenntnissen der
Manipulation der Lokalisation basieren. Sie bedienen sich der in dieser Arbeit besprochenen
Effekte, zur Vernderung und Vergrerung des rumlichen Eindrucks beim Hren mit
Stereolautsprechern oder auch Kopfhrern. Die folgende Auflistung soll einen berblick
bieten, welche Prozessoren es derzeit am Markt gibt, mit denen eine einfache Umsetzung
der vorgeschlagenen Methoden zur Manipulation der Richtungsortung mglich ist.

6.1.1 Virtual Surround

Virtual Surround bedeutet, Surroundsound aus Stereolautsprechern oder Kopfhrern zu
imitieren. Durch die Simulation der Auenohrbertragungsfunktion (HRTF) werden die
fehlenden hinteren sowie mittleren Lautsprecher imitiert. Speziell bei Fernsehern werden oft
virtuelle 5.1 Systeme simuliert. Im Folgenden sind die wichtigsten Virtual Surround Produkte
aufgelistet. (Friesecke 2007, S. 764)

Q-Sound der Firma Q-Sound Labs ist ein Virtual Surround Prozessor, der vor Allem
im Hi-Fi- und Entertainmentbereich eingesetzt wird. Gerade bei Mobiltelefonen oder Laptops,
deren Lautsprecher sehr eingeschrnkt sind, bietet Q-Sound Stereoverbreiterung sowie
Virtual Surround an.
4
Zudem gibt es auch zahlreiche Musikalben, bei denen Q-Sound
Prozessoren verwendet wurden, um eine 3-Dimensionales Klangbild zu simulieren.
5


Dolby Virtual Speaker von Dolby Digital findet sich in vielen Fernsehern, DVD-
Playern und anderen Home-Entertainment Gerten. Wie Q-Sound bietet auch Dolby
Stereoverbreiterung und virtuell simulierte Schallquellen an.
6


4
http://www.qsound.com/products/overview.htm Zugriff am 11.2.2014
5
http://www.qsound.com/spotlight/users/recording-artists.htm Zugriff am 11.2.2014
6
http://www.dolby.com/us/en/consumer/technology/home-theater/dolby-virtual-speaker-details.html Zugriff am 11.2.2014

35
DTS Surround Sensation von iDARS ist ein Virtual Surround Prozessor, der neben
virtuellen Lautsprechern auch Kopfhrer-Surround simuliert. Wie die beiden oberen Beispiele
ist auch DTS Surround Sensation speziell die Wiedergaben von 5.1 Filmen mit 2-Kanal-
Stereolautsprechern gedacht.
7


SRS TruSurround ist ein sehr umfassender Prozessor und wirbt neben Virtual
Surround auch etwa mit Verbreiterung des Sweet Spots, verbesserter Sprachverstndlichkeit
und weitere Klangverbesserungen in den Bssen und Hhen. Zielgruppe ist auch hier vor
Allem der TV-Mark fr die Wiedergabe ber Fernsehlautsprecher oder Kopfhrer.
8


6.1.2 Studioprozessoren

Neben den Prozessoren fr Virtual Surround, deren Schwerpunkt die Simulation von
Surroundlautsprechern ist, gibt es auch einige Studiogerte, womit 3-dimesional
Audiosignale im Mix gepannt und bewegt werden knnen.

RSS ist ein 3D-Audioprozessor von Roland. Ungleich der bisher aufgelisteten
Prozessoren funktioniert dieser nicht ber Messergebnisse der Auenohrbertragungs-
funktion, sondern wird mathematisch generiert. Der kleinere Ableger RSS10 ist als 19 Rack
fr den Studioeinsatz konzipiert. Auch hier ist es mglich zwischen Lautsprecher-, Kopfhrer-
oder einer kombinierten Wiedergabe zu unterscheiden. Fr realistisch klingende
Bewegungsablufe wird auch ein Doppler-Effekt simuliert. (White 1996, Roland RSS10)

Wave Arts Panorama ist ein Software Plugin mit dem, hnlich wie bei den genannten
Prozessoren, softwarebasiert mittels einer DAW das Panning 3-dimesional aufgeteilt werden
kann. Das Plugin sttzt seine Berechnungen auf verschiedene HRTF, die frei auswhlbar
sind. Zustzlich gibt es einen Hall und einen Doppler-Effekt als weitere Parameter, die den
simulierten Raumeindruck verbessern. Es lsst sich zwischen Lautsprecher- und
Kopfhrermodus umschalten. (Walker 2006, Wave Arts Power Suite 5)

Qtools/AX sind die Plugins der Firma QSound Labs. Sie bieten hnliche Features wie
Qsound fr Mono- und Stereosignale. Mit drei verschiedenen Plugins fr unterschiedliche

7
http://www.idars.com.tw/DTSSST.php Zugriff am 11.2.2014
8
http://www.dts.com/professionals/sound-technologies/audio-processing/dts-trusurround-for-tvs-and-sound-bars.aspx Zugriff
am 11.2.2014

36
Signalarten lassen sich in der DAW Schallereignisse 3-dimesional um den Hrer
positionieren.
9
(Walker 2007, Stereo Image Trickery With PC Plug-ins)

6.2 Zusammenfassung

Diese Arbeit beschftigte sich mit der Erweiterung des Panoramas bei 2-Kanal-Stereo
Wiedergabe. Dafr gibt es erstens die Mglichkeit, das Panorama zwischen den
Lautsprechern zu vergrern und breiter als die Lautsprecher wirken zu lassen und zweitens
die Mglichkeit, die Richtungen vor und hinter sowie oberhalb und unterhalb des Hrers zu
simulieren.

Alle diese Effekte beruhen auf psychoakustischen Phnomenen, die die Richtungsortung
des Ohrs manipulieren. Seitlich nutzen wir Phasen- Zeit und Lautstrkenunterschiede, um
die Einfallsrichtung zu bestimmen. Fr die Unterscheidung der weiteren Dimensionen ist vor
allem die Ohrmuschel verantwortlich, welche die Klangfarbe des Schalls entsprechend der
Richtung ndert. Signale knnen daher zweckmig schon in einer Mischung so bearbeitet
werden, dass bei der Wiedergabe eine akustische Tuschung wahrgenommen wird. Auf
diese Weise lassen sich Signale 3-dimensional um den Hrer platzieren. Eine fehlerlose
Tuschung der Lokalisierung gelingt jedoch meist nicht, da die visuelle Verknpfung zu den
Lautsprechern strker ist, als die auditive. Darber hinaus gibt es oft auch Probleme in der
Abhrsituation, wie etwa strende Raumreflexionen oder kleine, subjektive Richtbe-
wegungen des Kopfes, wodurch meist eine fehlerfreie Lokalisierung mglich ist.

Nichtsdestotrotz lassen sich mit verschiedenen Effekten und Plugins interessante
Schallereignisse erstellen, die die rumliche Aufteilung einer Mischung vergrern und
weitere Ebenen hinzufgen knnen.

6.3 Ergebnisse

Die Hypothese, dass Signale aus Stereolautsprechern durch gezieltes Bearbeiten, frei und 3-
dimensional im Raum platziert werden knnen, ist nur teilweise zu besttigten. Leider gibt es
zu viele Faktoren, die nicht einkalkulierbar sind und das Ergebnis verflschen. Dazu gehrt
vor Allem die Schwierigkeit, das Signal unverflscht von den 2 Lautsprechern zum Hrer zu
transportieren. Zweitens wissen wir aus Erfahrung, dass sich Schallquelle im Lautsprecher

9
https://virtualsoftware.com/ProdPage.cfm?ProdID=1169 Zugriff am 11.2.2014

37
befindet, worauf dann auch die Lokalisierung primr gesttzt wird und sich nur schwer
beirren lsst. In der Horizontalen sind jedoch einige Eingriffe mglich, die das Signal weit
neben den Lautsprechern erscheinen lsst. Phasen- und Laufzeitunterschiede lassen sich
besser simulieren als die Verzerrungen des Auenohrs. Klangliche Unterschiede, die fr die
Lokalisation in der Median- sowie Frontalebene wichtig sind, unterscheiden sich sehr stark
von Ohr zu Ohr. Obwohl sich Signale aus anderen Richtungen als von vorne nur schwer
simulieren lassen, wirken die Bearbeitungen mittels der HRTF oder der richtungs-
bestimmenden Bnder auf den Hrer meist als prsent oder diffus. Allein dadurch lsst sich
die Rumlichkeit in einem 2-Kanal-Mixdown vergrern, wodurch auch interessante Effekte
erzielt werden knnen.

38
Literaturverzeichnis

Ammermann, Tom; Gieselmann, Hartmut. (2006). Akustisches Holodeck. Binaurale
Surround Simulation mit Kopfhrern. In: ct. 2006 (Heft 22). Seiten 238-242.
Blauert, Jens. (1970). Ein neuartiges Prsenzfilter. In: Fernseh- und Kinotechnik.
1970 (Heft 3). Seiten 75-78.
Blauert, Jens. (1974). Rumliches Hren. Monographien der Nachrichtentechnik.
Stuttgart.
Blauert, Jens. (1997). Rumliches Hren. 2. Nachschrift. Ergebnisse und Trends seit
1982. Stuttgart.
Cheng, Corey; Wakefield, Gregory. (o.J.). Introduction to Head-Related Transfer
Functions (HRTFs). Representations of HRTFs in Time, Frequency, and Space.
Michigan.
Della Sala, Gene. (2006). Pink Floyd. Pulse Review. URL:
http://www.audioholics.com/music-reviews/pink-floyd-pulse . Zugriff am 07.02.2014.
Friesecke, Andreas. (2007). Die Audio-Enzyklopdie. Ein Nachschlagewerk fr
Tontechniker. Mnchen.
Gardner, William. (1997). 3-D Audio Using Loudspeakers. Thesis. Massachusetts
Institute of Technology.
Gauggel, Siegfried; Hermann, Manfred. (2008). Handbuch der Neuro- und
Biopsychologie. Gttingen.
Grne, Thomas. (2008
2
). Tontechnik. Hamburg.
Heer, D. (2011). Projektstudios fr Filmsound. Audiopostproduktion und
Studiotechnik. Hamburg.
Hellbrck, Jrgen; Ellermeier, Wolfgang. (2004
2
). Hren. Physiologie, Psychologie
und Pathologie. Gttingen.
Jecklin, Jrg. (2003). Theorie der Tontechnik. 2. Gehr. Wien.
Karnath, Hans-Otto; Thier, Peter. (2012
3
). Kognitive Neurowissenschaften. Berlin.
Karnath, Hans-Otto;Thier, Peter. (2003). Neuropsychologie. Berlin.
Langford, Simon. (2011). The Remix Manual. Burlington.
Leeder, Terry. (1998). Virtual 3-D Surround Products. URL:
http://iea.sytes.net/medianix.info/ProductSelectors/3D_Selector.html. Zugriff am
07.02.2014.
Malaka, Rainer; Butz, Andreas; Humann, Heinrich. (2009). Medieninformatik. Eine
Einfhrung. Mnchen.
Mistele, Andreas. (2012). getting pro. Methoden, Tricks und Hintergrnde fr
professionelle Audioproduktionen. Berlin.

39
Mller et al. (1995). Head Related Transfer Functions of Human Subjects. Denmark.
Rumsey, Francis. (2001). Spatial Audio. Oxford.
Sengpiel, Eberhard. (2003). Tontechnik Begriffe. Haas-Effekt und Przedenz-Effekt.
Berlin.
Senior, Mike. (2011). Mixing Secrets for The Small Studio. Oxford.
Shepherd, Ian. (2011). Propeller Seeds by Imogen Heap. The first ever 3-D
immersive song?. URL: http://productionadvice.co.uk/propeller-seeds-imogen-heap/ .
Zugriff am 07.02.2014.
Stern, R. M.; Wang, De L.; Brown, G. (2006). Binaural Sound Localization. Chapter
in: Computational Auditory Scene Analysis. New York.
Walker, Martin (2006). Wave Arts Power Suite 5. Plug-in Bundle (Windwos / Mac OS
X). URL: http://www.soundonsound.com/sos/aug06/articles/powersuite.htm . Zugriff
am 07.02.14.
Walker, Martin. (2007). Stereo Image Trickery With PC Plug-ins. URL:
http://www.soundonsound.com/sos/jan07/articles/pcmusician_0107.htm . Zugriff am
07.02.2014.
Weinzierl, Stefan. (2008). Handbuch der Audiotechnik. Berlin.
White, Paul. (1996). Roland RSS10. Sound Space Processor. URL:
http://www.soundonsound.com/sos/1996_articles/mar96/rolandrss10.html . Zugriff am
07.02.14.
Winer, Ethan. (2012). The Audio Expert. Everything You Need to Know About Audio.
Oxford.
Wolff, Verena. (2010). Virutal Surround fr das Wohnzimmer. Ohren ausgetrickst.
URL: http://www.sueddeutsche.de/digital/virtual-surround-fuer-das-wohnzimmer-
ohren-ausgetrickst-1.262149 . Zugriff am 07.02.2014.