Beruflich Dokumente
Kultur Dokumente
3. Räumliches Hören
JENS BLAUERT1, JONAS BRAASCH2
1
Institut für Kommunikationsakustik, Ruhr-Universität Bochum, D–44780 Bochum
2
School of Architecture, Rensselaer Polytechnic Institute, Troy NY, USA
1. Vorbemerkung
Das, was wir hören ist räumlich zeitlich und eigenschaftlich bestimmt. Unsere
Hörereignisse ( … Hörobjekte, Laute) existieren jeweils zu ihrer Zeit an ihrem Ort
und sind jeweils mit spezifischen Eigenschaften ausgerüstet. Unter „Räumlichen
Hören“ verstehen wir die Beziehungen zwischen den Orten sowie den räumlichen
Ausdehnungen der Hörereignisse und den damit korrelierten Merkmalen anderer
Ereignisse vorwiegend Schallereignisse, aber z.B. auch physiologische Vor-
gänge, Ereignisse anderer Sinnesgebiete usw. (s. hierzu Blauert 1974 etc. Anm.:
Hieraus wurden auch einige der folgenden Bilder entnommen).
Bei der Bildung der Hörereignissorte und -ausdehnungen werden vom Gehör be-
stimmte Merkmale der Schallsignale ausgewertet, die die Trommelfelle erreichen.
1
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Außer über das Gehör gewinnt das zentrale Nervensystem auch über andere Sinne
(z.B. Sehsinn, Tastsinn, Lage-Kraft-Richtungssinn) Informationen für die Hörer-
eignisbildung. Besonders wichtig ist die Registrierung der Kopfhaltung und deren
Änderungen: Bei Kopfbewegungen relativ zu der bzw. den Schallquellen ändern
sich die Ohrsignale in jeweils spezifischer Weise. Das Gehör kann auf diese
Weise durch „Peilbewegungen“ zusätzliche Informationen gewinnen. In Abb. 2
sind hierfür einige Beispiele angegeben. Wegen der Trägheiten bei Kopfbewe-
gungen kann nur dann „gepeilt“ werden, wenn die Schallereignisse länger als ca.
200 ms andauern.
Abb. 2: Beispiele zum Effekt von Peilbewegungen auf die Bildung der Hörereig-
nisrichtung. Erläuterung: In den Gehörgängen stecken Gummischläuche,
die am anderen Ende durch kleine offene Trichter (Ohrmuschelnachbil-
dungen) abgeschlossen sind. (a) Kopf und Trichter machen eine Links-
drehung: Das Hörereignis entsteht in Vorwärtsrichtung. (b) Kopf und
Trichter bewegen sich gegensinnig: Das Hörereignis entsteht rückwärtig,
(c) Gleichsinnige Bewegung, aber Schläuche über Kreuz: Das Hörereig-
nis entsteht ebenfalls rückwärtig
2
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
2. Physikalische Grundlagen
Das auditive System kann als ein biologisches Signalverarbeitungssystem aufge-
fasst werden, welches über massive Parallelverarbeitung und enorme Speicherka-
pazität verfügt. Wesentliche Eingangssignale des Systems sind die Schalle, die
über die Luft die beiden Trommelfelle erreichen, die sog. Ohrsignale. Es kommt
zwar auch Schallübertragung über den Schädelknochen vor, diese ist jedoch bei
gesunden, unverschlossenen Ohren gegenüber dem Luftschall praktisch
vernachlässigbar.
Eine wichtige Aufgabe bei dem Studium und der Anwendung des Räumlichen
Hörens ist es deshalb, die Ohrsignale zu bestimmen und sie ggf. aufzuzeichnen
und nach Speicherung und/oder Übertragung an den Ohren von Zuhörern wieder-
zugeben. Sofern man versucht, eine authentische Übertragung dadurch zu errei-
chen, dass man die Ohrsignale bei der Wiedergabe denen den bei der Aufnahme
möglichst ähnlich macht, spricht man von dem physikalisch-motivierten, oder
„physikalistischen“ Ansatz zur Schallübertragung. Dabei wird zwischen „kopfbe-
zogener“ und „raumbezogener“ Übertragung unterschieden. Hierauf wird im fol-
genden Abschnitt näher eingegangen. Weitere Ansätze zur Schallübertragung; die
insbesondere psychoakustische Phänomene des Hörens nutzen, werden in Ab-
schnitt 4.4 behandelt.
2.1 Außenohr-Übertragungsfunktionen
Unsere beiden Ohren befinden sich in etwa gleicher Höhe links und rechts am
Kopf. Der Kopf ist gegenüber dem Rumpf beweglich. Das ganze System (Ohren,
Kopf, Rumpf) kann als eine bewegliche Antenne zum Empfang von Schallsigna-
len betrachtet werden. Diese Antenne hat eine richtungs-, entfernungs- und fre-
quenzabhängige Richtcharakteristik. Schallsignale, die von einer Schallquelle auf
den Kopf treffen, werden also bezüglich ihres Frequenzspektrums linear verzerrt,
d.h. der Amplituden- und Phasenverlauf des Spektrum ändert sich. Die Verzerrun-
gen sind jeweils spezifisch für den Ort der Schallquelle relativ zu den Ohren.
Diese spektralen Veränderungen, die ein Schall auf dem Übertragungsweg von
seinem Ursprungsort zum Trommelfell erfährt, können u.a. durch sog. Übertra-
gungsfunktionen mathematisch beschrieben werden. Man nennt die hierzu
verwendeten speziellen Übergangsfunktionen auch Außenohrübertragungsfunkti-
onen. Im englischen Sprachraum hat sich dafür die Bezeichnung „head-related
transfer functions (HRTFs)“ eingebürgert.
3
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Für den Fall, dass sowohl der Lautsprecher als auch die beiden Mikrophone vorab
so entzerrt wurden, dass beide zu den spektralen Verzerrungen nicht beitragen,
erhält man ein binaurales Paar von HRTFs, nämlich
H l ( , r , , ) und H r ( , r , , ) ,
wobei die Frequenz des einfallenden Schalls, r die Entfernung der Schallquelle,
der Azimut, und die Elevation der Schalleinfallsrichtung im kopfbezogenen
Kugelkoordinatensystem darstellen. Die HRTFs werden oft zur Analyse der Ohr-
signalmerkmale herangezogen.
−5
ª
±
−10 ¸
îëð ëðð ïµ îµ ìµ èµ
Ú®»¯«»²¦ ÅئÃ
In Abb. 4 sind die Frequenzgänge der Beträge des binauralen Paares von
Außenohrübertragungsfunktionen für von links einfallendem Schall gezeigt.
Für die interauralen Phasen- und Gruppenlaufzeiten gilt folgerichtig (vergl. hierzu
die Erläuterungen in Abschnitt 3.2., Abb. 15)
bi ( , r , , ) dbi ( , r , , )
ph ( , r, , ) und gr ( , r, , ) ,
d
mit bi ... Phasenmaß von Hi . Das Phasenmaß bi entspricht der interauralen Pha-
sendifferenz i .
îð
ïð
−10 ´·²µ-
®»½¸¬-
−20
îëð ëðð ïµ îµ ìµ èµ
Ú®»¯«»²¦ ÅئÃ
ïòð
ðòë
ðòð
−0.5
ðp
çðp
−1.0
îëð ëðð ïµ îµ ìµ èµ
Ú®»¯«»²¦ ÅئÃ
Die interauralen Pegeldifferenzen werden aus der interauralen HRTF wie folgt
berechnet:
Li 20 log10 | H i ( , r , , ) | .
kann man den abgestrahlten Schall in der Nähe der Quelle mit einem Mikrophon
aufnehmen und dies Mikrophonsignal dann durch elektronische Filter schicken,
welche die Außenohrübertragungsfunktionen simulieren (z.B. Blauert 1974). Gibt
man solche Signale z.B. über geeignet entzerrte Stereokopfhörer wieder, so hört
ein Zuhörer ein Hörereignis in der gleichen Richtung wie er es in der entspre-
chenden natürlichen Hörsituation hören würde. Solche (künstliche) Hörbarma-
chung wird auch „Auralisierung“ genannt. Systeme zur Generierung auditiver
virtueller Umgebungen enthalten in der Regel Kataloge von HRTFs für eine Viel-
zahl von Schalleinfallsrichtungen. Damit können dann Ohrsignale simuliert wer-
den, wie sie in Mehrschallquellensituationen auftreten, z.B. in geschlossenen
Räumen mit reflektierenden Wänden.
íð
ðp
çðp
îð
ïð
−10
îëð ëðð ïµ îµ ìµ èµ
Ú®»¯«»²¦ ÅئÃ
Abb. 6: Frequenzgänge der interauralen Pegeldifferenzen zweier binauraler Paare
von Außenohrübertragungsfunktionen. Durchgezogene Linie: 0° Azimut,
0° Elevation; gestrichelte Linie: 90° Azimut, 0° Elevation
Anstelle einen natürlichen Kopfes wird auf der Aufnahmeseite zumeist eine
Kopfnachbildung (oftmals inkl. Torso), ein so genannter „Kunstkopf“ (engl.:
dummy head) verwendet, der am Platze der Ohren – in den Gehörkanälen oder an
deren Eingängen – Mikrophone aufweist. Kunstkopfaufnahmen werden in der
Regel als sehr naturgetreu klingend und räumlich korrekt (authentisch) beschrie-
ben. Das Verfahren wird deshalb bevorzugt für Archivierungszwecke eingesetzt,
ist aber auch in der gehörrichtigen Messtechnik und in der psychoakustischen
Forschung verbreitet. Folgende Eigenheiten sind zu beachten:
6
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
- Da in der Regel der Zuhörer seinen Kopf nicht synchron mit dem Kunst-
kopf bewegt, bewegen sich die Hörereignisse bei der Wiedergabe anders
als sie es am Aufnahmeort zum Aufnahmezeitpunkt getan haben/hätten.
Bewegt der Zuhörer z.B. seinen Kopf, obwohl der Kunstkopf bei der Auf-
nahme still stand, so bewegt sich die wahrgenommene auditive Szene mit
der Kopfbewegung entsprechend mit.
7
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
zur Erhebung über die Horizontalebene ist z.B. die Anhebung des Fre-
quenzbereiches um 8 kHz – vergl. dazu Abschnitt 3.1.
- Der Abstand zwischen zwei benachbarten Lautsprecher ist für höhere Fre-
quenzen nicht mehr vernachlässigbar klein. Die Grenzfrequenz, oberhalb
der durch räumliches „Aliasing“ lineare Verzerrungen auftreten, liegt bei
f=c/(2 r), mit c … Schallgeschwindigkeit in Luft und r … Abstand zwi-
schen zwei benachbarten Lautsprechern. Die oberhalb dieser Grenzfrequenz
auftretenden Interferenzen sind in der Regel wahrnehmbar und
beeinträchtigen die räumliche Abbildung von Schallquellen.
Bühne
Schallquelle
Wellenfront
1 2 3 4 5 6 7 8 9 n
Mikrophone
Virtuelle Schallquelle
elektrische Verbindung
(verstärkt)
1 2 3 4 5 6 7 8 9 n Lautsprecher
Wellenfront eines
Lautsprechers
Wellenfront der
virtuellen Schallquelle
Empfänger
1
3 Psychoakustische Grundlagen I:
Räumliches Hören bei einer Schallquelle
In den folgenden Abschnitten wird zunächst das Räumliche Hören bei einer
Schallquelle mit freiem Schallfeld behandelt. Anschließend wird auf mehrere
Schallquellen übergegangen. Freie Schallfelder können im Labor in so genannten
reflexionsarmen Räumen dargestellt werden. In der Natur würde man ein solches
Feld z.B. auf dem Gipfel eines verschneiten Berges beobachten können. Der Fall
des freien Schallfeldes ist also letztlich ein seltener Spezialfall. Dessen Betrach-
tung hilft uns aber sehr bei der Analyse der Phänomene des Räumlichen Hörens.
8
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Die Erklärung ist wie folgt: Durch die charakteristische, ausgeprägte Filterwir-
kung der Außenohren werden bei einem Breitbandsignal bestimmte Spektralan-
teile angehoben, andere abgesenkt. In der Regel stimmen die Anhebungsbereiche
mit denjenigen Richtungsbestimmenden Bändern gut überein, deren Hörereignisse
in der jeweiligen Schalleinfallsrichtung zugeordnet sind vergl. das Beispiel in
Abb. 8, unten. Die Hörereignisrichtung bei Breitbandsignalen wird offenbar
durch diejenige Klasse Richtungsbestimmender Bänder bestimmt, in der die Ohr-
signale die stärksten Anteile aufweisen. Haben die Ohrsignale z.B. starke Anteile
um 8 kHz, so erscheint das Hörereignis oben oder zumindest oberhalb der Hori-
zontalebene sog. Elevationseffekt.
9
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
10
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
12
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
13
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Welche Ohrsignalmerkmale werden vom Gehör bei der Bildung der Hörereignis-
entfernung ausgewertet? Man kann nach dem Entfernungsbereich wie folgt unter-
scheiden:
14
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
4.1 Summenlokalisation
15
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Zunächst soll die von der Stereophonie her weit bekannte Summenlokalisation
besprochen werden. Abb. 17 zeigt zwei Lautsprecher in Stereo-Standardaufstel-
lung. Spielt man über die Lautsprecher genügend breitbandige Signale, z.B. Spra-
che oder Musik, so erhält man die in Abb. 18 gezeigten Abhängigkeiten der Hör-
ereignisrichtung von der Pegel- und Zeitdifferenz der Lautsprechersignale. Die
Hörereignisse sind allerdings durchweg weniger scharf lokalisiert als bei Schall-
darbietung durch Einzelschallquellen im freien Schallfeld. Bei genauem Hinhören
kann man oftmals sogar mehrere Hörereignisanteile in unterschiedlichen Richtun-
gen erkennen.
Jedes der beiden Ohrsignale setzt sich aus zwei Anteilen zusammen, je eines von
jeder Schallquelle. In Abb. 19 sind die so zusammengesetzten Ohrsignale sche-
matisch für impulsförmige Lautsprechersignale dargestellt. Es ist noch nicht voll-
ständig geklärt, wie und wieso das Gehör aus diesen Signalen im Wesentlichen
16
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
nur ein Hörereignis bildet. Die Tatsache, dass bei steigenden Zeitdifferenzen der
Lautsprechersignale schließlich keine zeitliche Überlappung der Ohrsignalanteile
von linken und rechten Lautsprecher mehr stattfindet, wird als Erklärung für die
Knicke in der Lateralisationskurve diskutiert (Abb. 19, rechts). Bei sehr schmal-
bandigen Signalen, z.B. Sinustönen, können Zeitdifferenzen der Lautsprechersig-
nale zu Pegeldifferenzen der Ohrsignale führen und umgekehrt. Bei sehr hohen
Frequenzen erhält man keine monoton ansteigenden Summenlokalisationskurven
mehr. Vergl. hierzu auch Abb. 33 hinsichtlich eines Frequenzbandes um 5 kHz.
17
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Dieser sog. „Präzedenzeffekt“ früher auch Gesetz der ersten Wellenfront ge-
nannt ist dafür verantwortlich, dass wir in geschlossenen Räumen das Hörereig-
nis in Richtung der Ur-Schallquelle bilden. Zum Beispiel hören wir einen Spre-
cher, der nicht verstärkt wird, in der Regel in der Richtung, in der wir ihn sehen.
Der von den Wänden reflektierte Schall geht bei der Bildung der Hörereignis-
richtung also nicht ein. Überschreitet die Verzögerungszeit der weiteren Wellen-
front(en) gegenüber der ersten einen signal- und pegelabhängigen Grenzwert,
so hört man ein räumlich getrenntes Hörereignis – ein sog. „Echo“ – in Richtung
der verzögerten Wellenfront. Der entsprechende Verzögerungsgrenzwert heißt
„Echoschwelle“. Anm.: Bei schmalbandigen Signalen kann es im Bereich der
Gültigkeitsgrenzen des Präzedenzeffektes zu interferenzbedingten periodischen
Schwankungen der Hörereignisrichtung kommen – s. Abb. 21.
Der Wert der Echoschwelle kann in praxi zwischen 5 ms und mehreren 100 ms
liegen. Bei Sprache mittlerer Sprechgeschwindigkeit kann bei 10 dB
Pegelminderung zwischen erster Wellenfront sog. Primärschall und
verzögerter Wellenfront sog. Rückwurf mit 50 ms, für Musik mit 80 ms
gerechnet werden. Bei ca. 20 ms Rückwurfverzögerung kann der Rückwurfpegel
sogar um ca. 6 bis 10 dB höher sein als der des Primärschalls, ohne dass ein Echo
hörbar wird sog. „Haas-Effekt“ (Haas 1951). Dieser Effekt wird in der
Beschallungstechnik häufig ausgenutzt. Wie der Präzedenzeffekt und der Haas-
Effekt psycho- und physioakustisch zu Stande kommen, ist z.Zt. Gegenstand
intensiver Forschung (s. z.B. Blauert u. Braasch 2005)
18
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Im Abb. 22 ist die Echoschwelle für normale Sprache als Funktion von Rück-
wurfverzögerung und -pegel angegeben. Weitere Schwellen sind eingezeichnet:
Die absolute Wahrnehmbarkeitsschwelle ist diejenige Schwelle, bei der Ver-
suchspersonen die Anwesenheit des Rückwurfs erstmals auf irgendeine Weise
feststellen können – z.B. an Hand von Klang-, Lautheits- oder Ausdehnungsände-
rungen. Bei sehr hohen Rückwurfspegeln kann der Rückwurf den Primärschall
sogar verdecken – sog. „Primärschallunterdrückung“.
Für das Räumliche Hören spielt die Ähnlichkeit der Zeitfunktionen der beiden
Ohrsignale eine wichtige Rolle. Als Ähnlichkeitsmaß wird z.B. die normierte
Kreuzkorrelationsfunktion der Ohrsignale in der Schreibweise für Leistungssig-
nale verwendet (Anm.: Für Energiesignale existiert eine ähnliche Definition),
nämlich
T
1
lim x (t ) y (t )dt
T 2T T
Rnorm , x , y ( )
x (t )eff y (t )eff
mit dem rechten Ohrsignal x(t) und dem linken Ohrsignal y(t). Das Maximum ih-
res Betrages im physiologischen Bereich von , in der Regel also
k max
| Rnorm , x , y ( ) | , für 1 ms < < +1 ms
19
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Abb. 23: Erzeugung von Testsignalen mit einstellbarem Kohärenzgrad nach der
Überlagerungsmethode
Im Abb. 24 ist gezeigt, wie sich das Hörereignis verhält, wenn man Signale unter-
schiedlichen interauralen Kohärenzgrades über Kopfhörer darbietet. Die Ver-
suchspersonen sollten Hörereignisorte und Ausdehnungen in einen Frontalschnitt
ihres Schädels eintragen. Es trat Im-Kopf-Lokalisiertheit auf, deshalb sind die
Hörereignisorte innerhalb des Kopfes eingezeichnet. Bei hohem Kohärenzgrad
entsteht ein relativ scharf lokalisiertes Hörereignis in Kopfmitte, welches mit sin-
kendem Kohärenzgrad räumlich immer ausgedehnter wird. Bei sehr kleinem Ko-
härenzgrad zerfällt das Hörereignis in zwei getrennte Anteile, jedes einer Schall-
quelle zugeordnet.
Bei Beschallung im freien Schallfeld sind die Ohrsignale nie völlig inkohärent
schon wegen des Übersprechens zwischen den Ohren. Rückwürfe führen zu einer
weiteren Dekorrelation der Ohrsignale. Teilkohärente Ohrsignale gehen mit diffus
lokalisierten, räumlich ausgedehnten Hörereignissen einher. Zum Beispiel ist im
diffusen Schallfeld der ganze Raum vom Hörereignis erfüllt. In Konzertsälen wird
eine auditive Verbreiterung des Orchesters und der Eindruck des auditiv Einge-
hülltseins als sehr positiv bewertet, ist also ein auditives Qualitätsmerkmal.
20
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Das Gehör ist in der Lage, bei teilkohärenten Ohrsignalen ggf. vorhandene stark
kohärente Anteile herauszufinden und ihnen jeweils ein scharf lokalisiertes Hörer-
eignis zuzuordnen, z.B. Sprecher in lärmerfüllter Umgebung – s. hierzu Abb. 36.
Das Verfahren nach Blumlein (Blumlein 1931) ist das älteste mikrophonbasierte
Verfahren zur Schallübertragung mit räumlicher Information. Bei dem Verfahren
werden zwei Mikrophone mit achtförmiger Richtcharakteristik im Winkel von 90°
zueinander so aufgestellt, dass sich die Membrane beider Mikrophone faktisch am
selben Ort befinden – s. Abb. 25.
Mikrophone zeigt. Für einen aus +45° einfallenden Schall verhält es sich genau
umgekehrt: Das Mikrophon für den rechten Kanal zeigt maximale Empfindlich-
keit, während das für den linken Kanal aus dieser Raumrichtung keinen Schall
aufzeichnet. Ein Schall, der von vorne ( = 0°) auf beide Mikrophone trifft, wird
beide Mikrophone aus Symmetriegründen gleichermaßen erregen, wenn auch
nicht mit der maximalen Empfindlichkeit. Abb. 27 zeigt das Verhältnis beider
Mikrophonempfindlichkeiten zueinander. Der Verlauf beider Kurven entspricht in
etwa den beiden Kanalverläufen beim Panoramaregler eines Mischpultes, d.h.
beim sog. „Amplituden-Panning“.
0
1
-30 30
0.8
0.6
-60 60
0.4
0.2
-90 90
-120 120
-150 150
180
Diese Pegeldifferenzen zwischen den beiden Stereokanälen sind nur dann mit den
interauralen Pegeldifferenzen identisch, wenn die Aufnahme über Kopfhörer
dargeboten wird. Im Fall der Übertragung über Lautsprechern ist der Fall kompli-
zierter, da der Übertragungsweg zwischen den Lautsprechern und den Ohrsigna-
22
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
len miteinbezogen werden muss – wie in Abb. 28, skizziert. Durch die frequenz-
abhängige Filterwirkung der Außenohren kommt es zu einer Frequenzabhän-
gigkeit der richtungsabhängigen interauralen Pegeldifferenz. Abb. 29 zeigt die
richtungsabhängigen interauralen Pegeldifferenzen beim Blumlein-Verfahren (ge-
strichelte Linie). Sie stimmen im Winkelbereich von 45° bis +45° näherungs-
weise mit den natürlichen interauralen Pegeldifferenzen überein (durchgezogene
Linie). Außerhalb dieses Bereiches weichen beide Kurven voneinander ab.
íð
îð
ïð
ð
−10
Þ´«³´»·²
−20 Ò·»®»²ô ïïðp
−30 ß³°ò п²ò
−90 −60 −30 ð íð êð çð
ߦ·³«¬ ÅpÃ
>>
Abb. 28: Übertragungsweg von der Aufnahme über die Wiedergabe zum Hörer
bei einer Zweikanal-Aufnahme
Das ist normalerweise kein Problem, da sich dort bei einer Bühnendarbietung
keine Primärschallquellen befinden – mit der üblichen Ausnahme des Publikums-
applaus. Im Regelfall werden beide Lautsprecher im 60°-Winkel aufgestellt. Da-
durch wird der aufgenommene Winkelbereich von 45° bis +45° auf einen Be-
reich von 30° bis +30° komprimiert wiedergegeben. Dieser Kompromiss wird
eingegangen, um zu vermeiden, dass die Summenlokalisation zusammenbricht.
Im letzteren Fall würden beide Lautsprechersignale als separate Hörereignisse
wahrgenommen, was einem perzeptiven Loch zwischen beiden Lautsprechern
gleichkommt.
23
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
îð
ïð
−10
Þ´«³´»·²
²¿¬$®´·½¸
−20
Abb. 29: Beim Hörer auftretende interaurale Pegeldifferenzen für ein Frequenz-
band um 3,5 kHz als Funktion des Azimuts für eine durch Lautspre-
cher wiedergegebene Aufnahme mit dem Blumlein-Verfahren im Ver-
gleich zur natürlichen Hörsituation
In der Literatur findet man öfters die Auffassung, dass Konzidenzverfahren, wie
dasjenige von Blumlein, ein unnatürliches räumliches Abbild der aufgenommenen
auditiven Szene erzeugen, da sie nur Pegel- und keine Laufzeiten kodieren. Diese
Annahme ist jedoch grundlegend falsch, da die interauralen Laufzeitdifferenzen
durch den Übertragungsweg vom Lautsprecher zu beiden Ohrsignalen generiert
werden. Diesen Sachverhalt kann man sich einfach an dem Fall seitlich
einfallenden Schalls ( = 45° oder +45°) klar machen, bei dem nur einer der
beiden Lautsprecher angesteuert wird. In diesem Fall entsprechen die binauralen
Ohrsignalmerkmale denen einer einzelnen, am Lautsprecherstandort befindlichen
Schallquelle. Durch die Summenlokalisation ist die kontinuierliche Kodierung der
interauralen Laufzeitdifferenzen als Funktion von gewährleistet – s. Abb. 30.
ðòë
−0.5 Þ´«³´»·²
²¿¬$®´·½¸
Abb. 30: Beim Hörer auftretende interauralen Zeitdifferenzen für ein Frequenz-
band um 700 Hz als Funktion des Azimuts für eine durch Lautspre-
cher wiedergegebene Blumlein-Aufnahme im Vergleich mit der natürli-
chen Hörsituation
24
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Statt der Achter-Mikrophone wie bei Blumlein sind auch Mikrophone mit nieren-
förmiger Richtcharakteristik im Gebrauch. Wegen der größeren Breite der Richt-
keulen eignen diese sich jedoch weniger für die Koinzidenzmethode. Die gestri-
chelte Linie in Abb. 27 zeigt die Verläufe der Pegeldifferenz zwischen den beiden
Kanälen, wenn beide Mikrophone koinzident im Winkel von 110° zueinander
aufgestellt werden. Im Vergleich zum Blumlein-Verfahren (durchgezogene Linie)
ist der Verlauf deutlich komprimiert. Theoretisch könnten beide Nieren-Mikro-
phone auch im 180°-Winkel aufgestellt werden, um dieses Problem zu lösen.
Dann nimmt die Sensitivität des Gesamtsystems allerdings für den Frontalbereich
zu stark ab – d.h. seitlich einfallende Wandreflektionen werden in der Aufnahme
überbetont.
Eine gängige Lösung für dieses Problem wurde von dem französischen Radiosen-
der Office de Radiodiffusion et de Télévision Française (ORTF) angegeben. Beim
sogenannten ORTF-Verfahren werden beide Mikrophonkapseln räumlich getrennt
aufgestellt. Der Mikrophonabstand beträgt 17 cm, der Winkel zwischen den Mi-
krophonachsen ist zumeist 110° – wie in Abb. 31 gezeigt.
ðòëð
ðòîë
ðòðð
−0.25 Þ´«³´»·²
ÑÎÌÚ
−0.50
−90 −60 −30 ð íð êð çð
ߦ·³«¬ ÅpÃ
îð
ïð
−10
ÑÎÌÚ
−20 ²¿¬$®´·½¸
Abb. 33: Beim Hörer auftretende interaurale Pegeldifferenzen für ein Frequenz-
band um 5 kHz als Funktion des Azimuts für eine durch Lautspre-
cher wiedergegebene ORTF-Aufnahme im Vergleich zur natürlichen
Hörsituation
ðòë
−0.5 ÑÎÌÚ
²¿¬$®´·½¸
−90 −60 −30 ð íð êð çð
ߦ·³«¬ ÅpÃ
Abb. 34: Beim Hörer auftretende interaurale Zeitdifferenzen für ein Frequenz-
band um 700 Hz als Funktion des Azimuts für eine durch Lautspre-
cher wiedergegebene ORTF-Aufnahme im Vergleich zur natürlichen
Hörsituation
26
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Wie bereits im Abschnitt 4.1 erläutert wurde, ist die Summenlokalisation zwi-
schen den Frontal- und Surround-Lautsprechern nur bedingt möglich, aber in der
Regel befinden sich die Primärschallquellen ohnehin im vorderen Bühnenbereich
(Musik) oder auf der Leinwand (Film). Bei elektroakustischen Musikdarbietun-
gen, bei denen alle Schalleinfallsrichtungen berücksichtigt werden müssen, wer-
27
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Allgemein gilt, dass mit zwei funktionierenden Ohren das Gehör Nutzsignale aus
Lärm- bzw. weniger interessanten Signalen besser heraushören kann. Zum Bei-
spiel können einohrig Schwerhörige einer Unterhaltung schlechter folgen als
Normalhörende, wenn andere Sprecher dazwischen reden. Bei ungestörter Unter-
haltung tritt dieser sog. „Cocktail-Party-Effekt“ nicht auf.
28
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
eines Ohres geht diese Verbesserung der Verständlichkeit wieder verloren. All-
gemein gilt, dass die sog. „Mithörschwelle“ eines Nutzsignales niedriger ist, wenn
das Verdeckungssignal mit anderer interauraler Zeitdifferenz oder interauraler
Phasendifferenz als das Nutzsignal dargeboten wird. Eingeschlossene Spezialfälle
sind: Nutzsignal einohrig, Störsignal zweiohrig und umgekehrt; sowie Nutzsignal
auf ein Ohr, Störsignal auf das andere Ohr.
Man nennt den Betrag der Mithörschwellenabsenkung, die durch geeignete unter-
schiedliche interaurale Differenzen gegenüber dem Bezugsfall, d.h. beide Signale
monotisch oder diotisch, erzielt wird, die „binaural masking level difference
(BMLD)“. Die BMLD für unterschiedlichste Signale und Darbietungsfälle wurde
eingehend untersucht. Die Ergebnisse sind u.a. wichtig für die Entwicklung von
Modellen des binauralen Hörens (vergl. Abschnitt 6).
Verschließt man in einem halligen Raum ein Ohr, so hört sich der Raum noch
halliger an. Durch das Hören mit zwei Ohren wird also die wahrgenommene Hal-
ligkeit vermindert. Dieser Effekt heißt „binaurale Nachhallunterdrückung“. Man
kann den Effekt wie folgt quantitativ ausmessen – Abb. 37. Ein halliger Raum
wird mit Rauschen beschallt, welcher eine zeitlich schwankende Amplitude auf-
weist. Durch den Raum wird die zeitliche Schwankung „verschliffen“. Beim Ab-
hören mit zwei Ohren kann man geringere zeitliche Schwankungen wahrnehmen
als mit nur einem Ohr. Die „Verschleifung“ ist also wahrnehmungsmäßig gerin-
ger, wenn man zweiohrig hört.
Verschließt man bei Schalldarbietungen in einem Raum ein Ohr, so klingen die
Hörereignisse oft verfärbt, insbesondere wenn starke frühe Reflexionen anwesend
sind. Die Verfärbungen ergeben sich auf Grund von Interferenzen zwischen den
Direktschallen und den Rückwürfen, die diese überlagern. Interessant ist nun, dass
29
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Theile (1981) bringt diese Beobachtung in Zusammenhang damit, dass bei Über-
tragungsverfahren, welche Summenlokalisation ausnutzen, die wahrgenommenen
Klangverfärbungen wohl ebenfalls geringer sind, als man auf Grund der Ohrsig-
nalspektren annehmen müsste. Er erklärt dies mit der Hypothese, dass das audi-
tive System zunächst den Hörereignisort bestimmt und erst anschließend die
Klangfarbe bildet – wobei es dann nach Festlegung des Hörereignisortes und in
Kenntnis der für diesen Ort spezifischen HRTFs eine Entzerrung vornimmt. Diese
sog. „Assoziationshypothese“ erklärt einen Reihe von weiteren, verwandten
Klangeffekten. Eine weitergehende Evidenz für ihrer Gültigkeit steht noch aus.
Viele Modelle für die psycho- und physioakustischen Abläufe beim zweiohrigen
Hören gehen davon aus, dass im Gehör zur Auswertung interauraler Laufzeitdif-
ferenzen und zur Schallquellenidentifizierung eine Art „gleitende Kreuzkorrela-
tion“ der Ohrsignale durchgeführt wird, und dass dann Hörereignismerkmale wie
seitliche Auslenkung, Ausdehnung oder richtungsgemäße Trennung mehrerer
Hörereignisanteile (auditorische Szenenanalyse) aufgrund dieser gleitenden inter-
auraler Kreuzkorrelationsfunktionen gebildet werden (Blauert 1974, 1997,
Colburn u. Durlach 1978, Braasch 2005a). Abb. 38 zeigt das Grundschema eines
solchen Modells.
Jedes der beiden Ohrsignale wird zunächst im Innenohr spektral zerlegt. Die Aus-
gangssignale der Innenohrfilter werden gleichgerichtet und tiefpass-gefiltert. Die
Grenzfrequenz des Tiefpasses ist so gewählt, dass ab ca. 800 Hz das Ausgangs-
signal zunehmend der Hüllkurve des Eingangssignals entspricht – sog. AM-
Demodulation.
30
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Die gleitende Kreuzkorrelation wird dann jeweils interaural über die Tiefpass-
Ausgangssignale zweier spektral korrespondierender Bandpass-Bereiche
durchgeführt.
Die Zuordnung des bzw. der Hörereignisorte geschieht z.B. aufgrund eines Mus-
tererkennungsprozesses, welcher die Schar von Korrelationsfunktionen auswertet.
Ein hoher Gipfel bedeutet z.B. einen scharf lokalisierten Hörereignisanteil, die
Lage des Gipfels bezeichnet die seitliche Auslenkung des Hörereignisanteils. Fla-
che Gipfel bedeuten räumlich ausgedehnte Hörereignisanteile. Abb. 39 lässt ein
scharf lokalisiertes Hörereignis in der Medianebene erkennen – d.h. ph = 0 ms.
31
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Die Abbn. 40 bis 42 zeigen hierzu die berechneten binauralen Aktivitätskarten für
Anregung mit Breitband-Rauschen als Lautsprechersignalen. Die hellen Bereiche
in jeder Karte zeigen eine hohe binaurale Aktivität. Die jeweils hellste Stelle
bezeichnet die vom dem Modell prognostizierte azimutalen Hörereignisrichtung.
Die interauralen Pegeldifferenzen (jeweils linke Abbildung) wurden dabei mit
einem Netzwerk aus Exzitations- und Inhibitionszellen nach Braasch (2003)
bestimmt, die interauralen Zeitdifferenzen (jeweils rechte Abbildung) mittels
interauraler Kreuzkorrelationsanalyse.
Abb. 41: wie Abb. 40, aber für eine Schallquelle, die mit dem Blumlein-Verfah-
ren aufgezeichnet und über zwei Lautsprecher in der 60°-Standardauf-
stellung wiedergegeben wird. Die gepunktete Linie zeigt die kompri-
mierte ideale Lokalisationskurve, wie sie durch die Verringerung der
Lautsprecherwinkel von ±45° auf ±30° entsteht
32
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Abb. 42: wie Abbn. 40 und 41, aber für eine Schallquelle, die mit dem ORTF-
Verfahren aufgenommen wurde
Die Modellanalyse zeigt vor allem, dass die prognostizierten Azimutalwinkel für
die interauralen Laufzeit- und Pegeldifferenzen beim Blumlein-Verfahren inner-
halb des Winkelbereiches von 45° bis +45° sehr gut übereinstimmen – Abb. 41.
Beim ORTF-Verfahren dagegen entsprechen die Werte der interauralen Laufzeit-
und Pegeldifferenzen nicht den in der Natur vorkommenden Kombinationen –
Abb. 42. Die über die Pegeldifferenzen geschätzten Azimutalwinkel fallen kleiner
aus als die gepunktete komprimierte Lokalisationskurve vorgibt, während die
Werte für die interauralen Zeitdifferenzen im Winkelbereich von 45° bis +45°
größer sind als die komprimierte Lokalisationskurve. Die fehlende
Übereinstimmung beider Merkmale führt zu einer perzeptiven Verbreiterung der
Hörereignisse – die im Sinne einer besseren auditiven „Räumlichkeit“ ggf.
durchaus erwünscht sein kann.
7 Schlussbemerkung
Zitierte Literatur
Begault D R (1994) 3-D sound for virtual reality and multimedia. AP Professional
Cambridge MA
Blauert, J (1969/70) Sound localization in the median plane, Acustica 22, 205–
213
Braasch J, Blauert J (2003), Investigating the Precedence Effect for noise bursts of
different bandwidth: II. Model algorithms. Acoust Science & Technol 24, 293–
303
34
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Haas H (1951) Über den Einfluss eines Einfachechos auf die Hörbarkeit von
Sprache. Acustica 1, 49–58
ITU (1994) Multichannel stereophonic sound system with and without accompa-
nying picture. Standard BS.775-1, Intern Telecommunication Union, Genf, 1992–
1994
Theile G (1981) Zur Theorie der optimalen Wiedergabe von stereophonen Sig-
nalen über Lautsprecher und Kopfhörer. Rundfunktechn Mitt 25, 155–169
Weiterführende Literatur
35
Beitrag für Handbuch der Audiotechnik (Stefan Weinzierl, Hrsg), Springer Verlag
Hartmann W M (1996) Listening in rooms and the precedence effect. In: Gilkey
R, Anderson T (Herausg) Binaural and spatial hearing. 191–210, Lawrence
Erlbaum Hilldale NJ
Keidel W D (1966) Das räumliche Hören. In: Handbuch der Psychologie. Band 1,
Teil 1, 518–555, Verlag f Psychol Dr C J Hogrefe Göttingen
Pierce A H (1901) Studies in auditory and visual space perception. Band 1: The
localization of sound. Longmans Green NY
36