Sie sind auf Seite 1von 49

ÜberHören

ICEM 2020

Bachelorarbeit
vorgelegt von

Sebastian Ribeiro Albuquerque Wendt


geboren am 22.08.1988 in Aurich

im August 2020

Erstprüfer: Prof. Michael Edwards


Zweitprüfer: Prof. Thomas Neuhaus
Eidesstattliche Erklärung
Hiermit versichere ich, die vorliegende Abschlussarbeit selbstständig und nur unter Verwen-
dung der von mir angegebenen Quellen und Hilfsmittel verfasst zu haben. Sowohl inhaltlich
als auch wörtlich entnommene Inhalte wurden als solche kenntlich gemacht. Die Arbeit hat
in dieser oder vergleichbarer Form noch keinem anderem Prüfungsgremium vorgelegen.

Datum: Unterschrift:
Zusammenfassung / Abstract
Abstract
In der vorliegen Arbeit wird in zwei explorativen Studien gezeigt, welche Aspekte des Rich-
tungshörens für die Bestimmung des Ursprunges eines Klanges bei der Verwendung von
Kopfhörern von entscheidender Bedeutung sind.
Die Vorstudie kommt zu dem Ergebnis, dass ein Panning auf Basis der interaural time dif-
ference (ITD) sowie der interaural intensity difference (IID) ab einer Azimutdifferenz von
∆θ = 10◦ mehr als 50% der Teilnehmden sicher zwischen zwei verschiedenen Ursprungspo-
sitionen unterscheiden können. Dies gilt nicht nicht für das verwendete Kopfschattenmodell
1, das zur Simulation der interaural filtration difference (IFD) verwendet wurde. Dies führte
dazu, auf Basis der HRTF-Archivs des IRCAM ein eigenes Kopfschattenmodell zu entwi-
ckeln, welches in der weiteren künstlerischen Arbeit und ebenfalls in der Hauptstudie zur
Anwendung kam. Die Hauptstudie konnte die eingangs aufstellte Hypothese, dass die ITD
zur Positionsbestimmung von Klängen in einer binauralen Hörsituation von größerer Bedeu-
tung ist, als die IID zum Teil bestätigen. Darüber hinaus ist in den Daten zu sehen, dass die
Verwendung von widersprüchlichen Positionsinformationen als psychoakustischer Sonderfall
eine Vielzahl künstlerischer Anwendungsmöglichkeiten bietet.
Der zweite Schwerpunkt dieses Bachelorprojekts liegt auf der Erforschung von otoakustischen
Emissionen (OAEs) und ihrem kompositorischen Potential. Im Rahmen meiner Arbeit konn-
te ich erfolgreich Parametergrenzen setzen, innerhalb derer mit großer Effektivität für den
Zuhörer hörbare OAEs erzeugt werden können.
Die hier untersuchten Phänomene wurden zudem kompositorisch in mehreren kleineren Etü-
den, sowie in einem größeren Hörstück verarbeitet:

Tracklist:
_01 ITD-Etüde
_02 IID-Etüde
_03 IFD-Etüde
_04 DPOAE-Etüde
_05 SFOAE-Etüde
_06 TEOAE-Etüde
_07 SFOAE-DPOAE-Etüde
_08 DPOAE-TEOAE-Etüde
_09 SFOAE-TEOAE-Etüde
_10 SFOAE-DPOAE-TEOAE-Etüde
_11 Hörstück: Zettelkasten
Inhaltsverzeichnis
Eidesstattliche Erklärung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I
Zusammenfassung / Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II

1. Einleitung 1

2. Grundlagen binauraler Positionswahrnehmung 3


2.1. ITD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2. IID und IFD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.1. IFD: Modell 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.2. IFD: Modell 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3. Distanzwahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4. Ergänzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3. Stand der Technik 10


3.1. Das Erbe der Mischpulte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2. Mehrkanaltechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3. HRTF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4. Weitere Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

4. Positionsstudien 13
4.1. Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2. Vorstudie: Minimalwahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3. Hauptstudie: Einfluss widersprüchlicher Azimut-Informationen auf die Positi-
onswahrnehmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

5. Ergebnisse 17
5.1. Vorstudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.2. Hauptstudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2.1. Glockenartige Klänge . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.2.2. Fade-Akkorde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.2.3. Pulse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2.4. Rohdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

6. Diskussion 28
6.1. Bewertung der Studien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6.1.1. Vorstudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6.1.2. Hauptstudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

III
Inhaltsverzeichnis

6.2. Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.3. Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

7. Otoakustische Emissionen in der binauralen Musik 31


7.1. Arten von otoakustischen Emissionen . . . . . . . . . . . . . . . . . . . . . . 31
7.1.1. DPOAEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.1.2. SFOAEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.1.3. TEOAEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

A. Azimuths Vorstudie 39

B. Rohdaten Hauptstudie 41

IV
1. Einleitung
Für mich ist es seit Jahren der Normalfall, dass ich Musik über Kopfhörer höre. Tragi-
scherweise so könnte man meinen, ist doch fast jedes Musikstück nicht für das Hören über
Kopfhörer gemischt, sondern darauf ausgelegt, über eine Stereoanlage rezipiert zu werden.
Diese Art des Musikhörens wird vor allem erst recht zu einem Problem, wenn man versucht
ein Stück Musik, das für einen Raum mit vier oder mehr Lautsprechern komponiert wurde in
diesen kleinen virtuellen Raum zwischen den Ohren zu platzieren. In meinem ersten Studium
in Hannover, das ich spätestens ab dem 3. Semester eher im elektronischen Studio zwischen
Moog und Motu verbracht habe, als in der Übezelle mit Schumanns Fantasiestücken, haben
wir im Analyse-Seminar John Cage’s Williams Mix besprochen und zwei Aufnahmen im
Vergleich gehört: die originale 8-Kanal-Version und die weitverbreitete Stereofassung, in der
die Spuren vereinfacht per Amplitudenpanning im Hörbereich verteilt wurden. Das Resul-
tat ist eine überladenes Feuerwerk von Klangschnipseln, das wenig mit der vielschichtigen
lebendigen 8-Kanal-Fassung zu tun hat. Angeregt durch Joachim Heintz habe ich darauf-
hin mit Hilfe von HRIRs versucht einen binauralen Mix zu erstellen. Die Ergebnisse dieses
Experiments wurden damals als Teil einer Klanginstallation des Incontri - Insitut für neue
Musik der HMTM Hannover beim Musik 21 Festival 2012 in Hildesheim präsentiert. Mein
damaliger Eindruck war allerdings, dass die Arbeit mit HRIRs weder wirklich flexibel war,
noch dass die Ergebnisse tatsächlich einen überzeugenden Höreindruck vermittelt haben.
Allerdings war nach dieser ersten Begegnung mit dem Konzept der binauralen Musik mein
Interesse geweckt. Allerdings habe ich erst jetzt, 8 Jahre später, mir die Zeit genommen,
mich dem Thema intensiver anzunehmen. Die Idee für ein Projekt, dass den Kopfhörer in
den Mittelpunkt der Musikproduktion stellt, gärte bereits seit zwei Jahren in meinem Hin-
terkopf und war von Anbeginn mit der Frage danach verbunden, welche psychoakustischen
Illusionen außer der Schaffung virtueller Räume bei der Verwendung von Kopfhörern au-
ßerdem zu erzeugen sind. Anfang 2020, kurz bevor ich mich in die exzessive Vorbereitung
meines Bachelorkonzertes an der FUdK stürzen wollte, kam es jedoch anders. Durch die welt-
weite Pandemie war plötzlich an Konzerte nicht mehr zu denken. Auch mein ursprünglich
angedachtes Bachelorprojekt, dass eine Reihe von Aufnahmen in Hannover beinhaltet hätte,
ließ sich auf einmal in absehbarer Zeit nicht mehr realisieren. Kurzfristig habe ich daraufhin
angefangen, ein neues Bachelorprojekt zu konzipieren, dass sich ohne weiteres in dieser Zeit
der Pandemie realisieren ließe, und sich kompositorisch mit der Isolationsthematik befasst.
Denn obwohl das Hören von Musik über Kopfhörer eine Alltagshandlung darstellt, so ist sie
symbolisch doch auch immer ein Rückzug von der Außenwelt.
Auf Anregung meines Kompositionsprofessors Michael Edwards habe ich das Projekt wie-
derum um einen wissenschaftlichen Teil ergänzt. Ab dem Zeitpunkt bestand das Projekt
nicht mehr nur aus dem Komponieren von Kopfhörermusik, sondern widmete sich auch der

1
KAPITEL 1. EINLEITUNG

Frage, welche Parameter für die verschiedenen psychoakustischen Phänomene in welcher


Weise entscheidend sind. An dieser Stelle wäre allerdings auf die Fülle dieser Erscheinungen
verwiesen, die es unmöglich macht, alle gleichberechtigt zu behandeln. Ich habe mich für
meine Arbeit auf drei unterschiedliche Aspekte beschränkt, von denen ich nur einen Aspekt
in Form zweier Studien untersucht habe. Die in diesem Projekt behandelten Themen sind
otoakustische Emissionen(OAEs), die binaurale Positionswahrnehmung und Klangzeichen.
OAEs sind Klänge, die vor allem von der Cochlea und dem Trommelfell erzeugt werden.
Bei den schon eingangs im Abstract beschrieben Positionsstudien handelt es sich um meinen
Versuch, einen neuen Ansatz für das Komponieren und Mischen binauraler Musik zu finden.
Klangzeichen wiederum sind Klänge, die einen semantischen Gehalt besitzen, dessen An-
wesenheit an sich dem Material der Komposition bereits eine Patina verleiht und einen
Hauch von Nostalgie mit sich bringt. Ursprung dieses Ansatzes war die Klangaufnahme ei-
nes Schweines auf dem Weg zur Schlachtbank, die Teil einer alten Radioreportage war, die
ich vor vielen Jahren gehört habe. Unabhängig aller politischer Implikationen des ob und
wie man Tiere essen sollte, bezeugt die Existenz der Aufnahme vor allem, dass dieses Tier,
selbst wenn es wie durch ein Wunder nicht geschlachtet geworden wäre, 40 Jahre später nicht
mehr lebt. Und doch kann das Ohr nicht unbedingt immer unterscheiden, ob das, was wir
hören, echt ist, oder nur echt erscheint. Die Klangaufnahme wird damit, wie das Foto eines
zum Tode Verurteilten, zum nostalgischen Zeichen der Abwesenheit.

2
2. Grundlagen binauraler
Positionswahrnehmung
Zu Beginn möchte ich erläutern, wie die Positionswahrnehmung von Klängen durch Hören
funktioniert und wie sich diese Phänomene über Kopfhörer simulieren lassen. Grundsätzlich
ist die menschliche Physiognomie darauf ausgerichtet, den Ursprung realer Ereignisse im
Raum zu verorten. Generell kann eine Position eines Ereignisses je nach Art und Position
taktil, visuell und auditiv bestimmt werden. Eine taktile Positionswahrnehmung findet vor
allem im Nahbereich durch Berührung statt, aber auch durch die Wahrnehmung feiner Luft-
bewegungen und Temperaturänderungen. Da unsere gesamte Haut als Sinnesorgan dient[1],
kann so im Nahfeld der gesamte dreidimensionale Raum wahrgenommen werden.
Die visuelle Positionswahrnehmung erfolgt durch die Augen und kann sowohl im Nahbereich
als auch im Fernbereich Aufschluss über die Position eines Reizes geben. Die größte Genau-
igkeit liegt im Fokusbereich, das gesamte Gesichtsfeld wiederum deckt allerdings nach links
und recht jeweils einen Winkel von über 90 Grad ab sowie horizontal und vertikal jeweils
einen Winkel von etwa 70 Grad.[2]
Die auditive Positionswahrnehmung durch die Ohren ermöglicht wiederum eine horizontale
Klangwahrnehmung von 360 Grad. Die horizontale Klangwahrnehmung ist deutlich weni-
ger stark ausgeprägt und ist unter anderem vom Spektrum des Klanges sowie der Tonhöhe
abhängig.[3] Im folgenden sollen hier die grundlegenden Faktoren der horizontalen Positi-
onswahrnehmung dargestellt werden und aufgezeigt werden, welche Einschränkungen es im
Bereich der binauralen Simulation zu beachten gibt. Es gibt drei Bereiche, die für die ho-
rizontale Klangwahrnehmung von entscheidender Bedeutung sind: Amplitudenunterschiede,
Laufzeitunterschiede und Filtrierung.[4]

2.1. ITD
Die Abkürzung ITD steht für Interaural Time Difference. Diese Laufzeitverschiebung bezieht
sich auf das physikalische Phänomen, dass Schallwellen, die von einem Objekt ausgehen, das
sich nicht direkt vor oder respektive hinter uns befindet, zu unterschiedlichen Zeitpunkten
auf die Trommelfelle des linken und rechten Ohres treffen.[5] Befindet sich ein Klang direkt
vor der Person, gibt es keine ITD. (Abbildung 2.1)
Befindet sich der Klang etwas weiter links oder rechts, muss der Schall eine längere Strecke
zurücklegen, um das abgewandte Ohr zu erreichen. (Abbildung 2.2)
Die größtmögliche Laufzeitdifferenz tritt dann auf, wenn sich die Klangquelle direkt vor
dem linken oder rechten Ohr befindet und somit die größtmögliche Wegstrecke besteht.
(Abbildung 2.3)

3
KAPITEL 2. GRUNDLAGEN BINAURALER POSITIONSWAHRNEHMUNG

Abbildung 2.1.: Keine ITD, da sich der Klangquelle direkt vor dem Hörer befindet

Abbildung 2.2.: ITD, da sich der Klangquelle nicht direkt vor dem Hörer befindet

Die Position eines Klanges im Raum, kann durch den sogenannten Azimut θ beschrieben wer-
den. Dabei entspricht ein Winkel von 0◦ der Mitte, 90◦ maximal links, -90◦ maximal rechts.
Für die Laufzeitveränderung in Abhängigkeit vom Azimut θ ergibt sich eine annähernd li-
neare Abhängigkeit.(Abbildung 2.4) 1 Die maximale reale Laufzeitdifferenz lässt sich also
aus der Schallgeschwindigkeit und dem Abstand der Trommelfelle zueinander berechnen.
Bei der binauralen Spatialisierung müsste noch der Abstand der Lautsprechermembranen
zu den Trommelfellen einbezogen werden, da wir uns im Bereich der Mikrosekunden be-
wegen. Bei meinen Untersuchungen hat sich eine maximaler Laufzeitunterschied von 0.66
Millisekunden als sinnvoll erwiesen. Größere Unterschiede haben dafür gesorgt, dass bereits
Verwischungs- und Nachhalleffekte auftraten.
Die erste Etüde widmet sich ausschließlich dieser Art der Spatialisierung (CD: Track 1).

1
Für diese Arbeit habe ich eine lineare Abhängigkeit als vereinfachtes Modell aus verschiedenen Gründen
angenommen: Die Unterschiede zwischen einem linearen Modell und reellen Messdaten, kommen in ers-
ter Linie zum Tragen, würde man versuchen für eine bestimmte Person, die perfekte Verräumlichung zu
simulieren. Da die Laufzeitunterschiede von Person zu Person jedoch variieren und bei einer binauralen
Simulation auch Aspekte wie die Abstände der Lautsprechermembranen der Kopfhörer berücksichtigt
werden müssten, hat sich die Annäherung an eine lineare Beziehung als sinnvoll erwiesen, da sie gege-
benenfalls Unterschiede in Statur und Wiedergabesituation zu nivellieren vermag, wenig Rechenleistung
benötigt und lediglich im direkten Vergleich zu einer maßgeschneiderten Raumsimulation ein Unterschied
zu bemerken wäre.

4
KAPITEL 2. GRUNDLAGEN BINAURALER POSITIONSWAHRNEHMUNG

Abbildung 2.3.: maximale ITD, da sich der Klangquelle maximal auf der rechten Seite befindet.

Abbildung 2.4.: Boynton, G.: https://courses.washington.edu/psy333/lecture_pdfs/chapter12_SoundLocalization.pdf


nach Goldstein: Sensation and Perception

2.2. IID und IFD


Ein weiterer wichtiger Aspekt in der Positionswahrnehmung von Klängen sind die durch
den Kopfschatten (bzw. akustischen Schatten) hervorgerufenen Klangveränderungen.[6] Der
Kopfschatten sorgt dafür, dass Klänge auf dem dem Klang abgewandten Trommelfell leiser
und weniger höhenintensiv auftreffen. Schleich kommt in einer Studie von 2004 zur Unter-
suchung des Kopfschatteneffekts bei Cochlea-Implantatträgern auf eine Signalabschwächung
von 6,8 dB. Allerdings ist diese Abschwächung frequenzabhängig.2 Als gangbaren Zwischen-
weg für eine binaurale Simulation hat sich im Rahmen dieser Arbeit die von Adler beschrie-
bene Faktorenlösung herausgestellt[8]. Die Formeln für die Faktorenberechnung sind:

IIDlinks (θ) = 0.5 + 0.25sin(θ)


und
IIDrechts (θ) = 1 − IIDlinks

2
Laut Begault[7] ist unterhalb von 1 kHz keine nennenswerte Abschwächung wahrzunehmen. Bei 3 kHz
und einem Azimut von 90◦ wird das Signal um 10dB abgeschwächt, 6kHz bereits um 20dB.

5
KAPITEL 2. GRUNDLAGEN BINAURALER POSITIONSWAHRNEHMUNG

Daraus ergibt sich eine frequenzunabhängige maximale IID von etwa 10dB. Die Etüde 2
untersucht diesen Aspekt der Positionswahrnehmung isoliert.
Die von Begault beschriebene frequenzabhängige Abschwächung lässt sich jedoch über eine
Filtrierung leicht ergänzen. Da der Aspekt der Positionswahrnehmung durch Filtrierung auch
weiterhin einen zentralen Punkt in dieser Arbeit einnimmt, möchte ich an dieser Stelle in
Analogie zur ITD und IID den Begriff der IFD, die interaural filtration difference einführen.

2.2.1. IFD: Modell 1


Aus einer generellen Betrachtung von head related transfer functions (HRTFs)3 lässt sich
schließen, dass Schall, sobald er sich um den Kopf einer Person herum bewegt, vor allem
im Bereich ab 3 kHz, an Energie verliert. Dieser Effekt tritt wie im vorherigen Abschnitt
gezeigt noch viel stärker in höheren Frequenzbereichen auf. Für die Anwendung in einer
elektroakustischen Komposition lässt sich dieses Phänomen am einfachsten durch einen FIR-
Lowpassfilter mit einem einzigen Filterglied pro Kanal simulieren, für den in Abhängigkeit
vom Azimut Koeffizienten berechnet werden. In der bereits erwähnten Arbeit von Adler[8]
findet sich auch dafür eine Formel:

0.2 · −sin(θ), −180◦ < θ < 0◦ (Klänge von rechts)
LPL (θ) =
 0, 0◦ ≤ θ ≤ 180◦ (Klänge von links)

0.2 · sin(θ), 0◦ < θ < 180◦ (Klänge von links)
LPR (θ) =
 0, −180◦ ≤ θ ≤ 0◦ (Klänge von rechts)
Diese Variante ist einfach zu programmieren und erfordert wenig Rechenleistung, allerdings
hat sie einen ausgesprochen geringen Effekt auf die Wahrnehmung. In meiner Vorstudie, die
ich in Kapital 4.1 näher erläutern werde, komme ich zu dem Ergebnis, dass diese Filtrie-
rungssimulation für mein weiteres Arbeiten nicht ausreichend ist. Daher habe ich anhand
von frei zugänglichen HRTF-Impulsantworten (HRIRs) des IRCAM versucht ein eigenes Fil-
trierungssystem zu entwicklen.

2.2.2. IFD: Modell 2


Um Informationen über die IFD zu gewinnen, habe ich mit 5 Impulsantworten aus der
IRCAM-Bibliothek gearbeitet. 4 Um die Filtereigenschaften herauszufinden, habe ich alle IRs
mit weißem Rauschen gefaltet, den rechten und linken Kanal getrennt auf -30dB normalisiert,
um die Amplitudenunterschiede auszugleichen, und dann alle Klänge übereinander gelegt.
Betrachtet man nun das Spektrum des so entstandenen Klanges ergibt sich folgendes Bild
(Abbildung 2.5).
Es ist wird deutlich, dass ab etwa 4kHz die höheren Frequenzen abgeschwächt werden. Die
Verstärkung in der Tiefe wird in der Realität durch die von Adler beschriebene Abschwächung
3
HRTFs siehe Kapitel 3.3
4
Die verwendeten HRIRs waren die Nummern: 1059, 1016, 1012, 1006 und 1003. Mit einem Azimut von
jeweils 90◦ , und einer Höhe = 0◦ [9]

6
KAPITEL 2. GRUNDLAGEN BINAURALER POSITIONSWAHRNEHMUNG

Abbildung 2.5.: Die weiße Linie markiert den Frequenzverlauf des linken Kanals , die blaue Linie, den des rechten.

um 10dB ausgeglichen. Überraschend war allerdings, dass der Klang tatsächlich als linkslastig
wahrgenommen wird. Ein Nachbau dieses Filterverlaufs in CSound stellte sich ein wenig
komplizierter, allerdings nicht als unmöglich heraus (Abbildung 2.6).
Der Nachbau unterscheidet sich vor allem dadurch, dass eine Vielzahl kleinerer Amplitu-
denunterschiede geglättet sind und im Bereich von 12kHz ein kleines lokales Amplituden-
maximum fehlt. Allerdings lässt sich dieser Unterschied im direkten Vergleich fast nicht
wahrnehmen. Somit stellt dieses Modell eine gute Näherung an das Ergebnis der überlager-
ten HRIRs dar. In der Anwendung wird das Stereosignal in zwei separate Kanäle aleft und
aright geteilt. aleft und aright werden jeweils separat mit Koeffizienten multipliziert gefiltert.
Aus dem Azimut lassen sich folgende Koeffizienten errechnen:
q
θ+90
knear (θ) = 180
und kf ar (θ) = 1 − knear

Die mit den entsprechenden Koeffizienten skalierten Signale werden dann in den entspre-
chenden Filterkaskaden filtnear und filtfar manipuliert. Für das so entstehende Stereosignal
aIFD ergibt sich somit folgende Formel:

f iltnear (alef t · knear (θ)) + f iltf ar (alef t · kf ar (θ)) , f ür den linken Kanal


aIF D (θ) =
f iltnear (aright · knear (−1 · θ) + f iltf ar (alef t · kf ar (−1 · θ)) , f ür den rechten Kanal

Die Etüde 3 beschäftigt sich ausschließlich mit den Panningmöglichkeiten durch IFD.

7
KAPITEL 2. GRUNDLAGEN BINAURALER POSITIONSWAHRNEHMUNG

Abbildung 2.6.: Frequenzverlauf meines Nachbaus in CSound

2.3. Distanzwahrnehmung
Der zweite Aspekt der Positionierung in der horizontalen Ebene ist die Wahrnehmung bezie-
hungsweise die Simulation von Distanz. Je weiter eine Klangquelle vom Hörenden entfernt
ist, desto leiser ist der wahrgenommene Klang. Außerdem verschiebt sich das Verhältnis von
Raumklang zu Direktklang und die Zusammensetzung der Atmosphäre sorgt für eine Hö-
hendämpfung.
Die Höhendämpfung lässt sich nach der Norm ISO 9613-1:1993 berechnen.5 Die Formel
ergibt, dass sich die distanzabhängige Höhendämpfung durch eine Tiefpassfilter mit einer
Cutoff-Frequenz von 6 kHz und einer Flankensteilheit von 1,5 dB pro Oktave annähernd gut
bestimmen lässt. Die Flankensteilheit des Filters nimmt pro Meter um 0,1 dB zu.
Für die distanzabhängige Lautstärkenabnahme gilt die Regel, dass für jede Verdopplung des
Abstandes der Klangquelle vom Hörer, sich die Lautstärke für den Hörer um 6dB verrin-
gert.6 Der Distanzkoeffizient kdist in Abhängigkeit von der Distanz d in Metern lässt sich
Näherungsweise wie folgt bestimmen:7
1
kdist (d) =
1+d

5
Die umfangreiche Berechnung lässt sich unter anderem auf http://www.sengpielaudio.com/
AirdampingFormula.htm abrufen.
6
auch hier sei auf die Homepage von Eberhard Sengpiel verwiesen[10]
7
Natürlich ist diese Näherung nicht ganz wirklichkeitsgetreu. Allerdings ist der Unterschied zwischen dem
realen Distanzverhalten und dieser Näherung ab einer virtuellen Distanz von 6 Metern bereits verschwin-
dend gering und ermöglicht wiederum im Nahfeld expressivere Lautstärkenbewegungen.

8
KAPITEL 2. GRUNDLAGEN BINAURALER POSITIONSWAHRNEHMUNG

Das Verhältnis von Raumschall zu Direktschall ist in der binauralen Raumsimulation aller-
dings anders als in reellen Hörsituationen in der Umwelt, ein wenig freier und flexibler zu
handhaben. In meiner eigenen Untersuchung konnte ich Festellen, dass bei der Verwendung
eines Faltungshall vor allem sehr kleine Räume und eine nur minimale Verhallung bereits
einen deutlichen qualitativen Unterschied hervorbrachten und plötzlich die Illusion eines
Raumes entstehen konnte.

2.4. Ergänzungen
In der Auswertung verschiedener HRTFs von Begault[7] findet sich der Hinweis, dass bei einer
Raumsimulation ebenfalls die Reflektionen der Schulter und des Torsos, das Resonanzver-
halten und die Reflektionen des Gehörgangs und des Außenohres Ohr berücksichtigt werden
müssen. Dieses lässt sich jedoch einfach durch Bandpass- und Bandsperrenfilter realisieren.8
Übrig bleibt lediglich die Frage, warum ich mich auf die ’vorderen’ 180◦ beschränke. Die
Antwort ist eine praktische: Da es ohne die Verwendung personalisierter HRTFs ohne kaum
zu realisieren ist, die Klangposition nach vorne ’aus dem Kopf heraus’ zu bewegen, ver-
zichte ich hier auf den Versuch Klänge ’nach Hinten’ zu bewegen. Da im kompositorisch-
künstlerischen Kontext ein zusätzlicher, zur Simulation von Klängen hinter dem Hörer, ver-
wendeter Tiefpassfilter[7] intuitiv vom Hörer nicht zwangsweise als Positionsinformation ge-
deutet wird- sondern gegebenenfalls eher als zusätzliche Klangmanipulation -, beschränke ich
mich ausschließlich auf Bewegungsmodelle, die Bewegungen vor der Hörer darstellen sollen.

8
Engbandige Bandsperre bei 7kHz und zusätzliche Anhebung bei 3kHz

9
3. Stand der Technik
Im Bereich der Medienproduktionen stellt die Produktion von Musikstücken, die speziell
für ein dezidiertes Wiedergabeverfahren ausgelegt sind, einen absoluten Sonderfall dar. Ein
Großteil aller Musikstücke wird nach wie vor für eine stereophone Wiedergabe über Laut-
sprecher produziert und gemischt. In diesem Kapitel soll es darum gehen, welche Möglich-
keiten der Verräumlichung generell zur Verfügung stehen und wie ihr Einsatz für binaurales
Arbeiten zu bewerten ist.

3.1. Das Erbe der Mischpulte


Der technisch einfachste Weg einen Klang an einem Mischpult im Stereofeld zu bewegen
ist der Panoramaregler. Es handelt sich dabei um das Verfahren der Intensitätsstereopho-
nie, das vor allem dafür gedacht ist, einen Klang zwischen zwei Lautsprechern zu bewegen.
Die meisten Digital-Audio-Workstations (DAWs) bieten standardmäßig genau diese Art des
Pannings an. Für eine optimale Stereoauflösung wird für gewöhnlich empfohlen, dass sich
Hörer, linker und rechter Lautsprecher im gleichen Abstand zueinander befinden und ein
gleichwinkeliges Dreieck bilden.1

Abbildung 3.1.: Ideale Lautsprecheraufstellung, https://www.genelec.com/monitor-placement, 01.07.20

Der Grafik lässt sich bereits entnehmen, dass ein Panningverfahren, dessen volles Potential
im dargestellten Aufbau am besten zu realisieren ist, weniger zufrieden stellende Ergebnisse

1
Leider gibt es für diesen Hinweis keine Quelle, allerdings weisen Hersteller wie z.B. Genelec explizit darauf
hin.

10
KAPITEL 3. STAND DER TECHNIK

liefert, wenn sich die Lautsprecher in Form von Kopfhörern direkt an den Ohren befinden
und so mit dem Hörer eine Linie bilden.

3.2. Mehrkanaltechniken
Neben proprietären Verfahren2 und anderen frei zugänglichen Anwendungen3 sind die beiden
am weitesten verbreiteten Verfahren zur Verräumlichung von Klängen wohl Ambisonics und
VBAP. Während bei VBAP (Vector based Amplitude Panning) eine Verräumlichung aus-
schließlich durch Pegeldifferenzen erzeugt wird, werden bei Ambisonics wiederum Laufzeit-
unterschiede berücksichtigt. Beide Verfahren sind allerdings für eine binaurale Anwendung
unbrauchbar, da sie erst ab einer Anzahl von mindestens vier Lautsprechern überzeugende
Ergebnisse liefern. Ebenso wie die Intensitätsstereophonie sind beide Verfahren für den Fall
entworfen worden, dass sich die Lautsprecher nicht direkt an den Ohren des Hörers befinden.
Die einzige Möglichkeit eines dieser Mehrkanalverräumlichungsverfahren für eine binaurale
Produktion zu verwenden, wäre lediglich die Wiedergabe der Rohfassung über ein solches
Mehrkanalsystem, um diese verräumlicht über einen Kunstkopf aufzunehmen.4

3.3. HRTF
Eine Alternative zu den vorgestellten Verfahren stellen allerdings HRTFs dar. Bei einer head
related transfer function (HRTF) handelt es sich um eine Übertragungsfunktion, welche die
Filterwirkung des Kopfes und des Außenohres beschreiben sowie anfallende Intensitäts- und
Laufzeitunterschiede darstellen soll, die genau dann auftreten, wenn ein von einer bestimm-
ten Position ausgehender Klang die Ohren erreicht.[7] HRTFs lassen sich sowohl als Formal
darstellen als auch direkt als Impulsantworten - head related Impulse Response (HRIR).
Das Problem mit HRIRs bzw. HRTFs ist allerdings, dass diese nur dann eine überzeugende
Raumdarstellung ermöglichen, wenn sie auf den Hörer maßgeschneidert sind, beziehungs-
weise mittels kleinster Mikrophone im Gehörgang des Hörer zuvor ausgemessen wurden.[7]
Aus genau diesen Gründen der Ungleichheit der Anatomie dürfte auch die im vorherigen
Unterkapitel beschriebene Kunstkopfaufnahme wahrscheinlich nicht zu zufriedenstellenden
Ergebnissen führen.

3.4. Weitere Verfahren


Neben den bereits beschriebenen Verfahren wurde ich kürzlich im Rahmen dieser Arbeit
auf zwei weitere Verfahren aufmerksam gemacht. Bei dem ersten handelt es sich um das
2
Dolby Sorround, Dolby Atmos, Fraunhofer upHear, THX Spatial Audio, Astro Spatial Audio, u.a.
3
z.B. Zirkonium
4
So wurde unter anderem von Daniel Rudrich et al.[11] am IEM Graz ein frei zugänglicher binauralen
Ambisonicsdecoder entwickelt, der genau diesen Vorgang simulieren soll. Allerdings arbeitet dieser genau
wie andere Systeme mit HRTFs und bewältigt damit ebenfalls die in 3.3 beschriebenen Probleme nicht.

11
KAPITEL 3. STAND DER TECHNIK

Sennheiser AMBEO Orbist VST-Plugin, das mit Hilfe von HRTFs, die mit dem Neumann
KU100 Kunstkopfmikrofon vermessen wurden, eine binaurale Spatialisierung ermöglicht. Die
Resultate sind ziemlich überzeugend, allerdings gibt es keine Möglichkeit in das Plugin hin-
einzuschauen und genau festzustellen, wie aus den Messdaten eine Spatialisierung generiert
wird.
Das zweite Verfahren ist die der AutoPanner Plugin von Tom Szilagyi[12], das sich in der
’8D-Audio’-Gemeinde5 großer Beliebtheit erfreut, da es ermöglicht ohne großen Aufwand je-
des Stereomusik ’im Kreis fliegen zu lassen’.
Der Vollständigkeit halber sollte auch noch das kostenpflichtige NuSpace Audio-Plugin Muze[13]
erwähnt werden, das genau wie AMBEO auf der Basis von HRTFs eine Verräumlichung er-
zeugt.

5
Der Ursprung des Begriffs 8D-Audio ist unklar, allerdings ist er auf youtube weit verbreitet. 8D-
’Remixes’ bekannter Musikstücke verzeichnen durchaus 8-stellige Zugriffszahlen.https://www.youtube.
com/watch?v=CepeycyGhwE

12
4. Positionsstudien
4.1. Hintergrund
Wie im vorigen Kapitel bereits angedeutet, steht man, wenn man Musik für Kopfhörer bi-
naural mischen möchte, vor dem Problem, dass es keinen wirklichen Standard dafür gibt.
Es gibt eine Vielzahl von kommerziellen und nicht-kommerziellen Angeboten von denen die
meisten allerdings eine Blackbox darstellen und nicht unbedingt auf die persönliche Bedürf-
nisse anpassbar sind. Daher war es für mich ein Anreiz genauer zu untersuchen, welche
Parameter die Positionswahrnehmung auf welche Art und Weise beeinflussen. Die beiden
durchgeführten Studien sollen einen Ansatzpunkt liefern, technisch als auch künstlerisch zu
verstehen, welche Möglichkeiten es beim Komponieren und Mischen binauraler Musik gibt.
In meinem ursprünglichen Projektentwurf für die vorliegende Arbeit habe ich das Vorhaben
skizziert nur eine Studie durchzuführen. In der Phase des Studiendesigns und der Recherche
hat sich allerdings ergeben, dass ich für das Design der eigentlichen Positionsstudie - der
Hauptstudie - mehr Informationen benötigte.
In einer Studie von Strybel et al. von 1993 ist beschrieben, dass der kleinste wahrnehmbare
Positionsunterschied bei sich bewegenden Klangquellen 3◦ beträgt.[14] Allerdings sind die-
se Ergebnisse aus zwei Gründen für meine Arbeit unzureichend. Zuerst wäre anzumerken,
dass an der Studie lediglich fünf Personen teilgenommen haben, die als ’experienced liste-
ners’ beschrieben werden. Darüber hinaus ist das einzige verwendete Klangmaterial weißes
Rauschen. Auf diese Studie Bezug nehmend, ergänzt Begault, dass der kleinste wahrnehm-
bare Positionsunterschied bei statischen Klangquellen 1◦ beträgt[7], bringt allerdings keinen
Quellennachweis. Allerdings verweist er darauf, dass eine solch feine Auflösung für das Ohr
nur unter optimalen Hörumständen zu erreichen ist - ohne diese zu definieren. Für Kompo-
nist_innen sind jedoch ’ideale Hörumstände’ nicht unbedingt immer zu realisieren. Gerade
bei Musik, die speziell für Kopfhörer komponiert wird, ist es realitätsfern, davon auszugehen,
dass die Umstände unter denen die Musik letztendlich rezipiert wird, immer die gleichen sei-
en. Die Vorstudie dient dazu, einen Eindruck zu bekommen, welche Positionsunterschiede
von verschiedenen Hörern mit ihren persönlichen Kopfhörern wahrgenommen werden kön-
nen. In der anschließenden Hauptstudie fließen diese Ergebnisse als Parameter ein, um den
Umfang der Studie zu bestimmen.

13
KAPITEL 4. POSITIONSSTUDIEN

4.2. Vorstudie: Minimalwahrnehmung


Ziel dieser Studie ist es herauszubekommen, wie groß der kleinste wahrnehmbare Unterschied
von statischen Klangquellen ist. Dafür wurde den Teilnehmenden 68 Beispiele vorgespielt.
In jedem Beispiel wird das gleiche komplexe Klanggebilde zwei mal abgespielt, jedoch mit
unterschiedlichen Panningparametern. Die drei Panningaspekte (ITD, IID und IFD) wurden
mit folgenden Azimutunterschieden separat getestet:

Azimut
ITD 2 3 5 6 7 9 10 12 15 17 20 22 25 27 30
IID 2 3 5 6 7 9 10 12 15 17 20 22 25 27 30
IFD 15 20 30 40 50 60 70 80 90

Die einzelnen Beispiele wurden auf drei verschiedene Weisen gemischt, so dass es drei ver-
schiedene Tests gab, um sowohl einen Lerneffekt, als auch möglicherweise Konzentrationsver-
luste statistisch auszugleichen. Die absoluten Positionen, von denen die Differenzen gemessen
wurden, sind so gewählt, dass sie gleichmäßig in der horizontalen Ebene verteilt sind.1 Die
Teilnehmenden sollten für jedes Beispiel die Frage beantworten, welches Klanggebilde sich
näher an der Mitte befindet. Die Teilnehmenden konnten zwischen drei Antwortmöglichkei-
ten wählen: Entweder befindet sich Klanggebilde A oder Klanggebilde B näher an der Mitte
oder es wird kein Unterschied wahrgenommen. Die Teilnehmer erhielten jeweils eine Datei,
auf der alle Beispiele nacheinander abgespielt wurden, und wurden angehalten, bei der Ent-
scheidung ihren initialen Impulsen zu folgen.

4.3. Hauptstudie: Einfluss widersprüchlicher


Azimut-Informationen auf die Positionswahrnehmung
Aus den Ergebnissen der Vorstudie2 war zu schließen, dass ITD und IID einen ähnliche Zu-
verlässigkeit für die Positionswahrnehmung besitzen und das verwendete IFD sich als sehr
unzureichend herausgestellt hat. Die Hypothese, dass die ITD von größerer Bedeutung ist
bleibt nach wie vor bestehen. Auf Grundlage dieser Vorstudien-Ergebnisse liegt es nahe das
ursprünglich im Projektentwurf skizzierte Studiendesign etwas zu verändern.
In dem Versuchsaufbau werden jeweils drei verschiedene Klanggebilde getestet: aus Sinustö-
nen synthetisierte Glockenschläge, auf- und abschwellende Sinusakkorde3 und eine Gruppe
von fünf bandbreitenbegrenzten Pulsen. Die Winkel für ITD und IID werden jeweils an der
0-Achse gespiegelt, um einheitlichen Ergebnisse zu gewährleisten. Der IFD-Azimut ist mit

1
siehe Anhang 1: Azimuts Vorstudie
2
siehe Kapitel 5.1
3
Die Begriffe Sinusakkord, Fade-Akkord und Schwellerakkord sind auswechselbar und beschreiben jeweils
den gleichen Klangtyp

14
KAPITEL 4. POSITIONSSTUDIEN

90◦ bzw. -90◦ so groß wie nur möglich.4 Die Studie soll folgende Fragen beantworten:

1. Ab welchen Azimut-Unterschieden ist die ITD für die Positionsbestimmung wichtiger


als die IID?
2. Ist die IFD ein bestimmender Faktor für die Positionswahrnehmung?
3. Sind die Positionsbestimmungen wiederholbar?
4. Wie tragen widersprüchliche Azimut-Informationen zur Unsicherheit bei der Positions-
wahrnehmung bei?
5. Gibt es in der Positionswahrnehmung nennenswerte von Klangtypen abhängige Unter-
schiede?

Da Positionsdifferenzen ∆θ wurden entsprechend der Vorstudie gewählt. Es werden 15 ver-


schiedene Differenzen von 22◦ bis 176◦ mit jeweils 11◦ Inkrement pro Text gemessen. Die
Differenzen wurden wie folgt getestet (θIT D in blau, θIID in rot, θIF D in gelb) (Abbildungen
4.1, 4.2 und 4.3)

Abbildung 4.1.: Wiederholbarkeit von IID und IFT mit widersprüchlicher ITD
Getestete ∆θ: 22◦ , 33◦ , 44◦ , 55◦ , 88◦

Bevor die Teilnehmenden den Test starten werden ihnen sechs Beispiele - drei links, drei
rechts - vorgespielt, um die Kopfhörer richtig aufzusetzen und sicherzustellen, dass es keine
Verwechslung gibt. Den Teilnehmenden werden alle Beispiele nacheinander vorgespielt. Es
gibt sieben Antwortmöglichkeiten: sehr weit links (-3), links (-2), etwas links (-1), in der
Mitte (0), etwa rechts (1), rechts (2), weit rechts (3). Die Teilnehmenden sind angehalten
sich intuitiv auf eine oder mehrere Positionen festzulegen, wo ihrer Meinung nach der Klang
seinen Ursprung hat. Alle Beispiele sind durch eine Pause getrennt. Es gibt drei verschiedene
Varianten des Fragebogens, um Ermüdung und/oder einen Lerneffekt statistisch auszuschlie-
ßen.

4
Die Vorstudie hat gezeigt, dass das Modell nach Adler keine nennenswerten Auswirkungen auf die Positi-
onswahrnehmung hat, daher wird in dieser Studie das Modell 2 verwendet. Um die Anzahl der Testbei-
spiele in einem praktikablen Umfang zu halten, wird allerdings nur mit den Maxima getestet.

15
KAPITEL 4. POSITIONSSTUDIEN

Abbildung 4.2.: Wiederholbarkeit von ITD und IFT mit widersprüchlicher IID
Getestete ∆θ: 99◦ , 132◦ , 143◦ , 165◦

Abbildung 4.3.: Einfluss der IFD auf widersprüchliche IID-ITD Kombinationen


Getestete ∆θ: 66◦ , 77◦ , 132◦ , 154◦ , 176◦

16
5. Ergebnisse
5.1. Vorstudie
An der von mir durchgeführten Vorstudie nahmen insgesamt 16 Personen teil. Alle Teilneh-
menden waren zum Zeitpunkt der Studie zwischen 22 und 47 Jahren alt und sind als Musi-
ker_innen und/oder Komponist_innen im Bereich der elektroakustischen und/oder zeitge-
nössischen Musik aktiv.
Die Studie zeigt, dass bei ITD und IID abhängiger Positionierung von Klängen bei einem
Winkel von ≤ 10◦ Azimut die Wahrscheinlichkeit, die Position eines Klanges eindeutig zu
bestimmen, unter 50% sinkt. Bei IFD abhängiger Klangpositionierung nach dem Modell 11
werden selbst Klänge bei maximaler Auslenkung nur in 42% der Fälle richtig zugeordnet.

Abbildung 5.1.: Grafische Darstellung abnehmender Zuverlässigkeit bei kleiner werdendem Azimut im Falle ITD-abhängiger
Klangpositionierung

1
siehe Kapitel 2.2.1

17
KAPITEL 5. ERGEBNISSE

Abbildung 5.2.: Grafische Darstellung abnehmender Zuverlässigkeit bei kleiner werdendem Azimut im Falle IID-abhängiger
Klangpositionierung

Abbildung 5.1 zeigt einen deutlichen Trend für die Korrelation zwischen Größe des Winkel-
unterschieds und der Zuverlässigkeit der tatsächlichen Verortung der Klanges. Bis zu einem
Unterschied von 22◦ wird zu 90% korrekt bestimmt, welcher Klang sich näher an der Mit-
te befindet. Kleine Unterschiede von 2-3◦ werden nur zu 20% korrekt erkannt. Auffällig ist
außerdem, dass die Fehlerquote (in rot) 30% nicht übersteigt, stattdessen die Teilnehmden
bei kleineren Abweichungen eher angeben, dass sie keinen Unterschied wahrnehmen können.
Ein Frage wirft allerdings der Genauigkeitseinbruch bei 12◦ auf. Auf diesen und auch den
Parallelfall bei 17◦ in der IID abhängigen Positionswahrnehmung werde ich in der Diskussion
eingehen.
Aus Abbildung 5.2 lässt sich der gleiche Trend für die Korrelation von Azimut und Differen-
zerkennbarkeit ablesen. Auffallend dabei ist allerdings, dass die Fehlerquote etwas höher zu
sein scheint, dafür jedoch kleinste Unterschiede von 2◦ mit 40% doppelt so häufig erkannt
werden, wie bei der ITD-abhängigen Positionierung.

Abbildung 5.3.: Grafische Darstellung abnehmender Zuverlässigkeit bei kleiner werdendem Azimut im Falle IFD-abhängiger
Klangpositionierung

18
KAPITEL 5. ERGEBNISSE

Die Abbildung 5.3 zeigt einer deutlich anderes Bild für die IFD-abhängige Positionierung.
Die Rate richtiger Antworten liegt durchschnittlich bei 30% und ist somit nicht höher als
simples Raten. Generell geben für jeden Azimut mindestens 50% der Teilnehmenden an,
keinen Unterschied zu bemerken.
Als zusätzliche Rückmeldung kam von 3 Teilnehmenden die Information, dass sie bei einigen
- nicht näher spezifizierten - Klängen das Gefühl hatten, der Klang käme aus verschiedenen
Richtungen.
Die durchschnittliche Anzahl korrekt identifizierter Positionsunterschiede lag bei 32,125 von
68 bei einer Standardabweichung von 5,03. Die niedrigste Anzahl korrekter Antworten lag
bei 25, die höchste bei 42.

5.2. Hauptstudie
In der Vorstudie ist zu erkennen, dass eine eindeutige Zuordnung der Klangquelle bei isolier-
ter Betrachtung der Parameter ab einem Winkel von etwa 20◦ mit hoher Wahrscheinlichkeit
gewährleistet ist. In der Hauptstudie ist nun wiederum deutlich zu erkennen, dass bei wi-
dersprüchlichen Positionsinformationen die Eindeutigkeit abnimmt. Ebenso wird ersichtlich,
dass bereits in der Klanggestalt an sich ihre Positionserkennbarkeit angelegt ist. Glockenarti-
ge Klänge sowie an- und abschwellende Sinusakkorde wurden öfter einer konkreten Richtung
zugeordnet als die Impulsgruppen.
Überraschend ist außerdem, dass die Anzahl der genannten Klangursprünge bei Klängen,
für die θIT D < 0◦ gilt, in den Stichproben zur Wiederholbarkeit generell höher ist. Die im
folgenden zu besprechenden Diagramme sind wie folgt zu lesen:
Die X-Achse gibt die Azimutdifferenz ∆θ zwischen θIT D und θIID an. Auf der linken Y-Achse
ist die Korrelation der Antworten mit den entsprechenden Aspekten der Positionswahrneh-
mung abzulesen. Die blaue durchgezogene Linie zeigt die (durchschnittliche) Korrelation mit
θIT D an, die rote durchgezogene Linie die (durchschnittliche) Korrelation mit θIID und die
graue durchgezogene Linie indiziert, dass die Teilnehmenden den Klang in der Mitte verortet
haben. Der grüne Hintergrund gibt an, wie sicher sich die Teilnehmenden sind, den Klang
möglichst eindeutig lokalisiert zu haben. Je höher der Wert, desto weniger Positionen haben
die Teilnehmenden als Ursprung des Klanges angegeben. Die gestrichelten und gepunkte-
ten Linien deuten stichprobenartige Überprüfungen der Ergebniswiederholbarkeit an, die
gepunktete für den Fall, dass θIT D ein Panning nach links und θIID ein Panning nach rechts
signalisiert, die gestrichelte Linie für den entgegen gesetzten Fall. In den folgenden Subka-
piteln werde ich für jeden Klanggestalt einzeln die in 4.3 gestellten Fragen beantworten. An
der Studie haben 32 Personen teilgenommen.

5.2.1. Glockenartige Klänge


Der Abbildung 5.4 ist zu entnehmen, dass für den Fall, dass θIID und θIF D die gleiche, aber
zu θIT D widersprüchliche, Positionsinformation geben, ab einer Differenz von ∆θ > 77◦ mehr
als 50% der Teilnehmenden angeben, dass der Klang aus der Richtung kommt, die durch
θIT D gegeben ist. Je größer ∆θ wird, desto öfter wird der Klang auf der Seite verortet, die

19
KAPITEL 5. ERGEBNISSE

Abbildung 5.4.: Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt Sinusglocken in Abhängigkeit
von ∆θ für den Fall, dass θIID ∼ θIF D 6∼ θIT D

Abbildung 5.5.: Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt Sinusglocken in Abhängigkeit
von ∆θ für den Fall, dass θIT D ∼ θIF D 6∼ θIID

20
KAPITEL 5. ERGEBNISSE

durch θIT D signalisiert wird. Für den Fall, dass ∆θ ≤ 55◦ , ist dem Diagramm zu entnehmen,
dass der Klang öfter in der Mitte verordnet wird und somit nur eine geringe Korrelation zu
θIID oder θIT D aufweist.
Vergleicht man Abbildung 5.4 mit Abbildung 5.5, in welcher der Fall abgebildet ist, dass θIT D
und θIF D die gleiche, aber zu θIID widersprüchliche, Positionsinformation geben, so ist zu
erkennen, dass dort für den tatsächlich vergleichbaren Bereich von 77◦ ≤∆θ ≤ 176◦ generell
eine höhere Korrelation zwischen Klangverortung und θIT D gegeben ist. Daraus lässt sich
schließen, dass θIF D für die Positionswahrnehmung von glockenartigen Klängen durchaus
eine Rolle spielt.
In den beiden Diagrammen ist zusätzlich bei den Wiederholbarkeitsstichproben zu erkennen,
dass in dem vergleichbaren Bereich von 88◦ ≤∆θ ≤ 121◦ , in der IDT-korrelierten Positions-
wahrnehmung eine größere Streuung zu verzeichnen ist. In allen Fällen ist die Streuung
allerdings bei unter 12%.
Für die Sicherheit in der Positionsbestimmung lässt sich den Diagrammen entnehmen, dass
es im zweiten Fall eine leichte Korrelation zwischen größer werdendem ∆θ und der Sicherheit
gibt, im ersten Fall, die Stichproben allerdings deutlich zeigen, dass es bei einer Wiederholung
des gleichen ∆θ bei getauschten Seiten zu deutlich anderen Ergebnisse kommen kann.

Abbildung 5.6.: Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt Fade-Akkorde in Abhängigkeit
von ∆θ für den Fall, dass θIID ∼ θIF D 6∼ θIT D

21
KAPITEL 5. ERGEBNISSE

Abbildung 5.7.: Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt Fade-Akkorde in Abhängigkeit
von ∆θ für den Fall, dass θIT D ∼ θIF D 6∼ θIID

5.2.2. Fade-Akkorde
Für die Positionsbestimmung von Fade-Akkorden ist in Abbildung 5.6 ein ähnlicher Zusam-
menhang zwischen ∆θ und θIT D wie bei den Glockenklängen zu erkennen, mit dem Unter-
schied, dass die kritische Schwelle von 50% erst bei einer Differenz von ∆θ ≥ 88◦ erreicht
wird. Es ist außerdem anzumerken, dass die Korrelation zwischen Positionsbestimmung und
θIT D schneller ansteigt und bei maximaler Azimutdifferenz auch höher korreliert.
In Abbildung 5.7 ist außerdem zu erkennen, dass im Fall, dass θIT D und θIF D die gleiche,
aber zu θIID widersprüchliche, Positionsinformation geben, es es eine über 90%ige Korrela-
tion zwischen der benannten Ursprungsseite und θIT D gibt. Auch hier scheint ein stärkeres
Zusammenwirken zwischen θIF D und θIT D zu bestehen als zwischen θIF D und θIID .
Bei der Wiederholbarkeit zeigt sich in den Stichproben die gleich Streuung von maximal 12%
wie sie auch den Abbildungen 5.4 und 5.5 zu entnehmen ist.
Die Unterschiede in der durchschnittlichen Anzahl der angegebenen Klangpositionen diver-
giert in Abbildung 5.6 weniger als in 5.4. Generell werden allerdings mehr Klangpositionen
angegeben. Die Streuung in der Wiederholbarkeit ist in den Stichproben hoch.
Im direkten Vergleich der Lokalisierung der Klanggestalten, verhalten sich beide Fälle ähn-
lich. Wenn ∆θ groß ist, folgt die Positionsbestimmung zuverlässig θIT D . Bei minimalen Ab-
weichungen kann weder notwendigerweise von einer Wiederholbarkeit der Ergebnisse aus-
gegangen werden, noch von einer eindeutigen Links-Recht-Ausdifferenzierung, die wiederum

22
KAPITEL 5. ERGEBNISSE

Abbildung 5.8.: Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt Pulse in Abhängigkeit von ∆θ
für den Fall, dass θIID ∼ θIF D 6∼ θIT D

bei eindeutiger Azimutinformation2 oder isolierter Azimutinformation3 möglich wäre.

5.2.3. Pulse
Überraschenderweise unterscheiden sich die Korrelationsdiagramme zur Positionsbestim-
mung von Pulsgruppen drastisch von den anderen beiden Diagrammpaaren. Auch wenn
aus Abbildung 5.8 ersichtlich wird, dass die Korrelationswerte von ITD-assoziierter Position
und größtmöglichem sowie kleinstmöglichen ∆θ ein ähnliches Verhältnis wie bei den anderen
beiden Klangtypen aufweisen, so ist der Verlauf zwischen diesen beiden Punkten nicht nur
viel flacher, sondern besteht vor allem aus zusätzlich lokalen Minima und Maxima.
In Abbildung 5.8 ist ferner für einen Wert von ∆θ ≤ 77◦ vor allem eine Korrelation von über
50% mit der neutralen Mitte ersichtlich. Fast für den gesamten Verlauf der Kurven ist hier
eine stärkere Korrelation von Richtungsbestimmung mit der Kombination von θIID und θIID
als mit θIT D zu beobachten.
Auch ist in den Stichproben zu erkennen, dass bei der Testwiederholung mit vertauschten
θIID und θIT D bei ∆θ = 110◦ eine Streuung von bis zu 20% auftritt. Im Fall, dass θIT D und
θIF D die gleiche, aber zu θIID widersprüchliche, Positionsinformation geben (Abbildung 5.9)
gibt es zwar eine ähnliche positive Korrelation von Positionsbestimmung und θIT D , allerdings

2
sprich, wie es bei natürlich auftretenden Klanggebilden der Fall ist.
3
siehe Ergebnisse der Vorstudie in Abbildungen 5.1 und 5.2

23
KAPITEL 5. ERGEBNISSE

Abbildung 5.9.: Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt Pulse in Abhängigkeit von ∆θ
für den Fall, dass θIT D ∼ θIF D 6∼ θIID

ist diese viel geringer als bei Glocken und Akkorden. Auffällig ist außerdem, dass es bei ∆θ
= 66◦ eine fast 50%ige Korrelation mit der neutralen Mitte gibt, die im starken Kontrast zu
den etwa 15% bei Glockenklängen und 10% bei Fade-Akkorden stehen.

24
KAPITEL 5. ERGEBNISSE

5.2.4. Rohdaten
In allen Diagrammen ist zu erkennen, dass es für die maximale Azimutdifferenz eine klare
Korrelation zwischen Klangverortung und θIT D gibt. Ein Blick in die Rohdaten wiederum
zeigt, dass dies nicht gleichbedeutend mit einer identischen Verortung für alle Teilnehmer
ist. Abbildung 5.10 zeigt im Falle von ∆θ = 176◦ deutlich, dass ein Großteil der angegebenen
Ursprungspositionen zwar mit der Richtung von θIT D korreliert, allerdings nicht ausschließ-
lich mit der von θIT D assoziierten absoluten Position.
Den Rohdaten ist außerdem zu entnehmen, dass es eine nicht unerhebliche Anzahl von Teil-
nehmenden gibt, die für verschiedene Beispiele angeben, dass der Klang mehrere über den
gesamte Hörbereich verteilte Ursprünge besitzt.4 In den Rohdaten zeigt sich weiterhin, dass
bei allen Klanggestalten bis zu einer Differenz von ∆θ = 55◦ die Richtungsassoziationen
größtenteils lediglich mit 1 bzw -1 angegeben, das heißt, die Ursprünge meist nur ’leicht
links’ beziehungsweise ’leicht rechts’ verortet werden. Exemplarisch aufgeführt in den Abbil-
dungen 5.11 bis 5.14:

4
Zum Beispiel kann Teilnehmer Nr. 5 fast für keines der Beispiele einen klaren Ursprung benennen.

25
KAPITEL 5. ERGEBNISSE

Abbildung 5.10.: Varianten der Richtungsassoziation; in blau θIT D , in rot θIID , in gelb θIF D ;
jede Zeile von Punkten und Linien zeigt die Angaben eines Teilnehmenden; die sieben Antwortmöglichkeiten
reichen von links (-3) bis rechts (3);
Jeder Punkt steht für eine Position, wurden mehrere Positionen angegeben, sind diese durch einen graue Linie
hervorgehoben.
Das obere Paar zeigt die Rohdaten für Glockenklänge, das mittlere für die Schwellerakkorde, das untere für
einzelne Impulse

26
KAPITEL 5. ERGEBNISSE

Abbildung 5.11.: Rohdaten Sinusakkord Abbildung 5.12.: Rohdaten Pulse


∆θ = 22◦ ∆θ = 33◦

Abbildung 5.13.: Rohdaten Glocke Abbildung 5.14.: Rohdaten Sinusakkord


∆θ = 44◦ ∆θ = 55◦

27
6. Diskussion
6.1. Bewertung der Studien
6.1.1. Vorstudie
Den Ergebnissen der Vorstudie ist zu entnehmen, dass durch ITD- und IID-Panning eine
zuverlässige Klangpositionierung erfolgen kann und das von Adler beschriebene Modell des
IFD-Pannings allein, keine zuverlässige Aussagekraft über die Positionierung von Klängen
bietet.
In Bezug auf die in Kapitel 4.1 erwähnten Ergebnisse von Strybel et. al (1993) konnte ich
nachvollziehen, dass mindestens 20% der Teilnehmenden meiner Vorstudie von Begault als
’experienced listeners’, also als Hörer, die selbst kleinste Abweichungen in der binauralen
Positionierung von Klängen wahrnehmen können, klassifiziert werden können.
Auffällig waren in den grafischen Darstellungen allerdings bestimmte positive und negative
Ausschläge, die ich versuchen möchte zu erklären. Bei der ITD-abhängigen Positionierung
gab es einen deutlichen negativen Ausschlag bei einem Unterschied von 12◦ . Eine mögliche
Erklärung dafür ist, dass genau diese Differenz in jeder Version des Fragebogens relativ früh
getestet wurde und bei den Teilnehmenden bei den später getesteten kleineren Differenzen
bereits ein Lerneffekt eingesetzt hat. Dieses wäre jedoch nur durch die Ergebnisse einer wei-
teren Studie zu Lerneffekten in der Positionswahrnehmung nachzuweisen.
Anders verhält es sich wiederum mit den positiven Ausschlägen beim IID-Panning-Test für
die Winkel 20◦ und 10◦ . Aus dem Studiendesign1 ist zu entnehmen, dass die Differenz von 20◦
immer nahe an der Mitte getestet wurden, wohingegen die 17◦ und 22◦ weiter außen gemes-
sen wurde. Dieses würde implizieren, dass die intensitätsabhängige Positionswahrnehmung
bei Klängen, die sich im Zentrum befinden, eine feinere Auflösung besitzt als bei Klängen
die sich eher peripherer im Wahrnehmungsbereich befinden. Auch dieses wäre in einer wei-
teren Studie zu untersuchen. Für die Genauigkeitsschwankungen bei 10◦ wäre hinzuzufügen,
dass dieser Wert doppelt so oft getestet wurde, wie die umliegenden Werte, daher ist es hier
möglich einen Lerneffekt oder eine statistische Verzerrung als Erklärung heranzuziehen.
Zentraler Aspekt, der meine weitere Arbeit beeinflusst hat, war eine Verbesserung des Mo-
dells für das IFD-Panning, da das Modell von Adler sich als unzureichend herausgestellt
hat.

1
siehe Anhang: Azimuts Vorstudie

28
KAPITEL 6. DISKUSSION

6.1.2. Hauptstudie
Die Studie zeigt, dass gerade bei großen Differenzen zwischen θIT D und θIID die Ortung
der getesteten Klänge eher mit θIT D korreliert, vor allem dann, wenn θIT D und θIF D den
gleichen Ursprung suggerieren. Im Gegensatz zu isoliert getesteten oder übereinstimmenden
θ-Werten verringert sich jedoch die Eindeutigkeit bei einer großen Gruppe von Hörenden.
Ebenso ist zu sehen, dass das IFD-Panning bei der Positionsbestimmung hilfreich sein kann.
Entgegen meiner ursprünglichen Annahme, dass θIT D vor allem bei Einschwingvorgängen
und rhythmischen Informationen eines Klanges für die Positionserkennung entscheidend ist,
hat sich gezeigt, dass kurze isolierte Impulse generell seltener eindeutig verortet werden.
Die unterschiedlichen Phasenlagen komplexer Tongemische hingegen scheinen viel eher eine
Aussagekraft über die Position zu beinhalten. Diese Beobachtung deckt sich auch mit der
in der Literatur zu findenden Beschreibung der frequenzabhängigen Positionsortung.[15] 2
Daraus ergibt sich, dass in einer künftigen Nachforschung der Aspekt der Tonhöhe und die
Komplexität der Klanggemische noch genauer unterschieden werden sollte.
Das IFD-Modell 2 zeigt deutliche Auswirkungen auf die Positionsbestimmung und hat auch
in kompositorischen Arbeiten vielversprechende Möglichkeiten eröffnet. Auch hier eröffnet
sich die Möglichkeit für eine genauere frequenz- und spektrumsabhängige Untersuchung des
Phänomens.

Eine persönlich Beobachtung, die jedoch an dieser Stelle nicht unerwähnt bleiben darf, ist
der Eindruck, dass θIT D , θIID und θIF D die Positionierung von Klängen in unterschiedlichen
Radien ermöglichen. In absoluten Werten gesprochen heißt das, dass θIT D = 90◦ , θIID =
90◦ und θIF D = 90◦ , jeweils den gleichen Azimut, aber eine andere Distanz repräsentieren.
Diese Beobachtung wäre in einer weiteren Azimut vergleichenden Studie zu untersuchen.
Auffallend in den Rohdaten ist, wie unterschiedlich die einzelnen Personen hören und dass
einige von ihnen fast außer Stande sind, den Klanggebilden eine Ursprungsrichtung zuzuwei-
sen. Dieses Phänomen ließe sich ggf. damit erklären, dass der menschliche Wahrnehmungs-
apparat nicht darauf trainiert ist, widersprüchliche Sinnesreize zu verarbeiten[16] und daher
die meisten Teilnehmenden sich mit kleinen Abweichungen auf eine relativ klare Richtung
festlegen können.
Aus der Beobachtung, dass die Anzahl der genannten Klangursprünge bei θIT D < 0◦ bei Glo-
ckenklängen und den Akkordschwellern generell höher ist, läßt sich mutmaßen, dass das recht
Ohr bei vielen Teilnehmenden für IID weniger sensibel ist. Eine mögliche Erklärung wäre
zum Beispiel der gebrauch von (Mobil-) Telefonen, die am rechten Ohr gehalten werden.[17]
Allerdings ist die Datenlage selbst bei Velayutham et al. nicht eindeutig. Daher können
gegebenfalls neurologische Prozesse und bei einer Teilnehmerzahl von 35 Personen selbst
statistische Fehler nicht ausgeschlossen werden.

2
Frequenzen unterhalb von 880 Hz werden durch Phasenunterschiede geortet, da der Abstand zwischen
den Ohren kleiner ist, als die Wellenlänge.[7] Ab 1,6 kHz erfolgt die Verortung von Klängen vor allem in
Abhängigkeit zur Amplitude. Begault stellt außerdem die Mutmaßung auf, dass die Bewertung von θIT D
für verschiedene Frequenzbänder unabhängig erfolgt und vom Gehirn erst in einem zweiten Schritt eine
Entscheidung über die Position vollzogen wird.

29
KAPITEL 6. DISKUSSION

6.2. Anwendung
Jedes der drei in diesen beiden Studien untersuchter Verfahren zur binauralen Stereophonie
scheint verschiedene Anwendungsmöglichkeiten aufzuzeigen. Werden die Panningtechniken
isoliert verwendet, so lässt sich festhalten, dass es durch das IDT-Panning möglich ist, einen
Klang ohne Pegelverlust im virtuellen Raum zu positionieren. Das IIT-Panning ermöglicht es
wiederum gewichtete Abstufungen der Intensität im Raum zu erzeugen und das IFT-Panning
eignet sich vor allem für subtile (Klangfarben-) Bewegungen. Bei widersprüchlichen Panning-
Informationen eröffnet sich für den Komponisten die Möglichkeit, die Kontrolle über die
Positionsbestimmung zum Teil aus der Hand zu geben und sie dem psycho-physiologischen
Profil der Hörenden zu übereignen und damit auf die un(ter)bewussten Hörmechanismen
hinzuweisen. Gerade bei sehr dichten musikalischen Strukturen bieten die verschiedenen
Kombinationen der Panningverfahren das Potenzial sehr transparente Klangmischungen zu
erzeugen.

6.3. Ausblick
Wie in der Diskussion erläutert, stellen die Ergebnisse dieser explorativen Studien viele neue
Fragen, die in Zukunft hoffentlich sowohl künstlerisch als auch psychoakustisch beantwor-
tet werden können. Für die Zukunft ergeben sich daher sowohl mögliche Fragen für weitere
Nachforschungen als auch Prämissen für kompositorisches Arbeiten.
Es liegt in meinem eigenen Interesse die von mir entwickelten Opcodes für CSound einer wei-
ten Nutzerschaft zugänglich zu machen und aufzuzeigen, dass es für eine Vielzahl binauraler
Phänomene keine teuren Plug-Ins benötigt, sondern dass genau diese psychoakustischen Er-
scheinungen mit wenigen Zeilen Code realisierbar sind. Im Anschluss an diese Arbeit werde
ich die gesamte von mir erstellte Bibliothek daher bei github veröffentlichen.
Eine weitere Möglichkeit bestünde darin, auf der Basis eines Raspberry Pies oder bela i.o ein
alleinstehendes Effektpedal oder ein Synthesizermodul zu entwickeln, mit dem ein binaurales
Panning intuitiv und live zu realisieren ist.

30
7. Otoakustische Emissionen in der
binauralen Musik
Otoakustische Emissionen sind Geräusche die durch das Ohr selbst erzeugt werden.[18] Es
handelt sich dabei um hörbare Phänomene, die zum Teil spontan, aber vor allem auch durch
akustische Stimulation des Ohrs durch dieses selbst erzeugt werden. Generell werden drei
verschiedene Emissionsarten unterschieden:

1. transientenevozierte otoakustische Emission (TEOAE)


2. Stimulusfrequenzemission (SFOAE)
3. Distorsionsproduktsemission (DPOAE)

Otoakustische Emissionen (OAE) treten vor allem bei extremen Lautstärken auf, lassen
sich allerdings bei der Verwendung von Kopfhörern auch bereits bei viel geringeren Laut-
stärken wahrnehmen. Neben der Möglichkeit der Raumsimulation in der binauralen Musik
beschäftigt sich meine Arbeit auch mit diesen akustischen Phänomenen. In sieben kurzen
Etüden habe ich die drei Arten der otoakustischen Emissionen einzeln und in Kombination
untersucht.

7.1. Arten von otoakustischen Emissionen


7.1.1. DPOAEs
Bei den distortion product otoacoustic emissions (DPOAEs) handelt es sich um nicht-lineare
Verzerrungen, die von der Cochlea erzeugt werden.[18] Seit fast 20 Jahren stellen sie ein
wichtiges Verfahren zur nicht-invasiven Untersuchung der Funktionsfähigkeit des Ohres dar
und werden daher vor allem in der Diagnostik eingesetzt.[19] Theoretisch wurden sie bereits
1948 beschrieben[20], allerdings wurden sie erst 1978 von David T. Kemp nachgewiesen.
Ohne es physikalisch oder biologisch beschreiben zu können, hat Maryanne Amacher bereits
1977 eine Publikation über diese Phänomene veröffentlicht, als sie an ihren elektroakusti-
schen Kompositionen arbeitete.[21] Herauszustellen wäre an dieser Stelle vor allem das Werk
Chorale 1, das 1999 auf dem Label Tzadik veröffentlicht wurde.[22] Amachers Arbeiten be-
schäftigen sich vor allem mit dem Phänomen, dass später von Kendall et al. [23] als quadra-
tischer Distorsionsprodukte (qDp)beschrieben werden wird. Das qDp ist dabei identisch mit
den von George Andreas Sorge bereits im 18. Jahrhundert beschriebenen Differenztönen[24],
die jedoch keine kompositorische Anwendung fanden, sondern vor allem für das Stimmen

31
KAPITEL 7. OTOAKUSTISCHE EMISSIONEN IN DER BINAURALEN MUSIK

von Musikinstrumenten verwendet wurden. Für den Fall, dass Frequenz f1 < f2 lässt die
Frequenz des qDp wie folgt berechnen:

fqDp = f2 − f1
Dieses ist das wohl am deutlichsten wahrnehmbare der beiden Distorsionsprodukte. Die
Etüde DP widmet sich ausschließlich diesem Phänomen und stellt es in Bezug zu einem
einfachen Amplitudenpanning.
Die zweite Form ist das kubische Distorsionsprodukt (kDp), das meiner Erfahrung nach
schwierig zu erhören ist, allerdings großes Potenzial als Syntheseverfahren bietet.1 Die kDps
lassen sich wie folgt berechnen:

fkDpn = nf1 − f2
In der kDp-Synthese verhält sich das Frequenzspektrum wiederum annähernd wie das obe-
re Seitenband in der Frequenzmodulation, wobei f2 der Trägerfrequenz entspricht und fqDp
der Modulationstiefe. Während meiner kompositorischen Untersuchungen habe ich festge-
stellt, dass sich die kDp gut dazu eignen, vielfältige Verzerrungen zu erzeugen. Dies war vor
allem der Fall, wenn mindestens zwei verschiedene kDp verwendet werden, die auf unter-
schiedlichen, mit einem maximalen Abstand von einer großen Sekunde zueinander liegenden
Frequenzpaaren aufbauen, und bei denen f1 und f2 nicht mehr als eine große Sekunde von
einander entfernt sind. Diese Arten der Verzerrung haben vor allem in den Etüden DP-TE,
DP-SF und DP-SF-TE ihre Anwendung gefunden.

7.1.2. SFOAEs
Stimulus-frequency otoacoustic emissions (SFOAEs) sind OAEs, die 2005 erstmals von Neely
et al. [26] beschrieben wurden und deren Wahrnehmung durch eine Amplitudenmodulation
erleichtert wird. Dabei wird eine Trägerfrequenz f1 mit einer langsamen Modulationsfrequenz
fmod moduliert, während wie zur Erzeugung der DPOAEs eine weitere unmodulierte Test-
frequenz f2 abgespielt wird. Wie bei den DPOAEs gilt f1 < f2 . In dem Versuchsaufbau von
Neely wird ausschließlich fmod = 6 Hz verwendet. In meinen eigenen Untersuchungen konnte
ich allerdings feststellen, das ähnliche Hörphänomene in einem etwas breiteren Bereich von
4 Hz < fmod < 7 Hz auftreten.
Für eine zuverlässige Produktion von SFOAEs war es mir außerdem möglich, bestimmte
Bereiche festzulegen, in denen sie besonders deutlich wahrzunehmen sind. Für f1 ergibt sich
daraus:
1060Hz < f1 < 1980Hz
Für den Abstand
∆f = f2 − f1

1
Praktisch wurde das kDp vor allem durch Brown et al. [25] vor allem auf das Potential hin untersucht,
wie stark das KDp gleichzeitige abgespielte Töne, deren Frequenz identisch mit fkDp1 unterdrückenkann.

32
KAPITEL 7. OTOAKUSTISCHE EMISSIONEN IN DER BINAURALEN MUSIK

habe ich folgenden Bereich festlegen können:

17 CEN T < ∆f < 51 CEN T


DPAOEs lassen sich je nach Lage am Besten als deutliche Clicks oder kleine Rausch-Impulse
beschreiben, die über Kopfhörer oder auch über Lautsprecher bei hohen Lautstärken hörbar
sind, obwohl sie im Spektrogramm und in der Hüllkurve nicht als solche dezidiert auftauchen.
In den Etüden DP, DP-TE und DP-SF-TE unterziehe ich dieses Phänomen einer komposi-
torischen Untersuchung und stelle es in direkten Kontrast zu tatsächlich erzeugte Clicks und
TEOAEs.

7.1.3. TEOAEs
Die dritte von mir untersuchte Form der OAEs sind die Transitory Evoked otoacoustic emis-
sions (TEOAEs). TEOAEs sind genau wie DPOAEs von der Cochlea ausgehende hörbare
Schallereignisse.[27] Sie können dadurch erzeugt werden, dass eine kurzer - bandbreitenbegrenzter-
Impuls abgespielt wird. In meiner Untersuchung des Phänomens bin ich zu dem persönlichen
Eindruck gekommen, dass sich neben Dirac-Stößen vor allem bandbreitenbegrenzte Pulse im
Bereich von 200-550 Hz farblich besonders voneinander unterscheiden.
Laut der Forschung von Hatzopoulos et al. [28] lassen sich alle Arten der OAEs durch hin-
zufügen von weißem Rauschen unterdrücken. In meinen eigenen Untersuchungen konnte ich
feststellen, dass dies gerade bei TEOAEs besonders zuverlässig funktioniert, wahrscheinlich
vor allem dadurch, dass ein einzelner Impuls ab einer bestimmten Lautstärke des Rauschens
von diesem vollständig maskiert wird. Der kritische Punkt ist bei einem Pegelunterschied
von etwa 30dB erreicht. Bei einem größeren Abstand sind die TEOAEs noch wahrnehmber,
bei kleineren Abständen verschwindet der Impuls im Rauschen.
Der Klang von TEOAEs lässt sich am ehesten als ultrakurzer Nachhall beschreiben, der den
Anschein erweckt, dass immer eine Art von Hall auf einen Klang gelegt wird. Ich konnte au-
ßerdem beobachten, dass die TEOAEs nicht auftreten, wenn die gleichen Klänge bei gleich
empfundener Lautstärke über Lautsprecher abgespielt werden. Diese Beobachtung führte zu
dem Versuch, TEOAEs durch künstlichen Hall zu unterdrücken. Die Etüde TE dokumentiert
genau diesen Versuch. Es ist deutlich zu erkennen, bei welchen Klängen der Hall die TEOAEs
der Impulse nicht nur unterdrückt, sondern den Klang vollkommen transformiert und unter
anderem den Eindruck erweckt, es handele sich um Steine, die aneinander geschlagen werden.

33
Abbildungsverzeichnis
2.1. Keine ITD, da sich der Klangquelle direkt vor dem Hörer befindet . . . . . . 4
2.2. ITD, da sich der Klangquelle nicht direkt vor dem Hörer befindet . . . . . . 4
2.3. maximale ITD, da sich der Klangquelle maximal auf der rechten Seite befindet. 5
2.4. Boynton, G.: https://courses.washington.edu/psy333/lecture_pdfs/chapter12_
SoundLocalization.pdf nach Goldstein: Sensation and Perception . . . . . 5
2.5. Die weiße Linie markiert den Frequenzverlauf des linken Kanals , die blaue
Linie, den des rechten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.6. Frequenzverlauf meines Nachbaus in CSound . . . . . . . . . . . . . . . . . . 8

3.1. Ideale Lautsprecheraufstellung, https://www.genelec.com/monitor-placement,


01.07.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

4.1. Wiederholbarkeit von IID und IFT mit widersprüchlicher ITD Getestete ∆θ:
22◦ , 33◦ , 44◦ , 55◦ , 88◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.2. Wiederholbarkeit von ITD und IFT mit widersprüchlicher IID Getestete ∆θ:
99◦ , 132◦ , 143◦ , 165◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.3. Einfluss der IFD auf widersprüchliche IID-ITD Kombinationen Getestete ∆θ:
66◦ , 77◦ , 132◦ , 154◦ , 176◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

5.1. Grafische Darstellung abnehmender Zuverlässigkeit bei kleiner werdendem


Azimut im Falle ITD-abhängiger Klangpositionierung . . . . . . . . . . . . . 17
5.2. Grafische Darstellung abnehmender Zuverlässigkeit bei kleiner werdendem
Azimut im Falle IID-abhängiger Klangpositionierung . . . . . . . . . . . . . 18
5.3. Grafische Darstellung abnehmender Zuverlässigkeit bei kleiner werdendem
Azimut im Falle IFD-abhängiger Klangpositionierung . . . . . . . . . . . . . 18
5.4. Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt
Sinusglocken in Abhängigkeit von ∆θ für den Fall, dass θIID ∼ θIF D 6∼ θIT D 20
5.5. Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt
Sinusglocken in Abhängigkeit von ∆θ für den Fall, dass θIT D ∼ θIF D 6∼ θIID 20
5.6. Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt
Fade-Akkorde in Abhängigkeit von ∆θ für den Fall, dass θIID ∼ θIF D 6∼ θIT D 21
5.7. Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt
Fade-Akkorde in Abhängigkeit von ∆θ für den Fall, dass θIT D ∼ θIF D 6∼ θIID 22
5.8. Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt
Pulse in Abhängigkeit von ∆θ für den Fall, dass θIID ∼ θIF D 6∼ θIT D . . . . 23
5.9. Korrelationen und Sicherheit in der Positionsbestimmung bei der Klanggestalt
Pulse in Abhängigkeit von ∆θ für den Fall, dass θIT D ∼ θIF D 6∼ θIID . . . . 24

34
Abbildungsverzeichnis

5.10. Varianten der Richtungsassoziation; in blau θIT D , in rot θIID , in gelb θIF D ;
jede Zeile von Punkten und Linien zeigt die Angaben eines Teilnehmenden;
die sieben Antwortmöglichkeiten reichen von links (-3) bis rechts (3); Jeder
Punkt steht für eine Position, wurden mehrere Positionen angegeben, sind
diese durch einen graue Linie hervorgehoben. Das obere Paar zeigt die Roh-
daten für Glockenklänge, das mittlere für die Schwellerakkorde, das untere für
einzelne Impulse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.11. Rohdaten Sinusakkord ∆θ = 22◦ . . . . . . . . . . . . . . . . . . . . . . . . 27
5.12. Rohdaten Pulse ∆θ = 33◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.13. Rohdaten Glocke ∆θ = 44◦ . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.14. Rohdaten Sinusakkord ∆θ = 55◦ . . . . . . . . . . . . . . . . . . . . . . . . 27

35
Literaturverzeichnis
[1] Knight, Frances Le C. ; Longo, Matthew R. ; Bremner, Andrew J.: Categorical per-
ception of tactile distance. In: Cognition 131 (2014), Mai, Nr. 2, 254–262. http://dx.
doi.org/10.1016/j.cognition.2014.01.005. – DOI 10.1016/j.cognition.2014.01.005.
– ISSN 00100277
[2] Traquair, H.M.: An Introduction to Clinical Perimetry. Kimpton, 1946 https://
books.google.co.uk/books?id=9ECsAAAAIAAJ,2020-07-03
[3] Roffler, Suzanne K. ; Butler, Robert A.: Factors That Influence the Localization
of Sound in the Vertical Plane. In: The Journal of the Acoustical Society of America
43 (1968), Juni, Nr. 6, 1255–1259. http://dx.doi.org/10.1121/1.1910976. – DOI
10.1121/1.1910976. – ISSN 0001–4966
[4] Pope, S.T. ; Fahlen, L.E.: The use of 3-D audio in a synthetic environment: an
aural renderer for a distributed virtual reality system. In: Proceedings of IEEE Virtual
Reality Annual International Symposium. Seattle, WA, USA : IEEE, 1993. – ISBN
978–0–7803–1363–7, 176–182
[5] Goldstein, E. B.: Sensation and perception. 7. ed., international student ed. Belmont,
Calif. : Thomson/Wadsworth, 2007. – ISBN 978–0–495–18778–3 978–0–534–55810–9. –
OCLC: 266477805
[6] Schleich, P. ; Nopp, P. ; D’Haese, P.: Head Shadow, Squelch, and Summation
Effects in Bilateral Users of the MED-EL COMBI 40/40+ Cochlear Implant:. In: Ear
and Hearing 25 (2004), Juni, Nr. 3, 197–204. http://dx.doi.org/10.1097/01.AUD.
0000130792.43315.97. – DOI 10.1097/01.AUD.0000130792.43315.97. – ISSN 0196–
0202
[7] Begault, Durand: 3-D Sound For Virtual Reality and Multimedia. NASA Ames
Research Center; Moffett Field, CA United States, 2001
[8] Adler, Daniel: Virtual Audio - Three-Dimensional Audio in Virtual Environments
/ European Research Consortium for Informatics and Mathematics at SICS. 1996. –
Technical Report
[9] Rio, Emmanuelle: IRCAM HRTF Database. http://recherche.ircam.fr/equipes/
salles/listen/. – http://recherche.ircam.fr/equipes/salles/listen/ 2020-07-03
[10] Sengpiel, Eberhard: Luftdaempfung, Berechnung, Formel. . –
http://www.sengpielaudio.com/LuftdaempfungFormel.htm, 2020-07-04

36
Literaturverzeichnis

[11] Rudrich, Daniel: Plug-in Descriptions. (2018), Juni. – htt-


ps://plugins.iem.at/docs/plugindescriptions/ 2020-07-03

[12] Szilagyi, Tom: TAP-AutoPan. . – http://tap-


plugins.sourceforge.net/ladspa/autopan.html 2020-07-02

[13] nonnaci: Muze: Binaural Reverb/ 3D Panner-Mixer Plugin. In: NuSpace Audio (2017),
Mai. – https://nuspaceaudio.com/2017/05/16/muze-3d-mixerreverb-plugin/ 2020-07-
02

[14] Strybel, Thomas Z. ; Manllgas, Carol L. ; Perrott, David R.: Minimum Au-
dible Movement Angle as a Function of the Azimuth and Elevation of the Source.
In: Human Factors: The Journal of the Human Factors and Ergonomics Society 34
(1992), Juni, Nr. 3, 267–275. http://dx.doi.org/10.1177/001872089203400302. –
DOI 10.1177/001872089203400302. – ISSN 0018–7208, 1547–8181

[15] Zhou, Xiaoqi: Virtual Reality Technique. In: Telecommunications Science (1996), Nr.
7. http://en.cnki.com.cn/Article_en/CJFDTotal-DXKX607.010.htm

[16] Kahneman, Daniel: Attention and effort. Englewood Cliffs, N.J : Prentice-Hall, 1973
(Prentice-Hall series in experimental psychology). – ISBN 978–0–13–050518–7

[17] Velayutham, P. ; Govindasamy, Gopala K. ; Raman, R. ; Prepageran, N. ; Ng,


K. H.: High-Frequency Hearing Loss Among Mobile Phone Users. In: Indian Journal
of Otolaryngology and Head & Neck Surgery 66 (2014), Januar, Nr. Suppl 1, 169–172.
http://dx.doi.org/10.1007/s12070-011-0406-4. – DOI 10.1007/s12070–011–0406–
4. – ISSN 2231–3796

[18] Kemp, D. T.: Stimulated acoustic emissions from within the human auditory system. In:
The Journal of the Acoustical Society of America 64 (1978), November, Nr. 5, 1386–1391.
http://dx.doi.org/10.1121/1.382104. – DOI 10.1121/1.382104. – ISSN 0001–4966

[19] Abdala, Caroline ; Visser-Dumont, Leslie: Distortion Product Otoacoustic Emis-


sions: A Tool for Hearing Assessment and Scientific Study. In: The Volta re-
view 103 (2001), Nr. 4, 281–302. https://www.ncbi.nlm.nih.gov/pmc/articles/
PMC3614374/. – ISSN 0042–8639

[20] Hall, James W.: Handbook of otoacoustic emissions. San Diego : Singular Publ. Group,
2000. – ISBN 978–1–56593–873–1. – OCLC: 246988782

[21] Amacher, Maryanne: Psychoacoustic Phenomena in Musical Composition: Some Fea-


tures of a Perceptual Geography. In: Arcana III: Musicians on music. New York : Hips
Road ; Distributed by Distributed Art Publishers, 2008. – ISBN 978–0–9788337–7–0,
S. 16–25

[22] Amacher: Sound Characters. . – http://www.tzadik.com/index.php?catalog=7043


2020-07-02

37
Literaturverzeichnis

[23] Kendall, Gary S. ; Haworth, Christopher ; Cádiz, Rodrigo F.: Sound Synthesis with
Auditory Distortion Products. In: Computer Music Journal 38 (2014), Dezember, Nr.
4, 5–23. http://dx.doi.org/10.1162/COMJ_a_00265. – DOI 10.1162/COMJa0 0265.−
− ISSN 0148 − −9267, 1531 − −5169

[24] Kroesbergen, Willem ; Cruickshank, Andrew J.: 18th Century Quotations Rela-
ting to J.S. Bach’s Temperament. https://www.academia.edu/5210832/18th_Century_
Quotations_Relating_to_J.S._Bach_s_Temperament,2020-07-02

[25] Brown, Ann ; Kemp, David: Suppressibility of the 2 f1- f2 stimulated acoustic emissions
in gerbil and man. In: Hearing research 13 (1984), Februar, S. 29–37. http://dx.doi.org/
10.1016/0378-5955(84)90092-3. – DOI 10.1016/0378–5955(84)90092–3

[26] Neely, Stephen T. ; Johnson, Tiffany A. ; Garner, Cassie A. ; Gorga, Michael P.:
Stimulus-frequency otoacoustic emissions measured with amplitude-modulated suppressor
tones. In: The Journal of the Acoustical Society of America 118 (2005), Oktober, Nr. 4,
2124–2127. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2441822/. – ISSN 0001–
4966

[27] Tzanakakis, MG ; Chimona, TS ; Apazidou, E ; Giannakopoulou, C ; Velegrakis,


GA ; Papadakis, CE: Transitory evoked otoacoustic emission (TEOAE) and distortion pro-
duct otoacoustic emission (DPOAE) outcomes from a three-stage newborn hearing screening
protocol. In: Hippokratia 20 (2016), Nr. 2, 104–109. https://www.ncbi.nlm.nih.gov/pmc/
articles/PMC5388509/. – ISSN 1108–4189

[28] Andrade, Kelly C. ; Peixoto, Gabriella O. ; Carnaúba, Aline T. ; Costa, Klinger V.


; Menezes, Pedro L.: Suppression of Otoacoustic Emissions Evoked by White Noise and
Speech Stimuli. Version: März 2017. http://dx.doi.org/10.5772/66700. In: Hatzo-
poulos, Stavros (Hrsg.): Advances in Clinical Audiology. InTech, März 2017. – DOI
10.5772/66700. – ISBN 978–953–51–3043–7 978–953–51–3044–4

38
A. Azimuths Vorstudie

39
ANHANG A. AZIMUTHS VORSTUDIE

40
B. Rohdaten Hauptstudie

41
ANHANG B. ROHDATEN HAUPTSTUDIE

42
ANHANG B. ROHDATEN HAUPTSTUDIE

43
ANHANG B. ROHDATEN HAUPTSTUDIE

44

Das könnte Ihnen auch gefallen