Sie sind auf Seite 1von 42

Accelerating the world's research

Psychologie und Musik


Übersetzt aus: Psychology and Music

Diana Deutsch

Müssen Sie dieses Papier Willst du noch mehr Papiere wie


zitieren? diese?

Holen Sie sich das Zitat in den Laden Sie eine PDF-Packung mit zugehörigen
Stilen von MLA, APA oder Chicago
Durchsuchen Sie den Academia-Katalog mit
47 Millionen kostenlosen Artikeln

translated with Academia.edu 


ÜBERSETZUNG 1

Psychologie und Musik


Diana Deutsch

Original Paper 

Zusammenfassung

EINFÜHRUNG
Die Beziehung zwischen Psychologie und Musik ist charakteristisch für die zwischen
einer neuen Wissenschaft und einer etablierten Disziplin. Die westliche Musiktheorie hat eine
sehr alte Tradition, die mindestens bis in die Zeit von Pythagoras zurückreicht; und die
philosophischen Grundlagen dieser Tradition, die in der Antike begründet wurden, bestehen
noch heute. Das charakteristischste Merkmal dieser Tradition ist ihr Rationalismus. Im
Gegensatz zu den wissenschaftlichen Disziplinen war die Entwicklung der Musiktheorie in den
letzten hundert Jahren nicht durch eine Weiterentwicklung der empirischen Methode
gekennzeichnet. Während Komponisten ständig mit neuen Ausdrucksmitteln
experimentierten, waren Musiktheoretiker im Großen und Ganzen Systembauer, die
versuchten, bestehende Kompositionspraktiken zu rechtfertigen oder neue Praktiken aus
numerologischen Gründen vorzuschreiben. Wenn außerdem ein externes Prinzip als
Erklärungsmittel herangezogen wurde, wurde ein solches Prinzip meist aus der Physik
übernommen. Das Konzept, dass Musik im Wesentlichen das Produkt unserer
Verarbeitungsmechanismen ist und daher mit der Psychologie zusammenhängt, wurde nur
selten diskutiert.

Für die Annahme dieser rationalistischen Haltung gibt es mehrere Gründe, von denen die
meisten heute nicht mehr gelten. Ein Grund dafür war der Mangel an Wissen über die Natur
des Klangs. Es ist verständlich, dass die Unfähigkeit, einen physikalischen Reiz zu
charakterisieren, die Entwicklung von Theorien darüber, wie dieser Reiz verarbeitet wird,
behindert hat. Ein damit zusammenhängender Grund war die schlechte Reizkontrolle, die das
Experimentieren erschwerte. Ein dritter Grund war das Fehlen geeigneter mathematischer
Techniken zur Untersuchung probabilistischer Phänomene. Ein weiterer Grund, der uns bis
heute beschäftigt, liegt jedoch in der Eigenart der Musik selbst. Es gibt keine externen
Kriterien zur Unterscheidung zwischen Musik und Nichtmusik oder zwischen guter und
ÜBERSETZUNG 2

schlechter Musik. Darüber hinaus ist klar, dass die Art und Weise, wie wir Musik wahrnehmen,
zumindest teilweise von früheren Erfahrungen abhängt. Daher bedarf die Relevanz
psychologischer Experimente für die Musiktheorie einer sorgfältigen Definition.

In diesem Kapitel betrachte ich zunächst wichtige Entwicklungen in der Musiktheorie aus
historischer Sicht. Anschließend untersuche ich verschiedene Themen, die derzeit sowohl von
Musiktheoretikern als auch von Psychologen untersucht werden. Abschließend diskutiere ich
die Rolle der Psychologie in der Musiktheorie.

HISTORISCHE PERSPEKTIVE
Spekulationen über Musik können bis in sehr alte Zeiten zurückverfolgt werden (Hunt,
1978), aber die Grundlagen der westlichen Musiktheorie werden allgemein als von ihm gelegt
angesehen. Pythagoras befasste sich hauptsächlich mit dem Studium der Musik. In: M. H.
Bornstein (Hrsg.) Psychologie und ihre verwandten Disziplinen. Hillsdale: Erlbaum, 1984, 155-
194. Cal-Intervalle. Ihm wird die Identifizierung der musikalischen Konsonanzen der Oktave,
Quinte und Quarte mit den Zahlenverhältnissen 1:2, 2:3 und 3:4 zugeschrieben. Ihm wird auch
zugeschrieben, durch Experimente festgestellt zu haben, dass sich die Tonhöhe einer
schwingenden Saite umgekehrt mit ihrer Länge ändert. Allerdings verloren Pythagoras und
seine Anhänger letztendlich den Glauben an die empirische Methode und versuchten
stattdessen, alle musikalischen Phänomene ausschließlich durch numerische Beziehungen zu
erklären. Wie Anaxagoras (ca. 499-428 v. Chr.) erklärte: „Durch die Schwäche der
Sinneswahrnehmungen können wir die Wahrheit nicht beurteilen [Freeman, 1948, S. 86].“ Und
später schrieb Boethius, der führende Musiktheoretiker des Mittelalters und ein starker
Anhänger von Pythagoras

De Institutione Musica:
Denn wozu braucht man weiter über den Irrtum der Sinne zu sprechen, wenn diese
Wahrnehmungsfähigkeit weder bei allen Menschen gleich ist, noch bei ein und demselben
Menschen zu jeder Zeit gleich ist? Daher vertraut jeder vergeblich auf ein sich änderndes
Urteil, da er die Wahrheit suchen will [Boethius, 1967, S. 58].

Die Ansicht, dass Musik ausschließlich durch die Betrachtung numerischer Beziehungen
untersucht werden sollte, prägt seit der Zeit Pythagoras die meisten Musiktheorien. Aus
dieser Sicht wird davon ausgegangen, dass die Welt der Mathematik ein Ideal liefert, das die
Welt der Sinneswahrnehmung nur nachahmen kann. Experimentelle Verfahren gelten daher
als irrelevant: Wenn die Ergebnisse von Experimenten mit der Theorie übereinstimmen, sind
sie überflüssig; Wenn die Ergebnisse im Widerspruch zur Theorie stehen, müssen sie von
vornherein schlecht durchdacht gewesen sein. Aus dem mathematischen Ansatz der
ÜBERSETZUNG 3

Pythagoräer gingen auch die zahlreichen Versuche hervor, ganze Musiksysteme durch
mathematische Schlussfolgerungen aus einer minimalen Anzahl etablierter musikalischer
Fakten zu konstruieren. Im Wesentlichen beruht dieser Ansatz auf einer falschen Analogie zur
Geometrie (Russell, 1945). Die euklidische Geometrie beginnt mit einigen Axiomen, die für
selbstverständlich gehalten werden, und gelangt aus diesen Axiomen durch Deduktion zu
Sätzen, die an sich nicht selbstverständlich sind. Es ist jedoch ein logischer Fehler
anzunehmen, dass wir durch Deduktion von einer musikalischen Tatsache zu einer anderen
musikalischen Tatsache übergehen können. Tatsächlich können musikalische Fakten nur als
Grundlage für die Formulierung von Hypothesen über weitere musikalische Fakten verwendet
werden, die einer empirischen Überprüfung bedürfen.

Ein weiterer starker Einfluss auf die Musiktheorie, der von den Pythagoräern ausging, war
der Glaube, dass die ultimative Erklärung musikalischer Phänomene in der Physik liege. Bis
zur kopernikanischen Revolution bestand dieser Glaube in der Annahme, dass Musik als
Widerspiegelung der von den Himmelskörpern erzeugten Klänge dient. Wie von Aristoteles in
De Caelo beschrieben, dachte man:

dass die Bewegung von Körpern dieser [astronomischen] Größe ein Geräusch erzeugen
muss, da auf unserer Erde die Bewegung von Körpern, die in Größe und
Bewegungsgeschwindigkeit weitaus geringer sind, diesen Effekt hat. Und wenn die Sonne und
der Mond, sagen sie, und alle Sterne, so zahlreich und groß, sich so schnell bewegen, wie
sollten sie dann nicht einen ungeheuer großen Ton erzeugen? Ausgehend von diesem
Argument und der Beobachtung, dass ihre Geschwindigkeiten, gemessen an ihren
Entfernungen, im gleichen Verhältnis wie musikalische Konkordanzen stehen, behaupten sie,
dass der durch die Kreisbewegung der Sterne erzeugte Klang eine Harmonie sei [Aristoteles,
1930, S.290]. Abbildung 1 zeigt jene pythagoräische Weltanschauung, in der die relativen
Abstände der Himmelskörper zueinander sowie die dadurch gebildeten musikalischen
Intervalle dargestellt sind. Man erkennt, dass der Abstand zwischen Erde und Mond einen
Ganzton bildete, vom Mond zum Merkur einen Halbton, vom Merkur zur Venus einen Halbton,
von der Venus zur Sonne einen anderthalb Ton, von der Sonne zum Mars einen Ganzton, von
Mars bis Jupiter ein Halbton, von Jupiter bis Saturn ein Halbton und schließlich von Saturn bis
zum Höchsten Himmel ein Halbton. Beachten Sie außerdem, dass die gesamte Entfernung
zwischen der Erde und dem Höchsten Himmel eine Oktave bildet.

Die Theorie der Sphärenharmonie war attraktiv, da sie Antworten auf mehrere
grundlegende Fragen zur Musik lieferte. Eine Frage war, warum Musik überhaupt existiert; und
die Antwort war, dass es als Spiegelbild der göttlichen Harmonie dient. Eine zweite Frage war,
warum bestimmte musikalische Intervalle (die Konsonanzen) uns angenehm erscheinen,
andere hingegen nicht. und die Antwort hier war, dass die Konsonanzen jene Intervalle sind,
die in dieser göttlichen Harmonie vorhanden sind. Die Theorie hatte sogar normativen Wert,
da sie Randbedingungen für die Trennung von Musik und Nichtmusik lieferte.
ÜBERSETZUNG 4

Das Hauptproblem dieser Theorie, das die alten Griechen (und auch diejenigen, die ihnen
folgten) verwirrte, bestand darin, dass wir sie nicht hören können, wenn die Himmelskörper
tatsächlich diese Harmonie erzeugen. Eine von Censorinus vorgeschlagene Antwort war, dass
die Lautstärke des Tons so groß ist, dass sie Taubheit verursacht 1 (Hawkins, 1853(Hawkins,
/1963). Eine alternative Ansicht, beschrieben von Aristoteles (der sie tatsächlich nicht
befürwortete): war, dass wir uns seiner Anwesenheit nicht bewusst sind, da dieser Klang von
Geburt an bei uns ist und er nur im Gegensatz zur Stille wahrgenommen wird. Allerdings
wurde keine dieser Ansichten als zufriedenstellend angesehen.

Jedenfalls stellte die Theorie der Sphärenharmonie eine starke Verbindung zwischen den
Studien der Musik, der Astronomie und der Mathematik her, so dass sich der
naturwissenschaftliche Teil des Hochschulstudiums zum Quadrivium der „verwandten
Studien“ entwickelte. der Astronomie, Geometrie, Arithmetik und Musik. Das Quadrivium
existierte bis zum Ende des 16. Jahrhunderts und war für viele Interaktionen zwischen den
Disziplinen verantwortlich.

FEIGE. 1. Pythagoras Sicht auf das Universum in musikalischen Intervallen. (Aus


Hawkins, 1853/1963) Im Allgemeinen hielten die späteren griechischen Theoretiker am
numerologischen Ansatz der Pythagoräer fest. Es gab jedoch eine bemerkenswerte
Ausnahme. Aristoxenus (ca. 320 v. Chr.), ursprünglich ein Schüler der Pythagoräer und später
von Aristoteles , erkannte klar, dass Musik nicht allein durch die Betrachtung mathematischer
Beziehungen verstanden werden kann. Er argumentierte, dass das Studium der Musik als
empirische Wissenschaft betrachtet werden sollte und dass musikalische Phänomene
grundsätzlich wahrnehmungsbezogener und kognitiver Natur seien. In den Harmonischen
Elementen schrieb er beispielsweise:

Die Reihenfolge, die das Melodische vom Unmelodischen unterscheidet, ähnelt der, die
wir in der Zusammenstellung der Buchstaben in der Sprache finden. Denn nicht jede
Zusammenstellung, sondern nur bestimmte Zusammenstellungen bestimmter Buchstaben
ergeben eine Silbe.

Und später:
Es ist klar, dass das Erfassen einer Melodie darin besteht, sowohl mit dem Ohr als auch
mit dem Intellekt jeden Unterschied zu notieren, der in den aufeinanderfolgenden Klängen
auftritt – sukzessive, denn die Melodie besteht, wie alle Zweige der Musik, in einer
sukzessiven Produktion. Denn das Verständnis von Musik hängt von diesen beiden
Fähigkeiten ab, der Sinneswahrnehmung und dem Gedächtnis; denn wir müssen den Klang
wahrnehmen, der gegenwärtig ist, und uns an das erinnern, was vergangen ist. Auf keine
andere Weise können wir das Phänomen der Musik verfolgen [Aristoxenus, 1902, S. 192-194].
ÜBERSETZUNG 5

Aber Aristoxenus wurde weder von seinen Zeitgenossen noch von den Musiktheoretikern
des Mittelalters und der frühen Renaissance verstanden, die weiterhin am numerologischen
Ansatz festhielten. Die meisten seiner Werke gingen der Nachwelt verloren, glücklicherweise
blieben jedoch zwei Bücher seiner Harmonic Elements und Fragmente seiner Elements of
Rhythmics erhalten.

Unter Missachtung vorherrschender theoretischer Beschränkungen verwendete die


mittelalterliche Polyphonie andere Intervalle als die von den Pythagoräern zugelassenen
reinen Konsonanzen der Oktave, Quinte und Quarte. Es oblag daher den Theoretikern des 15.
und 16. Jahrhunderts, die bestehende Praxis im Kontext der pythagoräischen Lehre zu
rechtfertigen. Dies wurde von Zarlino (1517) erreicht. Zarlino (–1590) argumentierte, dass die
Zahl Sechs verschiedene metaphysische Eigenschaften habe. Beispielsweise sei sie die erste
vollkommene Zahl (1 + 2 + 3 = 1 x 2 x 3 = 6). Zarlino schlug vor, dass die Der Bereich der
Konsonanzen wurde auf Kombinationen erweitert, die durch Verhältnisse der ersten sechs
Zahlen erzeugt wurden. Dies rechtfertigte die Verwendung der großen Terz (5:4), der kleinen
Terz (6:5) und der großen Sexte (5:3). Auch die kleine Sexte wurde irgendwie zugelassen,
obwohl ihr Verhältnis 8:3 beträgt.) In seiner stark numerologisch und theologisch geprägten
Abhandlung Istituzioni Armoniche (1558/1950) entwickelte Zarlino Kompositionsregeln, die
auf dem Konzept der ersten sechs Zahlen als göttlich basierten festgesetztes Heiligtum, das
die Konsonanzen enthält (das Szenario), außerhalb dessen der Komponist nur unter strengen
Einschränkungen wandern kann. Damit wurde der bestehenden Musikpraxis aus
numerologischen Gründen eine theoretische Anerkennung erteilt und eine Reihe neuer
Randbedingungen für die Musik festgelegt (Palisca, 1961) .

Die wissenschaftliche Revolution des 16. und 17. Jahrhunderts hatte tiefgreifende
Auswirkungen auf die Musiktheorie. Erstens zwangen Fortschritte in der Astronomie die
Theoretiker dazu, die Ansicht aufzugeben, dass das Universum eine Harmonie sei, und damit
auch die Ansicht, dass musikalische Konsonanzen diese Harmonie widerspiegeln. Zweitens
führten Fortschritte beim Verständnis der Eigenschaften schwingender Saiten zu einer
Neubewertung der Rolle der Zahl bei der musikalischen Erklärung: Zahlenverhältnisse wurden
nun insofern als bedeutungsvoll angesehen, als sie sich auf die Eigenschaften klingender
Körper beziehen ließen. Die Entdeckung der Obertonreihe, der Beziehung zwischen Tonhöhe
und Frequenz und der physikalischen Korrelate von Konsonanz und Dissonanz veranlasste
einige Denker, einen empirischeren Ansatz für musikalische Fragen im Allgemeinen zu
verfolgen (Palisca, 1961).

Unter den musikalischen Empiristen des 16. Jahrhunderts waren Giovanni Battista
Benedetti (1530–1590) und Vincenzo Galilei (1520–1591) hervorzuheben. 2 Benedetti war
vielleicht der Erste, der die Empfindungen von Tonhöhe und Konsonanz mit der
Schwingungsgeschwindigkeit in Zusammenhang brachte. Galilei zeigte durch Experimente,
dass die Verbindung der Konsonantenintervalle mit einfachen Zahlenverhältnissen nur dann
ÜBERSETZUNG 6

bestand, wenn ihre Terme Pfeifen- oder Saitenlängen darstellten und auch wenn andere
Faktoren konstant gehalten wurden. Diese Beziehungen galten beispielsweise weder für das
relative Gewicht von Hämmern noch für die in Glocken eingeschlossenen Volumina. Er
argumentierte auch, dass Streitigkeiten über Stimmsysteme zwecklos seien, da das Ohr die
kleinen Tonhöhenunterschiede, über die diskutiert wird, nicht wahrnehmen könne. Er schlug
eine neue Theorie des Kontrapunkts vor, die auf der bestehenden Musikpraxis basierte,
anstatt sich auf außermusikalische Phänomene zu berufen, und er plädierte stark für die
empirische Methode beim Studium der Musik. Allerdings waren Denker wie Galilei deutlich in
der Minderheit und die vorherrschende theoretische Haltung war weiterhin stark
rationalistisch.

Parallel zu den wissenschaftlichen Fortschritten hinsichtlich der physikalischen


Eigenschaften von Klängen 3 experimentierten Komponisten des späten 16. und des 17.
Jahrhunderts besonders aktiv mit neuen Techniken. Es entstand daher das Bedürfnis nach
einer neuen theoretischen Synthese, um die vorherrschende Musikpraxis zu begründen und
diese mit neu gewonnenen wissenschaftlichen Erkenntnissen zu verknüpfen. Dies gelang
dem Komponisten und Musiktheoretiker Jean-Philippe Rameau (1683–1764). Rameaus
Systematisierung bildet die Grundlage der traditionellen harmonischen Theorie, wie wir sie
heute kennen. Durch die Analyse der Kompositionen seiner Vorgänger und Zeitgenossen und
durch die Verknüpfung dieser Analysen mit den Ergebnissen seiner eigenen musikalischen
Untersuchungen gelangte Rameau zu wichtigen Grundgesetzen und Konzepten wie der
Umkehrbarkeit von Akkorden, der Entstehung eines Akkords durch seinen Grundton, der
Grundtonfolge Akkorde usw.

In gewisser Hinsicht kann Rameaus Synthese als eine große psychologische Leistung
angesehen werden, bei der er die gängige Musik als Datenbasis nutzte, um eine tragfähige
Theorie der abstrakten Struktur der Musik zu formulieren. Allerdings betrachtete Rameau
Musik nicht im Wesentlichen als Produkt unserer Wahrnehmungs- und kognitiven
Mechanismen; vielmehr verspürte er getreu der Tradition das Bedürfnis, sein System mit
einem einzigen physikalischen Prinzip zu rechtfertigen. Er fand dies in dem kürzlich
entdeckten Phänomen der Obertonreihe und berief sich darauf als das „selbstverständliche
Prinzip“, aus dem er versuchte, durch mathematische Deduktion ein ganzes musikalisches
System abzuleiten. Wie er schrieb:

Musik ist eine Wissenschaft, die bestimmte Regeln haben sollte; diese Regeln sollten aus
einem selbstverständlichen Prinzip abgeleitet werden; und dieses Prinzip kann uns ohne die
Hilfe der Mathematik kaum bekannt sein [Rameau, 1722[Rameau, /1950.

Obwohl seine Versuche, die Zahlenverhältnisse zu manipulieren, scheiterten und ihn in


eine Menge Inkonsistenzen und Widersprüche verwickelten, legte Rameaus Ansatz den
Grundstein für eine neue musikalische Numerologie, in der die Obertonreihe die
ÜBERSETZUNG 7

Sphärenharmonie als ultimatives Erklärungsinstrument ersetzte (Palisca, 1961). ).

Der vielleicht größte Musiktheoretiker des 19. Jahrhunderts war Hermann von Helmholtz
(1831–1894), dessen Buch „Über die Tonempfindungen“ (1885/1954) auch heute noch eine
wichtige Lektüre darstellt. Helmholtz erkannte deutlich, dass musikalische Phänomene einer
Erklärung im Hinblick auf die Verarbeitung bedürfen Mechanismen des Zuhörers. Er führte
wichtige experimentelle Arbeiten zu Themen wie der Wahrnehmung von Tonhöhen,
Kombinationstönen, Schwebungen sowie Konsonanz und Dissonanz durch. Er spekulierte
auch über die Natur der kognitiven Mechanismen auf hoher Ebene, die der
Musikwahrnehmung zugrunde liegen, obwohl ihm diese fehlten technische Ressourcen, um
diese Mechanismen experimentell zu untersuchen.

Die technologischen Fortschritte am Ende des letzten Jahrhunderts und zu Beginn dieses
Jahrhunderts ermöglichten es Wissenschaftlern erstmals, Hörphänomene unter streng
kontrollierten Bedingungen zu untersuchen (siehe Marks, in Band III). Damit war die
Wissenschaft der Psychoakustik begründet. Der Umfang der präzise erzeugbaren Klangreize
war jedoch sehr begrenzt. Es wurde beispielsweise möglich, sorgfältige Messungen von
Hörschwellenphänomenen durchzuführen und psychophysische Tonhöhen- und
Lautstärkeskalen zu entwickeln. Allerdings war es immer noch unerschwinglich schwierig,
Tonsequenzen unter kontrollierten Bedingungen zu konstruieren oder Töne mit bestimmten
zeitlich variierenden Spektren zu erzeugen. Daher waren die Probleme, mit denen sich
Psychoakustiker befassten, für Musiker nicht von großer Bedeutung, da die
Wahrnehmungseigenschaften einfacher Hörreize für sich genommen von geringem
theoretischen Interesse waren.

Die Situation wurde durch bestimmte Schlussfolgerungen aus der Psychoakustik


verschlimmert, die nach Ansicht der Musiker im Widerspruch zu ihren Erfahrungen und
Intuitionen standen. Ein bemerkenswertes Beispiel ist die Mel-Skala für die Tonhöhe (Stevens
& Volkmann, 1940). Wie in Abbildung 2 dargestellt, bezeichnet diese Skala Intervalle als
gleich, die auf der musikalischen Skala ungleich sind; und umgekehrt werden gleiche
musikalische Intervalle auf der Mel-Skala als ungleich bezeichnet. Daher hatten viele Musiker
den Eindruck, dass die psychoakustischen Experimente, so sorgfältig sie auch kontrolliert
wurden, zu falschen Schlussfolgerungen führten. Anstatt diese Schlussfolgerungen vor Ort zu
kritisieren, betrachteten Musiker sie als Beweis dafür, dass wissenschaftliche Methoden für
das Studium der Musik ungeeignet seien.

Zur gleichen Zeit, als sich die Wissenschaft der Psychoakustik mit ihrem Fokus auf enge
Reizparameter entwickelte, sahen sich Musiktheoretiker mit einer enormen Zunahme der
Komplexität der Musik konfrontiert, die sie zu erklären versuchten. Die Entwicklung der
Chromatik in der Musik des 19. und frühen 20. Jahrhunderts, beispielsweise in der Musik von
Wagner, Debussy, Mussorgsky und Mahler, erzwang eine grundlegende Änderung des
ÜBERSETZUNG 8

Harmoniebegriffs. Zunächst entwickelte sich das Konzept der Tonalität zum Konzept der
erweiterten Tonalität, um diesen neuen Komplexitäten gerecht zu werden. Allerdings musste
auch dieses letztere Konzept aufgegeben werden, da es zweifelhaft wurde, ob der Begriff
einer Tonika als brauchbares Erklärungskonzept für die neuen Kompositionen diente.
Musiktheoretiker begannen daher, nach einem völlig neuen theoretischen Rahmen zu suchen,
innerhalb dessen sie komponieren konnten.

Das einflussreichste System war das ursprünglich von Schönberg entwickelte


Zwölftonsystem. Dieses System, das im Folgenden beschrieben wird, hat viele theoretische
Arbeiten zu Äquivalenzbeziehungen zwischen Tonhöhensätzen inspiriert. Zwölftontheoretiker
hielten es jedoch nicht für angemessen, experimentell zu bestimmen, ob die
Äquivalenzrelationen ihres Systems wahrnehmungsbezogen relevant waren. Vielmehr
betrachteten sie im Einklang mit der pythagoräischen Tradition die intrinsische Plausibilität
der Grundaxiome des Systems zusammen mit seiner inneren Konsistenz als ausreichende
Rechtfertigung für seine Verwendung in der kompositorischen Praxis.

So wie die technologischen Fortschritte in der ersten Hälfte dieses Jahrhunderts dazu
neigten, eine Kluft zwischen Wissenschaftlern und Musikern zu schaffen, so haben die
jüngsten technologischen Fortschritte im letzten Jahrzehnt eine Ära der Zusammenarbeit
zwischen den Disziplinen geschaffen. Mit Hilfe der Computertechnik sind Psychologen heute
in der Lage, komplexe Hörreize präzise zu erzeugen und so musikalische Fragestellungen in
einem kontrollierten experimentellen Setting zu untersuchen. Gleichzeitig interessierten sich
Komponisten zunehmend für den Computer als Kompositionswerkzeug. Um diese neue
Technologie jedoch effektiv nutzen zu können, müssen sie Antworten auf Fragen der
Wahrnehmungs- und Kognitionspsychologie erhalten. Infolge dieser sich entwickelnden
Interessen beider Disziplinen kommt es nicht nur zu einer raschen Ausweitung der
empirischen Arbeit zur Musikwahrnehmung und -kognition, sondern, was vielleicht noch
wichtiger ist, zu einer zunehmenden Zusammenarbeit zwischen Psychologen und Musikern.
Wir können mit Sicherheit vorhersagen, dass die Psychologie im Laufe des nächsten
Jahrzehnts einen festen Platz in der Musiktheorie einnehmen wird.

EINIGE AKTUELLE THEMEN


Ich wende mich nun den verschiedenen Fragen der Musikwahrnehmung und -kognition
zu, die derzeit sowohl von Musiktheoretikern als auch von Psychologen untersucht werden.
Diese dürften im Mittelpunkt zukünftiger Arbeiten stehen. Diese Rezension erhebt keinen
Anspruch auf Vollständigkeit, sondern soll vielmehr veranschaulichen, wie Erkenntnisse aus
der Psychologie sinnvoll auf die Musik angewendet werden können.
ÜBERSETZUNG 9

Musik und komponierte Klänge


In der Musik des 17., 18. und frühen 19. Jahrhunderts wurde die Klangfarbe oder
Klangqualität eines Instruments im Allgemeinen als Träger melodischer Bewegung und nicht
als primäres kompositorisches Attribut an sich betrachtet. Der Niedergang der Tonalität
eröffnete jedoch den Weg für neue kompositorische Verwendungen von Klangfarben.
Komponisten begannen mit komplexen Klangstrukturen zu experimentieren, die durch das
gleichzeitige Spielen mehrerer Instrumente entstanden, so dass die einzelnen Instrumente
ihre Identifizierbarkeit verloren und zu einem einzigen Klangeindruck verschmolzen.
Insbesondere Debussy nutzte in großem Umfang Akkorde, die sich den Klangfarben
annäherten. Zu Beginn dieses Jahrhunderts verwendeten Komponisten wie Schönberg,
Webern, Strawinsky und insbesondere Varese häufig solche hochindividuellen
Klangstrukturen, die Varese als „Klangmassen“ bezeichnete. Solche Experimente führten
Komponisten dazu, die Eigenschaften des Klangs zu erforschen, die der
Wahrnehmungsverschmelzung förderlich waren (Erickson, 1975(Erickson, 1982).

Das wachsende Interesse an musikalischen Klangfarben veranlasste Komponisten auch


dazu, mit Klangsequenzen zu experimentieren, die schnelle Klangfarbenwechsel beinhalten.

Solche Sequenzen, bekannt als Klangfarbenmelodien oder aus Klangfarben


zusammengesetzte Melodien, wurden zu Beginn dieses Jahrhunderts von Komponisten wie
Schönberg und Webern und später von Komponisten wie Boulez verwendet. Dies führte zu
Spekulationen über die Regeln für geordnete Übergänge zwischen Klangfarben. Wie
Schönberg (1911) schrieb:

Wenn es möglich ist, aus Klängen, die sich je nach Tonhöhe unterscheiden,
kompositorische Strukturen zu schaffen, Strukturen, die wir Melodien nennen, Sequenzen, die
einen gedankenähnlichen Effekt erzeugen, dann muss es möglich sein, solche Sequenzen aus
den Klangfarben dieser anderen Dimension als dem zu schaffen, was wir normalerweise tun
und einfach Klangfarbe nennen. Solche Sequenzen würden mit einer inhärenten Logik
funktionieren, die der Art von Logik entspricht, die bei Melodien, die auf der Tonhöhe basieren,
wirksam ist. All dies scheint eine Zukunftsphantasie zu sein, was es wahrscheinlich auch ist.
Aber ich bin fest davon überzeugt, dass es realisierbar ist [470][471].

Im Wesentlichen schlug Schönberg vor, dass Klangfarben psychologisch auf geordnete


Weise dargestellt werden und dass die Struktur dieser Darstellung kompositorisch ausgenutzt
werden kann.

Das Interesse am Verständnis der psychologischen Darstellung von Klangfarben wurde


durch die Entwicklung elektronischer Musik und Computermusik beschleunigt (Matthews,
1969). Mit Hilfe neuer Technologien waren Komponisten erstmals in der Lage, beliebige
Klänge zu erzeugen, ohne Einschränkungen durch die Physik natürlicher Instrumente oder
ÜBERSETZUNG 10

durch die Fähigkeiten des menschlichen Interpreten. Aber gerade diese Freiheit stellte
grundlegende Probleme in der Wahrnehmungspsychologie dar, die gelöst werden mussten.
Als Musiktheoretiker und Komponist Robert Erickson (1975)

schrieb:
Ein Komponist, der aus dieser Unendlichkeit an Möglichkeiten bestimmte Klänge
herausarbeiten möchte, muss sich entscheiden: Welche? Er könnte versuchen, „ein
Instrument“ zu schaffen, also eine Art einheitliche Auswahl von Klängen aus der Unendlichkeit
der Möglichkeiten … Oder er geht vielleicht abstrakter an die Dinge heran und denkt in
Kontrasten, ähnlich Klangklassen … Das mag wahr sein dass wir kurz davor stehen, jeden Ton
zu erzeugen, den wir uns vorstellen können, genauso wie es wahr ist, dass wir jede Tonhöhe
erzeugen können, die wir uns vorstellen können. Die Unendlichkeit der Geräusche im
Universum mag für die Physik und Messgeräte objektiv real sein; Wenn es in der Musik nicht
realisierbar ist, muss die Schwierigkeit mit den menschlichen Grenzen und den durch den
musikalischen Diskurs auferlegten Grenzen zusammenhängen [S. 9].

Drei verwandte Fragen zur Klangfarbenwahrnehmung werden hier untersucht. Erstens:


Welche akustischen Parameter liegen der Wahrnehmung der instrumentalen Klangfarbe
zugrunde? Zweitens: Welche Parameter führen zur Wahrnehmung einheitlicher Klangbilder
und welche zur Wahrnehmung mehrerer gleichzeitiger Klangbilder? Drittens: Wie verhalten
sich Klangfarben, wenn sie zeitlich nebeneinander stehen? Es ist klar, dass diese Fragen alle
Auswirkungen nicht nur auf die Musik, sondern auch auf die auditive Wahrnehmung im
Allgemeinen haben.

Die Identifizierung der Klangfarbe. Es ist bemerkenswert, dass der Klang eines
Musikinstruments unter einer Vielzahl von Bedingungen identifiziert werden kann, unabhängig
von seiner Tonhöhe, seiner Lautstärke usw. Die Klangspektrogramme, die dasselbe
Instrument unter verschiedenen Bedingungen erzeugt, variieren erheblich. Welche Merkmale
liegen einer solchen Wahrnehmungskonstanz zugrunde?

Klassischerweise beschäftigte sich die Frage der Klangwahrnehmung mit Tönen im


eingeschwungenen Zustand. Laut Helmholtz (1885Helmholtz ( /1954) hängen Unterschiede
in der Klangfarbe komplexer Töne von der Stärke ihrer verschiedenen Harmonischen ab. Er
behauptete, dass einfache Töne angenehm, aber bei niedrigen Frequenzen dumpf klingen;
komplexe Töne, deren Harmoniken mäßig stark sind, klingen satter, aber immer noch
angenehm; Töne mit starken oberen Harmonischen klingen rau und scharf; und komplexe
Töne, die nur aus ungeraden Harmonischen bestehen, klingen hohl. In jüngerer Zeit haben
Plomp und seine Mitarbeiter argumentiert, dass das kritische Band 4 eine wichtige Rolle bei
der Klangfarbenwahrnehmung spielt (Plomp, 1964(Plomp , , 1970Plomp & Mimpen, 1968). Es
wurde nachgewiesen, dass Harmonische, die in dasselbe kritische Band fallen, in ihrer
ÜBERSETZUNG 11

Wirkung verschmelzen. Andere Experimente befassten sich mit der Frage, ob die
wahrgenommene Klangfarbe auf den Beziehungen basiert, die durch die Grundfrequenz und
die Frequenz gebildet werden Region eines Formanten oder auf der absoluten Ebene des
Formanten. Im Allgemeinen sprechen die Ergebnisse für ein modifiziertes Festformant-Modell
der Klangfarbenwahrnehmung (Plomp & Steeneken, 1971; Slawson, 1968).

In jüngster Zeit beschäftigt sich die Erforschung der Klangfarbe mit Tönen, die von
natürlichen Instrumenten erzeugt werden. Man geht davon aus, dass solche Töne aus drei
zeitlichen Abschnitten bestehen: dem Einschwingvorgang, dem Dauerzustand und dem
Ausklingen. Es wurde festgestellt, dass das Attack-Segment für die Identifizierung der
Klangfarbe von besonderer Bedeutung ist (Berger, 1964; Gray, 1975; Saldanha & Corso, 1964;
Wedin & Goude, 1972; Wessel, 1973, Wessel, 1978; das Steady-State-Segment trägt mehr zur
Klangfarbe bei Identifizierung, wenn es zeitlich variiert; und das Zerfallssegment scheint von
geringer Bedeutung zu sein (Saldanha & Corso, 1964).

Eine wichtige Technik zur Untersuchung der Klangfarbenwahrnehmung wurde von Risset
und Matthews (1969) entwickelt. Proben natürlicher Instrumententöne werden digitalisiert
und per Computer analysiert, aus dieser Analyse wird eine Reihe physikalischer Parameter
extrahiert und Töne werden dann per Computer entsprechend diesen Parametern
synthetisiert. Diese Technik ermöglicht es dem Experimentator, systematisch beliebige
Parameter zu variieren und so die Wahrnehmungseffekte dieser Variationen zu untersuchen.
Mit dieser Technik wurde beispielsweise gezeigt, dass es bei der Neusynthese von Tönen mit
einer Liniensegmentnäherung an die zeitlich variierende Amplituden- und Frequenzfunktion
für die Teiltöne zu einem sehr geringen Verlust der charakteristischen Wahrnehmungsqualität
kommt, obwohl dies zu einer erheblichen Informationsreduzierung führen kann entstehen
(Grey & Moorer, 1977).

Mit dieser Technik wurden auch geometrische Modelle des subjektiven Klangraums
erstellt. Als ähnlich beurteilte Instrumentenklänge sind in diesem Raum eng beieinander
positioniert; Geräusche, die als unähnlich beurteilt werden, werden weit auseinander
positioniert. Solche Modelle wurden von Wessel (1973Wessel (, 1978) und von Gray (1975)
für Töne von Streich- und Blasinstrumenten bereitgestellt, die hinsichtlich Tonhöhe,
Lautstärke und Dauer gleichgesetzt wurden. Mindestens zwei Dimensionen wurden enthüllt:
Die erste scheint sich auf die zu beziehen Spektral und Verteilung der Schallenergie und
zweitens zeitliche Merkmale wie Einzelheiten des Anschlags.

Mit solchen Darstellungen hat es sich als möglich erwiesen, Trajektorien durch einen
bestimmten Klangraum zu zeichnen und so interpolierte Klänge zu erzeugen, die mit der
Geometrie des Raums übereinstimmen. Beispielsweise schuf Gray (1975) eine Reihe von
Tönen, die seinen multidimensionalen Raum in kleinen Schritten durchquerten, sodass der
Zuhörer zunächst ein Instrument (z. B. eine Klarinette) wahrnahm und irgendwann in der
ÜBERSETZUNG 12

Reihe erkannte, dass er nun ein anderes hörte Instrument (zum Beispiel ein Cello). Dennoch
schien der Wahrnehmungsübergang zwischen den Instrumenten völlig reibungslos zu sein.
Damit erscheint Schönbergs Vision, mit Klangfarben zu komponieren, die entlang eines
geordneten Kontinuums angeordnet sind, realisierbar. Bevor diese Modelle jedoch flexibel
eingesetzt werden können, müssen sie erheblich ausgearbeitet werden, um die Invarianz der
Klangfarbe bei Tonhöhen- und Lautstärkeänderungen sowie Kontexteffekte zu
berücksichtigen. (Siehe auch Risset & Wessel, 1982.) Spektrale Fusion und Trennung. Eine
grundlegende Aufgabe der Hörtheorie besteht darin, die Beziehungen zwischen Komponenten
eines fortlaufenden akustischen Spektrums zu definieren, die zur Wahrnehmung eines
einheitlichen Klangbildes führen, und solchen, die zur Wahrnehmung mehrerer gleichzeitiger,
aber unterschiedlicher Klangbilder führen. Diese Verschmelzungs- und Trennungsprozesse
sind von grundlegender Bedeutung, denn ohne sie gäbe es überhaupt kein verständliches
Zuhören. Vermutlich haben wir Mechanismen entwickelt, die dazu führen, dass wir Elemente
des Spektrums, die wahrscheinlich aus derselben Quelle stammen, zusammenführen und
diejenigen heraustrennen, die wahrscheinlich aus unterschiedlichen Quellen stammen. Diese
Sichtweise der Wahrnehmung als Prozess der „unbewussten Folgerung“ wurde ursprünglich
von Helmholtz vorgeschlagen (siehe Helmholtz, 1909Helmholtz, -1911Helmholtz, /1925) und
wurde kürzlich herangezogen, um verschiedene Erkenntnisse in der
Wahrnehmungspsychologie zu erklären, sowohl im Bereich des Sehens (z. B. Gregory, 1970;
Hochberg, 1974; Sutherland, 1973) und im Hören (z. B. Bregman, 1978; Deutsch, 1975a;
Deutsch, 1979; Warren, 1974).

Im Hinblick auf die Musik stellte Helmholtz (1885Helmholtz ( /1954) die Frage, wie wir
angesichts des sich schnell verändernden, komplexen Spektrums, das sich aus dem
gleichzeitigen Spielen mehrerer Instrumente ergibt, unsere musikalische Umgebung so
rekonstruieren können, dass einige Komponenten des Spektrums entstehen ein einheitliches
Klangbild, andere führen zu mehreren unterschiedlichen, aber gleichzeitigen Klangbildern. So
schrieb er: „Nun gibt es viele Umstände, die uns erstens dabei helfen, die aus verschiedenen
Quellen stammenden musikalischen Töne zu trennen und zweitens die Teiltöne
zusammenzuhalten.“ jeder einzelnen Quelle. Wenn also ein musikalischer Ton eine Zeit lang
gehört wird, bevor sich der zweite anschließt, und dann der zweite weitergeht, nachdem der
erste verstummt ist, wird die Trennung im Ton durch die Abfolge der Zeit erleichtert. Wir
haben das bereits gehört Wir wissen also sofort, was wir von der zusammengesetzten
Wirkung auf die Wirkung dieses ersten Tones abziehen müssen. Selbst wenn in der
polyphonen Musik mehrere Stimmen im gleichen Rhythmus ablaufen, ist die Art und Weise, in
der die Töne verschiedener Instrumente und Stimmen beginnen, die Art ihrer Kraftsteigerung,
die Sicherheit, mit der sie gehalten werden, und die Art und Weise, wie sie abklingen, sind im
Allgemeinen bei jeder etwas unterschiedlich … aber darüber hinaus wird bei einem guten Teil
der Musik besonderes Augenmerk darauf gelegt, sie zu erleichtern die Trennung der Teile
durch das Ohr. In der eigentlichen polyphonen Musik, in der jeder Teil seine eigene Melodie
hat, bestand ein Hauptmittel zur klaren Trennung des Verlaufs jedes Teils immer darin, sie in
ÜBERSETZUNG 13

unterschiedlichen Rhythmen und auf unterschiedlichen Takteinteilungen ablaufen zu lassen.

Und später:
All diese Hilfsmittel versagen bei der Auflösung musikalischer Töne in ihre Teiltöne.
Wenn ein zusammengesetzter Ton zu erklingen beginnt, beginnen alle seine Teiltöne mit der
gleichen vergleichsweisen Stärke; wenn es anschwillt, schwellen im Allgemeinen alle
gleichmäßig an; Wenn es aufhört, hören alle gleichzeitig auf. Daher besteht im Allgemeinen
keine Möglichkeit, sie getrennt und unabhängig zu hören [Helmholtz, 1885[Helmholtz, /1954].

Ein von Helmholtz vorgeschlagener Faktor, der die Fusion fördert, war die Synchronizität
des Beginns der Spektralkomponenten. Dies wurde kürzlich in mehreren Studien als wichtig
erwiesen. Rasch (1978) untersuchte die Schwelle zur Wahrnehmung eines hohen Tons, wenn
dieser von einem tiefen Ton begleitet wurde. Er fand heraus, dass es zu einer erheblichen
Senkung der Schwelle kam, wenn der tiefe Ton im Vergleich zum hohen Ton verzögert
einsetzte. Darüber hinaus unterschied sich die Wahrnehmung bei asynchronen Tönen stark
von der Wahrnehmung bei synchronen Tönen; Im ersteren Fall wurden zwei unterschiedliche
Töne deutlich wahrgenommen, im letzteren Fall verschmolzen sie jedoch zu einer einzigen
Wahrnehmung. Bregman und Pinker (1978) verwendeten ein Paradigma, bei dem ein
simultaner Zweitonkomplex im Wechsel mit einem dritten Ton präsentiert wurde. Mit
zunehmender Asynchronität zwischen den gleichzeitigen Tönen stieg die Wahrscheinlichkeit,
dass einer von ihnen mit dem dritten Ton einen melodischen Strom bildete. Beide
Autorengruppen interpretieren ihre Ergebnisse im Sinne von Helmholtz. Eine verwandte Studie
zu den Auswirkungen der Asynchronität wurde von Deutsch (1979) unter Verwendung
räumlich getrennter Töne durchgeführt (siehe S. 15).

Ein zweiter von Helmholtz vorgeschlagener Faktor zur Förderung der Fusion ist die
koordinierte Modulation im stationären Zustand. McNabb und Chowning haben informell
gezeigt, dass bei einem harmonischen Tonkomplex, dessen Spektrum einem Vokal
entspricht, der Eindruck einer Stimme stark verstärkt wird, wenn eine kleine Menge
koordinierter Frequenzmodulation, die entweder periodisch (Vibrato) oder zufällig (Schimmer)
sein kann, erfolgt allen Komponenten gleichzeitig überlagert. McAdams und Wessel haben
informell die Wirkung der Anwendung zweier unterschiedlicher Modulationsfunktionen auf die
ungeraden oder geraden Teiltöne eines komplexen Tons untersucht und berichtet, dass
dadurch der Eindruck von zwei gleichzeitigen Klängen erzeugt wurde (siehe McAdams, 1981).

Ein dritter Faktor, von dem angenommen wird, dass er die Fusion fördert, ist die
Harmonie der Komponenten eines komplexen Spektrums. Saiten- und Blasinstrumente, die
dazu neigen, stark verschmolzene Bilder zu erzeugen, haben Teiltöne, die harmonisch oder
nahezu harmonisch sind. Allerdings haben Glocken und Gongs, die diffuse Bilder erzeugen,
nichtharmonische Teiltöne (Matthews & Pierce, 1980). DeBoer (1976) hat gezeigt, dass
ÜBERSETZUNG 14

harmonische Komplexe dazu neigen, einheitliche und eindeutige Tonhöhenempfindungen


hervorzurufen, während verschiedene Arten nichtharmonischer Komplexe mehrere
Tonhöhenempfindungen hervorrufen. Auch dies wird unter der Annahme erwartet, dass sich
unsere Hörmechanismen so entwickelt haben, dass sie die wahrscheinlichsten
Interpretationen in Bezug auf Schallquellen ermöglichen, da die meisten erzwungenen
Schwingungssysteme wie die Stimme Teiltöne haben, deren Frequenzen harmonisch oder
nahezu harmonisch sind.

Wahrnehmung von Klangfarbenfolgen. Wie oben erwähnt, haben Komponisten des 20.
Jahrhunderts begonnen, sich für die Produktion von Klangsequenzen zu interessieren, die
schnelle Veränderungen der Klangfarbe beinhalten. Dies wirft die Frage auf, wie Abfolgen
kontrastierender Klangfarben wahrgenommen werden. Über einen Effekt von zentralem
Interesse wurde erstmals von Warren, Obusek, Farmer und Warren (1969) in einem Aufsatz
mit dem (ziemlich ironischen) Titel „Auditory sequence: Confusions of patterns other than
Speech or Music“ berichtet. Diese Autoren konstruierten sich wiederholende Sequenzen aus
vier unabhängigen Geräuschen: einem hohen Ton (1000 Hz), einem Zischen (2000 Hz-
Oktavbandgeräusch), einem tiefen Ton (796 Hz) und einem Summen (4000 Hz-
Rechteckwelle). Jeder Ton dauerte 200 ms und die verschiedenen Töne folgten pausenlos
aufeinander. Es stellte sich heraus, dass die Zuhörer überhaupt nicht in der Lage waren, die
Reihenfolge solcher sich wiederholenden Geräusche zu benennen. Um eine korrekte
Reihenfolge zu erreichen, musste die Dauer jedes Tons auf über 500 ms erhöht werden.

Der „Warren-Effekt“ hat wahrscheinlich zwei Grundlagen. Der erste Grund besteht darin,
dass Zuhörer dazu neigen, Klänge auf der Grundlage des Klangtyps in separate Streams zu
unterteilen; und auditives Streaming führt zu Schwierigkeiten bei der Bildung zeitlicher
Beziehungen zwischen Streams (siehe S. 173). Tatsächlich ist die Schwelle für die Ordnung
zweier akustischer Ereignisse höher, wenn diese Ereignisse unterschiedlich sind, als wenn sie
ähnlich sind (Hirsh, 1959; Hirsh & Sherrick, 1961). Zweitens hat Warren (1974) die Hypothese
aufgestellt, dass die Unkenntnis einer solchen Lautfolge zu Schwierigkeiten bei der Ordnung
beiträgt. Auf jeden Fall zeigt diese Art von Untersuchung, dass der Hörer bei schnellen
kontrastierenden Klängen möglicherweise nicht in der Lage ist, den Eindruck einer
zusammenhängenden Sequenz zu gewinnen, sondern stattdessen mehrere Sequenzen
parallel wahrnimmt.

Ein weiterer Kontexteffekt wurde von Bregman und Pinker (1978) untersucht. Wenn sich
ein Zweitonkomplex mit einem dritten Ton abwechselt und einer der Töne im Komplex eine
ähnliche Frequenz wie dieser dritte Ton hat, kann sich diese Komponente
wahrnehmungsmäßig lösen und mit dem dritten Ton einen melodischen Strom bilden. Wenn
dies geschieht, kommt es zu einem Wechsel in der wahrgenommenen Klangfarbe des
Zweitonkomplexes. Daher variiert die Klangfarbe eines bestimmten Klangs wahrscheinlich je
nach dem sequentiellen Kontext, in den dieser Klang eingebettet ist.
ÜBERSETZUNG 15

Zusammenfassend ist die Untersuchung der Klangfarbenwahrnehmung ein besonders


gutes Beispiel für eine fruchtbare Zusammenarbeit zwischen Psychologen und Musikern. Die
meisten der bisher in diesem Bereich aufgeworfenen Fragen stammten von Musikern, denen
es um die Lösung kompositorischer Probleme ging; Diese Fragen sind jedoch grundlegend für
das Verständnis der Klangwahrnehmung im Allgemeinen. Fortschritte bei der Beantwortung
dieser Fragen wären ohne den Einsatz experimenteller Techniken, die von Psychologen
entwickelt wurden, wahrscheinlich nicht möglich gewesen.

Musik und der Aufführungsraum


Komponisten beschäftigen sich seit langem mit räumlichen Aspekten der Musik; Das
Interesse an diesem Bereich hat sich jedoch insbesondere seit Berlioz (1806–1869)
entwickelt, der argumentierte, dass die Anordnung von Instrumenten im Raum als
wesentlicher Teil einer Komposition betrachtet werden sollte. In seiner Abhandlung über die
Instrumentierung schrieb Berlioz: „Ich möchte dies erwähnen Wichtigkeit der
unterschiedlichen Ausgangspunkte der Tonmassen. Bestimmte Gruppen eines Orchesters
werden vom Komponisten ausgewählt, um sich gegenseitig zu befragen und zu beantworten;
diese Gestaltung wird jedoch erst klar und wirksam, wenn die Gruppen, die den Dialog führen
sollen, an dieser Stelle platziert werden Der Komponist muss daher in seiner Partitur deren
genaue Anordnung angeben. Beispielsweise dürfen Trommeln, große Trommeln, Becken und
Pauken zusammen bleiben, wenn sie wie üblich zum gleichzeitigen Anschlagen bestimmter
Rhythmen eingesetzt werden. Aber wenn Sie führen einen Zwischenrhythmus aus, von dem
ein Fragment den Basstrommeln und Becken und das andere Fragment den Pauken und
Trommeln zugewiesen wird. Der Effekt würde erheblich verbessert und intensiviert, wenn die
beiden Gruppen von Schlaginstrumenten an den gegenüberliegenden Enden des Orchesters
platziert würden. d.h. in beträchtlichem Abstand voneinander [Berlioz, 1948, S. 407].

Spätere Komponisten wie Ives, Brant und Stockhausen legten besonderes Augenmerk
auf die Positionierung von Instrumenten und Instrumentengruppen und führten informelle
Experimente durch, um die Auswirkungen verschiedener räumlicher Anordnungen auf die Art
und Weise zu untersuchen, wie Musik wahrgenommen wird (siehe z. B. Brant, 1966).

In einer kontrollierten experimentellen Umgebung wurde gezeigt, dass räumliche


Beziehungen auf systematische Weise mit anderen musikalischen Attributen interagieren.
Das Hören über Kopfhörer bietet eine besonders gut definierte Situation zur Untersuchung der
Auswirkungen räumlicher Trennung; und die unter diesen Bedingungen erzielten Ergebnisse
können später in Freischallfeldumgebungen auf ihre Allgemeingültigkeit getestet werden
(Deutsch, 1982a). Deutsch (1975aDeutsch ( , 1975b untersuchte die Wahrnehmungseffekte
der Präsentation zweier gleichzeitiger Tonsequenzen, eine für jedes Ohr. Es wurde die
folgende Frage aufgeworfen: Nimmt der Zuhörer unter diesen Bedingungen extremer
räumlicher Trennung die Sequenz wahr, die von einer Seite des Raums ausgeht? oder das
ÜBERSETZUNG 16

andere; oder bildet der Zuhörer stattdessen Wahrnehmungskonfigurationen auf einer anderen
Grundlage?

Das zur Untersuchung dieses Problems verwendete Reizmuster ist in Abbildung 3a


dargestellt. Es bestand aus einer Dur-Tonleiter, die gleichzeitig in aufsteigender und
absteigender Form dargestellt wurde, so dass, wenn ein Ton der aufsteigenden Tonleiter in
einem Ohr war, ein Ton der absteigenden Tonleiter im anderen Ohr war und
aufeinanderfolgende Töne in jeder Tonleiter abwechselten Ohr zu Ohr. Kein Zuhörer nahm die
Tonfolge wahr, die auf der einen oder anderen Seite des Raumes präsentiert wurde.
Stattdessen erhielten die meisten Zuhörer die in Abbildung 3b gezeigte Wahrnehmung. Diese
bestand aus zwei Melodielinien, von denen eine aus den höheren Tönen und die andere aus
den tieferen Tönen bestand. Darüber hinaus schienen die höheren Töne alle aus einem
Kopfhörer zu kommen und die tieferen Töne aus dem anderen. Eine Minderheit der Zuhörer
nahm stattdessen eine einzige Melodielinie wahr, die den höheren Tönen entsprach, und sie
nahm wenig oder gar nichts von den tieferen Tönen wahr. Somit war die Bildung von
Wahrnehmungskonfigurationen auf der Grundlage der Tonhöhennähe für alle Zuhörer so
stark, dass sie die Auswirkungen der räumlichen Trennung vollständig außer Kraft setzte und
häufig auffällige Lokalisierungsillusionen erzeugte. Die Töne wurden wahrnehmungsmäßig
im Raum neu organisiert, um mit der Tonhöhennähe übereinzustimmen.

Weitere Erkenntnisse betrafen Lokalisierungsmuster für die höheren und tieferen Töne
und deren Händigkeit korreliert. Rechtshänder zeigten eine ausgeprägte Tendenz, die höheren
Töne rechts und die tieferen Töne links zu hören, unabhängig von ihrem tatsächlichen
Standort. Bei Linkshändern war diese Tendenz jedoch nicht zu erkennen. Da bei den meisten
Rechtshändern die linke Hemisphäre dominiert, deutet dieses Ergebnismuster darauf hin,
dass wir dazu neigen, die höheren Töne so zu hören, als kämen sie von der Seite des Raums,
die kontralateral zur dominanten Hemisphäre liegt, und die tieferen Töne so, als kämen sie
von der anderen Seite (Deutsch, 1975a(Deutsch, 1975b).

Diese Studie wurde vom Musiktheoretiker Butler (1979a) weiterverfolgt, der sich mit der
Bestimmung der Allgemeingültigkeit dieser Erkenntnisse in natürlichen Musiksituationen
befasste. Er präsentierte die Skalenkonfiguration über Lautsprecher in einer freien
Schallfeldumgebung und forderte Musikschüler auf, die Sequenz, die sie aus dem rechten
Lautsprecher hörten, und die Sequenz, die sie aus dem linken Lautsprecher hörten, getrennt
zu notieren. Unter bestimmten Bedingungen wurden Klaviertöne als Reize verwendet. Trotz
dieser Unterschiede zeigte sich im Wesentlichen das gleiche Ergebnismuster: Praktisch alle
Zuhörer hörten, dass die höheren Töne von einem Lautsprecher kamen und die tieferen Töne
von dem anderen. Es wurden auch die Auswirkungen untersucht, die sich aus der Einführung
von Unterschieden in Lautstärke und Klangfarbe zwischen den von den beiden Lautsprechern
kommenden Reizen ergeben. Dies führte zu einer Änderung der Tonqualität, der neue Klang
war jedoch so zu hören, als käme er gleichzeitig aus beiden Lautsprechern. Somit wurden
ÜBERSETZUNG 17

nicht nur die räumlichen Positionen der Töne wahrnehmungsmäßig neu angeordnet, um der
Tonhöhennähe Rechnung zu tragen, sondern auch ihre Klangfarben und Lautstärken wurden
neu angeordnet. Butler entwickelte auch verschiedene kontrapunktische Muster, die den
Zuhörern über Kopfhörer oder räumlich getrennte Lautsprecher vorgespielt wurden. Im
Wesentlichen wurden die gleichen Ergebnisse erzielt: Die Muster wurden
wahrnehmungsmäßig neu organisiert, sodass eine höhere Melodielinie aus einem Kopfhörer
oder Lautsprecher zu kommen schien und eine niedrigere Melodielinie aus dem anderen.

Solche Effekte finden sich in der gespielten Musik. Beispielsweise beginnt der letzte Satz
von Tschaikowskys Sechster Symphonie (die „Pathetique“) mit einer Passage, in der Thema
und Begleitung auf zwei Violinstimmen verteilt sind. Allerdings erklingt das Thema so, als
käme es von einem Geigensatz und die Begleitung von dem anderen (Butler, 1979b). Dies gilt
selbst dann, wenn das Orchester im Stil des 19. Jahrhunderts angeordnet ist, mit den ersten
Violinen auf der einen und den zweiten Violinen auf der anderen Seite. Die räumliche
Trennung garantiert also keineswegs, dass Musik entsprechend der Positionierung der
Instrumente wahrgenommen wird. Gruppierungen können vielmehr auf der Grundlage eines
anderen Attributs wie der Tonhöhe gebildet werden, was wiederum dazu führen kann, dass
der Hörer die Komponenten der musikalischen Konfiguration entsprechend solchen
Gruppierungen falsch lokalisiert. Es scheint auch, dass andere Attribute wie Lautstärke und
Klangfarbe auf diese Weise wahrnehmungsmäßig neu organisiert werden können. Solche
Erkenntnisse sind, abgesehen von ihrer musikalischen Relevanz, von allgemeinem Interesse
für die Wahrnehmungspsychologie, da sie zeigen, dass es bei der subjektiven Gruppierung
nicht einfach darum geht, verschiedene Reize miteinander zu verknüpfen. Vielmehr kann es
sich hierbei um einen Prozess handeln, bei dem die verschiedenen Reizattribute dissoziiert
und neu kombiniert werden, sodass illusorische Wahrnehmungen entstehen.

Die gerade beschriebenen Experimente umfassten zwei Musiksequenzen, die gleichzeitig


oder nahezu gleichzeitig abliefen. Was passiert, wenn zeitliche Unterschiede eingeführt
werden? Um dieses Problem zu untersuchen, präsentierte Deutsch (1979) den Zuhörern zwei
Melodiemuster, und sie identifizierten bei jedem Versuch, welches sie gehört hatten. Es
wurden vier Bedingungen verwendet. Im ersten Fall wurde die Melodie beiden Ohren
gleichzeitig präsentiert, und hier war die Erkennungsleistung sehr hoch. Bei der zweiten
Bedingung wechselten die einzelnen Töne der Melodie zwischen den Ohren und die
Erkennungsleistung war hier deutlich schlechter. Subjektiv fühlte sich der Zuhörer in diesem
Zustand gezwungen, auf das Signal zu achten, das an dem einen oder anderen Ohr ankam,
und konnte die beiden Signalsätze nicht in einen einzigen Wahrnehmungsstrom integrieren.
Im dritten Zustand wechselten die Einzeltöne der Melodie immer noch zwischen den Ohren;
Allerdings wurde die Melodie von einem Dröhnen begleitet. Immer wenn sich ein Bestandteil
der Melodie im rechten Ohr befand, befand sich der Bordunton im linken Ohr, und wenn sich
ein Bestandteil der Melodie im linken Ohr befand, befand sich der Bordunton im rechten Ohr.
Somit empfingen die beiden Ohren erneut gleichzeitig Eingaben, obwohl die zu
ÜBERSETZUNG 18

identifizierende Melodie immer noch zwischen den Ohren wechselte. Diese Gleichzeitigkeit
der Eingaben führte zu einem dramatischen Anstieg der Identifikationsleistung. Im vierten
Zustand wurde erneut eine Drohne vorgestellt; Diesmal jedoch an dasselbe Ohr wie das Ohr,
das die Melodiekomponente empfängt (und nicht an das kontralaterale Ohr). Somit erfolgte
die Eingabe wieder jeweils nur an ein Ohr. Auch hier war die Identifikationsleistung sehr
gering.

Dieses Experiment zeigt, dass bei Tönen, die von verschiedenen räumlichen Orten
ausgehen, zeitliche Beziehungen zwischen ihnen wichtige Determinanten der Gruppierung
sind. Wenn Signale gleichzeitig an beide Ohren übermittelt werden, ist es einfach, die
Informationen in einen einzigen Wahrnehmungsstrom zu integrieren. Wenn die an die beiden
Ohren abgegebenen Signale jedoch zeitlich klar getrennt sind, ist die subjektive Gruppierung
nach räumlicher Lage so wirkungsvoll, dass der Hörer die Signale nicht kombinieren kann, um
eine integrierte Wahrnehmung zu erzeugen.

Dieser Befund führt zu der Frage, was im Zwischenfall passiert, wenn die Töne, die an den
beiden Ohren ankommen, nicht gleichzeitig sind, sondern sich zeitlich überlappen. In einem
weiteren Experiment wurde festgestellt, dass dieser Zwischenfall zu Zwischenergebnissen
führte.

Die Identifizierung der Melodie in Gegenwart des kontralateralen Borduns war schlechter,
wenn Melodie und Bordun asynchron waren, als wenn sie streng synchron waren, aber besser
als wenn es keinen begleitenden Bordun gab (Deutsch, 1979).

Aus diesen Studien können wir schließen, dass der Hörer möglicherweise nicht in der
Lage ist, die Sequenz in einen einzigen kohärenten Strom zu integrieren, wenn eine schnelle
Tonfolge auf räumlich getrennte Instrumente verteilt wird und eine klare zeitliche Trennung
zwischen den von diesen Instrumenten erzeugten Klängen besteht. Allerdings wird eine
gewisse Überschneidung zwischen den verschiedenen Instrumenten eine solche Integration
erleichtern. Dennoch gibt es einen Kompromiss: Je größer die Überlappung, desto größer ist
der Verlust an räumlicher Unterscheidungskraft. und wenn man sich der Gleichzeitigkeit
nähert, kann es zu räumlichen Illusionen kommen.

Wir wenden uns nun der Frage zu, wie die Wahrnehmung zweier gleichzeitiger Tonfolgen
dadurch beeinflusst werden kann, ob die höheren Töne rechts und die tieferen Töne links
präsentiert werden oder ob diese Konfiguration umgekehrt ist. Wir haben zuvor festgestellt,
dass Rechtshänder bei der Skalenillusion dazu neigen, höhere Töne rechts und tiefere Töne
links wahrzunehmen, unabhängig von ihrer tatsächlichen Position. Daher neigen gleichzeitige
Tonpaare vom Typ „hoch-rechts/tief-links“ dazu, gut lokalisiert zu werden, und Paare vom Typ
„hoch-links/tief-rechts“ neigen dazu, falsch lokalisiert zu werden. Dieser Befund wurde in
allgemeineren Kontexten bestätigt (Deutsch, 1983).
ÜBERSETZUNG 19

Wir können dann fragen, ob die Tonhöhenwahrnehmung auch durch solche räumlichen
Überlegungen beeinflusst werden könnte. In einem Experiment zur Untersuchung dieser
Frage wurden musikalisch geschulte Zuhörer gebeten, zwei Tonfolgen zu notieren, die
gleichzeitig präsentiert wurden, eine für jedes Ohr. Tonpaare, bei denen der höhere rechts und
der tiefere links lag, wurden deutlich genauer notiert als Tonpaare, bei denen der höhere links
und der tiefere rechts lag. Dies wurde bei Sequenzen festgestellt, die auf verschiedene Arten
organisiert waren (Deutsch, 1983).

Die oben genannten Ergebnisse erklären bestimmte Muster der Ohrvorteile, die für
Musikmaterialien ermittelt wurden und von denen man annimmt, dass sie Muster der
hemisphärischen Asymmetrie bei der Verarbeitung solcher Materialien widerspiegeln.
Darüber hinaus haben sie Implikationen für die Frage der optimalen Bestuhlung von
Orchestern. Im Allgemeinen sind zeitgenössische Arrangements so, dass aus Sicht des
Interpreten Instrumente mit hohen Registern tendenziell rechts und Instrumente mit tiefen
Registern links platziert sind. Abbildung 4 zeigt beispielsweise eine Sitzordnung des Chicago
Symphony Orchestra. Aufgrund der oben genannten Erkenntnisse können wir davon
ausgehen, dass sich diese „oben rechts/unten links“-Disposition durch Versuch und Irrtum
entwickelt hat, weil sie einer optimalen Leistung förderlich ist. Dies hinterlässt jedoch ein
Paradoxon: Aus der Sicht des Publikums ist diese Konfiguration spiegelbildlich umgekehrt
und kann daher zu Wahrnehmungsschwierigkeiten führen. Es gibt keine einfache Lösung für
dieses Paradox für den Fall des Hörens im Konzertsaal (siehe Deutsch, im Druck, für eine
Diskussion). Wir können jedoch davon ausgehen, dass die Umkehrung dieser Anordnung bei
der Mehrspuraufzeichnung zu einer verbesserten Wahrnehmungsklarheit führen sollte. Ein
weiteres Problem im Zusammenhang mit Musik und Aufführungsräumen betrifft die
ästhetischen Auswirkungen verschiedener Hörumgebungen. Wie in Berlioz‘ Aussage
angedeutet: „So etwas wie Musik unter freiem Himmel gibt es nicht“, trägt der geschlossene
Raum des Konzertsaals durch die komplexen Klangreflexionen, die in dieser Umgebung
erzeugt werden, viel zur ästhetischen Qualität der Musik bei. Die phänomenologischen
Auswirkungen dieser Überlegungen wurden von Musikern häufig auf informeller Ebene
diskutiert und waren in jüngster Zeit Gegenstand kontrollierter experimenteller
Untersuchungen. Der Physiker Schroeder und seine Mitarbeiter haben eine Reihe von Studien
durchgeführt, bei denen in zahlreichen europäischen Konzertsälen Musikaufnahmen mit zwei
Mikrofonen gemacht wurden, die an den Ohren einer „Puppe“ angebracht waren. Diese
Aufnahmen wurden dann den Zuhörern in einem schalltoten Raum vorgespielt und
ermöglichten so eine realistische Nachbildung der Akustik des Konzertsaals an den Ohren der
„Puppe“. Zur Ermittlung der Präferenzbewertungen wurde die Methode der paarweisen
Vergleiche genutzt und die Einzelscores einer mehrdimensionalen Skalierung unterzogen,
sodass ein „Präferenzraum“ entstand. Analysen der Korrelationen zwischen verschiedenen
physikalischen Parametern eines Konzertsaals und seinen Koordinaten in diesem
„Präferenzraum“ führten zu dem Schluss, dass die Präferenz umso geringer ist, je ähnlicher
die an beiden Ohren ankommenden Signale sind. Diese Schlussfolgerung wurde durch
ÜBERSETZUNG 20

weitere Studien untermauert, in denen die aufgezeichneten Signale modifiziert wurden, um


binaurale Unähnlichkeiten durch Hinzufügen seitlicher Reflexionen zu erhöhen. Diese
Manipulation hatte den erwarteten Effekt einer Erhöhung der Präferenzbewertungen. Man
kam zu dem Schluss, dass breite Säle mit niedrigen Decken (die heutzutage aus
wirtschaftlichen Gründen gebaut werden) mit weniger Hörgenuss einhergehen als schmale
Säle mit hohen Decken (typischer für ältere Konzertsäle); da die letztere Art von Design frühe
seitliche Reflexionen betont (Schroeder, 1980). Die Untersuchung räumlicher Aspekte der
Musik ist ein weiterer Bereich, in dem sich die Anliegen von Komponisten und
Wissenschaftlern sehr nützlich gebündelt haben. Abgesehen von ihrer Relevanz für die Musik
haben Experimente zu den Auswirkungen räumlicher Trennung dazu beigetragen, die Natur
grundlegender Mechanismen der Reizintegration und -trennung aufzuklären.

Das Gesetz des schrittweisen Fortschritts und das Prinzip der Nähe
In Lehrbüchern über tonale Musik stoßen wir im Allgemeinen auf das „Gesetz des
schrittweisen Fortschritts“, das besagt, dass der melodische Fortschritt in Schritten (einem
halben oder einem ganzen Schritt) und nicht in Sprüngen (mehr als einem ganzen Schritt)
erfolgen sollte, da dies bei einem schrittweisen Fortschritt der Fall ist als „stärker“ oder
„verbindlicher“ angesehen. Unklar bleibt, warum dieses Gesetz befolgt werden sollte: Vom
Leser wird erwartet, dass er das Gesetz entweder unkritisch akzeptiert oder seine Wahrheit
auf irgendeine Weise durch Selbstbeobachtung erkennt.

Für den Psychologen erscheint dieses Gesetz als Beispiel für das Gestaltprinzip der
Nähe, das besagt, dass wir dazu neigen, Elemente, die in einer bestimmten Dimension
benachbart sind, zusammenzufassen und diejenigen zu trennen, die weiter voneinander
entfernt sind (Wertheimer, 1923). Vermutlich haben wir Mechanismen entwickelt, die solche
Wahrnehmungsgruppierungen erzeugen, da dies einer effektiven Interpretation unserer
Umwelt förderlich ist. Beim Sehen ist es daher wahrscheinlicher, dass proximale Elemente
zusammengehören als Elemente, die weiter voneinander entfernt sind. Beim Hören ist es
wahrscheinlich, dass Geräusche mit ähnlichem Frequenzspektrum aus derselben Quelle
stammen, und Geräusche mit unterschiedlichem Frequenzspektrum stammen wahrscheinlich
aus unterschiedlichen Quellen.

Die Betrachtung des „Gesetzes der schrittweisen Progression“ führt uns daher dazu,
speziell zu untersuchen, wie sich das Prinzip der Nähe bei der Anwendung auf die Tonhöhe
manifestiert. Diese Frage ist nicht nur für die Wahrnehmungspsychologie von Interesse,
sondern eine solche Untersuchung dient auch dazu, dem „Gesetz des schrittweisen
Fortschritts“ eine rationale Grundlage zu geben, indem es die nachteiligen Auswirkungen
aufzeigt, die bei einer Verletzung zu erwarten sind. Darüber hinaus können wir durch die
Charakterisierung der Art und Weise, wie sich solche Effekte bei parametrischer Manipulation
verhalten, die Bedingungen bestimmen, unter denen das Gesetz relativ ungestraft verletzt
ÜBERSETZUNG 21

werden kann, und diejenigen, unter denen seine Verletzung stark nachteilige Auswirkungen
auf die Wahrnehmung und das Gedächtnis hat.

In einer experimentellen Umgebung hängt der Eindruck der Verbundenheit, den eine
Tonfolge hervorruft, in komplexer Weise von den beteiligten Tonhöhenbeziehungen und auch
von deren Wechselwirkung mit anderen Faktoren ab (Deutsch, 1982a). Einer dieser Faktoren
ist das Tempo. Je höher die Präsentationsrate, desto größer ist die Tendenz, dass Töne mit
unterschiedlicher Tonhöhe getrennt und nicht als einzelne zusammenhängende Reihe gehört
werden (Schouten, 1962). Ein zweiter Faktor ist die Aufmerksamkeitseinstellung. Wenn dem
Hörer eine Folge zweier abwechselnder Töne präsentiert wird, kann er versuchen, diese
entweder als eine einzelne verbundene Reihe oder als zwei disjunkte Reihen zu hören. Wie in
Abbildung 5 dargestellt, hängt der Eindruck der Verbundenheit sehr stark von der
Präsentationsgeschwindigkeit ab, wenn der Zuhörer versucht, eine einzelne Serie zu hören.
Wenn der Zuhörer jedoch versucht, die Töne als unzusammenhängend zu hören, scheinen
zeitliche Faktoren unwichtig zu sein (Van Noorden, 1975). Ein dritter Faktor ist die Länge der
dargestellten Sequenz. Damit ein Eindruck von Verbundenheit entsteht, ist bei langen
Sequenzen eine stärkere Tempoabnahme erforderlich als bei Zweitonsequenzen (Van
Noorden, 1975).

Ein nachteiliger Effekt der Verletzung des Prinzips der Nähe besteht zumindest bei
schnellen Tempi darin, dass zeitliche Beziehungen zwischen benachbarten Tönen schwer zu
beurteilen sind. Wenn beispielsweise eine schnelle Abfolge von Tönen präsentiert wird und
diese aus zwei unterschiedlichen Tonhöhenbereichen stammen, ist die Beurteilung der
Reihenfolge dieser Töne sehr schwierig. Dieses Problem verschwindet jedoch, wenn die
Tonhöhen der Töne nahe beieinander liegen (Bregman & Campbell, 1971). Wenn die
Präsentationsgeschwindigkeit verlangsamt wird, sodass die Ordnungswahrnehmung
problemlos möglich ist, kommt es immer noch zu einem allmählichen Zusammenbruch der
zeitlichen Auflösung, da die Tonhöhenunterschiede in einer Folge abwechselnder Töne
zunehmen. Beispielsweise wird es immer schwieriger, eine rhythmische Unregelmäßigkeit in
einer solchen Sequenz zu erkennen. Auch dieser Effekt ist bei langen Sequenzen stärker
ausgeprägt als bei kurzen (Van Noorden, 1975). Ein weiterer Verlust an
Wahrnehmungsgenauigkeit, der sich aus der Verletzung des Näherungsprinzips ergibt,
besteht darin, dass zwei gleichzeitige Tonfolgen präsentiert werden, jede an einem anderen
räumlichen Ort. Wie bereits beschrieben, besteht die Tendenz, solche Sequenzen
wahrnehmungsmäßig entsprechend der Tonhöhennähe neu zu organisieren, sodass eine
Sequenz, die aus Tönen in einem Tonhöhenbereich besteht, den Anschein erweckt, von einem
räumlichen Ort zu kommen, und eine Sequenz, die aus Tönen in einem anderen
Tonhöhenbereich besteht, erscheint vom anderen Ort kommen (Butler, 1979a;Deutsch,
1975aDeutsch, , 1975bDeutsch, , 1979). Dieses Phänomen hängt auch mit einer anderen
musikalischen Regel zusammen, die das Überkreuzen von Stimmen im Kontrapunkt verbietet.
Wenn der Komponist versucht, ein Überkreuzen von Stimmen zu erzeugen besteht die Gefahr,
ÜBERSETZUNG 22

dass der Zuhörer Stimmen entsprechend der Tonhöhennähe und nicht gemäß den Absichten
des Komponisten synthetisiert. Dieses Wahrnehmungsphänomen gilt auch dann, wenn nur
ein einziger räumlicher Ort beteiligt ist (obwohl die Illusion, dass Töne in einem
Tonhöhenbereich vorhanden sind, vorhanden ist). Töne, die von einem Ort im Raum ausgehen
und Töne in einem anderen Tonbereich von einem anderen Ort aus entstehen, entstehen
natürlich nicht).

Schließlich kann gezeigt werden, dass die Tonhöhennähe die Fähigkeit beeinflusst,
einzelne Töne in einer Sequenz zu erkennen. Deutsch (1978a) verwendete das folgende
Paradigma. Die Zuhörer verglichen die Tonhöhen zweier Töne, wenn diese durch ein
Zeitintervall getrennt waren, in dem eine Folge zusätzlicher Töne interpoliert wurde. Sie
wurden gebeten, die interpolierten Töne zu ignorieren und zu beurteilen, ob die Testtöne in der
Tonhöhe gleich oder unterschiedlich waren. Es wurde festgestellt, dass die Genauigkeit der
Tonhöhenerkennung zunimmt, wenn die durchschnittliche Größe der durch die interpolierten
Töne gebildeten Intervalle abnimmt. Es wurde der Schluss gezogen, dass die interpolierte
Sequenz ein Gerüst von Tonhöhenbeziehungen bereitstellt, in das die Testtöne eingebettet
sind, und dass das Gerüst umso stärker ist, je näher diese Beziehungen liegen.

Die wahrnehmungsmäßige Trennung zwischen Tönen unterschiedlicher Tonhöhe kann


musikalisch ausgenutzt werden. Wenn ein Komponist möchte, dass der Zuhörer zwei
Melodielinien gleichzeitig wahrnimmt, kann dies erheblich erleichtert werden, indem er die
beiden Linien in unterschiedlichen Tonhöhen präsentiert. Eine besonders interessante
Technik, die sich dieses Phänomen zunutze macht, wurde von Barockkomponisten häufig
verwendet und ist als Pseudopolyphonie bekannt. Dabei spielt ein Instrument eine schnelle
Folge einzelner Töne, die aus zwei verschiedenen Tonbereichen stammen; Dadurch nimmt
der Zuhörer zwei Melodielinien parallel wahr. Dowling (1973) hat die Stärke dieses
Wahrnehmungseffekts in einem formalen Experiment nachgewiesen. Er präsentierte den
Zuhörern zwei bekannte Melodien, die zeitlich ineinander verschachtelt waren. Die Zuhörer
wurden gebeten, die Melodien zu identifizieren. Wenn diese aus dem gleichen
Tonhöhenbereich gezogen wurden, war die Aufgabe sehr schwierig, da zeitlich benachbarte
Töne wahrnehmungsmäßig zu einem einzigen Strom kombiniert wurden. Da jedoch eine der
ineinander verschlungenen Melodien nach und nach transponiert wurde, so dass die
Tonhöhenbereiche der beiden Melodien auseinanderliefen, wurde die Identifizierung
zunehmend einfacher.

Die oben genannten Studien zeigen die Nützlichkeit der experimentellen Technik beim
Verständnis der Grundlagen musikalischer Regeln, die durch Versuch und Irrtum entwickelt
wurden. Die Schlussfolgerungen aus diesen Studien konnten nicht allein durch die
Untersuchung von Musikbeispielen gezogen werden, und viele davon sind aus der
Selbstbeobachtung nicht ersichtlich.
ÜBERSETZUNG 23

Musikalische Formanalyse und Theorie der Zwölftonkomposition


Das heutige Interesse an Formanalysemechanismen geht größtenteils auf die Arbeit der
Gestaltpsychologen am Ende des letzten Jahrhunderts und zu Beginn dieses Jahrhunderts
zurück. Den Gestaltisten ging es darum, die Art und Weise zu charakterisieren, wie Formen
verändert werden können, ohne ihre Wahrnehmungsidentität zu verlieren. Beispielsweise wird
die Identität visueller Formen nicht zerstört, wenn ihre Größe geändert oder an eine andere
Position im Gesichtsfeld verschoben wird (Sutherland, 1973).

Die überwiegende Mehrheit der Arbeiten zur Formanalyse befasste sich mit dem Sehen.
Es ist jedoch anzumerken, dass von Ehrenfels (1890) in seinem einflussreichen Aufsatz „Über
Gestütsqualitäten“ die Melodie als Beispiel für eine Gestalt anführte. Er wies darauf hin, dass
eine Melodie bei der Transponierung ihre wesentliche Form, die Gestaltqualität, beibehält,
sofern die Beziehungen zwischen den einzelnen Tönen unverändert bleiben. In dieser
Hinsicht, so argumentierte er, seien Melodien wie visuelle Formen.

Die zu Beginn dieses Jahrhunderts von Schönberg entwickelte Theorie der


Zwölftonkomposition ist den Psychologen weitgehend unbekannt und basiert auf einer
Theorie der Formanalyse für Tonhöhenstrukturen. Diese Theorie wiederum basiert auf einer
intermodalen Analogie, bei der eine Dimension des visuellen Raums in die Tonhöhe und eine
andere in die Zeit abgebildet wird. Indem er sein Kompositionssystem als „kein bloßes
technisches Gerät“, sondern als „den Rang und die Bedeutung einer wissenschaftlichen
Theorie“ bezeichnet, rechtfertigt Schönberg es folgendermaßen: „Der zwei- oder
mehrdimensionale Raum, in dem musikalische Ideen präsentiert werden, ist.“ EINE EINHEIT. .
. . Die Elemente einer musikalischen Idee werden teilweise in der horizontalen Ebene als
aufeinanderfolgende Klänge, teilweise in der vertikalen Ebene als gleichzeitige Klänge
eingefügt. . . . Die Einheit des musikalischen Raumes erfordert eine absolute und einheitliche
Wahrnehmung. In diesem Raum. . .es gibt kein absolutes Unten, kein Rechts oder Links,
Vorwärts oder Rückwärts. . . . Für die Vorstellungskraft und das kreative Vermögen sind
Beziehungen in der materiellen Sphäre ebenso unabhängig von Richtungen oder Ebenen wie
materielle Objekte in ihrer Sphäre für unser Wahrnehmungsvermögen. So wie unser Geist
beispielsweise ein Messer, eine Flasche oder eine Uhr unabhängig von ihrer Position immer
erkennt und in jeder möglichen Position in der Vorstellung wiedergeben kann, kann auch der
Geist eines Musikschaffenden unterbewusst mit einer Reihe von Tönen operieren ,
unabhängig von ihrer Richtung, unabhängig von der Art und Weise, wie ein Spiegel die
gegenseitigen Beziehungen zeigen könnte, die eine gegebene Größe bleiben [Schönberg,
1951, S. 220-223]. Abbildung 6 veranschaulicht Schönbergs Einsatz seiner Theorie in der
kompositorischen Praxis. Er schrieb: „Der Einsatz dieser Spiegelformen entspricht dem
Prinzip der absoluten und einheitlichen Wahrnehmung des musikalischen Raums [S. 225].“

Schönberg schlug daher vor, dass eine Tonreihe, definiert als eine bestimmte lineare
Reihenfolge der zwölf Töne der chromatischen Tonleiter, ihre wahrnehmungsmäßige Identität
ÜBERSETZUNG 24

bei den folgenden Transformationen behält: wenn sie in einen anderen Tonhöhenbereich
transponiert wird („Transposition“), wenn alle aufsteigend sind Intervalle werden zu
absteigenden Intervallen und umgekehrt („Inversion“), wenn sie in umgekehrter Reihenfolge
dargestellt werden („Retrogression“) und wenn sie durch beide Operationen übertragen
werden („Retrograde-Inversion“). Darüber hinaus schlug Schönberg vor, dass angesichts der
starken Wahrnehmungsähnlichkeit zwischen Tönen, die durch Oktaven getrennt sind, die
Identität einer Tonreihe erhalten bleibt, wenn die einzelnen Töne in der Reihe in
unterschiedlichen Oktaven platziert werden.

Schönbergs Theorie lieferte um die Mitte des Jahrhunderts die Grundlage für den Aufbau
zahlreicher komplexer Systeme. Im Vordergrund steht hier die Arbeit von Babbitt und seinen
Anhängern bei der Interpretation des Zwölftonsystems als Gruppe. Die Elemente der Gruppe
sind Zwölftonsätze, dargestellt als Permutationen von Tonhöhen oder Ordnungszahlen; Die
Operation ist die Multiplikation von Permutationen (Babbitt, 1960(Babbitt, 1961). Dieses
System wurde in der kompositorischen Praxis ausgiebig verwendet (siehe auch Perle,
1972Perle, 1977.

Es kann die Frage aufgeworfen werden, ob die in der Zwölftontheorie definierten


Äquivalenzrelationen tatsächlich vom Wahrnehmungssystem genutzt werden. Wir können
feststellen, dass Schönbergs intermodale Analogie zwar interessant, aber eher erzwungen ist.
Es ist sinnvoll anzunehmen, dass wir Mechanismen entwickelt haben, die es uns ermöglichen,
ein Objekt zu erkennen, wenn es in einer anderen Ausrichtung relativ zum Betrachter
präsentiert wird. Die Annahme, dass wir eine Tonfolge zeitlich umkehren oder ihre
Tonhöhenverhältnisse auf den Kopf stellen, ist jedoch nicht in gleichem Maße sinnvoll: In
unserer natürlichen Umgebung sind wir dazu nie verpflichtet. Darüber hinaus wurde im Fall
des Sehens gezeigt, dass einige formale Beziehungen, die innerhalb einer Konfiguration
bestehen, leicht wahrgenommen werden, andere nur schwer wahrgenommen werden und
wieder andere überhaupt nicht wahrgenommen werden (Garner, 1974).

Zur Wahrnehmungsidentität einer Tonreihe unter Rückschritt und Umkehrung, Op. 26.
(Aus Schönberg, 1951.) Zwei Studien in der psychologischen Literatur können zitiert werden.
White (1960) verwendete ein Langzeiterkennungsparadigma, um die Fähigkeit von Zuhörern
zu untersuchen, bekannte Melodien zu identifizieren, wenn diese rückwärts gespielt wurden.
Es wurde eine gewisse Anerkennung erlangt; Allerdings war die Darbietung nicht besser als
wenn die Melodie monoton gespielt wurde und der Rhythmus das einzige Stichwort war.
Darüber hinaus wurde eine bessere Erkennung erzielt, wenn die Intervalle innerhalb der
Melodie zufällig vertauscht wurden, als wenn die Reihenfolge der Töne streng umgekehrt
wurde. Dies weist darauf hin, dass die Zuhörer die retrograden Sequenzen anhand der
beteiligten Intervalle und nicht aufgrund ihrer Reihenfolge erkannten. Dowling (1972)
verwendete ein Kurzzeitparadigma, um die Erkennung einer Tonfolge unter Retrogression,
Inversion und retrograder Inversion zu untersuchen. Er präsentierte den Zuhörern eine
ÜBERSETZUNG 25

Standard-Fünftonfolge, gefolgt von einer Vergleichsfolge. Der Vergleich hatte entweder


keinen Bezug zum Standard oder es handelte sich um eine exakte Transposition oder er
wurde durch Retrogression, Inversion oder retrograde Inversion transformiert. Unter anderen
Bedingungen wurde die Vergleichssequenz weiter verzerrt, sodass ihre Kontur erhalten blieb,
die genauen Intervalle jedoch nicht. Obwohl die Zuhörer bei diesen Aufgaben
überdurchschnittlich gut abschnitten, waren sie nicht in der Lage, zwischen exakten
Transformationen und solchen, bei denen nur die Kontur erhalten blieb, zu unterscheiden.
Dowling (1978) lieferte später Beweise dafür, dass die genaue Intervallerkennung dadurch
maskiert wurde, dass die Zuhörer die Tonhöheninformationen auf die stark überlernten Skalen
unseres Tonsystems projizierten. Ob ein intensiver Umgang mit Zwölftonmusik einen solchen
Maskierungseffekt überwinden könnte, bedarf weiterer Untersuchungen.

Eine weitere von der Zwölftontheorie aufgeworfene Frage ist, ob eine Tonfolge ihre
wahrnehmungsmäßige Identität behält, wenn ihre Komponenten in verschiedenen Oktaven
platziert werden. Bei einzelnen Tönen für sich genommen besteht eine starke
wahrnehmungsmäßige Ähnlichkeit zwischen Tönen, die in einer Oktavbeziehung stehen.
Psychologen haben diese Äquivalenz festgestellt und bezeichnen Töne, die eine Oktave
voneinander entfernt sind, als das gleiche „Tonchromat“ (Bachem, 1954; Meyer, 1904; Meyer, ,
1914; Revesz, 1913; Ruckmick, 1929; Shepard, 1964; Ward & Burns, 1982). . Darüber hinaus
erkennt die traditionelle Musiktheorie die Äquivalenz solcher Töne in Simultanstrukturen
durch die Regeln für Akkordfolgen an (Rameau, 1722(Rameau, /1950). Wenn es jedoch um
Melodien oder aufeinanderfolgende Tonhöhenstrukturen geht, gilt die Oktaväquivalenz
offensichtlich nicht, da wir Vertauschen Sie Oktaven in aufeinanderfolgenden Kontexten nicht
auf die gleiche Weise wie in simultanen Kontexten.

Nach der Zwölftontheorie gelten Töne, die durch Oktaven getrennt sind, als derselben
„Tonhöhenklasse“ zugehörig, und es wird angenommen, dass ihre Äquivalenz eine
wahrnehmungsmäßige Invariante ist. Es wird daher angenommen, dass Intervalle (sowohl
gleichzeitige als auch aufeinanderfolgende) ihre Wahrnehmungsidentität behalten, wenn die
Töne, die diese Intervalle bilden, in verschiedenen Oktaven platziert werden; Es wird davon
ausgegangen, dass solche Intervalle derselben „Intervallklasse“ angehören. Die hypothetische
Äquivalenzbeziehung der Intervallklasse ist jedoch keine notwendige Folge der
Intervalläquivalenz zusammen mit der Oktaväquivalenz. Deutsch (1969) schlug ein
neuronales Netzwerk zur Abstraktion von Tonhöhenkombinationen vor, bei dem die
Wahrnehmungsäquivalenz transponierter Intervalle und Akkorde durch einen Kanal vermittelt
wird und die Wahrnehmungsäquivalenz von Tönen, die durch Oktaven getrennt sind,
zusammen mit der Umkehrbarkeit von Akkorden durch einen Kanal vermittelt wird über einen
separaten und parallelen Kanal vermittelt. Dieses Netzwerk führt zu einer Oktaväquivalenz für
einzelne Töne isoliert und in einem harmonischen oder simultanen Kontext, jedoch nicht in
einem melodischen oder sukzessiven Kontext.
ÜBERSETZUNG 26

In einem Experiment, das die Frage der Oktaväquivalenz in einem aufeinanderfolgenden


Kontext untersuchen sollte, wurde den Zuhörern die Melodie „Yankee Doodle“ in mehreren
Versionen präsentiert (Deutsch, 1972). Eine Version war nicht transformiert. In einer zweiten
Version befanden sich die Töne an ihren korrekten Positionen innerhalb der Oktave, aber die
Oktaven, in denen sie platziert wurden, variierten zufällig; Somit blieb die Intervallklasse
erhalten, obwohl die Intervalle geändert wurden. In einer dritten Version wurden die
Tonhöheninformationen vollständig entfernt. Jede Version wurde einer anderen Gruppe von
Zuhörern vorgespielt. Obwohl die untransformierte Version von allen erkannt wurde, war die
Erkennung der Version mit zufälligen Oktaven nicht besser als die der Version, bei der die
Tonhöheninformationen vollständig entfernt wurden. Dieser Befund entspricht den
Vorhersagen des Zweikanalmodells von Deutsch (1969) und zeigt, dass die Intervallklasse
nicht als Wahrnehmungsinvariante behandelt werden kann. Als die Zuhörer dieser Studie
später über die Identität der Melodie informiert wurden und sie erneut hörten, stellten viele
fest, dass sie ihr nun weitgehend folgen konnten und bestätigten, dass jede Note tatsächlich
korrekt innerhalb ihrer Oktave platziert war. Somit konnten die Zuhörer die Oktaväquivalenz
nutzen, um eine hypothetische melodische Form zu bestätigen, obwohl sie diese Form nicht
erkennen konnten, da starke Hinweise fehlten, auf denen die Hypothese basieren könnte. Wir
können daraus schließen, dass die Intervallklasse unter bestimmten Bedingungen in einem
sukzessiven Kontext wahrgenommen werden kann, dass eine solche Wahrnehmung jedoch
nicht aus einem passiven Prozess resultiert. Vielmehr kann es als Beispiel für eine „Top-
Down“-Formanalyse angesehen werden; d. h. als Ergebnis der Hypothesenprüfung durch den
Zuhörer.

Weitere Studien stützen dieses Argument. Dowling und Hollombe (1977) präsentierten
Zuhörern Melodien, deren einzelne Töne in verschiedenen Oktaven platziert waren, und sie
fanden heraus, dass die Erkennungsleistung bei Melodien, deren Konturen erhalten blieben,
besser war als bei Melodien mit veränderten Konturen. Diese Feststellung steht im Einklang
mit der vorliegenden Argumentation. Da Melodien allein anhand ihrer Konturen erkannt
werden können (Werner, 1925; White, 1960), sollte die Kontur als aussagekräftiger Hinweis
für die Hypothesenprüfung dienen. Ähnliche Ergebnisse kamen von Idson und Massaro
(1978) und Kalman und Massaro (1979). Zweitens wurde festgestellt, dass die
Erkennungsleistung erheblich besser war, wenn den Zuhörern viele Male eine kleine Auswahl
an Melodien präsentiert wurde und sie gebeten wurden, jede Melodie aus einer kleinen Liste
von Alternativen zu identifizieren, als wenn solche Melodien nur einmal ohne relevante
Hinweise präsentiert wurden ihre Identität (House, 1977; Idson & Massaro, 1978). Im ersteren
Fall wurde reichlich Gelegenheit zum Testen von Hypothesen gegeben, so dass wiederum
eine verbesserte Erkennung zu erwarten wäre (Deutsch, 1978b).

Zurück zur Zwölftontheorie können wir schließen, dass die Intervallklasse


wahrgenommen werden kann, jedoch nur unter Bedingungen einer einigermaßen hohen
Erwartung. Die Fähigkeit eines Zuhörers, eine Tonreihe unter Oktavverschiebung zu erkennen,
ÜBERSETZUNG 27

sollte entscheidend von Faktoren wie der vorherigen Vertrautheit mit der Reihe abhängen und
davon, ob die Beziehungen, die durch frühere Töne in der Reihe gebildet werden, klare
Erwartungen für die späteren Töne hervorrufen ( siehe auch Deutsch, 1982b).

Hierarchische Struktur in der Musik


Generell lässt sich sagen, dass wir dazu neigen, Informationen in Form von Hierarchien
zu verschlüsseln und zu speichern, wenn wir die Möglichkeit dazu haben. Beispielsweise
werden Verhaltensprogramme tendenziell als Hierarchien beibehalten (Miller, Galanter &
Pribram, 1960) und Ziele bei der Problemlösung als Hierarchien von Unterzielen beibehalten
(Ernst & Newell, 1969). Visuelle Szenen scheinen als Hierarchien von Unterszenen kodiert zu
sein (Hanson & Riseman, 1978; Navon, 1977; Palmer, 1977; Winston, 1973). Die
Phasenstruktur eines Satzes eignet sich leicht für hierarchische Interpretationen (Chomsky,
1963; Johnson-Laird, in diesem Band; Miller & Chomsky, 1963; Yngve, 1960). Wenn uns
künstliche serielle Muster präsentiert werden, die hierarchisch kodiert sein können, bilden wir
leicht Kodierungen, die die Musterstruktur widerspiegeln (Kotovsky & Simon, 1973; Restle,
1970; Restle & Brown, 1970; Simon & Kotovsky, 1963; Vitz & Todd, 1967). So Die Erkenntnisse
haben zur Entwicklung ausgefeilter Modelle der seriellen Musterdarstellung im Hinblick auf
Hierarchien von Operatoren geführt (Greeno und Simon, 1974; Leewenberg, 1971; Restle,
1970; Simon, 1972; Simon und Kotovsky, 1963; Simon und Sumner, 1968). ;Todd, 1967, 1979).

Bei der Betrachtung, wie wir am natürlichsten Hierarchien bilden, wurden Theorien im
Allgemeinen durch die Art des betrachteten Reizmaterials eingeschränkt. Visuell
wahrgenommene Objekte bestehen beispielsweise auf natürliche Weise aus Teilen und
Unterteilen. Die hierarchische Struktur der Sprache muss notwendigerweise durch die
logische Struktur der Ereignisse in der Welt eingeschränkt werden. Das Erreichen eines Ziels
wird im Allgemeinen durch ein optimales System von Teilzielen erreicht. Und so weiter.

Dieses Problem ist ebenso schwerwiegend für Theorien, die auf Experimenten basieren,
bei denen vom Experimentator erfundene künstliche serielle Muster verwendet werden. Um
ein konkretes Beispiel zu nennen: Restles (1970) Theorie der hierarchischen Darstellung
serieller Muster entwickelte sich aus Erkenntnissen, die auf dem folgenden experimentellen
Paradigma basierten. Den Probanden wurde eine Reihe von sechs Lichtern präsentiert, die in
sich wiederholender Reihenfolge ein- und ausgeschaltet wurden, und sie mussten bei jedem
Versuch vorhersagen, welches Licht als nächstes aufleuchten würde. Die Sequenzen waren
als Hierarchien von Operatoren strukturiert. Wenn beispielsweise die Grundteilfolge X = (1 2)
gegeben ist, dann erzeugt die Operation R („Wiederholung von X“) die Folge 1 2 1 2; Die
Operation M („Spiegelbild von X“) erzeugt die Folge 1 2 6 5 und die Operation T
(„Transposition +1 von generiert werden, die über kompakte Strukturbeschreibungen
verfügen. Somit beschreibt M(T(R(T(1)))) die Sequenz 1 2 1 2 2 3 2 3 6 5 6 5 5 4 5 4. Restle
und Brown (1970) fanden die Verwendung auf diese Weise konstruierter Sequenzen
ÜBERSETZUNG 28

überzeugend Beweise dafür, dass die Probanden sie entsprechend ihrer hierarchischen
Struktur kodierten. Es ist jedoch zu beachten, dass die Sequenzen so konstruiert wurden,
dass nur eine hierarchische Interpretation möglich ist. Daher ist es schwierig, die
Generalisierbarkeit dieses Modells auf Situationen abzuschätzen, in denen alternative
hierarchische Realisierungen möglich sind.

Angesichts dieser Probleme ist die hierarchische Struktur etablierter Musik von
besonderem Interesse für die kognitive Psychologie, da diese Musik ausschließlich das
Produkt menschlicher Verarbeitungsmechanismen ist und nicht an äußere Zwänge gebunden
ist. Darüber hinaus kann davon ausgegangen werden, dass sich die Musik so entwickelt hat,
dass sie diese Mechanismen optimal nutzt.

Lange bevor sich Kognitionspsychologen ernsthaft für hierarchische Strukturen


interessierten, schlug der Musiktheoretiker Schenker ein hierarchisches System für tonale
Musik vor, das Ähnlichkeiten mit dem von Chomsky für Sprache vorgeschlagenen System
aufweist (Chomsky, 1957). räumte ein, dass seine Ideen von C. P. E. Bach inspiriert wurden,
dessen Essay über die wahre Kunst, Tasteninstrumente zu spielen, die Prozesse beschreibt,
durch die ein einfaches musikalisches Ereignis durch ein komplexeres musikalisches Ereignis
ersetzt werden kann, das denselben Grundinhalt zum Ausdruck bringt.) In Schenkers System
Musik wird als eine Hierarchie betrachtet, in der Noten auf einer bestimmten Ebene durch
eine Folge von Noten auf der nächstniedrigeren Ebene als „verlängert“ betrachtet werden. Es
werden drei grundlegende Ebenen unterschieden. Erstens gibt es den Vordergrund oder die
Oberflächendarstellung, zweitens gibt es diese der Mittelgrund; und drittens gibt es den
Hintergrund oder Ursatz. Der Ursatz selbst wird als Verlängerung der Triade betrachtet
(Schenker, 1956(Schenker, 1973).

Obwohl Schenkers Werk zu seiner Zeit weitgehend unbeachtet blieb, hatte es seit den
späten 1950er Jahren einen tiefgreifenden Einfluss auf die Musiktheorie (siehe z. B. Forte,
1974; Salzer, 1962; Westergaard, 1975; Yeston, 1977). Die meisten Schenker-Analysen sind
jedoch rein deskriptiver Natur und werden im Allgemeinen als Selbstzweck angesehen.
Darüber hinaus sind die Annahmen der Schenkerian-Analyse grundsätzlich eher unklar.

Die gemeinsame Arbeit des Musiktheoretikers Lerdahl und des Psycholinguisten


Jackendoff (1977) stellt einen Versuch dar, die Struktur von Schenkers System zu erklären
und diese Struktur als eine Form interner Repräsentation zu interpretieren. Ihr Ansatz nutzt
Baumdiagramme, die in mancher Hinsicht denen der Transformationsgrammatik ähneln. Die
Autoren legen jedoch Wert darauf, die sehr realen Unterschiede hervorzuheben, die zwischen
Sprache und Musik bestehen. Sprachbäume stellen beispielsweise „ist-a“-Beziehungen dar:
Eine Nominalphrase, auf die eine Verbalphrase folgt, ist ein Satz und so weiter. Im Gegensatz
dazu beinhalten Musikbäume keine grammatikalischen Kategorien. Die grundlegende
Beziehung, die sie zum Ausdruck bringen, ist vielmehr die der Ausarbeitung eines einzelnen
ÜBERSETZUNG 29

Tonhöhenereignisses durch eine Folge von Tonhöhenereignissen. Ihre Theorie betont auch
die Bedeutung psychologischer Gruppierungsphänomene für die Bildung musikalischer
Hierarchien.

Schenkers Theorie ist im Wesentlichen „top-down“-Theorie, da der Ursatz als „Kernel“


fungiert, von dem die Mittelgrund- und Vordergrundstrukturen abgeleitet werden. (Dies ist
analog zur Transformationsgrammatik, die auf „Kern“-Sätzen beruht, um sprachliche
Strukturen zu erzeugen.) Die Vordergrundebenen werden angeblich von oben generiert, von
Ebenen, auf denen die eigentlichen Notizen selbst nicht vorhanden sind. Der Musiktheoretiker
Narmour (1977) hat argumentiert, dass dies eine ernsthafte Schwierigkeit für Schenkers
Theorie darstellt. Anhand zahlreicher Beispiele zeigt er, dass Beziehungsmuster zwischen
Noten, die nicht unbedingt im Vordergrund benachbart sind, einen wichtigen Beitrag zur
musikalischen Struktur leisten. Er schlägt alternativ vor, dass eine gegebene Darstellung „von
unten nach oben“ generiert wird und dass Schenkers Endsymbole (die eigentlichen Notizen
auf der Seite der Komposition) nicht als Ergebnis von Abbildungen von Mittelgrundstrukturen
und dem Hintergrundkern auf eine niedrigere Ebene konzipiert werden. sondern vielmehr als
die initiierende Struktur, aus der übergeordnete Strukturen aufgebaut werden. Er argumentiert
auch, dass Vordergrundstrukturen mehrere alternative Darstellungen (oder Implikationen)
erzeugen, sodass Musikstücke nicht als Baumstrukturen, sondern als ineinandergreifende
Netzwerke konzipiert werden sollten.

Narmours Arbeit wurde von der des Musiktheoretikers Meyer (1956 Meyer ( , 1960 Meyer
( , 1973) inspiriert, der argumentiert, dass musikalische Struktur im Hinblick auf Implikationen
betrachtet werden sollte, die durch Tonhöhenereignisse erzeugt werden, die durch weitere
Tonhöhenereignisse realisiert werden. Solche Implikationen und ihre Realisierungen sind Es
wird angenommen, dass sie auf allen Hierarchieebenen auftreten. Darüber hinaus hat eine
Abfolge von Tonhöhenereignissen oft mehrere Implikationen, von denen nur einige realisiert
werden. Deutsch und Feroe (1981) haben eine formale Theorie für die Darstellung von
Tonfolgen in tonaler Musik entwickelt, die in die folgende Kategorie fällt: Die Klasse
derjenigen, die von Restle, Simon und anderen entwickelt wurden, besteht darin, dass sie eine
spezifische Sprache oder Notation zur Beschreibung serieller Muster vorschlägt, und diese
Sprache soll bestimmte Kodierungen widerspiegeln. Bei der Entwicklung des Formalismus
wurden jedoch auch die Anliegen von Musiktheoretikern berücksichtigt Grundsätzlich wird
davon ausgegangen, dass Tonfolgen als hierarchische Netzwerke erhalten bleiben. Elemente,
die auf jeder Hierarchieebene vorhanden sind, werden durch weitere Elemente auf der
nächstniedrigeren Ebene weiterentwickelt, bis die unterste Ebene erreicht ist. Auf jeder Ebene
der Hierarchie sind Elemente gemäß den Gesetzen der figuralen Güte als Struktureinheiten
organisiert. Die grundlegende Architektur dieses Systems kann auch auf die interne
Darstellung anderer Arten von Informationen angewendet werden, beispielsweise auf visuelle
Szenen (Lynch, 1960).
ÜBERSETZUNG 30

Die hierarchische Struktur in der Musik bietet ein reichhaltiges Feld für experimentelle
Untersuchungen, das bisher weitgehend unerschlossen ist. Zwei neuere Studien seien
genannt. Der Psychologe Rosner ging in Zusammenarbeit mit dem Musiktheoretiker Meyer
(1982) auf die folgende Frage ein: Melodien scheinen häufig so hierarchisch strukturiert zu
sein, dass sich die Art der Strukturierung einer bestimmten Melodie von einer Hierarchieebene
zur nächsten ändert. Beispielsweise kann eine Melodie auf einer Ebene durch ein lineares
Muster gekennzeichnet sein; auf einer anderen Ebene durch ein Lückenfüllmuster; 5 und so
weiter. Die Autoren stellten außerdem die Hypothese auf, dass Melodien vom Hörer im
Hinblick auf die Organisation auf der höchsten Ebene klassifiziert werden, auf der ein
signifikanter Abschluss entsteht. In einem Test dieser Hypothese wurden musikalisch
ungeübte Zuhörer gebeten, Melodien in einer Konzeptidentifikationsaufgabe zu
kategorisieren. Die Melodien wurden zuvor von der Musikanalyse auf der entsprechenden
hierarchischen Ebene entweder als Lückenfüller oder als Nicht-Lückenfüller kategorisiert. Es
zeigte sich, dass die Zuhörer die Melodien entsprechend den theoretischen Erwartungen
einordneten.

In einer anderen Studie verglich Deutsch (1980) das Gedächtnis für Tonsequenzen, die
hierarchisch strukturiert waren, mit solchen, die dies nicht waren. Musikalisch geschulten
Zuhörern wurden Sequenzen präsentiert, die sie in Notenschrift abriefen. Die Hälfte der
Sequenzen war hierarchisch strukturiert, sodass eine Teilsequenz höherer Ebene aus drei
Elementen auf eine Teilsequenz niedrigerer Ebene aus vier Elementen einwirkte. Die
restlichen Sequenzen waren unstrukturiert. Es wurde festgestellt, dass der Rückruf für die
strukturierten Sequenzen deutlich besser ist als für die unstrukturierten. Es wurde der Schluss
gezogen, dass Zuhörer eine hierarchische Organisation in Tonsequenzen leicht erkennen und
diese Organisation nutzen können, um sparsame Kodierungen zu erzeugen.

Zusammenfassend lässt sich sagen, dass die hierarchische Struktur in der Musik ein
Forschungsgebiet ist, das sowohl für die Musiktheorie als auch für die Psychologie von
großem Nutzen ist. Da Musik das Produkt unserer Verarbeitungsmechanismen ist und man
davon ausgehen kann, dass sich die traditionelle Musik so entwickelt hat, dass sie diese
Mechanismen optimal nutzt, dürfte das Verständnis der Struktur tonaler Musik und ihrer
Verarbeitung weitreichende Auswirkungen auf die Theorien des Menschen haben Erkenntnis.

SCHLUSSFOLGERUNGEN: MUSIKTHEORIE UND PSYCHOLOGIE


In der Einleitung habe ich auf grundlegende Probleme bei der Bestimmung des
Verhältnisses von Erkenntnissen der Psychologie zur Musiktheorie hingewiesen. Mit einer
Diskussion dieser Probleme werde ich diesen Aufsatz abschließen.

Die Psychologie trägt zum Verständnis von Musik bei, indem sie die
Verarbeitungsmechanismen des Hörers charakterisiert. Was einige Musiktheoretiker
ÜBERSETZUNG 31

beunruhigt, ist die Möglichkeit, dass Erkenntnisse aus der Psychologie als Grundlage für die
Diskussion darüber herangezogen werden könnten, was Musik sein sollte. Viele Arbeiten in
der Wahrnehmungs- und Kognitionspsychologie beschäftigen sich mit der Festlegung von
Grenzen: Grenzen der Informationsmenge, die gespeichert werden kann, Grenzen der
Unterscheidbarkeit und so weiter. Es wird befürchtet, dass eine zu ernste Annahme solcher
„wissenschaftlich festgelegten Grenzen“ dazu führen könnte, die musikalische Entwicklung zu
verdummen, indem künstliche Randbedingungen für akzeptable Musik geschaffen werden.
Denn die durch solche Experimente ermittelten Einschränkungen sind möglicherweise nicht
tatsächlich festgelegt, sondern hängen möglicherweise eher von der Art der Musik ab, der der
Hörer ausgesetzt war.

Um dieses Anliegen in eine historische Perspektive zu rücken, kann man die Entwicklung
der westlichen Musik als einen ständigen Kampf zwischen innovativen Komponisten
einerseits und etablierten Kritikern andererseits betrachten, die sich gegen verschiedene
Innovationen mit der Begründung ausgesprochen haben, dass sie für den Hörer inakzeptabel
seien . Einige Beispiele „neuer“ Musik, die als inakzeptabel galten, würden ein modernes
Publikum überraschen. Beispielsweise galt J. S. Bach zu seiner Zeit als „Verwirrer der
Gemeinde mit vielen seltsamen und fremden Melodien [Portnoy, 1954, S. 144]“. Ein weiterer
Komponist, der von seinen Zeitgenossen getadelt wurde, war Monteverdi. Der angesehene
Musikkritiker und Theoretiker Artusi schrieb über seine Musik:

Soweit es neue Regeln, neue Modi und neue Wendungen einführte, waren diese hart und
wenig angenehm für das Ohr, und sie konnten auch nicht anders sein, solange sie gegen die
guten Regeln verstießen – die zum Teil auf Erfahrung, der Mutter, beruhten aller Dinge, teils
von der Natur beobachtet, teils durch Demonstration – wir müssen glauben, dass sie
Deformationen der Natur und Angemessenheit wahrer Harmonie sind, weit entfernt vom
Gegenstand der Musik [Artusi, 1600[Artusi, /1950].

Dennoch erscheinen uns die Werke Bachs und Monteverdis als herausragende Beispiele
traditioneller kultivierter Musik. Offensichtlich ist die Art und Weise, wie Musik auf den Hörer
wirkt, zumindest teilweise eine Funktion der Erfahrung.

Es sollte festgehalten werden, dass Argumente gegen Neue Musik in der Vergangenheit
ästhetischer Natur waren und nicht auf kontrollierten Experimenten beruhten, die
Verarbeitungsbeschränkungen aufzeigten. Es bleibt jedoch die Möglichkeit bestehen, dass
der typische Zuhörer zu Monteverdis Zeit möglicherweise andere
Verarbeitungseinschränkungen aufwies als der typische Zuhörer unserer Zeit. Man könnte die
Entwicklung der westlichen Musik teilweise als eine umfassende, langfristige Feldstudie
betrachten, in der Generationen von Publikum verschiedenen Arten von Musik ausgesetzt
waren und ihre Verarbeitungsmechanismen als Ergebnis dieser Exposition immer wieder
verändert wurden. Es ist diese Argumentation, die einige Theoretiker dazu veranlasst, darauf
ÜBERSETZUNG 32

zu bestehen, dass wenn Laborstudien zeigen, dass Zuhörer Äquivalenzen, die formal in einem
Musiksystem existieren, nicht wahrnehmen, dies kein Argument gegen die letztendliche
Lebensfähigkeit des Systems darstellt. Allerdings stellt es keine Lösung dar, die Erkenntnisse
der Psychologie aufgrund solcher Bedenken zu verwerfen. Soll eine Musiktheorie
wissenschaftlich begründet werden, muss sie in ihrem Bezug zu den
Verarbeitungsmechanismen des Hörers liegen. Um ein extremes Beispiel zu nennen:
Niemand würde ernsthaft darüber nachdenken, in einem Musiksystem zu komponieren, das
nur Klänge außerhalb des Hörbereichs verwendet. Einschränkungen der zentralen
Verarbeitung sind nicht weniger real als die unseres peripheren Hörapparats; Der einzige
Unterschied besteht darin, dass periphere Einschränkungen zwar festgelegt sind, einige
zentrale Einschränkungen jedoch festgelegt und einige plastisch sind.

Bleibt die Frage, welche unserer musikalischen Verarbeitungsmechanismen durch


Erfahrung geprägt werden können. Meiner Meinung nach lässt sich durch Laborexperimente
keine eindeutige Antwort erhalten. Wir können Probanden einem intensiven Training an einem
bestimmten System aussetzen und feststellen, ob sie lernen können, seine Regeln
anzuwenden oder nicht. Negative Ergebnisse wären jedoch nicht schlüssig, da immer
argumentiert werden könnte, dass eine langfristige Exposition, insbesondere in der frühen
Kindheit, stattdessen möglicherweise zu positiven Ergebnissen geführt hätte. Wir können
jedoch einige fundierte Vermutungen darüber anstellen, welche Verarbeitungsmerkmale
wahrscheinlich behoben werden. Die Eigenschaften, die am nützlichsten sind, um unsere
Hörumgebung zu verstehen, sind die besten Kandidaten. Dazu gehört die Tendenz,
Komponenten eines Klangspektrums miteinander zu verschmelzen, die in einem
harmonischen Verhältnis stehen; die Tendenz, auf der Grundlage der Frequenznähe
sequentielle Konfigurationen zu bilden; die Tendenz, aufgrund des räumlichen Standorts
teilzunehmen; und so weiter. Solche Mechanismen sind wahrscheinlich entweder fest
verdrahtet oder werden, wenn sie durch Erfahrung erworben werden, weiterhin als Ergebnis
der Erfahrung mit unserer nichtmusikalischen Hörumgebung erworben. Zu den weiteren
Kandidaten für feste Verarbeitungseigenschaften gehören solche, die zu einer sparsamen
Kodierung und anderen Maßstäben der Kodierungseffizienz führen. Zusammenfassend lässt
sich sagen, dass es das Vorrecht des Komponisten bleiben muss, mit neuen Regeln zu
experimentieren, die er wünscht; Die Psychologie kann keine präskriptiven Antworten geben
und nur erklären, wie bestehende Musik wahrgenommen wird. Allerdings kann auch die
Musiktheorie keine präskriptiven Antworten liefern. Wie Aristoxenus (1902, S. 195) vor über
zwei Jahrtausenden schrieb: „Wir werden zu unseren Schlussfolgerungen durch strikte
Demonstration gelangen.“ Wenn es keine strikte Demonstration gibt, kann es keine
Schlussfolgerungen geben.

Referenzen
Aristotle. [De caelo] (J. L. Stocks, trans.). In The works of Aristotle (Vol. 2). Oxford: Oxford
ÜBERSETZUNG 33

University Press, 1930.

Aristoxenus. [The harmonics of Aristoxenus] (H. S. Macran, trans.). Oxford: Clarendon Press,
1902. Artusi. L’Artusi, ovvero, Delle imperferzioni della moderna musica. In O. Strunk (Ed.),
Source readings in music history. New York: Norton, 1950. (Originally published, 1600.)

Babbitt, M. Twelve-tone invariants as compositional determinants. The Musical Quarterly,


1960, 46, 246-259.

Babbitt, M. Set structure as a compositional determinant. Journal of Music Theory, 1961, 5,


73-94.

Bach, C. P. E. [Essay on the true art of playing keyboard instruments] (W. J. Mitchell, Ed. and
trans.). New York: W. W. Norton, 1949.

Bachem, A. Time factors in relative and absolute pitch determination. Journal of the
Acoustical Society of America, 1954, 26, 751-753.

Berger, K. W. Some factors in the recognition of timbre. Journal of the Acoustical Society of
America, 1964, 36, 1888-1891.

Berlioz, H. [Treatise on instrumentation] (R. Strauss, Ed. & T. Front, trans.). New York: E. F.
Kalmus, 1948. Boethius. [Boethius’ the principles of music] (C. M. Bower, trans.). Ann Arbor,
MI: University of Michigan Press, 1967.

Brant, H. Space as an essential aspect of musical composition. In E. Schwartz & B. Childs


(Eds.), Contemporary composers on contemporary music. New York: Holt, Rinehart and
Winston, 1966.

Bregman, A. S. The formation of auditory streams. In J. Requin (Ed.), Attention and


performance VII. Hillsdale, NJ: Lawrence Erlbaum Associates, 1978.

Bregman, A. S., & Campbell, Jr. Primary auditory stream segregation and perception of order
in rapid sequence of tones. Journal of Experimental Psychology, 1971, 89, 244-249.

Bregman, A. S., & Pinker, S. Auditory streaming and the building of timbre. Canadian Journal
of Psychology, 1978, 32, 20-31.

Butler, S. Hudibras, parts I and II, and selected other writings (J. Wilders & H. de Quehen,
Eds.). Oxford: Clarendon Press, 1973.
ÜBERSETZUNG 34

Butler, D. A further study of melodic channeling. Perception and Psychophysics, 1979, 25,
264-268. (a)

Butler, D. Melodic channeling in a musical environment. Research Symposium on the


Psychology and Acoustics of Music, Kansas, 1979. (b)

Chomsky, N. Syntactic structures. The Hague: Mouton, 1957.

Chomsky, N. Formal properties of grammars. In R. D. Luce, R. R. Bush, & E. Galanter (Eds.),


Handbook of mathematical psychology (Vol. 2). New York: Wiley, 1963.

Chomsky, N. Aspects of the theory of syntax. Cambridge, MA: M.I.T. Press, 1965.

Boer, E. On the “residue” and auditory pitch perception. In W.D. Keidel & W. D. Neff (Eds.),
Handbook of sensory physiology (Vol. V/3). Wein: Springer-Verlag, 1976. Deutsch, D. Music
recognition. Psychological Review, 1969, 76, 300-307.

Deutsch, D. Octave generalization and tune recognition. Perception and Psychophysics, 1972,
11, 411-412. Deutsch, D. Musical illusions. Scientific American, 1975, 233, 92-104. (a)

Deutsch, D. Two-channel listening to musical scales. Journal of the Acoustical Society of


America, 1975, 57, 1156-1160. (b)

Deutsch, D. Delayed pitch comparisons and the principle of proximity. Perception and
Psychophysics, 1978, 23, 227-230. (a)

Deutsch, D. Octave generalization and melody identification. Perception and Psychophysics,


1978, 23, 91- 92.(b)

Deutsch, D. Binaural integration of melodic patterns. Perception and Psychophysics, 1979, 25,
399-405.

Deutsch, D. The processing of structured and unstructured tonal sequences. Perception and
Psychophysics, 1980, 28, 381-389.

Deutsch, D. Grouping mechanisms in music. In D. Deutsch (Ed.), The psychology of Music.


New York: Academic Press, 1982. (a)

Deutsch, D. The processing of pitch combinations. In D. Deutsch (Ed.), The psychology of


music. New York: Academic Press, 1982. (b)
ÜBERSETZUNG 35

Deutsch, D. Dichotic listening to musical sequences: Relationship to hemispheric


specialization of function. Journal of the Acoustical Society of America, 1983, 74, S79-80.

Deutsch, D. Musical space. In W. R. Crozier & A. J. Chapman (Eds.), Cognitive processes in the
perception of art. Amsterdam: North Holland, in press.

Deutsch, D., & Feroe J. The internal representation of pitch sequences in tonal music.
Psychological Review, 1981, 88, 503-522.

Dowling, W. J. Recognition of melodic transformations: Inversion, retrograde, and retrograde-


inversion. Perception and Psychophysics, 1972, 12, 417-421.

Dowling, W. J. The perception of interleaved melodies. Cognitive Psychology, 1973, 5, 322-


377.

Dowling, W. J. Scale and contour: Two components of a theory of memory for melodies.
Psychological Review, 1978, 85, 342-354.

Dowling, W. J., & Hollombe, A. W. The perception of melodies distorted by splitting into
several octaves: Effects of increasing proximity and melodic contour. Perception and
Psychophysics, 1977, 21, 60-64.

Ehrenfels, C. Von. Uber Gestaltqualitaten. Vierteljahrschrift fur Wissenschaftliche Philosophie,


1890, 14, 249-292.

Erickson, R. Sound structure in music. Berkeley: University of California Press, 1975.

Erickson, R. New music and psychology. In D. Deutsch (Ed.), The psychology of music. New
York: Academic Press, 1982.

Ernst, G. W., & Newell, A. GPS: A case study in generality and problem solving. New York:
Academic Press, 1969.

Forte, A. Tonal harmony in concept and practice. New York: Holt, Rinehart and Winston, 1974.

Freeman, K. Ancilla to the pre-Socratic philosophers. Cambridge, MA: Harvard University


Press, 1948. Garner, W. R. The processing of information and structure, New York: Wiley,
1974.

Greeno, J. G., & Simon, H. A. Processes for sequence production. Psychological Review, 1974,
81, 187-196.
ÜBERSETZUNG 36

Gregory, R.L. The intelligent eye. New York: McGraw-Hill, 1970.

Grey, J. M. An exploration of musical timbre. Unpublished doctoral dissertation. Stanford


University, 1975. Grey, J. M., & Moorer, J. A. Perceptual evaluation of synthesized musical
instrument tones. Journal of the Acoustical Society of America, 1977, 62, 454-462.

Hanson, A. R., & Riseman, E. M. (Eds.). Computer vision systems. New York: Academic Press,
1978.

Hawkins, Sir J. A. General history of the science and practice of music (Vol.1). London: Dover,
1963. (Originally published, 1853.)

Helmholtz, H. Von. [Helmholtz’s physiological optics] (J. P. C. Southall, Ed. and trans.).
Rochester, New York: Optical Society of America, 1925. (Originally published, 1909-1911.)

Helmholtz, H. von. On the sensations of tone as a physiological basis for the theory of music.
New York: Dover, 1954. (Originally Published, 1885.)

Hirsh, I. J. Auditory perception of temporal order. Journal of the Acoustical Society of


America, 1959, 31, 759- 767.

Hirsh, I. J., & Sherrick, C. E. Perceived order in different sense modalities. Journal of
Experimental Psychology, 1961, 62, 423-432.

Hochberg, J. Organization and the Gestalt tradition. In E.C. Carterette & M. P. Friedman (Eds.),
Handbook of perception (Vol.1). New York: Academic Press, 1974.

House. W. J. Octave generalization and the identification of distorted melodies. Perception


and Psychophysics, 1977, 21, 586-589.

Hunt, F. V. Origins in acoustics. New Haven, CT: Yale University Press, 1978.

Idson, W. L., & Massaro, D. W, A bidimensional model of pitch in the recognition of melodies.
Perception and Psychophysics, 1978, 24, 551-565.

Kallman, H. J., & Massaro, D. W. Tone chroma is functional in melody recognition. Perception
and Psychophysics, 1979, 26, 32-36.

Kotovsky, K., & Simon, H. A. Empirical tests of a theory of human acquisition of concepts for
sequential events. Cognitive Psychology, 1973, 4, 399-424.
ÜBERSETZUNG 37

Leewenberg, E. L. A perceptual coding language for visual and auditory patterns. American
Journal of Psychology, 1971, 84, 307-349.

Lerdahl, F., & Jackendoff, R. Toward a formal theory of music. Journal of Music Theory, 1977,
21, 111-172. Lynch, K. The image of the city. Cambridge, MA: Harvard University Press, 1960.
Machlis, J. The enjoyment of music. New York: Norton, 1977.

McAdams, S. Spectral fusion and the creation of auditory images. In M. Clynes(Ed.), Music,
mind and brain. New York: Plenum Press, 1981.

Mathews, M. V. The technology of computer music. Cambridge. MA: M.I.T. Press, 1969.

Mathews, M.V., & Pierce, J. R. Harmony and nonharmonic partials. Journal of the Acoustical
Society of America, 1980, 68, 1252-1257.

Meyer, L.B. Emotion and meaning in music. Chicago, IL: University of Chicago Press, 1956.
Meyer, L.B. Music, the arts and ideas. Chicago, IL: University of Chicago Press, 1960.

Meyer, L.B. Explaining music: Essays and explorations. Berkeley, CA: University of California
Press, 1973. Meyer, M. On the attributes of the sensations. Psychological Review, 1904, 11,
83-103.

Meyer, M. Review of G. Revesz, “Zur Grundleguncy der Tonpsychologie.” Psychological


Bulletin, 1914, 11, 349-352.

Miller, G. A., & Chomsky, N. Finitary models of language users. In R. D. Luce, R. R. Bush, & E.
Galanter (Eds.), Handbook of mathematical psychology (Vol. 2) New York: Wiley, 1963.

Miller, G. A., Galanter, E. H., & Pribram, K. H. Plans and the structure of behavior. New York:
Holt, Rinehart and Winston, 1960. Narmour, E. Beyond Schenkerism. Chicago: University of
Chicago Press, 1977.

Navon, D. Forest before trees: The precedence of global features in visual perception.
Cognitive Psychology, 1977, 9, 353-383.

Palisca, C.V. Scientific empiricism in musical thought. In H. H. Rhys (Ed.), Seventeenth century
science in the arts. Princeton, NJ: Princeton University Press, 1961.

Palmer, S.E. Hierarchical structure in perceptual representation. Cognitive Psychology, 1977,


9, 441-474.
ÜBERSETZUNG 38

Perle, G. Serial composition and atonality. Berkeley, CA: University of California Press, 1972.
Perle, G. Twelve-tone tonality. Berkeley, CA: University of California Press, 1977.

Plomp, R. The ear as frequency analyzer. Journal of the Acoustical Society of America, 1964,
36, 1628-1636.

Plomp, R. Timbre as a multidimensional attribute of complex tones. In R. Plomp & G.F.


Smoorenburg (Eds.), Frequency analysis and periodicity detection in hearing. Sijthoff: Leiden,
1970.

Plomp. R., & Mimpen, A. M. The ear as frequency analyzer II. Journal of the Acoustical
Society of America, 1968, 43, 764-767.

Plomp, R., & Steeneken, H. J. M. Pitch versus timbre. Paper presented at the Seventh
International Congress on Acoustics, Budapest, 1971.

Portnoy, The philosopher and music. New York: The Humanities Press, 1954. Rameau, J. P.
Traite de l’harmonie reduite a ses principes naturels. In O. Strunk (Ed.), Source readings in
music history. New York: Norton, 1950. (Originally published, 1722.)

Rasch, R. A. The perception of simultaneous notes such as in polyphonic music. Acustica,


1978, 40, 1-72.

Restle, F.Theory of serial patterns learning: Structural trees. Psychological Review, 1970, 77,
481-495.

Restle, F., & Brown, E. Organization of serial pattern learning. In G. H. Bower (Ed.), The
psychology of learning and motivation (Vol.4). New York: Academic Press, 1970. Revesz, G.
Zur Grundleguncy der Tonpsychologie. Leipzig: Feit, 1913.

Risset, J. C., & Mathews, M.V. Analysis of musical instrument tones. Physics Today, 1969, 22,
23-30.

Risset, J. C., & Wessel, D.L. Exploration of timbre by analysis and synthesis. In D. Deutsch
(Ed.), The psy- chology of music. New York: Academic Press, 1982.

Rosner, B. S., & Meyer, L.B. Melodic processes and the perception of music, In D, Deutsch
(Ed.), The psy- chology of music. New York: Academic Press, 1982.

Ruckmick, C. A. A new classification of tonal qualities. Psychological Review, 1929, 36, 172-
180.
ÜBERSETZUNG 39

Russell, B. A history of Western philosophy. New York: Simon and Schuster, 1945. Saldanha,
E. L., & Corso, J. F. Timbre cues for the recognition of musical instruments. Journal of the
Acoustical Society of America, 1964, 36, 2021-2026.

Salzer, F. Structural hearing. New York: Dover, 1962.

Schenker, H. Neue musikalische theorien und phantasien: Der freie satz. Vienna, Austria:
Universal Edition, 1956. Schenker, H. [Harmony] (O. Jonas, Ed. & E. M. Borgese, trans.).
Cambridge, MA: M.I.T. Press, 1973. Shoenberg, A. Harmonielehre. Leipzig and Vienna:
Universal Edition, 1911. Schoenberg, A. Style and idea. London: Williams and Norgate, 1951.

Schouten, J. F. On the perception of sound and speech: Subjective time analysis. Fourth
International Congress on Acoustics, Copenhagen Congress Report II, 1962, 201-203.

Schroeder, M. R. Acoustics in human communications: Room acoustics, music, and speech.


Journal of the Acoustical Society of America, 1980, 68, 22-28.

Shepard, R. N. Circularity in judgments of relative pitch. Journal of the Acoustical Society of


America, 1964, 36, 2345-2353.

Simon, H. A. Complexity and the representation of patterned sequences of symbols.


Psychological Review, 1972, 79, 369-382.

Simon, H. A., & Kotovsky, K. Human acquisition of concepts for sequential patterns.
Psychological Review, 1963, 70, 534-546.

Simon, H. A., & Sumner, R. K. Pattern in music. In B. Kleinmuntz (Ed.), Formal representation
of human judgement. New York: Wiley, 1968.

Slawson, A. W. Vowel quality and musical timbre as functions of spectrum envelope and
fundamental fre- quency. Journal of the Acoustical Society of America, 1968, 43, 87-101.

Stevens, S. S., & Volkmann, J. The relation of pitch to frequency: A revised scale. American
Journal of Psychology, 1940, 53, 329-353.

Strunk, O. (Ed.). Source readings in music history. New York: Norton, 1950.

Sutherland, N. S. Object recognition. In E. C. Carterette & M. P. Friedman (Eds.), Handbook of


perception (Vol. 3). New York: Academic Press, 1973.

Van Noorden, L. P. A. S. Temporal coherence in the perception of tone sequences.


ÜBERSETZUNG 40

Unpublished doctoral thesis, Technische Hogeschool, Eindhoven, Holland, 1975.

Vitz, P. C., & Todd, T. C. A model of learning for simple repeating binary patterns. Journal of
Experimental Psychology, 1967, 75, 108-117.

Vitz, P. C., & Todd, T. C. A coded element model of the perceptual processing of sequential
stimuli. Psychological Review, 1969, 76, 433-449.

Ward, W. D., & Burns, E. M. Absolute pitch. In D. Deutsch (Ed.), The psychology of music. New
York: Academic Press, 1982.

Warren, R. M. Auditory temporal discrimination by trained listeners. Cognitive Psychology,


1974, 6, 237- 256.

Warren, R. M., Obusek, C. J., Farmer, R. M., & Warren, R. P. Auditory sequence: Confusions of
patterns other than speech or music. Science, 1969, 164, 586-587.

Wedin, L., & Goude, G. Dimension analysis of the perception of instrumental timbre.
Scandinavian Journal of Psychology, 1972, 13, 228-240.

Werner, H. Uber Mikromelodik und Mikroharmonik. Zeitschrift fur Psychologie, 1925, 98, 74-
89.

Wertheimer, M. Untersuchungen sur Lehre von der Gestalt, II. Psychologische Forschung,
1923, 4, 301-350.

Wessel, D. L. Psychoacoustics and music. Bulletin of the Computer Arts Society, 1973, 1, 30-
31.

Wessel, D. L. Low dimensional control of timbre. IRCAM Report No. 12, 1978, Paris.
Westergaard, P. An introduction to tonal theory. New York: Norton, 1975.

White, B. Recognition of distorted melodies. American Journal of Psychology, 1960, 73, 100-
107.

Winston, P. H. Learning to identify toy block structures. In R. L. Solso (Ed.), Contemporary


issues in cogni- tive psychology: The Loyola symposium. Washington, DC: Winston, 1973.

Yeston, M. (Ed.). Reading in Schenker analysis and other approaches. New Haven, CT: Yale
University Press, 1977.
ÜBERSETZUNG 41

Yngve, V. H. A model and an hypothesis for language structure. Proceedings of the American
Philosophical Society, 1960, 104, 444-466.

Zarlino, G. Instituzioni armoniche (Book 3). In O. Strunk (Ed.), Source readings in music
history. New York: Norton, 1950. (Originally published, 1558.)

Das könnte Ihnen auch gefallen