Sie sind auf Seite 1von 158

Modern Hybrid Scoring

Entwicklung und Realisation hybrider Klangidiome anhand aktueller


Film-, Games- und Trailer-Musiken

Bachelorarbeit
Studiengang Musik und Medien, WS2017/18
Thomas Stanger
Matrikelnummer: 906158

Erstprüfer: Prof. Andreas Grimm


Zweitprüfer: Andreas Kolinski

Robert Schumann Hochschule Düsseldorf


Institut für Musik und Medien

Zierenberg, 27. November 2017


Danksagung

Danksagung

In diese Arbeit sind viele Monate Arbeit und Fleiß geflossen. Es war ein langer, nicht immer
einfacher Prozess bis zur Fertigstellung und ich danke allen die mich dabei begleitet haben.

Besonderen Dank möchte ich meinen Geschwistern Nicole Turo und Benny Stanger, und
meinem Schwager Zoltan Turo aussprechen. Sie haben mich permanent motiviert und bis zum
Schluss angetrieben. Ebenfalls möchte ich ein herzliches Dankschön meinen geschätzten
Freunden Helge Borgarts, Roland Weis, Susi Weis-Wegesend, Alexander Reuber, Andreas Skandy,
Felix Hastrich und Jeff Schiltz aussprechen. Die Gespräche während der Arbeitsphase waren stets
eine große Motivation und sehr wohltuend. Beim Matthias Kulow möchte ich mich herzlichst für
sein tolles „hybrides“ Cover-Design bedanken. Ein ganz besonderer Dank gilt meinem Chef, Herrn
Oberstleutnant Tobias Terhardt, der mir den nötigen zeitlichen Freiraum neben den Bundeswehr
Einsätzen ermöglichte.
Des Weiteren gilt ein großer Dank auch meinen Interviewpartnern (Kapitel 7), Mark Petrie,
Bobby Tahouri, Jeff Rona, Ryan Amon und Trevor Morris, die mit ihrem Beitrag diese Arbeit zu
etwas ganz Besonderem gemacht haben.
Da ich mich mit dieser Bachelorarbeit von der Robert Schumann Hochschule Düsseldorf und
dem Institut für Musik und Medien verabschiede, möchte ich die Gelegenheit nutzen auch allen
Professoren, besonders Herrn Prof. Andreas Grimm, allen Dozenten und Dozentinnen,
Mitarbeitern und Mitarbeiterinnen sowie den Kommilitonen und Kommilitoninnen zu danken.
Es war eine intensive, schöne, interessante und spannende Zeit, die ich nicht missen möchte.

Der größte Dank gilt meiner Freundin, die mich während meiner gesamten Studienzeit und
meiner Arbeit ausnahmslos unterstützt hat. Vielen Dank für deine Geduld und dein Verständnis.

Zierenberg, im November 2017

Thomas Stanger

2
Kurzfassung

Kurzfassung

Die vorliegende Bachelorarbeit befasst sich mit dem Thema „Modern Hybrid Scoring –
Entwicklung und Realisation hybrider Klangidiome anhand aktueller Film-, Games- und Trailer-
Musiken“.
In der Einleitung werden meine Motivation und Ziele zum Verfassen dieser Arbeit sowie der
aktuelle Forschungsstand zum Thema dargestellt. Zudem wird beschrieben wie sich das
Forschungsdesign aufbaut und wie sich die Forschungsfragen zusammensetzen.
Das zweite Kapitel befasst sich mit der Definition des Begriffes Modern Hybrid Scoring. Nach
Klärung dieser Bezeichnung werden in den Kapiteln drei und vier die Entwicklung und der Einfluss
von akustischer und elektronischer Musik auf das, dem Modern Hybrid Scoring zugeordnete
Klandidiom, untersucht.
Im fünften Kapitel wird anhand von ausgewählten Beispielen analysiert, wie sich dieses
Klangidiom durch die fortschreitende Fusion von akustischen und elektronischen Elementen in
der Musik weiterentwickelt hat. Der Fokus liegt hierbei auf der Darstellung der aus meiner Sicht
wichtigsten Entwicklungsphasen hybrider Klangidiome und deren Verwendung in den
Einsatzgebieten der Film-, Videogames- und Trailer-Musik.
In Kapitel 6 werden wesentliche Werkzeuge und Instrumente zur Erstellung von moderner,
hybrider Musik systematisch dargestellt. Auf Basis der bereits gewonnenen Erkenntnisse und
unter Nutzung der zugrundeliegenden Techniken, sind hierfür individuell erstellte Audiobeispiele
sowie eine beispielhafte Eigenkomposition entstanden.
Im siebten Kapitel werden Konversationen mit einschlägigen Komponisten der Film-,
Videogames- und Trailer-Industrie wiedergegeben. Dabei werden die Antworten der
Interviewpartner zwecks Vereinfachung auf Deutsch aufgeführt. In Anhang B finden sich aber alle
Konversationen auch in der Originalfassung.
Das Kapitel 8 fasst die gesammelten Erkenntnisse reflektierend zusammen und beendet
diese Thesis mit einem persönlichen Fazit.
Alle Audio- und Videobeispiele sind numerisch gekennzeichnet und finden sich auf dem
beiliegenden USB-Stick (Anhang A).

3
Inhaltsverzeichnis

Inhaltsverzeichnis

Danksagung ......................................................................................................... 2

Kurzfassung ......................................................................................................... 3

Inhaltsverzeichnis ................................................................................................ 4

Abbildungsverzeichnis.......................................................................................... 9

1. EINLEITUNG ................................................................................................... 11

1.1 Persönliche Motivation und Zielsetzung .................................................................................. 11

1.2 Forschungsfragen und thematische Eingrenzung .................................................................... 12

1.3 Forschungsstand....................................................................................................................... 13

2. Zum Begriff des Modern Hybrid Scoring .......................................................... 14

3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome .... 16

3.1 Was bedeutet akustische Musik? ............................................................................................. 16

3.2 Hintergründe und Rückblicke akustischer Musik und Klangkörper ......................................... 16

3.3 Transformation und Entwicklung ............................................................................................. 20

3.3.1 Die wohltemperierte Stimmung ....................................................................................... 20

3.3.2 Popularisierung der akustischen Musik durch die Plattenindustrie ................................. 21

3.3.3 Entwicklung des Instrumentenbaus ................................................................................. 22

3.4. Hörgewohnheiten im Wandel der Zeit .................................................................................... 23

4
Inhaltsverzeichnis

4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride


Klangsysteme ............................................................................................... 25

4.1 Allgemeine Informationen ....................................................................................................... 25

4.2 Rückblicke und Hintergründe ................................................................................................... 26

4.3 Bedeutung der elektronischen Musik und der Klangsynthese? .............................................. 29

4.3.1 Definition der elektronischen Musik ................................................................................ 29

4.3.2 Definition und Möglichkeiten der Klangsynthese ............................................................ 30

4.4 Ausgewählte Vertreter der elektronischen Musik ................................................................... 31

4.4.1 Stockhausen und das Studio für elektronische Musik des WDR Köln .............................. 31

4.4.2 Musique concréte, experimentelle Musik und ausgewählte Vertreter ............................ 33

4.4.3 Paul Hindemith, Oskar Sala und das bedeutsame Mixtur-Trautonium ............................ 35

5. Evolution des Modern Hybrid Scoring ............................................................. 38

- Fusionierung akustischer und elektronischer Musik ................................................... 38

5.1 Grundlegendes ......................................................................................................................... 38

5.2 Einfluss hybrider Klangidiome in der Filmindustrie ................................................................. 38

5.2.1 Das Theremin uns seine Bedeutung ................................................................................. 38

5.2.2 Vangelis und seine Bedeutung in der Filmmusik .............................................................. 42

5.2.2.1 Allgemeines ................................................................................................................ 42

5.2.2.2 Chariots of Fire – Meilenstein in der Filmmusikgeschichte ....................................... 43

5.2.3 Hans Zimmer und der Sound von Hollywood ....................................................................... 44

5.2.3.1 Allgemeines ................................................................................................................ 44

5.2.3.2 Hans Zimmer und sein besonderer Sound ................................................................. 46

5.2.3.2.1 Backdraft – Wall-to-Wall-Score ........................................................................... 46

5
Inhaltsverzeichnis

5.2.3.2.2 Batman – The Dark Knight .................................................................................. 46

5.2.3.2.3 Interstellar Soundtrack ........................................................................................ 47

5.3 Einfluss hybrider Klangidiome in der Video Games Musik ...................................................... 50

5.3.1 Rückblicke und Meilensteine ............................................................................................ 50

5.3.2 Ausgewählte Games Komponisten ................................................................................... 54

5.3.2.1 Chris Huelsbeck .......................................................................................................... 54

5.3.2.2 Olivier Deriviére ......................................................................................................... 56

5.3.2.3 Jason Graves ............................................................................................................... 57

5.4 Einfluss hybrider Klangidiome in der Trailer-Musik ................................................................. 59

5.4.1 Allgemeine Informationen ................................................................................................ 59

5.4.2 Ausgewählte Trailerclips ................................................................................................... 60

5.4.3 Genres der aktuellen Trailer-Musik und ausgewählte Vertreter ...................................... 62

5.4.3.1 Orchestral Trailer Music ............................................................................................. 63

5.4.3.2 Sound Design Trailer Music ........................................................................................ 63

5.4.3.3 Hybrid Trailer Music (Epic Hybrid Music) ................................................................... 66

5.4.4 Produktion von Trailer-Musiken ....................................................................................... 68

6. Realisation und Produktion moderner hybrider Klangidiome........................... 69

6.1 Aufnahmetechniken ................................................................................................................. 69

6.1.1 Mechanische und elektromagnetische Tonaufzeichnung ................................................ 69

6.1.2 Zeitalter der Digitalisierung und der digitalen Aufnahmetechnik .................................... 72

6.1.2.1 Digitalisierung ............................................................................................................ 72

6.1.2.2 DAW............................................................................................................................ 73

6.1.2.2.1 Allgemeines ......................................................................................................... 73

6.1.2.2.2 Systeme und Funktionen..................................................................................... 74

6
Inhaltsverzeichnis

6.2 Werkzeuge und Instrumente zur Realisation ........................................................................... 77

6.2.1 Akustische Klangerzeuger ................................................................................................. 77

6.2.2 Elektronische Klangerzeuger und Werkzeuge .................................................................. 78

6.2.2.1 Synthesizer ................................................................................................................. 78

6.2.2.2 Hard- und Software-basierte Sampler ....................................................................... 79

6.2.2.3 Sample Libraries / Software-Instrumente .................................................................. 86

6.2.2.4 MIDI und MIDI-Controller .......................................................................................... 89

6.2.2.5 Effekte ........................................................................................................................ 91

6.2.2.5.1 Pegelorientrierte Effekte ..................................................................................... 92

6.2.2.5.2 Verzerrende Effekte ............................................................................................. 94

6.2.2.5.3 Spektralmodifizierende Effekte ........................................................................... 95

6.2.2.5.4 Verzögerungszeitorientierte Effekte ................................................................... 96

6.3 Technische Realisation ............................................................................................................. 99

6.3.1 Allgemeines ...................................................................................................................... 99

6.3.2 Produktionstechniken und praktische Beispiele ............................................................ 100

6.3.2.1. Wall of Sound – Das Schichten von Klängen ........................................................... 104

6.3.2.2. Sounddesign ............................................................................................................ 109

6.3.2.3. Sound-Effekte .......................................................................................................... 115

6.3.2.4. Bassklänge ............................................................................................................... 116

6.3.2.5 Pulsierende Klänge ................................................................................................... 118

6.3.2.6 Ausgewählte kompositorische Gestaltungsmittel ................................................... 119

6.3.2.8 Mischung und Mastering ......................................................................................... 121

7
Inhaltsverzeichnis

7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie ......122

7.1 Mark Petrie............................................................................................................................. 122

7.2 Bobby Tahouri ........................................................................................................................ 125

7.3 Jeff Rona ................................................................................................................................. 129

7.4 Ryan Amon ............................................................................................................................. 132

7.5 Trevor Morris .......................................................................................................................... 136

8. SCHLUSSBETRACHTUNG ................................................................................139

8.1 Zusammenfassung.................................................................................................................. 139

8.2 Fazit ........................................................................................................................................ 141

8.3 Ausblick .................................................................................................................................. 143

Anhang A: USB-Stick Inhalt ................................................................................144

Anhang B: Originalauszüge – Interviews ............................................................146

Anhang C: Quellenangaben (URL-Link) - Abbildungen ........................................154

Literaturverzeichnis...........................................................................................156

Eidesstattliche Erklärung ...................................................................................158

8
Abbildungsverzeichnis

Abbildungsverzeichnis

Abb. 1: Mahlers Sinfonie Nr. 8 - Uraufführung in der Neuen Musik-Festhalle München: ............ 18
Abb. 2: Werckmeister III: Der Quintenzirkel zur Spielbarkeit aller Tonarten ................................ 20
Abb. 3: Logo - Deutsche Grammophon. Das älteste Schallplattenlabel der Welt ........................ 21
Abb. 4: The Beatles – Something: Abbildung der Wellenformen ................................................. 24
Abb. 5: Telharmonium Konsole von Thaddeus Cahill (1897) ........................................................ 26
Abb. 6: Minimoog Synthesizer - Model D, 1972 ........................................................................... 27
Abb. 7: Der Z3, der erste funktionstüchtige Computer von Konrad Zusa ..................................... 28
Abb. 8: Studio für Elektronische Musik im Kölner Funkhaus (WDR) ............................................ 31
Abb. 9: John Cage und das präparierte Klavier ............................................................................. 33
Abb. 10: Oskar Sala und sein Trautonium ..................................................................................... 35
Abb. 11: Leon Theremin und sein Theremin ................................................................................ 39
Abb. 12: Spellbound (1945) - Rósza gewann den Oscar für die beste Filmmusik ......................... 40
Abb. 13: Vangelis im Tonstudio ..................................................................................................... 42
Abb. 14: Hans Zimmer................................................................................................................... 44
Abb. 15: Interstellar Orgel - Temple Church Organ, London. ........................................................ 48
Abb. 16: PONG - Erste Spielekonsole weltweit der Entwickler Atari (1972) ................................. 51
Abb. 17: Sony Playstation 1 (1996) ............................................................................................... 52
Abb. 18: Harry-Gregson Williams .................................................................................................. 53
Abb. 19: Immediate Music - Eines der ersten Trailer-Musiklabels................................................ 59
Abb. 20: Two Steps From Hell - Hauptvertreter des Genres der Epic Hybrid Music .................... 66
Abb. 21: Blick über das Pult auf das Rundfunk Orchester Hannover (1960er Jahren .................. 71
Abb. 22: Compact Disc - Die digitale Audio Revolution (1982) ..................................................... 72
Abb. 23: DAW Projektfenster - Cubase Pro 9 ................................................................................ 74
Abb. 24: Stand-alone-System Fairlight US im WDR Köln .............................................................. 76
Abb. 25: Bsp. akustische Klangquelle: Orchesterapparat und Chor ............................................. 77
Abb. 26: Mellotron M 400 – Eine Revolution in der Musikwelt (1970) ........................................ 80
Abb. 27: Fairlight CMI (1979) ........................................................................................................ 82

9
Abbildungsverzeichnis

Abb. 28: User-Interface von NI KONTAKT Player ........................................................................... 84


Abb. 29: ReBirth RB-338 war einer der ersten Software-Instrumente (1996) .............................. 87
Abb. 30: NI Komplete Kontrol S88 - aktuelles Masterkeyboard auf dem Markt .......................... 90
Abb. 31: Der Klassiker L1 von Waves ............................................................................................ 93
Abb. 32: Bsp. Audio Level Destroyer DEVIL-LOC von Soundtoys .................................................. 94
Abb. 33: v.l.n.r: ValhallaRoom, Altiverb 7, EchoBoy Jr., Verbsuit Classics ..................................... 97
Abb. 34: Phil Spector - Ein Revolutionär der Musikproduktionswelt ......................................... 104
Abb. 35: Projektfenster Cubase 9 Pro – Perkussionsebene von Turned into War ...................... 108
Abb. 36: User Interface von 8Dio Blendstrument ....................................................................... 112
Abb. 37: Sample Editor in Cubase Pro 9 ...................................................................................... 113
Abb. 38: Mark Petrie ................................................................................................................... 122
Abb. 39: Bobby Tahouri ............................................................................................................... 125
Abb. 40: Jeff Rona ....................................................................................................................... 129
Abb. 41: Ryan Amon .................................................................................................................... 132
Abb. 42: Trevor Morris ................................................................................................................ 136

10
EINLEITUNG

1. EINLEITUNG

1.1 Persönliche Motivation und Zielsetzung

Was ist eigentlich Modern Hybrid Scoring und aus welchen Elementen setzt es sich zusammen?

Diese Kernfrage beschäftigte mich schon lange und ist daher der Gegenstand dieser Arbeit.
Als ich 2012 im Fach Filmmusikgeschichte ein ausführliches Referat über Hans Zimmers Score
„Batman – The Dark Knight“1 bei Herrn Prof. Grimm gehalten und vorbereitet habe, kam ich zum
ersten Mal bewusst in Berührung mit der Thematik des Modern Hybrid Scoring. 2 Fasziniert von
der Detailliebe der verwendeten Sounds, der gezielten Verschmelzung akustischer und syntheti-
scher Elemente, aber auch das meisterhafte Zusammenspiel zwischen Bild- und Ton, erweckten
ein ungeahntes Interesse und eine Leidenschaft für diese Art von Musik. Folglich nahm ich dieses
Ereignis als Motivation mich tiefer gehend mit der Materie zu beschäftigen, auszuprobieren und
meine zeitlichen Kapazitäten dahingehend zu investieren. Im Rahmen meiner Modulabschluss-
prüfung im Schwerpunkt Medienkomposition (2014), vertonte ich das Sci-Fiction Hörspiel „Hoch-
stapler“3 neu. Insgesamt wurden für diese Arbeit damals neun Cues erstellt, die meiner Ansicht
nach meine ersten seriösen Gehversuche im Bereich des Modern Hybrid Scoring waren. Die Ar-
beits- und Schaffensphase zu dieser Zeit unterstrich einmal mehr meine Leidenschaft und Moti-
vation zur Entwicklung und Realisation individueller, moderner hybrider Eigenkompositionen.

Mittlerweile ist diese „moderne und zeitgemäße“ Art für Medien zu komponieren, ein fester
und unabdingbarer Bestandteil meines eigenen, kompositorischen Stils geworden. Im Rahmen
dieser Thesis möchte ich zum einen die Geschichte und Entwicklung hybrider Klangidiome be-
leuchten und zum anderen bisherige und weiterführende Kenntnisse und Erkenntnisse bezüglich
ihrer Produktion und praxisbezogenen Realisation sowie deren Einsatzgebiete in diesem Kontext

1
Regie: Christopher Nolan, erschienen 2008
2
Der englische Terminus „Scoring“ lässt sich mit dem Wort „Vertonung“ übersetzen
3
Autor: Philip K. Dick, erschienen 1953 unter anderem in der Anthologie „Variante Zwei“ aus dem
Haffmans Verlag

11
EINLEITUNG

analysieren. Unter welchen Voraussetzungen sprechen wir von Modern Hybrid Scoring, welche
Merkmale und Besonderheiten zeichnen dieses aus und inwiefern haben sich die Kernelemente
„akustische Musik“ und „elektronische Musik“ gegenseitig beeinflusst? In diesem Kontext wer-
den die Evolutionsstadien hinsichtlich Ihrer Herkunft und ihres Einflussbereiches sowie die Fusi-
onierung der zwei Kernelemente genauer beleuchtet und im weiteren Verlauf bezüglich Ihrer
technischen Realisation und Produktion sowie der unterschiedlichen Einsatzgebiete analysiert.

Die Thesis dient unter anderem Medienkomponisten, die nicht nur ein Verständnis für diese
Art von Musik gewinnen möchten, sondern auch neue Perspektiven und Techniken in ihre eigene
Arbeit implementieren wollen. Daher ist sie unter anderem auch als Kompendium gedacht. Zur
Veranschaulichung der gewonnenen Erkenntnisse habe ich eine Eigenkomposition realisiert, die
sowohl die produktionstechnischen als auch die kompositorischen Gesichtspunkte aufzeigen soll.
Die Arbeit hat über die Thesis hinaus durchaus Relevanz für mein gewerbliches Schaffen als Me-
dienkomponist und Produzent, daher erlaube ich mir an einigen Stellen eine durchaus subjektive
Einordnung und Bewertung. Die intensive Beschäftigung mit der Thematik verleiht mir das nötige
Know-How um Modern Hybrid Scores professionell und mit dem internationalen Qualitätsan-
spruch anbieten zu können. Es ist mir ein Anliegen, dass alle im Rahmen dieser Thesis erworbe-
nen Kenntnisse und Erkenntnisse dem Anspruch dieser Synergien gerecht werden.

1.2 Forschungsfragen und thematische Eingrenzung

1. Wie lässt sich Modern Hybrid Scoring definieren und aus welchen Elementen setzt es sich
zusammen?

2. Inwiefern und wie stark haben sich diese Elemente gegenseitig beeinflusst?

3. Mit welchen Mitteln lassen sich moderne hybride Klangidiome realisieren und in welchen
medialen Einsatzgebieten finden diese Einzug?

12
EINLEITUNG

Diese Fragestellungen bilden den thematischen Unterbau der vorliegenden Arbeit. Zur Be-
antwortung dieser Fragen ist eine tiefergehende Betrachtung der musikgeschichtlichen Hinter-
gründe und Entwicklungsstadien sowie einiger technischer Grundlagen erforderlich. Um den in-
haltlichen Rahmen dieser Thesis zu erfüllen, ist eine Beschränkung auf ausgewählte Themen un-
erlässlich, selbst wenn diese der Vollständigkeit halber weitere Ausführungen bedürften.

1.3 Forschungsstand

Nach intensiver Recherchearbeit liegen mir zum jetzigen Zeitpunkt keine wissenschaftlichen
oder fachspezifischen Analysen oder Forschungen im Bereich des Modern Hybrid Scoring vor.
Dennoch existieren einige Publikationen die sich mit Teilaspekten dieser Arbeit befassen. Diese
werden mit der zentralen Fragestellung in Beziehung gesetzt und reflektierend für die Analyse
genutzt. Dabei sind folgende Teilaspekte dem aktuellen Forschungsstand zu entnehmen:

• Sekundärforschung: Die Vermittlung der thematischen Grundlagen und Erkenntnisse


erfolgt mittels Fachliteratur-, Fachmagazin-, Video- und Audio Recherchen, Intervie-
wanalysen sowie intensiver Gespräche und Interviews diverser Komponisten der Indust-
rie.

• Primäruntersuchung: Aktuelle Produktionen aus den Bereichen der Film-, Games- und
Trailer-Musiken, audiovisuelle Medien und vor allem aktuell themenorientierte Arbeiten,
dienen als Unterbau und Fundament für die Analyse. Zusätzlich werden geschichtliche
Hintergründe und Entwicklungsstadien von hybriden Klangsystemen und einige
auserwählte Vertreter untersucht. Des Weiteren werden detaillierte Audiobeispiele mit
den untersuchten Techniken und den gesammelten Erkenntnissen analysiert und
innerhalb einer DAW reproduziert um praxisorientierte Aussagen über die Umsetzung
und Durchführung hybrider Klangidiome treffen und beurteilen zu können.

13
2. Zum Begriff des Modern Hybrid Scoring

2. Zum Begriff des Modern Hybrid Scoring

Der Begriff „Hybrid“ bedeutet grundsätzlich etwas gekreuztes oder gemischtes. Im


musikalischen und soundtechnischen Kontext finden diese Kreuzungen auf verschiedenen
Ebenen statt und prägen aktuell den Klang zahlreicher Film-, Videogame-, und Trailer-Musiken.
Hierbei geht es um die gezielte Mischung akustisch erzeugter Klänge mit synthetischen
Soundquellen. Die Klänge können nebeneinander existieren oder gezielt miteinander
verschmelzen. Akustische Instrumente erzeugen aufgrund ihres mechanisch-akustischen
Funktionsprinzips direkt einen musikalisch nutzbaren Schall, ohne elektroakustisch verstärkt
werden zu müssen. So spielt ein Kontrabass beispielsweise über einer pulsierenden Sägezahn-
Basslinie oder einer akustischen Gitarre zu einem elektronischen Drum-Beat. Software-
Instrumente wie Omnisphere 2 4 von Spectrasonics, oder der Kontakt-Player 5 von Native
Instruments, ermöglichen unzählige und spannende Bearbeitungsmöglichkeiten akustischer
Klänge mit komplexen und experimentellen Synthese Möglichkeiten. Plötzlich ist nicht mehr die
Sinuswelle die Grundlage der Synthese, sondern etwa die Aufnahme einer mit Bogen
6
gestrichenen E-Gitarre. Der Klang wirkt synthetisch, entspringt aber einer natürlichen
Klangquelle. In der Welt der Orchesterproduktion meint Modern Hybrid Scoring neben der
Kreuzung eines Orchesterapparates mit synthetisch-elektronischen Klängen, auch eine
Verknüpfung und Mischung aus live gespielten Instrumenten mit Samples oder Sequenzer-
basierten Loops.

Da der Begriff Hybrid Scoring in der Industrie und unter Komponisten sehr generisch
verwendet und oftmals auch mit Musikgenres wie Hybrid Trailer Music , Epic Trailer Music oder
Hybrid Orchestral Music 7 gleichgesetzt wird, liegt ein Hauptaugenmerk dieser Thesis auf der
konsequenten Trennung zwischen der technologischen Einordnung und der Genre- bzw.

4
Omnisphere 2 ist ein Synthesizer auf Sample-Basis der Entwicklerfirma Spectrasonics
5
Abspielplattform für alle Sample-Instrumente von Native Instruments sowie für KONTAKT PLAYER
Instrumente von Drittanbietern
Zugriff: 31. August 2017
6
Vgl. [Keys09/2015] S.29
7
Vgl. https://de.wikipedia.org/wiki/Epic_Music. Zugriff: 31. August 2017

14
2. Zum Begriff des Modern Hybrid Scoring

musikalisch-bezogenen Einordnung von Hybrid Scoring. Zur Begriffsklärung definiert sich der
Begriff „Epic“ im musikalischen Kontext als etwas sehr „großes“ und „überwältigendes“ wie z.B.
ein sehr großer Klangkörper (Orchesterapparat, Chor, synthetische Soundelemente), aber auch
durch die Verarbeitung definierter und heroischer Themen, die gezielt eine emotionale Tiefe
abbilden sollen. 8 Ausschlaggebend für die Entwicklung von hybriden Klangsystemen ist somit
einerseits die stetige, technologische Entwicklung von Sample-basierten Software-Applikationen
und leistungsstärkeren Computersystemen, andererseits aber auch die gezielte Erweiterung der
Klangmöglichkeiten, sowohl in akustischer als auch elektronisch-synthetischer Hinsicht.

Im Verlauf der Thesis werden die zwei Kernelemente „akustische Musik“ und „elektronische
Musik“ getrennt betrachtet, um diesbezüglich systematische und zielgerichtete Erkenntnisse und
Fakten darüber zu liefern, inwiefern sich diese gegenseitig beeinflusst haben und in welcher Form
sich die Evolution sowie die damit einhergehende Fusionierung der Hauptelemente hybrider
Klangsysteme zusammengesetzt haben.

8
Vgl. https://de.wikipedia.org/wiki/Epic_Music. Zugriff: 31. August 2017

15
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

3. Evolution und Einfluss akustischer Musik in Bezug auf hybride


Klangidiome

3.1 Was bedeutet akustische Musik?

Der Terminus des akustischen Musikinstruments wird im Instrumentenbau als


Gattungsbezeichnung für Instrumente gebraucht, die aufgrund ihres mechanisch-akustischen
Funktionsprinzips direkt musikalisch nutzbaren Schall erzeugen, wie beispielsweise eine Flöte,
eine Geige, eine akustische Gitarre, ein Klavier oder aber auch die Gruppe der Schlaginstrumente.
Man bedient sich des Begriffes akustischer Musikinstrumente um diese gegenüber solchen
Instrumentengruppen abzugrenzen, deren mechanisch-akustische Schwingungen erst noch
elektrisch (z.B. E-Gitarre) verstärkt werden müssen, oder die wie im Falle von Instrumenten wie
Synthesizern oder Samplern, erst gar keine mechanisch-akustischen Anteile aufweisen.9

3.2 Hintergründe und Rückblicke akustischer Musik und Klangkörper

Laut des Sensationsfundes eines Forscherteams um Nicholas Conrad vom 24.06.2009, wurde
eine 35.000 Jahre alte Knochenflöte in der Höhle „Hohle Fels“ bei Schelklingen im Alb-Donau-
Kreis entdeckt. Dieser Fund gilt als bislang ältester Nachweis für ein Musikinstrument weltweit.
Da sie nicht die einzige Eiszeit-Flöte ist die auf der Schwäbischen Alb lokalisiert wurde, sehen die
Wissenschaftler es als erwiesen an, dass akustische Musik schon damals zum Alltag gehörte. 10
Mit diesem musikgeschichtlichen Rückblick wird einmal mehr verdeutlicht, welchen essentiellen
Stellenwert das Thema Musik schon damals eingenommen hatte.
Die nächsten Absätze beschreiben ausgewählte, geschichtliche Meilensteine in der
Entwicklung und Entstehung akustischer Klangkörper, die wiederum einen maßgeblichen Einfluss
auf heutige moderne Klangidiome genommen haben.

9
Vgl. https://de.wikipedia.org/wiki/Akustisches_Musikinstrument. Zugriff: 14. September 2017
10
Vgl. Bericht auf http://www.spiegel.de/wissenschaft/mensch/schwaebische-alb-forscher-entdecken-
aeltestes-musikinstrument-der-welt-a-632436.html. Zugriff: 14.September 2017

16
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

Die weltliche Instrumentalmusik hatte im 16. Jahrhundert durchaus schon eine gewisse
Verbreitung erlangt, konnte sich jedoch kaum mit dem Reichtum der durch die Kirche geförderten
Chormusik messen. Die zu der Zeit immer stärker gepflegten westlichen Formen des
Musiktheaters, insbesondere die Oper und das Ballett, verlangten eine Begleitung durch
instrumentale Ensembles. Seit dem 16. Jahrhundert waren diverse Gruppierungen von
Instrumenten üblich. 11 Die Entwicklung der Oper in Italien war ausschlaggebend für eine
farbenfrohere Instrumentierung. Claudio Monteverdi (1567-1643) gebrauchte in seiner Oper
„Orfeo“ (1607) ein Orchester, das aus Tasteninstrumenten, Blech- und Holzbläsern sowie
Saiteninstrumenten, insgesamt 15 verschiedenen Instrumenten, bestand. Giovanni Gabrieli
(1557-1613) nutzte schon 10 Jahre zuvor in gewissen Teilen seiner bekannten „Sacrae
symphoniae“ (1597) bestimmte Instrumentenzuordnungen. Möglicherweise war dies das erste
Werk mit einer detaillierten Angabe der instrumentalen Besetzung überhaupt. Die Klangfarbe
findet nun mehr und mehr Berücksichtigung bei der Komposition. Um Mitte des 17. Jahrhunderts
weicht das bunte Renaissance-Ensemble dem Barockorchester, dass das Streichertimbre
bevorzugt.

Mit der Entwicklung des Barockorchesters stehen sich nun zwei Gruppen gegenüber:

1. Fundamentinstrumente wie Cembalo, Orgel, Cello, Fagott, Laute (Ausführung des


Generalbasses)
2. Melodieinstrumente wie Oboe, Flöte, Violine usw. für die Oberstimmen.12

Die Orchester die ab der Barockzeit an den Fürstenhöfen musizierten, unterschieden sich von
heutigen Orchesterkonstellationen darin, dass manche Instrumentengruppen in den Orchestern
des 18. und 19. Jahrhundert noch nicht vertreten waren.13

11
Vgl. http://www.mybude.com/politik-kultur-19-jahrhundert/443-entwciklung-des-orchester.html. Zugriff:
17.September
12
Vgl. [Michels2008] S.65
13
Vgl. www.planet-wissen.de/kultur/musik/orchester/index.html. Zugriff: 17. September 2017

17
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

Eine Schlüsselperson in der Entwicklung und Standardisierung der klassischen Sinfonie ist der ös-
terreichische Komponist Joseph Haydn (1732-1809). Haydn hat einen bedeutenden Beitrag zur
Entwicklung der Sonatenform geleistet. Mit seinen bekannten Streichquartetten, Sinfonien und
Oratorien hat er sich einen bedeutsamen Platz in der Musikgeschichte gesichert. Er war nicht nur
der Begründer der klassischen Sinfonie und des klassischen Streichquartetts, sondern auch der
Erneuerer der Klaviersonate und des Klaviertrios. Auch für die Entwicklung der Sonatenform als
subtile und flexible musikalische Ausdrucksform war Haydn von entscheidendem Einfluss. Er er-
fand auch die Sonaten Rondoform und die Variationsform mit zwei Themen und war der erste
Komponist der Fuge und kontrapunktische Elemente in die klassische Form einbrachte. 14 Da
Haydns musikalisches und kompositorisches Schaffen erheblichen Einfluss auf Größe und Beset-
zung seiner Orchester hatte, gilt er auch als Neuerfinder in Bezug der geschichtlichen Entwicklung
der klassischen Orchesterbesetzung.

Das klassische Orchester entstand Mitte des 18. Jahrhundert in Mannheim und Paris. Sein
vom 4 stimmigen Streichersatz und doppeltem Holz geprägter Klang wurde bald zur Einheits-
norm.15 Auch in diesem Entwicklungsstadium sieht man wieder die notwendige Relevanz für den
Stand des heutigen Orchesterapparates. Die heutige Orchesterordnung existiert erst seit dem 19.
Jahrhundert. Im 19. Jh. wächst das ro-
mantische Orchester (seit Berlioz) stark
an, vor allen Dingen der Bereich der
Blechbläser. Einen weiteren wichtigen
Meilenstein in der Entwicklung des Sinfo-
nie Orchesters im 20. Jahrhundert bildet
vor allem Gustav Mahler mit seinem
Meisterwerk der 8. Sinfonie in Es-Dur. Der
oftmals verwendete Beiname Sinfonie der
Abb. 1 Mahlers Sinfonie Nr. 8 - Uraufführung in der Neuen
Tausend stammt nicht von Mahler selbst,
Musik-Festhalle München:

14
Vgl. http://www.mv-lenzburg.ch/PDF-Files/Texte_Werkbeschreibg/20160312-13Haydn-HP2-.pdf.
Zugriff: 11. September 2017
15
[Michels2008] S.65

18
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

unterstreicht jedoch die enorme Größe des Orchester Klangkörpers. Kein zweites Werk illustriert
diese so reichhaltig wie seine "Symphonie der Tausend", die Achte, die mit ihrem subtilen Bom-
bast und ihren Personalanforderungen die üblichen Dimensionen eines Konzertwerks auch im 21.
Jahrhundert noch sprengt. Acht Gesangssolisten und vier Chöre drängen sich auf der Bühne, gar
nicht zu reden von dem verlangten Riesenorchester - schon bei der Uraufführung 1910 in Mün-
chen suchten insgesamt 1030 Ausführende die große Harmonie. Daher der Beiname "Symphonie
der Tausend", den sie bis heute trägt. Generell erprobten die Komponisten der Romantik und
Spätromantik immer neuere Klangfarben und Effekte. So wurden viele Instrumente bzw. Instru-
mentengruppen erweitert, bis sie schließlich über 20 Instrumente oder mehr umfassten. 16

Alle diese essentiellen Entwicklungsstadien zur Entstehung akustischer Klangkörper, Ensem-


bles, des Instrumentenbaus, der Spielartikulationen, der Satztechniken etc., haben maßgeblich
zum Klang aktueller moderner hybrider Klangidiome beigetragen und diese permanent beein-
flusst.

16
Vgl. http://www.spiegel.de/kultur/musik/symphonie-der-tausend-mahlers-riesenschwarte-a-
698099.html. Zugriff: 18. September 2017

19
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

3.3 Transformation und Entwicklung

3.3.1 Die wohltemperierte Stimmung

Andreas Werckmeister entwickelte


1691 als erster die
wohltemperierte Stimmung.
Zugunsten der Spielbarkeit aller
Tonarten wurde die Vorherrschaft
der rein gestimmten großen Terzen
aufgegeben. Werckmeister wandte
sich hierzu der Lösung des
Problems des pythagoreischen
Kommas zu. Dabei werden die
Quinten unterschiedlich gestimmt:
Einige um einen gewissen Bruchteil
des pythagoreischen Kommas
Abb. 2: Werckmeister III: Der Quintenzirkel zur Spielbarkeit aller
enger, manche weiter, manche
Tonarten
bleiben rein. Die Absicht dabei ist,
das pythagoreische Komma so auszugleichen, dass ein "his" dieselbe Frequenz wie ein "c"
desselben Registers hat. Dadurch schließt sich der Kreis der zwölf Quinten.17 Bei der bis dahin und
auch noch parallel üblichen mitteltönigen Stimmung dagegen sind Tonarten umso verstimmter,
je weiter sie von C-Dur entfernt sind, so dass die Komponisten diese entfernten Tonarten mieden.
Johann Sebastian Bach komponierte das Meisterwerk „Wohltemperierte Klavier Band I&II“ 18 ,
einen Wendepunkt in der Kompositionstechnik. Denn ihm ging es hierbei nicht um die
Demonstration der temperierten Stimmung, sondern es steckte viel mehr ein System dahinter,
das die Abbildung aller Tonarten des Quintenzirkels kompositorisch darstellen soll.

17
Vgl. http://www.lehrklaenge.de/HTML/werckmeister_-_stimmung.html. Zugriff: 11. September 2017
18
Wohltemperierte Klavier: Teil I stellte Bach 1722, Teil II 1740/42 fertig

20
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

3.3.2 Popularisierung der akustischen Musik durch die Plattenindustrie

Mit Erfindung des Plattenspielers und der Etablierung der Plattenindustrie hat kein Medium
die akustische und populäre Musik so nachhaltig und gravierend verändert wie die Schallplatte.
Die neuen Möglichkeiten dieses Mediums, Musik zu reproduzieren und unter die Hörerschaft zu
bringen, revolutionierte die Hörgewohnheiten nachhaltig. Die neu erfundene Schallplatte und
das Grammophon veränderten die Verbreitung produzierter Musik gegen Ende 19. Jahrhunderts.
Aufgrund der sich immer rasanter entwickelnden
Platten- und Musikindustrie sah man hier ganz
neue Opportunitäten, Musik durch gezielte
Werbung und PR erfolgreich und weltweit auf
dem Markt etablieren zu können.19 Übrigens ist
das älteste Tonträgerunternehmen bzw.
Schallplattenlabel der Welt, die Deutsche
Abb. 3: Logo - Deutsche Grammophon. Das älteste Grammophon Gesellschaft, die 1898 in Hannover
Schallplattenlabel der Welt gegründet wurde und im 20. Jahrhundert als
Qualitätsführer im Bereich der Kunstmusik-LPs20
bzw. ernster Musik galt.21

19
Vgl. http://www.saiten-sprung.eu/die-veraenderung-der-popularen-musik-durch-die-plattenindustrie/.
Zugriff: 12. September 2017
20
LP: Langspielplatte
21
Vgl. https://de.wikipedia.org/wiki/Deutsche_Grammophon. Zugriff: 12. September 2017

21
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

3.3.3 Entwicklung des Instrumentenbaus

Weshalb ist die Entwicklung des Instrumentenbaus von grundlegender Bedeutung für Modern
Hybrid Scoring?

Neuartige bzw. neue Instrumente bilden sich in der Begegnung von Klangideal und
technologischen Möglichkeiten sowie von praktisch-musikalischen Lebenssituationen und
gegenwärtigen Musikstilen heraus. Bereits im 13. Jahrhundert sind die ersten Handwerker die
Musikinstrumente herstellen urkundlich bewiesen. Im weiteren Verlauf sorgte unter anderem
auch die Entwicklung der Orchestermusik für neue Anforderungen und Entwicklungen bei den
Blas- und Streichinstrumenten. Mit dem Aufkommen verschiedener Musikstile wie des Jazz und
des Schlagers im 20. Jahrhundert, erfuhr auch der Schlaginstrumentenbau wichtige neue Impulse
und ohne die elektronisch verstärkten Instrumente wären beispielsweise weder Rock’n’ Roll oder
Metal noch die meisten der heute vorkommenden Musikgenres möglich.22

Durch den stetigen Weiterentwicklungsprozess der Musikinstrumentenherstellung und durch


technologische Neuerfindungen sowie die damit einhergehenden Möglichkeiten der Klangerwei-
terungen sowie Qualitäts- und Klangoptimierungen, trägt auch dieser Faktor elementar zur Rea-
lisation und Entstehung hybrider Klangidiome bei. Instrumente werden permanent erneuert und
überarbeitet, neue Musikgenres entstehen und finden Einzug in die Welt der hybriden Klangidi-
ome.

22
.miz.org/static_de/themenportale/einfuehrungstexte_pdf/07_Musikwirtschaft/boecher_musikinstrumente
nbau.pdf. S. 5. Zugriff: 12. September 2017

22
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

3.4. Hörgewohnheiten im Wandel der Zeit

Nach einer Analyse von Songs der letzten 50 Jahre werden diese kontinuierlich gleichförmiger,
dafür aber lauter. Die spanischen Wissenschaftler unter der Leitung des KI-Forschers23 Joan Serra
vom spanischen Nationalen Forschungsrat, untersuchten in ihrer Studie 464.411 Songs der
Datenbank „Million Song Dataset“ (enthält Metadaten von Songs wie Künstler, Länge, Tanzbarkeit,
Veröffentlichungsjahr, Tempo, Lautstärke, Tonhöhe, Klangfarben etc.) im Bereich Pop, Rock, Hip
Hop, Metal und elektronischer Musik, die zwischen 1955 – 2010 veröffentlicht wurden um gezielt
Muster und langfristige Veränderungen in der westlichen Musik ausfindig zu machen. Mit der
Auswertung stellt sich die Frage, ob es so etwas wie eine nachvollziehbare "Evolution des
musikalischen Diskurses" gibt. Sehr auffallend in der Endauswertung ist die stetige Erhöhung der
Lautstärke über die letzten Jahrzehnte. Der sogenannte Lautheitskrieg (Loudness war) hat zur
maximalen Aufmerksamkeitsgenerierung der Zuhörer geführt, um sich so gezielt gegen die
Konkurrenz abheben zu können. Auch Parameter wie Modifikationen in den
Tonhöhenfrequenzen, modische oder originelle Klangfarbenkombinationen durch
technologische Neuerfindungen (neue Klangfarben von Instrumenten und neuer
Aufnahmetechnik) wurden als Veränderungen in der Musik wahrgenommen. 24

Der technische Fortschritt lässt neue Gattungen und Trends entstehen – die gewohnten
Höreindrücke ändern sich. Gleichzeitig kristallisieren sich besonders akzeptierte Musikstücke der
Vergangenheit heraus, die nach wie vor beliebt sind, obwohl ihr Trend längst abgeflacht ist und
ihre Auskopplungen schon Jahre zurückliegen.

23
KI: künstliche Intelligenz
24
Vgl. https://www.heise.de/tp/news/Vielfalt-schwindet-auch-in-der-Musik-2027799.html. Zugriff: 18.
September 2. September 2017

23
3. Evolution und Einfluss akustischer Musik in Bezug auf hybride Klangidiome

Die untere Abbildung zeigt vier verschiedene Veröffentlichungen des Musikhits Something
der erfolgreichen Popband The Beatles auf. Bei näherer Betrachtung fällt der Lautstärkeanstieg
der einzelnen Wellenformen seit 1983 – 2000 auf. Da alle Produzenten ihren Song lauter haben
wollten als die der Konkurrenten, schaukelten sich die Lautstärken im Loudness War bis zu sei-
nem Höhepunkt Anfang der 2000er Jahre stetig nach oben. 25

Abb. 4: The Beatles – Something: Abbildung der Wellenformen

25
Vgl. https://www.hdm-stuttgart.de/~curdt/Hoergewohnheiten.pdf. S. 16-17. Zugriff: 22. November 2017

24
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride


Klangsysteme

„Wir haben gesehen, dass die klassische Komposition, der Jazz Tune und der Rocksong Körper
sind, die sich aus feststehenden Schichten oder Organen (z.B. Streichinstrumente,
Blasinstrumente, Blechinstrumente, Schlaginstrumente; Vocals, Gitarre, Bass, Drums)
zusammensetzen, die den Klang einfangen und ihn für bestimmte Funktionen – etwa Melodie,
Harmonie, Rhythmus, Refrain, narrative Entwicklung – einspannen. Von außen durch ein
prädeterminiertes, transzendentales Schema (Partitur, Diagramm, Song) organisiert, bewegen
sie sich im Einklang mit der pulsierenden Zeit – der Zeit der Entwicklung, der Form, der Erzählung
und des Refrains. Experimentelle Elektronik löst den Klang von dieser Schicht und befreit ihn von
der pulsierenden Zeit. Der Klang erscheint in seiner eigentlichen Form: als ein sich frei
bewegender Strom, reine Möglichkeit, nicht länger oder noch nicht an musikalische Formen oder
Funktionen gebunden. An Stelle von Erzählungen, Melodien und Themen hören wir die Klänge
selbst. Wir hören akustische Kräfte, Affekte, Singularitäten und Intensitäten, Strukturen,
Klangfarben et cetera.“ (Christoph Cox)26

4.1 Allgemeine Informationen

Im Kapitel 3 wurde die Evolution akustischer Musik und deren zukunftsweisenden Bedeutung
charakterisiert. Die Entstehung und Verwendung elektronischer Klangkörper bildet ein weiteres
bedeutendes Element zur Entwicklung hybrider Klangidiome. Mit der Industrialisierung und der
weltweiten Computerisierung einhergehend, wandelten sich die technologischen Möglichkeiten
stetig. Damit erhielt auch der Einzug und die Neuerfindung des Formates der elektronischen
Musik seine Bedeutsamkeit sowohl in der Musikgeschichte als auch im musikalischen Alltag.
Dieses Kapitel möchte den Einfluss und die Entwicklung elektronischer Musik und derer
wichtigsten Vertreter systematisch aufzeigen und eine Überleitung zu hybriden Klangsystemen

Quelle: http:. //www.deutschlandfunk.de/soundcultures-ueber-elektronische-und-digitale-


26

musik.700.de.html?dram:article_id=80940. Zugriff: 30. August 2017

25
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

abbilden.

4.2 Rückblicke und Hintergründe

Elektroakustische Instrumente bzw. elektronische Musik, entwickelten sich einerseits aus


dem Wunsch von Musikern und
Komponisten neue Klänge für neue
Musikstile zu generieren, anderer-
seits mit den Möglichkeiten der
technologischen Neuerfindungen
in den Bereichen der Elektrotechnik
ab den 1920er Jahren. 27 Das 200
Tonnen-Telharmonium von Thad-
deus Cahill aus dem Jahr 1897 war
das erste elektromechanische Mu-
sikinstrument bzw. der erste elektri- Abb. 5: Telharmonium Konsole von Thaddeus Cahill (1897)

sche Synthesizer seiner Art. Die


Spannungen der Generatoren wurden über ein komplexes System von Schaltern und Transforma-
toren zusammengemischt, um durch additive Synthese28 verschiedene Klangfarben zu erzeugen
die über einen Orgelspieltisch mit mehreren Klaviaturen anschlagsdynamisch spielbar waren. 29

1929 wurde erstmals die Hammond Orgel (auch als Synonym für elektronische Orgel)
vorgestellt, die ähnlich dem Telharmonium, durch das Kombinieren verschiedener Töne
umfangreichere Klangfarben erzeugen konnte und durch die deutlich geringere Größe und das
reduzierte Gewicht auch Einzug in private Haushalte und im Unterhaltungsbereich fand. Im

27
Vgl. [Dirckreiter2008] S. 83
28
Die additive Synthese ist eine Methode, wobei der Klang durch Zusammenstellen der gewünschten
harmonischen Teiltöne generiert wird.
29
Vgl. (http://www.spiegel.de/fotostrecke/erster-synthesizer-der-welt-das-200-tonnen-telharmonium-
fotostrecke-148958-14.html. Zugriff: 29.August 2017

26
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

Gegensatz zu vielen anderen in dieser Zeit erfundenen Instrumente, wurde die Hammond Orgel
aufgrund der einfachen Bedienbarkeit zum ersten kommerzialisierten, elektronischen
Musikinstrument überhaupt.30 Die Hammond-Orgel erfreut sich bis heute nach wie vor großer
Beliebtheit und findet nicht nur Anwendung auf der Bühne sondern auch in zahlreichen
Produktionen. Auch andere elektronische Instrumente, wie das Theremin, die Elektrotonorgel,
die Ondes Martenot, das Clavioline oder das Trautonium stammen aus dieser Zeitperiode.

Durch den Bau eines simplen elektronischen Instruments für einen Freund und die
Erweiterung dessen zur umfangreichen Steuerung des Klangs durch Spannungen einzelner
Module mithilfe von Verkabelungen, schuf Robert Moog die Grundlagen eines modularen
Synthesizers31

Abb. 6: Minimoog Synthesizer - Model D, 1972

30
Vgl. https://de.wikipedia.org/wiki/Hammond-Orgel. Zugriff: 30. August 2017
31
Vgl. [Ruschkowski2010]. S. 110 ff.

27
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

Viele bekannte Interpreten der Musikindustrie trugen zur damaligen Zeit durch Benutzung der
Moog Synthesizer, sowohl auf Band-
aufnahmen als auch auf der Bühne,
zur Popularität dieses Klangerzeugers
bei. Der wohl bekannteste und weit-
verbreitetste analoge Synthesizer
überhaupt ist der Minimoog.32 Somit
bilden bis heute die zugrundeliegen-
den Gesetzmäßigkeiten aller weite-
ren Moog Synthesizern den Ursprung
für die Funktions- und Konstruktions-
weise unzähliger, nachfolgender
Abb. 7: Der Z3, der erste funktionstüchtige Computer von Konrad
Zusa Klangerzeuger. Mit dem massenhaf-
ten Verkauf und Gebrauch der Gerät-
schaften und der stetigen Erweiterungen, etablierten sich diese als fester Bestandteil in der Mu-
sikkultur.33 In der Folge der weiteren Entwicklung und Ergänzung dieser Technologien, entstand
eine ganze Industrie um das Thema Synthesizer und elektronische Klangerzeugung. Synthetische
Klangerzeuger, ob Hardware- oder Software-basierter Art, haben sich mittlerweile zu einem fes-
ten Bestandteil in der Realisation und Produktion moderner hybrider Klangsysteme etabliert. Ob
bei der Arbeit mit Computern in Tonstudios, im Live Betrieb auf der Bühne oder bei Tonaufnah-
men jeglicher Art, die Anwendungsbereiche der Synthesizer sind grenzenlos und bieten durch die
stetigen Erweiterungen und Neuerfindungen unzählige Möglichkeiten der Klangerweiterung- und
Optimierung hybrider Scores. Den ersten funktionstüchtigen Computer „Z3“ erfand Konrad Zuse
und stellte diesen am 12.Mai 1941 vor. Ohne den Z3 würde unser gesamter Alltag heute womög-
lich ganz anders aussehen. Der Z3 bildet den Vorläufer der heute alltäglichen Computertechno-
logien. Er war der erste programmierbare Rechner, der mit dem binären Zahlensystem (0 und 1)

32
Vgl. [Ruschkowski2010] S. 115 ff.
33
Vgl. [Ruschkowski2010] S. 111 ff.

28
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

arbeitete und revolutionär für alle weiteren Errungenschaften im Bereich der Computertechno-
logien war. 34 Da zahlreiche Errungenschaften und Evolutionsstadien sich im Bereich der Ton-,
Film- und Musikproduktion bis heute der Technologien und Prozesse von Computersystem bedie-
nen, ist diese Erfindung ein unabdingbarer Faktor zur Realisation hybrider Produktionen.

4.3 Bedeutung der elektronischen Musik und der Klangsynthese?

4.3.1 Definition der elektronischen Musik

Zwischen der physikalischen Definition und dem umgangssprachlichen Gebrauch des Worts
„elektronisch“ besteht ein Unterschied; im hierdurch entstandenen Spannungsfeld befindet sich
die Bezeichnung der elektronischen Musik. Eine erste Abgrenzung bezieht sich auf die
Bezeichnung des elektronischen Musikinstruments, welche die Einschränkung eines
Instrumentes auf rein elektronischen Schwingungserzeugung meint. Die zweite Abgrenzung
beschreibt das Erzeugen physikalischer Klänge mit Hilfe von elektronischen Instrumenten oder
Klangerzeugern 35 , ohne dabei herkömmliche, akustische Instrumente zu verwenden. Unter
elektronischer Musik werden im allgemeinen festgelegte Klangstrukturen und Klangabläufe (im
Sinne von Patterns) verstanden, die mit Hilfe von elektronischen oder elektromechanischen
Generatoren bzw. Klangerzeugern generierten Impulsen, Sinustöne oder Rauschen und deren
weiteren elektronischen Beeinflussung entstehen.

34
Vgl. (http://www.focus.de/digital/computer/computergeschichte/zuse-z3-der-erste-computer-der-welt-
wird-70_aid_626272.html. Zugriff: 29. August 2017.
35
Klangerzeuger verstehen sich hier als Hardware-basierte Geräte

29
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

4.3.2 Definition und Möglichkeiten der Klangsynthese

Um ein transparenteres Verständnis für den Begriff der Klangsynthetik zu bekommen, wird in
diesem Abschnitt der Terminus genauer betrachtet, da dieser im weiteren Verlauf der Arbeit ein
Fundament hinsichtlich hybrider Klangsysteme einnehmen wird.
„Klangsynthese“ bezeichnet die Erschaffung und Zusammenführung von Klängen und den zur
Entstehung notwendigen kreativen Prozess dahinter.36 Auch die menschliche Stimme stellt das
Ergebnis eines komplexen Klangerzeugers mit vielen verschiedenen Klangfarben dar, so muss der
zur Synthese notwendige Apparat nicht immer zwangsläufig auf Technologie basieren. Somit
können neben dem Vokaltrakt, durchaus auch alle anderen „akustischen“ Instrumente als
Klangerzeuger betrachtet werden 37 , bedienen sich diese doch der unterschiedlichen
Klangeigenschaften ihrer Komponenten und deren feiner Abstimmung aufeinander, was eben
genau den Prozess der Klangsynthese beschreibt. Die dazu essentiellen technischen Verfahren
können sowohl elektronisch, als auch rein mechanisch funktionieren, indem einerseits der Klang
mit diesen Hilfsmitteln aufgenommen oder generiert wird oder andererseits auf bereits
existierende Aufnahmen zurückgegriffen wird, um zu einem neuen klanglichen Resultat zu
kommen. 38 Zur besseren Verdeutlichung kann beispielsweise der Klang real existierender
Instrumente künstlich erzeugt, nach Bedarf verändert und so verfügbar gemacht werden, ohne
dass das nachgeahmte Instrument tatsächlich besessen werden muss.

Des Weiteren ist die Generierung gänzlich neuer Klänge möglich, die mit gängigen
akustischen Instrumenten nicht zu realisieren sind. 39 Dies kann mit analogen oder digitalen
Klangsyntheseformen erreicht werden. Durch diese Verfahrensweisen und mithilfe der
zahlreichen Verbindungen und Aneinanderreihungen von Modulationsquellen sind theoretisch
unermesslich viele Ergebnisse möglich. Der Vorstellungskraft des Anwenders sind mit Hilfe
musikalischer Fähigkeiten und der technischen Kenntnisse der Gerätschaften somit keinerlei

36
Vgl. [Russ2008] S.4
37
Vgl. [Russ2008] S.5
38
Vgl. [Russ2008] S.4
39
Vgl. [Raffaseder2010] S.213

30
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

Grenzen gesetzt. Beispielhaft seien hierfür digitale Syntheseformen wie Granular-Synthese,


additive Synthese oder FM-Synthese genannt.

4.4 Ausgewählte Vertreter der elektronischen Musik

4.4.1 Stockhausen und das Studio für elektronische Musik des WDR Köln

Als erster Komponist der Avantgarde in der Musik40 verschrieb sich Stockhausen (1928- 2007)
der elektronischen Musik. Als Mitarbeiter (1953) und später künstlerischer Leiter (ab 1963) des
Studios für elektronische Musik des WDR Köln realisierte er richtungsweisende Werke wie „der
Gesang der Jünglinge“. 41 Dieses zentrale Frühwerk Stockhausens wird heute noch als
„Meisterwerk der elektronischen Musik“ 42 charakterisiert. Die 5-Kanal-Komposition entstand
1955-56 im Studio für Elektronische Musik am Westdeutschen Rundfunk in Köln. Zur

Abb. 8: Studio für Elektronische Musik im Kölner Funkhaus (WDR)

40
Avantgarde in der Musik: Gemeint ist der Bruch mit traditionellen Hörgewohnheiten, etwa durch die
breite Verwendung von Dissonanzen und unregelmäßigen Rhythmen oder durch Atonalität. Vgl.
wikipedia.org/wiki/Avantgarde#Avantgarde_in_der_Musik. Zugriff: 19. September 2017
41
Vgl. [Burrows/Wiffen2006] Klassische Musik. S. 482
42
Vgl. [Simms1986] S. 391

31
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

Klangerzeugung wurden mit Hilfe von sogenannten Impuls- und Sinusgeneratoren sowie
hochwertiger Tonbandtechnik nachbearbeitete Knabenstimmen verwendet. Wegweisend ist vor
allem die Klangsynthese von elektronischen und synthetischen Klängen, die mit der menschlichen
Stimme also einer natürlichen akustischen Klangquelle, generiert wurde. 43 Stockhausen nutzte
somit gezielt die technologischen Möglichkeiten in seinen Kompositionen um sein Klangspektrum
deutlich zu erweitern bzw. zu erneuern.

Herbert Eimert (1897-1972), Musiktheoretiker, Komponist und Musikjournalist richtete im


Kölner Funkhaus NWDR (heute WDR) das erste Studio für Elektronische Musik ein. Dieses fest
installierte Tonstudio, welches als weltweit erstes seiner Art galt, blieb zunächst auf rein
elektronisch erstelltes Klangmaterial beschränkt und erschien als ideale Umsetzung der seriellen
Kompositionstechnik44. Beispiele dafür sind Stockhausens 'Studien I' und 'Studien II' (Aufführung
1954). Zunehmend wurden dann jedoch auch natürliche Klangerzeuger (instrumentale, vokale
sowie Umweltgeräusche) einbezogen. Die wachsende Automation (Synthesizer) führte u.a. zur
sogenannten elektronischen Computermusik. Im Jahr 1953 gab es unter Stockhausen die ersten
rein elektronisch veröffentlichten Konzerte. Stockhausen übertrug, angeregt durch Goey Vaerts,
das serielle Denken auf die Sinustöne. So tauchten erstmals unvorhersehbare, aleatorische
Ergebnisse im Farbbereich auf. Neben Stockhausen sind als weitere herausragende Komponisten
György Ligeti, Mauricio Kagel und Pierre Boulez zu nennen.45

43
Vgl. Stockhausen, Karlheinz. 1958. „Musik und Sprache“. Die Reihe 6: 36-58
44
Serielle Musik bezeichnet eine Strömung der Neuen Musik, die sich ab etwa 1948 entwickelte -Vgl.
wikipedia.org/wiki/Serielle_Musik. Zugriff. 19. September 2017
45
Vgl. http://www.musikerchat.de/cgi-bin/ultimus/fachbegriffe/musik.pl?id=851. Zugriff: 19.August 2017

32
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

4.4.2 Musique concréte, experimentelle Musik und ausgewählte Vertreter

Was beschreibt Musiqe concréte überhaupt und welchen Stellenwert nimmt diese
Kompositionstechnik hinsichtlich hybrider Scores ein?

Der im Jahre 1949 von Pierre Schaeffer erstmals eingeführte Begriff „Musiqué
concrète“ beschreibt eine Kompositionstechnik, bei der mit aufgezeichneten und auf
Schallplatten gespeicherten Klängen komponiert wird. Hierbei werden Schallquellen aller Art z.B.
Musikinstrumente, Stimmen, Klänge aus der Natur, der Technik, der Alltagswelt, mit Hilfe von
Klangmontagen, Tapeloops oder der gezielten Veränderung der Bandgeschwindigkeit verfremdet,
bearbeitet oder neu zusammengesetzt. Der Terminus „konkret“ illustriert dabei sowohl die
konkreten Klangmaterialien als auch den künstlerischen Arbeitsprozess, der aus konkreten
Klängen durch technische und elektronische Bearbeitungsabläufe abstrakte und neuartige
musikalische Strukturen generiert. Die Toningenieure und Komponisten Schaeffer und Pierre
Henry formulierten als Erste die Bausteine des modernen Sampling, indem sie gezielt Klänge auf
Tonband aufzeichneten um diese dann mit
diversen Manipulationstechniken (z.B.
rückwärts Abspielen der Bänder oder mit
selbst geklebten Tonbandschleifen) zu
verfremden. Die Entwicklung der Musique
concrète war sehr eng mit der rasanten
Verbreitung der analogen Audio- und
Aufnahmetechnik nach dem Zweiten
Weltkrieg verbunden, insbesondere mit
der Verfeinerung der Magnet-
tonbandmaschine, die im weiteren
Verlauf dieser Arbeit (Kapitel 6.1) noch

Abb. 9: John Cage und das präparierte Klavier

33
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

von Bedeutung sein wird.46Schaeffer hielt sein musikalisches Konzept in Schriften wie „Traité des
Objets Musicaux“ (1966) oder „Musique concrète“ (1967) fest und distanzierte sich von der
elektronischen Musik, da diese nicht mit real existierenden, sondern mit synthetisch erzeugten
Klängen arbeitete. Seit Ende der 1950er Jahre werden Musique concrète und elektronische Musik
unter dem Oberbegriff elektroakustische Musik zusammengefasst.
Als Pioniere in diesem Genre gelten Edgar Varèse, John Cage und Olivier Messiaen. Die
eigentliche Geschichte der Musique concrète beginnt 1948 mit Schaeffers „Etudes de
bruits“ (Geräusch-Etüden). Die Zusammenarbeit mit Pierre Henry im Studio „Club d’Essai“ (ab
1951 „Groupe de Recherches de Musique concrète“) brachte seither Werke wie die
surrealistische „Symphonie pour un homme seul“ (1949/50) und die konkrete Oper „Orphée
53“ (1953) hervor. Deren Uraufführung sorgte bei den Donaueschinger Musiktagen für einen
Eklat und begründete den vor allem von Pierre Boulez angestoßenen ideologischen Streit
zwischen elektronischer Musik und Musique concrète. Erst durch Karlheinz Stockhausens
Zusammenarbeit mit Schaeffer gab es eine Annäherung beider Positionen. Er verband in seinem
„Gesang der Jünglinge“ (1955/56) ebenso wie Luciano Berio in „Visage“ (1960) beide
Musikrichtungen miteinander. Ab Ende der 1950er Jahre bezog Schaeffer vermehrt
kompositorische Prinzipien in seine Arbeit ein und benannte sein Forschungsinstitut in „Groupe
de Recherches Musicales“ (GRM) um.47

John Cage (1912 – 1992) ist nicht nur ein Pionier der sogenannten experimentellen Musik,
sondern auch der Erfinder des präparierten Klaviers. Mit der um 1940 eingeführten Technik,
setzte Cage gezielt Gegenstände wie, Nägel, Papier, Radiergummi usw. an diversen Stellen der
Saitenchöre eines Klaviers ein, die entweder Flageolettöne, Mehrklänge oder perkussive Klänge
hervorbrachten. 48 Auf Grundlage dieser Technik erforschten verschiedenste Komponisten bis
weit ins 20. Jahrhundert hinein immer wieder neue Möglichkeiten, das Klangspektrum des
Klaviers, auszuweiten. Diese Technik des Präparierens hat sich mittlerweile in etlichen Bereichen
wie der Kunstmusik, der Filmmusik, oder im Jazz etabliert.

46
Vgl. https://www.ableton.com/de/blog/studio-as-an-instrument-part-1/. Zugriff: 19. Oktober 2017
47
Vgl. http://www.wissen.de/lexikon/musique-concrete.Zugriff: 18. Oktober 2017
48
Vgl. [Michels2008] S. 484/485 & S. 519

34
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

Track 01: John Cage – Sonata II for prepared Piano

Das Hörbeispiel 01 zeigt die Sonata II for prepared Piano von John Cage's Sonaten und
Interludes Arbeiten, die im Zeitraum von 1946-1958 entstanden sind. Die Aufnahme wurde von
Boris Berman interpretiert und aufgeführt. Bemerkenswert hervorzuheben ist der Umgang mit
dem Klavier als verfremdete Klangquelle und als frühe Form der Manipulation von akustischen
Klangquellen.

4.4.3 Paul Hindemith, Oskar Sala und das bedeutsame Mixtur-Trautonium

Es gibt zahlreiche Erfindungen im


Bereich der elektronischen
Klangerzeugung, doch in
Anbetracht hybrider Klangidiome
nimmt das Trautonium von
Friedrich Trautwein (1888-1956)
und später von Oskar Sala (1910 –
2002) mehrmals weiterentwickelt
und verfeinert, einen
substanziellen Stellenwert ein.
Das Gerät wurde 1930 erstmals
Abb. 10: Oskar Sala und sein Trautonium
mit der Uraufführung der „Sieben
Triostücke“ von Paul Hindemith veröffentlicht. Unter anderem war es auch Hindemith, der Sala
mit Dr. Friedrich Trautwein vertraut machte und von diesem Zeitpunkt an maßgebend an der
Entwicklung, Verfeinerung und Bau des Trautoniums beteiligt und verbunden war. Es ist als
elektronisches Musikinstrument ein Vorläufer der heutigen Synthesizer und im Stande,
natürliche Vokalerzeugung auf elektronischem Wege zu imitieren. 1958 richtete Sala in Berlin ein

35
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

eigenes Tonstudio ein und vertonte zahlreiche Industrie-, Werbe-, Kultur- und Spielfilme. Durch
die Einzigartigkeit der damaligen Technologie, war die Vertonung der Vogelstimmen in Alfred
Hitchcocks Klassiker „Die Vögel (The Birds)“ aus dem Jahre 1962 mit Sicherheit einer seiner
Karriere-Höhepunkte. Das Trautonium nahm somit die Funktion der Filmtongestaltung und des
Sounddesigns ein. Das Audiobeispiel 02 zeigt die Opening Kredits für den Film The Birds.

Track 02: The Birds – Opening Credits

Da Sala eine ungeheure Perfektion in der Synchronisation zwischen Ton- und Bild erarbeitete
und dieses sich immer mehr herumsprach, realisierte er unter anderem auch Filmmusiken für
die „Edgar Wallace“-Reihe oder für die NASA. Somit war er auch ein einflussreicher Vertreter in
der Popularisierung und Verwendung elektronischer Musik im medialen Kontext. 49 In zahlreicher
musikgeschichtlicher Fachliteratur steht geschrieben, dass Paul Hindemith (1895-1963)
vermutlich Friedrich Trautwein zum Bau des Trautoniums inspiriert hat. Seine Vision war es schon
sehr früh, so etwas wie ein elektronisches Streichinstrument entwickeln zu lassen, dass es bis
dato noch in keinster Form gab. Die bekannten Werke Hindemith‘s für Trautonium sind:50

• Langsames Stück und Rondo für Trautonium (1935)


• 7 Triostücke für 3 Trautonien (1930)
• Konzertstück für Trautonium mit Begleitung des Streichorchesters (1931)

Paul Hindemith‘s Konzerstück für Trautonium mit Begleitung des Streichorchesters aus dem
Jahre 1931 war zweifelsohne ein Meilenstein hinsichtlich hybrider Klangidiome, da es gezielt den
akustischen Klangkörper des Streichorchesters, mit dem Element der elektronischen Musik

49
Vgl. http://www.trautonium.de/sala.htm. Zugriff: 02. Oktober 2017
50
Vgl. http://www.trautonium.de/hindemith.htm. Zugriff: 02. Oktober 2017

36
4. Evolution und Einfluss elektronischer Musik in Bezug auf hybride Klangsysteme

verschmolz. Dieses Werk war seiner Zeit (1931) weit voraus. Das Trautonium war im
musikalischen Ausdruck zwar limitiert, dennoch nutzte Paul Hindemith diesen Klang wie eine
akustische Ebene ähnlich die der Streicher. Somit hat das Trautonium eine
Klangerweiterungsfunktion eingenommen. Die Klangcharakteristik ähnelt an manchen Stellen
sehr einem akustischen Horn.

Track 03: Paul Hindemith – Concertino for Trautonium and Strings

4.5 Kurzes Zwischenfazit

Anders als bei traditionellen, akustischen Klangkörpern und Instrumenten, die nach einer
teils Jahrhunderte langen Entwicklungsphase (siehe Kapitel 3) größtenteils standardisiert sind
und nur in Teilgebieten, wie beispielsweise dem Instrumentenbau, eine Weiterentwicklung
erfahren, verläuft die Metamorphose bei elektronischen Instrumenten und Verfahren meist
parallel zum Fortschreiten von Technologien. Diese stetig neuen Erfindungen und Entwicklungen
der elektronischen Musik, üben zweifelsohne auch einen nachhaltigen Einfluss auf hybride
Kompositionen aus.

37
5. Evolution des Modern Hybrid Scoring

5. Evolution des Modern Hybrid Scoring


- Fusionierung akustischer und elektronischer Musik

5.1 Grundlegendes

In den vorherigen Kapiteln wurden die historischen Hintergründe, essentielle


Entwicklungsstadien und Einflüsse akustischer sowie elektronischer Musikinstrumente, sowie
Klangkörper und bedeutende Pioniere systematisch und chronologisch aufgezeigt. In diesem
Kapitel werden die gesammelten Erkenntnisse beider Elemente gezielt zusammengeführt. Auch
hier werden wieder Rückblicke und bedeutsame Etappen hinsichtlich hybrider Klangsysteme
chronologisch aufgeschlüsselt. Im weiteren Verlauf des Abschnitts werden anhand aktueller Film-,
Trailer-, und Games-Musiken, die Einsatzgebiete moderner hybrider Scores detailliert
charakterisiert. Im letzten Absatz des Kapitels stellt sich die Frage, ob und inwiefern sich die
Kernelemente moderner hybrider Klangidiome beeinflusst haben und warum sich diese so
entwickelten. Zur Einordnung der in den Kapiteln 3 und 4 erwähnten Evolutionsstadien und
Meilensteine, ist diese Fragestellung als wichtige Zwischenreflexion zu verstehen.

5.2 Einfluss hybrider Klangidiome in der Filmindustrie

5.2.1 Das Theremin uns seine Bedeutung

Das Theremin schien Fortschritt und Zukunft zu gleich zu verkörpern. Mit den revolutionären
Erfindungen des Theremins und des Trautoniums eröffneten sich für Komponisten neue
Möglichkeiten akustische Klänge mit synthetischen Elementen zu kombinieren. Dieser Abschnitt
befasst sich vor allem mit der Verwendung des Theremins im filmmusikalischen Kontext. Der
russische Erfinder Leon Theremin entwickelte im Jahr 1920 das Theremin, ein elektronisches
Musikinstrument das aus nur zwei Antennen und einem Kasten besteht. Die Besonderheit dieser
Erfindung ist, dass es mit beiden Händen gespielt, jedoch nicht berührt wird. Eine Hand regelt die

38
5. Evolution des Modern Hybrid Scoring

Tonhöhe und die andere Hand steuert die Lautstärke. 51

Abb. 11: Leon Theremin und sein Theremin

(Dezember 1927)

Die elektrische Kapazität des menschlichen Körpers beeinflusst ein elektromagnetisches Feld.
Die Position der Hände gegenüber zwei Elektroden bestimmt dabei die Stärke der Veränderung.
Vor allem in den Bereichen der Science-Fiction-Filme, neuer Musik und experimenteller Pop-
Musik kam das Theremin zum Einsatz.52 Auch der Entwickler Robert Moog setzte sich intensiv mit
dem Instrument auseinander. Durch Weiterentwicklungen und Verbesserungen am Instrument
war es nun auch möglich, andere Eingabegeräte zu verwenden um das Theremin zu steuern.
Moog erweiterte sogar den Tonumfang auf fünf Oktaven. Aus diesen Ansätzen heraus entstand
der Moog-Synthesizer (siehe Kapitel 4.2.1), der die elektronische Musik bis heute revolutionierte.
Seit der Wiederaufnahme der Produktion des Instruments im Jahr 1990, ist Moog Music der
weltgrößte Theremin Hersteller.53

51
Vgl. http://www.klassikradio.de/programm/aktuelles/die-hohepriesterin-des-theremis. Zugriff: 17.
Oktober 2017
52
Vgl. https://de.wikipedia.org/wiki/Theremin. Zugriff: 17. Oktober 2017
53
[Guterman2005] S.45

39
5. Evolution des Modern Hybrid Scoring

Neben seiner Verwendung in der Klassik und


solchen Kompositionen die speziell für das Theremin
angefertigt wurden, ist es aufgrund seines
einzigartigen Klanges sehr häufig in der Filmmusik
eingesetzt worden. Besonders in Hollywood fand es
für die Darstellung außergewöhnlicher psychischer
sowie außerirdischer und übernatürlicher Zustände
Gebrauch. Der erste Filmkomponist der das Theremin
prägnant und deutlich hörbar in seinen
Kompositionen integrierte, war Miklós Rózsa. Neben
seinen sehr prägnanten Melodien und seiner oftmals
dissonanten Harmonik des frühen 20. Jahrhunderts,
war der Klang des Theremins ein herausragendes
musikalisches Element zahlreicher seiner
Filmmusiken. So kam es z.B. in dem 1945
Abb. 12: Spellbound (1945) - Rósza gewann
erschienenen Film The Lost Weekend sowie in seiner
den Oscar für die beste Filmmusik
Oscar prämierten Filmmusik zu Spellbound (dt. Ich
kämpfe um dich) zum Einsatz. 54 Rósza etablierte sich als einer der führenden Hollywood
Komponisten und wurde unter anderem mit drei Oscars (1946 – Spellbound, 1948 – Ein
Doppelleben, 1960 – Ben Hur) prämiert. Mit über 100 Tonträger gehört Miklos Rósza zu den am
besten diskografisch dokumentierten Filmkomponisten überhaupt.55

Track 04: Miklos Rósza – Spellbound Main Theme

Laut des Filmwissenschaftlers Jack Sullivan ist die Filmmusik zu Spellbound sowohl die
romantischste als auch die unheimlichste Musik eines Hitchcock-Films. Das Audiobeispiel 04 zeigt
das Hauptthema, das direkt mit dem Einsatz des Theremins beginnt. Rósza verkörpert mit dem

54
Vgl. https://de.wikipedia.org/wiki/Theremin#Science-Fiction-Filmmusik. Zugriff: 18. Oktober 2017
55
Vgl. https://de.wikipedia.org/wiki/Mikl%C3%B3s_R%C3%B3zsa. Zugriff: 18. Oktober 2017

40
5. Evolution des Modern Hybrid Scoring

Klang des Theremins die Ängste und Identitätskrisen der Protagonisten.56 Somit nutzte er die
Klangfarbe des Theremins zur einer Klangerweiterung, die in dieser neuartigen Form bis dato mit
dem akustischen Klangkörper Orchester nicht abzubilden war. Da das Theremin gezielt mit
akustischen Elementen verknüpft wird, ist dieses Beispiel als frühe Form des hybriden Scorings
einzustufen. Unter anderem führte dieser Score das Theremin und dessen Verwendung in
unheimlichen und spannungsvollen Szenen in die Filmmusik Hollywoods ein. 57 Die sicherlich
bekannteste Verwendung des Theremins findet man im Thema der Science-Fiction Serien Star
Trek aus den Jahren 1966–1969. 58 Der Komponist Alexander Courage nutzte den Klang des
Theremins in einem orchestralen Zusammenhang um eine spezielle, nicht vom Orchester
abzubildende Klangfarbe zu generieren. Somit konnte er mit Hilfe des Klanges die Weiten des
Weltalls optimal abbilden. Das Audiobeispiel 05 zeigt ab 00:30 Sek die Verwendung des
Theremins als Solo Instrument im orchestralen Kontext.

Track 05: Star Trek Original Series – Intro

Nach den Höhepunkten in den 1960ern verschwand der Klang des Theremins für einige
Jahrzehnte aus der breiten Öffentlichkeit und war in den 1970ern fast komplett aus dem
Bewusstsein verdrängt worden. Erst in den 1990ern begann eine Art Renaissance. So richtete
1992 das Moskauer Konservatorium ein Theremin-Zentrum ein und der amerikanische
Filmemacher Steven Martin produzierte den preisgekrönten Dokumentarfilm Theremin: An
Electronic Odyssey. Auch in die Filmmusik kehrte das Theremin zurück und war unter anderem in
Mars Attacks (1996), Charlie und die Schokoladenfabrik (2005) und The Machinist (2004) wieder
zu hören.59

56
Vgl. https://de.wikipedia.org/wiki/Ich_k%C3%A4mpfe_um_dich. Zugriff: 18. Oktober 2017
57
[Barnett2010] S. 79
58
Produktion und Drehbuch von Gene Roddenberry (1924 - 1991)
59
Vgl. https://de.wikipedia.org/wiki/Theremin. Zugriff: 18. Oktober 2017

41
5. Evolution des Modern Hybrid Scoring

5.2.2 Vangelis und seine Bedeutung in der Filmmusik

5.2.2.1 Allgemeines

Abb. 13: Vangelis im Tonstudio

Vangelis (*1943 in Agria, Griechenland) ist ein griechischer Komponist und gilt als einer der
Pioniere der elektronischen Musik. Schon im Alter von 4 Jahren begann er Musik zu komponieren
und sich größtenteils als Autodidakt sein musikalisches Wissen anzueignen. Nach den frühen
Erfolgen und mehrerer Hitsingles seiner Progressive-Rock-Gruppe Aphrodite‘s Child, sowie der
Veröffentlichung des Konzeptalbums 666, welches bis heute noch als ein Klassiker des Progressive
Rock gilt, begann Vangelis seine Solokarriere 1973 mit dem Schreiben von Filmmusiken.60 Seine
Faszination und Leidenschaft für individuelle, synthetische Klänge ist als essentielles Kernelement
in allen seinen Arbeiten zu hören. Vangelis setzte in seiner Schaffensphase vor allem den
berühmten Klangerzeuger von Yamaha CS-80 ein. Der weltweite Durchbruch kam im Jahr 1982

60
Vgl. https://de.wikipedia.org/wiki/Vangelis. Zugriff: 20. Oktober 2017

42
5. Evolution des Modern Hybrid Scoring

mit seiner Oscar prämierten Filmmusik zu Chariots of Fire61 (dt. Die Stunde des Siegers). Seine
Musik zu dem Sportlerfilm ist eine weltweit bekannte Melodie, die bis heute in zahlreichen Filmen
zur musikalischen Unterstützung von Slow-Motion-Sequenzen dient. Es war auch die erste
Synthesizer-Filmmusik überhaupt die einen Oscar gewann. Die Synthesizer-Musik gewann dank
Vangelis in Hollywood einen enormen künstlerischen Stellenwert. Er ebnete nicht nur den Weg
für eine ganze Generation von Komponisten, sondern führte vielmehr ein neuartiges Klangidiom
in der Filmmusik ein. Es folgten weitere große Musiken wie der Score zu Blade Runner oder zum
Abenteuerfilm 1492: Conquest of Paradise (dt. 1492 – Die Eroberung des Paradieses). 62

5.2.2.2 Chariots of Fire – Meilenstein in der Filmmusikgeschichte

Auch wenn Vangelis hauptsächlich als Pionier der elektronischen Musik gilt, war die
beeindruckende Art und Weise wie er Synthesizer und elektronisch erzeugte Klänge im
filmmusikalischen Kontext verwendete absolut neuartig. Die sicherlich bekannteste Filmmusik
von Vangelis ist der Score zur Chariots of Fire. Das folgende Audiobeispiel ist daher das
weltberühmte Hauptthema, ein Meilenstein in der Filmmusikgeschichte. Vangelis nutzte
synthetische Klangerzeuger auf eine neuartige Weise um orchestrale Klangeindrücke möglichst
authentisch zu imitieren.

Track 06: Chariots of Fire - Vangelis

Dieses ist ein Beispiel dafür wie orchestrale Musik, elektronische Musik beeinflussen kann, denn
im vorliegenden Fall orientieren sich die synthetisch erzeugten Klänge ganz bewusst an den
akustischen Klängen des Orchesters. Exemplarisch kann dieses an Hand des vorliegenden
Audiobeispiel 06 an der Imitation der Blechbläser durch Synthesizerklänge nachvollzogen
werden. Das Klavier fungiert hörbar als akustische Ebene.

61
Regie: Hugh Hudson. Erscheinungsjahr: 1981
62
Regie: Ridley Scott. Erscheinungsjahr: 1992

43
5. Evolution des Modern Hybrid Scoring

5.2.3 Hans Zimmer und der Sound von Hollywood

5.2.3.1 Allgemeines

„Er muss einfach Neues erschaffen“ (Gore Verbinski) 63

Abb. 14: Hans Zimmer (einer der aktuell bedeutendsten Filmkomponisten Hollywoods)

Hans Zimmer zählt zu den erfolgreichsten und meist beschäftigten Komponisten weltweit.
Nachdem er Anfang der 80er Jahre mit seiner Popband The Buggles seinen ersten Hit mit Video
killed the Radio Star landen konnte, begann er kurze Zeit später nach einer längeren
Zusammenarbeit mit dem britischen Komponisten Stanley Meyers in London, mit seiner Solo
Karriere in Hollywood. Der erste Auftrag aus den USA kam mit "Miss Daisy und ihr Chauffeur"
zustande und mit dem Soundtrack zu Barry Levinsons Rain Man gelang ihm endgültig der

63
Quelle: DVD - Hans Zimmer: Der Sound für Hollywood (2011)-Gore Verbinski (Regisseur) bei 00:10Sek

44
5. Evolution des Modern Hybrid Scoring

Durchbruch. Mit der Musik zu Rain Man (Oscar Nominierung 1989) und seiner zu dieser Zeit
einzigartigen und innovativen Kombination von Orchester- und Synthesizerklängen, prägt und
beeinflusst er bis heute noch viele Komponisten. Gemeinsam mit Jay Rifkin gründete er 1989 das
Studio Media Ventures in Santa Monica unweit der großen Hollywood-Studios. Es wurde später
nach einem Rechtsstreit zwischen den Beiden in Remote Control Productions umbenannt.64 Mit
einem Stamm ausgezeichneter Musiker, Komponisten, Arrangeuren, Orchestratoren und Audio-
Ingenieuren in einem Haus, schuf er sich alle Möglichkeiten, große und komplexe Filmprojekte in
seiner Firma verwirklichen zu können. Ein weltweiter Erfolg war schließlich 1994 die Musik zu The
Lion King, die mit einem Oscar und einem Golden Globe ausgezeichnet wurde. Er arbeitet seit
1997 eng mit den von Steven Spielberg gegründeten Filmstudios von DreamWorks zusammen,
schrieb unter anderem die Filmmusiken zu The Prince Of Egypt (1998), Gladiator (2000), und
Black Hawk Down (2002).65 Mit der im Jahre 2004 erstmaligen Zusammenarbeit mit Filmemacher
Christopher Nolan begann eine weitere erfolgreiche Ära in der Schaffensphase
Zimmers.66Darüber hinaus tritt er, begleitet von Chor, Orchester und Live-Band mittlerweile live
in Erscheinung, wo er Ausschnitte aus einigen seiner bekanntesten Soundtracks aufführt.

Traditionelle Filmkomponisten präsentierten den Regisseuren Teile ihrer Komposition am


Klavier und erst während der Orchesteraufnahmen für den Film, setzte sich das Gesamtbild der
Musik zusammen. Hans Zimmer ist jedoch sehr von elektronischer Musik sowie technologischen
Erfindungen geprägt. Er war einer der ersten Komponisten, die mit eigenen Sample-basierten
digitalen Orchesterklängen in ihren Studios arbeiteten und somit in der Lage waren, ihren Kunden
komplett vorproduzierte, realistische Mockups67 zu präsentieren.68 Zimmer gilt vor allem wegen
seiner innovativen und experimentellen Kombination von Orchester- und Synthesizer-Klängen als
Erneuerer und Erfinder eines stagnierenden Genres.

64
Vgl. http://www.studioexpresso.com/Spotlight%20Archive/Spotlight-Media%20Venture.htm Zugriff: 20.
Oktober 2017
65
Vgl. http://www.klassikakzente.de/hans-zimmer/biografie. Zugriff: 20. Oktober 2017.
66
Vgl. https://www.moviepilot.de/news/hans-zimmer-und-christopher-nolan-das-dream-team-hollywoods-
195361#. Zugriff: 20. Oktober 2017.
67
Mockup beschreibt im filmmusikalischem Kontext einen elektronischen bzw. digitalen Entwurf eines
Musikstückes.
68
Vgl. DVD – Hans Zimmer - der Sound für Hollywood. Regie: Ariane Riecker. Erscheinungsjahr: 2011

45
5. Evolution des Modern Hybrid Scoring

5.2.3.2 Hans Zimmer und sein besonderer Sound

5.2.3.2.1 Backdraft – Wall-to-Wall-Score

Ron Howards Spielfilm Backdraft – Männer die durchs Feuer gehen aus dem Jahre 1991, gilt
als Meilenstein der Filmmusikgeschichte. Das besondere an Zimmers Arbeit war und ist, seine
außergewöhnliche Art Actionfilme zu vertonen. Zimmers Entscheidung fast den gesamten Film
mit Musik zu unterlegen (Wall-to-Wall-Score), schuf den Prototyp für viele darauffolgende Action-
Filmmusiken in Hollywood. Diese Arbeit zeichnet sich aus durch ein großes, mächtig auftretendes
Hauptthema, rhythmisch unterschiedlicher Action-Motive und kleinere, mildere Passagen für
verschiedene Figuren. Das nachfolgende Beispiel zeigt anhand des Final Themes von Backdraft
noch einmal eindrücklich die Merkmale dieser Technik auf. Auffallend ist auch die Verwendung
von dichten Perkussionsklänge, für die Zimmer inzwischen sehr bekannt ist.

Track 07: Final Theme - Backdraft

5.2.3.2.2 Batman – The Dark Knight69

Der Soundtrack von Batman – The Dark Knight ist ein Paradebeispiel für heutiges Modern
Hybrid Scoring. In diesem Score vereint Hans Zimmer in Zusammenarbeit mit dem Komponisten
James Newton Howard gezielt Synthesizer, Samples, Orchesterklänge wie schwere Blechbläser
und Streicher, treibende pulsierende Rhythmen, hybride Perkussionsklänge und Soundtexturen,
und erzeugt eine permanent anhaltende Spannung über den gesamten Film. Ein beeindruckendes
Beispiel hinsichtlich moderner hybrider Klangidiome ist die Komposition Why so serious. In
diesem Audiobeispiel liegt das Augenmerk auf der klanglichen Abbildung des Joker Motivs und
den dazugehörigen Komponenten.

69
Regie: Christopher Nolan. Erscheinungsjahr: 2008

46
5. Evolution des Modern Hybrid Scoring

Track 08: Why so serious - The Dark Knight

„Ich fragte mich: Was passiert, wenn wir die Stimmung nicht durch das Zusammenspiel
verschiedener Noten erzeugen, sondern innerhalb einer Note. Ich habe für den Cellisten alles
sorgfältig aufgeschrieben. Es sollte leicht besorgt beginnen, wütender werden, und am Ende
macht man sich vor Angst in die Hosen.“ (Hans Zimmer)70

Aus kompositionstechnischer Perspektive ist die Grundidee ein Leitmotiv mit nur einer
einzigen Note abzubilden sehr simpel und banal. Jedoch liegt die Besonderheit dieses Motivs zum
einen in der soundtechnischen Abbildung (Verwendung von verzerrenden und pegelorientierten
Effekten) des Cello Klanges und zum anderen in der Art und Weise wie diese eine Note sich über
eine gewisse Zeitperiode stetig entwickelt.

5.2.3.2.3 Interstellar Soundtrack71

Ein Forschungsteam reist durch ein Wurmloch und versucht einen Planeten zu finden, auf
dem die Menschheit nach dem drohenden Kollaps der Erde weiter existieren kann. Nach
Inception und der Batman-Trilogie ist der Film Interstellar die fünfte Zusammenarbeit von
Filmemacher Christopher Nolan und Zimmer. Dieser Soundtrack bildet für Nolan einen
essentiellen Teil seiner Erzählweise ab. Mehr als in anderen Filmen, stellt Interstellar nicht die
Darsteller, sondern Optik und Klang in den Vordergrund des Geschehens. Beide Ebenen gehen
nahezu Hand in Hand.72

70
Quelle: https://www.moviepilot.de/news/hans-zimmer-und-christopher-nolan-das-dream-team-
hollywoods-195361#. Zugriff: 20. Oktober 2017
71
Regie: Christopher Nolan. Erscheinungsjahr: 2014
72
Vgl. http://www.laut.de/Hans-Zimmer/Alben/Interstellar-94947. Zugriff: 21. Oktober 2017

47
5. Evolution des Modern Hybrid Scoring

"Ich habe immer schon Filme geliebt, die Sound auch auf eine impressionistische Weise
einsetzen", erklärt Nolan. "Ich weiß, dass das eine ungewöhnliche Herangehensweise für einen
Hollywood-Blockbuster ist, aber ich empfinde es als vollkommen richtig für einen solch
experimentellen Film." (Christopher Nolan)73

Insgesamt ist der Soundtrack von Interstellar in keiner Weise als subtil zu betrachten. Zimmer
kreiert eine einzigartige, experimentelle,
hybride Klangkulisse, die mit dem Einsatz
der Kirchenorgel, diversen Chorklänge und
vollem Orchesterklang eine enorme
emotionale Tiefe und im späteren Verlauf
Kraft, entfaltet. Das Audiobeispiel 09, das
einmal mehr Zimmers innovative Art und
Weise der Verwendung moderner hybrider
Klangsysteme wiedergibt, ist die
Komposition Mountain. Die Szene spielt auf
einem Planeten in der die Zeit viel schneller
vergeht als auf der Erde. Zimmer beschreibt
durch den tick/tock Rhythmus die
verstreichende Zeit. Im weiteren Verlauf
Abb. 15: Interstellar Orgel - Temple Church Organ, London.
steigert sich das Stück dramatisch, durch
den Einsatz von Chören, Orchester und einer Kirchenorgel.

Track 09: Mountains – Interstellar

Ein weiteres Klangbeispiel ist die Komposition Stay. In diesem Stück ist der experimentelle
und mutige Einsatz der Kirchenorgel hervorzuheben. Einmal mehr beweist Zimmer seine

73
http://www.laut.de/Hans-Zimmer/Alben/Interstellar-94947

48
5. Evolution des Modern Hybrid Scoring

innovative Art verschiedenste Klangelemente zu einem Ganzen zu kombinieren. Bemerkenswert


sind auch die sich stetig bewegenden, organischen Klangtexturen zu Beginn des Stückes. Stay
entwickelt zudem im Verlauf des Stückes eine enorme emotionale Kraft, die eben durch die
Einfachheit aber tief empfundenen Aufrichtigkeit der Komposition generiert wird.

Track 10: Stay – Interstellar

49
5. Evolution des Modern Hybrid Scoring

5.3 Einfluss hybrider Klangidiome in der Video Games Musik

„Jedes Medium hat seine Zeit. Kassettenrecorder und -bänder gibt es heute nicht mehr, aber die
Musik verschwand nicht, sie wurde digitalisiert. Dasselbe gilt für Filme und Bücher. Sie gehen
von einem Format in ein anderes über. Bei Videospielen verläuft die Entwicklung genauso. Sie
werden sich stetig verändern und weiterentwickeln und immer ein Teil der Weltkultur bleiben. In
100 oder 200 Jahren wird es immer noch Videospiele geben.“
(Hideo Kojima, Creator, Metal Gear Solid)74

5.3.1 Rückblicke und Meilensteine

1962 entwickelte das Institute of Technology, Massachusetts den ersten Computer mit
visuellem Display (PDP-1). Steve Russel entwickelte auf dieser Konsole das Spiel Spacewar. Mit
dem 1972 von Atari veröffentlichten Spiel Pong hielten die Videospiele Einzug in das heimische
Wohnzimmer. Das von Nolan Bushnell gegründete Unternehmen Atari erschloss damit einen
komplett neuen Markt. Die von Atari entwickelte Konsole basierte auf einem Schaltkreis, der auch
einen Sound Chip enthielt. 75 In der Folge wurden diese Konsolen und später auch die
Heimcomputer immer komplexer. Neue Computermodelle wie der „C64“ und der „Amiga“ von
Commodore, die als Heimcomputer Mitte der 1980er bis Anfang/Mitte der 1990er sehr verbreitet
und beliebt waren, hatten für ihre Zeit ein bereits leistungsfähiges, präemptives Multitasking-
Betriebssystem.76 Mit den spezialisierten Custom-Chips begründete Commodore eine zu seiner
Zeit sehr fortschrittliche Grafik- und Soundarchitektur. Aufgrund der fortgeschrittenen
Soundchips bildete der Terminus „Chiptune“ ein eigenes Genre innerhalb der Computer erstellten
Musik, dessen Klang sehr charakteristisch künstlich ist. Darüber hinaus bot sie aber Komponisten

74
Quelle: aus dem Film: Video Games: The Movie. Erscheinungsdatum: 15. Juli 2014
Regie: Jeremy Snead
75
Vgl. Wikipedia: Entwicklung der Videospiele/Pong Zugriff: 11. September 2017
76
Präemptives Multitasking: Es handelt sich um die Form des Multitaskings, bei der das Betriebssystem
periodisch die Ausführung eines Programms unterbricht und die Steuerung des Systems an ein
wartendes Programm übergibt

50
5. Evolution des Modern Hybrid Scoring

und Musikern auch bereits die Möglichkeit, mit Samples zu arbeiten und verschaffte ihnen eine
größere Freiheit hinsichtlich der Klanggestaltung.77 Dabei prallten die kompositorischen Ideen auf
die minimalistischen Gestaltungsmittel der ersten Soundchips und eine Klangpalette, mit der sich
akustische Instrumente oder rein orchestrale Klänge nur andeuten ließen. Allgemein waren
Soundchips bis Mitte der 1990er Jahre die einzige Möglichkeit in 8- und 16-Bit-Umgebungen
ressourcenschonend Klänge und Videogames Musik zu generieren. Infolgedessen wurden sie
vielfach in Computerspielsystemen und PC-Soundkarten verbaut, obwohl die technisch bedingten
Grenzen der Klangqualität und der musikalischen Flexibilität nicht zu überhören sind.78 Mit der
Zeit und dem Fortschritt der Technologie wurden aus 8 Bits 16, dann 32 und so weiter. Mit jedem

Quantensprung in der Grafik und im Sound wurden die Spiele immer immersiver. 79

Abb. 16: PONG - Erste Spielekonsole weltweit der Entwickler Atari (1972)

Die Grenzen der Technik beflügelten die Kunstform und umgekehrt. Nach einigen
erfolgreichen Entwicklungen und Popularisierungen diverser Spielekonsolen, war mit der

77
Vgl. https://de.wikipedia.org/wiki/Chiptune. Zugriff: 12. September 2017
78
Vgl. [Dittbrenner2007]
79
Vgl. https://www.gamespot.com/articles/a-history-of-video-game-music/1100-6092391/. Zugriff: 11.
September 2017

51
5. Evolution des Modern Hybrid Scoring

weltweiten Veröffentlichung der Sony Playstation 1 im Jahre 1994 erstmals die Verwendung von
Musik in CD Qualität in Videospielen möglich. Zum Erfolg der Playstation hat sicherlich auch die
Tatsache beigetragen, dass die Videospiele auf CD-ROMs und nun nicht mehr auf Modulen
ausgeliefert wurden. Damit einhergehend brachte diese Erneuerung die volle Audioqualität von
44.1 KHz und 16bit mit sich. Mit dieser technologischen Erfindung öffneten sich für die Musik in
Videospielen dieselben Produktionsprozesse die auch in der Musikproduktion für Film- und
Fernsehen eingesetzt wurden. Es musste somit keine Rücksicht mehr auf technische
Restriktionen genommen werden.80

Abb. 17: Sony Playstation 1 (1996)

Ein Beispiel für die Verwendung von CD-Audio, ist das Videospiel Heart of Darkness 81 . In
diesem Spiel wurde die orchestrale Musik von der CD abgespielt, was aber die Flexibilität der
Nutzung der Musik innerhalb des Spiels deutlich einschränkte. Im nächsten Schritt musste die
Musik so in das Spiel integriert werden, dass sie frei manipulierbar war. Die Musik musste in
digitaler Form (z.B als WAV oder MP3) vorliegen. Während zu Beginn der Videogames Geschichte
aus technischen Gründen ausschließlich auf synthetische Klänge zurückgegriffen wurde, werden
heutige Games Musiken häufig mit echten Orchestern aufgenommen. Der Soundtrack des

80
Vgl. Quelle: Video Games: The Movie. Erscheinungsdatum: 15. Juli 2014. Regie: Jeremy Snead
81
Veröffentlicht von Infogrames & Ocean Software. Entwickler: Amazing Studio. Erscheinungsjahr: 1998
Komposition: Bruce Broughton

52
5. Evolution des Modern Hybrid Scoring

Science-Fiction-Spiels Outcast aus dem Jahre 1999 war eine der ersten Produktionen mit rein
orchestraler Musik. Der von Lennie Moore komponierte Soundtrack wurde vom Moskauer
Sinfonieorchester mitsamt einem Chor eingespielt. Mit der Vertonung des Videospiels Metal Gear
Solid 2 aus dem Jahre 2002 begann nun auch Hollywood Einzug in diese Branche zu nehmen.
Harry Gregson Williams war einer der ersten bekannten Hollywood Komponisten überhaupt, der
einen Score für ein Videospiel komponierte. In dem kurzen Ausschnitt des Interviews für
Wordpress erklärt Williams, wie er als erster Hollywood Komponist in Berührung mit der
Videospiel Branche kam und welche Besonderheiten diese mit sich brachten.

„I think I was one of the first Hollywood film composers to do the music for a game – and that
was what the director of the game really wanted – his game to sound like it was a Hollywood
movie, an action movie. And that’s why he came to me, but to begin with it was quite primitive.
Because it’s not a film, he wasn’t able to send me the film, and that’s my normal working
process, would be to start with… hello!… the film. So, if ever I’m stuck with my work, I go to look
up at the screen and learn something, and bounce off that.“82

Abb. 18: Harry-Gregson Williams

82
Vgl. https://winifredphillips.wordpress.com/2014/01/30/harry-gregson-williams-talks-video-games/
Zugriff: 18. Oktober 2017

53
5. Evolution des Modern Hybrid Scoring

Aufwändige Hybridproduktionen wie Metal Gear Solid 2 haben den Klang und die
Produktionsqualität von Musik in Videospielen maßgeblich und nachhaltig geprägt. Dieser Klang
wurde sowohl in der Film- wie auch in der Games-Musik weiterentwickelt. Aktuell werden viele
Scores unter Verwendung ständig neuer hybrider Sounds und Techniken aufwändig produziert.

5.3.2 Ausgewählte Games Komponisten

5.3.2.1 Chris Huelsbeck

„Ich war zu 70 Prozent Programmierer und zu 30 Prozent Musiker. Ich bin Autodidakt und habe
nie Musik studiert. Aber die Kombination aus Musik machen als Hobby und Programmieren auf
höchster Ebene, so dass man das meiste aus so einem Gerät rausholen konnte, das war die
gewinnbringende Kombination“. (Chris Hülsbeck)83

Mit dem im Jahre 1986 für den Commodore 64 komponierten Song Shades gelang es
Hülsbeck den ersten Platz eines Wettbewerbes der Computerzeitschrift 64èr84 zu belegen. Ab
1989 schrieb Hülsbeck die ersten Soundtracks für den Commodore Amiga und erreichte vor
allem mit seiner Musik zu den Spielen Turrican und Turrican 2 Kultstatus in der Videospiele-Szene.
Als einer der ersten Games Komponisten schaffte er es, auf dem damals dreistimmigen C64 einen
vierten Samplingkanal zu programmieren, der durch cleveres Hin- und Herschalten sogar den
Eindruck einer fünften Stimme schuf. Auf dem Amiga konnte er aus normalerweise 4-stimmigen
Chips sogar bis zu sieben Stimmen herausholen. Dadurch war das gleichzeitige Abspielen von
Drum-Samples und Basstönen möglich. 85 Mit dem Science-Fiction Run-and-Gun Videospiel
Turrican von Rainbow Arts aus dem Jahre 1990 reizte Hülsbeck alle technologischen
Möglichkeiten seiner Zeit aus um den Soundtrack zu realisieren. Turrican erregte vor allem

83
Quelle: Interview – https://digitalista.de/interviews/2015/Februar/11/chris-hulsbeck-uber-turrican-great-
giana-sisters-1.html. Zugriff: 21. Oktober 2017
84
64‘er ist die Bezeichnung eines deutschsprachigen monatlich erschienenen Computermagazins für
den Commodore 64 aus dem Markt & Technik Verlag. Magazinausgabe: 01/1985 – 05/1994
85
Vgl. https://de.wikipedia.org/wiki/Chris_H%C3%Bclsbeck. Zugriff: 21. Oktober 2017

54
5. Evolution des Modern Hybrid Scoring

Aufsehen für die damals, auf dem C64 für unmöglich gehaltene, technische Perfektion. In der für
den Amiga portierten Version des Spiels, wurden sämtliche Coprozessoren (der Amiga hatte drei)
ausgereizt, so dass sie grafisch und musikalisch bis heute als Revolution in der Videospiel-Szene
gilt. Das Spiel war für lange Zeit auf dem Amiga das Maß aller Dinge, bis Turrican 2 veröffentlicht
wurde. Mit dem Ending Song für Turrican 2 hat Chris Hülsbeck erstmalig das oben erwähnte
Abspielsystem für die 7 Stimmen eingesetzt, weshalb dieser Soundtrack auch zu den
Meilensteinen in der Videogames Geschichte gezählt wird.86

Track 11: Turrican 2 – Ending Song

Wie im Audiobeispiel 11 zu hören ist, waren zwar diverse kompositorische


Gestaltungsmöglichkeiten, wie die der Mehrstimmigkeit, durch die damalige Technologie
eingeschränkt, trotzdem wurden die Soundtracks von den Fans als große und vollwertige
Kompositionen wahrgenommen. 2016 wurden anlässlich des 25. Jubiläums der Soundtrack-CD
Spielereihe Turrican 2, ein Live orchestrales Album aufgenommen. Es zeigt, dass sich die alten,
originalen Kompositionen sehr schön auf moderne, große akustische Klangkörper übertragen
lassen. Im Audiobeispiel 12 ist das Turrican 2 Main Theme als orchestrale Version zu hören.

Track 12: Turrican 2 – The Final Fight (Renderings – Main Theme)

86
Vgl. https://digitalista.de/interviews/2015/Februar/11/chris-hulsbeck-uber-turrican-great-giana-sisters-
1.html. Zugriff: 21. Oktober 2017

55
5. Evolution des Modern Hybrid Scoring

5.3.2.2 Olivier Deriviére

Olivier Deriviere ist ein französischer Komponist, der vor allem durch seine Arbeiten zu Alone
in the Dark, Obscure und Remember Me für internationales Aufsehen in der Videogames
Industrie sorgte. Letzteres gewann 2013 den angesehenen IFMCA Award für „Best Original Score
for a Video Games or Interactive Media“.87

Mit dem Soundtrack zum Cyberpunk-Adventure-Videospiel Remember Me von Dontnod


Entertainment aus dem Jahre 2013 ist es Deriviére gelungen, eine neuartige Herangehensweise
in der Vertonung von Videospielen einzuführen. Der Soundtrack zum Spiel ist im Ursprung ein
rein orchestraler, der dann aber durch gezielte digitale Audiomanipulationen und diverse
Audioeffekte bearbeitet wurde. Die akustische Klangquelle des Soundtracks basiert auf den
originalen Eigenkompositionen von Deriviére, die vom Philharmonia Orchester in London
eingespielt wurden. Laut Aussage von Deriviére soll jeder einzelne Musikeinsatz das Spielerlebnis
optimal unterstützen.88 Zum einen soll natürlich die Geschichte musikalisch unterstützt werden,
zum anderen werden aber auch die Bewegungsabläufe der Spielfigur gezielt mit spezifischen
Musikstücken (Cues) gekoppelt. Technisch umgesetzt werden diese Verknüpfungen mit
sogenannter Audio-Middleware. Diese Middleware existiert als eigenständige Software, die
zwischen der Musik, den Soundeffekten und anderen Klangquellen und der Engine des Spieles
vermittelt.89 Als Beispiel seien hier nur Applikationen wie Wwise von Audiokinetic oder FMOD
genannt. Remember Me ist ein ausgezeichnetes Beispiel dafür, das Modern Hybrid Scoring über
den Klang hinaus, auch eine Spiel-relevante Funktion einnehmen kann.

Track 13: Nilin the Memory Hunter

87
Vgl. http://filmmusiccritics.org/2014/02/ifmca-winners-2013/. Zugriff: 21. Oktober 2017
88
Vgl. http://www.gamezone.com/originals/interview-composer-olivier-deriviere-talks-the-unique-
soundtrack-of-remember-me. Zugriff: 21. Oktober 2017
89
Middleware bezeichnet in der Informatik anwendungsneutrale Programme, die so zwischen
Anwendungen vermitteln, dass die Komplexität dieser Applikationen und ihre Infrastruktur verborgen
werden. Vgl. https://de.wikipedia.org/wiki/Middleware. Zugriff: 21. Oktober 2017

56
5. Evolution des Modern Hybrid Scoring

Das Hauptthema Nilin the Memory Hunter im Audiobeispiel 13 veranschaulicht die gezielte
Audioverfremdung der orchestralen Aufnahmen.

5.3.2.3 Jason Graves

Jason Graves gehört zu den erfolgreichsten Games Komponisten der Spieleindustrie. Seit
Beginn seiner Karriere im Jahre 1993, vertonte Graves erfolgreiche Videospiele wie Dead Space
1-3, Alpha Protocol, Tomb Raider, The Order: 1886, Until Dawn oder den bekannten Ego-Shooter
Far Cry Primal. 90 Seinen internationalen Durchbruch in der Branche errang Graves mit der
Vertonung des Sci-Fiction Horror Spiels Dead Space 91 im Jahr 2008. Die Besonderheit dieses
Scores war die verschwommene Grenze zwischen dem Sound Design und der kompositorisch,
musikalischen Ebene. Jason Graves legte seinen gesamten Score als eine große, atmosphärische
Klangfläche mit sehr vielen Effekt behafteten Elementen an. Natürlich unterstützte die Musik die
Atmosphären und die Handlungen im Videospiel, jedoch wurde diese Ziel weniger durch das
Thema als vielmehr durch starke, strukturelle Elemente erreicht. Somit fungiert die Musik wie
ein musikalisches Sound Design, das in keinem Spiel zuvor so konsequent und in einer solchen
Qualität Verwendung fand.92

Das nächste Audiobeispiel The Necromorphs Attacks zeigt diese "verschmierte“ Grenze
zwischen den Bestandteilen des Sound Design und der Verwendung des Orchesterapparates
einmal explizit auf. Die Interpretation der Instrumente wie z.B. der Streicher oder der Blechbläser
wirken in großen Teilen wie Sound Effekte oder Texturen. Die Kompositionstechnik orientiert sich
hier sehr an der Form der Aleatorik. Nicht nur auf der Ebene der Komposition, die beispielsweise
mit schlagartigen Tempiwechseln oder unvorhersehbaren rhythmischen Wechseln in der
Perkussionsebene stattfinden, sondern auch auf der Ebene der Interpretation der Instrumente,
sind diesbezüglich kompositorische Merkmale zu verzeichnen. Von einer leichten Form der

90
Vgl. https://en.wikipedia.org/wiki/Jason_Graves. Zugriff: 21. Oktober 2017
91
Veröffentlicht von: Electronic Arts. Entwickler: EA Redwood Shores/Visceral Games. Erscheinungsjahr:
2008
92
Vgl. https://en.wikipedia.org/wiki/Dead_Space_Original_Soundtrack. Zugriff: 26. Oktober 2017

57
5. Evolution des Modern Hybrid Scoring

Unbestimmtheit des Zufalls in der Streicher- und Blechebene bis hin zu einer fast vollkommen
freien Interpretation verschiedener textueller Effekte, bedient sich Graves hier der musikalischen
Gestaltungsmöglichkeiten aleatorischer Kompositionen im hybriden Klangkontext.

Track 14: The Necromorphs Attack – Dead Space 1

Ein weiterer ausgewählter Score ist die Musik zum Science-Fiction Videospiel Dead Space 293.
Der Soundtrack wurde 2011 mit insgesamt 18 Titeln veröffentlicht. Während der Score zum ersten
Teil eher chaotisch, aleatorisch, Effekt orientiert und sehr klaustrophobisch abbildet, definiert
sich der Nachfolger mit einem deutlich größeren und fülligeren Gesamtklang. Für den
Hauptprotagonisten des Spiels „Issac Clarke“ schrieb Graves ein Leitmotiv unter ausschließlicher
Verwendung der Töne „D-E-A-D“, natürlich als Ausdruck des Titels und des Themas des Spiels
„DEAD“. Besonderheit der Musik ist der gezielte Kontrast zwischen der Verwendung eines großen,
aggressiven, schärfer klingenden hybriden Orchesterklangs und dem sehr intimen Streichquartett.
Der intime Streicherklang bildet die emotionale Nähe zu Issac ab während der gewaltige
Orchesterapparat die „Nekromorphs“94 verkörpern soll.

Track 15: Welcome to the Sprawl – Dead Space 2

Das nun erklingende Hauptthema Welcome to the Sprawl zeigt die Kontrastierung zwischen dem
intimen Streichorchester und dem großen, mächtigen Orchesterapparat auf. Ab 02:55 beginnt
der massive Einsatz des Orchesters und bildet in beeindruckender Weise mittels
Orchestereffekten die Aggressivität und Bedrohung der Nekromorphs ab.

93
Veröffentlicht von: Electronic Arts. Entwickler: EA Redwood Shores/Visceral Games. Erscheinungsjahr:
2011
94
Nekromorphs sind die wiederbelebten Körper der Toten, die durch eine rekombinante außerirdische
Infektion in grausam entstellte Mutanten verdreht wurden

58
5. Evolution des Modern Hybrid Scoring

5.4 Einfluss hybrider Klangidiome in der Trailer-Musik

5.4.1 Allgemeine Informationen

Die relativ junge Trailer-Musikindustrie


definiert sich durch die musikalische
Untermalung von Trailern für Medien wie
Kinofilme, Videospiele, oder
Fernsehserien. Ein Trailer ist ein sich aus
verschiedenen Passagen des zu
bewerbenden Medienproduktes (z.b.
eines Films oder Videospiels)
zusammensetzender Videoclip, der
meistens eine Durchschnittslänge von
Abb. 19: Immediate Music - Eines der ersten Trailer-
2.30 Minuten aufweist. Trailer dienen der
Musiklabels
Werbung und Ankündigung von Kino-, TV-
Filmen oder Computerspielen. Ziel der Trailer-Musik ist es, in kurzer Zeit die Aufmerksamkeit des
Hörers bzw. des Zuschauers zu erreichen.95 Hybrid Scoring ist gerade in dieser Industrie ein häufig
verwendetes Klangidiom. Die ersten Trailer-Musik Firmen die Epic & Modern Hybrid Musik
produzierten, wurden in den 1990er Jahren gegründet. Die Produktionsfirma Immediate Music
gehört seit 1993 zu den Marktführern in dieser Branche. Bis 2010 hat sie über 50 Alben und 2000
Tracks veröffentlicht, die jedoch hauptsächlich nur zwischen Firmen der Musik- und Filmindustrie
gehandelt werden und nicht am Endkundenmarkt.96 Da diese Branche mittlerweile sehr stark
angewachsen ist, gibt es viele Komponisten die ganze Sammlungen bzw. Alben von Trailer-
Musiken als Gesamtwerk an die Produktionsfirmen verkaufen. Heutzutage gibt es weit über 50
große Trailer-Musik Unternehmen weltweit, die mit ihren ausschließlich für gewerbliche Kunden
produzierten Trailer-Musiken (in Form einer Industry Release LP), um sogenannte Placements

95
Vgl. https://de.wikipedia.org/wiki/Trailer. Zugriff: 31. August 2017
96
Vgl. https://www.immediatemusic.com/music. Zugriff: 29. August 2017

59
5. Evolution des Modern Hybrid Scoring

konkurrieren.97 Ein Placement beschreibt in dieser Branche die erfolgreiche Verwendung und
Veröffentlichung eines Trailer Stücks für z.B. einen Blockbuster Kinofilm.

5.4.2 Ausgewählte Trailerclips

Wie auch die Videospiel- und Filmmusik, durchlief die Trailer-Musik mehrere
Entwicklungsstadien in kompositorischer und soundtechnischer Hinsicht. Exemplarisch werden
ein paar ausgewählte Trailer-Musiken aufgezeigt und in Relation zu den Forschungsfragen gesetzt.

Das erste ausgewählte Beispiel ist die Trailer-Musik zum US-amerikanischen Fantasy-Halb-
Trickfilm The Pagemaster 98 (dt. Der Pagemaster – Richies fantastische Reise) aus dem Jahr
1994.99 Die Musik hierfür stammt von John Beal, einem der wohl bekanntesten Pioniere der
frühen Trailer-Musik, dessen Werke seit den frühen 1990er in Trailern für mehr als 2000 Filme
(darunter Forrest Gump, Star Wars, Under Siege oder Matrix) benutzt wurden. Beal arbeitete
neben seiner Tätigkeit als Komponist für Trailer-Musik auch als Arrangeur, Dirigent und
Filmkomponist. Ende der 1970er hat er unter anderem erfolgreiche TV-Serien wie Vegas (1972)
oder Chicago Story (1982) vertont.100 Er verwendete in dem vorliegenden Trailer nur orchestrale
Musik.

Video 01: The Pagemaster – Original Trailer 1994 – John Beal

Das Videobeispiel zeigt sehr schön, dass zu Beginn der Entstehung von Trailer-Musiken
üblicherweise mit akustischer Musik, in diesem Fall dem Orchesterklang, gearbeitet wurde. Beal
nutzte aber mit zunehmender Digitalisierung auch digitale Klänge oder Samples, wie im nächsten

97
Quelle: https://evenant/courses/trailermusic. Zugriff: 30. August 2017
98
Regie: Pixote Hunt (Animationsteil), Joe Johnston (Realteil). Originalmusik: James Horner
99
Vgl. https://de.wikipedia.org/wiki/Der_Pagemaster_%E2%80%93_Richies_fantastische_Reise. Zugriff:
31. August 2017
100
Vgl. https://en.wikipedia.org/wiki/John_Beal_(composer)#Career. Zugriff: 31. August 2017

60
5. Evolution des Modern Hybrid Scoring

Beispiel zum Trailer Under Siege 2 aus dem Jahre 1995 zu erkennen ist. Die musikalische Ebene
klingt aus meiner Sicht sehr nach Sample- und Midi gestützter Trailer-Musikproduktion.

Video 02: Under Siege 2 – Original Trailer 1995 – John Beal

Das Pendant zu Trailer-Musiken aus den 1990er Jahren sind zwei aktuelle Trailerclips der
Blockbuster Movies, War for the Planet of the Apes101 und Transformers: The Last Knight102. Diese
Beispiele sollen stellvertretend einen Einblick in den Klang und Aufbau vieler aktueller Trailer-
Musiken geben.

Video 03: War for the Planet of the Apes - Official Trailer 2017

Im Vergleich zu den vorangestellten Beispielen aus den 1990er Jahren, fällt in der
analytischen Betrachtung aktueller Trailer, die hybride Transformation des Gesamtklanges,
sowohl auf der musikalischen als auch auf der Sounddesign- oder Dialog-Ebene, auf. So
beinhaltet beispielsweise die Ebene des Dialogs einen sehr hohen Effektanteil. Im Beispiel 03
sind direkt zu Beginn dominante Panning- und Delay Effekte mit relativ hohem Hallanteil zu hören.
Die musikalische Ebene verdichtet sich stetig, sowohl in horizontaler als auch in vertikaler
Hinsicht. Das Klavier fungiert bis zur Minute 01:01 als akustisches Element, während synthetische
Texturen, Sound-Effekte und hybride Perkussionsklänge den elektronischen Anteil auszeichnen.
Mit Erklingen des charakteristischen Risers (findet mittlerweile als häufig verwendetes hybrides
Steigerungselement Verwendung), wird der Klimax I eingeleitet und die musikalische Ebene wird
im weiteren Verlauf mit Orchester-, massiven Perkussions- und Synthesizerklängen sowie einem
Chor erweitert.

101
Regie: Erscheinungsjahr: 2017
102
Regie: Erscheinungsjahr: 2017

61
5. Evolution des Modern Hybrid Scoring

Video 04: Transformers: The Last Knight – Official Trailer 2017

Neben den bereits erwähnten Klangmöglichkeiten kann auch gezielt die Stimme als hybrides
Klangelement eingesetzt werden. So weist das nächste Videobeispiel 04 ab Minute 00:22, eine
Stimme mit einem stark bearbeiteten Vocoder103 Effekt auf. Die Verfremdung der menschlichen
Stimme findet generell häufig Verwendung in hybriden Trailer-Musiken. Im weiteren Verlauf
verdichten sich ähnlich wie im vorangegangenen Beispiel alle Klangelemente, wie die prägnanten
Synthesizerklänge, die durchsetzungsfähigen Perkussionsinstrumente oder diverse Sound-
Effekte. Zusätzlich zu der Musik, findet die Verwendung hybrider Klangsynthesen und -effekten,
wie die der Granular-Synthese (die zur Abbildung der „Transformer-Klänge“ im Film dienen),
einen wichtigen Anteil der Sounddesign Ebene, wenngleich diese Erkenntnis nicht speziell oder
ausschließlich der Trailer-Musik zuzuordnen ist.

5.4.3 Genres der aktuellen Trailer-Musik und ausgewählte Vertreter

Grundsätzlich können Trailer-Musiken drei unterschiedlichen Genres zugeordnet werden, die


international wie folgt benannt werden:

1. Orchestral Trailer Music (auch Epic Music bzw. Epic Trailer Music)

2. Sound Design Trailer Music (auch SFX Trailermusic)

3. Hybrid Trailer Music (auch Epic Hybrid Music bzw. Hybrid Orchestral Music)

Vocoder: Ein Gerät oder eine Software, mit dem eine Sprechstimme über Tasten polyphon modifiziert
103

werden kann, sodass sie wie ein künstlicher Chor klingt

62
5. Evolution des Modern Hybrid Scoring

Hinweis:
Abgrenzend vom Bereich der Trailer-Musik bilden Epic Music bzw. Epic Hybrid Music auch
eigenständige Genres in der Musikindustrie, die aber ebenso Kompositionen enthalten, die in
Trailern verwendet werden können.

5.4.3.1 Orchestral Trailer Music

Orchestral Trailer Music definiert sich durch epische und heroisch orchestrale Stücke. Oftmals
erfährt der Orchesterapparat Unterstützung durch die Verwendung eines Chores. Dieses Genre
der Trailer-Musik konzentriert sich somit ausschließlich auf die Schaffung einer kraftvollen und
dramatischen Atmosphäre unter Einsatz rein orchestraler, akustischer Klänge.104 Da dieses Genre
durch die Tonaufnahme echter Orchesterklänge deutlich kostspieliger und aufwendiger ist, finden
sich in aktuellen Trailer-Musik Produktionen vor allem Hybrid Trailer Musiken oder Sound Design
Cues. In den früheren Trailer-Musiken war dieses Genre sehr stark vertreten und wurde mit
Aufkommen und zunehmender Popularisierung hochwertiger und preisgünstiger Sample
Libraries immer mehr verdrängt.

5.4.3.2 Sound Design Trailer Music

In diesem Genre geht es vor allem um die Verwendung von Sound-Effekten. Sound Design
Trailer Musiken konzentrieren sich hauptsächlich auf sehr massive und durchdringende
Synthesizer Klänge und nutzen daher deutlich reduziertere orchestrale Anteile, die mit
prägnanten, typischen Trailer SFX (Sound-Effekte) geschichtet und kombiniert werden. Auf Grund
der substanziellen Bedeutung der einzelnen Elemente innerhalb der Trailer SFX und der
Synthesizer Klänge, werden diese im weiteren Verlauf des Abschnitts detaillierter konkretisiert.
Zunächst jedoch soll das nächste Audiobeispiel einen klanglichen Gesamteindruck des Genres

104
Vgl. https://evenant/courses/. Zugriff: 31. August 2017

63
5. Evolution des Modern Hybrid Scoring

abbilden.105 Hierfür wird ein Trailerstück vom Trailerlabel Colossal Trailer Music verwendet.

Track 16: Sound Design Trailer Music – Colossal Trailer Music

Das Stück weist alle essentiellen Elemente des Genres auf. Bei näherer vertikaler sowie
horizontaler Betrachtung der musikalischen Elemente, fällt die gezielte Reduzierung
harmonischer und melodischer Elemente auf. Somit liegt hier ganz klar der Fokus auf der
Verwendung von Klang-Effekten synthetischer und nicht-synthetischer Herkunft. Die folgende
Tabelle zeigt alphabetisch und numerisch die wichtigsten Sound Effekte auf, die für aktuelle
Sound Design Trailercues genutzt werden.

Tabelle 1: Trailer Music Sound Effekt Terminologie

Nr. Begriff/Kategorie Definition

01 Braaam Ein Braaam, oft auch Megahorns genannt, ist ein großer,
tiefer, oftmals verzerrter gehaltener Ton/Klang (meistens
eine Kombination aus massiven Blechbläsern und
gewaltigen/massiven synthetischen Klängen), der
insbesondere beim Erscheinen von Logos des zu
bewerbenden Produktes erscheint. Zum ersten Mal fand
dieser Effekt im Film Inception von Christopher Nolan
Verwendung.

02 Boom Booms sind grundsätzlich sehr tief frequente Hits (Low End).
Dieses Element wird vor allem zu Beginn eines Trailers
genutzt.

Vgl. https://courses.evenant.com/courses/the-aspiring-trailer-music-composer/lectures/1362272.
105

Zugriff: 31. August 2017

64
5. Evolution des Modern Hybrid Scoring

03 Downer/Subfall Ein Downer bzw. Subfall ist ein in der Tonhöhe abfallender
Klangeffekt. Dieser kommt vor allem als Vorbereitung bzw.
Abschluss eines Breaks (Edit Points) zum Einsatz.

04 Drone/Atmosphere Eine Drone ist eine atmosphärische, meist synthetische


Klangfläche die meistens im Intro und im Outro eines Trailers
Verwendung findet.

04 Hit Ein Hit ist ein kurzer, mächtiger und ausdrucksstarker


Klangeffekt. Es kann beispielsweise auf der
Perkussionsebene mit digital erzeugten Klängen oder mit
akustischen Geräuschen abgebildet werden.

05 Impact Ein Impact ist ein sehr wuchtiger Hit mit einem langen
Nachhall. Ähnlich wie bei den Hits, ist die Hauptfunktion
dieses Klangeffekts den Video-Editor bzw. den Cutter mit
individuellen und regulären Edit-Points und Akzenten
innerhalb der Trailer-Musik zu versorgen.

06 Riser Ein Riser ist ein Effekt, dessen Intensität stetig in einer
gewissen zeitlichen Periode zunimmt. Die Intensität kann mit
der Tonhöhe, Lautstärke und verschiedenartigen
Klangtexturen ansteigen.

07 Whoosh Ein Whoosh ist ein „fliegender“ Sound, der klingt als würde
etwas „schnell vorbeifegen“. Whooshes eignen sich
hervorragend für Übergänge (Transitions) und in
Kombination mit Hits.
Quelle:106

Die soundtechnische Umsetzung der genannten Klangelemente erfolgt fast ausschließlich mit

Vgl. https://courses.evenant.com/courses/the-aspiring-trailer-music-composer/lectures/1529934.
106

Zugriff: 26. Oktober 2017

65
5. Evolution des Modern Hybrid Scoring

Sample Libraries, Effektbearbeitungs-PlugIns und virtuellen Instrumenten. Exemplarisch können


hierfür Software-Produkte wie Heavyocity's Gravity, die Evolve Mutation Serie, 8Dio's Hybrid
Tools Serie, Project Alpha- & Bravo (Hybird Two) oder die Effektbearbeitungstools von Soundtoys,
Fabfilter oder Waves genannt werden.

5.4.3.3 Hybrid Trailer Music (Epic Hybrid Music)

Die Kombination aus harmonisch-melodisch akustischen Elementen, wie z.B. denen des
Orchesters, und synthetisch-elektronischen Klangelementen, wie denen des Trailer SFX Genres,
bilden das Markenzeichen dieses, in der Trailer-Musik Industrie mittlerweile am häufigsten
verbreiteten Genres. Hier werden also die beiden zuvor beschriebenen Genres gezielt
miteinander vereint. Einer der wohl bekanntesten Epic Hybrid Trailer Musik Vertreter, ist das
erfolgreiche Trailerlabel Two Steps From Hell, das 2006 von den Komponisten Thomas Bergersen
und Nick Phoenix gegründet wurde. 107 Eines der bekanntesten Werke ist das Stück Heart of
108
Courage das in zahlreichen TV-Spots, Fernsehshows, oder bei der Fussball-
Europameisterschaft 2012 und bei einigen Spielen der Champions League als Einlaufmusik

Abb. 20: Two Steps From Hell - Hauptvertreter des Genres der Epic Hybrid Music

gespielt wurde. Mit einer Gesamtlänge von knapp 2 Minuten, kombiniert diese Komposition
gezielt hybride-kräftige Perkussionsklänge mit einem großen, fülligen Orchesterapparat und Chor.
Folglich besticht der Gesamtklang mit einer Durchsetzungsfähigkeit und mitreißend-emotionaler

107
Vgl. http://www.twostepsfromhell.com/. Zugriff: 26. Oktober 2017
108
Erscheinungsjahr: 2009. Veröffentlichung auf dem Album Invisible

66
5. Evolution des Modern Hybrid Scoring

Tiefe, die eine charakteristische Hauptstärke dieses Musikstils definieren. Zudem fallen bei
näherer Betrachtung der hochwertige Produktionsklang und die teils starke Kompression auf. In
der Industrie wird dieses Werk als richtungsweisend für die Popularisierung und Etablierung
dieses Genres bezeichnet. Somit wurde dieser Musikstil dank Two Steps From Hell auch der
breiten Öffentlichkeit zugänglich gemacht.

Track 17: Heart of Courage – Two Steps From Hell

Ein weiterer, nennenswerter und populärer Vertreter ist das Trailer- und Produktionsmusik
Label Audiomachine, das 2005 von Paul Dinletir und Carol Sovinski in Los Angeles gegründet
wurde.109 Die hybride Klangbeispiel Momentum110, zeigt exemplarisch eine, in 5. Akten typisch
gegliederte Trailerstruktur. Diese Struktur ist eine in der internationalen Trailer-Musikindustrie
mittlerweile häufig verwendete Schablone zur Umsetzung von Trailer-Musiken.

Track 18: Momentum - Audiomachine

Da im Kapitel 6.3 (Umsetzung und praktische Beispiele) die Eigenkomposition Turned into War
ebenfalls diese Trailerstruktur aufweist und dort eine analytische Betrachtung erfährt, wird an
dieser Stelle lediglich der Aufbau kurz skizziert. Die einzelnen Akte gliedern sich wie folgt:

Akt I – Intro/ Akt II – Build Up/ Akt III – Klimax I/ Akt IV – Klimax II/ Akt V – Outro

Der erste Akt wird mittels der pulsierenden, synthetischen Bassebene direkt hybridisiert.

109
Vgl. https://en.wikipedia.org/wiki/Audiomachine. Zugriff: 26. Oktober 2017
110
Erscheinungsjahr: 2015. Veröffentlichung auf dem Album Magnus

67
5. Evolution des Modern Hybrid Scoring

Mit einem Whoosh-Hit ab der Minute 00:32 wird der Übergang zum Build Up eingeleitet. Das
Stück wird im weiteren Verlauf immer dichter und zusätzliche Instrumente wie mächtige
Perkussion, diverse Klangeffekte (Impacts, Whooshes etc.) und ein durchdringender Chor führen
gezielt mit einer Intensitätssteigerung zum Klimax II, dem das Outro folgt.

5.4.4 Produktion von Trailer-Musiken

Der maßgebliche Unterschied zwischen aktuellen und älteren Trailer-Musiken, ist die rapide
Entwicklung digitaler Technologien und die damit verbundene Verlagerung bzw. dominantere
Verwendung von Sample Libraries und des digitalen Orchesterklangs. Ein Hauptgrund hierfür ist
die Möglichkeit der grenzenlosen Erweiterung und Veränderung von Klängen und das gezielte
Verstärken akustischer Klangelemente.

Das Produzieren und Komponieren eines Trailerstücks kann mehrere Wochen dauern. Bei
ausreichendem Budget und aufwändigen Produktionen, werden auch richtige Orchester genutzt,
die im weiteren Produktionsverlauf mit synthetischen Klängen zu einem fülligeren Gesamtklang
erweitert werden. Der Großteil an Trailer-Musiken wird allerdings rein digital im Computer
realisiert. Allein die Verwendung bestimmter, standardisierter Klangeffekte wie im Kapitel 5.4.3.2
dargestellt, lässt rein akustische Trailer-Musiken in der heutigen Zeit kaum zu. Darüber hinaus ist
diese Veränderung mitunter auch der Entwicklung der technologischen Klangsysteme der
Kinohäuser und den damit aktuell einhergehenden Hörgewohnheiten geschuldet.

In persönlichen Gesprächen mit Trailer-Musikkomponisten wie Mark Petrie (Audiomachine),

Mark Nolan (Everest, Maze Runner), Andreas Kübler (Star Wars: The Last Jedi, Final Fantasy XV‘s

Omen) und Jo Blankenburg (300, Harry Potter), legten diese den Fokus besonders auf den

hochwertigen, durchdringenden Produktionssound. Gerade dieser Punkt wird von allen

Produktionsfirmen der Trailer-Musikindustrie als Voraussetzung zur Verwendung der

Kompositionen vorausgesetzt.

68
6. Realisation und Produktion moderner hybrider Klangidiome

6. Realisation und Produktion moderner hybrider Klangidiome

Der Fokus der vorherigen Kapitel lag auf der systematischen Analyse geschichtlicher
Hintergründe und Meilensteine der einzelnen Entwicklungsstufen sowie auf der Fusionierung
der Kernelemente akustischer und elektronischer Musik. Ein weiterer Hauptbestandteil dieser
Arbeit beschäftigt sich mit der Realisation und Produktion des Modern Hybrid Scorings anhand
verschiedener Werkzeuge und Techniken, die im folgenden Kapitel genauestens beleuchtet
werden.

6.1 Aufnahmetechniken

6.1.1 Mechanische und elektromagnetische Tonaufzeichnung

Die Geschichte der Schallaufzeichnung ist untrennbar mit dem Erfinder Thomas Alva Edison
(1847 – 1931) verbunden. 1877 hatte er die Idee zu seinem später als Phonograph bekannt
gewordenen Gerät, das die beliebige Wiederholbarkeit eines konservierten akustischen
Ereignisses ermöglichte. Eine der bedeutendsten Tonaufnahmen auf einem Phonographen
Zylinder ist das in der Österreichischen Mediathek aufbewahrte „Gespräch von Tante
Boulotte“ (Friedensnobelpreisträgerin). Die historische Aufnahme entstand am 23. Mai 1904 in
Ebenfurth. Als Meilenstein und Grundlage der modernen Tonindustrie gilt die Erfindung des
Grammophons im Jahr 1887. Dieses war die Geburtsstunde der Schallplatte. Fast 60 Jahre lang
beherrschte Berliners Erfindung den Markt und war als neues Massenmedium weltweit etabliert.

Die erste unter Verwendung von Elektrizität genutzte elektromagnetische Tonaufzeichnung


wurde durch den dänischen Telefoningenieur Valdemar Poulsen 1898 erfunden. Auf dieser
Erfindung basieren einige technologischen Errungenschaften hinsichtlich der Tonaufzeichnungen,
jedoch war dieses Gerät damals noch nicht voll marktfähig.111 Ende der 1920er erschienen die

111
Vgl. https://de.wikipedia.org/wiki/Tonbandger%C3%A4t. Zugriff: 22. Oktober 2017

69
6. Realisation und Produktion moderner hybrider Klangidiome

ersten Stahldraht-Magnettongeräte, die hauptsächlich für Diktierzwecke verwendet wurden


sowie Stahlband-Geräte von Semi Joseph Begun, die für Rundfunkanwendungen genutzt wurden.
Auf Basis dieser Technologien gelang es dem Erfinder Fritz Pfleumer 1928 einen Apparat zu
entwickeln, der ein Meilenstein in der Audiowelt ist. Das Magnetophon war das erste analoge
Tonbandgerät, das mit Hilfe des Ingenieurs Eduard Schüller zu einem serienreifen Abspielgerät
für Tonbänder entwickelt wurde. Ursprünglich ging die AEG wegen der sehr bescheidenen
Tonqualität davon aus, dass die eigentliche Verwendung des Apparates in der Aufzeichnung von
Diktaten liegt. Der Vollständigkeit halber sei erwähnt, dass der Frequenzumfang zur damaligen
Zeit so miserabel war, dass vor allem Instrumente mit vielen hohen Frequenzanteilen, wie
beispielsweise Violinen, kaum hörbar realisiert werden konnten. Mit der Tonaufnahme eines
Konzertes der Londoner-Philharmoniker unter der Leitung von Sir Thomas Beecham im Jahre
1936 in Ludwigshafen am Rhein, zeigten sich aber ganz neue Anwendungsgebiete.

Plötzlich interessierten sich große Rundfunkanstalten für die neue Technik und wandten
diese immer mehr an. 112 1940 wurde mit der zufälligen Erfindung der Hochfrequenz-
Vormagnetisierung eine Möglichkeit gefunden, das bis dahin problematische Rauschen und
Klirren auf analogen Tonbandaufnahmen größtenteils zu umgehen. Dieser Meilenstein brachte
eine völlig unbekannte Klangtreue mit sich. Zu Beginn der 1950er Jahre brachten immer mehr
Hersteller diverse analoge Tonbandgeräte für den Heimbereich und für die professionelle
Anwendung, mit stetigen Erweiterungen und technologischen Neuerfindungen, auf den
Markt.113 Vor allem von der Rundfunktechnik geprägt, hat die Tonstudiotechnik, wie auch zu der
Zeit in anderen Zweigen der Nachrichtentechnik sichtbar, seither eine bedeutsame mehrstufige
Generationsentwicklung durchlaufen.

Seit der ersten Generation der Tonstudiotechnik (1930 – 1975), die ausschließlich durch die
Anwendung der Elektronenröhre als das bestimmende aktive Bauelement gekennzeichnet war,
über die Zwischengenerationen und der Erfindung der Halbleitertechnik der analogen
Tonübertragung (ab 1980), bis hin zur Einführung der digitalen Tonübertragung- und

112
Vgl. https://de.wikipedia.org/wiki/Magnetophon. Zugriff: 23. Oktober 2017
113
Vgl. https://de.wikipedia.org/wiki/Tonbandger%C3%A4t. Zugriff: 23. Oktober 2017

70
6. Realisation und Produktion moderner hybrider Klangidiome

Aufnahmetechnik, bilden all diese Ereignisse einen fundamentalen Beitrag zur Realisation
aktueller hybrider Produktionen. 114 Mit dem nächsten Teilabschnitt dieses Kapitels wird die
Notwendigkeit und Bedeutung des Zeitalters der Digitalisierung hinsichtlich des Modern Hybrid
Scorings chronologisch erläutert.

Abb. 21: Blick über das Pult auf das Rundfunk Orchester Hannover (1960er Jahre)

114
[Dirckreiter2008] S. 431 ff.

71
6. Realisation und Produktion moderner hybrider Klangidiome

6.1.2 Zeitalter der Digitalisierung und der digitalen Aufnahmetechnik

6.1.2.1 Digitalisierung

Mit der stetig fortschreitenden Digitalisierung und dem Prozess der weltweiten
Computerisierung lag es nahe, dass Töne auch immer mehr in digitaler Form gespeichert wurden.
Digitale Aufnahme bedeutet, dass die
Signalquelle entweder schon selbst
bereits digital ist (z. B. digitale
Synthesizer), oder dass analoge
Audiosignale, die beispielsweise von
Mikrofonen aufgenommen werden, in
der Signalkette mit Hilfe eines
Analog/Digital-Wandlers digitalisiert
werden. 115 Durch die Entwicklung der
Audio Compact Disc durch Philips und
Sony im Jahre 1982 und der
erfolgreichen Einführung in den Markt,
wurden die Anwendung digitaler
Speicher- und Signalverarbeitungs-
techniken auch im professionellen Abb. 22: Compact Disc - Die digitale Audio Revolution (1982)

Tonstudiobereich erheblich beschleu-


nigt. In allen Bereichen der Audioproduktion führte die Einführung der digitalen Tontechnik, zu
einem überaus großen Erfolg. Dieses lag an vielen Vorteilen gegenüber der herkömmlichen
analogen Tontechnik, wie der Verbindung von akustischen Informationen mit anderen
Informationsarten in multimedialen Systemen, der hohen Qualität bei Produktion, der
optimierten Signalverarbeitung und der Möglichkeiten der Speicherung und Vervielfältigung. Die
Digitalisierung der Tonsignale und die Speicherung auf digitalen Medien wie CDs, verlief

115
Vgl. https://de.wikipedia.org/wiki/Tonaufnahme. Zugriff: 23. Oktober 2017

72
6. Realisation und Produktion moderner hybrider Klangidiome

grundsätzlich unabhängig von inhaltlichen Veränderungen der Musik ab. Allerdings ermöglichte
die Tatsache, dass die Informationen nun in digitaler Form vorlagen, ganz neue und grenzenlose
Manipulationsmöglichkeiten, da digitale Informationen einfacher und in ungeahnter Weise
manipuliert werden konnten.116

6.1.2.2 DAW

6.1.2.2.1 Allgemeines

Wie im Kapitel 6.1 beschrieben, kam nach der Epoche hochwertiger analoger
Aufzeichnungen auf Magnetbändern ab den 70er Jahren immer mehr die digitale Aufzeichnung.
Zuerst auf Kassetten, danach auf Digital Audio Tapes (DAT) und Studiobändern, sowie schließlich
auf externen und integrierten Computer-Festplatten (Hard Disc).117

Ein Computer auf dem ein Software Sequenzer - „DAW“ (Digital Audio Workstation) genannt
– installiert und aktiv ist, stellt inzwischen das Herzstück in jedem Ton- und Homestudio dar.
Während die ersten hybriden Produktionen wie der Score zu Spellbound (Kapitel 5.1.1.2), der sich
durch die Kombination des Theremins mit dem reinen Orchester auszeichnet, auf alten
Bandmaschinen und analoger Tontechnik aufgenommen wurden, hielten mit der Digitalisierung
und der Erfindung der computergestützten Aufnahmesysteme, Digitale Audio Workstations Ihren
Einzug in die Studios. Vereinfacht beschrieben imitiert eine DAW die Funktionen eines
traditionellen, analogen Tonstudios, jedoch gibt es viele Vorteile und Besonderheiten im Vergleich
zu analogen Systemen. Die DAW hat vor allem durch den enormen Anstieg von Prozessorleistung
und angepasste Befehlssätze große Verbreitung gefunden. So kann man heutzutage selbst mit
einem kostengünstigen Rechner und mit relativ geringem Materialaufwand, professionell
klingende, hybride Musikproduktionen erstellen. Ein Hauptmerkmal der DAW ist die Fähigkeit der
grenzenlosen und freien Audiomanipulation.

116
Vgl. [Dickreiter2008] S. 601 – S. 603
117
Vgl. [Dickreiter2008] S. 371 ff.

73
6. Realisation und Produktion moderner hybrider Klangidiome

Die Entwicklung und Veröffentlichung des Korg M1, dem ersten digitalen Synthesizer mit
integrierter Digtal Audio Workstation im Jahr 1988 war ein entscheidendes Ereignis in der
Digitalen Audiowelt. Bei diesem zu dieser Zeit neuartigen Konzept, befanden sich alle Elemente
die man zu einer einfachen Musikproduktion benötigte, in einem einzigen Gerät. 118

6.1.2.2.2 Systeme und Funktionen

Abb. 23: DAW Projektfenster - Cubase Pro 9

Grundsätzlich wird bei den DAW's zwischen Host-basierten und stand-alone Systemen
differenziert.

Host-basierte Systeme:

Host (Computer)-basierte Systeme bestehen aus drei Komponenten: einem Computer, einem
AD-DA Wandler bzw. einem Audio Interface (Soundkarte) und einem Digitalen Audio Sequenzer

Vgl. https://www.soundandrecording.de/equipment/music-workstation-korg-m1-1988/. Zugriff: 31.


118

Oktober 2017

74
6. Realisation und Produktion moderner hybrider Klangidiome

(z.B. Cubase, Pro Tools, Logic Pro). Der Desktop-Computer übernimmt die Rolle eines
„Hosts“ (Gastgebers) für die Soft- und Hardwareumgebung. Der große Vorteil solcher Systeme ist
neben den geringen Anschaffungs- und Wartungskosten, die problemlose Erweiterungs- und
Umrüstungsmöglichkeit.119

Externe analoge und digitale Geräte (Röhrenkompressoren, Bandmaschinen, Nachhall, Delay


usw.) können nun durch digitale Bausteine emuliert und zum Teil durch Ihre virtuellen Pendants
ersetzt werden. Diese Bausteine werden als sogenannte Plug-ins, zum Beispiel von Firmen wie
WAVES, FabFilter oder Altiverb, für einen Software-Host bereitgestellt. Bei der Arbeit mit der
DAW ist im Gegensatz zur Arbeit mit einem analogen Tonbandsystem, die mühelose Bearbeitung
und Veränderung des Audiomaterials an jeder Stelle eines Projektes in beliebiger Reihenfolge
möglich. Das geschieht auf nicht-destruktive Weise, es wird also kein Audiomaterial verändert
oder gar zerstört, sondern es wird lediglich mit Verweisen auf das Material, sogenannten
Regionen, die in einer Wiedergabeliste arrangiert und bearbeitet werden, gespeichert. Die
Tätigkeiten mit der DAW haben auch neue, visuelle Komponenten eingeführt. Durch eine hohe
detaillierte grafische Auflösung kann mit einer Genauigkeit von einem Sample geschnitten
werden. Somit kann man sich nicht mehr nur auf das Hören, wie beim Schnitt an der
Bandmaschine, sondern auch auf den optischen Eindruck verlassen. Mit der unerlässlichen
„Undo-Funktion“ innerhalb der DAW können sämtliche Veränderungen und Bearbeitungsschritte
mit einem Klick rückgängig gemacht werden. Diese Funktion ist und bleibt eine der stärksten
Eigenschaften im Vergleich zu traditionellen Bandmaschinen.120

Es gibt mittlerweile zahlreiche Hersteller host-basierter Systeme wie z.B., Pro Tools, Cubase,
Nuendo, Ableton, Logic Pro, oder Sequoia, in der Anwendungsmöglichkeiten wie
Audioaufnahmen, Audioschnitt, Videovertonung, Mischung und Mastering realisiert werden
können.
Stand-alone Systeme:

Vgl. https://de.wikipedia.org/wiki/Digital_Audio_Workstation. Zugriff: 31. Oktober 2017


119

Vgl. [Gurudutt] - Digital-Audio-Workstation.pdf – Department of Telecommunication, Atria Institute of


120

Technology. Zugriff: 31. Oktober 2017

75
6. Realisation und Produktion moderner hybrider Klangidiome

Das Pendant zu host-basierten Systeme, sind eigenständige Audio-Systeme wie, Fairlight,


Pyramix, Soundscape oder Sonic Solutions, deren komplette Hardware für die Audio-
Aufzeichnung, -Bearbeitung und -Manipulation, in einem eigenen Rechner untergebracht ist.
Vorteile sind hierbei die sehr hohe Betriebssicherheit und die einfache Bedienung. Fairlight
Systeme haben beispielsweise eine speziell für das System entwickelte Fernsteuerung, die eine
einfache und schnelle Bedienung z.B. bei Mischungen, ermöglicht. Jedoch sind diese Stand-alone-
Systeme extrem teuer und daher größtenteils nur in Rundfunkanstalten verbreitet. Die untere
Abbildung zeigt zur Veranschaulichung ein FairlightUS-System in den Studios des Westdeutschen
Rundfunks.121

Abb. 24: Stand-alone-System Fairlight US im WDR Köln

121
Vgl. https://de.wikipedia.org/wiki/Digital_Audio_Workstation. Zugriff: 31. Oktober 2017

76
6. Realisation und Produktion moderner hybrider Klangidiome

6.2 Werkzeuge und Instrumente zur Realisation

6.2.1 Akustische Klangerzeuger

Wie in den Kapiteln 2 und 5 bereits erläutert, ist zur Realisation moderner hybrider
Kompositionen die Kombination aus akustischen- und elektronischen Klangquellen zwingend
erforderlich. Auf beiden Ebenen können die Klänge mannigfaltig verändert werden. Auf der
akustischen Ebene können polyphone Klangkörper wie z.B. ein Orchesterapparat oder ein Chor
verwendet werden. Da man einen Klangkörper mit einem Mikrofon genauso aufzeichnen kann
wie elektronische Klangerzeuger, gibt es aus elektroakustischer Sicht keinen wesentlichen
Unterschieden zwischen der Art der Klangerzeugung. Ein wichtiger Unterschied zwischen
elektronischen und akustischen Instrumenten sind jedoch die Einflussnahme des
Instrumentalisten auf den Klang, den Toneinsatz, die Spielartikulation sowie der individuelle
musikalische Vortrag. Insbesondere monophone akustische Klangerzeuger, wie z.B. die

Abb. 25: Bsp. akustische Klangquelle: Orchesterapparat und Chor

menschliche Stimme, Holz- oder Blechblasinstrumente ermöglichen sehr individuell


beeinflussbare Klangnuancen, während z.B. bei einem polyphonen Instrument wie einem
Konzertflügel der Klangeinfluss auf die Anschlagsdynamik und die Pedaltechnik beschränkt ist.

77
6. Realisation und Produktion moderner hybrider Klangidiome

6.2.2 Elektronische Klangerzeuger und Werkzeuge

6.2.2.1 Synthesizer

Warum haben Synthesizer einen bedeutenden Anteil in der Realisation hybrider Klangidiome
eingenommen?

Im Bereich der Forschung mit Elektrizität war schon relativ früh klar, dass mithilfe von
Elektrizität Töne erzeugt und damit einhergehend neue Instrumente realisiert werden können.
Im Vorlauf der Geschichte der ersten erfolgreichen Kommerzialisierung elektronischer
Klangerzeuger (Hammond Orgel 1929), gab es schon zahlreiche Versuche, Entwicklungen und
technische Errungenschaften im Bereich der elektronischen Klangerzeugung. Durch
bedeutenden Erfindungen wie das Theremin (1920), das Ondes Martenot (1928) oder das
Trautonium (1930), aber auch durch wichtige musikalische Strömungen wie Karlheinz
Stockhausen und das Studio für Elektronische Musik, Xenakis oder Musique concréte und den
damit einhergehenden Klangexperimenten, wurden die ersten Vorläufer der Klangerzeuger
geprägt. Die ursprünglichste Form eines analogen Synthesizers, ist ein Klangerzeuger mit oder
ohne Tastatur, basierend auf elektrischen Schaltkreisen. Im Fortschritt dieser Entwicklung
wurden die Bauteile minimalisiert und die Klangentwicklung stetig optimiert. Heutige
Synthesizer sind kaum noch von Computern zu unterscheiden.

Die heute etablierten Synthesizer, sowohl digitale als auch analoge, Hard- oder Software-
basiert und die Verfahren zur Klangsynthese und deren einstellbare Paramete, sind das Ergebnis
vieler Experimente sowie von künstlerischer und wissenschaftlicher Forschungen. Synthesizer
analoger und digitaler Herkunft können eine weite Bandbreite unterschiedlicher Klangfarben
abdecken, die sich von der Imitation realer Instrumente, über die Erzeugung gänzlich neuer
Klänge, bis hin zur Vermischung von künstlichen und realen Klängen, wie beispielsweise beim
Physical Modeling, erstrecken. Neben der Erzeugung perkussiver und tonaler Instrumente
können Synthesizer im musikalisch-hybriden Kontext auch zur Konstruktion von Sound-Effekten,

78
6. Realisation und Produktion moderner hybrider Klangidiome

z.B. wie in der Trailer-Musik verwendet werden, um die Dramaturgie einer Komposition an
bestimmten Stellen zu unterstützen. Auch im Bereich des Sounddesigns und der Klangtexturen,
die häufig in Bereichen der Film-, Games- und Trailer-Musiken anzutreffen sind, ergeben sich
mithilfe der verschiedenen Klangerzeuger reichhaltige und unendliche Gestaltungsmöglichkeiten.

Bemerkenswert ist die Tatsache, dass analoge Synthesizer wieder Hochkonjunktur haben.
Durch die Digitalisierung und die damit verbundenen neuesten technologischen Entwicklungen
verschwanden die analogen Klangerzeuger in den 80er und 90er Jahren fast vollständig von der
Bildfläche. Mit den neuen Aufzeichnungstechniken wie Sampling und Harddisk-Recording mit
ausreichenden Kapazitäten, sind jedoch wieder kreative und sinnvolle Arbeitsprozesse mit
Modular- Systemen möglich geworden.122

Hinweis:

Die Generierung von Klängen mittels Synthesizern jeglicher Art, soll keineswegs ein Ersatz zur
Verwendung realer akustischer Instrumente und Aufnahmen bedeuten. Sie sollte vielmehr als
eine Ergänzung und Erweiterung der Klangmöglichkeiten zur Bewerkstelligung und Optimierung
des Gesamtergebnisses hybrider Produktionen verstanden werden.

6.2.2.2 Hard- und Software-basierte Sampler

Allgemeines:

„Sampling“ ist mittlerweile eine der am häufigsten verwendeten Technologien der


Musikproduktion. Sie wird entweder mit einem Hardware- oder einem Software-Sampler
durchgeführt. Dabei wird eine analoge Schallquelle in eine digitale Information umgewandelt und
gespeichert. Diese digitale Information kann dann mit Audioprogrammen (DAW → Kapitel 6.2.3)

122
Vgl. [Anwander2015] S.14 ff.

79
6. Realisation und Produktion moderner hybrider Klangidiome

weiterverarbeitet werden. Die elektrischen Schwingungen der Signalquelle, etwa eines Mikrofons,
eines Mischpult Ausgangs oder eines Messvorgangs, werden in sehr kurzen Zeitabständen als
gemessene Spannungswerte digital erfasst. Das Ergebnis lässt sich auf umgekehrtem Wege
wieder abspielen, d.h. die Daten werden mittels eines D/A (Digtal/Analog) Wandlers wieder in
analoge Wellenformen umgewandelt. Die Klangqualität bei der Wiedergabe hängt von der
Samplingrate und der Auflösung ab. Bei einer herkömmlichen Audio-CD werden in einer Sekunde
44.100 Messwerte abgespeichert. Die Auflösung beträgt hierbei 16 Bits pro einzelnem Messwert.
In den folgenden zwei Abschnitten werden wichtige hardware- sowie software-basierte Vertreter
der Sampling Technologie erläutert.123

Hardware Sampler:

Abb. 26: Mellotron M 400 – Eine Revolution in der Musikwelt (1970)

Die Geschichte des Samplers begann mit der Erfindung des Mellotrons, einem
elektromechanischen Tasteninstrument. Zu Beginn der 1950er Jahre entwarf Harry Chamberlin
ein Tasteninstrument, dessen Klanggenerierung auf Tonbändern basierte. Jede Taste besaß ein

123
Vgl. [McGuire2008] S. 3

80
6. Realisation und Produktion moderner hybrider Klangidiome

dreispurig bespieltes Tonband, dessen Aufnahmen bei Tastendruck ertönte. War das Band z. B.
auf Spur A mit einem originalen Streicherklang bespielt und drückte man die zugehörige Taste,
dann ertönten diese „echten“ Streicher für ganze 8 Sekunden, bis das Band zu Ende gelaufen war.
Das Chamberlin, welches zum Fundament für das spätere Mellotron wurde, war polyphon
spielbar und obwohl es bei weitem noch nicht serienreif war, eröffnete es bis dahin ungekannte
musikalische Möglichkeiten. Die Brüder Leslie, Frank und Norman Bradley haben Chamberlins
revolutionäre Idee übernommen und begannen im Jahre 1962 mit der Entwicklung des ersten
marktreifen und serienfähigen Instrument namens Mellotron Mark I. 124 Mit dieser Erfindung
konnte man erstmals Klangaufzeichnungen nach eigenen Wünschen individuell anfertigen
125
lassen. In intensivster und monatelanger Kleinarbeit wurden verschiedenste
Instrumentengattungen, akustische Geräusche und sogar komplette Rhythmen im Tonstudio auf
ein Masterband aufgezeichnet. So ergab sich eine unerschöpfliche Quelle an Originalsamples, die
die Grundvoraussetzung dieser Neuerfindung schuf. Nach einigen technologischen
Überarbeitungen des Mark I wurde Anfang 1965 das doppelmanualige Mark II auf den Markt
gebracht. Eine Revolution in der Entwicklung von Samplern, war das 1970 veröffentlichte
Mellotron M 400. Es war kleiner und leichter transportierbar und besaß eine einfachere Technik
als seine Vorgänger. Bekannt war das Mellotron vor allem für seine Standardsounds wie Streicher,
Chor oder Bläser aber auch für seinen sehr charakteristischen und warmen Grundklang. 126

Mit Aufkommen des ersten digitalen Synthesizers mit integrierter Sampling-Technik, dem
revolutionären Fairlight CMI-System 127 aus dem Jahr 1979, waren plötzlich professionelle
Aufnahmen in CD-Qualität unter alleiniger Anwendung des Systems möglich. Der Vollständigkeit
halber soll hier erwähnt sein, dass die Sampling-Funktion bei der Entwicklung dieses Systems
nicht so sehr im Vordergrund stand, dies war eher als „Nice-to-have“ gedacht. Geprägt war der
Klang der 8-Bit Modelle des Fairlight Systems durch beschränkte technische Möglichkeiten. Doch
genau diese Restriktionen machte in der Retrospektive den Charme dieser Gerätschaften aus. In

124
Vgl. https://de.wikipedia.org/wiki/Mellotron. Zugriff: 25. Oktober 2017
125
Vgl. http://www.masterbits.de/mello_d.htm. Zugriff: 25. Oktober 2017
126
Vgl. https://de.wikipedia.org/wiki/Mellotron. Zugriff: 25. Oktober 2017
127
CMI: Computer Musical Instrument

81
6. Realisation und Produktion moderner hybrider Klangidiome

zahlreichen populären Musik- und Filmproduktionen in den 1980ern fanden die Klänge, wie z.B.
der sog. „Orchestra Hit“ in dem Stück Owner of a Lonely Heart der Gruppe Yes oder etwa in
Magnetic Fields Part 2 von Jean-Michel Jarre, Verwendung. Der Fairlight CMI wurde zum
Vorläufer für preisgünstigere Sampler, die in den 1980er Jahren dann auch für kleinere Geldbeutel
zugänglich wurden.128

Abb. 27: Fairlight CMI – erster digitaler Synthesizer mit integrierter Sampling Technologie (1979)

„The Fairlight CMI is the reason why modern sampling exists. Designed in 1979, it was an
example of early synthesizer technology which failed in its original purpose – creating sound via
realtime waveform modelling – and instead was redeveloped as the first digital sampler.”
(Peter Vogel, Entwickler)129

Der Erfolg des Fairlights führte dazu, dass auch andere Firmen Produkte mit Sampling-
Fähigkeiten auf den Markt brachten. Andere bekannte Vertreter von Hardware-Samplern sind E-
mu und Akai. Waren in der Vergangenheit alle Sampler hardware-basiert so haben software-
basierte Sampler über die letzten Jahrzehnte immer mehr an Einfluss gewonnen, da sie die

Vgl. https://de.wikipedia.org/wiki/Fairlight_CMI. Zugriff: 25. Oktober 2017


128

Quelle: https://jaegerundsampler.wordpress.com/2016/04/14/die-mutter-aller-sampler-der-fairlight-cmi-
129

1979/. Zugriff: 26. Oktober 2017

82
6. Realisation und Produktion moderner hybrider Klangidiome

Möglichkeiten der alten Technik bei Weitem übertreffen. 130 Der nächste Abschnitt beleuchtet
software-basierte Sampler und zeigt darüber hinaus ihre Wichtigkeit hinsichtlich hybrider
Produktionen auf.

Software Sampler:

In den 1990er und 2000er Jahren ermöglichten die stetige Leistungssteigerung der Computer
und die immer größer werdenden Speicherkapazitäten, die Entwicklung von
Softwareanwendungen, die die gleichen Fähigkeiten wie hardware-basierte Einheiten boten. Die
Firma Steinberg gehört zu den wichtigsten Unternehmen der digitalen Musikindustrie. Seit seiner
Gründung im Jahre 1984, hat das Unternehmen die Grenzen dessen was in der Welt des Digital-
Audio möglich ist, stetig erweitert. 131 Während die meisten Hardware-Sampler sehr kleine
Bildschirme mit teils schlechter Auflösung und komplexen Menüstrukturen aufwiesen,
verwendet ein Software Sampler immer das Displays des zu verwendenden Computers.132 Ein
großer Vorteil der Software-basierten Sampling Technologie liegt in der Möglichkeit, dass der
Komponist alle Instrumente für beispielsweise ein realistisches Orchester-Mockup selbst
einspielen kann und so zum einen keine Live-Musiker buchen muss und zum anderen seine
Klangvorstellung schnell und kostengünstig umsetzen kann. Dieses kann bei Medienproduktionen
mit kleinem Budget eine erhebliche Kostenersparnis bedeuten.

Einen wesentlichen Beitrag hat Steinberg unter anderem mit der Etablierung des VST Protokolls
geleistet, dass es zahlreichen Anbietern von virtuellen Instrumenten erlaubt, ihre Produkte
nahtlos in eine bestehende Software-Produktionsumgebung (DAW) zu integrieren. So können
auch moderne Software Sampler, wie der KONTAKT Player von Native Instruments, problemlos in
den Arbeitsablauf eingefügt werden.

Seit 2002 markiert KONTAKT den neuesten Stand der softwarebasierten Sampling-Technologie.

Vgl. [Gilreath2010] S. 443


130

131
Vgl. https://en.wikipedia.org/wiki/Software_sampler. Zugriff: 25. Oktober 2017
132
[McGuire/Sam/Roy/Pritts] S. 9 ff

83
6. Realisation und Produktion moderner hybrider Klangidiome

Mit wichtigen und wegweisenden Funktionen ermöglicht KONTAKT eine Detailtiefe und
Spielbarkeit, die der Abbildung realer Instrumente sehr nahe kommt. Mit der Entwicklung einer
eigenen Skriptsprache, fortschrittlichen Time-Stretching- und Pitch-Shifting-Algorithmen,
effizientem DFD-Streaming 133 und der NCW-Lossless-Kompression, hat sich KONTAKT als
Standard Host für Drittanbieter-Instrumente durchgesetzt. KONTAKT unterstützt tausende
Sample-Instrumente von namhaften Entwicklern der Industrie.134 Die nächste Abbildung zeigt das
übersichtliche User-Interface der aktuellsten Kontakt Version 5.7.1.

Abb. 28: User-Interface von NI KONTAKT Player

Der Sampling Prozess einer Schallquelle (Klangquelle) bis zum fertigen gesampelten, spielbaren
Instrument durchläuft mehrere Phasen:

DFD: Direct from Disc


133

Vgl. https://www.native-instruments.com/de/products/komplete/samplers/kontakt-5/. Zugriff: 30.


134

Oktober 2017

84
6. Realisation und Produktion moderner hybrider Klangidiome

1. Die gewünschte Klangquelle (Instrument) wird im ersten Schritt einzeln aufgenommen.


Ein Beispiel hierfür wäre die digitale Aufnahme einer einzelnen Klaviernote in
unterschiedlichen Dynamikstufen (pp -ff).

2. Im nächsten Schritt werden die Aufnahmen in einer DAW sauber geschnitten und
bearbeitet.

3. Die fertig bearbeiteten Audiodateien werden in einem Software Sampler (z.B. KONTAKT)
gemappt. Der Mapping-Prozess beinhaltet die Zuordnung jedes einzelnen Samples
(Audiodatei) zu einer bestimmten Zone. Zusätzlich zum Sample selbst, enthält eine Zone
Informationen über die Art von MIDI-Daten die dieses Sample auslösen sollen, die
aufgenommene Tonhöhe und einige weitere Details.

4. Nach dem Mapping-Prozess kann mittels eines MIDI-Controllers das gewünschte Sample
getriggert (ausgelöst) werden.

➢ Diese Liste beschreibt vereinfacht den Ablauf des Sampling Prozesses.135

Mithilfe von Hüllkurven, Filtermodulationen, LFOs usw. lässt sich jede Aufnahme bereits in der
benutzten Samplinganwendung bearbeiten und im weiteren Klangverlauf nach Belieben
manipulieren und formen. Sampling bietet vielfältige und kreative Gestaltungsmöglichkeiten
und ist in der Anwendung äußert unkompliziert und anschaulich.

Hinweis:

Ein Software-Sampler ist nicht in der Lage Klangquellen in der gleichen und vielseitigen Variation,
wie dieses durch den musikalischen Vortrag eines Instrumentalisten geschieht, abzubilden. Er ist
aber imstande eine sehr realistische Nachbildung der Klangquelle zu erzielen. Der Detailgrad

135
Vgl. [McGuire2008] S. 2

85
6. Realisation und Produktion moderner hybrider Klangidiome

eines Sample-Instruments hängt von der Anzahl der aufgezeichneten Samples und dem
Mapping-Prozess ab. Je genauer also ein Instrument reproduziert werden soll, desto höher ist
der Gesamtaufwand der Phase 1. Trotzdem ist die exakte Realisierung des Variabilität des Klanges
des Originals nicht erreichbar.136

6.2.2.3 Sample Libraries / Software-Instrumente

Mit dem Übergang der analogen zur digitalen Klangerzeugung war es erstmals mithilfe von
Signalprozessoren möglich, Prozesse einer analogen Klangerzeugung über virtuelle Schaltungen
zu imitieren. Mit dieser Entwicklung ermöglichte man eine solche Klangerzeugung nicht mehr
nur in dedizierter Hardware, sondern direkt im PC.

Ein Software Instrument (auch virtuelles Instrument, VST- oder AU Instrument), das zur
software-basierten Klangerzeugung innerhalb einer DAW oder in einem Sequenzer dient, ist in
der heutigen Produktionsumgebung vieler Komponisten, Musiker und Produzenten kaum mehr
wegzudenken. Der Gebrauch hochwertiger und umfangreicher Sample Libraries hat sich
mittlerweile als unumgängliches musikalisches Tool etabliert und kennzeichnet zahlreiche
Modern Hybrid Scores. Vor allem die allgemeine Zugänglichkeit, die rapide Entwicklung neuer
Libraries, das reichhaltige Angebot unterschiedlichster virtueller Instrumente und der
Kostenfaktor sind Gründe für die Popularisierung und Verwendung dieser Werkzeuge.

Ein Wegbereiter zur Realisierung und Verwendung virtueller Instrumente war die Firma
Steinberg Media Technologies. Mit der Entwicklung der Sequenzer Software Cubase im Jahr 1989,
definierte Steinberg die VST-Schnittstelle, welche die Einbindung externer Programme als
virtuelle, über MIDI spielbare, Instrumente ermöglichte.137 VST dient dazu den Entwicklern von
digitalen Instrumenten oder Effekten einen Zugang zum Hauptprogramm zu ermöglichen um
somit einen Dialog zwischen dem VST-Host und virtuellen Instrumenten innerhalb einer DAW zu

136
Vgl. [McGuire2008] S. 3 ff.
137
Vgl. https://www.steinberg.net/de/company/aboutsteinberg.html. Zugriff: 31. Oktober 2017

86
6. Realisation und Produktion moderner hybrider Klangidiome

138
gewährleisten. Eines der ersten Software-Instrumente war z.B. der im Jahr 1995
veröffentlichte SampleCell II der Firma Digidesign, mit dem sich bereits 32 Samplestimmen
abrufen ließen.

Abb. 29: ReBirth RB-338 war einer der ersten Software-Instrumente (1996)

Die Firma Propellerhead Software entwickelte und veröffentlichte 1996 das Produkt ReBirth
RB-338, ein Software-Instrument für den PC, mit einer mauszeigerorientierten
Benutzeroberfläche. 139 Die neuartige Möglichkeit gleichzeitig zwei emulierte monophone
Hardware-Synthesizer vom Typ Roland TB 303 und je einen analogen Drum Computer vom Typ
Roland TR-808 bzw. TR-909 zu verwenden, war in der Audio- und Musikwelt eine bahnbrechende
Innovation.140 Die virtuellen Drehregler und Schalter innerhalb der GUI141 konnten direkt über

138
Vgl. https://de.wikipedia.org/wiki/Virtual_Studio_Technology. Zugriff: 31. Oktober 2017
139
Vgl. https://de.wikipedia.org/wiki/ReBirth_RB-338. Zugriff: 31. Oktober 2017
140
Vgl. https://www.heise.de/newsticker/meldung/Software-Synthesizer-ReBirth-RB-338-ab-jetzt-
kostenlos-127508.html. Zugriff: 31. Oktober 2017
141
GUI: Grafische Benutzeroberfläche (Abk. engl. Graphical user interface)

87
6. Realisation und Produktion moderner hybrider Klangidiome

eine MIDI-Schnittstelle angesteuert und über das Softwareprotokoll ReWire 142 mit anderen
Audio-Programmen verbunden werden. ReBirth verfügte zu seiner Zeit schon über ein virtuelles
Mischpult, einen Pattern Controlled Filter (PCF) und einige Standardeffekte wie Verzerrer
(Distortion), Kompressor und zeitverzögerungsorientierte Effekte (Delay). 143 Im selben Jahr
wurde unter Stephan Schmitt die Firma Native Instruments gegründet, die mit dem Windows-
Software Generator, einer zugehörigen ISA-Soundkarte und Controller sogar erstmals vollständig
auf native Klangerzeugung setzte.

Synthesizer, Sampler und im allgemeinen elektronische Instrumente sind heute längst nicht
mehr nur in Hardware-basierter Form verfügbar, sondern auch als Software im Rechner
verfügbar. Abseits der Klangsynthese nehmen Sample-Libraries einen erheblichen Teil des
Marktes ein. Hierzu zählt mittlerweile eine umfangreiche und vielseitige Palette an aufwändig
produzierten akustischen und orchestralen Instrumenten. Als Einstandsprodukt darf hierbei die
umfassende Orchester-Instrumentensammlung mit integriertem Sample-Player von VSL (Vienna
Symphonic Library), die im Jahr 2005 erstmals auf dem Markt erschien, genannt werden. Im
Verlauf der Jahre kamen neue bedeutende Sample-Hersteller wie z.B. 8Dio, Audiobro, Best
Service, EastWest, Heavyocity, Spitfire Audio, Orchestral Tools und etliche andere Hersteller
hinzu. Neben dem im Abschnitt 6.2.2.2 exemplarisch erwähnte KONTAKT-Player, gibt es
zahlreiche weitere nennenswerte Sample-Engines wie z.B. Play (EastWest), Halion (Steinberg)
und UVI.

Es gibt heutzutage somit eine nicht mehr überschaubare Menge an Software-Instrumenten,


die in der Realisation hybrider Produktionen zum Einsatz kommen. In punkto Klangqualität haben
sich mit der rapide fortschreitenden Technik, ungeahnte Dimensionen für die Entwickler eröffnet.
Moderne CPU‘s bieten immense Rechenleistungen und mit dem fortschreitenden Wechsel auf
64-Bit-Datenverabeitung, lassen sich die höchsten Ansprüche in der Sample-Produktion
realisieren. Bei der Modellierung von Samples geht es immer mehr ins Detail und Entwickler

142
ReWire ist ein Software-Protokoll zur Übertragung von Steuerungs- und Audiodaten in Echtzeit
zwischen zwei oder mehreren Audioprogrammen
143
Vgl. https://de.wikipedia.org/wiki/ReBirth_RB-338. Zugriff: 31. Oktober 2017

88
6. Realisation und Produktion moderner hybrider Klangidiome

können bei ihren Algorithmen und stimmerzeugenden Strukturen aus den Vollen schöpfen. Vor
allem die Abbildung aktueller, digitaler Orchesterklänge erlaubt eine nie da gewesene
Authentizität und Flexibilität des Klangs. Selbst komplexe Spielartikulationen und
unterschiedlichste Dynamikverläufe können in Echtzeit realisiert werden. 144 Modern Hybrid
Scoring bedient sich in allen Belangen dieser technologischen Fortschritte und wird von den
hochwertigen Softwareprodukten immer mehr geprägt.

6.2.2.4 MIDI und MIDI-Controller

Die digitale Schnittstelle MIDI (Musical Instrument Digital Interface), ist ein
Datenübertragungsprotokoll zur Übermittlung, Aufzeichnung und Wiedergabe von
Steuerinformationen zwischen Geräten, Computern, Instrumenten oder Regiekonsolen. MIDI ist
ein wichtiger Teil des Arbeitsprozesses, da es die Kommunikation zwischen Klangerzeugern und
Controllern (Hardware Controller, Softwareprogramme, Masterkeyboard u.a.) erst möglich
macht. 145 Die serielle Schnittstelle MIDI wurde im August des Jahres 1983 spezifiziert und
veröffentlicht und bis heute stetig weiterentwickelt. Für Musiker stellte der MIDI-Standard eine
Revolution dar. MIDI ermöglicht neben der Übermittlung elementarer Befehle zum Triggern
einzelner Tönen wie Tonhöhe, Tondauer, Beginn und Ende, auch die Vernetzung verschiedener
Hardware- und Software-Instrumente, Controller oder Computer. Die Kommunikation findet über
die MIDI-Schnittstelle statt. Diese überträgt MIDI-Messages, die beispielsweise das empfangende
Audiogerät instruieren welche Note gerade gespielt wird. Weitere MIDI-Messages sind z.B.
Control-Change und System-Exklusive. 146 Die MIDI-Schnittstelle ist als Verbindung zwischen
Hardware-Controllern und Sequenzern, im Kontext moderner hybrider Kompositionen, ein
unabdingbares Werkzeug geworden. MIDI nimmt eine wichtige Steuerfunktion bei der Arbeit mit
Sample Libraries ein, z.B. bei der Abbildung eines virtuellen Flötenlaufs oder einer lyrischen
Streicherlinie.

144
Vgl. [Novy2009] S.11 ff.
145
Vgl. [Dickreiter2008] S. 88 ff.
146
Vgl. [McGuire2008] S. 168

89
6. Realisation und Produktion moderner hybrider Klangidiome

MIDI-Controller:

Die wohl gängigste Form der Erzeugung von Informationen im MIDI-Format ist die Nutzung
von Masterkeyboards. Diese Klaviatur dient ausschließlich zur Steuerung und Aufzeichnung der
Tastenbewegung beim Einspielen von MIDI-Informationen in den Sequenzer (z.B. DAW). 147 Es
kann an beliebige MIDI-fähige Instrumente, z.B. einen Sampler oder Synthesizer angeschlossen
werden und verfügt heutzutage neben MIDI Ein- und Ausgängen unter Umständen auch über
einen USB-Anschluss, der ebenfalls den Austausch von MIDI-Informationen erlaubt.

Abb. 30: NI Komplete Kontrol S88 - aktuelles Masterkeyboard auf dem Markt

Neben der MIDI-Klaviatur gibt es noch eine große Anzahl weiterer Controller, deren
Funktionsumfänge und Spezialisierungen einem stetigen Fortschritt ausgesetzt sind und bei der
Realisierung hybrider Kompositionen ein hilfreiches Tool sein können.

147
Vgl. [Dickreiter2008] S. 89 ff.

90
6. Realisation und Produktion moderner hybrider Klangidiome

6.2.2.5 Effekte

Effekte in Form von analogen und digitalen „Outboard“-Geräten oder Plug-Ins (virtuelle
Effekte), bieten in der digitalen Tontechnik vielseitige und wirkungsvolle Möglichkeiten zur
Bearbeitung, Veränderung und Manipulation von Klängen und Audiosignalen. Software-basierte
Effekte werden heutzutage meistens nach analogen Vorbildern modelliert. Mittlerweile sind in
der digitalen Welt Signalmanipulationsmöglichkeiten vorhanden, die in der analogen Technik
sehr aufwändig oder gänzlich unmöglich umsetzbar wären. Nahezu jedes „Outboard“-Gerät lässt
148
sich in Softwareform nach-modellieren. In etlichen modernen hybriden Tracks bildet
beispielsweise die Abfolge konträr zueinander wirkender Parts wie z.B. in einem Epic Hybrid
Trailer Stück, einen ansprechenden und abwechslungsreichen Spannungsbogen. Diese
Spannungen können zum einen mit musikalisch-kompositorischen- oder mit soundtechnisch-
effektorientierten Gestaltungsmitteln realisiert werden. Dieser Abschnitt fokussiert sich
ausschließlich auf die Letzteren und erläutert verschiedene Effekt-Werkzeuge, die weitreichende
Verwendung in modernen Musikproduktionen finden.

In professionellen Tonstudios aber auch im Homestudio Bereich, sind Multieffektgeräte, die


eine breite Palette hochwertiger Effekte bieten, ein elementares Werkzeug. Hierbei werden
mehrere Effekte in verschiedenen Konfigurationen (parallel oder hintereinandergeschaltet)
eingesetzt. Software Plug-Ins werden üblicherweise als Einzeleffekte angeboten, durch die
beliebige Kombination innerhalb des Host-Sequenzers lässt sich aber nahezu jede gewünschte
Effektkombination zusammenstellen. Gerade im Kontext des Modern Hybrid Scoring sind Effekte
ein häufig verwendetes Tool um individuelle Klangbearbeitungen und grenzenlose
Klangmodifikationen zu realisieren. Im weiteren Verlauf des Abschnitts werden signifikante
Effekttypen kurz vorgestellt.

148
Vgl. [Görne2014] S. 321 ff.

91
6. Realisation und Produktion moderner hybrider Klangidiome

6.2.2.5.1 Pegelorientrierte Effekte

Der Terminus „Dynamik“ spielt nicht nur in musikalisch-künstlerischer, sondern auch in


audiotechnologischer Hinsicht eine wichtige Rolle in der Realisation hybrider Produktionen.
Während im musikalischen Kontext der Begriff Dynamik als die „Lehre von den Abstufungen der
Tonstärke“ verstanden wird, unterscheidet man in der Audiotechnologie eine Begriffsdefinition
im elektronischen sowie akustischen Bereich. Im akustischen Sinne meint die Dynamik das
Verhältnis zwischen kleinstem und größten Schallpegel den eine Schallquelle hervorbringen zu
vermag. Bezugnehmend auf den elektronischen Bereich ist unter Dynamik der Zustand zwischen
größtem und kleinstem übertragenen Signalpegel gemeint. 149 Die Dynamik wird mithilfe von
verschiedenen Komponenten wie z.B. Kompressoren, Limitern, De-Essern, Noise-Gates oder
Transienten Designern kontrolliert und verändert. Folglich werden exemplarisch einige wenige
Werkzeuge kurz erläutert.

Exemplar 1 – Kompressor:
Kompression beschreibt eine automatische Lautstärkekontrolle, die das Eingangssignal
heranzieht, um die Stärke des Ausgangssignals zu bestimmen. Die Kompression wird mittels der
Parameter des Treshold- und Ratio-Reglern eingestellt. Das folgende Zitat vom US-
amerikanischen Musikproduzent Jerry Finn (1969 – 2008) beschreibt in ein paar Sätzen die
Veränderung und Entwicklung von Dynamikprozessoren.

„Ich bin der Meinung, dass man den Sound heutiger Produktionen mit Kompression gleichsetzen
kann. Audio-Puristen reden darüber, wie erdrückend Kompression und Equalizing sind. Aber
wenn man sich eine dieser alten Jazz- oder Blues-Platten anhört, die von diesen audiophilen
Plattenlabels herausgebracht wurden, dann haben die nicht die geringste Chance, von den
heutigen angesagten Radiostationen gespielt zu werden, obwohl sie wahnsinnig klingen. Und
leider sind all diese Phasenverschiebungen und das Pumpen und das Aufhellen des Sounds, das
mit den Equalizern und den Kompressoren erzeugt wird, das, was heutige CDs ausmacht.“
(Jerry Finn, Produzent) 150

149
Vgl. [Dickreiter2008] S. 1149
150
[Owsinski2007] S.81

92
6. Realisation und Produktion moderner hybrider Klangidiome

Exemplar 2 – Multiband Kompressor:

Um die Lautheit eines komplexen Signals effektiv und zielgerichtet zu vergrößern, ist die
Nutzung eines Multiband Kompressors von wesentlicher Rolle. Grundsätzlich setzt es sich aus
vier unabhängigen Kompressoren, von denen jeder einen bestimmten Frequenzbereich definiert
und bearbeitet, zusammen. Auf diese Art können Artefakte wie das unerwünschte Pumpen z.B.
einer Kick Drum, die viele tieffrequente Anteile mit hoher Energie trägt und andere Frequenzen
niederzudrücken vermag, gezielt vermieden werden. 151

Exemplar 3 – Limiter:

Der Limiter arbeitet ähnlich wie der


Kompressor, jedoch wird der Ausgangspegel des
Audiosignals vom Limiter (Begrenzer) auf eine
zulässige Höchstmarke bzw. auf einen bestimmten
Wert begrenzt, um Verzerrungen zu vermeiden. Zu
Beginn der 1990er Jahren gelang es dem israelischen
Unternehmen WAVES mit der Veröffentlichung des
Plug-Ins L1 einen Klassiker unter den
„Lautmachern“ zu etablieren. Der L1 ist kein reiner
Limiter, sondern eine Kombination aus „Peak-
Abb. 31: Der Klassiker L1 von Waves
Limiter“ und „Level-Maximizer“. Damit wird die
Dynamik des Materials gezielt eingeschränkt und verdichtet. Heute existiert eine große Palette
an Plug-in Limiter für die Schnittstellen TDM-, AU- und VST.

151
Vgl. [Steinbrink2014] S.211

93
6. Realisation und Produktion moderner hybrider Klangidiome

6.2.2.5.2 Verzerrende Effekte

Verzerrende Effekte wie Distortion, Overdrive oder Fuzz verleihen dem gewünschten
Audiosignal durch gezielte Übersteuerung einen verzerrten und deformierten Klangcharakter,
indem der Signalstruktur Obertöne hinzugefügt werden. Digitale Audio-Effekte wie der Bitcrusher,
der durch die Reduktion der Lautstärkeauflösung eines Audiosignals eine Verzerrung erzeugt oder
der Enhancer bzw. der Exciter, der das Signal im Obertonbereich übersteuerungsfrei aufwertet,
zählen ebenfalls zu der Gattung der verzerrenden Effektgeräte. Beispielsweise verursacht ein
Bitcrusher eine störgeräuschbehaftete und klirrende Verzerrung durch die Übermittlung des
Signals mit geringer Wortbreite und einen entsprechend hohen Quantisierungsfehler.
Mittlerweile werden verzerrende Effekte von zahlreichen Software Herstellern wie z.B. Soundtoys,
Fabfilter, Waves, Plugin Alliance oder direkt innerhalb einer Sample Library in verschiedensten
Varianten und Ausführungen angeboten. In hybriden Produktionen haben sich Verzerrer als
wichtige Klangformungsinstrumenten etabliert. Verzerrende Effekte werden auf Grund des
erhöhten Anteils an Obertönen in der Klangfarbe als sehr durchsetzungsstark und auffallend
charakterisiert. 152

Abb. 32: Bsp. Audio Level Destroyer DEVIL-LOC von Soundtoys

152
Vgl. [Dickreiter2008] S. 346 ff.

94
6. Realisation und Produktion moderner hybrider Klangidiome

6.2.2.5.3 Spektralmodifizierende Effekte

Diese Art von Effekten modifiziert gezielt den Frequenzbereich eines Audiosignals. Der
Equalizer oder Entzerrer ist ein fester Filter, der eine Absenkung oder Anhebung eines Pegels
innerhalb definierter Frequenzbereiche ermöglicht. Neben den Equalizern zählen auch Effekte
wie z.B. der Pitch Shifter, Harmonizer, Ringmodulatoren, oder Vocoder zu den
spektralmodifizierenden Effekten. Bezugnehmend auf die eingangs beschriebenen
soundtechnisch-effektorientierten Gestaltungsmöglichkeiten, soll hier insbesondere die
Verwendung von Filterfahrten erläutert werden. Dieser Effekt zählt zu den Klassikern der
spannungssteigernden Effekte. Mit einem Filter lassen sich Frequenzen eines Audiosignals in
einem bestimmten Frequenzspektrum beschneiden. So wird bsp. mit einem Hochpassfilter der
tieffrequente Anteil eines Audiosignals oder eines Samples langsam ausgeblendet. Das klangliche
Resultat ist eine Filterfahrt, die im Klang sehr voll beginnt und mit Öffnen des Filters, also durch
eine kontinuierliche Erhöhung des Grenzfrequenzwertes (Cut-off), immer mehr eine Ausdünnung
des Gesamtsignals erfährt. Das nächste Audiobeispiel 19 zeigt das Hochfahren der Cut-Off
Frequenz anhand eines Synth-Arpeggios. Der Klang ist gegen Ende der Phrase nahezu ganz
verschwunden.

Track 19: Cut-off Modulation

Neben der Verwendung von Cut-Off Parametern, spielt u.a. auch z.B. die Resonanz eines
Filters eine Rolle bei der Produktion von Klangverläufen. Bei extremen Resonanzwerten beginnt
ein Filter an der Cut-Off Frequenz zu pfeifen, wodurch die Filterfahrt einem Tonhöhenanstieg
gleicht.

95
6. Realisation und Produktion moderner hybrider Klangidiome

6.2.2.5.4 Verzögerungszeitorientierte Effekte

Verzögerungszeitorientierte Effekte wie der Reverb (Hall), der Chorus oder das Delay (Echo)
gehören zu den Standardwerkzeugen einer jeden hybriden Musikproduktion. Infolgedessen liegt
in diesem Abschnitt ein besonderer Fokus auf dem Einsatz des Reverbs. Ob in algorithmischer
Form oder auf Basis von Impulsantworten – Hall-Prozessoren sind ein unabdingbares Element zur
Abbildung von räumlicher Tiefe. Seit sich die menschliche Zivilisation mit der Kunst des
Instrumentenbaus beschäftigt, wird ein erheblicher Aufwand betrieben Räume für musikalische
Inszenierungen hervorzubringen. Die Erbauer von Opernhäusern oder Konzertsälen weltweit
eiferten um die gewaltigste und optimalste Akustik. Für die ersten Tonstudios wurden speziell
entwickelte Hall- und Echoräume gebaut, die mit hohen Investitionskosten verbunden waren. Die
ersten digitalen Hallgeräte wie das Lexicon 224 oder der Quantec Raumsimulator läuteten eine
entscheidende und wegweisende Neuerung der Raumsimulationen ein. 153

Reverbs werden zur Erzeugung von künstlichem Nachhall meist in digitaler Form verwendet.
Das digitale Hallgerät simuliert auf Grundlage von Algorithmen, die in geschlossenen Räumen
auftretenden frühen Reflexionen sowie den Diffusschall (Raumschall). 154 Die entstehenden
Raumeindrücke ergänzen gezielt die akustischen Informationen die direkt von der Schallquelle
kommen (z.B. Sample Library, Live-Orchester etc.), um substanzielle Informationen wie die
Beschaffenheit und Größe eines Raumes.155 Innerhalb des Raumeindrucks lassen sich signifikante
Wahrnehmungscharakteristiken wie u. a. der Nachhall, die Raumgröße oder die Räumlichkeit,
weiter differenzieren.

Aber auch in der Gestaltung soundtechnischer Effekte kann ein Reverb enorm dienlich sein.
Nennenswerte Produktionstechniken im Umgang mit Halleffekten sind z.B. Reverse-Reverbs, bei
der eine rückwärts abgespielte Hallfahne dem Ausgangssignal vorangestellt wird oder der
zielgerichtete Gebrauch von Hall zur Akzentuierung und Verdichtung besonders gewaltigen

153
Vgl. [Keys2016] S. 48. 1. Abschnitt
154
Vgl. [Gröne2014], S. 350-351
155
Vgl. [Dickreiter2008] S. 349 ff.

96
6. Realisation und Produktion moderner hybrider Klangidiome

Effektklängen wie dem Impact oder bei Hits. Insbesondere bei Klangeffekten wie dem Impact
oder den Whoosh-Hits, wird der Reverb zu einem festen Bestandteil des Sounds und sorgt
dadurch für die nötige Fülle. Diesbezüglich soll das folgende Audiobeispiel 20 die Funktion des
Reverbs in Kombination mit Effektklängen verdeutlichen. Die technische Umsetzung erfolgt durch

Track 20: Whoosh-Hit mit Hall

die Verschmelzung eines Hit-Presets der Effekt-Library Gravity von Heavyocity mit der
Impulsantwort einer Kathedrale des digitalen Faltungshalls Altiverb 7 der Firma Audioease.

Die folgende Abbildung zeigt einige führende Reverb und Delay-Softwareprodukte, die
laut intensiven Gesprächen mit internationalen Kollegen, auch in modernen hybriden
Produktionen Verwendung finden.

Abb. 33: v.l.n.r: ValhallaRoom (algorithmischer Hall), Altiverb 7 (Faltungshall), EchoBoy Jr. (Analog Echo Prozessor),
Verbsuit Classics (Digital Reverb Collection)

97
6. Realisation und Produktion moderner hybrider Klangidiome

Mittlerweile bieten zahlreiche native Raumsimulatoren einen exzellenten und natürlichen


Klang, ein gutes Preis-Leistungs-Verhältnis und vielseitige Anwendungsmöglichkeiten,
insbesondere bei der individuellen Gestaltung der Form und Materialbeschaffenheit
unterschiedlichster Räume.

98
6. Realisation und Produktion moderner hybrider Klangidiome

6.3 Technische Realisation

6.3.1 Allgemeines

Im Kapitel 6.1 wurden Hintergründe und wegweisende Ereignisse aufgezeigt, die von

wichtiger Bedeutung für die heutigen technischen Realisierungen sind. Im Kapitel 6.2 stand die

Betrachtung relevanter Werkzeuge und Techniken im Fokus. Im folgenden Abschnitt sollen

anhand diverser Abbildungen und Audiobeispielen, Erkenntnisse und Informationen zur

technischen Realisation moderner hybrider Klänge gewonnen werden. Die hierfür geschriebene

Eigenkomposition Turned into War, fungiert als Grundlage und Ausgangsmaterial für den

Großteil der folgenden Audiobeispiele. Neben den soundtechnischen Gestaltungsmittelen, wie

der Verwendung von Sample Libraries, sollen auch kompositorische Gesichtspunkte hinsichtlich

der Thematik berücksichtigt werden.

Wichtiger Hinweis:

Streng genommen ist mit der Verwendung von Sample Libraries anstatt von Live Musikern oder

rein akustischen Klangquellen, die Definition von Modern Hybrid Scoring eigentlich nicht mehr

gewährleistet. Da jedoch mit Libraries akustische Klangquellen und echte Instrumente möglichst

authentisch und naturgetreu reproduziert werden sollen, bleibe ich in der Folge beim Begriff des

Modern Hybrid Scoring, auch wenn an Stelle von live aufgenommen Instrumenten gesampelte

Instrumente verwendet wurden. Dies gilt ebenfalls für eigens erstellte Audiobeispiele und die

finale Eigenkomposition Turned into War. Die Termini Modern Hybrid Scoring und Epic Hybrid

Scoring werden zudem, wie im Kapitel 2 bereits erläutert, in der gesamten Industrie und darüber

hinaus sehr generisch und undefiniert verwendet. Beispiel: Die Orchester-Library Symphobia von

den Entwicklern Project Sam, die eine der ersten Libraries war die ein großes, episches Orchester

99
6. Realisation und Produktion moderner hybrider Klangidiome

mittels Ensemble-Patches abgebildet hat, erzeugte auf Grund ihrer Aufnahmetechniken und

Instrumentenzusammenstellungen bereits ein eigenes Klangidiom, das nachhaltig Einfluss auf

aktuelle Hörgewohnheiten und Klangerwartungen genommen hat. Dieses gilt ebenso für alle

anderen Libraries. Der Konsument bekommt somit durch vorproduzierte und bearbeitete Sample

Libraries schon einen bestimmten Klang angeboten. Das ist auch ein Grund, warum sich Hybrid

Scoring vom originalen Orchesterklang und vom Klang echter akustischer Elemente, immer

weiterentwickelt hat und stetig neuartige Klangidiome mit sich bringt. Hierbei muss auch der

musikalische Kontext betrachtet werden, da längst die Sample-Technik großen Einfluss auf

zahlreiche Musikstile – ob in der Filmmusik oder in der Pop-Musik, genommen hat.

6.3.2 Produktionstechniken und praktische Beispiele

Dieser Abschnitt beleuchtet die auf Basis dieser Thesis bereits gesammelten Erkenntnisse
und stellt anhand individuell erstellter Beispiele, soundtechnische- und kompositorische
Techniken zur Realisation hybrider Kompositionen vor. Unter Berücksichtigung des
vorangestellten „wichtigen Hinweises“, wurden die nun folgenden Audiobeispiele mit einer
Vielzahl hochwertiger Sample Libraries, virtueller Instrumente und Effekten innerhalb der DAW
Cubase 9 Pro von Steinberg realisiert. Wichtige Bearbeitungsschritte, Produktionstechniken und
Werkzeuge sollen vorgestellt werden. Um den inhaltlichen Rahmen dieser Thesis zu erfüllen, ist
eine Beschränkung auf ausgewählte Werkzeuge und Techniken unerlässlich, selbst wenn diese
der Vollständigkeit halber weiterer Ausführungen bedürften.

Johann Sebastian Bach schrieb zwischen 1706 und 1713 seine berühmte Orgelkomposition
Passacaglia und Fuge c-Moll (BWV 582). 156 Während Bach die Kirchenorgel als sein virtuelles
Orchester zur Imitation von Streicher- und Holzbläserklänge verwendete, finden im Jahr 2017
umfangreiche Orchester- und Instrumenten-Libraries Platz auf einem einzigen Laptop.

156
Vgl. https://Wikipedia/wiki/Passacaglia_c-Moll_(Bach). Zugriff: 14. November 2017

100
6. Realisation und Produktion moderner hybrider Klangidiome

Rechnersysteme sind leistungsstark wie nie zuvor und ermöglichen ohne viel Aufwand das
digitale Komponieren. Software-Sampler sind zur Normalität geworden und bilden ein
fundamentales Werkzeug in der Schaffensphase zahlreicher moderner Kompositionen.

Das erste, noch sehr simpel strukturierte Hörbeispiel, zeigt das hybride Klangidiom in seiner
einfachsten Form. Wie in den Kapiteln zuvor bereits untersucht, braucht es zur Realisation ein
akustisches und ein elektronisches Element. In diesem Audioexemplar erklingt ein Klavier in
Kombination eines Software Synthesizers (Zebra 2 - U-He).

Track 21: Klavier & Lead Synth

Der nächste kurze Abschnitt gibt Auskunft über relevante Informationen und Rahmendaten zur
Eigenkomposition Turned into War, die für einige weitere Klangbeispiele als Ausgangsmaterial
dienen soll.

Allgemeine Informationen zur Eigenkomposition Turned into War:

Track 22: Turned into War - Eigenkomposition

Die Komposition Turned into War bedient das Genre der Epic Hybrid Trailer Music. Die
Stilistik wurde deshalb gewählt, da diese Trailer-Musik in einer relativ kurzen Zeitperiode einen
großen dramaturgischen und spannungsgeladenen musikalischen Bogen enthält und daher in
kompositorischer- und soundtechnischer Hinsicht im Kontext dieser Arbeit ein zutreffendes
Beispiel ist. Zudem beinhaltet das Trailer Stück eine Vielzahl an notwendigen Werkzeugen, die in
Kapitel 6.2 näher beschrieben wurden und in den folgenden Audiobeispielen in der Praxis
Verwendung finden. Die Struktur der Komposition gliedert sich in fünf Parts (engl. Acts). Um für
mehr Klarheit bezüglich Trailer Musik-Strukturen zu sorgen, wird der Vollständigkeit halber eine

101
6. Realisation und Produktion moderner hybrider Klangidiome

Analyse der Eigenkomposition vorweggestellt, wobei die einzelnen Produktionstechniken wie z.B.
die Umsetzung des Sounddesigns, der Sound-Effekte oder das Schichten von Klängen, erst im
späteren Verlauf des Kapitels detaillierter beleuchtet werden.

Act I: (bis 00:23 Sek.)

Die Einleitung eines Trailers und der dazugehörigen Trailer-Musik, gibt dem Zuschauer einen
audiovisuellen Ersteindruck des zu bewerbenden Medienproduktes und ist somit fundamental
und ausschlaggebend für die Gesamtstimmung. Die musikalische Ebene sollte in dieser Phase
eine nicht zu komplexe Abbildung erfahren. In Turned into War erklingen im Intro ein dominante
akustische Ebene mit Klavierklängen und einer dichten Sounddesign Ebene. Der Act I geht
fließend in den Build Up über.

Act II: Build Up (00: 23 – 01:01 Min.)

Der Build Up gibt dem Zuschauer ein tieferes Verständnis für die Handlung des zu
bewerbenden Medienproduktes. Dieser Abschnitt dient auch zur Vorbereitung des Klimax I. Hier
wird die musikalische Ebene durch weitere Instrumente wie Streicher Ostinati,
Perkussionsakzente sowie subtile Klangtexturen, erweitert.

Act III: Klimax I (01:02 – 02:02 Min.)

Mit Beginn des Klimax I verdichtet sich in der Regel die visuelle Ebene und die Schnitte im
Bild werden zunehmend schneller. Die Musik spielt in dieser Phase eine wesentliche Rolle. Mit
der Verdichtung der Instrumentierung intensiviert sich auch der Spannungsverlauf. Diese
Spannungserzeugung wird z.B. mittels Klang-Effekten und treibende Rhythmen unterstützt.

102
6. Realisation und Produktion moderner hybrider Klangidiome

Act IV: Klimax II (02:03 – 02:13 Min.)

Der Klimax II ist eher als Bonus-Teil der Trailer-Musik zu verstehen und nicht immer zwingend
vorhanden. Im vorliegenden Beispiel zeichnet sich der Klimax II durch die Abbildung von großen
Chören, massiven Perkussionselementen und einem vollen Orchesterpart aus. Zusätzlich erfährt
dieser musikalische Abschnitt neben den rhythmischen Akzenten, Unterstützung durch
synthetische Klang-Effekte und subtile Pulse, die den Spannungsverlauf und die Dynamik weiter
intensivieren.

Act V: Outro/Ending (02:14 – 02:25 Min.)

Die Musik im Outro soll subtil das Logo und das Erscheinungsdatum des Medienproduktes
untermalen. Hier erfährt die Musik eine drastische Reduktion in allen Parametern. Im
vorliegenden Stück bleibt die C-Moll-Modalität als Fundament bestehen. Soundtechnisch
übernimmt das Sounddesign hier eine wesentliche Rolle und bildet eine eigene Klangästhetik ab.

Im weiteren Verlauf werden nun einige Produktionstechniken zur Realisation hybrider


Kompositionen vorgestellt.

103
6. Realisation und Produktion moderner hybrider Klangidiome

6.3.2.1. Wall of Sound – Das Schichten von Klängen

In der soundtechnischen Realisation moderner hybrider Kompositionen, spielt das Prinzip


157
von „Sound Layern“ eine zentrale Rolle. Das Schichten von Klängen stellt in der
Musikproduktion bereits seit den 1960er Jahren eine beliebte Methode zur Generierung
opulenter und dichter Klangbilder dar. Ein wichtiger Pionier dieser Produktionstechnik ist der
Musikproduzent Phil Spector. Spector hat in den 1960er Jahren den Begriff Wall of Sound (dt.
Klangmauer) in der Musikproduktionswelt etabliert. Er bezeichnet einen musikalischen Effekt,
der durch eine hohe Sounddichte sowie den intensiven Einsatz von Audioeffekten
gekennzeichnet ist. Spectors Idee war es, den Hörer in eine Klangmauer einzubetten um so einen
kompakten Höreindruck vermitteln zu können. In der produktionstechnischen Umsetzung
wurden mittels Overdubbing158 Verfahren, bereits final aufgenommene Takes verdoppelt oder
gar verdreifacht, wobei durch den Hall einer speziellen Echokammer eine Phasenverschiebung
erreicht wurde, die die Intonation der Musik als „überorchestriert“ kennzeichnete und zusätzlich
zu einer starken Kompression beitrug. Der Höreindruck jener Tonaufnahmen vermittelte den
Konsumenten eine Studiogröße, die in Realität nicht vorhanden war. 159

Abb. 34: Phil Spector - Ein Revolutionär der Musikproduktionswelt

157
Der Begriff „Layer“ stammt aus dem Englischen und lässt sich mit „Schicht“ übersetzen.
158
Overdubbing: Bezeichnet in der Tontechnik eine Aufnahme, die zu einer schon bestehenden
Aufnahme später hinzugemischt wird
159
Vgl. https://de.wikipedia.org/wiki/Wall_of_Sound. Zugriff: 08. November 2017

104
6. Realisation und Produktion moderner hybrider Klangidiome

Das Schichten von Klängen reicht musikgeschichtlich bis in die frühe Orchester-Musik zurück.
Letzten Endes klingt eine Violine alleine deutlich schwächer als in einem ganzen Streicher-
Ensemble, selbst wenn alle ausführenden Instrumentalisten unisono 160 spielen.

Wie sieht das Schichten von Klängen in der technischen Realisation aus und warum sollte diese
Produktionstechnik angewandt werden?

In nahezu allen modernen hybriden Kompositionen werden mehrere Klänge zu einem


großen Gesamtsound zusammengeführt. Zum einen geht es darum, gezielt das
Frequenzspektrum und die Frequenzbereiche im Stereobild technisch und klanglich optimal
auszufüllen, zum anderen gewinnen der Produktionssound und die Komposition mit der Addition
verschiedener Klänge an beträchtlicher Breite, Klangfülle und Durchsetzungskraft. Das
Endergebnis steigert somit auch die Qualität und Durchsetzungsfähigkeit des Gesamtklanges. Im
Folgenden werden die Grundlagen zur Realisation vorgestellt. Alle aufgeführten Beispiele
werden unter Verwendung von Sample-Libraries in Cubase 9 Pro abgebildet und technisch
realisiert.

1. Timingkorrektur:

Abhängig vom ausgewählten Ausgangsmaterial, sollte das Timing der Klangebenen


aufeinander abgestimmt werden. Besonders bei massiven Perkussionsklängen, die sich aus
zahlreichen Libraries zu einer Einheit zusammenfügen, sollten die Startpunkte der Samples (Midi-
Files) übereinanderliegen. Mithilfe des Taktrasters in der DAW können Timingprobleme mühelos
ausgeglichen werden um so einen definierten Klang erzielen. Für einen attack-reichen,
kraftvollen perkussiven Klang, ist das korrekte übereinanderliegen der Transienten hilfreich.

Unisono: Bezeichnet in der Musik das Verfahren, alle Beteiligten eines Klangkörpers dieselbe Melodie
160

spielen bzw. singen zu lassen.

105
6. Realisation und Produktion moderner hybrider Klangidiome

2. Frequenzüberlagerungen:

Beim Zusammenfügen vieler Sounds kommt es häufig zu Frequenzüberlagerungen, die zu


einem undefinierten, artefaktreichen Klang führen können. Daher sollten die Frequenzbereiche
der Ebenen aufeinander abgestimmt werden. Mit dem Werkzeug Equalizer können störende bzw.
überlappende Frequenzen reduziert oder nahezu ausgeschaltet werden. Auch das Betonen von
Frequenzen die zu schwach vertreten sind, kann als weitere Bearbeitungsmethode durchgeführt
werden. Mit Low- und Hi-Cut (auch High- und Low-Pass genannt) eines Equalizers, lassen sich
unkompliziert die meisten Aufgaben erledigen.

3. Kombination von Sample-Libraries mit unterschiedlichen Patches:

Dieser wichtige Abschnitt legt den Fokus auf den Umgang und die Schichtung von Sample-
Libraries. Samples können völlig unterschiedliche Konzepte verfolgen. Entweder bieten die
Produkte bereits größere Ensembles einer bestimmten Instrumentengruppe, gemischte
Instrumentengruppen oder einzelne Instrumente. Als vielseitige und üppig-gefüllte Sample-
Libraries können hier exemplarisch z.B. Produkte wie die Metropolis-Serie von Orchestral Tools,
die Albion-Reihe von Spitfire Audio oder die 8W Produkte von 8Dio aufgezählt werden. In Bezug
auf die Authentizität Sample-basierter Instrumente, ist eine der größten Schwächen der konstant
gleichbleibenden bzw. statischen Klang, der bei bloßer Verwendung eines einzigen Samplepools
zwangsläufig entsteht. Um zum einen die Natürlichkeit und zum anderen auch die
Klangerweiterung eines virtuellen Orchesters zu generieren, bietet sich die Kombination
verschiedener Sample-Libraries mit unterschiedlichen Patches an.

Insbesondere die Addition von dedizierten Ensemble-Patches in Kombination mit einzelnen


Instrumenten, führt nach eigener Erfahrung zu klanglich überzeugenden Ergebnissen. Das
nächste Klangbeispiel unterstreicht die Vorteile dieser Produktionstechnik. Dies wird
exemplarisch anhand der Perkussionsebene der Ausgangskomposition dargestellt.
Selbstverständlich kann diese Produktionstechnik auch mit jeder anderen Instrumentengruppe

106
6. Realisation und Produktion moderner hybrider Klangidiome

oder Klangebene umgesetzt werden. Ziel ist es zum einen eine treibende und energetische
perkussive Einheit und zum anderen einen soundtechnisch-durchsetzungsfähigen und vollen
Gesamtklang zu generieren. Dieses wird durch gezieltes Kombinieren von Ensemble-Patches mit
unterschiedlichen Frequenzbereichen erreicht. In der DAW selbst werden hierfür gerne
Kategorien (Gruppen) wie Sub-Perkussion, Low-Perkussion, Mid-Perkussion und High-Perkussion
angelegt. Aus eigener Erfahrung gibt diese Art des Workflows eine visuelle Gesamtübersicht im
Projektfenster und zum anderen Auskunft über Frequenz- oder Registeranteile, die eventuell
noch zu schwach bzw. zu dominant vertreten sind.

Track 23: Perkussionsebene – Turned into War

Das Audiobeispiel 27 zeigt die reine Perkussionsebene anhand diverser Sample-Libraries auf.
Zum Einsatz kamen Heavyocitys Master Session Collection, 8dios Aura Percussion, 8Dios Hybrid
Drums, Epic Toms, und die massive 8W Perkussion von 8dio. Ab 00:41 Minuten erklingen
zusätzlich noch „punchige“ Hits von Project Bravo. Es fällt auf, dass der abgebildete Klang durch
die Kombination elektronischer und akustischer Perkussionsklänge sehr „voll“, „modern“ und
„hybrid“ ist. Dieser Gesamtsound wäre ohne die Hinzunahme elektronischer Elemente (Hybrid
Drums, Electronic Kits etc.) kaum realisierbar. Auch die Addition akustischer Elemente wie z.B.
Shakern, spielt eine wesentliche Rolle in der Gestaltung hybrider Perkussionsebenen. Neben der
korrekten Wahl der Instrumente werden alle Spuren einer Gruppe (Perkussionsgruppe)
zugeordnet und leicht komprimiert. Zusätzlich wird mit einem künstlichen Hall einer
Tiefenstaffelung gewährleistet.

Hinweis:

Bei der gezielten Schichtung von Klängen liegt ein großes Augenmerk auf der ausgewogenen
Lautstärkebalance innerhalb der Instrumentengruppen, die mithilfe des (virtuellen) Mischpultes
oder durch Lautstärke-Automationen in der DAW kontrolliert und gesteuert werden kann.

107
6. Realisation und Produktion moderner hybrider Klangidiome

Die folgende Abbildung soll einen visuellen Aufschluss über die Schichtung von Klängen in der
DAW geben.

Beginn Klimax I

Ende Klimax I

Abb. 35: Projektfenster Cubase 9 Pro – Perkussionsebene von Turned into War

Die gelben Events im Projektfenster bilden die Perkussionsebene


ab. Im Verlauf des Klimax ist eine Verdichtung und gezielte Schichtung der Instrumente zu
erkennen. Der Perkussionsklang wird gegen Ende hin im Klang immer voller. Neben den
klanglichen Gestaltungsmöglichkeiten liegt ein Augenmerk auch in der Intensivierung der
Parameter „Dynamik“ und „Rhythmik“.

108
6. Realisation und Produktion moderner hybrider Klangidiome

6.3.2.2. Sounddesign

„… dass zu den Tönen und Rhythmen der Musik neue Klänge hinzutreten würden, Klänge aus
anderen Sphären: Rufe menschlicher und tierischer Stimmen, Naturstimmen, Rauschen von
Winden, Wasser, Bäumen und dann ein Heer neuer, unerhörter Geräusche, die das Mikrofon auf
künstlichem Wege erzeugen könnte, wenn Klangwellen erhöht oder vertieft,
übereinandergeschichtet oder ineinander verwoben, verweht und neugeboren würden. (…) Ein
solches Opus dürfte kein Stimmungsbild ergeben, keine Natursinfonie mit möglichst
realistischer Ausnutzung aller vorhandenen Mittel, sondern ein absolutes, über die Erde
schwebendes, seelenhaftes Kunstwerk.“
(Kurt Weil, 1925) 161

Der nächste Abschnitt befasst sich mit der Verwendung und der Begriffsklärung des
Sounddesigns. Der Terminus Sounddesign taucht in unterschiedlichsten Zusammenhängen auf
und ist nirgends genau definiert. Er ist tatsächlich am ehesten im Abspann von Spielfilmen zu
finden und meint in der Regel die Arbeit am akustischen Set des Films, die für die Gestaltung
eines genretypischen Klangeindrucks zuständig ist und dementsprechend auch
Filmtongestaltung genannt wird.

Was bedeutet jedoch Sounddesign im hybriden Produktionskontext und weshalb hat dieses
Element inzwischen so eine wesentliche Bedeutung?

Sound steht für Ton bzw. für Klang, Design für die Gestaltung. Bereits seit den 1920er Jahren
hatte Robert Beyer (dt. Tonmeister und Komponist, 1901 – 1989) von Klangfarbenmusik
gesprochen. Die ersten Beiträge von Klangfarbenmusiken findet man u.a. bei den Komponisten

161
[Lensing2009] S. 36 – 1. Abschnitt

109
6. Realisation und Produktion moderner hybrider Klangidiome

Ferruccio Busoni und Arnold Schönberg. Robert Beyer war einer der ersten Tonmeister und
Komponisten die technische Verfahrensweisen der Elektroakustik im kompositorischen Kontext
nutzen konnten. Beyer war zusammen mit Herbert Eiert und Werner Meyer-Eppler wesentlich
an der Gründung des ersten Studios für elektronische Musik in Köln beteiligt. Mit der Etablierung
des Studios für Elektronische Musik (1951) und den ersten Werken von Karl-Heinz Stockhausen
oder der Erschaffung neuer Kunstformen wie der seriellen Musik oder der Musique Concréte
(Kapitel 4), erfuhr das Sounddesign im musikalischen Kontext, z.B. die Verfremdung und
Manipulation aufgenommener Alltagsgeräusche oder akustischer Instrumente, eine gänzlich
neue Bedeutung hinsichtlich hybrider kompositorischer Gestaltungsmittel. Gerade in der
Hochphase der Musique Concréte, versuchte man musikalisch relevantes Material in den
sorgfältig ausgewählten Klängen zu entdecken und dieses dann vergleichbar mit dem Einsatz von
musikalischen Themen oder Motiven in der traditionellen Instrumentalmusik, zu behandeln. Also
generieren sich hier Struktur und Form aus den Klängen selbst.162

Seit der revolutionären Umstellung analoger Tonsysteme auf digitale Audio Workstations
sind dem Kreationsprozess und den klanglichen Gestaltungsmöglichkeiten hinsichtlich des
Sounddesigns keine Grenzen mehr gesetzt. Somit hat sich das Sounddesign neben seiner
Bedeutung als Filmtongestaltung, nicht nur als neuartige soundtechnisch-gestalterische
Klangmöglichkeit, sondern vielmehr als eine eigenständige Kompositionstechnik etabliert. Im
weiteren Verlauf werden einige ausgewählte Gestaltungsvarianten vorgestellt.

1. Klangfläche (Pads):

Insbesondere zur Kreation eigener Sounddesign-Klangebenen gibt es eine Vielzahl


unterschiedlichster Instrumente. Um dem Rahmen dieser Thesis gerecht zu werden,
beschränken sich die nächsten Abschnitte auf einige technisch- und kreativ-relevante
Gestaltungsmöglichkeiten.
Klangflächen können natürlicher und synthetischer Herkunft sein. Das folgende Klangbeispiel

162
Vgl. [Lensing2009] S. 59-63

110
6. Realisation und Produktion moderner hybrider Klangidiome

bildet ein „horrorähnliches“ Stimmungsbild mithilfe von eigens erstellen Klangflächen ab.

Track 24: Horror Ambient Pad

Im ersten Arbeitsschritt zur Generierung eines Flächensounds wird eine gewünschte


Klangquelle zur weiteren Bearbeitung ausgewählt. Im Beispiel dient die Library Symphonic
Shadows von 8Dio als Ausgangsmaterial. Im nächsten Schritt wird ein gewünschtes Preset, in
diesem Fall eine Violine, mithilfe dominanter Effektbearbeitungsmaßnahmen wie dem Verzerrer
(Distortion), einem Echo-Prozessor (Soundtoys) und dem Rythmic-Effekt Prozessor Movement
gezielt modifiziert und verfremdet. Die kaum mehr identifizierbare Violine wird nun als
organisches Element zur Generierung und Unterstützung der beängstigenden und bedrohlichen
Klangatmosphäre verwendet. Im letzten Schritt werden die Balancen und Lautstärkewerte
mittels Automationen innerhalb der DAW detailliert angepasst um einen ausgewogenen
Gesamtklang zu gewährleisten.

2. Motion Textures zur atmosphärischen Stimmungsgenerierung:

Mit Motion Textures, also „sich bewegenden Klangtexturen“, beschäftigt sich der nächste
Abschnitt. Als Hilfsmittel wird hierfür exemplarisch die Software Blendstrument der Firma 8Dio
genutzt. Wie schon eingangs erwähnt, gibt es unzählige Gestaltungsmöglichkeiten im Kontext
des Sounddesigns. Klangtexturen verleihen einer Komposition eine zusätzliche, organische und
atmosphärische Ebene, die vor allem zur Unterstützung einer gewünschten Klangatmosphäre
und Stimmung zum Einsatz kommt. Das kurze Klangbeispiel zeigt die Abbildung einer simplen
Motivik im Klavier in Kombination mit einigen Motion Textures.

Track 25: Motion Textures & Klavier

111
6. Realisation und Produktion moderner hybrider Klangidiome

Mit Hinzunahme der Klangtexturen gewinnt die gesamte akustische Ebene aus meiner Sicht
eine gänzlich neue atmosphärische „hybride“ Tiefe. Auch die emotionale Wirkung des
Klavierparts erfährt mittels dieser Technik eine Intensivierung.

Abb. 36: User Interface von 8Dio Blendstrument

Mit dieser Software können mühelos aus verschiedenen Samplequellen und Layern, zahlreiche
individuelle und bewegte Klangtexturen generiert werden, die als organische
Sounddesignelemente in hybriden Kompositionen Verwendung finden können.

112
6. Realisation und Produktion moderner hybrider Klangidiome

3. Manipulation und Bearbeitung akustischer Klänge:

Ein traditioneller akustischer Klangkörper wie das Orchester, spielt z.B. in einem Saal ein
bestimmtes Arrangement, das die Größe und Besetzung des Klangkörpers (Ensembles)
berücksichtigt. Im Kontext des Modern Hybrid Scoring ist die originalgetreue Abbildung eines
Orchesters nicht immer als klangliches Endergebnis gewünscht. Vielmehr dient der Klang des
Orchesters zur Generierung neuer, verfremdeter oder erweiterter Klangfarben. Seit der analogen
Aufnahmetechnik und den damit verbundenen neuen Musikströmungen wie z.B. der Musique
conréte, hat sich die Manipulation akustischer Klangquellen sowohl als soundtechnisches- wie
auch als kompositorisches Gestaltungsmittel in der Produktionswelt etabliert. Exemplarisch darf
hier abermals das Werk Gesang der Jünglinge von Karlheinz Stockhausen (siehe Kapitel 4.4.1)
genannt werden. Im Folgenden werden nun einige technische Gestaltungsmöglichkeiten zur
Bearbeitung und Verfremdung akustischer Klänge aufgezeigt:

1. Sample Editor: Der Sample Editor ermöglicht eine nahezu unbegrenzte Freiheit in der
Bearbeitung und Verfremdung von Audioklängen. Durch umfangreiche und vielseitige
Bearbeitungstools können heutzutage schnelle, intuitive und qualitativ hochwertige
Audiomanipulationen in der DAW durchgeführt werden. Es können beispielsweise Effekt-

Abb. 37: Sample Editor in Cubase Pro 9

113
6. Realisation und Produktion moderner hybrider Klangidiome

Varianten wie die Verfremdung durch Tonhöhenveränderungen (engl. pitch shifting), oder
Verzerrungen mühelos verwirklicht werden. So klingt die Klangquelle bei einer
Tonhöhenveränderung im Klangergebnis beispielsweise ähnlich wie bei einer zu schnell oder zu
langsam drehenden Schallplatte, jedoch ohne eine entsprechende
Geschwindigkeitsveränderungen.

2. Omnisphere 2 – Audio Import: Diese Methode erklärt die Funktion „Audio Import“ der
Powersynth Software Omnisphere 2 von Spectrasonics. Diese ermöglicht außergewöhnliche
Bearbeitungsmöglichkeiten wie z.B. den Gebrauch eines Granularsynthese-Effektes. 163 Mit
dieser Methode lassen sich aus der originalen Klangquelle vollkommen neue künstliche Klänge
generieren. Der hier genutzte Effekt weist neben den typischen Elementen der Granularsynthese
auch einen Pitch-Shifting Anteil auf. In diesem Hörbeispiel soll ein Klangeindruck des mit dem
Granularsynthese-Effekt verfremdeten Ausgangstückes Turned into War abgebildet werden.

Track 26: Granularsynthese – Turned into War

Das klangliche Endergebnis zeigt eine komplett manipulierte Audioebene, die das Stück faktisch
anonymisiert und verfremdet hat.

3. Insert- oder Send Effekte: Ein weitere Variante zur Manipulation akustischer Klangereignisse,
ist die Anwendung von Effekten oder Effektketten (siehe Kapitel 6.2) über den Insert- oder Send-
Weg auf der gewünschten Audiospur innerhalb der DAW. Mit dieser Methode lassen sich
unzählige Konstellationen und Gestaltungsmöglichkeiten zur Klangmanipulation realisieren. Die
Qualität und Funktionsmöglichkeiten der Effekt-Plugins können in der technischen Umsetzung

163
Granularsynthese ist eine Methode um künstliche Klänge zu erzeugen. Es wird hierbei ein
kontinuierlicher Klang vorgetäuscht, der in der Realität aus vielen einzelnen Abschnitten besteht und im
Ursprung einer akustischen oder aufgezeichneten Tonquelle entspringt. Bei diesen einzelnen Abschnitten,
den sog. „Grains“, handelt es sich um sehr kurze, digitale Klangfragmente, deren Länge üblicherweise
unter 50 Millisekunden liegt. Vgl. https://de.wikipedia.org/wiki/Granularsynthese. Zugriff: 15. November
2017

114
6. Realisation und Produktion moderner hybrider Klangidiome

durchaus eine tragende Rolle spielen.

6.3.2.3. Sound-Effekte

Neben der Generierung perkussiver und tonaler Instrumente können z.B. Synthesizer,
Sample Libraries oder akustische Tonaufnahmen im musikalisch-kompositorischen Kontext auch
zur Konstruktion von Sound-Effekten genutzt werden, um beispielsweise dramaturgische
Verläufe innerhalb einer Komposition an diversen Stellen energetisch zu unterstützen. Im Kapitel
5.4.3.2 sind bereits relevante Sound-Effekte näher erläutert worden.

Übergänge von einem Teil eines Stücks in einen anderen Teil können mit dieser
Produktionstechnik umgesetzt oder auch als immer wiederkehrende Elemente (z.B. Boom
Akzente) gebraucht werden. Diese Klangeffekte können durch Verwendung unterschiedlicher
Modulationsquellen, in Verbindung mit vorhandenen Klangquellen, generiert und angepasst
werden. Mit Synthesizerklängen die über markante LFO-Modulationen verfügen, lassen sich
beispielsweise Spannungsanstiege durch eine gezielte lineare Beschleunigung der LFO-
Schwingungsgeschwindigkeit generieren. Bei kontinuierlicher Geschwindigkeitserhöhung eines
LFOs per Automation lassen sich somit mühelos Filter- oder Tonhöhen-Modulation
beschleunigen. Der Fokus des nächsten Klangbeispiels liegt hierbei besonders auf dem
Klangeffekt Riser, der durch einen kontinuierlichen Anstieg der Tonhöhe auf einen dramatischen,
wichtigen Punkt zusteuert und gezielt die Spannung steigert. Anhand des Beispiels wird die
Bedeutung der Verwendung von Sound-Effekten im hybriden Kontext näher dargestellt.

Ein weiterer exemplarischer Sound-Effekt, der ähnlich dem Riser funktioniert, ist der oftmals
unter dem Terminus Downer (auch Drop) anzutreffende Klang. Er zeichnet sich dadurch aus, dass
die Tonhöhe verhältnismäßig schnell abwärts sinkt. Mit diesem Klang kann analog zum Riser, ein
dramaturgisch wichtiger Punkt hervorgehoben werden. Auch kann es beispielsweise zu
interessanten Resultaten führen, eine Klangquelle rückwärts durch ein Hallgerät (Reverb-Plugin)
abspielen zu lassen und dieses aufzunehmen. Auf diesem Wege kann sich ein Klang bereits

115
6. Realisation und Produktion moderner hybrider Klangidiome

ankündigen, bevor er tatsächlich erklingt und so ähnlich dem Riser für einen Spannungsaufbau
sorgen. Es gibt unzählige weitere Gestaltungsmöglichkeiten zur Generierung von Sound-Effekten.
Diese vielfältigen Variationsmöglichkeiten machen sie zu einem wichtigen Werkzeug bei nahezu
allen Produktionen hybrider Musik.

Das nächste Klangbeispiel vereint nun die oben beiden genannten ausgewählten Sound-
Effekte. Als Ausgangsmaterial dient wiederum der Titel Turned into War. Das Beispiel zeigt direkt
zu Beginn mit Ertönen des Risers und des Downers, den klanglichen Übergang in den nächsten
Part (Klimax I). Das Beispiel soll neben den klanglichen Eigenschaften noch einmal den
dramaturgischen Unterstützungsaspekt hinsichtlich des Spannungsverlaufes aufzeigen.

Track 27: Riser & Downer

6.3.2.4. Bassklänge

Bassklänge gibt es in unterschiedlichsten Erscheinungsformen und sie haben als tragendes


Element gegenüber anderen Instrumenten eine grundlegende Funktion. Die Klänge erstrecken
sich von akustischen Bässen, über die Verwendung von synthetischen, obertonreichen
Wellenformen, bis hin zum Gebrauch von mehreren Wellenformen die auch von
unterschiedlicher Form und Frequenz sein können. Synthesizer bieten zudem durch Addition
eines zusätzlichen Oszillators, dem sogenannten Suboszillator oder auch Sub-Bass, der sich eine
Oktave unterhalb des anderen Oszillators befindet, einen vollen und tiefen Sub-Klang. Auch
dieser Punkt ist in der Produktionsphase des Modern Hybrid Scoring inzwischen ein wichtiger
Bestandteil, da beispielsweise ein realer Orchesterklang diese Frequenzen nicht abbilden kann.
Ein Sub-Bass dient nicht nur zum Füllen der tiefen Frequenzen (zw. 20Hz - 60Hz) sondern ist als
maßgebliches Steigerungselement der Klangintensität zu verstehen. Vom Hörer werden diese
tiefen Frequenzen mehr gefühlt als bewusst gehört. Gerade in modernen Kinosälen,

116
6. Realisation und Produktion moderner hybrider Klangidiome

Veranstaltungshallen oder Heimkino-Anlagen, hat sich die Verwendung von Sub-


Bässen zur Empfindungsintensivierung als unabdingbares Klangelement etabliert. 164 Die nun
folgenden zwei Klangbeispiele veranschaulichen die Funktion von Sub-Frequenzen im hybriden
musikalischen Kontext. Das Audiobeispiel 28 veranschaulicht zunächst das Zusammenspiel
zweier Sub-Klänge. Der erste Klang zeigt den „klassischen“ Sub-Bass (Sinuston) in seiner
einfachsten Form. Der andere Sub-Klang nimmt jedoch eine texturelle Funktion ein und
unterstützt den Sinuston mit einer flächenartigen Sub-Ebene. Im Zusammenspiel verschmelzen
diese zwei Klangebenen zu einer Einheit. Diese Methode ist in der Trailer-Musik durchaus eine
wirksame Methode um tiefe atmosphärische Klänge zu generieren.

Track 28: Sub-Bass & Sub Drone

Im nächsten Beispiel erklingt nun das Trailerintro von Turned into War mit dem
Zusammenspiel der Sub-Bässe. In analytischer Hinsicht generieren Sub-Frequenzen nicht nur
einen deutlich dichteren und volleren Bassklang, sondern fügen dem Gesamtbild eine zusätzliche,
„gefühlte“ Ebene hinzu, die mit reinen akustischen Mittel kaum realisierbar wäre.

Track 29: Sub-Bass - Intro


Intro

Der Sub-Bass wurde mit dem Software-Synthesizer Twin 2 der Firma FabFilter umgesetzt.
Neben den Sub-Bässen stehen weitere zahlreiche Möglichkeiten zur Gestaltung von
elektronischen Bassklängen zur Verfügung. Hier kann auch das reale Instrument wie z.B. ein
Kontrabass als Vorbild dienen, indem versucht wird natürliche Eigenschaften wie den
dynamischen Klangverlauf oder Anschlagsgeräusche nachzuahmen.

Ein ähnlicher Klangverlauf kann also z.B. mit einer Amplitude165-formenden Hüllkurve realisiert

164
Vgl. https://de.wikipedia.org/wiki/Subbass_(Tontechnik). Zugriff: 11. November 2017
165
Amplitude ist ein Begriff zur Beschreibung von Schwingungen und definiert sich als die maximale

117
6. Realisation und Produktion moderner hybrider Klangidiome

werden. Auch Klangeffekte wie ein Sub-Downer können unter Verwendung von Bassklängen
realisiert werden.

6.3.2.5 Pulsierende Klänge166

Pulsierende Klänge (auch Impulse) sind sehr eng mit dem Metrum der Musik verknüpft.
Während ein Rhythmus, ein vital-zeitliches Prinzip der Musik und somit den Unterbau darstellt,
so bildet das Metrum als mental-überzeitliches Prinzip, den Überbau der Musik. Die
Geschwindigkeit des Pulses ist ein wichtiger Faktor für das Tempo einer Musik. Pulsierende
Klänge finden sich inzwischen in zahlreichen hybriden Produktionen und können akustischer
oder elektronischer Klangherkunft sein. Von analogen- oder digitalen Synthesizerklängen über
bspw. gezupfte Pizzicato Streicher bis hin zu komplexen, manipulierten Klangquellen, sind den
Erscheinungsformen von Pulses keine Grenzen gesetzt. Das nächste Hörbeispiel gibt einen
Klangeindruck pulsierender Klänge in einem musikalischen Kontext wieder. Die technische
Realisation erfolgt exemplarisch anhand der Sample-Library Signal der Firma Output. Mit
einfachen Anwendungsmöglichkeiten lassen sich hierbei durchaus effektive Klangergebnisse
erzielen.

Track 30: Pulse im musikalischem Kontext

Das Klangbeispiel zeigt neben der pulsierenden auch eine akustische Ebene, auf der eine legato
gespielte Flügelhornlinie (8Dio Century Solo Brass) zu hören ist. Bei genauer analytischer
Betrachtung fällt auf, dass der synthetische Pulse eine Doppelfunktion übernimmt. Zum einen
nimmt der Pulse eine metrisch- und zeitlich-orientierte Funktion ein und zum anderen trägt die
Klangabbildung zur hybriden Klangästhetik der Gesamtstimmung bei.

Auslenkung einer sinusförmigen Wechselgröße aus der Lage des arithmetischen Mittelwertes
Pulsierende Klänge: auch Pulses genannt (engl. Bezeichnung)
166

118
6. Realisation und Produktion moderner hybrider Klangidiome

6.3.2.6 Ausgewählte kompositorische Gestaltungsmittel

Neben den technischen Entwicklungsstadien haben sich auch kompositorische Gestaltungsmittel


in den letzten Jahrzehnten immer mehr festsetzen können.

1. Ostinato:

Ein Ostinato ist im musikalischen Kontext, eine sich immer wiederholende musikalische Figur,
die melodische, rhythmische und harmonische Elemente in sich vereint. Schon in den frühen
167
Opern von Verdi, waren Ostinatos ein wichtiger Bestandteil der Komposition. Die
Erscheinungsformen des Ostinatos sind dabei wie bereits beschrieben, höchst verschieden und
variabel. Vor allem im Kontext hybrider Kompositionen in Film-, Games- und Trailer-Musiken, ist
die Verwendung von Ostinatos ein wesentlicher Bestandteil geworden. Sie werden heute oftmals
an Stelle von melodischen Elemente genutzt. Wo früher Leitmotive und starke Themen in der
Komposition verwendet wurde, greift man heute häufig auf Elemente wie Ostinatos,
Sounddesigns etc. zurück. Der nächste Track zeigt exemplarisch die Variante eines Ostinatos im
hybriden musikalischen Gesamtkontext. Das Klangbeispiel ist ein kurzer Ausschnitt aus der
Eigenkomposition Invisible Danger.

Track 31: Ostinato im musikalischem Kontext

2. Perkussionsklänge:

Ein weiteres Merkmal hybrider Klangwelten sind oftmals verfremdete akustische oder
elektronische Perkussionsklänge. Gerade dieser Teil der akustischen Klangerzeugung erfährt

167
Vgl. [Czaika2006] S. 176 ff.

119
6. Realisation und Produktion moderner hybrider Klangidiome

heute eine sehr viel variantenreichere Metamorphose als traditionell-akustische Instrumente wie
Blech- oder Holzbläser. Während früher nur auf ein begrenztes Schlagwerk innerhalb des
Orchesters (Pauken, Snare, Gran Casa) zurückgegriffen werden konnte, ist heute eine nahezu
unbegrenzte Palette perkussiver Klänge und Klangerzeuger verfügbar. Musik, insbesondere ihr
rhythmischer Anteil, wird direkt im Hirnstamm verarbeitet, dem ältesten Teil unseres Denkorgans.
Mitreißende, schnelle und laute Rhythmen treiben den Herzschlag in die Höhe, langsame
Rhythmen und tiefe Töne wirken eher beruhigend. Gerade im Kontext der epischen Trailer-, Film-
oder Videogames-Musik spielen diese Mechanismen eine wesentliche Rolle zur Erzeugung und
Steuerung von Emotionen.168

Während klassische Orchesterinstrumente im modernen hybriden Kontext relativ geringfügig


im Klangkontext verändert wurden, hat sich der perkussive Anteil meiner Meinung nach am
deutlichsten hörbar verändert. Somit ist die Verwendung hybrider, perkussiver Klänge und der
damit verbundene musikalische Parameter Rhythmik, ein wesentliches kompositorisches
Gestaltungsmittel hinsichtlich hybrider Produktionen geworden.

3. Harmonien:

Es bilden nicht nur soundtechnische Gestaltungsmittel eine zentrale Rolle in der Umsetzung
hybrider Scores. So sind Harmonien und Melodien, die zu den kompositorisch-musikalischen
Gestaltungsmittel zählen, ein ebenso gleichwertiger Bestandteil. Der musikalische Parameter
Harmonie spielt natürlich in jedem Musikstil eine substanzielle Rolle. Die vielen
Klangschattierungen und Farbtexturen, das Ineinandergreifen verschiedener Spannungs- und
Energieniveaus und die Beziehungen der einzelnen Töne zueinander, finden sich in der
Harmonielehre wieder.169

168
Vgl. http://www.zeit.de/2010/35/Musik-Wissenschaft/seite-2. Zugriff: 15. November 2017
169
Vgl. [Sikora2003] S. 1

120
6. Realisation und Produktion moderner hybrider Klangidiome

Was hat die Harmonielehre explizit mit Modern Hybrid Scoring zu tun?

Wenn man die Wahl des Tongeschlechts aktueller hybrider Scores betrachtet, so ist
inzwischen ein überwiegender Einsatz der Moll-Tonalität (hauptsächlich natürlich Moll,
harmonisch Moll, seltener dorisch) festzustellen. Ob in Ostinato Figuren, in Akkordstrukturen
oder in musikalischen Motiven, Moll-Tonarten dominieren zunehmend mehr viele Trailer-,
Blockbuster- oder Videogames-Musiken. Es gibt unzählige Beispiele für die Verwendung des Moll-
Charakters. Exemplarisch können hierfür z.B. der Großteil von Hans Zimmers Blockbuster Scores,
fast alle Blockbuster Trailer-Musiken oder eine Vielzahl an Games-Musiken von AAA-Videospielen
wie Crysis-, Call of Duty- oder die Assassin‘s Creed Serie genannt werden. Da die Moll-Tonalität
nicht nur einen „traurigen“, „romantischen“ und „nachdenklichen“ Charakter, sondern auch
dramatische und emotionale Stimmungen verkörpern kann, spielt der Gebrauch dieses
Gestaltungsmittel eine maßgebliche Rolle in hybriden Kompositionen. Natürlich tragen zur
gewünschten Wahrnehmung und Klangwirkung des Tonmaterials auch Parameter wie z.B. Tempo,
Dynamik, Stilistik und Rhythmik bei.

6.3.2.8 Mischung und Mastering

Chronologisch stehen die finale Mischung und das Mastering am Ende einer jeder
Produktionskette. Wie bei jeder anderen Musikform auch, spielen Mixing und Mastering beim
Modern Hybrid Scoring eine wichtige Rolle. Einhergehend mit den klanglichen Veränderungen
z.B. den häufig sehr tiefen Frequenzen (Sub-Bässe), haben sich auch gewisse Standards im
Bereich der Tonmischung entwickelt. Hier steht insbesondere die Erzeugung eines sehr dichten
und trotzdem differenzierten, komplexen Klangbildes im Vordergrund. Mit ihrer Fertigstellung
kann das fertige Produkt in die Distributionsphase übertreten, daher ist die Tonmischung auch
einer der kritischsten Bestandteile einer Produktion.

121
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

7. In Konversation mit Komponisten der Film-, Games- und Trailer-


Industrie

In diesem Kapitel haben namhafte Komponisten der Film-, Games- und Trailer-Industrie sich
mit gezielten Fragen zur Thematik des Modern Hybrid Scoring befasst. Die Interviews werden in
diesem Kapitel einfachheitshalber in deutscher Sprache wiedergegeben. Im Anhang B finden sich
aber alle Konversationen noch einmal in der originalen und unbearbeiteten Fassung. Um am Ende
meiner Schlussbetrachtung ein persönliches Resümee ziehen zu können, wurden jedem
Gesprächspartner dieselben drei Fragen gestellt.

7.1 Mark Petrie

Mark Petrie (*1979) ist ein Neuseeländischer Trailer, Film- und Videospiel Komponist. Er ist vor
allem für seine Trailermusiken zu den Filmen Life of Pi, Mission Impossible: Ghost Protocol,
Sherlock Holmes, The Hobbit und The Amazing Spider-Man oder für seine Videospiel Musik zu
Madden NFL (2014) bekannt. Er arbeitet unter anderem mit großen Trailer-Musiklabels wie
Audiomachine und PostHaste Music zusammen und veröffentlicht darüber regelmäßig Trailer-
Musiken.170

Abb. 38: Mark Petrie

170
Vgl. https://en.wikipedia.org/wiki/Mark_Petrie. Zugriff: 29. Oktober 2017

122
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

Interview mit Mark Petrie

Thomas Stanger:
Wie sind sie als Komponist zum ersten Mal mit dem Thema Modern Hybrid Scoring in Kontakt
gekommen?

Mark Petrie:
Bedingt durch die Budgets, hatten die meisten meiner frühen Projekte wie Indie Filme und TV-
Produktionen meistens Samples, gelegentlich kombiniert mit akustischen live Aufnahmen. Man
kann also glaube ich sagen, dass ich moderne hybride Musik seit dem Beginn meiner Karriere
mache. Bereits lange Zeit bevor ich Trailer-Musik gemacht habe.

Thomas Stanger:
Wie haben das Modern Hybrid Scoring und die fortschreitende Verschmelzung von akustischen
und elektronischen Klängen, die heutige Herangehensweise an Kompositionen verändert?

Mark Petrie:
Sample Libraries zu nutzen war bis in die frühen 2000er Jahre hinein sehr teuer, als dann erst
Kontakt Instrumente von Native Instruments und anderen Firmen begannen bezahlbare
Werkzeuge zu werden. Es brauchte von 2008 bis 2012 zur weltweiten Verbreitung günstiger
Hochgeschwindigkeits-Internetleitungen und von herunterladbaren Inhalten. Die Kunst mit
virtuellen Instrumenten zu komponieren eröffnete sich für Millionen von Menschen
(Komponisten/Musiker) in der ganzen Welt. Und zu diesen Millionen gehörten vor allem
technikbegeisterte Millennials, die sich über die Trends wie den berühmten "Inception Braaams"
und die nachfolgenden Entwicklungen der Audiointerpunktion wie dem "Ping" ständig auf dem
Laufenden halten.

123
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

Thomas Stanger:
Wie haben sich verändernde Klangidiome, die hauptsächlich durch neue Technologien entstehen,
die Trailer-Musikindustrie in den letzten Jahrzehnten verändert?

Mark Petrie:
In den zurückliegenden fünf Jahren hat sich die Trailer Musik zwischen Kino-Trailern und TV-Spots
aufgeteilt. Die Aufteilung der musikalischen Klänge ging damit einher. Heute hat ein Film
dutzende TV-Spots in denen hauptsächlich hybride Musik benutzt wird.

124
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

7.2 Bobby Tahouri

Bobby Tahouri ist ein in Los Angeles geborener und ansässiger Film, TV und Videogame
Komponist. Nach seinem erfolgreichen Studienabschluss im Studiengang Komposition und
Klavier am San Francisco Conservatory of Music und am California Institute of the Arts wurde
Tahouri im Jahr 2008 ein Teil des Remote Control Production Team von Hans Zimmer. Er arbeitete
zu Beginn seiner Karriere als Arrangeur und Assistent für den Filmkomponisten Ramin Djawadi
(Iron Man, Clash of Titans, Pacific Rim und Game of Thrones). Er schrieb unter anderem auch
„additional music“ für Universal‘s Pictures Animationsfilm Despicable Me 2 (dt. Ich – Einfach
unverbesserlich 2). Einen seiner bisher größten Erfolge errang Tahouri mit seiner Videospielmusik
zum Blockbuster Game Rise of the Tomb Raider von Square Enix.171

Abb. 39: Bobby Tahouri

171
Vgl. https://en.wikipedia.org/wiki/Bobby_Tahouri. 29. Oktober 2017

125
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

Interview mit Bobby Tahouri

Thomas Stanger:
Wie sind sie als Komponist zum ersten Mal mit dem Thema Modern Hybrid Scoring in Kontakt
gekommen?

Bobby Tahouri:
Mein erster Kontakt mit Modern Hybrid Scoring war als zusätzlicher Komponist zu dem Film
Hitman 2007. Das Projekt stellte eine perfekte Balance zwischen elektronischen Sounds, gemischt
mit orchestralen Aufnahmen dar. Unsere Klangpalette bestand aus einem traditionellen
Orchester (Streicher und Bläser), einem Männerchor, elektronischen Synthesizern und
Percussions und traditionellen Perkussionsinstrumenten (ethnische und orchestrale). Der Film
spielte an verschiedenen geographischen Orten und während die Musik oft diese Orte reflektierte,
blieb der hybride Aspekt der Musik einheitlich, fast schon stetig verbindend zwischen
synthetischen und orchestralen Elementen. Wir wollten das Gefühl erzeugen, dass man das
(Anmerkung des Übersetzers: dem Film zu Grunde liegende) Spiel spielte, so dass ein hybrider
Score half mit allen Arten von „ear candy“ (Hörgenüssen) den Hyperrealismus eines lebendig
gewordenen Videospiele-Charakters auf der Kinoleinwand zu unterstützen.

Thomas Stanger:
Wie haben das Modern Hybrid Scoring und die fortschreitende Verschmelzung von akustischen
und elektronischen Klängen, die heutige Herangehensweise an Kompositionen verändert?

Bobby Tahouri:
Ich denke es ist unvermeidlich, dass die Kombination von akustischen und elektronischen Klängen
heutzutage in der modernen Musik so weit verbreitet ist. Die Technologie hat es den
Komponisten leicht gemacht ihre Ideen in einer digitalen Audio-Workstation umzusetzen, und die
zahlreichen Libraries von Synthesizern und gesampelten akustischen Instrumenten haben alle
Arten von Klängen, akustische, elektronische oder synthetische, als Kompositionswerkzeuge aufs
Tableau gebracht. Seit Sample-Libraries den Klang echter Orchester so gut nachbilden können, ist

126
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

es für einen Komponisten viel einfacher geworden zu experimentieren, indem er ein "echtes"
oder gesampeltes Cello mit einem Moog-Bass usw. kombiniert. Mit all den großartigen Sound-
Bibliotheken am Markt (synthetische und Sample-basierte) haben Komponisten eine
unbegrenzte Anzahl an Klangpaletten zur Verfügung, und wir sind nicht mehr länger dadurch
eingeschränkt, dass wir mit Stift und Papier schreiben und Musiker einstellen müssen um unsere
Musik zum Leben zu erwecken. Live-Musiker werden immer eine bessere Wahl sein, wenn
ausreichend Zeit und Budget vorhanden sind, aber weil die Technologie so viele erstaunliche
Synthesizer und Sample-basierte Instrumente bietet, ist es sehr einfach eine Geige mit einem
verzerrten Synthesizer zu verdoppeln und mit allen Arten von Instrumentenkombinationen zu
experimentieren. Die Technik hat es aber auch den Komponisten leicht gemacht faul zu sein und
sich nur auf Synthesizer-Ostinatos zu verlassen, die die ganze Arbeit erledigen usw., es ist also für
einen Komponisten wichtig Technologie als Werkzeug und nicht als Krücke zu verwenden.

Thomas Stanger:
Wie haben sich verändernde Klangidiome, die hauptsächlich durch neue Technologien entstehen,
die Film- und Games Industrie in den letzten Jahrzehnten verändert?

Bobby Tahouri:
Komponisten haben heute glücklicherweise eine viel breitere Klangpalette zur Auswahl als jemals
zuvor, aber es kommt am Ende immer auf die Komposition an, um ein Videospiel, einen Film oder
ein Fernsehprogramm zu unterstützen. Die Menschen werden immer auf großartige Musik
reagieren, egal wie diese Musik verpackt ist. Ob diese Komposition für Synthesizer, Sample-
basierte Orchester, echte Orchester, Klavier usw. arrangiert wird, hängt davon ab was das Projekt
verlangt. Im letzten Jahrzehnt habe ich alle Arten großartiger Scores gehört und was sie alle
gemeinsam hatten war zuallererst die Stärke der Komposition. Die Technologie hat mehr
Möglichkeiten für unsere Sound-Paletten und erstaunlich klingende Werkzeuge geschaffen, so
dass die Scores immer besser und besser klingen, aber ich denke, da der Schwerpunkt eines guten
Films oder Videospiels darauf liegt eine überzeugende Geschichte zu erzählen, sollten
Komponisten sich zuerst auf die Komposition konzentrieren. Ich glaube nicht das neue
Technologien unseren Wunsch, eine gute Geschichte zu erzählen, beeinflusst oder verändert

127
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

haben. Ein Science-Fiction Film kann heutzutage genauso effektiv mit einem vollständigen
Synthesizer-Score sein, wie mit ausschließlicher Pianomusik oder mit einer Kombination aus
beidem. Alles läuft auf die Emotionen hinaus die man erzeugen möchte. Glücklicherweise haben
es alle die Möglichkeiten, die Dank der neuen Technologien entstanden sind, einfacher den je
gemacht mit verschiedenen Klangkombinationen zu experimentieren. Die Komponisten sollten
dafür dankbar sein, dass wir heutzutage einen viel größeren Werkzeugkasten zum Herumspielen
besitzen.

128
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

7.3 Jeff Rona

Jeff Rona ist ein US-amerikanischer Film- und Videogame Komponist. Nach seinem
Studium mit dem Schwerpunkt Weltmusik sowie Konzert- und Orchesterkomposition startete Jeff
Rona seine Karriere hauptsächlich als Keyboarder und Synthesist und arbeitete eng mit Hans
Zimmer und Mark Isham zusammen. Als technischer Assistent war er Anfang der 1990er an
mehreren namhaften Filmen beteiligt. Parallel dazu hat Rona sich mit seiner eigenen Band
Luxurious der elektronischen Musik gewidmet. Ende der 1990er Jahre schrieb er die Filmmusiken
für große Kinofilme wie der Prinz von Ägypten (1998, als Arrangeur und Orchesterleiter), Traffic
– Macht des Kartells (2000) oder Exit Wounds – Die Copjäger (2001). Ende 2002 verließ er
Zimmmer‘s Remote Control Produktionsfirma. Des Weiteren ist Jeff Rona Inhaber und Gründer
der Produktions- und Trailer-Musik Unternehmen Liquid Cinema und Inside Tracks sowie der
Sample Library Firma Wide Blue Sound.172

Abb. 40: Jeff Rona

172
Vgl. http://www.jeffrona.com/about.html. Zugriff: 09. November 2017

129
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

Interview mit Jeff Rona

Thomas Stanger:
Wie sind sie als Komponist zum ersten Mal mit dem Thema Modern Hybrid Scoring in Kontakt
gekommen?

Jeff Rona:
Es würde wahrscheinlich zurückreichen bis in die 1990er Jahre und zu bestimmte Musiken von
Hans Zimmer, Mark Isham und anderen. Seitdem gab es eine solche Explosion hybrider Musik mit
Komponisten wie Harry Gregson-Williams und John Powell bis James Newton Howard und Tyler
Bates. Die Verwendung von elektronischen Instrumenten in Filmmusiken geht viel weiter zurück,
aber ich denke, die beiden haben diese Integration, „das Hybride“, erst wirklich begonnen und
bis heute stetig erweitert.

Thomas Stanger:
Wie haben das Modern Hybrid Scoring und die fortschreitende Verschmelzung von akustischen
und elektronischen Klängen, die heutige Herangehensweise an Kompositionen verändert?

Jeff Rona:
Wenn ein Film sehr erfolgreich ist, sieht man, dass andere Filme diesen Stil kopieren. Wenn es
also einen sehr erfolgreichen Film gibt, dessen Musik durchgehend elektronisch ist, wie Blade
Runner oder Drive, sieht man mehr Filme die in dieser Art vertont werden. Und das Gegenteil ist
genauso wahr. Wenn John Williams oder Alexander Desplat einen vollständig orchestralen Score
für einen Film machen der ein großer Erfolg ist, sieht man eine Rückbesinnung auf
Orchestermusik. Mit dem Erfolg von Filmen mit hybriden Scores, werden diese immer beliebter.
Mit Komponisten wie Hans Zimmer, Harry Gregson-Williams und Brian Tyler ist die moderne
Filmmusik also “hybrider” geworden. Aber man sieht auch einfachere Scores, die einer viel
minimalistischeren Philosophie folgen. Komponisten wie Cliff Martinez, Max Richter, Philip Glass,
Hauschka, Mica Levy und andere haben einen anderen populären Ansatz für Filmmusik
geschaffen. Es ist auch wichtig sich daran zu erinnern, dass die Budgets für Filmmusiken in den

130
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

letzten Jahren kleiner geworden sind, Geld also ein weiterer Faktor bei der Entscheidung darüber
geworden ist, wie eine Filmmusik produziert wird. Wenn Synthesizer die Hälfte des Orchesters
ersetzen können, erhält man einen hybriden Score und es kostet weniger. Man sieht auch Filme
für die kleineren Ensembles aufgenommen wurden oder deren Musik einfach vollständig
elektronischen ist.

Thomas Stanger:
Wie haben sich verändernde Klangidiome, die hauptsächlich durch neue Technologien entstehen,
die Trailer-Musikindustrie in den letzten Jahrzehnten verändert?

Jeff Rona:
Bei der Trailer-Musik geht es genauso um Produktionstechnik wie um Kompositionstechnik. Bei
Trailern geht es nicht nur um die Noten, sie werden auch mit größter Präzision produziert, um so
emotional wie möglich zu beeinflussen. Die besten Trailer-Komponisten verwenden eine Menge
an Audio-Processing-Technologien, um sehr sorgfältig einen epischen und kraftvollen Sound zu
erzeugen. Da sich die Heimstudios von analog zu virtuell digital verändert haben, haben Trailer-
Komponisten alle Werkzeuge verfügbar haben um Musik zu machen die gewaltig klingt!
Außerdem haben sich Trailer in den letzten Jahren mehr auf Sounddesign und weniger auf
traditionelle Musik konzentriert. Viele Trailer beginnen mit abstrakten Klängen und Rhythmen
und werden erst gegen Ende orchestraler oder harmonischer. Das ist der aktuelle Trend. So wird
viel Technologie verwendet um diese Atmosphären und das Sounddesign zu schaffen, genauso
wie zur Verbesserung der orchestralen Elemente die an bestimmten Stellen auftreten können.

131
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

7.4 Ryan Amon

Ryan Amon ist ein amerikanischer Komponist, der in Elkhorn, Wisconsin, geboren wurde, wo
er bereits in jungen Jahren mit dem Komponieren für klassisches Klavier und Saxophon begann.
Er ist ein Absolvent des McNally Smith College of Music in St. Paul, Minnesota, wo sein
akademischer Schwerpunkt Songwriting, Komposition und Motion Imaging war. Ryan's Musik
und seine Quelle
der Kreativität
werden tief von
seinem Glauben an
Jesus Christus
beeinflusst. Sein
Studium und seine
Liebe zur
Weltmusik spiegelt
sich oft in seinen
Kompositionen
wieder, ebenso wie
seine akustischen

Abb. 41: Ryan Amon


Experimente und
die Verwendung
traditioneller Instrumente auf nicht-traditionelle Art und Weise. Im Jahr 2011 wurde Ryan von
Regisseur Neill Blomkamp kontaktiert, um den Soundtrack zum Sci-Fiction Blockbuster Elysium
(Matt Damon in der Hauptrolle) zu komponieren. Dieser Film ist ein Musterbeispiel für heutige,
moderne hybride Filmkompositionen. Der Score bildet unter anderem eine Vielzahl an akustisch-
experimentellen Klängen wie die Rufe von Colobus-Affen und Pavianen, dem Brummen von
Moskitos oder mongolische Kehlgesänge mit synthetischen Klangflächen, Pulses,
durchsetzungsfähigen Perkussion und Orchesterklängen (London Philharmionia Orchestra) ab. 173

173
Vgl. http://ryanamon.com/#About. Zugriff: 08. November 2017

132
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

Interview mit Ryan Amon

Thomas Stanger:
Wie sind sie als Komponist zum ersten Mal mit dem Thema Modern Hybrid Scoring in Kontakt
gekommen?

Ryan Amon:
Rückblickend würde ich sagen, dass der erste Score den ich als hybrid empfunden habe, “The
Matrix” von Don Davis war – es kann aber auch der zweite “The Matrix Reloaded” gewesen sein,
da ich denke der erste war in der Hauptsache modern orchestral. Er hat deshalb mein Interesse
geweckt, da ich zu dieser Zeit Musik von Elektrogruppen wie “Hybrid” gehört und studiert habe.
Die Matrix Filme waren die ersten an die ich mich entsinnen kann, die diese Elemente mit dem
Orchester in einem Film vermischt haben.

Thomas Stanger:
Wie haben das Modern Hybrid Scoring und die fortschreitende Verschmelzung von akustischen
und elektronischen Klängen, die heutige Herangehensweise an Kompositionen verändert?

Ryan Amon:
Ich denke Musiker versuchen immer zu experimentieren und etwas Neues zu schaffen. Wir hatten
in unserer Geschichte schon die Vermischung von nahezu jedem kategorisierten Musikstil auf die
eine oder andere Weise und ich glaube, dass die Grenzen zwischen den Genres heute
verschwommener sind denn je. Viele Musikwissenschaftler werden auf Komponisten wie John
Cage verweisen, die geholfen haben die Definitionen von Musik und was Klang in diesem
Zusammenhang bedeutet, in Frage zu stellen. Tatsächlich glaube ich, dass es die Filmemacher
waren die begonnen haben das Erlebnis für den Zuschauer zu verändern und der Gebrauch von
Musik verändert sich infolge dessen dann auch. Während die Scores der Vergangenheit
Fantastisches und Romantisches hervorgerufen haben, ist der neue hybride Ansatz fest im Realen
und Konkreten verankert. Ich denke, dass sich das Filmemachen verändert hat und Musik nun als
Ablenkung verstanden wurde. Die Idee einen Kriegsfilm zu romantisieren zum Beispiel, wurde

133
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

sehr unpopulär und die Filmemacher begannen nach Wegen zu suchen das Publikum mehr in die
Geschichte hinein zu ziehen und sie empfinden zu lassen als seien sie tatsächlich auf dem
Schlachtfeld. Das ist eine Art Hyperrealismus, der musikalische Scores nahezu unnötig macht. Sie
werden zu einer Hintergrundatmosphäre die wenig zu sagen hat und sind nicht mehr eine eigene
Figur innerhalb der Geschichte. Die Musik versucht so mehrdeutig wie möglich zu bleiben.

Thomas Stanger:
Wie haben sich verändernde Klangidiome, die hauptsächlich durch neue Technologien entstehen,
die Filmindustrie in den letzten Jahrzehnten verändert?

Ryan Amon:
Neue Technologien werden immer die Art künstlerischer Ausdrucksweisen verändern und haben
dieses auch schon immer getan. Elektronische Keyboards und elektrische Gitarren haben
definitiv die Art verändert wie wir uns durch Musik ausdrücken. Vielleicht wird es weitere
technologische Entwicklungen geben durch die wieder neuen Instrumente zur Manipulation von
Klängen entstehen. In diesem Fall wird sich auch unsere Ausdrucksform wieder ändern und es
werden sich neue Möglichkeiten für Komponisten und Musiker eröffnen. Die letzten Jahrzehnte
haben ein eindeutiges Vertrauen auf elektronische Instrumente gesteuert von
Computeralgorithmen gesehen. Ein Gutes ist die Entwicklung und Nutzung von Midi, die es
ermöglicht kompositorische Ideen vollständig umzusetzen, was für Komponisten die per Gehör
komponieren und spielen extrem hilfreich ist. Die Technologie kann aber auch ein Hindernis sein,
da sie die Kreativität einschränkt, wenn Filmkomponisten gezwungen werden Sample Libraries
zu nutzen. Es gibt viele Farben im Klangspektrum, die diese Libraries nicht abgebildet und was
dafür sorgt, dass viele Filmscores sehr gleich in Sound und Ansatz klingen (z.B. die Verwendung
repetitiver Klick-Spuren für Action Musik). Die Nutzung von Vangelis Musik markiert einen
Wendepunkt in der Filmindustrie in der elektronische und experimentelle Musik in den
Vordergrund rückten und die sogar aktuell einen neuen Anschub erfährt und der man in den
letzten Jahren wieder nacheifert. Nostalgie ist ein Teil dieser Gleichung, obwohl die Spiegelung
von Pop- und R&B-Produktion auch wieder in den Vordergrund rückt. Die Zuhörer fühlen sich
mit bestimmten musikalischen Ansätzen vertraut, da sie heute mit einer großen Auswahl an

134
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

populärer Musik bombardiert werden die nicht mit echten Instrumenten gemacht ist, und sich
sehr daran gewöhnt haben. Es kann natürlich alles eine Geschmackssache und eine Frage der
persönlichen Vorliebe sein und ein moderner Ansatz einen Film zu vertonen kann je nach Projekt
und Vision des Filmemachers geeigneter sein als ein klassischer. Minimalismus ist ja auch in der
Filmwelt ein beliebterer Ansatz geworden, da ein Zwei-Noten Thema oder ein Sounddesign
Element nun einen Charakter oder Ort darstellen kann. Ich denke so wie Filmemacher weiterhin
mit neuen Arten des Geschichtenerzählens experimentieren, wird sich die Musik mit diesen
weiterentwickeln, zum Guten oder Schlechten.

135
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

7.5 Trevor Morris

Trevor Morris ist ein kanadischer Videospiel- und Filmkomponist. Von 2002 bis 2005
arbeitete Morris als Komponist ergänzender Musik (additional Music) bei Hans Zimmer's Remote
Control Produktionsfirma für Filme wie Stealth – Unter dem Radar (2005), Die Insel (2005) oder
Last Samurai (2003). Außerdem gab es Zusammenarbeiten mit anderen Komponisten wie Hans
Zimmer (Ring 2, Spanglish, King Arthur), Ramin Djawadi (Blade: Trinity) oder Trevor Rabin (Bad
Boys II). Hier trat Morris unter anderem als Arrangeur, Produzent oder Programmierer in
Erscheinung. Als mittlerweile eigenständiger Komponist ist er sowohl für Kino- wie auch
Fernsehproduktionen tätig und sein Schaffen umfasst mehr als 60 Produktionen wie z.B. Vikings
(Serie – seit 2013), Taken – Die Zeit ist dein Feind (US-Serie – 2017), Dragon Age: Inquisition
(Videogame – 2014) oder London Has Fallen (US-Actionfilm – 2016). Trevor Morris wurde
zweimal mit einem Emmy ausgezeichnet: 2007 für Die Tudors und 2011 für Die Borgias.

Abb. 42: Trevor Morris

136
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

Darüber hinaus wurde er dreimal mit dem ASCAP Award (2008, 2009 und 2011, für Die Tudors)
und zweimal mit dem Gemini Award ausgezeichnet.174

Interview mit Trevor Morris

Thomas Stanger:
Wie sind sie als Komponist zum ersten Mal mit dem Thema Modern Hybrid Scoring in Kontakt
gekommen?

Trevor Morris:
Ich würde sagen in der realen Welt, als ich für James Newton Howard gearbeitet habe. Er ist sehr
raffiniert hybrid in Allem was er macht. Abelton LIVE war gerade erschienen und er machte viel
für den Score zu “Michael Clayton” in LIVE. Das ist ein großartiger, hybrider Score.

Thomas Stanger:
Wie haben das Modern Hybrid Scoring und die fortschreitende Verschmelzung von akustischen
und elektronischen Klängen, die heutige Herangehensweise an Kompositionen verändert?

Trevor Morris:
Es hatte einen großen Einfluss. Hans Zimmer war einer der Vorreiter dieser Entwicklung, obwohl
der originale “Blade Runner” Score von Vangelis die Industrie wirklich nachhaltig verändert hat.
Ich glaube heute können Klänge manchmal genauso wichtig sein wie Melodien, ob man
einverstanden ist oder nicht.

Thomas Stanger:
Wie haben sich verändernde Klangidiome, die hauptsächlich durch neue Technologien
entstehen, die Filmindustrie in den letzten Jahrzehnten verändert?

174
Vgl. https://de.wikipedia.org/wiki/Trevor_Morris. Zugriff: 08. November 2017

137
7. In Konversation mit Komponisten der Film-, Games- und Trailer-Industrie

Trevor Morris:
Ich glaube das ist eine natürliche Entwicklung. Der Film hat sich von “analogen” Farbkorrekturen
zu digitalen Intermediaten verändert und so hat sich auch die Musik weiterentwickelt. Dieser
Entwicklungsprozess ist heute so schnell, dass es zur neuen Stellenbeschreibung eines
Komponisten dazugehört mit dieser mitzuhalten.

138
8. SCHLUSSBETRACHTUNG

8. SCHLUSSBETRACHTUNG

Dieses Kapitel dient der Reflexion der Forschungsfragen:

1. Wie lässt sich Modern Hybrid Scoring definieren und aus welchen Elementen setzt es sich
zusammen?

2. Inwiefern und wie stark haben sich diese Elemente gegenseitig beeinflusst?

3. Mit welchen Mitteln lassen sich moderne hybride Klangidiome realisieren und in welchen me-
dialen Einsatzgebieten finden diese Einzug?

Im Abschnitt 8.1 werden alle gesammelten Erkenntnisse und Informationen noch einmal
systematisch zusammengefasst und diskutiert.

8.1 Zusammenfassung

Modern Hybrid Scoring bezeichnet die Verschmelzung akustischer und elektronischer


Klangelemente. Der wesentliche Reiz in der Verwendung hybrider Klangidiome, besteht in der
ständigen Erweiterung und Erprobung neuer Klangcharakteristiken. Die Inhalte und Fortschritte
der akustischen Musik, wie z.B. die stetige Weiterentwicklung des Orchesters oder des
Instrumentenbaus, haben einen bedeutenden Anteil an heutigen hybriden Klangidiomen. Die
Digitalisierung ermöglichte einen neuartigen Zugriff und eine weitgehende Manipulation
akustischer und elektronischer Klänge und schuf so ganz neue Möglichkeiten der Klangerzeugung
und -bearbeitung.

Mit der Innovation digitaler Aufnahmen, die seit den siebziger Jahren immer mehr die
analoge Speicherung und das magnetische Tonband ersetzten, begann eine ganz neue Ära,
sowohl in der Möglichkeit Signale und Audioquellen zu bearbeiten, als auch in der

139
8. SCHLUSSBETRACHTUNG

Beschleunigung der Arbeitsprozesse und der Minimierung von Produktionskosten.

Durch die Popularisierung und den immer einfacher werdenden Zugang zu technologischen
Hilfsmitteln, haben sich moderne hybride Klangsysteme als fester und essentieller Bestandteil der
Musik-, Film und Medienwelt etabliert. Abgesehen von den technischen Aspekten, entwickelten
sich eine Vielzahl an Musikgenres in die hybriden Klangidiome Einzug genommen haben und die
die Hörgewohnheiten nachhaltig verändert und geprägt haben.

Der Kostenfaktor spielt ebenfalls eine zentrale Rolle. Das Zeitalter der Digitalisierung und der
damit einhergehenden neuen Technologien, ruft immer mehr Hersteller und Produkte auf den
Markt. Dadurch gibt es mittlerweile in allen Bereichen der Produktionswelt (Tonstudiotechnik,
Software, Computertechnik etc.) preisgünstige, qualitativ hochwertige und vielseitige Angebote,
die die Möglichkeiten zur technischen Realisierung hybrider Scores für jedermann ermöglichen.
Programme bzw. Software werden zeitgleich immer universeller und individueller, und sind
immer flexibler zu modellieren und handzuhaben.

In der heutigen Film- und Musikindustrie hat der Faktor Zeit ebenfalls an Wichtigkeit
zugenommen. So hat die Geschwindigkeit in der Umsetzung von Medienprojekten aller Art im
Vergleich zur Vergangenheit deutlich zu genommen.

Auch der Faktor der kompositorischen Gestaltungsmittel und der Entwicklung der
musikalischen Parameter soll noch einmal rückblickend reflektiert werden. Die Geschichte der
Musik umfasst viele wichtige Bereiche, die einen gezielten Einfluss auf hybride Kompositionen
genommen haben. Die Entwicklung des Rhythmus, der Melodie und Harmonik, der
Musikinstrumente, des Zusammenklangs und der Mehrstimmigkeit, oder die Entwicklung der
Schriftlichkeit und Vervielfältigung (Notation), alle diese Beispiele haben hybride Musiken
nachhaltig geprägt. Außerdem entwickelte die Musik eine große Bandbreite von
Darstellungsarten, Musikstilen und Klangästhetiken über die letzten Jahrhunderte, aus denen
Medienkomponisten ihre Kreativität und Inspiration schöpfen können. Exemplarisch darf hier vor
allem die klassische Musik des 19. Jahrhunderts mit ihrem farbenreichen Repertoire als

140
8. SCHLUSSBETRACHTUNG

Fundament zahlreicher nachfolgender Musikstile, hybrider Kompositionen und kompositorischen


Werkzeugen, genannt werden. 175 Auch die Harmonielehre erfuhr eine unüberschaubare und
umfangreiche stilistische Entwicklung von über 300 Jahren, die heute eine zentrale Bedeutung in
jeder Musik und somit auch im Modern Hybrid Scoring einnimmt.

8.2 Fazit

Die Entwicklung hybrider Klangidiome kann aus meiner Sicht grundsätzlich in drei Phasen
eingeordnet werden:

1. Phase: Elektrifizierung

Die erste Phase stellt die Geburt und Revolution für zahlreiche, bedeutende technologische
Errungenschaften da. Als Beispiel seien die ersten elektronischen Klangerzeuger (Theremin etc.),
die analoge Aufnahmetechnik auf Magnetbandspulen oder die ersten Computermaschinen (Z3)
genannt. Unsere heutigen Technologien basieren auf diesen technischen Grundlagen, die somit
ein Fundament für alle nachfolgenden Erfindungen waren.

2. Phase: Digitalisierung

Mit dem Zeitalter der Digitalisierung lässt sich die zweite Phase zur Entwicklung hybrider
Klangidiome markieren. Die digitale Transformation sorgte für einen tiefreifenden Wandel in
jedem Lebensbereich und brachte revolutionäre Technologien wie DAWs, digitale
Aufnahmetechnik etc. oder das Internet hervor, aber auch einen Umbruch traditioneller
Marktlogiken mit sich. So entstanden neben den etablierten Marktakteuren in der
Produktionswelt, eine Vielzahl neuer „digitaler“ Unternehmen bzw. Wettbewerber (Komponisten,
Produzenten etc.), die erst mit der Digitalisierung einen Zugang zu diesem Markt bekommen
haben.

175
Vgl. https://de.wikipedia.org/wiki/Geschichte_der_Musik. Zugriff: 15. November 2017

141
8. SCHLUSSBETRACHTUNG

3. Phase: Evolution

Die Phase der Evolution beschreibt den aktuellen Entwicklungsstand. Hier stehen die
Optimierungen und Transformationen neuer Technologien und Arbeitsmittel (Sample Libraries,
DAW, Computer etc.), die Schaffung neuer Klangästhetiken und die Weiterentwicklung hybrider
Klangidiome im Fokus. Damit einhergehend haben und werden sich neben der Qualität auch eine
gewisse Quantität an kompositorischen hybriden Scores bemerkbar machen.

Die zunehmende Hybridisierung der gesamten Musik- und Medienwelt bringt neue
Hörgewohnheiten und -erwartungen mit sich. Diese Metamorphose birgt aus meiner Sicht neben
vielen positiven Aspekten auch Gefahren. Der rein akustische Anteil von Musik wird stetig weiter
zu Gunsten eines „künstlichen“, hybriden Klangidioms reduziert. Aus der Verwendung hochwertig
klingender Werkzeuge wie Orchester Libraries, ergibt sich aus meiner Sicht nicht auch immer
zwingend eine künstlerisch und kompositorisch ansprechende Musik.

Die zunehmende Globalisierung, die maßgeblich durch die Verbreitung des Internets
vorangetrieben wurde und wir, hat den Wachstums- und Entwicklungsprozess technischer
Erfindungen maßgeblich beeinflusst und gefördert. Das Internet wurde zunehmend schneller und
bot damit den Anbietern und Entwicklern von Sample Libraries die Möglichkeit, Ihre Produkte
schnell und kostengünstig einer großen Zielgruppe zugänglich zu machen. Durch diese enorme
Verbreitung und Verfügbarkeit für nahezu Jeden, sind diese Libraries ein fester und notwendiger
Bestandteil vieler Produktionswelten geworden. Heute sind moderne, hybride Produktionen
ohne dieser Werkzeuge kaum mehr denkbar.

Heute passt das Äquivalent eines Tonstudios der vergangenen Jahrzehnte in einen einzigen
Laptop hinein. So bemerkenswert praktisch das auch ist, so wird das eigene Schaffen doch
darüber hinaus durchaus dadurch inspiriert sich daran zu erinnern, dass die aktuellen
Audioprogramme und technischen Plattformen nur einen Teilschritt der Entwicklung darstellen,
die fast 100 Jahre zurückreicht.

142
8. SCHLUSSBETRACHTUNG

8.3 Ausblick

Durch die mittlerweile enorme Popularität moderner hybrider Klangsysteme und deren
stetigen Weiterentwicklung, stehen kontinuierliche Klangerweiterungen, unendlichen
Möglichkeiten der Umsetzung und Realisierung hybrider Kompositionen gegenüber.

Neben immer wieder auftretenden Strömungen des Zeitgeistes, werden auch in der Zukunft
neue Technologien ganz neue Möglichkeiten der Klangsynthese und -bearbeitung schaffen.
Darüber hinaus ist es denkbar, dass die Weiterentwicklung künstlicher Intelligenz nicht nur einen
Einfluss auf die klangliche Gestaltung von Musik nehmen wird, sondern auch erstmalig nachhaltig
auf künstlerisch, kompositorischer Ebene. So kann man sich vorstellen, dass mit immer mehr
Rechenleistung, die mathematisch, kreativen Prozesse bei der Gestaltung von Musik immer mehr
von Computern simuliert und übernommen werden.176 So könnten neue Klangidiome entstehen,
die sich aus zufälligen, von Computern generierten Klangkombinationen entwickeln. Wie einst die
Elektrifizierung und die Digitalisierung ein neues Zeitalter einläuteten, so könnte die Einführung
von künstlicher Intelligenz in der Produktionswelt und in der Schaffungsphase moderner hybrider
Scores, als eine „neue Revolution“ bewertet werden.

Für Komponisten werden alle diese neuen Technologien und Veränderungen weiterhin die
Herausforderung mit sich bringen, sich schnell und flexibel an neue Umgebungen und
Herausforderungen anzupassen.

176
Siehe exemplarisch: http://aiva.ai/

143
Anhang A: USB-Stick Inhalt

Anhang A: USB-Stick Inhalt

Ordner: 01 Audiobeispiele

Track 01: John Cage - Sonata II for prepared Piano


Track 02: The Birds - Opening Credits
Track 03: Paul Hindemith - Concertino for Trautonium and Strings
Track 04: Miklos Rozsa Spellbound - Main Theme
Track 05: Star Trek Original Series - Intro
Track 06: Chariots of Fire - Vangelis
Track 07: Final Theme - Backdraft
Track 08: Why so serious - The Dark Knight
Track 09: Mountains - Interstellar
Track 10: Stay - Interstellar
Track 11: Turrican II - Ending Song
Track 12: Turrican II - The Final Fight (Renderings - Main Theme)
Track 13: Nilin the Memory Hunter - Remember Me
Track 14: The Necromorphs Attack - Dead Space 1
Track 15: Welcome To The Sprawl - Dead Space 2
Track 16: Sound Design Trailer Music - Colossal Trailer Music
Track 17: Heart of Courage - Two Steps From Hell
Track 18: Momentum - Audiomachine
Track 19: Cut-off Modulation
Track 20: Whoosh-Hit mit Hall
Track 21: Klavier & Lead Synth
Track 22: Turned into War - Eigenkomposition
Track 23: Perkussionsebene - Turned into War
Track 24: Horror Ambient Pad
Track 25: Motion Textures & Klavier
Track 26: Granularsynthese - Turned into War

144
Anhang A: USB-Stick Inhalt

Track 27: Riser & Downer


Track 28: Sub-Bass & Sub Drone
Track 29: Sub-Bass - Intro
Track 30: Pulse im musikalischem Kontext
Track 31: Ostinato - Invisible Danger

Ordner 02: Videobeispiele:

Video 01: The Pagemaster (1994) Original Trailer


Video 02: Under Siege 2 - Original Trailer 1995
Video 03: War for the Planet of the Apes - Official Trailer 2017
Video 04: Transformers The Last Knight - Official Trailer 2017

03: pdf

Bachelorarbeit_ModernHybridScoring_StangerThomas_906158.pdf

145
Anhang B: Originalauszüge – Interviews

Anhang B: Originalauszüge – Interviews

Im Anhang B finden sich alle Interviews in originaler und unbearbeiteter Fassung. In der
Übersetzungsphase ins Deutsche wurden manche Textstellen nicht wortwörtlich, sondern
sinngemäß, zum besseren Verständnis, umformuliert.

B.1 Mark Petrie

Thomas Stanger:
What was your first contact as a composer with modern hybrid scoring?

Mark Petrie:
Due to budgetary reasons, most of my early projects like indie, film and tv stuff had mostly
samples, combined with occasional live-acoustic parts. So I guess you could say I‘ve been doing
modern hybrid music since the start of my career. A long time before trailer music.

Thomas Stanger:
How did modern hybrid scoring and the ongoing merge of acoustic and electronic sounds, did
influence the way of today’s approach to composition?

Mark Petrie:
Using sample libraries was still very expensive until the early 2000s, when kontakt instruments by
native instruments and other companies started selling affordable tools. It took until the spread
of cheap high-speed internet around the world, and downloadable files around 2008 – 2012. That
art of composing with virtual instruments opened up to millions of people (composer/musicians)
worldwide. And those millions included mostly tech-savvy millennials, who keep up to date with
trends such as the famous „inception braaams“ and later „generations“ of that audio punctuation
like the „ping“.

146
Anhang B: Originalauszüge – Interviews

Thomas Stanger:
How did changing sound idioms, which were mainly generated by new technologies, shape the
trailer industry during the last decades?

Mark Petrie:
In the past five years the trailermusic have split between theatrical trailers and TV spots. Dividing
the musical sound that goes with them. And nowadays a film has dozens of TV spots, where hybrid
music is used the most.

Das Interview fand am 28. Oktober 2017 via Facebook Messenger mit Fokus auf Trailer-Musiken
statt.

B.2 Bobby Tahouri (Email Posteingang am 09.11.17_18:46 Uhr)

Thomas Stanger:
What was your first contact as a composer with modern hybrid scoring?

Bobby Tathouri:
My first contact as a composer with modern hybrid scoring was in 2007 on the film Hitman, as an
additional composer. This project provided a perfect balance of electronic sounds, mixed with
traditional orchestral scoring. Our sound palette consisted of a traditional orchestra (strings,
brass), male choir, electronic synths and percussion, and traditional percussion (ethnic and
orchestral). The film took place in a few different geographic locales, and while the score would
often reflect those locations, the hybrid aspect of the score stayed consistent, almost always
combining some sort of synthetic element with orchestra. We wanted you to feel like you were
playing the game, so a hybrid score, with all sorts of ear candy definitely helped support the
hyperrealism of a video game character coming to life on screen.

Thomas Stanger:

147
Anhang B: Originalauszüge – Interviews

How did modern hybrid scoring and the ongoing merge of acoustic and electronic sounds, did
influence the way of today’s approach to composition?

Bobby Tahtouri:
I think it’s inevitable that the combination of acoustic and electronic sounds are so prevalent in
modern scoring these days. Technology has made it easy for composers to get their ideas down
in a digital audio workstation, and the vast libraries of synthesizers and sampled acoustic
instruments have placed all types of sounds, acoustic, electronic, synthetic, on the same playing
field for compositional tools. Since sample libraries have gotten so good at recreating the sound
of a real orchestra, it’s much easier for a composer to try and experiment by combining a “real”
or sampled cello with a Moog bass, etc. With all the great sound libraries out there (synthetic
and sample based), composers have an unlimited sound palette at their disposal, and we are no
longer limited by having to write with pen and paper and hiring musicians to bring our music to
life. Live musicians will always be a better option if you have the time and budget, but because
the technology has provided so many amazing synthesizers and sample based instruments, it’s
become very easy to double a violin with a distorted synth, and experiment with all kinds of
instrumental combinations. Technology has also made it easy for composers to be lazy and just
rely on synth ostinatos doing all the work, etc., so it’s important for a composer to use technology
as a tool and not a crutch.

Thomas Stanger:
How did changing sound idioms, which were mainly generated by new technologies, shape the
game and film industry during the last decades?

Bobby Tathouri:
Composers thankfully have a much wider sound palette to choose from than ever before, but it
always comes down to the composition to help support a game/film/tv program. People will
always respond to great music no matter how that music is “dressed." Whether that composition
is arranged for synth, sample based orchestra, real orchestra, piano, etc. depends on what the
project calls for. I’ve heard all types of amazing scores during the last decade, and the one thing

148
Anhang B: Originalauszüge – Interviews

they all had in common was the strength of the composition first and foremost. Technology has
provided more options for our sound palettes, and amazing sounding tools, so scores are
sounding better and better, but I think since the main focus of a good film/tv or video game is to
tell a compelling story, composers should first focus on the composition. I don’t think new
technologies have influenced or changed our desire to want to tell a good story. A sci-fi movie
nowadays can be equally effective with an all synth score, or all piano, or a combination of both.
It all comes down to the emotions being triggered. Thankfully, all the options available with new
technologies have made it easier than ever to experiment with different sound combinations, and
for that, composers should be grateful that we have a much larger toolkit to play with these days.

B.3 Jeff Rona (Email Posteingang am 15.11.2017_00:12 Uhr)

Thomas Stanger:
What was your first contact as a composer with modern hybrid scoring?

Jeff Rona:
It would probably go back to the 1990s and certain scores of Hans Zimmer, Mark Isham, and
others. Since then there’s been such an explosion of it with composer’s from Harry Gregson-
Williams and John Powell to James Newton Howard and Tyler Bates. The use of electronic
instruments in film scores goes back much farther, but I think they’re really was a deeper
integration of the two, the “hybrid“, that really started van and has expanded till now.

Thomas Stanger:
How did modern hybrid scoring and the ongoing merge of acoustic and electronic sounds, did
influence the way of today’s approach to composition?

Jeff Rona:
When a movie is very successful you start to see other movies copies that style. So when there is
a very successful film that uses all electronics, like Blade Runner or Drive, you start to see more

149
Anhang B: Originalauszüge – Interviews

films like that. And the opposite is also true. When John Williams or Alexander Desplat does an
all orchestral score for a film that is a big hit, you see a shift back to orchestral music. With the
success of films done with hybrid scores, it becomes more and more popular. So with composer’s
like Hans Zimmer, Harry Gregson-Williams, Brian Tyler, the modern film score has become more
hybrid. But you also see simpler scores that embrace a more minimalist philosophy. Composer
such as Cliff Martinez, Max Richter, Philip Glass, Hauschka, Mica Levy, and others have created
another popular approach to film scoring. It’s also important to remember that film score budgets
have gone down in recent years, so money becomes another factor in deciding on how a film
score is produced. If synthesizers can replace half the orchestra, you get a hybrid score and it
costs less. You also see films scored with smaller ensembles, or simply all electronic scores.

Thomas Stanger:
How did changing sound idioms, which were mainly generated by new technologies, shape the
trailer industry during the last decades?

Jeff Rona:
Trailer music is as much about production technique as compositional technique. Trailers are not
just about the notes, they are produced with terrific precision to be as emotionally impactful as
possible. The best trailer composers use a lot of audio processing technology to very carefully
create an epic and powerful sound. Since home studios have gone from analog to virtual digital
it means trailer composers have all the tools they need to make music that sounds massive! Also,
trailers in the past few years have focused more on Sounddesign and less on traditional music.
Many trailers begin with abstract sound and rhythms, and only become more orchestral or
harmonic towards the end. That’s the current trend. So a lot of technology gets used to create
these atmospheres and sound design, as well as to enhance the orchestral elements that may
come up at some point .

150
Anhang B: Originalauszüge – Interviews

B.4 Ryan Amon (Email Posteingang am 08.11.2017_23:23 Uhr)

Thomas Stanger:
What was your first contact as a composer with modern hybrid scoring?

Ryan Amon:
Looking back I would have to say that the first time I remember hearing what I would consider a
hybrid score was Don Davis’ ‘The Matrix’ - it might have been the second one ‘The Matrix
Reloaded’, as I think the first was mostly modern orchestral. It caught my attention at the time
because I was listening and studying electronic groups like Hybrid. The Matrix films were the first
I personally recalled that blended those elements with the orchestra in a film setting.

Thomas Stanger:
How did modern hybrid scoring and the ongoing merge of acoustic and electronic sounds, did
influence the way of today’s approach to composition?

Ryan Amon:
I think musicians are always looking to experiment and create something new. We’ve had a
blending of basically every categorized musical style in our history in one form or another, and
those lines between genres are more blurred than they have ever been, I believe. A lot of
musicologists will point back to composers like John Cage, who helped challenge the definition of
music and what sound is in relation. I actually think it is the film makers that started to change
the experience for the audience, and the use of music then changed along with it. If the music
scores of the past evoked the fantastical and romantic, the new hybrid approach is firmly
grounded in the real and the concrete. I think filmmaking was changing and the music was seen
now as a distraction. The idea of romanticizing a war film, for example, became quite unpopular,
and film makers started looking for ways to pull an audience into the story and to make them feel
like they are actually on the battlefield. It is a sense of hyperrealism, which has seem musical
scores become almost obsolete. It becomes an atmosphere in the background that has little to
say and is no longer a character in the story. The music tries to stay as ambiguous as possible.

151
Anhang B: Originalauszüge – Interviews

Thomas Stanger:
How did changing sound idioms, which were mainly generated by new technologies, shape the
film industry during the last decades?

Ryan Amon:
New technology will always change forms of artistic expression, and has done so throughout
time. The electronic keyboard and electric guitar have definitely changed the way we express
ourselves through music. Maybe there will be another advancement in technology where a new
instrument is invented to manipulate sound, in which case our act of expression will change yet
again, opening up new possibilities as composers and musicians. The last few decades have seen
a definite reliance upon electronic instruments run by computer algorithms. The positive is the
creation/use of MIDI - being able to fully realize compositional ideas, which is extremely helpful
for composers who compose/play by ear. The technology can also be a hindrance as it can also
limit creativity when film composers are forced to use sample libraries. There are many other
colors in the sonic spectrum that aren’t represented in these libraries, and it can cause many film
scores to become quite homogenized in sound and approach (ex. using click tracks with repetition
for action music). The use of Vangelis’ music marked a turning point in the film industry where
electronic and experimental music came to the forefront and has even now made a full swing to
be emulated once again in the last few years. Nostalgia is part of the equation, although the
mirroring of pop and r&b production is also at the forefront. Audiences feel a familiarity with
certain musical approaches, as they now are bombarded with a large array of popular music that
is not made with real instruments, and have become quite accustomed to it. It can all be a matter
of taste and personal preference of course, and a modern approach of scoring a film might be
more appropriate than a more classical approach, depending on the project and the vision of the
filmmaking team. Minimalism has also become a more popular approach in the film world, as a
two note theme or sound design element will now represent a character or place. I think as
filmmakers continue to experiment with new ways of telling stories, the music will evolve with it,
for better or worse.

152
Anhang B: Originalauszüge – Interviews

B.5 Trevor Morris (Email Posteingang am 08.11.2017_23:28 Uhr)

Thomas Stanger:
What was your first contact as a composer with modern hybrid scoring?

Trevor Morris:
I would say in the real world, working for James Newton Howard. He is sneaky Hybrid on
everything he does. Abelton LIVE had just come out and he did a alot of the score to „Michael
Clayton“ on LIVE. It's a great hybrid Score.

Thomas Stanger:
How did modern hybrid scoring and the ongoing merge of acoustic and electronic sounds, did
influence the way of today’s approach to composition?

Trevor Morris:
Its made a huge impact. Hans Zimmer being one of the leaders of that, although the original
“Blade Runner” score by Vangelis did sort of change the game forever. I think now sonics can be
just as important and melodies at times, whether you agree with it or not.

Thomas Stanger:
How did changing sound idioms, which were mainly generated by new technologies, shape the
film industry during the last decades?

Trevor Morris:
I think its a natural evolution. Film went from a Color “timing” to all Digital “intermediate”, and
so music evolves too. Right now the change is so rapid its a new part of the composer “job
description” to keep up with that.

153
Anhang C: Quellenangaben (URL-Link) - Abbildungen

Anhang C: Quellenangaben (URL-Link) - Abbildungen

Abb. Nr.: Quelle (URL-Link)

Abb. 1 https://de.wikipedia.org/wiki/8._Sinfonie_(Mahler)

Abb. 2 https://de.wikipedia.org/wiki/Werckmeister-Stimmung

Abb. 3 http://www.typophile.com/node/55119

Abb. 4 https://www.hdm-stuttgart.de/~curdt/Hoergewohnheiten.pdf

Abb. 5 http://klangmaschinen.ima.or.at/db/pe.php?table=Object&id=150&lang=

Abb. 6 https://www.moogmusic.com/legacy/moog-product-timeline

Abb. 7 http://www.ingenieur.de/Themen/IT-Hardware/Konrad-Zuses-Z3-Computer-Welt-75

Abb. 8 https://i2.wp.com/120years.net/wordpress/wp-content/uploads/IMG_08011.jpg

Abb. 9 http://is4.mzstatic.com/image/thumb/Purple111/v4/e0/18/60/e018607e-4258-0c59-0e66-
43394423f013/source/1200x630bb.jpg

Abb. 10 http://www.trautonium.de/images/tip/oskar-sala-1.jpg

Abb. 11 http://bluesonline.weebly.com/uploads/6/1/1/2/6112056/8632104.jpg?277

Abb. 12 http://www.lookatthesegems.com/2012/08/spellbound.html

Abb. 13 https://pandoxeio.files.wordpress.com/2011/11/studiovangelis.jpg

Abb. 14 http://filmmusicreporter.com/wp-content/uploads/2015/08/hans-zimmer.jpg

Abb. 15 https://en.wikipedia.org/wiki/Temple_Church

Abb. 16 https://i.pinimg.com/originals/0e/11/d3/0e11d3716719b577598f58f5a88d270c.jpg

Abb. 17 https://i.ytimg.com/vi/XsCpS5OwZBc/maxresdefault.jpg

Abb. 18 http://cdn-static.denofgeek.com/sites/denofgeek/files/0/69//harry-gregson-main.jpg

Abb. 19 https://i.ytimg.com/vi/OrvutWcyuzc/maxresdefault.jpg

Abb. 20 http://www.twostepsfromhell.com/files/logo%20working%202.jpg

Abb. 21 http://www.funkstunde.eu/typo3temp/pics/26-Zeit-_030f8edac0.jpg

Abb. 22 https://amplificasom.com/wp-content/uploads/Sony-CD-ROM-ad-01-535x581.jpg

Abb. 23 Screenshot: DAW Projektfenster - Cubase Pro 9

154
Anhang C: Quellenangaben (URL-Link) - Abbildungen

Abb. 24 https://www.proaudio.de/images/stories/reports/wdr-hoerspielstudios/nebenregie.jpg

Abb. 25 http://cyprus-mail.com/wp-content/uploads/2017/04/berlin-1-770x450.jpg

Abb. 26 http://www.synthfind.com/wp-content/uploads/2010/06/mellotro.jpg

Abb. 27 https://hooksanalysis.files.wordpress.com/2011/02/fairlight-cmi.jpg

Abb. 28 Screenshot: User-Interface von NI KONTAKT Version 5.7

Abb. 29 http://www.digital-notes.de/propellerhead-rebirth-rb-338-kostenlos/

Abb. 30 https://www.gearank.com/guides/88-key-midi-controllers

Abb. 31 https://www.amazona.de/test-waves-platinum-native-bundle-teil-2/4/

Abb. 32 Screenshot: Soundtoys Audio Level Destroyer DEVIL-LOC - Cubase Pro 9

Abb. 33 Screenshot: Diverse Hall-PlugIns – Cubase Pro 9

Abb. 34 http://earnthis.net/dans-top-100-everything-87-phil-spector/

Abb. 35 Screenshot: User Interface – 8Dio Blendstrument Motion Textures

Abb. 36 Screenshot: Sample-Editor - Cubase Pro 9

Abb. 37 https://assets-cdn.audionetwork.com/usr/common/Mark_Petrie_745x400.png

Abb. 38 http://www.musicoftombraider.com/2015/10/bobby-tahouri-composing-rise-of-tomb.html

Abb. 39 http://www.professional-production.de/uploads/pics/17-06-28_JeffRona.jpg

Abb. 40 https://www.bmi.com/images/news/2013/cache/Ryan_speaking_770_578_90.jpg

Abb. 41 https://www.emmys.com/sites/default/files/styles/photo_gallery_large/public/2013/10/trevor-
morris-900x600.jpg?itok=ciW7aJSd

155
Literaturverzeichnis

Literaturverzeichnis

[Anwander2015] Florian, Anwander. „Synthesizer – So funktioniert elektronische


Klangerzeugung“. PPVMEDIEN GmbH. 8.Auflage 2015.

[Barnett2010] Kyle, Barnett. “The Selznick Studio, ‘Spellbound’, and the Marketing of Film Music
in: Music, Sound, and the Moving Image Volume 4, Issue 1”, Liverpool University Press Online.
2010. (http://online.liverpooluniversitypress.co.uk/doi/abs/10.3828/msmi.2010.4)

[Burrows/Wiffen2006] Burrows, John. Wiffen, Charles. „Klassische Musik“. Dorling Kindersley


Verlag GmbH, München, 2006.

[Czaika2006] Ingrid, Czaika. „Frühe Verdi-Motivik: Charakterisierungsmethoden in den frühen


Opern.“ Lit Verlag Münster. 2006.

[Dickreiter2008] Dickreiter, Michael. Dittel, Volker. Hoeg, Wolfgang. Wöhr, Martin.


„Handbuch der Tonstudiotechnik“. De Gruyter Saur Verlag, 7. Auflage 2008.

[Dittbrenner2007] Dittbrenner, Nils. „Soundchip-Musik“. Osnabrück: epOs-Music 2007.

[Görne2014] Görne, Thomas. „Tontechnik – Hören, Schallwandler, Impulsantwort und Faltung,


Digitale Signale, Mehrkanal-Technik, Tontechnische Praxis“. Carl Hanser Verlag & Co. KG, 4.
aktualisierte Auflage, 2014.

[Guterman2005] Gutermann, Jimmy. Maximoog. In: Mark Frauenfelder: Make. Technology on


Your Time. O'Reilly Media. 2005

[Keys2016] Fachmagazin „Keys – Musik und Computer“ Ausgabe: 08/2016.

[Lensing2006] Jörg U, Lensing. “Sound-Design, Sound-Montage, Soundtrack-Komposition-Über


die Gestaltung von Filmton”. Schiele & Schön Verlag. 2. Auflage 2009.

[McGuire2008] McGuire, Sam. Pritts, Roy. „Audio Sampling – A Practical Guide “. Focal Press. 2008.

156
Literaturverzeichnis

[Michels2008] Michels, Ulrich. „dtv-Atlas Musik“. Originalausgabe. Bärenreiter Verlag/ Deutscher


Taschenbuch Verlag. 1. Auflage November 2008.

[Novy2009] Novy, Mike. „Das digitale Orchester“. CW Music. Band 1, 2. Auflage, 2008.

[Owsinski2007] Owsinski, Bobby. „Mischen wie die Profis – Das Handbuch für Toningenieure“. GC
Carstensen Verlag, München. 2. Auflage 2007.

[Ruschkowski2010] Ruschkowski, André. „Elektronische Klänge und musikalische Entdeckungen“.


Philipp Reclam jun. GmbH & Co. KG Stuttgart. 2. Auflage 2010.

[Russ2008] Russ, Martin. „Sound synthesis and sampling. Third Edition, Focal Press, New York and
London. 2008

[Sikora2003] Sikora, Frank. “Neue Jazz-Harmonielehre” Schott Musik International, Mainz. 4.


Auflage, 2003.

[Simms1986] Simms, Bryan R. „Music of the Twentieth Century: Style and Structure“. New York:
Schirmer Books. 1986

[Steinbrink2014] Steinbrink, Holger. „Cubase Profi Guide – Know-How für bessere


Musikproduktionen“. PPVMEDIEN GmbH, Bergkirchen. 3. Auflage 2014.

157
Eidesstattliche Erklärung

Eidesstattliche Erklärung

Mit dieser eidesstattlichen Erklärung versichere ich, dass ich diese Bachelorarbeit –
einschließlich sämtlicher Abbildungen, Video- und Audiobeispiele – selbstständig verfasst bzw.
erstellt und keine anderen als die angegebenen Quellen und Hilfsmittel benutzt habe. Die Stellen
der Arbeit, die anderen Werken (einschließlich Internet, Video und Audio) dem Wortlaut oder
Sinn nach entnommen sind, wurden in jedem einzelnen Fall unter Angabe der Quelle als
Entlehnung kenntlich gemacht. Das gleiche gilt auch für beigegebene Darstellungen. Die Arbeit
hat in gleicher oder ähnlicher Form noch keiner anderen Prüfungsbehörde vorgelegen.

Zierenberg, …………………. …………………………………


Thomas Stanger

158

Das könnte Ihnen auch gefallen