Sie sind auf Seite 1von 280

dem Prüfungsamt bei der

vorgelegt von

Referenten:

Prof. Dr. H. W. Drescher

Prüfungstermin:

Dr. P. A. Schmitt Wintersemester 1995/ 96

Alkemper:

1.1 Definition

9

1.2 Herkunft und Entwicklung

11

1.3 Anwendungsbereiche

17

1.4 Einteilung der Synthesizer

20

1.4.1 Analoge Synthesizer

21

1.4.1.1 Modulsynthesizer

22

1.4.1.2 Kompaktsynthesizer

23

1.4.1.3 Presetsynthesizer

24

1.4.1.4 Studiosynthesizer

25

1.4.2 Digitale Synthesizer

26

1.4.2.1 Digitalsynthesizer

27

1.4.2.2 Sampleplayer

28

1.4.2.3 Workstations

29

1.4.2.4 Sampler

30

1.5 Klangerzeugung

31

1.5.1 Physikalische Grundlagen der Akustik und Psychoakustik

31

1.5.2 Syntheseverfahren

34

1.5.2.1 Subtraktive Synthese

36

1.5.2.2 Additive Synthese/ Fouriersynthese

42

1.5.2.3 FM-Synthese (Frequenzmodulation)

44

1.5.2.4 Wellenformsynthese

46

1.5.2.5 ROM-Sample-Synthese

48

1.5.2.6 Linear-Arithmetische Synthese

49

1.5.2.7 Phase-Distortion-Synthese

50

1.5.2.8 Time-Slice-Verfahren

51

1.5.2.9 Physical Modeling/ PM-Synthese

52

1.5.2.10

Karplus-Strong-Synthese

56

1.5.3 Sampling

56

1.5.3.1 Aufbau eines Samplers

58

1.5.3.2 Aufnahme von Klängen

58

1.5.3.3 Nachbearbeitung der gesampelten Klänge

62

1.5.3.4 Abspielen der Samples

67

2

Alkemper:

1.6 Bauteile

68

1.6.1

Spannungssteuerung und digitale Steuerung

69

1.6.2

Monophonie und Polyphonie

71

1.6.3

Der

Oszillator

73

1.6.4

Das

Filter

76

1.6.4.1

Filtertypen

77

1.6.4.2

Funktionsbeschreibung

80

1.6.5

Der

Verstärker

83

1.6.6

Der Hüllkurvengenerator

84

1.6.6.1 Erscheinungsformen der Hüllkurve

85

1.6.6.2 Der Einsatz von Hüllkurven

87

1.7 Steuerungseinrichtungen

88

1.7.1 Die Tastatur

89

1.7.1.1 Anschlagsdynamik

91

1.7.1.2 Druckdynamik

91

1.7.1.3 Keyboard-Tracking

92

1.7.2 Das Modulationsrad

93

1.7.3 Das

Pitchbend-Rad

94

1.7.4 Regler (Lever) und Joystick

94

1.7.5 Der Schieberegler

96

1.7.6 Der Arpeggiator

96

1.7.7 Der

Blaswandler

97

1.7.8 Der Ribbon-Controller

98

1.7.9 Pedale

99

1.8 Modulation & Effekte

100

1.8.1 Modulationseinrichtungen/ -quellen

100

1.8.1.1 Der Niederfrequenzoszillator

101

1.8.1.2 Der Ringmodulator

102

1.8.1.3 Sample&Hold

103

1.8.1.4 Portamento/ Glide

104

1.8.2 Modulationsziele

105

1.8.3 Effekte

106

1.8.3.1 Hall- und Verzögerungseffekte

107

1.8.3.2 Modulationseffekte

109

1.8.3.3 Dynamikprozessoren

110

3

Alkemper:

1.9

MIDI

112

1.9.1

Vergangenheit, Gegenwart und Zukunft von MIDI

113

1.9.2

Beschreibung

118

 

1.9.2.1 Die Hardware der MIDI-Schnittstelle

118

1.9.2.2 MIDI-Datenformat

122

1.9.2.3 MIDI-Modes

123

1.9.2.4 MIDI-Nachrichten (Messages)

125

1.9.2.5 Synchronisation

131

 

1.9.3

Anwendungen

132

 

1.9.3.1 Synthesizersteuerung

134

1.9.3.2 Datensicherung

134

1.9.3.3 MIDI-Software

134

1.9.3.4 Standard-MIDI-Files

144

1.9.3.5 General MIDI

145

 

1.9.4

Weitere Anwendungen

147

1.9.5

MIDI-Peripheriegeräte

147

 

1.9.5.1 Masterkeyboards

148

1.9.5.2 Hardwaresequenzer

149

1.9.5.3 MIDI-Interfaces

151

1.9.5.4 MIDI-Thru-Box/ -Patchbay/ -Merger

152

1.9.5.5 MIDI-Konverter

153

1.9.5.6 Weitere Peripheriegeräte

154

1.10 Weitere Schnittstellen

156

 

1.10.1

Analoge Schnittstellen

156

1.10.2

Digitale Schnittstellen

158

1.11 Datensicherung

159

 

1.11.1

Speicherung im geräteinternen Speicher

160

1.11.2

Kartenspeicherung

162

1.11.3

Speicherung auf Disketten

163

1.11.4

Speicherung auf Kassetten

164

1.11.5

SysEx-Speicherung

165

1.12 Dateneingabe/ Bedienungselemente

165

1.13 Anschlüsse

168

4

Alkemper:

1.14

Weitere elektronische Klangerzeuger

172

1.14.1 Keyboards

172

1.14.2 Drumcomputer

174

1.14.3 Elektrische und elektronische Pianos

176

1.14.4 Elektrische und elektronische Orgeln

178

1.14.5 Computer-Soundkarten

180

1.14.6 Vocoder und Stimmprozessoren

182

2.1 Allgemeines zur Translation

183

2.2 Die Translation fachsprachlicher Texte

191

2.2.1 Fachsprachen

193

2.2.1.1 Fachtextsorten und Fachtextsortenkonventionen

197

2.2.1.2 Terminologie

204

2.2.2 Überlegungen zur

fachsprachlichen Translation

211

2.3 Die Terminologie des Fachgebietes „Synthesizer“

218

2.3.1 Wortbestand im Deutschen

219

2.3.1.1 Aus anderen Fachgebieten entlehnte Termini

219

2.3.1.2 Anglizismen

224

2.3.1.3 Neologismen

234

2.3.1.4 Jargonisierung

238

2.3.1.5 Synonymie und Polysemie

239

2.3.2 Wortbestand im Englischen

240

2.3.3 Zusammenfassender Vergleich

243

2.4 Schlussfolgerungen

245

2.5 Die praktische Anwendung: Ein kritischer Vergleich zwischen einer englischen Bedienungsanleitung und ihrer deutschen Übersetzung

250

2.5.1 Makrostruktur und Typografie

252

2.5.2 Sprache und Stil

254

2.5.3 Grafiken

258

2.5.4 Inhaltliche Richtigkeit

260

3.1 Deutsch – Englisch

263

3.2 Englisch – Deutsch

265

5

Alkemper:

5.1 Literaturverzeichnis

269

5.1.1 Fachbücher und -aufsätze

269

5.1.2 Fachzeitschriften

272

5.1.3 Aufsätze in Fachzeitschriften

272

5.1.4 Veröffentlichungen von Firmen

275

5.1.5 Nachschlagewerke

278

5.2 Programmbelegung von GM-Klangerzeugern

280

6

Alkemper:

Das als dieses bezeichnete Bizerka Špeljak (1983:4) den Synthesizer, und das nicht zu Unrecht, denn ungeachtet der Tatsa- che, dass der Synthesizer im Bereich der Ernsthaften Musik ein Schattendasein führt, ist die moderne Unterhaltungsmusik ohne dieses Instrument nicht denkbar. Gekoppelt an die Digitaltechnik, verläuft die Entwicklung der Synthesizer ebenso rasant wie die der Computer. Neue Syntheseprinzipien werden entwickelt und die Geräte mit immer mehr Funktionen ausgestattet, und doch fallen die Preise für diese „Musikwerkzeuge“ immer weiter; der Synthesizer mit seinen umfassenden Möglichkeiten der Klangerzeugung und -imitation stellt heutzutage das dar, was einstmals die Blockflöte war – das Musikinstrument für jedermann. Aufgrund dieser Popularität hat sich der Verfasser der vorliegenden Arbeit für das Thema „Synthesizer“ entschieden – auch aus eigenem Interesse, denn er ist seit Jahren aktiver Synthesizermusiker.

Die vorliegende Arbeit gliedert sich in drei große Abschnitte:

Dieser Abschnitt beschreibt – nach einer Definition des Begriffs „Synthesizer“ und einer kurzen historischen Einführung – umfassend die Technologie des Instruments.

In diesem Abschnitt sind die Untersuchungen des Verfassers zur Terminologie der Synthesizer und zur Übersetzung fachbezogener Texte aufgeführt; dazu gehört als Einleitung eine kurze Zusammenfassung der zur Zeit gültigen Er- kenntnisse der Translatologie allgemein sowie Untersuchungen zur Fach- texttranslation.

Das Glossar umfasst den terminologischen Bestand der „Fachsprache Synthesizer“ im Deutschen und im Englischen. Dabei ist das Vokabular so- wohl als deutsch-englisches als auch als englisch-deutsches Glossar aufgeführt.

Bezüglich des Themas musste der Verfasser sich mehrfach die Frage stellen las- sen, warum er eine Diplomarbeit über Technologie und Terminologie der Synthe-

7

Alkemper:

sizer zu schreiben beabsichtige, denn eine solche wurde bereits im Jahre 1983 von Bizerka Špeljak vorgestellt; der Verfasser ist jedoch der Meinung, dass sich das Fachgebiet „Synthesizer“ und damit auch die zugehörige Terminologie seit Ver- fassung der Arbeit von Špeljak umfassend gewandelt hat. Das Wissen in diesem Bereich hat in einem Maße zugenommen, wie es etwa mit dem Bereich der Elekt- ronischen Datenverarbeitung zu vergleichen ist (auch wenn der Stellenwert beider Fachgebiete im täglichen Leben natürlich völlig unterschiedlich ist). Der Einzug der Digitaltechnik in das Fachgebiet Synthesizer beispielsweise hatte bei Špeljak nur sekundäre Berücksichtigung gefunden – heutzutage hingegen basieren neun- zig Prozent aller Geräte auf dieser Technik. Deswegen ist nach Ansicht des Ver- fassers die Zeit reif für eine aktualisierende Zusammenfassung des Terminologie- bestandes, die in Bezug gesetzt wird zur technischen Entwicklung der Synthesizer unter besonderer Berücksichtigung der Zeit seit Erscheinen der Arbeit von Špel- jak.

8

Alkemper:

Unter Synthesizern versteht man heute im Allgemeinen elektronische Musikin- strumente. Diese generelle Definition muss natürlich konkretisiert werden, denn unter der allgemeinen Formulierung könnte man beispielsweise auch andere, im Verlaufe dieser Arbeit noch zu beschreibende Klangerzeuger verstehen – wie z. B. Drumcomputer oder elektronische Orgeln –, deren Möglichkeiten hinsichtlich der Klangbearbeitung nicht so weit gehen wie bei einem Synthesizer.

Zu diesem Zwecke muss man sich die Herkunft des Wortes klarma- chen. Es stammt von dem Wort ab, welches aus dem Griechischen kommt. Dieses Wort beschreibt allgemein die ( 1980:622) In diesem Fall ist die Zusammen- setzung von Klängen gemeint. Die englische Sprache beschreibt diese Tätigkeit mit dem Verb . Dieses wiederum findet im Deutschen zwei Entspre- chungen, nämlich

or

Im weiteren Verlauf dieser Arbeit wird deutlich werden, dass der Synthesizer bei- den Definitionen gleichermaßen entspricht, denn er ist einerseits in der Lage, Klänge zusammenzufügen oder durch Synthese aufzubauen, andererseits werden diese Klänge künstlich erzeugt, es sei denn, man wollte diese Klangerzeugung mit Hilfe elektrischen Stromes als natürlich bezeichnen.

Ursprünglich stammt der Ausdruck aus der Messtechnik; hier dient ein solches Gerät (das in diesem Zusammenhang auch als „ Synthesizer-Generator“ bezeichnet wird) als Bestandteil eines Messgenerators der (

1980:623)

9

Alkemper:

Genau diese Fähigkeit, Wechselspannungen im auch für den Menschen hörbaren Frequenzbereich (zwischen 20 Hz und 20 kHz) erzeugen zu können, führte zur Entwicklung des Synthesizers als Musikinstrument. Das Gerät hatte schon vor seiner Entdeckung als Tonerzeuger die Fähigkeit, mit Hilfe eines quarzstabilisier- ten Hochfrequenzoszillators Spannungen zu erzeugen, die dann durch dem Os- zillatoren nachgeschaltete Frequenzteilerstufen bearbeitet werden konnten. Die unterschiedlichen Teilerfrequenzen werden dem Originalsignal wieder zuge- mischt, die entstandenen Mischfrequenzen können dann an einem Ausgang abge- griffen werden. Bereits hier liegen die grundlegenden Bausteine späterer Musik- synthesizer im Gerät vor, nämlich Oszillator und Filter. Wie dann die Entwick- lung des Synthesizers zum Musikinstrument fortgeführt wurde, soll im nachfol- genden Abschnitt beschrieben werden.

Bevor nun eine korrekte Definition des in dieser Arbeit zu beschreibenden Syn- thesizertyps – nämlich des Musikinstrumentes – erfolgt, sei noch angemerkt, dass es auch in der modernen Funk- und Radiotechnik Bausteine mit der Bezeichnung „Synthesizer“ gibt, die ähnliche Funktionen wie die bereits genannten aufweisen. Sie dienen als frequenzveränderliche Oszillatoren in hochwertigen Empfänger- und Senderschaltungen, z. B. zur Erzeugung der UKW-Oszillator-Frequenz, da sie gegenüber herkömmlichen Oszillatoren eine extreme Frequenzgenauigkeit und eine exakte Frequenzabstufung aufweisen.

Bei einem Synthesizer im Sinne des in dieser Arbeit zu beschreibenden Gerätes handelt es sich um ein Musikinstrument, das Klänge mit Hilfe von Schwingungs- generatoren erzeugt. Solche Klänge sind obertonreiche Wellenformen, die sich mit Hilfe von klangformenden Bausteinen in ihrem Obertongehalt verändern lassen, wobei zeitliche Verläufe bei diesen Änderungen möglich sind. Generatoren und Klangformer können durch Zusatzeinrichtungen in ihrer Arbeitsweise verändert (moduliert) werden. Auch solche Geräte, die die Funktionen elektroni- scher Bausteine zum gleichen Zwecke digital nachbilden, werden als Synthesizer bezeichnet. Ziel der Arbeit mit Synthesizern ist neben der Imitation von Natur- klängen insbesondere die Schaffung neuartiger, auf natürlichem Wege nicht zu erzeugender Klänge, Töne und Tongemische.

10

Alkemper:

Der Weg, den der Synthesizer vom ungläubig bestaunten Klangerzeuger zum zentralen Musikproduktionsinstrument unserer Zeit beschritten hat, mag mit ca. 30 – 35 Jahren recht kurz erscheinen, doch er hat eine lange Vorgeschichte, denn der Mensch hat immer versucht, Musik wiederzugeben, ohne selbst Hand an ein Instrument legen zu müssen. Bereits im 17. Jahrhundert entwarf der Gelehrte Athanasius Kircher eine vollautomatische Orgel, deren Stiftwalzen durch Wasser- antrieb bewegt wurden. Im Jahre 1730 versuchte der tschechische Erfinder Pater Prokopius Divis mit Erfolg, Klaviersaiten elektrisch zu erregen und damit Musik zu automatisieren. Seinem war jedoch kein großer Erfolg beschieden, erhielt der Spieler doch mit schöner Regelmäßigkeit einen elektrischen Schlag. Dreißig Jahre später beschreibt der Franzose Jean-Baptiste Laborde ein von ihm erfundenes Cembalo, das durch elektrische Kraftwirkung gesteuert wird.

Im 19. Jahrhundert verlief die Entwicklung hingegen – bedingt durch die Entde- ckungen auf dem Gebiet der Mechanik – zunächst in eine andere Richtung. Me- chanische Klaviere und Orchestria spielten wie von Geisterhand Melodien und bekannte Stücke ab; diese durch unzählige Westernfilme bekannten Instrumente waren Mitte des 19. Jahrhunderts sehr populär. Sie arbeiteten mit so genannten Pianorollen, d. h. Papierrollen, in die die Noten des zu spielenden Stückes einge- stanzt waren. Eine mechanische Vorrichtung erfasste die Noten und führte den Tastenanschlag geräteintern aus. Nach einem ähnlichem Prinzip arbeiten übrigens auch die noch heutzutage bekannten Leierkästen und Spieluhren, die jedoch durch eine auswechselbare Metallscheibe gesteuert werden.

Doch auch die Klangerzeugung auf elektrischem Wege wurde weiter verfolgt. Zwischen 1867 und 1887 wurden zahlreiche elektrische Klaviere vorgestellt, und im Jahre 1885 wurde ein erstes Patent für einen elektrischen Klangerzeuger an einen gewissen E. Lorenz aus Frankfurt am Main vergeben, der einen elektro- magnetischen Selbstunterbrecher zur Tonerzeugung verwendete.

Die erste bahnbrechende Erfindung auf dem Gebiet der elektronischen Klanger- zeugung steuerte jedoch der Amerikaner Thaddeus Cahill (1867 – 1934) bei, der 1897 in Washington eine als bezeichnete Orgelmaschine mit einem

11

Alkemper:

Gewicht von rund 200 Tonnen vorstellte. Da die Töne dieses Rieseninstrumentes nicht elektrisch verstärkt werden konnten (die Radioröhre sollte erst 1907 erfun- den werden), bediente sich Cahill des städtischen Telefonnetzes, wo der Kunde gegen Zahlung einer geringen Gebühr den Klängen des Gerätes lauschen konnte – aus diesem Grund wird es auch genannt. Die Tonerzeugung er- folgte mit Hilfe dampfbetriebener Mehrfachstromerzeuger, von denen pro Halb- ton einer vorhanden war; sie lieferten die sinusförmigen Ausgangsspannungen, die dann mit Hilfe der additiven Synthese (vgl. Abschnitt 1.5.2.2) zu Klangfarben zusammengesetzt werden konnte. Hier taucht im übrigen zum ersten Mal ein Syntheseprinzip bei der Tonerzeugung auf. Dreißig Jahre später sollte diese Ton- erzeugung in dem populärsten elektronischen Instrument der Prä-Synthesizer- Ära, der Hammondorgel, erneut zur Anwendung kommen.

Ein anderes Prinzip verfolgte der russische Ingenieur Lew Termen. Er entwickelte in den Jahren 1920/ 21 das , das oft auch als bezeichnet wird. Dieses Gerät erzeugte seine Klänge durch die Subtraktion zweier hochfre- quenter Schwingungen, die in eine hörbare Sinusschwingung resultierte; dieser Ton ließ sich dann in den Parametern Lautstärke und Tonhöhe mittels zweier auf dem Gerät angebrachter Antennen steuern, die auf Hand- und Armbewegungen des Spielers reagierten, der vor dem Gerät stand. Damit stellt das Ätherophon im übrigen auch die erste Abkehr von dem Vorbild des Pianos bzw. der Orgel dar, da es über keine Tastatur verfügt. Insbesondere in Amerika konnte das Thereminvox große kommerzielle Erfolge verbuchen, auch wenn der berühmte Komponist Béla Bartók meint, dass (Ruschkowski 1991a:52) Das Ätherophon wurde im Laufe der Zeit immer wieder entdeckt. Sein Klang ist beispielsweise in dem Lied „Good Vibrations“ der Popgruppe Beach Boys zu hören, bekannt geworden ist er außer- dem durch die Titelmelodie der amerikanischen Science-Fiction-Serie „ Star Treck“ (dt. „ Raumschiff Enterprise“ ) sowie als musikalische Untermalung zahllo- ser Gruselfilme der Fünfziger und Sechziger Jahre. Anfang der Neunziger Jahre wurde das Ätherophon vom Entwickler des spannungsgesteuerten Synthesizers, Dr. Robert A. Moog, wiederentdeckt und soll nun – angepasst an die Bedürfnisse

12

Alkemper:

unserer Zeit – in Serienproduktion gehen; zahlreiche Anfragen und Vorbestellun- gen aus aller Welt geben Moog in seinem Vorhaben recht.

Auch in Deutschland ging die Entwicklung weiter. Der Organist und Volksschul- lehrer Jörg Mager entwickelte Anfang der Zwanziger Jahre sein , das Töne nach dem gleichen Prinzip erzeugte wie das Thereminvox. Dieses Instru- ment, bei dem die Tonhöhe mit Hilfe einer Kurbel gesteuert wurde, gab es später dann auch in einer vierstimmigen und einer Tastaturversion. Leider widmete sich Mager seinen Forschungen sehr im Verborgenen, weswegen seinen Instrumenten kein großer Bekanntheitsgrad beschieden war. Ganz anders das dem Sphärophon sehr ähnliche , das der französische Musiklehrer Maurice Martenot 1928 vorstellte: Dieses Instrument, dessen Tonerzeugung exakt der des Sphä- rophons entspricht, wurde in Frankreich extrem populär. Namhafte Komponisten wie Honegger, Messiæn und Varèse komponierten Stücke für das Ondes Marte- not, und es ist noch heute in zahlreichen französischen Konzertsälen vorzufinden.

Ein wichtiger Schritt in der Entwicklung hin zum frei programmierbaren elektro- nischen Musikinstrument war das 1930 von dem Akustiker Friedrich Trautwein (1888 – 1956) konstruierte . Dieses Instrument erzeugte seine Töne mit tonfrequenten Kippschwingungen (Sägezahnschwingungen) und wurde mit einem Bandmanual gespielt. Ein enger Mitarbeiter Trautweins, Oskar Sala, führte Anfang der Fünfziger Jahre Trautweins Entwicklungen fort und stellte 1954 das vor, das bereits hinsichtlich der Tonerzeugung große Ähnlichkeit zu den später von Moog und Buchla entwickelten spannungsgesteuerten Synthesi- zern aufwies: Es verfügte neben einem Rauschgenerator und einem Klangerzeu- ger für subharmonische Klänge auch über ein „elektrisches Metronom“ und einem „Abklinggerät“ , das als Vorläufer des heute bekannten Hüllkurvengenera- tors gelten kann. Damit ging allerdings auch die Entwicklung elektronischer Mu- sikinstrumente in Deutschland vorübergehend zu Ende, denn die jungen Kom- ponisten der Fünfziger und Sechziger Jahre verwendeten zwar Sinusoszillatoren, Rauschgeneratoren und ähnliche elektronische Klangerzeuger zur Realisierung ihrer Kompositionen, doch ging es hier um andere Dinge als die Spielbarkeit eines Instrumentes: Die neuen Schlagworte hießen und .

13

Alkemper:

In Nordamerika jedoch begann man sich nach einer langen Pause wieder für die Klangerzeugung auf elektronischem Wege zu interessieren. Der Kanadier Hugh LeCaine (1914 – 1977) entwickelte in den späten Vierziger und frühen Fünfziger Jahren eine Reihe von Instrumenten, die technisch wie optisch den späteren Analogsynthesizern schon sehr nahe kamen. Genannt seien hier aus der großen Zahl von LeCaines Geräten das und der , ein Vorläufer der analogen Mehrspurmaschine.

In diesen Zeitraum fällt auch die Entwicklung des ersten Gerätes mit der Be- zeichnung „Synthesizer“ . Es handelt sich um den , der vom Ingenieur Harry F. Olson konzipiert und gebaut und vom amerikanischen Elektronikkonzern Radio Corporation of Amerika vorgestellt wurde. Dieses auch als bezeichnete Gerät wies bereits zahlreiche Fähigkeiten späterer Synthesizer auf:

Die Anfänge des Siegeszuges des Synthesizers datieren Musikhistoriker jedoch allgemein auf das Jahr 1964. In diesem Jahr stellte der Amerikaner Dr. Robert A. Moog seinen so genannten vor, der alle wichtigen und aus den Mu- sikstudios bekannten klangerzeugenden Module wie Oszillatoren, Filter und Mo- dulatoren in sich vereinte. Dieses Gerät wurde als Sensation gefeiert, denn abge- sehen davon, dass es die Möglichkeiten bot, die normalerweise nur in einem gro- ßen Studio vorzufinden waren, ließen sich die einzelnen Module nach dem von Moog entwickelten Prinzip der Spannungssteuerung sinnvoll miteinander verbin- den. Moog war bereits an der Entwicklung der ersten Studiosynthesizer beteiligt und hatte seine Erfahrungen in die Konzeption seines Synthesizers mit einfließen lassen. Unabhängig von Moog entwickelte auch der Amerikaner Don Buchla das Spannungssteuerungsprinzip, jedoch waren seine Synthesizer kommerziell weni- ger erfolgreich als die von Moog; die getrennte Arbeit von Moog und Buchla lag

14

Alkemper:

übrigens ausschließlich in der Tatsache begründet, dass Moog an der amerikani- schen Ostküste lebte, während Buchla auf der anderen Seite des Landes – an der Westküste – wirkte.

Zahlreichen Musikfreunden wurden Synthesizer in den Sechziger und Siebziger Jahren durch viele Einspielungen insbesondere auf dem Sektor der Popmusik und des Jazz bekannt – zu nennen seien hier einerseits Popgruppen wie Emerson, Lake and Palmer oder Frank Zappas Band „ The Mothers of Invention“ , anderer- seits Jazzmusiker wie Herbie Hancock, Jan Hammer oder Jasper van´t Hof; Musi- ker aus dem Bereich der Ernsthaften Musik hatten jedoch teilweise Berührungs- ängste mit dem neuen Instrument. Eine Ausnahme allerdings sollte dem Synthesi- zer zum Durchbruch verhelfen: Im Jahre 1968 nämlich spielte der amerikanische Musiker und Komponist Walter Carlos in mühseliger Kleinarbeit Werke von J. S. Bach auf dem ein; da dieses Gerät damals monophon (ein- stimmig) ausgelegt war, kann man sich vorstellen, dass die Aufnahme mit dem Mehrspurtonbandgerät ausgesprochen zeitaufwändig war. Der Erfolg jedoch gab Carlos recht: Nach wie vor gehören die Werke „ Switched-On Bach“ und „The Well-Tempered Synthesizer“ zu den gefragtesten Synthesizeraufnahmen über- haupt. Man kann wohl behaupten, dass diese Schallplatten dem Synthesizer in der Öffentlichkeit zum Durchbruch verholfen haben. Der Musikwissenschaftler Eberhard Höhn versucht, diesen Erfolg zu begründen:

Nun gingen auch andere Firmen dazu über, Synthesizer zu produzieren, z. B. der britische Hersteller EMS oder die amerikanischen Firmen Sequential Circuits und Oberheim. Japanische Hersteller wie Yamaha, Roland oder Korg konnten sich nach anfänglichen Schwierigkeiten aufgrund eines sehr guten Preisleistungsver- hältnisses ihrer Produkte ebenfalls am Markt durchsetzen. Trotz weiterer Ent- wicklungen wie Stimmpolyphonie (erstes stimmpolyphones Gerät war 1976 der der Firma Moog) und digitaler Speicherung von Klängen und anderen Geräteparameter lassen sich jedoch fast alle Synthesizer, die bis 1982 erschienen,

15

Alkemper:

von ihrer Konzeption her mehr oder weniger vom Moogsynthesizer ableiten. Dabei kamen seit 1967 fast ausnahmslos Kompakt- und Presetsynthesizer auf den Markt, die wegen ihrer Handlichkeit und Bühnentauglichkeit sehr beliebt waren und auch noch sind. Die wegen der internen Vorverdrahtung einzelner Module eingeschränkte klangliche Flexibilität dieser Geräte tat ihrem Erfolg keinen Ab- bruch.

Doch dann hielt die Digitaltechnik auch auf dem Gebiet der Synthesizerentwick- lung Einzug. Zunächst wurde sie nur zur Speicherung und Oszillatorenstimmung verwendet, doch ab 1982 ermöglichte sie durch fallende Preise für Speicherbau- steine auch die Realisierung anderer Syntheseprinzipien als der subtraktiven Syn- these, die als einzige mit analogen Bausteinen zu verwirklichen war. Die ersten Synthesizer mit neuartigen Syntheseprinzipien waren der der deutschen Firma PPG, der nach dem Prinzip der Wellentabellensynthese arbeitete, und der im Jahre 1983 erschienene und wahrscheinlich erfolgreichste Synthesizer aller Zeiten, der des japanischen Herstellers Yamaha. In diese Zeit fällt auch der erste erschwingliche Sampler, der der Firma E-Mu Systems, der im Jahre 1981 auf den Markt kam. Zwar gab es schon Ende der Siebziger Jahre Systeme, die mit digitalen Speicherchips arbeiteten (z. B. das der Firma New- England-Digital oder der -Synthesizer der gleichnamigen Firma), doch diese lagen in einem sechsstelligen Preisbereich; deswegen konnte sie sich der größte Teil der potenziellen Anwender schlichtweg nicht leisten.

Die Entwicklung in den Achtziger Jahren stand ganz im Zeichen des mit digitalen Bausteinen Machbaren. Weitere Syntheseprinzipien wurden realisiert, das Work- station-Konzept (das mit der von Korg einen Synthesizer hervorbrachte, der dem hinsichtlich seines kommerziellen Erfolges kaum nachstand) wurde entwickelt, und die Mächtigkeit der Geräte stieg exponentiell im Vergleich zu frü- heren Instrumenten. Mit der digitalen MIDI-Schnittstelle stellte nun auch die Verbindung zweier oder mehrerer Geräte unterschiedlicher Hersteller oder die Verbindung eines Synthesizers mit einem Computer zu Steuerungszwecken kein Problem mehr dar. Doch Ende der Achtziger Jahre begann die Entwicklung zu stagnieren: Die meisten Synthesizer erzeugten ihre Klänge nun nach dem ROM- Sample-Prinzip, d. h. digital gespeicherte Wellenformen von Naturinstrumenten

16

Alkemper:

wurden zur Tonerzeugung verwendet und dann durch subtraktive Synthese auf digitaler Basis nachbearbeitet.

Hier ist die Weiterentwicklung wiederum der Firma Yamaha zu verdanken, die 1993 mit dem ein Gerät mit einem völlig neuartigen Syntheseprinzip, dem „Physical Modeling“ vorstellte. Andere – insbesondere japanische Hersteller, die inzwischen zu Marktführern geworden sind – folgten diesem Beispiel, und man kann feststellen, dass inzwischen Bewegung auf den Markt gekommen ist. Klei- nere Firmen wie Marion Systems, Syntec, Waldorf, Clavia und viele andere rea- gierten hingegen auf einen neuen Boom der Analogsynthesizer und stellten – teils sehr spezielle – Nachbauten solcher Geräte her.

Auch die Bedeutung des Synthesizers als Musikinstrument hat seit Beginn der Achtziger Jahre rapide zugenommen. In verschiedenen Spielarten der modernen Populärmusik – z. B. beim „Synthi-Pop“ (sic), der „Electronic Body Music“ , dem „New Wave“ und dessen Ableger „Neue Deutsche Welle“ – wurde er zum stilbil- denden Instrument; Gruppen wie „ Depeche Mode“ , „ Deutsch-Amerikanische Freundschaft“ oder „ Front 242“ feierten mit den maschinenhaft und kalt wirken- den Synthesizersequenzen große Erfolge, da diese das Lebensgefühl der Jugend der Achtziger Jahre trafen, auch wenn zahlreiche Musikwissenschaftler eine (Batel/ Salbert 1985:26) konstatierten und diesen den musikalischen Anspruch absprachen. Aus der heutigen Populärmusik ist der Synthesizer nicht mehr wegzudenken. Während ernsthafte und klassische Musiker sein Vorhandensein seit Jahrzehnten – mit wenigen Ausnahmen – ignorieren, werden im Popmusikbereich – besonders im so genannten Techno-Bereich – Produktionen komplett mit Synthesizern und verwandten Instrumenten wie Drumcomputern realisiert. Das allein zeigt bereits die Bedeutung dieses Gerätes für die Musikschaffenden der heutigen Zeit.

In diesem Abschnitt soll es um die Anwendung des Synthesizers als Musikinstru- ment gehen, d. h. die in Abschnitt 1.1 beschriebenen Funktionen aus der Radio- und Messtechnik werden hier – da bereits ausreichend beschrieben – ausgeklam-

17

Alkemper:

mert. Der Synthesizer dient natürlich in erster Linie zum Erzeugen von Klängen. Hier nun sind diverse Anwendungsbereiche zu unterscheiden, denn man muss zum einen die verschiedenen Zielsetzungen des Synthesizers als Klangerzeuger sehen, zum anderen aber auch die Möglichkeiten, die insbesondere im experi- mentellen Bereich liegen. Diese Zielsetzungen sind

die – möglichst realistische – Imitation von Naturinstrumenten,

die Schaffung völlig neuartiger Klänge, die nur mit solchen Geräten mög- lich sind.

Die erste Zielsetzung findet ihre Anwendung z. B. in der Film- und Videoverto- nung. Da der durch einen ROM-Sample-Synthesizer imitierte Klang eines Natur- instrumentes nur durch ein geübtes Ohr vom Originalklang zu unterscheiden ist, verwendet man bei der Untermalung von Filmen mit Musik und Geräuschen aus Kostengründen oftmals Synthesizer, denn ein komplettes Orchester ist in der Unterhaltung doch wesentlich teurer als ein elektronisches Gerät. Außerdem hat der Synthesizer in Verbindung mit einem Computer und einer entsprechenden Synchronisationseinheit den Vorteil, musikalische Einsatzpunkte bildgenau zu treffen, da man durch das Arbeiten auf der digitalen Ebene die Startpunkte der Hintergrundmusik exakt festlegen kann und sich der Abspielvorgang automatisie- ren lässt. Auch verwenden Komponisten nicht nur von Filmmusik ihre Synthesi- zer oftmals als akustische Kontrolle ihrer Kompositionen, zumal heutzutage nur noch die wenigsten Komponisten mit Stift und Notenpapier arbeiten; vielmehr kommt bei den meisten ein Computer mit einem Notensatzprogramm zum Ein- satz.

Weiteres Einsatzgebiet des Synthesizers in seiner Funktion als Instrumentenimi- tator ist beispielsweise die Erstellung von Jingles (kurze Musikstücke – meist zwi- schen einer und fünfzehn Sekunden Länge –, die von Radiosendern als Erken- nungszeichen oder zur Programmuntermalung gesendet werden). Auch in der Werbung werden oftmals Synthesizer statt realer Instrumente eingesetzt, ebenfalls aus Kostengründen, denn Musik für Werbespots hat meist eine Länge von nicht mehr als einer Minute.

18

Alkemper:

Auch und gerade in der Populärmusik wird sehr rege von Klangimitaten aus Syn- thesizern Gebrauch gemacht. Manche Klangerzeuger – wie z. B. Drumcomputer, Digitalpianos oder Orgelexpander – dienen ganz gezielt der Imitation realer In- strumente. Sie werden überall dort eingesetzt, wo das Originalinstrument nicht verfügbar ist – sei es aus Kostengründen oder auch deswegen, weil ein geeigneter Spieler des Instrumentes nicht zur Verfügung steht. In diesem Zusammenhang sei noch auf eine Hypothese verwiesen, die Bizerka Špeljak in ihrer Diplomarbeit über Technologie und Terminologie der Synthesizer aufstellte, die sich dann je- doch, wie aus dem Gesagten zu schließen ist, nicht unbedingt bewahrheitet hat:

In den späten Achtziger und frühen Neunziger Jahren hatte der Synthesizer je- doch seine Funktion als experimenteller Klangerzeuger weitgehend verloren, da die ROM-Sample-Synthesizer, die nichts weiter sind als digitale Abspielgeräte, den Markt beherrschten. Die erfolgte Standardisierung der Anordnung der Klangpro- gramme (GM-Standard, siehe auch Abschnitt 1.9.3.5) schien diese Entwicklung noch zu bestätigen. Doch zwei Faktoren sorgten dafür, dass – wie schon in frühe- ren Jahren – Synthesizer wieder zur Klang verwendet wurden: Die Ein- führung von Synthesizern, deren Tonerzeugung nach dem Prinzip des Physical Modeling funktionierte, und die Renaissance der Analogsynthesizer, die für jeden Parameter einen Regler bereitstellen und so ein intuitives Bedienen des Gerätes ermöglichen. Letztere ist bedingt durch die Entwicklung des populärmusikali- schen Technostils, der das Arbeiten mit Analogsynthesizern, die ständige Klang- farbenmodulation lang ausgehaltener Töne und einfache Sequenzen, wie sie für Analogsynthesizer typisch sind, als Stilmittel aufweist; die jungen Musiker, die auf diese Art und Weise komponieren, sind mit den Digitalsynthesizern aufgewachsen und entdecken nun die Vorzüge analoger Geräte für sich. Die Ergebnisse sind oftmals sehr experimentell, wenn auch rhythmisch und harmonisch eindeutig, und Techno gilt bei vielen Musikjournalisten als progressivster Stil überhaupt.

19

Alkemper:

Dieses experimentelle Schaffen war in den Sechziger und Siebziger Jahren bereits sehr verbreitet, auch unter ernsthaften Musikern (wie z. B. Stockhausen), unter denen diese Geräte heute eher verpönt sind. Im Rahmen der und der setzten sich die Komponisten, die damals die bekannten tonalen Grenzen sprengen wollten, mit Mikrointervallen auseinander, die mit stufenlos verstellbaren Oszillatoren realisierbar waren. Spätere Musiker schufen dann Kompositionen, die ausschließlich auf selbst geschaffenen Synthesizerklängen beruhten; des weiteren war auch die Kombination solcher Instrumente mit her- kömmlichem Instrumentarium ein Feld, das von zahlreichen Komponisten be- stellt wurde. Der experimentelle Charakter der Synthesizermusik der Sechziger und frühen Siebziger Jahre ging dann verloren, als die Geräte immer schwerer zu programmieren waren, denn bei steigender Anzahl von Parametern verringerte sich gleichzeitig die Zahl der auf dem Gerät vorhandenen Bedienungselemente. Spontanes Arbeiten wurde dadurch unmöglich, denn neben der Kenntnis der neuen Syntheseformen, die Anfang der Achtziger Jahre aufkamen, musste man auch über konkretes Wissen hinsichtlich der Klangprogrammierung bei den neuen Geräten verfügen. Damit war der Synthesizer für einen Großteil der Kom- ponisten uninteressant geworden. Trotzdem bleibt festzuhalten, dass die Ent- wickler der ersten Synthesizer immer darauf bestanden haben, dass dieses Geräts als experimenteller Klangerzeuger zu betrachten ist. In diesem Zusammenhang ist es natürlich schon fragwürdig, dass Bücher verfasst werden, in denen nach einge- hender Analyse von Farbe und zeitlichem Verlauf des Klanges eines realen In- strumentes dessen Nachbildung auf einem Synthesizer eingehend erklärt wird. 1

Man unterscheidet heute zwei grundlegende Arten von Synthesizern, nämlich Analog- und Digitalsynthesizer. Diese Unterscheidung rührt von der Art und Weise der Klangerzeugung und -verarbeitung her. Dazu ist festzuhalten, dass man auch solche Synthesizer, die bereits Anfang der Achtziger Jahre über digitale Spei- chermöglichkeiten verfügten, deren Signalverarbeitung jedoch analog erfolgte (wie

1 Hier sei als Beispiel Massey (1987) angeführt.

20

Alkemper:

z. B. das Modell der Firma Roland), zu den Analogsynthesizern zählt. Eine weitere Einteilung ließe sich auch hinsichtlich der Erscheinungsform von Synthesizern treffen, denn es gibt Synthesizer wahlweise als Geräte mit Tastatur, als Geräte mit anderen Steuerungsmöglichkeiten (beispielsweise Gitarrensynthesi- zer) oder als ausschließlich MIDI-steuerbare Geräte; letztere werden seit mehr als einem Jahrzehnt nur als in ihren Abmessungen genormte Geräte (Expander) pro- duziert, die in so genannte Racks eingeschraubt werden. Dabei sind die Breite der Geräte (19 Zoll = 48,26 mm) und die Höhe (in Höheneinheiten [abgekürzt „HE“ ]) standardisiert. Diese Unterscheidung soll, da sie nur die äußere Form be- trifft, nicht weiter ausgeführt werden.

Bis zu Beginn der Achtziger Jahre gab es praktisch ausschließlich Analogsynthesi- zer, da die Digitaltechnik noch nicht so weit entwickelt war, dass es sich – schon aus finanziellen Gründen – gelohnt hätte, einen digitalen Synthesizer für die breite Öffentlichkeit zu konstruieren. Digitale Bausteine waren zu jener Zeit ein nicht zu unterschätzender Kostenfaktor; ein solches Gerät wäre derart teuer gewesen, dass ein finanzielles Fiasko für den Hersteller praktisch unvermeidlich gewesen wäre.

Analogsynthesizer arbeiten mit spannungssteuerbaren Bausteinen und deswegen ausschließlich nach dem Prinzip der subtraktiven Synthese, da die Bauweise eine andere Syntheseform nicht zulässt; deswegen wird die subtraktive Synthese oft auch als Analogsynthese bezeichnet.

Analogsynthesizer bestehen aus klangerzeugenden und -formenden Modulen, die entweder durch den Anwender miteinander verbunden werden oder herstellersei- tig vorverdrahtet sind, wobei der Grad dieser so genannten festen Verbindungen die klangformenden Möglichkeiten des Instrumentes bestimmt. Als Tonquellen stehen in solchen Synthesizern Oszillatoren zur Verfügung, die obertonreiche Schallwellen erzeugen. Diese werden dann von Filtern, die bestimmte Frequenzen der Wellenformen unterdrücken (ausfiltern), und Hüllkurvengeneratoren weiter- verarbeitet, die für die zeitlichen Verläufe von Lautstärke, Filtereckfrequenz und manchmal auch Tonhöhe verantwortlich sind. Auch andere spannungssteuerbare Bauteile, die der Modulation dienten (wie z. B. Niederfrequenzoszillatoren oder

21

Alkemper:

Ringmodulatoren), waren verfügbar und wurden in die Geräte eingebaut. Des weiteren waren die Geräte bis Mitte der Siebziger Jahre monophon (einstimmig) ausgelegt, d. h. es gab nur eine Stimme, da selbst, wenn das Gerät zwei oder drei Oszillatoren aufwies, diese von der gleichen Steuerspannung gesteuert wurden. Erst mit der Einführung des der Firma Moog wurde das mehrstimmige Spielen eines Synthesizers möglich.

Modulsynthesizer (oft auch als „freie“ Synthesizer bezeichnet) sind eine der äl- testen Formen des Synthesizers und bestehen, wie der Name schon sagt, aus ein- zelnen Modulen (z. B. Oszillatoren, Filter usw., aber auch Tastaturen und andere Spielhilfen), die der Anwender je nach Bedarf erwerben und in sein System ein- bauen kann. Sie werden durch handelsübliche Klinkenkabel (zweiadrige Kabel mit ¼"-Klinkensteckern an beiden Enden) miteinander verbunden. Dabei sind dem Anwender keinerlei Grenzen gesetzt, da alle Module miteinander verkoppelt wer- den können. Inwieweit solche Verbindungen musikalisch sinnvoll sind, hängt von der Verbindung selbst ab, jedoch können durch eine gewisse Experimentierfreu- digkeit interessante Klänge entstehen, da z. B. ein Oszillatormodul nicht nur als Klangerzeuger, sondern auch als Modulator verwendet werden kann.

Die Programmierung eines Modulsynthesizers setzt umfassende Kenntnisse über die subtraktive Synthese voraus. Für den Bühneneinsatz ist diese Synthesizerform deswegen nur sehr bedingt geeignet, da die Programmierung sehr komplex und selbstverständlich nicht speicherbar ist. Diese Synthesizer wurden in erster Linie in Tonstudios benutzt und dienten darüber hinaus auch Unterrichtszwecken, da an ihnen das Prinzip der subtraktiven Synthese sehr genau erklärt werden kann.

Modulsynthesizer kamen mit der Verbreitung der Kompaktsynthesizer Anfang der Siebziger Jahre aus der Mode, erleben aber – wie die meisten Formen der Analogsynthesizer – seit Anfang der Neunziger Jahre eine Renaissance, da nach langen Jahren der Huldigung an die Digitalsynthese die Anwender heutzutage wieder nach Geräten verlangen, die den intuitiven und experimentellen Eingriff in die Klangerzeugung und -formung ermöglichen. Aufgrund der modernen und einfacheren Steuerungsmöglichkeiten via MIDI lassen sich solche Systeme auch in

22

Alkemper:

komplexere Synthesizeranlagen und -studios einbinden. Diesem Trend tragen im übrigen einige kleinere Herstellerfirmen (in Deutschland z. B. die Firma Doepfer Electronics) Rechnung, indem sie Modulserien anbieten, aus denen der Anwender sich zu einem verhältnismäßig geringen Preis sein individuelles Modulsystem zu- sammenstellen kann.

Der Kompaktsynthesizer entspricht im Grunde genommen dem Bild, das die meisten Musiker von einem analogen Synthesizer haben, weswegen die Bezeich- nung „Analoger Synthesizer“ – meist in Unkenntnis anderer analoger Synthesizer- formen – oftmals generell für diese Geräteform verwendet wird. Bei einem Kom- paktsynthesizer handelt es sich um einen Synthesizertyp, dessen Klangerzeugung im wesentlichen dem eines Modulsynthesizers entspricht, jedoch sind hier die einzelnen Module herstellerseitig bereits miteinander verbunden. So verläuft der Signalfluss innerhalb der meisten Geräte in der folgenden Reihenfolge:

Oszillator Filter Verstärker

Hierbei können die einzelnen Komponenten noch durch Hüllkurvengeneratoren und andere Modulatoren beeinflusst werden. Der Anwender hat keine Möglich- keit, die einzelnen Module anders zu verketten; eine Modulation beispielsweise durch einen Audiooszillator ist nur bei sehr teuren Geräten vorgesehen, norma- lerweise dienen diese ausschließlich der Tonerzeugung.

Erfinder des Kompaktsynthesizers war Dr. Robert A. Moog, der 1964/ 65 ein derartiges Gerät entwickelte. Er war einer der Pioniere der modularen Synthesi- zerform, hatte das Prinzip der Steuerspannung von Bauteilen elektronischer Klangerzeuger bereits früh vorangetrieben und stand in engem Kontakt zu Musi- kern, deren Erfahrungen mit elektronischen Musikinstrumenten er in seinen Ent- wicklungen verarbeitete. Ergebnis war 1967 die Vorstellung des . Andere Firmen entwickelten ähnliche Geräte, und bis zu Beginn der Achtziger Jahre gab es – trotz bedeutender Weiterentwicklungen an den Geräten und ihren Eigenschaften – nur Instrumente, die sich direkt oder indirekt auf den zurückführen lassen. Erst Anfang der Achtziger Jahre wurden die ersten Di- gitalsynthesizer entwickelt, die andere Syntheseprinzipien Wirklichkeit werden

23

Alkemper:

ließen. Trotzdem finden gerade jüngere Musiker, die eigentlich mit den Digital- synthesizern groß geworden sind, wieder Gefallen an den so genannten „ Dino- sauriern“ , da diese einerseits – gerade auch durch die Ungenauigkeiten analoger Bausteine – Klänge erlauben, die mit digitalen Synthesizern nicht zu realisieren sind. Durch ihre anwenderfreundliche Oberfläche ermöglichen sie eine schnelle und gezielte Klangveränderung und können andererseits durch geeignete Hard- wareschnittstellen den Anforderungen des modernen Instrumentariums bezüglich der Steuerbarkeit angeglichen werden. Kleinere Firmen insbesondere in Deutsch- land und Großbritannien sind dazu übergegangen, analoge Kompaktsynthesizer mit digitalen Steuerungs- und Speichermöglichkeiten zu bauen, an denen insbe- sondere bei Kompositionen moderner Populärmusik ein immenser Bedarf be- steht.

Die Kompaktsynthesizer waren wegen ihrer Größe und ihres zumeist geringen Gewichts für den Bühneneinsatz prädestiniert. Deswegen nannte man diese Ge- räte, die leicht zu transportieren waren, früher auch „ComboSynthesizer“ – in Anlehnung an kleine, handliche Gitarrenverstärker, die als „Comboverstärker“ oder einfach als „Combo“ bezeichnet werden. Allerdings war die Speicherung der Klänge dieser Geräte bis Mitte der Siebziger Jahre nicht möglich, weswegen einige Musiker, sofern sie finanziell ausreichend ausgestattet waren, darauf verfielen, ei- nen Klang, der ihnen besonders gut gefiel, nicht mehr zu verändern und statt des- sen das gleiche Gerät noch einmal zu erstehen; war auch hier wieder ein gefälliger Klang entstanden, so kaufte man sich ein weiteres Exemplar usw.; diese wahr- scheinlich teuerste Möglichkeit, Klänge dauerhaft zu speichern und bei Bedarf abrufen zu können, wurde erst mit der Möglichkeit der digitalen Speicherung ob- solet.

Presetsynthesizer (oder auch „vorprogrammierte Synthesizer“ bzw. „ Pre-Pro- grammed Synthesizer“ ) sind Geräte, die werksseitig mit einer bestimmten Anzahl fest programmierter Klänge ausgestattet wurden. Die Eingriffsmöglichkeiten in die Klanggestaltung sind sehr gering, lediglich durch Kippschalter sind in einge- schränktem Maße Veränderungen vorzunehmen, die sich jedoch nur marginal auf

24

Alkemper:

den Klang auswirken; aus diesem Grund war auch eine Speicherung nicht vorge- sehen.

Solche Geräte waren in der Hauptsache für den Live-Einsatz gedacht und ver- hältnismäßig preiswert. Da die so genannten Keyboards jedoch mehr oder minder die gleichen Funktionen und Eigenschaften hatten und beständig weiterentwickelt wurden, während die Entwicklung bei den Presetsynthesizern stagnierte, werden solche Geräte heutzutage nicht mehr hergestellt, auch weil vollprogrammierbare Synthesizer nun zu einem Preis zu bekommen sind, der Presetsynthesizer völlig uninteressant macht.

Die älteste Form eines Synthesizers, der diese Bezeichnung verdient, ist wahr- scheinlich der Studiosynthesizer. Derartige Geräte waren für heutige Verhältnisse ungeheuer große Apparaturen, die leicht einen ganzen Raum füllen konnten. Mit ihnen, die vom Prinzip her den Modulsynthesizern nicht unähnlich sind, jedoch weitaus umfassender und komplexer, waren Klangkonstruktionen möglich, die insbesondere von experimentellen Komponisten der E-Musik 2 gerne verwendet wurden.

Der erste Synthesizer überhaupt, der diesen Namen trug, war ein solcher Studio- synthesizer, nämlich der des amerikanischen Elektronik- konzerns Radio Corporation of America, meist kurz genannt. Das Gerät wurde wie folgt bedient (von „Spielen“ kann man hier nicht reden):

.

2 Hier ist natürlich die ernsthafte Musik gemeint, als Gegensatz zur Unterhaltungsmusik, die gemeinhin U-Musik genannt wird; der Terminus E-Musik, teilweise auch EM abgekürzt, wird jedoch auch als Bezeichnung für die Elektronische Musik benutzt.

25

Alkemper:

Aufgrund dieser komplizierten Bedienung und der den Studiosynthesizern ei- genen Schwerfälligkeit, die solche Geräte für den Bühneneinsatz unbrauchbar machte, war den Studiosynthesizern kein großer Erfolg beschieden, zumal sie für den normalen Anwender unerschwinglich waren und nur einen Bruchteil der Möglichkeiten boten, die dem Komponisten heutzutage von wesentlich kleineren Geräten offeriert werden. Es wurden zwar zahlreiche ernsthafte Werke für den Studiosynthesizer geschrieben, im Populärmusikbereich spielte er jedoch nie eine Rolle. Die letzten Exemplare dieser Gattung wurden Ende der Siebziger Jahre angefertigt, Käufer solcher Systeme waren meist akademische Institutionen wie z. B. Musikhochschulen oder aber Studios von Rundfunkanstalten (z. B. der WDR in Köln; u. a. deswegen galt diese Stadt über lange Jahre hinweg als Zen- trum der elektronischen Musik).

Digitale Synthesizer kamen zu Beginn der Achtziger Jahre auf den Markt, nach- dem die Preise für digitale Speicherbausteine stark gefallen waren und die Her- stellerfirmen begonnen hatten, ihre Geräte mit solchen Bausteinen auszustatten. Die ersten Entwicklungen der Digitaltechnik hatten die Speicherbarkeit von Klangprogrammen und die Verbindung von Synthesizern via serieller Schnittstel- len zum Ergebnis. Die nächsten Schritte führten zum Einbau prozessorgesteuer- ter Oszillatoren, da die Ungenauigkeiten und Nachteile analoger Oszillatoren (bei- spielsweise temperaturbedingte Tonhöhenschwankungen) ausgemerzt werden sollten. Auf diese Weise erblickte zu Beginn der Digitalära eine Generation hybri- der Modelle das Licht der Welt, die zwar über digital gesteuerte Oszillatoren, je- doch über herkömmliche analoge Filter verfügten (z. B. die Modelle der Firma Oberheim oder der von Roland). Digitale Filter ließen sich meist durch das Fehlen des Resonanzparameters erkennen. Auch die digitale Speiche- rung war bereits ein Charakteristikum solcher Geräte, begonnen mit dem der Firma Sequential Circuits, der als erster Synthesizer gilt, dessen Programme sich in allen Parametern abspeichern ließen.

Das erste volldigitale Modell war dann der Yamaha , der nicht nur eine fast vollständig digitale Editierung bot (auf dem Gerät befanden sich außer zwei

26

Alkemper:

Schiebereglern ausschließlich Drucktastern), sondern sich die Digitaltechnik auch dahingehend zunutze machte, dass er als erster Synthesizer mit der FM-Synthese eine neuartige Form der Klangerzeugung anbot, die ihn zu einem Verkaufsschla- ger machte.

Heutzutage werden von den großen Anbietern nur Synthesizer hergestellt, die auf digitalem Wege programmiert werden. Signalerzeugung und -verarbeitung erfol- gen ausschließlich prozessorgesteuert, und Umfang und Komplexität der Para- meter haben in einem Maße zugenommen, wie es auf analogem Wege niemals zu bewältigen gewesen wäre. Synthesizer sind jetzt serienmäßig mit einer Effektsek- tion ausgestattet, verfügen über die Fähigkeit der Multitimbralität (d. h. das An- sprechen der Tonerzeugung auf mehreren unterschiedlichen MIDI-Kanälen) so- wie äußerst komplexe Programmiermöglichkeiten. Nur auf dem Gebiet der Klangerzeugung ist es zu verhältnismäßig wenig Neuentwicklungen gekommen, nachdem das durch die Digitaltechnik Mögliche und Machbare auch relativ schnell realisiert worden war (FM-Synthese, Wavetable-Synthese usw.). Dieser Umstand ist darin begründet, dass es eine ganze Zeit lang keinen Bedarf an neuen Syntheseformen gab – die Anwender waren mit den ihnen verfügbaren Geräten zufrieden. Erst in den letzten Jahren kam ein neues Streben nach „ungehörten“ Klängen auf, dem die Entwickler und Hersteller durch eine Reihe neuer Systeme Rechnung trugen.

Die ersten Digitalsynthesizer, die Anfang der Achtziger Jahre erschienen, waren die oben beschriebenen Hybridmodelle, bei denen die Klangerzeugung digital und die Klangformung analog erfolgte. Diese Synthesizer arbeiteten zwar nach dem Steuerspannungsprinzip, jedoch wurde die Stimmung der klangerzeugenden Os- zillatoren kontrolliert und gegebenenfalls korrigiert.

Kurz darauf erschienen die ersten volldigitalen Synthesizer (für die im Eigentli- chen die Bezeichnung „DigitalSynthesizer“ verwendet wird). Hier findet die kom- plette Signalverarbeitung auf digitalem Wege statt, erst nach Ende der Verarbei- tung wird das Signal gewandelt, um dann als Spannung am Audioausgang abge- nommen werden zu können. Diese Synthesizer zeichneten sich durch einen sehr

27

Alkemper:

klaren und brillanten Klang aus, der sich wesentlich von dem analoger Synthesizer unterschied. Neben dem Yamaha waren die Modelle und der Firma Korg bekannte Vertreter dieser Synthesizergeneration.

Von der digitalen Speicherung von typischen Synthesizerwellenformen war es nun nicht mehr weit zur Speicherung von Wellenformen auch realer Instrumente und Geräusche. Da die digitale Speicherung an sich längst kein Problem mehr war und der Umfang der Speicherung lediglich eine Frage des Speicherplatzes war, ging man um 1985/ 86 dazu über, Synthesizer mit Speicherbausteinen in einer Größenordnung von mehreren Mbyte auszustatten, in denen die Wellenformen (Samples) zahlreicher Instrumente und Geräusche abgelegt wurden. Die Wellen- formen werden durch einen digitalen Oszillator ausgelesen und dann weiterverar- beitet. Die Klangpalette, die durch solche Sampleplayer zur Verfügung gestellt wurde, war beeindruckend: Erstmals ließ sich nun ein komplettes Musikorchester einzig und allein mit ein paar Synthesizern imitieren; war ein solches Instrument noch multitimbral, so beschränkte sich die Zahl der benötigten Geräte auf ein oder zwei Exemplare.

Diese Sampleplayer (oder „ ROM-Sampleplayer“ , wie sie auch genannt werden) und die aus ihnen hervorgegangenen Workstations stellen trotz aller Bemühungen insbesondere kleinerer Firmen, eine größere Gerätevielfalt auf den Markt zu brin- gen, immer noch den Löwenanteil der Synthesizer. Auch die Neuerscheinungen gehören zu achtzig Prozent dieser Gerätegattung an. Allerdings werden die Mög- lichkeiten der Klangeditierung – auch in Echtzeit – immer weiter vorangetrieben. Andererseits verleiten Sampleplayer – einmal durch die hervorragende Klangqua- lität der digitalisierten Naturklänge, aber auch durch die sehr komplexe und teils unübersichtliche Bedienung – dazu, ein solches Gerät tatsächlich nur als Abspiel- gerät von Klängen zu verwenden; der Aspekt insbesondere der Experimentier- freude bei der Schaffung von Klängen, der den ersten Synthesizern noch zu eigen war, droht bei solchen Geräten völlig verloren zu gehen. Vorläufiger Höhepunkt dieser Tendenz zur „Editier-Unlust“ ist die Schaffung verschiedener Standards (GM-/ GS-Standard), nach denen Naturklänge in Synthesizern sortiert werden,

28

Alkemper:

um das Abspielen von Sequenzersongs auf Instrumenten verschiedener Hersteller zu ermöglichen. Auf diese Standards wird im weiteren noch einzugehen sein.

Der Begriff „Sampleplayer“ ist im übrigen mehrdeutig, denn mit dieser Bezeich- nung werden auch Sampler versehen, die – im Gegensatz zu normalen Samplern – keine Audioeingänge haben und demzufolge Klänge nicht digital aufzeichnen können, jedoch alle anderen Funktionen von Samplern bieten. Es müssen hier also Klänge, die mit „richtigen“ Samplern aufgezeichnet wurden, in den Speicher eingeladen werden, um sie weiterverarbeiten zu können. Zur besseren Unter- scheidung der beiden recht unterschiedlichen Gerätetypen könnte man diese (sel- tene) Art der Sampleplayer auch als „RAM-Sampleplayer“ (im Gegensatz zu den ROM-Sampleplayern) bezeichnen, jedoch ist diese Bezeichnung ungebräuchlich. Man muss in einem solchen Fall aus der Beschreibung des Gerätes erschließen, mit welcher Sorte von Sampleplayer man zu tun hat.

Bei Workstations handelt es sich um Hybridinstrumente, mit denen eine kom- plette Musikproduktion möglich ist. Sie beinhalten eine Klangerzeugung und - verarbeitung nach dem Muster der Sampleplayer, natürlich eine Tastatur und Spielhilfen, außerdem eine Effektsektion, Schlagzeug- und Perkussionsklänge (so genannte „Drumsounds“ ), Einzelausgänge zur getrennten Bandaufzeichnung von Klängen (z. B. durch eine Mehrspurbandmaschine) sowie einen Sequenzer, d. h. ein Programm, welches das Aufzeichnen und Abspielen musikalischer Informa- tionen (Steuerinformationen) von Synthesizern ermöglicht. Mit solchen Systemen kann man die Klänge bearbeiten, Musikstücke (Sequenzen) aufzeichnen und ab- spielen, mit Effekten und Schlagzeugspuren versehen und dann an den Audioaus- gängen abnehmen. Ein komplettes Stück lässt sich also mit einem einzigen Gerät realisieren.

Die erste und erfolgreichste Workstation war das Modell der japanischen Firma Korg. Dieses Gerät löste bei seinem Erscheinen im Jahre 1988 eine Revo- lution aus.

29

Alkemper:

.

Man kann sagen, dass die den Standard für alle Workstations setzte, die im Laufe der folgenden Jahre erschienen und das Konzept beständig erweiterten. Das Instrument war von seinem Erscheinen bis zur Einstellung der Produktion im Jahre 1994 ein Renner und zählt zu den wohl meistverkauften Synthesizern überhaupt.

Mit den Samplern begann im Jahre 1981 eine neue Ära der elektronischen Klang- erzeuger. Der amerikanische Hersteller E-Mu Systems stellte ein Gerät mit Na- men vor, das in der Lage war, Klänge, die an einem Audioeingang anlie- gen, in ein digitales Format zu wandeln, aufzuzeichnen und nach einer Rück- wandlung auch auszugeben. Man konnte nun Naturklänge auf einer Tastatur spielen und war nicht mehr auf die wirklichkeitsfremden Imitationen analoger Synthesizer angewiesen. Natürlich hatte solches bis dato Ungekanntes auch seinen Preis: Das Gerät ging bei seiner Markteinführung in Deutschland für 30.000 DM über die Ladentheke.

Doch die Entwicklung ging weiter, und durch die fallenden Preise von Mikro- chips ist es möglich geworden, einen Sampler mit den wesentlichen Bearbeitungs- funktionen für etwa 3.000 DM zu bekommen. Selbst Geräte mit extremer Funk- tionsvielfalt, großem Speicher und einer sehr hohen Stimmenzahl kosten noch unter 10.000 DM.

Bei der digitalen Aufzeichnung wird das anliegende Audiosignal mit einer sehr hohen Frequenz abgetastet, und der ausgelesene Wert wird gespeichert. Dadurch

30

Alkemper:

ist es möglich, das Originalsignal sehr gut zu reproduzieren. Abhängig ist die Güte dieser Produktion von der Abtastfrequenz und der Amplitudenauflösung. Diese Begriffe werden in Abschnitt 1.5.3, das sich im besonderen mit den Samplern befasst, noch zu erklären sein. Seit einigen Jahren wird neben dem Monosampling auch das Stereosampling angeboten und ist sogar Standard geworden. Hier wer- den zwei Samples eines Stereoklanges (je eines für die rechte und die linke Seite des Stereopanoramas) generiert, die dann gemeinsam bearbeitet werden können.

Natürlich bietet ein Sampler neben der digitalen Aufzeichnung auch Möglichkei- ten der Nachbearbeitung des aufgezeichneten Materials. Dazu gehören das Be- schneiden dieser Klänge (Samples) an frei wählbaren Stellen, die optimale Ampli- tudenaussteuerung, die Schleifenbildung (Loopen), Multisampling (mehrere Sam- ples werden über die Tastatur verteilt; z. B. beim Aufzeichnen eines Instrumentes in verschiedenen Tonhöhen) und die bekannten Klangbearbeitungsfunktionen der subtraktiven Synthese. Des weiteren ist selbstverständlich auch das Abspeichern der Klänge möglich, wobei sich in den letzten Jahren Festplatten (und hier wegen ihrer Schnelligkeit insbesondere SCSI-Festplatten) gegenüber der Diskette als Speichermedien durchgesetzt haben.

In sprachlichen Hinsicht ist das Wort „Sample“ interessant, weil es allein im Be- reich der elektronischen Klangerzeuger zwei verschiedene Bedeutungen aufweist:

ein von einem Analog-Digital-Wandler erzeugtes Datenwort,

ein aus mehreren Datenworten bestehender Klang.

Also ist es – sprachlich gesehen – paradoxerweise so, dass ein Sample aus mehre- ren Samples besteht.

Zum besseren Verständnis der Klangerzeugungsprinzipien von Synthesizern sol- len zunächst einige Grundlagen der Akustik hinsichtlich Schall, Klängen und Ge- räuschen vorausgeschickt werden.

31

Alkemper:

Bei Schall handelt es sich um Longitudinalwellen, deren Medium die Luft ist; von ihnen ausgelöste Druckschwankungen der Luft nimmt ein funktionierendes Ge- hör als akustischen Reiz wahr. Dem Gehirn ist es überlassen, die ankommenden Signale in einem kognitiven Prozess zu interpretieren. Da Schallwellen nicht sichtbar und in Grafiken schwierig darzustellen sind, werden sie häufig als Trans- versalwellen betrachtet (Wellenformdarstellung). Hierbei bezeichnet man den räumlich konstanten Abstand zwischen zwei benachbarten gleichen Schwin-

gungszuständen als Wellenlänge λ, den zeitlich konstanten Abstand als Schwin-

gungsdauer oder Periode . Aus der Periode ergibt sich die Grundfrequenz des Tones, sie ist der Kehrwert der Periode, mithin gilt = 1 / . Die Frequenz ist also die Wiederholungshäufigkeit der Schwingungsfigur pro Zeiteinheit und defi- niert als Anzahl der Schwingungen pro Sekunde; die Maßeinheit ist Hertz (Hz).

Eine weitere wichtige Größe bei der Charakterisierung von Wellen ist die Ampli- tude. Dieser Terminus bezeichnet die maximale Auslenkung der Schwingung aus der Ruhelage. Als Phase bezeichnet man den momentanen Zustand einer Schwin- gung oder, vereinfacht gesagt, die Steigung der Schwingung zu einem bestimmten Zeitpunkt; überlagern sich also zwei Schwingungen mit identischer Frequenz und Amplitude, so addieren sich bei identischer Phase die Amplituden, bei um 180° verschobener Phase hingegen löschen sich die Schwingungen aus (Phasenauslö- schung).

Lassen sich nun bei Schallereignissen regelmäßige gleichartige Schwingungs- durchgänge erkennen (z. B. bei einer Sinuswelle, siehe Abbildung 1.5-1), so spricht man von einer periodischen Schwingung (Ton); Schallereignisse ohne eine solche Regelmäßigkeit (nichtperiodische Schwingungen, z. B. Rauschen, Klirren, Prasseln) nennt man Geräusch, d. h. hier kann das Ohr den für Klänge typischen Parameter Tonhöhe nicht ausmachen, da keine einheitliche Frequenz vorliegt.

typischen Parameter Tonhöhe nicht ausmachen, da keine einheitliche Frequenz vorliegt. Abbildung 1.5-1: Die Sinuswelle 32

Abbildung 1.5-1: Die Sinuswelle

32

Alkemper:

Töne lassen sich unterscheiden nach Tonhöhe, Lautstärke und Klangfarbe. Die Tonhöhe wird durch die Frequenz bestimmt, d. h. je höher die Grundfrequenz eines Tones, desto höher wird er vom Ohr wahrgenommen. Die Lautstärke eines Tones wird durch seine Amplitude festgelegt, eine höhere Amplitude (auch Pegel oder Level genannt) hat eine höhere Lautstärke des Tones zur Folge.

Außer der Tonhöhe und der Lautstärke gibt es noch einen dritten Parameter, der einen Klang für das Ohr zu einem Ton werden lässt: die Klangfarbe. In der Natur kommen ausschließlich komplexe Schwingungen vor. Diese Bezeichnung ver- wendet man für Schwingungen, die aus mehreren bis unendlich vielen Sinus- schwingungen zusammengesetzt sind. Der französische Mathematiker Jean-Bap- tiste Fourier wies im Jahre 1811 nach, dass beliebige periodische Schwingungen sich als Überlagerung vieler Sinusschwingungen darstellen lassen (so genannte Fourieranalyse), nämlich einer Grundschwingung (Sinuston mit der niedrigsten Frequenz, der für das Ohr die Tonhöhe bestimmt) und einer ganzen Reihe weite- rer Sinustöne, deren Frequenzen bei Tönen stets ganzzahlige Vielfache der Grundtonfrequenz sind, d. h. der erste Oberton hat die doppelte Frequenz des Grundtones, der zweite die dreifache usw. Diese so genannten Obertöne (auch „Partialtöne“ oder „ Harmonische“ genannt, wobei dieser Begriff den Grundton mit einbezieht, d. h. der Grundton ist die erste Harmonische, der erste Oberton die zweite Harmonische etc.) mit eigenen Frequenzen und Amplituden geben dem Ton seine Klangfarbe und machen ihn von anderen Klängen differenzierbar. Deswegen kann das menschliche Gehör den Klang eines Klaviers von dem einer Geige, einer Oboe etc. unterscheiden. Die Amplitudenanteile, mit denen die Obertöne miteinander vermischt sind und die Grundfrequenz begleiten, werden als Spektrum oder Fourierspektrum bezeichnet.

33

Alkemper:

Alkemper: – Abbildung 1.5-2: Frequenzspektren (oben harmonischer Ton, unten nichtharmonischer Ton) Enthält der Klang

Abbildung 1.5-2: Frequenzspektren (oben harmonischer Ton, unten nichtharmonischer Ton)

Enthält der Klang neben Harmonischen auch nichtharmonische Obertöne – das sind solche mit einer Frequenz, die nicht einem ganzzahligen Vielfachen der Grundfrequenz entspricht –, dann wird er als metallischer Klang wahrgenommen; Glocken- und perkussive Klänge enthalten zahlreiche nichtharmonische Ober- töne.

Bei komplexen Schwingungen ändert sich das Spektrum fortlaufend. So klingt ein Klavierton unmittelbar nach dem Anschlag heller als in seiner Ausklingphase, denn die Amplitude der hochfrequenten Obertöne nimmt nach dem Anschlag beständig ab.

Die Betrachtung von Schwingungen als Obertonspektrum ist essenziell für das Verständnis zahlreicher Syntheseprinzipien, insbesondere der additiven Synthese (Fouriersynthese), der Wellenformsynthese und der Resynthese.

Als Syntheseverfahren oder Syntheseprinzip bezeichnet man die Art und Weise, wie ein Synthesizer seine Klänge erzeugt und weiterverarbeitet. Es gibt eine ganze Reihe unterschiedlicher Syntheseprinzipien, die jedoch zum Großteil erst im Laufe der letzten zehn bis fünfzehn Jahre entwickelt bzw. dem Synthesizerspieler

34

Alkemper:

in preislich erschwinglichen Geräten zur Verfügung gestellt wurden. Bis zur Ein- führung der Digitaltechnik Anfang der Achtziger Jahre erzeugte und formte man mit Synthesizern die Klänge ausschließlich nach dem Prinzip der subtraktiven Synthese, welche auf der Spannungssteuerung bzw. Spannungssteuerbarkeit der einzelnen Bauteile beruhte. Peter Gorges und Alex Merck schreiben dazu:

So wurde im Laufe der Achtziger Jahre durch die Digitaltechnik die Einführung neuartiger Syntheseprinzipien in handelsüblichen Synthesizern möglich, angefan- gen beim bereits erwähnten, auf der FM-Synthese beruhenden Modell , das die Firma Yamaha im Jahre 1983 auf den Markt brachte; die mit diesem Gerät erzeugbaren „neuen“ Klänge machten den zum meistverkauften Synthesi- zer aller Zeiten.

Durchgesetzt hat sich jedoch seit Ende der Achtziger Jahre die ROM-Sample- Synthese, die in fast allen Geräten zu finden ist. Wegen der großen Akzeptanz dieser Syntheseform stagnierte die Entwicklung neuer Verfahren auch bis etwa Anfang 1993, und erst im März 1994 war es wiederum die Firma Yamaha, die mit dem Modell einen Synthesizer auf den Markt brachte, dessen Klangerzeu- gung auf einem völlig neuartigen Prinzip, dem so genannten „Physical Modeling" beruhte; inzwischen haben auch die Firmen Korg und Roland mit eigenen Mo- dellen nachgezogen, die auf diesem Verfahren basieren.

Heutzutage ist dank der Digitaltechnik die Realisierung verschiedener Synthese- verfahren – auch innerhalb eines einzigen Gerätes wie z. B. dem Yamaha , der ROM-Sample- und FM-Synthese in sich vereinigt – kein Problem mehr, denn:

35

Alkemper:

Die subtraktive Synthese (auch „ Analoge Synthese“ genannt) ist wohl die geläu- figste aller Syntheseformen. Sie findet Anwendung in allen handelsüblichen Ge- räten, die bis 1982 erschienen sind, da sie – wie bereits des öfteren erwähnt – die einzige Syntheseform ist, die sich durch das Prinzip der Spannungssteuerung rea- lisieren ließ. Doch auch weitere Syntheseprinzipien, die mit Hilfe der Digitaltech- nik nach 1982 verwirklicht wurden, tragen Züge der subtraktiven Synthese, so z. B. die ROM-Sample-Synthese, deren klangliche Nachbearbeitung mit Hilfe digitaler Filter vonstatten geht.

Da das subtraktive Syntheseprinzip wohl die älteste und verbreitetste aller Synthe- seformen ist, wird es im folgenden einer eingehenden Beschreibung unterzogen werden. Im einzelnen werden zunächst die von Oszillatoren generierbaren Wel- lenformen näher beschrieben, daraufhin wird der Signalfluss innerhalb eines Synthesizers erklärt, der mit subtraktiver Synthese arbeitet. Zur technischen Er- läuterung der einzelnen Bauteile sei auf Abschnitt 1.6 verwiesen.

Neben der Darstellung als Spektrum lassen sich Schwingungen auch als Wellen- form betrachten. Mit diesem Terminus bezeichnet man den charakteristischen Verlauf eines Schwingungsdurchganges. Ursprünglich entstammen solche Dar- stellungen dem Oszilloskop, einem Gerät zur visuellen Erfassung hochfrequenter Schwingungen (Schwingungen bis etwa 16 Hz – z. B. von Gitarrensaiten – sind mit dem Auge erkennbar, jedoch nur bis zu etwa 5 Hz differenzierbar). Die dort erkennbaren Wellenformen gaben den im folgenden zu beschreibenden Schwin- gungsarten ihre Namen. Diese Wellenformen waren die ersten, die sich mit Syn- thesizern erzeugen ließen, da Synthesizer bis zum Beginn der Achtziger Jahre ausschließlich mit spannungsgesteuerten Oszillatoren arbeiteten. Obwohl sie teil- weise einen Klangcharakter haben, der dem bekannter Instrumente entfernt äh- nelt und hier zur Orientierung jeweils erwähnt werden soll, sind sie vom Spek- trum her wesentlich einfacher aufgebaut. Trotzdem sind sie auch heute noch – wenn auch manchmal nur als Sample – in praktisch jedem Synthesizer zu finden, da sich nur mit ihnen jene „ synthesizertypischen“ Klänge erzeugen lassen, die

36

Alkemper:

dieses Instrument so populär gemacht haben, denn dank ihres zumeist hohen Obertongehaltes sind sie geradezu prädestiniert zur Klanggestaltung mit frequenz- selektiven Filtern, weswegen sie die Grundlage der Entwicklung der subtraktiven Synthese bildeten. Komplexere Wellenformen ließen sich erst mit der Einführung der Digitaltechnik generieren.

Der Sinuston (Abbildung 1.5-1) wird oft auch als reiner Ton bezeichnet, da er als einziger Ton keinerlei Obertöne enthält; überdies lässt sich, wie erwähnt, mathe- matisch nachweisen, dass sich jede komplexe periodische Bewegung als Summe oder Überlagerung von Sinusschwingungen darstellbar ist – oder wie Bernd En- ders schreibt: (1985:48). Der Sinuston ist ausschließlich auf elektronischem Wege erzeugbar. Sein Klangcha- rakter ähnelt entfernt dem einer Flöte oder einer Orgel, weswegen er auch zur Imitation von Orgelsounds benutzt wurde:

Da es sich beim Sinuston nur um eine einzige Schwingung handelt, kann sein Klangcharakter mit frequenzselektiven Filtern, wie sie in der Synthesizertechnik Anwendung finden, nicht verändert werden, weswegen diese Wellenform der Er- zeugung durch den Niederfrequenzoszillator (LFO) zu Modulationszwecken vor- behalten ist.

Die Dreieckwelle (Abbildung 1.5-3) ist dem Klang des Sinustons sehr ähnlich, weil sie zwar – wie die Rechteckwelle – alle ungeradzahligen Harmonischen ent- hält, deren Amplituden jedoch exponentiell abnehmen. Insofern könnte man die Dreieckwelle auch als stark gefilterte Rechteckwelle bezeichnen.

37

Alkemper:

Alkemper: – Abbildung 1.5-3: Die Dreieckwelle Die Rechteckwelle (Abbildung 1.5-4) besteht ausschließlich aus

Abbildung 1.5-3: Die Dreieckwelle

Die Rechteckwelle (Abbildung 1.5-4) besteht ausschließlich aus ungeradzahligen Harmonischen, d. h. es sind nur der Grundton, die dritte, fünfte usw. Harmoni- sche vertreten. Die Amplituden der Obertöne entsprechen dem Reziprok ihrer Ordnungszahl, so beträgt beispielsweise die Amplitude der siebten Harmonischen ein Siebtel der Amplitude des Grundtons.

Den Klangcharakter dieser Welle kann man aufgrund der verhältnismäßig hohen Amplituden der Obertöne als strahlend und hell bezeichnen.

Amplituden der Obertöne als strahlend und hell bezeichnen. Abbildung 1.5-4: Die Rechteckwelle In der

Abbildung 1.5-4: Die Rechteckwelle

In der Wellenformdarstellung (Abbildung 1.5-4) weist die Rechteckwelle senk- rechte Flanken auf, wodurch Hoch- und Niederpegel entstehen. Bei der Recht- eckschwingung betragen die zeitlichen Anteile des Phasenhoch- und des Phasen- niederpegels an einem Schwingungsdurchgang je 50%. Ist es jetzt möglich, dieses Verhältnis zu ändern (modulieren), so spricht man nicht mehr von einer Recht- eckwelle, sondern von einer Pulswelle (Abbildung 1.5-5), d. h. die Rechteckwelle ist ein Sonderfall der Pulswelle. Je weiter die Anteile von Hoch- und Tiefpegel auseinandergehen, desto nasaler klingt der resultierende Ton. Das Verhältnis der zeitlichen Anteile von Hoch- und Niederpegel an einem Schwingungsdurchlauf nennt man Pulsbreite; diese wird entweder als prozentualer Wert oder als Bruch

38

Alkemper:

dargestellt. Dabei wird bei einer Pulsbreite von 1: jede -te Harmonische ausge- löscht, d. h. bei einer Pulsbreite von 1:6 fehlen im Spektrum die sechste, die zwölfte, die achtzehnte Harmonische usw

Pulswellen klingen je nach fehlenden Frequenzen hoch, nasal oder auch spitz und werden meist zur Imitation von Blasinstrumenten aller Art eingesetzt. Darüber hinaus können durch die Modulation der Pulsbreite (z. B. durch einen Nieder- frequenzoszillator) interessante, weil lebendige Klangeffekte erzielt werden.

interessante, weil lebendige Klangeffekte erzielt werden. Abbildung 1.5-5: Die Pulswelle Die Sägezahnschwingung

Abbildung 1.5-5: Die Pulswelle

Die Sägezahnschwingung enthält sämtliche Töne der harmonischen Oberton- reihe. Sie tritt – je nach Einsatz der Steuerspannung – in aufsteigender oder ab- steigender Form auf (Abbildung 1.5-6). Bedingt durch die Tatsache, dass sämtli- che Obertöne mit verhältnismäßig hohen Amplituden vorhanden sind, klingt auch diese Schwingungsart sehr hell und klar – mit der Sägezahnwelle wurden in der Analogsynthese erfolgreich Blechbläser, aber auch Streicher imitiert.

Sägezahnschwingungen wurden früher in Analogsynthesizern (wie z. B. dem Korg ) oder elektronischen Orgeln dadurch erzeugt, dass mehrere Rechteck- wellen unterschiedlicher Fußlagen (z. B. 16', 8', 4', 2') übereinander gelagert wurden; der Begriff „Fußlage“ bezeichnet hier die Oktavlage eines Tones und ist abgeleitet von der Länge einer entsprechenden Orgelpfeife.

abgeleitet von der Länge einer entsprechenden Orgelpfeife. Abbildung 1.5-6 : Aufsteigende und absteigende
abgeleitet von der Länge einer entsprechenden Orgelpfeife. Abbildung 1.5-6 : Aufsteigende und absteigende

Abbildung 1.5-6: Aufsteigende und absteigende Sägezahnwelle

39

Alkemper:

Als Rauschen (Abbildung 1.5-7) bezeichnet man eine Schwingungsform, in der sehr viele bis sämtliche Frequenzen des menschlichen Hörbereichs und auch dar- über hinaus (d. h. von 0 bis 24.000 Hz) gleichzeitig mit unterschiedlichen Ampli- tuden erklingen; das menschliche Gehör kann hier keinen Grundton mehr erken- nen. Enthält das Rauschen alle hörbaren Frequenzen (d. h. von etwa 16 Hz bis 20 kHz), dann spricht man in Analogie zum weißen Licht, das sich aus allen sichtbaren Frequenzen zusammensetzt, von „ Weißem“ Rauschen. Die Schwin- gungsform ist dem periodischen Schwingen eines musikalischen Tones entgegen- gesetzt. Durch Abschwächung bestimmter Frequenzbereiche (Filterung) entsteht aus dem weißen Rauschen so genanntes farbiges Rauschen, das mit stimmlosen Sprachlauten zu vergleichen ist. Man unterscheidet hier – weiterhin analog zum Lichtspektrum – z. B. Rosa Rauschen, in dem die tieferen Frequenzanteile her- vorgehoben werden (hier fällt die Amplitude um 3 dB pro Oktave), oder Blaues Rauschen, bei dem die höheren Frequenzen stärker vertreten sind.

Das Rosa Rauschen ist im übrigen ein Sonderfall, da es mit seinen betonten tiefen und abgeschwächten hohen Frequenzen den ungleichen Empfindungsschwellen des menschlichen Gehörs entgegenkommt; hier wird der Höreindruck eines über den gesamten Frequenzbereich gleichmäßigen Geräusches erzielt, obwohl die tat- sächliche Schallenergie zu den höheren Frequenzen hin fortschreitend abnimmt.

Mit Rauschgeneratoren, deren Signal in Analogsynthesizern oft mit dem Oszilla- torsignal gemischt werden kann, lassen sich insbesondere Naturgeräusche nach- ahmen, mit Weißem Rauschen z. B. Wind- oder Maschinengeräusche, Becken- klänge, Anblasgeräusche von Blasinstrumenten und ähnliches. Rosa Rauschen wird wegen seiner vorwiegend tiefen Frequenzanteile eher zur Imitation von Donnergrollen oder Fahrgeräuschen verwendet.

tiefen Frequenzanteile eher zur Imitation von Donnergrollen oder Fahrgeräuschen verwendet. Abbildung 1.5-7: Rauschen 40

Abbildung 1.5-7: Rauschen

40

Alkemper:

In der subtraktiven Synthese gibt es für die drei Klangparameter Tonhöhe, Laut- stärke und Klangfarbe je ein Modul (Baustein): den Oszillator, das Filter und den Verstärker. Diese drei Module bilden die Grundlage dieser Syntheseform und werden durch weitere Komponenten (Hüllkurvengeneratoren, Modulatoren, Controller) beeinflusst.

Herzstück der Klangerzeugung ist neben einem Rauschgenerator der Oszillator, der durch die Generierung verschiedenartiger, obertonhaltiger Wellenformen (siehe oben) das klangliche Rohmaterial produziert. Manche Synthesizer stellen mehr als einen Oszillator pro Stimme zur Verfügung, sodass man zwei oder drei verschiedene Wellenformen in unterschiedlichen Verhältnissen miteinander mi- schen kann. Durch das Übereinanderlegen zweier Schwingungen mit in etwa glei- cher Frequenz und Amplitude entsteht ein „Schwebungseffekt“ , da die Phasen sich teils auslöschen, teils überlagern; der Ton klingt wie mit einem Choruseffekt versehen, man sagt, er wird „fetter“ oder „breiter“ .

Die vom Oszillator kommenden Wellenformen werden nun in einem Filter wei- terverarbeitet. Dabei werden durch das Filter gewisse Frequenzen des eintreffen- den Klangmaterials abgesenkt (subtrahiert – daher die Bezeichnung „Subtraktive Synthese“ ). Welche Frequenzen das sind, wird durch den Filtertyp (Tiefpass-, Hochpassfilter etc.) und die eingestellte Eckfrequenz festgelegt. Eine weitere Möglichkeit der Klangveränderung neben der Filtereckfrequenz ist die Resonanz.

Der bearbeitete Klang gelangt nun in den Verstärker (Amplifier), in dem die Amplitude (Lautstärke) des Signals bearbeitet wird. Der Verstärker wird für ge- wöhnlich von einer Hüllkurve gesteuert, die dem Signal einen zeitlichen Verlauf gibt, d. h. der Verstärker kann das Signal entweder abschwächen oder verstärken. Auf diese Weise lassen sich Einschwing- und Ausklingphasen verschiedener In- strumente nachbilden. Die gleiche oder eine zweite Hüllkurve kann auch auf das Filter wirken, um die Filtereckfrequenz zu verändern (modulieren). Des weiteren gibt es Oszillatorhüllkurven, die die Tonhöhe modulieren, um etwa ein An- oder Überblasverhalten eines Instrumentes zu imitieren.

41

Alkemper:

Weitere Möglichkeiten der Modulation bieten ein Niederfrequenzoszillator, mit dem sich Vibrato- oder Tremoloeffekte erzielen lassen, wenn er durch eine Sinus- oder Dreiecksschwingung im Infraschallbereich (d. h. unterhalb der Hörgrenze) Filter bzw. Verstärker beeinflusst, sowie Zufallsgeneratoren (wie z. B. ein Sam- ple&Hold-Modul) oder spezielle Funktionen wie „ Portamento/ Glide“ oder „Keyboard-Tracking“ .

Das Ergebnis ist ein in allen Klangparametern bearbeiteter Ton, der am Audio- ausgang des Synthesizers abgegriffen werden kann. Dabei kann es – zumindest in Hinsicht auf die Analogsynthesizer der Sechziger bis Achtziger Jahre – nicht Ziel sein, reale Instrumente nachzubilden, wozu analoge Synthesizer letztendlich auch gar nicht in der Lage sind. Bei einem Vergleich zwischen den grafischen Darstel- lungen der Fourieranalyse eines realen Instrumentes und seiner Nachbildung durch einen Analogsynthesizer stellt der Fachjournalist Hubertus Maaß fest:

Es geht vielmehr darum , den experimentellen Charakter dieser Geräte voll auszu- schöpfen. Selbst bei Digitalsynthesizern, die Wellenformen echter Instrumente (Samples) bereitstellen, wäre neben der (nun tatsächlich ansatzweise möglichen) naturgetreuen Nachbildung wirklicher Instrumente auch das Experiment mit die- sen „bekannten“ Wellenformen eine Möglichkeit, ungekannte Klänge zu finden.

Bei der additiven Synthese handelt es sich im Grunde genommen um die Umkeh- rung der subtraktiven Synthese, denn hier werden nicht obertonreichen Wellen- formen bestimmte Frequenzen durch ein Filter entzogen, sondern der Klang wird Oberton für Oberton aufgebaut. Dies ist möglich, da Klänge, wie bereits geschil- dert, aus einer großen Anzahl von Sinusschwingungen bestehen. Bei der additiven Synthese werden diese Sinusschwingungen einzeln erzeugt und dann addiert (da- her der Name dieser Syntheseform). Da jeder Oberton einzeln erzeugt wird, sind natürlich auch Klänge mit ungewöhnlichen Spektren zu realisieren. Soweit der

42

Alkemper:

Anwender Zugriff auf die Erzeugung der einzelnen Partialtöne hat, sind selbstver- ständlich umfassende Kenntnisse bezüglich der Fourieranalyse vonnöten. Deswe- gen nennt man diese Syntheseform auch „Fouriersynthese“ .

Da die additive Synthese pro Oberton über einen separat steuerbaren Oszillator verfügen muss, ließ sich diese Syntheseform – wie auch alle folgenden – nicht sinnvoll zur Klangerzeugung in Analogsynthesizern verwenden. Deswegen wurde sie erst im Zeitalter der Digitalsynthesizer realisiert.

Zwar bestehen komplexe Schwingungen in der Natur aus einer riesigen Anzahl von Harmonischen, doch aus pragmatischen Gründen (Stichwort Programmier- aufwand) stellen additive Synthesizer dem Anwender meist 32, 64 oder 128 Obertöne zur Verfügung. Diese entsprechen entweder der harmonischen Reihe, was das Programmieren unharmonischer Anteile recht kompliziert gestal- tet, oder sie lassen sich jeder für sich programmieren. Allerdings weisen die ent- stehenden Wellenformen lediglich ein steriles Spektrum auf, weswegen die Fou- riersynthese allein nicht zur perfekten Nachbildung von Naturinstrumenten taugt; Zeitverläufe und Klangformungen müssen nun in der Nachbearbeitung realisiert werden.

Für diese Nachbearbeitung bieten sich verschiedene Möglichkeiten an. Neben der subtraktiven Nachbearbeitung, die schon eingehend erklärt worden ist, gibt es auch die Möglichkeit der Kombination mehrerer Spektren durch Hüllkurven. Dadurch lassen sich Übergänge bei den Spektren realisieren, die den zeitlichen Verlauf eines Klanges nachbilden; mithin liegt nun eine zeitliche Veränderung der Obertonstruktur eines Klanges vor. Auch wenn die Nachbildung eines echten Instrumentes aufgrund der verhältnismäßig geringen Anzahl an Obertönen nicht durchführbar ist, wird hier bereits die Schaffung interessanter und lebendiger Klänge möglich.

Die besten Ergebnisse erzielt man natürlich mit Systemen, in denen jeder einzelne Oberton mit seinen Frequenz- und Amplitudenverläufen individuell program- mierbar ist. Zwar werden hier immense Anforderungen an den Programmierer gestellt, doch auf diese Art und Weise lassen sich komplexe Digitalklänge erzeu- gen oder Naturtöne verhältnismäßig nahe am Original imitieren.

43

Alkemper:

Die additive Synthese, die in Synthesizermodellen wie dem oder der Firma Kawai, dem der Firma Ensoniq, dem der Firma Sequential Cir- cuits und einer ganzen Reihe anderer Synthesizer, die in den Achtziger Jahren erschienen, Anwendung fand, hat zahlreiche Ableger hervorgebracht, so z. B. die Wellenformsynthese oder das Time-Slice-Verfahren. Allerdings wird sie – wie auch die meisten anderen Syntheseverfahren (außer der ROM-Sample-Synthese) – bei der Entwicklung neuer Synthesizer seit Ende der Achtziger Jahre konsequent ignoriert.

Dieses Syntheseprinzip wurde Anfang der Siebziger Jahre von dem amerikani- schen Wissenschaftler Dr. John Chowning entwickelt. Es wurde seitens der Firma Yamaha patentiert und wird daher bislang ausschließlich in Synthesizern dieses Herstellers angewendet. Der erste Synthesizer, bei dem dieses Prinzip Verwen- dung fand, war der schon mehrfach erwähnte Yamaha , dem einige weitere Modelle des gleichen Herstellers folgten. Im Moment gibt es mit den -Synthe- sizern, einer Produktserie von Yamaha, nur eine aktuelle Synthesizerreihe, die über diese Syntheseform verfügt.

Auch die FM-Synthese lässt sich ob ihres Aufwandes nur in Digitalsynthesizern realisieren. Hier werden Klänge auf der Basis so genannter Operatoren erzeugt. Dabei ist ein Operator ein Sinusoszillator, bei dem Frequenz und Hüllkurve pro- grammierbar sind (in neueren FM-Synthesizern werden statt des Sinus auch an- dere Wellenformen angeboten). Er verfügt über einen Eingang, durch den die Frequenz über das Keyboard und einen Frequenzregler für die Grundstimmung festgelegt wird; ein zweiter Eingang wird von einem Modulatoren oder einem Niederfrequenzoszillatoren gespeist, um die Frequenz zu modulieren (daher der Name der Syntheseform).

Nun werden in FM-Synthesizern mehrere Operatoren zu gewissen Strukturen („ Algorithmen“ ) zusammenfasst. Eine solche Struktur, die sehr einfach zu be- schreiben ist, ist die Träger-Modulator-Struktur. Dabei wird die durch den Modu- lationsoperator erzeugte Schwingung dem zu modulierenden Operator (Träger) zugeführt und verändert dessen Frequenz (und damit die Tonhöhe). Da die Mo-

44

Alkemper:

dulationsfrequenz jedoch (anders als beim Niederfrequenzoszillator) im hörbaren Frequenzbereich liegt, nimmt man die Modulation nicht als Tonhöhenänderung (Vibrato) wahr, sondern als Klangfarbenänderung.

Nun kann man natürlich die Operatoren auch auf komplexere Weise miteinander verketten, wodurch die Erzeugung vielfältigerer Spektren möglich ist. Der z. B. bot eine sechzehnstimmige Klangerzeugung, bei der jede einzelne Stimme über sechs Operatoren verfügte, die nach 32 verschiedenen Algorithmen mitein- ander verkettet werden konnten. Die DX-Serie wurde ausschließlich mit FM-Pa- rametern versehen, erst mit der SY-Serie kamen Elemente der subtraktiven Nach- bearbeitung hinzu.

Man unterscheidet nun zwei Arten der Frequenzmodulation, nämlich

die einfache Modulation, bei der einfache Strukturen durch serielle Anord- nung Klänge mit mehreren Bestandteilen erzeugen, welche für sich allein genommen noch keine komplexe Obertonstruktur aufweisen würden,

die komplexe Modulation, die durch Verkettung mehrerer Operatoren mit paralleler Anordnung und gegenseitiger Modulation die Erzeugung äu- ßerst komplexer Spektren mit Klangfarbenverläufen gestatten. Dabei ist es z. B. mit einer Modulation der Modulatorenamplitude (durch Hüllkurve oder Niederfrequenzoszillator) möglich, die Modulationsintensität zu bestimmen bzw. zu variieren. Dieses Beispiel zeigt bereits die Möglich- keiten der Klangerzeugung, die sich mit der FM-Synthese auftun.

Die Flexibilität und die hervorragenden Klangergebnisse der FM-Synthese sind von Fachleuten immer wieder gelobt worden, allerdings war vielen Anwendern die Klangprogrammierung der FM-Synthesizer zu kompliziert, da sie ein gewisses physikalisches Verständnis erfordert. Gorges/ Merck meinen:

.

45

Alkemper:

Der Schweizer Informatiker P. Ackermann äußert sich ähnlich:

Man muss also abwarten, ob FM-Synthesizer dereinst eine Renaissance erfahren werden wie momentan die Analogsynthesizer. Zwar ist die FM-Synthese letztend- lich nicht dazu gedacht, wirkliche Instrumente zu imitieren (auch wenn ein Ver- kaufsargument für den bei seinem Erscheinen die äußerst realistisch klin- genden Chorklänge waren), denn dazu bräuchte man eine schier unendliche An- zahl an Operatoren. Die erzeugten Klänge weisen vielmehr, ohne allzu künstlich zu klingen (sie werden oft auch als „akustisch“ oder auch „ metallisch“ beschrie- ben), eine äußerst interessante Eigenständigkeit auf.

Diese in den mittleren und späten Achtziger Jahren sehr verbreitete Syntheseform (auch als „Waveform-Synthese“ bezeichnet) ist ein Vorläufer der ROM-Sample- Synthese und wurde von vielen Herstellern – in leicht variierter und individuell benannter Form (DWGS-, VM- oder DMS-Synthese) – in einer Reihe von Gerä- ten eingesetzt.

Grundlage der Wellenformsynthese ist die Klangerzeugung auf der Basis digitaler Wellenformen, die dann additiv oder subtraktiv nachbearbeitet werden. Im Grunde genommen kann dieses Syntheseprinzip mit der additiven Synthese ver- glichen werden, nur mit dem Unterschied, dass die Wellenformen nicht frei pro- grammierbar sind. Diese digitalen Wellenformen sind in der Regel aus Samples extrahierte Einzelschwingungen, die durch einen Oszillator periodisch aus dem Wellenspeicher ausgelesen werden; ihnen ist der Obertoncharakter der gesampel- ten Instrumente noch zu eigen, jedoch sind Klang- und Lautstärkeverläufe abhan- den gekommen, die dann mit Filtern, Hüllkurven und Modulationen nachzubilden sind. Die Wellenform wird nicht bei jedem Auslesedurchgang neu berechnet,

46

Alkemper:

sondern die im voraus bestimmten Zahlenwerte werden in einer Tabelle abgelegt (deswegen wird diese Syntheseform auch „Wellentabellensynthese“ bzw. „ Wave- table-Synthese“ genannt). Neben der reinen Imitation von Naturinstrumenten steht es dem Benutzer natürlich frei, die angebotenen Wellenformen im Zuge der Klangverarbeitung experimentell zu nutzen.

Mit der Granular-Synthese wurde eine Weiterentwicklung der Wellenform- synthese versucht, deren Klänge durch eine gewisse „Starrheit“ (keine Ungenauig- keiten, Phasenverschiebungen etc.) schnell langweilig zu werden drohten. Aller- dings wurde diese Syntheseform in keinem Synthesizer realisiert. Nach diesem Prinzip musste man sich einen Klang als eine Abfolge sehr kurzer, elementarer Klänge vorstellen – wie beim Film, der auch aus einer Reihe sehr kurz sichtbarer Bilder besteht. Diese Elementarklänge (sog. „Körnchen“ oder „Grains“ ) haben eine sehr kurze Dauer (etwa 5 – 20 Millisekunden); durch das Aneinanderketten der Grains, die als Wellentabellen vorliegen, entsteht ein langer Klang mit dyna- mischer Klangveränderung.

Eine weitere Abwandlung der Wellenformsynthese, die von der Firma Sequential Circuits entwickelt wurde, ist die so genannte Vektorsynthese. Dabei wird nicht einer, sondern vier Oszillatoren verwendet, die bei Tastendruck gleichzeitig ver- schiedene Wellenformen erzeugen. Das Lautstärkeverhältnis der Oszillatoren ist dabei nicht statisch, sondern kann über die Zeit variiert werden. Man kann sich den Gesamtlautstärkepegel als Punkt in einem Rechteck vorstellen, dessen vier Eckpunkte die Lautstärken der einzelnen Oszillatoren repräsentieren. Wird nun die Lautstärke eines Oszillators erhöht, dann werden die Lautstärken der anderen Oszillatoren vermindert – der Punkt wandert zu einer Ecke hin und dadurch gleichzeitig von den anderen Ecken weg. Durch diesen sich ständig ändernden Klangeindruck wird eine enorme Lebendigkeit des Klanges erreicht. Der Name dieser Syntheseform rührt daher, dass man den Gesamtlautstärkepegel als einen Vektor beschreiben könnte, der durch Betrag und Richtung die exakte Position des Gesamtpegels innerhalb des imaginären Rechtecks beschreibt. Wird nun die- ser Vektor verändert, so werden die Lautstärkepegel in Echtzeit für jeden der vier Oszillatoren individuell neu berechnet. Zur Veränderung des Vektors hat sich in der Realität ein Joystick als Eingabemittel durchgesetzt, mit dem tatsächlich vier

47

Alkemper:

Punkte exakt ansteuerbar sind. Verwendet wurde dieses Syntheseform in dem 1986 erschienenen Sequential Circuits-Synthesizer , einem der letzten Produkte besagter Firma. In der 1990 auf den Markt gekommenen der Firma Korg wurde dieses Prinzip wieder aufgenommen, wobei verschiedene Vari- anten dieses Gerätes hergestellt wurden, bei denen die Wellentabellen teilweise durch Multisamples ergänzt wurden.

Dieses Syntheseprinzip, das Ende der Achtziger Jahre – beginnend mit der Korg – in den meisten Synthesizern insbesondere großer Hersteller Verwendung findet, ist im wesentlichen keine eigenständige Syntheseform, sondern lässt sich als digital realisierte subtraktive Synthese auf der Basis von Multisamples und Wellenformen bezeichnen, die sich im Wellenspeicher befinden und bei Bedarf ausgelesen werden. Mit dieser Syntheseform lassen sich natürliche Instrumente naturgetreu imitieren, da es sich bei den erzeugten Wellenformen um Samples handelt, die jedoch aus Gründen des Speicherplatzes stark komprimiert werden, indem ausschließlich typische Teile eines Klanges oder Einschwingphasen (die auch in hohem Maße für den Charakter eines Klanges mitverantwortlich sind) eingespeichert werden. Diese Samples lassen sich dann mit Hilfe von klangverar- beitenden Bausteinen auf digitaler Ebene weiterverarbeiten, um einen möglichst naturgetreuen Klangverlauf zu erzielen. Doch auch hier sind dem Anwender na- türlich alle Wege offen, um einen experimentellen Drang auszuleben. Peter Gor- ges und Alex Merck meinen dazu:

.

Entgegen dieser Ansicht hat sich allerdings in den letzten Jahren der Trend durchgesetzt, ROM-Sample-Synthesizer als reine Imitationsinstrumente zu ver- wenden, wobei die Imitation älterer, nicht mehr erhältlicher Synthesizer einen wesentlichen Teil dieser Imitationsgelüste darstellt. Deswegen gibt es seit einiger Zeit im Zuge der Renaissance von Synthesizern der Analogära neue Geräte (z. B. die Modelle der Firma E-Mu Systems oder des deutschen Her-

48

Alkemper:

stellers Quasimidi), die mit Wellenformen eben solcher Instrumente bestückt sind und die gesamte Klangpalette jener Zeit mit den Vorteilen des Digitalzeitalters (MIDI-Steuerung, Stimmstabilität etc.) anbieten; derartige Geräte haben sich zu wirklichen Verkaufsschlagern entwickelt. Durch die Fortschritte in der Digital- technik lassen sich nun auch immer größere Speichermengen verwalten, sodass inzwischen Synthesizer mit einem Wellenspeicher von bis zu 32 Mbyte angeboten werden, die natürlich auch ein entsprechend variables Wellenformsortiment an- bieten, das von Klängen von Naturinstrumenten über Geräusche und Schlagzeug- sounds bis hin zu den gesampelten Wellenformen anderer Synthesizer reicht. Durch das Workstationkonzept lassen sich deswegen Musikstücke aller denkbaren Stile – von der klassischen Musik bis hin zum Technosong – innerhalb eines Ge- rätes realisieren.

Die Linear-Arithmetische Synthese (kurz LA-Synthese) kann man als Kombina- tion von subtraktiver, additiver und Wellenformsynthese bezeichnen. Sie wurde bisher ausschließlich in Geräten der Firma Roland realisiert, beginnend mit dem 1987 erschienenen Modell . Hier geht man von der Annahme aus, dass das menschliche Gehör einen Klang in erster Linie durch seine Einschwingphase (Anblasphase bei Blasinstrumenten, Zupfgeräusch bei Saiteninstrumenten) identi- fiziert. Dementsprechend werden solche Einschwingphasen (sog. Attack-Phasen) in LA-Synthesizern gespeichert und bei Bedarf abgerufen; der Rest des Klanges wird durch volldigitale subtraktive Synthese realisiert. Dabei werden die Klänge aus zwei sog. Partials (Teiltöne, hier besser: Teilklänge) zusammengesetzt, eben einem Einschwingphasen-Sample und einer Synthesizer-Wellenform, die getrennt durch Filter und Verstärker verarbeitet werden. Hier werden die Grundrechenar- ten bei der Beschreibung der dieser Bausteine steuernden Hüllkurven zugrunde- gelegt und die Filter- und Lautstärkeverläufe aufaddiert. Durch unterschiedliche oder sogar entgegengesetzte Hüllkurvenverläufe lassen sich interessante Klang- verläufe erstellen, so z. B. Überblendungen oder abwechselnde Präsenz der Par- tials. Die weitere Klangverarbeitung verläuft dann für beide Partials gemeinsam, wobei neben Modulatoren auch hier noch einmal Filter eingesetzt werden kön- nen.

49

Alkemper:

Die Art der Kombination der Partials ist dem Anwender freigestellt, d. h. man kann auch zwei Samples bzw. zwei Wellenformen miteinander kombinieren. Demzufolge lassen sich eine ganze Anzahl von Klängen mit sehr unterschiedli- chem Charakter realisieren, d. h. ein LA-Synthesizer kann digital wie auch analog klingende Sounds erzeugen. Deswegen gilt z. B. der neben der Korg und dem Yamaha als Klassiker der Digitalsynthesizer.

Das Prinzip der Phasenverzerrung (engl. , abgekürzt PD) wird aus- schließlich bei Geräten der Firma Casio (und deren Nachbauten der Firma Hoh- ner) eingesetzt. Durch einen ähnlichen Klangaufbau wie bei der FM-Synthese werden hier auch FM-ähnliche Klänge erzeugt. Das Prinzip besteht darin, dass einzelne Phasen von gespeicherten Wellenformen (Synthesizer-Wellenformen und Samples) durch Modulation verzerrt werden, d. h. ähnlich wie bei der FM- Synthese wird eine vorgegebene Wellenform geändert, nur hier nicht in der Fre- quenz, sondern in der Phase. (Wir erinnern uns: Als Phase bezeichnet man die theoretische Steigung der Wellenform zu einem bestimmten Zeitpunkt.) Es gibt auch hier einen Basisoszillator, der die Grundwellenform erzeugt (ähnlich dem Träger bei der FM-Synthese) und einen Modulator, der für den Grad der Phasen- verzerrung verantwortlich ist. Letzterer kann neben einem zweiten Oszillator auch eine Hüllkurve oder ein Niederfrequenzoszillator sein.

Dieses Verfahren wurde später (Mitte der Achtziger Jahre) von Casio zur „inter- aktiven Phasenverzerrung“ (engl. , abgekürzt iPD) weiter- entwickelt. In den Geräten der CZ-Serie, in denen dieses Prinzip Anwendung fand, können vier so genannte „ Lines“ , die aus jeweils zwei Modulen bestehen, welche ihrerseits je einen Oszillator und einen Verstärker mit achtstufiger Hüll- kurve (siehe auch Abschnitt 1.6.6) aufweisen, auf sehr komplexe Art und Weise miteinander verbunden werden, und zwar zum einen zum Zwecke der Phasenver- zerrung, des weiteren zur Ringmodulation (siehe auch Abschnitt 1.8.1.2) oder auch nur zum Mischen zweier Module. Da die Verkettungsmöglichkeiten der ein- zelnen Lines, wie bereits erwähnt, sehr komplex sind, lassen sie die Erstellung sehr interessanter Klänge zu. Insbesondere durch streicher- oder bläserartige Flä-

50

Alkemper:

chenklänge mit digitalem Charakter sind PD-Synthesizer zu einer gewissen Be- rühmtheit gekommen.

Die verallgemeinerte Form der PD-Synthese wird als „ Waveshaping“ (oder auch „Nonlinear Distortion“ ) bezeichnet. In diesem Fall wird der Hüllkurvengenerator des Modulators durch einen Oszillator ersetzt, der zur Erzeugung auch komplexe- rer Wellenformen fähig ist. Das Ergebnis ist bei dieser Art der Tonerzeugung allerdings in keiner Weise vorhersehbar, weswegen sie auch in keinem Synthesizer als Hauptklangerzeugungsprinzip eingesetzt wird. Jedoch ist es mit dem Modell von Korg möglich, Waveshaping als klangveränderndes Mittel einzusetzen. Allerdings sind die durch den Waveshaping-Oszillator erzeugten Wellenformen herstellerseitig vorgegeben, um allzu „unmusikalische“ Klangergebnisse zu ver- meiden; vielmehr lassen sich hier beispielsweise die Resonanz eines Filters oder auch die Obertonspektren von Synthesizer-Wellenformen imitieren. Meistens jedoch klingt das Ergebnis des Waveshaping – insbesondere bei der Anwendung auf obertonreiche Samples – eher wie sehr stark verzerrtes Rauschen, sodass mit diesem Mittel der Klangveränderung äußerst vorsichtig zu Werke gegangen wer- den sollte.

Diese Syntheseform ist eine Abwandlung der Fouriersynthese. Aus mehreren starren Obertonspektren, die zuvor zeitlich anzuordnen sind, wird der Klang ge- bildet, indem der Oszillator ein Spektrum ausliest und dann die Frequenzwerte des vorhergehenden Spektrums zum aktuellen hin überblendet. Jedes Spektrum an sich bildet eine „ Zeitscheibe“ (engl. , daher der Name dieses Verfah- rens). Mit diesem Verfahren kann man z. B. aus einer Wellenform interessante Stellen extrahieren und die Überblendung dann durch den Synthesizer vornehmen lassen; des weiteren kann man in die Spektren selbst eingreifen und auf diese Weise die Klangfarbe verändern. Ähnlich wie bei der ROM-Sample-Synthese geht allerdings der dynamische Charakter eines Naturinstrumentes verloren, da hier wie dort Unregelmäßigkeiten und Phasenverschiebungen nicht erzeugbar sind.

Dieses Verfahren hat nur bei dem Sampler der Firma E-Mu Systems Anwendung gefunden. Dieses Gerät stellt 24 Time-Slice-Spektren zur Verfügung,

51

Alkemper:

die als Wellentabellen vorliegen. Etwa 30-60 Sekunden dauert ein solcher Berech- nungsvorgang, das Ergebnis desselben ist das eigentliche Sample, das dann wei- terverarbeitet werden kann. Außerdem gibt es Computerprogramme, die dieses recht rechenintensive Verfahren durchführen; allerdings ist zur akustischen Ab- nahme der Klänge das Vorhandensein eines Samplers vonnöten.

Diese Form der Klangerzeugung, die auch als „ Virtuelle Akustik“ (engl. ) bezeichnet wird, ist die neueste Entwicklung auf dem Gebiet der Klang- synthese und verfolgt einen ganz anderen Ansatz der Klangerzeugung als die her- kömmlichen Syntheseprinzipien. Bei der virtuellen Akustik geht es nämlich nicht mehr um die Nachbildung eines Instrumentenklanges, vielmehr wird hier ver- sucht, die physikalischen Eigenschaften des betreffenden Instrumentes möglichst wirklichkeitsgetreu durch eine synthesizerinterne Software zu realisieren, sodass der Klang, der nach Berechnung dieser Eigenschaften entstehen müsste, quasi als Abfallprodukt am Audioausgang abgegriffen werden kann.

Man muss sich dazu klarmachen, dass Schallwellen von schwingenden Körpern (bei Instrumenten z. B. Saiten, Trommelfelle, das Blättchen im Mundstück eines Blasinstrumentes etc.), erzeugt und dann von den Resonanzkörpern des Instru- mentes (beispielsweise dem Rohr einer Klarinette) weiter beeinflusst werden:

Manche Frequenzen werden verstärkt, andere unterdrückt, es gibt eine Interaktion zwischen bereits erzeugten und neu entstehenden Schallwellen usw.

Das Problem ist nun, dass Erreger (Geigenbogen, Luftstrom) und schwingende Körper nichtlinear, also unproportional zusammenwirken. Trotzdem lassen sich Funktionen und Eigenschaften eines Instrumentes als mathematische Gleichun- gen darstellen. Es handelt sich dabei um eine Serie teilweise sehr komplexer (weil eben nichtlinearer), voneinander abhängiger Differenzialgleichungen. Eine einma- lige Berechnung des Instrumentes reicht jedoch nicht aus, auch wenn einige Teile sich annähernd linear verhalten, wie z. B. der Korpus und der Schalltrichter einer Klarinette, die sich in ihrer Form nicht ändern (es sei denn durch Gewaltanwen- dung); andere Teile, wie z. B. das Mundstück der Klarinette, verhalten sich nicht- linear, da sie ständig unter dem Einfluss beispielsweise des Luftstroms ihre Lage

52

Alkemper:

und ihr Schwingungsverhalten ändern. Deswegen muss die Berechnung der Cha- rakteristik für verschiedene aufeinanderfolgende Zeitpunkte berechnet werden. Diese Zeitpunkte entsprechen jeweils einem Sample, das dann nach der Berech- nung an den A/ D-Wandler geschickt wird, um in eine hörbare Schwingung kon- vertiert zu werden.

Um den heutigen Ansprüchen an die Klangqualität gerecht zu werden und gleich- zeitig das Spielen in Echtzeit zu ermöglichen, müssen also pro Synthesizerstimme bis zu 48.000 komplexe Berechnungen pro Sekunde durchgeführt werden. Des- wegen weisen PM-Synthesizer eine im Vergleich zu herkömmlichen Geräten ge- ringe Stimmenzahl zwischen zwei und sechzehn Stimmen auf. Auch wenn die Be- rechnungen innerhalb der Geräte von sehr schnell arbeitenden Speicherbaustei- nen, den so genannten „ Digitalen Signalprozessoren“ (abgekürzt „ DSP“ ), durch- geführt werden, hat man, um diese immense Zahl an Berechnungen zu verringern, Alternativen ersonnen, die den Datenstrom reduzieren sollen. Die bekannteste Technik dieser Art nennt man „Waveguide-Synthese“ ; sie wurde in den Achtziger Jahren von dem Amerikaner Julius O. Smith entwickelt. Nach diesem Prinzip werden bestimmte Abschnitte, die eine Welle durchläuft, zu so genannten „ Wave- guides“ zusammengefasst, in denen alle Samples eines Abschnitts enthalten sind und als bidirektionale Verzögerungsschleife dargestellt werden (bidirektional des- wegen, weil aus- und zurückgesandte Schallwellen gleichermaßen zu berücksichti- gen sind). Es gibt jedoch noch andere Möglichkeiten, die mit dieser Technik ver- wandt sind bzw. sie teilweise nutzen, um die Zahl der Berechnungen zu verrin- gern.

Da die mathematische Umsetzung der virtuellen Akustik äußerst kompliziert ist, ist die Arbeit zur Erzeugung möglichst realitätsnaher physikalischer Modelle auf absehbare Zeit noch den Ingenieuren und Klangprogrammierern der Hersteller- firmen vorbehalten; der Anwender selbst hat nur einen begrenzten Zugriff auf die Parameter und Algorithmen eines Klangs. Das mag zunächst als Einschränkung erscheinen, insbesondere unter Berücksichtigung der momentan noch sehr hohen Preise für PM-Synthesizer (der -Synthesizer von Yamaha kostet etwa 70.000 DM – unverbindliche Preisempfehlung des Herstellers); auf der anderen Seite können Eingriffe in bestimmte Parameter kleine oder große Auswirkungen

53

Alkemper:

haben und zu kontraproduktiven Ergebnissen führen – ein „ falscher“ Parameter- wert, und der Rest ist Schweigen. In diesem Zusammenhang ist auch zu erwäh- nen, dass theoretisch unmögliche Klänge mit diesen Instrumenten nicht zu erzeu- gen sind:

.

Was allerdings unter theoretisch möglichen Klängen verstanden wird, die sich mit diesen Instrumenten erzeugen lassen, und inwieweit die Experimentierfreude des Programmierers hier gefordert ist, sollen folgende Zitate verdeutlichen:

.

.

Bei PM-Synthesizern wird zweierlei vom Anwender verlangt: Erstens, dass er das Originalinstrument des physikalischen Modells, das vor ihm steht, kennt, und zweitens, dass er auf Synthesizern mit allen möglichen Spielhilfen auch zu spielen weiß; es wird praktisch von ihm erwartet, dass er selbst für die Tonerzeugung etwas tut. Beispielsweise wird bei dem auf Blasinstrumente spezialisierten Modell von Yamaha nur dann ein Ton erzeugt, wenn der Spieler mindestens eine Taste drückt und gleichzeitig in einen so genannten Blaswandler (siehe auch Ab-

54

Alkemper:

schnitt 1.7.7) bläst. Der Ton wird dann unter Berücksichtigung des vom Spieler erzeugten Luftstroms generiert. Auch weitere Spielhilfen wie Modulationsräder, Pedale oder Tastatur mit Druckdynamik sind zum expressiven Spiel eines PM- Synthesizers unentbehrlich.

Während die Firmen Yamaha und Korg, die mit den Modellen , und bzw. der , bei der eine Trommel mit all ihren verschiedenen Spiel- aspekten simuliert wird (und die tatsächlich eine Schlagfläche als Spielmittel be- sitzt), den Versuch einer Emulation natürlicher Instrumente wagten, verfolgt der kleine schwedische Hersteller Clavia einen anderen Ansatz zur Realisierung der virtuellen Akustik: Er brachte Anfang 1995 das physikalische Modell eines Ana- logsynthesizers heraus, den (sic). Die Klangerzeugung dieses Instru- mentes, die von Clavia als „Virtual Analog Synthesis“ bezeichnet wird, ist bei weitem nicht so kompliziert wie die eines Yamaha-PM-Synthesizers. Es war auch weniger das Ziel der Entwickler, alte Analogsynthesizer zu simulieren, als viel- mehr, einen einfach zu bedienenden Synthesizer zu entwickeln, der die Vorzüge der Digitaltechnik mit der intuitiven Bedienbarkeit und dem typischen Klang analoger Synthesizer verbindet. Die synthetischen Wellenformen werden in die- sem Gerät mit DSP-Chips bei jeder Eingabe neu berechnet und dann ausgegeben.

Fakt ist, dass die Entwicklung der Virtuellen Akustik noch in den Kinderschuhen steckt. Trotzdem ist abzusehen, dass sie auf Dauer den bisher bekannten Synthe- seformen den Rang ablaufen wird, auch wenn diese weiterhin ihre Daseinsbe- rechtigung haben werden. Die Fortführung dieses Syntheseprinzips wird im Zuge der Weiterentwicklung der Digitaltechnik immense Fortschritte machen. Als Bei- spiel sei hier nur die Möglichkeit der Klangerzeugung auf der Basis neuronaler Netze genannt; dieser Begriff beschreibt eine Programmstruktur, die direkt der Biologie entlehnt wurde und Strukturen ähnlich denen lebender Nervenzellen zur Lösung komplexer Probleme heranzieht. Insbesondere gelernte Musiker werden durch das wirkliche Spielen eines Instrumentes, das bei PM-Synthesizern voraus- gesetzt wird, diese Gerätegattung zu schätzen lernen, besonders, wenn die Preise für PM-Modelle in einen Bereich fallen werden, der als „ erschwinglich“ bezeich- net werden kann.

55

Alkemper:

Diese Syntheseform, benannt nach ihren beiden Entwicklern, gilt als ein erster Ansatz zur Realisierung des Physical Modeling und eignet sich insbesondere zur Erzeugung saitenartiger und perkussiver Klänge. Diese weisen meist eine be- stimmte Tonhöhe auf und sind somit spielbar. Ein kurzer Rauschimpuls wird durch einen Rauschgenerator erzeugt, der ein digitales Verzögerungsgerät (siehe auch Abschnitt 1.8.3.1) speist. In diesem wird das Rauschsignal aufgespalten, ein Anteil (der so genannte Direktanteil) wird an den Audioausgang abgegeben, der zweite Anteil (Effektanteil) wird um eine gewisse Zeit verzögert, durchläuft dann ein Tiefpassfilter, in dem die hohen Frequenzanteile beschnitten werden, und wird dann wieder dem Verzögerungsgerät zugeführt, das seinerseits wieder das eingehende Signal aufspaltet usw. Durch die hohen Frequenzanteile ist der Ton am Anfang hell und laut, wird dann aber schnell dunkler und klingt scheinbar aus; obwohl die Amplitude nicht unbedingt abnehmen muss, werden letztendlich nur noch unhörbare Frequenzanteile (d. h. solche im Infraschallbereich) durch das Filter gelassen. Dieser Ablauf geht sehr schnell vor sich, sodass Klänge mit einer langen Haltephase auf diese Weise nicht zu realisieren sind.

Da diese Art der Synthese einerseits hinsichtlich der erzeugbaren Klänge recht speziell und andererseits unter den potenziellen Anwendern praktisch nicht be- kannt ist, gibt es bis jetzt keinen Synthesizer, dessen Klangerzeugung nach diesem Prinzip arbeitet; lediglich in Computerprogrammen wird es (selten) angeboten. Außerdem sind die benötigten Teile recht preiswert, sodass sich der an dieser Syntheseform Interessierte mit ein wenig Geschick durchaus einen solchen Syn- thesizer selbst bauen kann.

Unter Sampling versteht man – wie in Abschnitt 1.4.2.4 bereits angedeutet – das digitale Aufzeichnen von akustischen Klängen, um diese nachbearbeiten und auf einer Tastatur spielbar machen zu können. Insofern wurde der Sampler früher auch als „digitales Tonbandgerät“ bezeichnet, heute ist diese Benennung aller- dings Festplattenaufzeichnungssystemen vorbehalten.

56

Alkemper:

Die Tätigkeit des Sampling selbst bezeichnet man – nach dem englischen Wort (dt. „Probe“ , „ Beispiel“ ) – als „Sampeln“ . Der Vorteil einer solchen Tech- nik liegt auf der Hand: Zum einen nimmt man die aufgenommenen Klänge als Ersatz für solche, die – aus finanziellen oder auch anderen Gründen – nicht oder nur schwer zu realisieren wären; wer hat schon ständig ein komplettes Sinfonie- orchester zur freien Verfügung? Zum anderen kann man mit Samplern durch in- teressantes akustisches Ausgangsmaterial und die Möglichkeiten der Nachbear- beitung ungewöhnliche und experimentelle Klänge erzeugen, deren Erstellung auch mit Synthesizern nicht möglich wäre.

Als weiteres Anwendungsgebiet solcher Geräte gilt die Unterstützung von Band- maschinen, da – natürlich in Abhängigkeit vom vorhandenen Speicherplatz – auch längere Passagen einer oder mehrerer Spuren aufgenommen und punktgenau abgespielt werden können; eine Eigenschaft, derer man sich insbesondere in dem Bereich der Filmvertonung, wo es auf genaue Schnitte ankommt, gerne bedient.

In den letzten Jahren hat sich außerdem in der Populärmusik der Trend durchge- setzt, ganze musikalische Abschnitte (z. B. vier- oder achttaktige Schlagzeug- rhythmen) zu sampeln und in einem anderen musikalischen Kontext wieder ein- zusetzen. Bezüglich der urheberrechtlichen Bestimmungen hinsichtlich der ge- sampelten Passagen besteht in diesem Bereich allerdings noch immer eine rechtli- che Grauzone.

Neben dem eigenhändigen Suchen von zum Sampeln geeigneten Klängen ist es auch möglich, Klänge auf CD zu kaufen. Dabei ist zu unterscheiden zwischen Sample-CDs und Sample-CD-ROMs. Sample-CDs, bei denen es sich um Audio- CDs handelt, beinhalten die Klänge und Geräusche selbst. Diese müssen dann von der CD „abgesampelt“ und nachbearbeitet werden. Man findet auf solchen CDs entweder besondere Klänge, die (aus welchen Gründen auch immer) schwer oder gar nicht zu sampeln sind, oder umfangreiche Sammlungen, die jeweils unter einem Motto stehen. CD-ROMs sind dagegen gerätespezifisch und beinhalten fertig bearbeitete Sampledaten, die der Anwender dann einfach in seinen Sampler einladen kann.

57

Alkemper:

Ein Sampler ist nichts anderes als ein Computer, der durch ein spezielles Betriebs- system und eine dazugehörige Hardwarekonfiguration das Sampeln ermöglicht. Ein Sampler besitzt einen Analog-Digital-Wandler (A/ D-Wandler oder auch ADC) sowie für jede Stimme einen Digital-Analog-Wandler (D/ A-Wandler oder auch DAC), um die Klänge bei der Aufnahme in ein digitales und beim Abspielen in ein analoges Format zu wandeln. Diese Wandler werden im folgenden noch näher erklärt werden. Des weiteren sind auch Bausteine zur subtraktiven Bear- beitung der Samples (Filter, Verstärker, Hüllkurvengeneratoren etc.) vorhanden, die gemeinsam gesteuert werden. Per Software sind die einzelnen Abspiel-, Orga- nisations- und Nachbearbeitungsfunktionen (Aussteuerungsoptimierung, Schlei- fenbildung, Zusammenfassen von verschiedenen Samples zu einem Multisample) implementiert. Ein Massenspeicher (meist ein 3½"-Laufwerk) ist gewöhnlich in das Gerät eingebaut, der Anschluss von Festplatten (im Regelfall SCSI-Festplat- ten) zur Speicherung größerer Datenmengen ist normalerweise herstellerseitig vorgesehen und in der Software berücksichtigt. Die Software ist entweder fest im ROM des Samplers gespeichert oder wird per Diskette geladen; letzteres ermög- licht problemlos Updates auf ein neueres Betriebssystem für den Sampler.

Das im folgenden zu beschreibende Verfahren der digitalen Aufzeichnung heißt Pulse Code Modulation (abgekürzt „ PCM“ ). Es wird aus verschiedenen Gründen (einfache technische Realisierung, Kompatibilität) bei allen handelsüblichen Samplern verwendet. Allerdings hat die PCM den Nachteil eines immens großen Speicherbedarfs. Deswegen hat man Verfahren entwickelt, die speichersparender arbeiten; diese werden noch erklärt werden. Sie sind jedoch noch in keinem Sampler realisiert worden; darum sollte man bei der Anschaffung eines Samplers die Kosten für Speichererweiterungen und Massenspeicher unbedingt berücksich- tigen.

Zum Aufnehmen der Klänge verbindet man den Audioeingang des Samplers mit einem Mikrophon (zur Abnahme natürlicher Instrumente) oder dem Audioaus- gang einer elektronischen Klangquelle. Dann stellt man die wahrscheinliche Länge

58

Alkemper:

der Aufnahme am Sampler ein, wobei man einen möglichst großen Wert wählen sollte, denn das Kürzen des Samples um unerwünschte Stellen ist auch im nach- hinein möglich. Das Auslösen des Aufnahmevorgangs selbst kann über verschie- dene Wege erfolgen: entweder durch Drücken eines Tasters oder Fußtasters, nach einer vorher definierten Zeit oder auch bei Überschreiten eines Lautstärke- schwellwertes (engl. ), der am Sampler selbst eingestellt werden kann. Manche Sampler haben eine Funktion, die den Aufnahmevorgang schon kurz vor Erreichen des Schwellwertes auslösen, damit kurze Einschwingphasen (beispiels- weise bei perkussiven Klängen) nicht verloren gehen.

Bei der Aufzeichnung spielen zwei Größen eine entscheidende Rolle: die Abtast- frequenz und die Wortbreite der Amplitudenauflösung. Als Abtastfrequenz (auch „Sample-Rate“ genannt) bezeichnet man die Häufigkeit, mit der das ankommende Signal abgetastet wird. Je höher die Abtastrate, desto genauer kann das eingehende Signal in das Digitalformat umgesetzt werden. Diese Umsetzung nennt man Quantisierung, weil eine unendlich große Menge möglicher Spannungswerte in eine endliche Menge von Zahlen umgewandelt wird, aus einer qualitativen Größe also quantitative Werte erzeugt werden. Die Abtastrate bestimmt mithin die Feinheit des Rasters, in das die gemessenen Werte eingepasst werden.

In diesem Zusammenhang ist das Nyquist-Theorem (auch Abtast- oder Shannon- Theorem genannt) zu erwähnen. Der Entdecker dieses Theorems, H. Nyquist, beschäftigte sich bereits in den Zwanziger und Dreißiger Jahren mit den Möglich- keiten einer Abtastung von Audiosignalen. Er formulierte folgende Grundsätze (von denen der eine jeweils die Umkehrung des anderen darstellt):

Die Abtastrate muss mindestens doppelt so hoch sein wie die höchste im abzutastenden Signal enthaltene Frequenz.

Das Originalsignal darf wiederum keine Frequenzen enthalten, die über der halben Abtastrate liegen.

59

Alkemper:

In der Praxis bedeutet die Umsetzung des Theorems, dass im Normalfall mit einer Frequenz von mindestens 40 kHz gesampelt werden sollte, um auch die hohen Frequenzen des menschlichen Hörbereichs (dessen Obergrenze bei 20 kHz liegt) sauber aufzeichnen zu können. Als Standard gelten zur Zeit 44,1 kHz (für profes- sionelle Anwendungen wie CD- bzw. DAT-Recording, da diese Rate ursprünglich die Standardrate der PAL-SECAM-Fernsehaufzeichnungsnorm war) und 48 kHz. Viele Sampler bieten auch geringere Abtastraten an, wenn z. B. Signale mit einem geringen Anteil hoher Frequenzen aufgezeichnet werden sollen; dieses ist aus Gründen der Datenreduktion möglich, denn hohe Abtastraten haben natürlich bei gleicher (zeitlicher) Leistung einen höheren Speicherbedarf als niedrige Abtast- raten.

Der zweite wichtige Begriff, der in Zusammenhang mit der Qualität von Samples zu erwähnen ist, ist die Amplitudenwortbreite (Bitbreite). Mit diesem Terminus wird die maximale Auflösung des Rasters beschrieben, das die Amplitudenwerte digital darstellt. Diese Auflösung wird in Bit dargestellt. Es lassen sich also mit einer Bitbreite von acht Bit 256 verschiedene Werte der Amplitude darstellen, bei zwölf Bit sind es schon 4.096 Werte und bei sechzehn Bit (was derzeit bei Samplern Standard ist) 65.536 Werte. Natürlich gibt es immer Spannungswerte, die genau zwischen zwei Rasterschritte fallen. Je nach Bitbreite werden diese Werte verfälscht dargestellt, was sich in einem dem weißen Rauschen nicht un- ähnlichen Geräusch widerspiegelt. Es gilt also: Je höher die Bitbreite, desto ge- nauer wird das Signal aufgezeichnet, da weniger Spannungswerte verfälscht wer- den. Jedes zusätzliche Bit vermindert den Störspannungsabstand um etwa 6 dB; ein 16-Bit-System erreicht in der Praxis einen Signal-Rauschabstand von etwas mehr als 90 dB.

Durch das so genannte „Dithering“ kann man nun die Wahrscheinlichkeit eines Quantisierungsfehlers noch weiter einschränken; zu diesem Zweck fügt man dem Audiosignal ein analoges Rauschen bei, dessen Amplitude etwa einem Drittel ei- ner Quantisierungsstufe entspricht. So erreicht man eine statistisch gleichmäßigere

60

Alkemper:

Verteilung des Quantisierungsfehlers und damit eine subjektiv geringere Störung des Nutzsignals.

Ein ADC besteht aus einem Tiefpassfilter, das nur die unterhalb der halben Sampling-Rate liegenden Frequenzen durchlässt und alle anderen auslöscht. Das Filter muss möglichst steil arbeiten und bis zur Filtereckfrequenz einen linearen Verlauf aufweisen (zu Filtern und den dazugehörigen Begriffen siehe auch Ab- schnitt 1.6.4). Anschließend gelangt das gefilterte Signal in ein Halteglied (Sam- ple&Hold-Glied, siehe auch Abschnitt 1.8.1.3), das bei jedem Taktschritt den Spannungswert einmal ausliest und diese Spannung dann bis zum nächsten Schritt hält. Das letzte Glied, der so genannte Umsetzer, berechnet aus der gemessenen Spannungsprobe (Sample) einen proportionalen Digitalwert, der gespeichert wird. Dabei muss man sich vergegenwärtigen, dass der gesamte beschriebene Vorgang etwa alle zwei Hunderttausendstelsekunden abläuft.

Um die praktischen Folgen des Nyquist-Theorems in Zusammenhang mit nicht ausreichend steilen Filtern zu umgehen, ist nun eine Methode ersonnen worden, um die Nyquist-Frequenz (d. h. die Frequenz des tonal höchsten möglichen Nutz- signals) in den Ultraschallbereich zu verlegen. Dieses Verfahren, das „ Over- sampling“ genannt wird, findet auch in CD-Playern und DAT-Recordern An- wendung. Dabei wird das Signal mit einer wesentlich höheren Abtastrate (zumeist mehrere Megahertz) aufgezeichnet, vor dem Abspeichern jedoch erst digital ge- filtert und dann auf die gewünschte Abtastrate heruntergerechnet; bei einer Spei- cherung mit einer so hohen Abtastrate hätte man sonst einen unglaublich hohen Speicherbedarf. Durch Sampeln mit einer Abtastrate von beispielsweise 6 MHz liegt die Nyquist-Frequenz bei 3 MHz – ein Wert, bei dem die Filterung kein Problem mehr darstellt.

Es liegt in der Natur des PCM-Verfahrens, dass es extrem speicheraufwändig ist (bei 16-Bit-Samplern werden pro Takt 2 Bytes verbraucht, d. h. pro Sekunde etwa 88 Kbyte); dies gilt insbesondere bei hoher Abtastrate und großer Bitbreite, da jeder einzelne ausgelesene Wert abgespeichert wird. Nun gibt es noch weitere

61

Alkemper:

Verfahren, die jedoch nur am Rande erwähnt werden sollen, zumal in Samplern ausschließlich die PCM-Methode zum Einsatz kommt.

Eines dieser Verfahren heißt Delta Pulse Code Modulation (abgekürzt „DPCM“ ); hier wie auch bei anderen wie Delta Modulation, Adaptive Delta Modulation und „Magerbit-Wandlern“ wird nicht der komplette ausgelesene Wert abgespeichert, sondern nur die Differenz zum Vorhergehenden. Dadurch kann die Bitbreite erheblich verringert werden (Magerbit-Wandler z. B. arbeiten mit einem einzigen Bit, das nur den Zustand darstellt, ob die gemessene Amplitude größer oder klei- ner bzw. gleich der zuvor ermittelten Amplitude ist). Damit die Werte nicht unge- nau werden, wird in diesen Fällen die Abtastrate erhöht, was jedoch die Speicher- ersparnis praktisch nicht verringert. Andere Verfahren wie beispielsweise das Li- near-Prediction-Verfahren arbeiten nach dem Prinzip der Stochastik, d. h. es wird anhand der gemessenen Amplitude versucht, eine Vorhersage über die Differenz zur nachfolgenden zu machen.

Nach Beendigung der Aufzeichnung befindet sich das Sample im RAM des Samplers, wo es verschiedenen Nachbearbeitungsfunktionen unterzogen werden kann. Man stellt zunächst einige Parameter ein, beispielsweise die Bezugstonhöhe oder die Abspielrichtung (man kann Samples nämlich auch rückwärts abspielen; dabei wird nur die Ausleserichtung geändert – für einen Computer eine Kleinig- keit); auch die Frage, ob das Sample in einem Durchgang abzuspielen ist (so ge- nannte „ One-Shot-Sample“ ) oder eine Schleife („ Loop“ ) gebildet werden soll, wird meist schon hier beantwortet. Sodann wird das Sample vor der eigentlichen digitalen Bearbeitung auf Diskette oder Festplatte gespeichert, da ein Fehler bei dieser Bearbeitung – die destruktiv verläuft, d. h. die im RAM befindlichen Daten werden verändert – oder auch nur ein ganz profaner Stromausfall die aufgezeich- neten Daten unwiederbringlich verloren gehen lässt.

Der erste Arbeitsschritt, der auf digitaler Ebene erfolgt, ist das Festlegen von Start- und Endpunkt des Samples; diese Funktion wird als Trim- oder Truncate- Funktion bezeichnet (engl. = beschneiden). Dieses ist notwendig, da ge-

62

Alkemper:

wöhnlich vor und hinter dem Sample Leerraum oder unerwünschte Aufzeichnun- gen liegen, die entfernt werden sollen. Das Festlegen dieser Punkte geschieht mit Hilfe des Displays oder eines Bildschirms, auf dem das Sample als Wellenform grafisch dargestellt ist; man kann sich aber auch einfach auf sein Gehör verlassen, um diese Punkte zu finden. Manche Sampler suchen die Start- und Endpunkte auch selbst und schlagen diese dann unverbindlich vor.

Der nächste Schritt ist gegebenenfalls (siehe oben) die Schleifenbildung. Bei die- sen Schleifen, die in der Regel „Loops“ genannt werden, handelt es sich um Endlosschleifen innerhalb des Samples, die ständig durchlaufen werden, solange die betreffende Taste gehalten wird; damit soll das abrupte Abbrechen bzw. un- erwünschte vorzeitige Ausklingen eines Klanges verhindert werden, das bei ver- schiedenen Klangarten (Chor, Streicher, Orgeln) nicht sinnvoll ist. Auf diese Weise wird auch Speicher gespart, denn ansonsten müsste das Sample mindestens so lang sein wie die wahrscheinlich längste Note, die jemals abgespielt wird; es ist praktisch unmöglich, diese im vorhinein zu bestimmen. Anfangs- und Endpunkte der Loop sollten in der Regel eine größtmögliche Übereinstimmung hinsichtlich ihrer Amplitude aufweisen, da ansonsten das Zurücksetzen an den Loopstart als hörbares Knacken wahrgenommen wird. Deswegen werden als Looppunkte vor- zugsweise Nulldurchgänge der Wellenform benutzt; nach diesem Prinzip suchen Sampler selbständig die Looppunkte, die man natürlich noch verändern kann (Autoloop- oder Loop-Find-Funktion). Je komplexer die Schwingung des Samples ist, desto länger sollte die Loop dauern, um auffällige Wiederholungen zu vermeiden. Lassen sich dennoch mit normalen Mitteln keine gut klingenden Schleifen erzeugen, so hilft in den meisten Fällen eine weitere Bearbeitungsfunk- tion, die Loop-Crossfade-Funktion (oft auch als „Smoothing“ bezeichnet). Diese Funktion rechnet die Sample-Daten so um, dass sie im Bereich nach dem Loop- Anfang und vor dem Loop-Ende einander angepasst werden.

Natürlich ist es für einen Sampler auch kein Problem, zwei verschiedene Samples ineinander zu rechnen. Dieses kann auf zwei verschiedene Arten geschehen. Möglich ist erstens das Verschmelzen zweier Samples zu einem dritten; diese

63

Alkemper:

Technik bezeichnet man als „ Mix“ oder „Join“ . Mit dieser Methode kann man zum einen Stimmen des Samplers einsparen, zum anderen aber auch auf experi- menteller Ebene kreativ werden, indem man beispielsweise die Samples zweier völlig unterschiedlicher Instrumente oder aber eines Instrumentes und eines Ge- räusches miteinander vermischt und auf diese Weise neue Klänge erzeugt. Die zweite Möglichkeit der Mischung der Samples heißt „Crossfade“ . Hier werden die beiden Ausgangssamples ineinander übergeblendet, sodass ein drittes Sample ent- steht, das wie das erste beginnt und wie das zweite endet. Statt des Überblendens kann man die Samples auch direkt aneinander „kleben“ (diese Funktion heißt bei Samplern meist „ Combine“ oder „Splice“ ). Es ist also beispielsweise möglich, den Einschwingvorgang eines Schlages auf eine Snaredrum mit dem Ausklingen einer Pauke zu verbinden; auf diese Art hat man eine neue Art Trommel geschaffen, die einen harten Anschlag hat und sich – wie eine Pauke – dennoch gestimmt spielen lässt.

Zum besseren Verständnis sei gesagt, dass das Ineinanderrechnen von Samples bei weitem nicht die Möglichkeiten bietet, die bei der PM-Synthese beschrieben wurden. Hier werden keine Instrumente berechnet, die zwar Eigenschaften der Ausgangssamples aufweisen, jedoch eigenständige Klänge sind, oder bei denen die Übergangsphasen vom ersten zum zweiten Ausgangssample selbst eigenständige Klänge sind. Beim Sampling werden lediglich die Amplituden verändert bzw. die Klänge aufeinander geschichtet; deswegen kann man die beiden Ausgangsklänge noch immer – anders als bei der PM-Synthese – einwandfrei identifizieren.

Es gibt noch weitere digitale Werkzeuge zur Samplebearbeitung. Die Normali- sierungsfunktion (meist als „ Normalize“ , „Maximize“ oder „Optimize“ bezeich- net) rechnet die Amplituden des Samples so um, dass der maximale Lautstärke- pegel erreicht wird. Dadurch wird der verfügbare Wertebereich voll ausgenutzt. Des weiteren gibt es die Möglichkeit, Samples sanft ein- und auszublenden, um Knacksen oder abrupte Schnitte zu eliminieren, wobei hier keine Verstärker be- nutzt, sondern die Amplituden tatsächlich neu berechnet werden. Auch die digi- talen Filter werden bei der Nachbearbeitung destruktiv eingesetzt, um uner-

64

Alkemper:

wünschte Frequenzen oder Nebengeräusche auszufiltern. Weiterhin kann man die Abtastrate umrechnen lassen, z. B. um durch Herunterrechnen Speicherplatz zu sparen oder durch Heraufrechnen (beispielsweise von 32 kHz auf 44,1 kHz) ein Sample den vorherrschenden Standards anzupassen.

Die weitere Klangverarbeitung verläuft dann im Grunde genommen genau so wie bei ROM-Sampleplayern, d. h. man hat die Möglichkeiten der Verarbeitung nach dem Prinzip der subtraktiven Synthese auf digitaler Ebene zur Verfügung – Filter, Hüllkurven, Modulatoren etc.

In letzter Zeit werden in vielen Samplern zwei neuartige Funktionen angeboten:

die Tonhöhen- und die Zeitkorrektur („Pitch-Correction“ bzw. „ Time-Correc- tion“ oder „Time-Stretching“ ). Normalerweise wird die Tonhöhe dadurch verän- dert, dass ein Sample mit einer veränderten Geschwindigkeit ausgelesen wird; dadurch wird neben der Klangfarbe auch die Frequenz und mithin die Tonhöhe verändert – wie ein Plattenspieler, der mit zu langsamer oder zu schneller Dreh- zahl läuft, was die bekannten Effekte (wahlweise Micky-Maus-Stimme oder Ivan Rebroff) hervorruft. Nun ist es möglich, den Zusammenhang zwischen Tonhö- henänderung und Samplelängenänderung aufzuheben. Dieses geschieht durch die Technik der Resynthese. Dieser Terminus beschreibt die Zerlegung eines Samples in einzelne Spektrumkomponenten mit Hilfe einer Fourieranalyse. Da ein Klang sich dynamisch ändert, muss pro Zeiteinheit eine solche Analyse durchgeführt werden – schon bei kurzen Samples ein sehr aufwändiger Rechenprozess, der nicht in Echtzeit durchgeführt werden kann. Die so ermittelten Werte werden dann als Amplituden- und Frequenzhüllkurven zusammengestellt und gespeichert. Nun lässt sich der Klang mit Hilfe dieser Hüllkurven nach dem additiven Syntheseprinzip wieder zusammensetzen (deswegen die Bezeichnung „Resynthese“ ). Durch Veränderung der Frequenzhüllkurven lassen sich Tonhö- hen- und Zeitkorrektur durchführen, ohne einen normalerweise dazugehörigen, jedoch ungewollten Effekt – wie Zeit-, Tonhöhen- oder Klangfarbenänderung – in Kauf nehmen zu müssen. Natürlich lassen sich auch andere Klangparameter auf diese Weise beeinflussen, nur sollte man vor Beginn der Berechnung durch

65

Alkemper:

den Sampler genau wissen, welche Art der Veränderung man erzielen will und auf welchem Wege man dieses Ziel erreicht, denn die Berechnung kann sehr lang- wierig sein.

Die Erstellung von Multisamples ist insbesondere für die Spielbarkeit von Sam- ples natürlicher Instrumente unerlässlich. Wir haben bereits gesehen, dass Samples mit einer Originalfrequenz aufgenommen und im Speicher abgelegt werden und eine Tonhöhenänderung gewöhnlich durch eine Variierung der Auslese- geschwindigkeit realisiert wird. Die Folgen einer übermäßigen Auslesegeschwin- digkeitsveränderung sind bereits im vorhergehenden Abschnitt beschrieben wor- den: Die Klangfarbe wird ab einer gewissen Grenze hörbar verfälscht.

Deswegen werden Multisamples erstellt, d. h. man sampelt ein Instrument in ver- schiedenen Tonhöhen (beispielsweise in Quart- oder Quintabständen) und weist dann jedem Einzelsample eine so genannte Tastaturzone zu, die den Tönen um die jeweilige Originalfrequenz herum entspricht. Dadurch wird während des Spielens automatisch das jeweilige Einzelsample abgerufen. Für Tastaturzonen gelten Parameter wie Transponierung, Lautstärke und andere gemeinsam. Auf diese Weise werden Transponierungen über zu große Intervalle vermieden. Um nun beim Wechseln der Tastaturzone hörbare Sprünge von einem Einzelsample zum nächsten zu vermeiden, gibt es die Möglichkeit, die Einzelsamples an den Grenzen der Tastaturzonen ineinander überzublenden, d. h. an den jeweiligen Rändern der Zone werden neben dem zuständigen Einzelsample noch Teile des angrenzenden Tastaturzonensamples mit geringerer Lautstärke abgespielt. Diese

„ tastaturpositionsabhängiges

Technik wird als „ Positional Crossfade“ (dt. etwa Überblenden“ ) bezeichnet.

Nun ist es so, dass Instrumente – je nachdem, ob sie laut oder leise gespielt wer- den – kleine Unterschiede in der Klangfarbe und im Einschwingverhalten aufwei- sen; eine Violine beispielsweise hat bei leisem Spiel eine wesentlich längere Ein- schwingphase als bei lautem Spiel. Auch in diesem Fall kann man für die ver- schiedenen Verhaltensweisen unterschiedliche Samples verwenden. Diese Samples werden dann über die Anschlagsstärke gesteuert, d. h. ein schwacher Anschlag

66

Alkemper:

löst ein anderes Sample aus als ein starker; die Samples werden je nach Anschlagsstärke sozusagen „umgeschaltet“ . Diesen Vorgang nennt man „Velocity Switch“ (dt. „anschlagsabhängiges Umschalten“ ). Auch hier gibt es die Möglich- keit des Überblendens der Einzelsamples zur Vermeidung hörbarer Unterschiede. Diese verläuft nach dem gleichen Prinzip wie der „Positional Crossfade“ und heißt analog dazu „Velocity Crossfade“ .

Das Abspielen der Samples geschieht auf die gleiche Weise wie das Auslösen einer Note an einem gewöhnlichen Synthesizer: Man benutzt eine Tastatur (oder ein anderes Spielmittel) oder löst den Abspielvorgang über MIDI aus. Die Sam- pledaten werden nun über einen Digital-Analog-Wandler wieder in eine Spannung umgewandelt, die dann am Ausgang abgegriffen werden kann. Wie der D/ A- Wandler, das Gegenteil eines A/ D-Wandlers, arbeitet, soll im folgenden betrach- tet werden.

Ein D/ A-Wandler ist zwar von der Funktion, nicht aber vom Aufbau her die exakte Umkehrung des A/ D-Wandlers. Hier werden zunächst durch einen Um- setzer die digitalen Daten in eine Spannung umgewandelt. Diese Spannung würde allerdings – als Wellenform grafisch dargestellt – durch die Rasterung bedingte Sprünge und somit eine „treppenförmige“ Form aufweisen; also läge am Ausgang keine gleichmäßige Wellenform an, sondern ein „ ruckendes“ Signal (wobei das Rucken selbst nicht wahrnehmbar ist, wohl aber eine „ungewöhnliche“ Klang- farbe). Um diese Treppen zu glätten, wird dem Umsetzer nun ein Tiefpassfilter nachgestellt. Da dieses Filter jedoch neben Störsignalen auch hochfrequente Nutzsignale mit ausfiltern würde, schaltet man einen weiteren Baustein zwischen Umsetzer und Filter, der das Signal „resampelt“ , d. h. in endlich lange Impulse zerlegt (deren Breite etwa einem Achtel eines Sampleschrittes entspricht), die dann nacheinander dem Filter zugeführt werden; dieser Schritt ändert das Signal selbst nicht, verhindert jedoch den oben beschriebenen unerwünschten Filterein- fluss.

67

Alkemper:

Durch die heutzutage benutzten digitalen Bausteine, die sich durch große Schnel- ligkeit auszeichnen und eine hohe Abtastrate und Bitbreite ermöglichen, ist ein von einem Sampler ausgegebenes Signal für das menschliche Ohr vom Original- signal praktisch nicht mehr zu unterscheiden. Das Problem beim Sampling ist allerdings – trotz der vielfältigen Bearbeitungsmöglichkeiten – weiterhin die stati- sche Qualität eines Samples. Der Chefredakteur einer Fachzeitschrift meint dazu:

. KEYS

Aus dieser Not geboren wurde dann die PM-Synthese, die die zitierten Beschrän- kungen des Sampling aufzeigt; sie wird – dank fallender Preise und steigender Möglichkeiten – den Sampler als Klangimitator in den kommenden Jahren wahr- scheinlich ersetzen. Seine Berechtigung hat dieses Gerät allerdings weiterhin als Hilfsmittel bei Komposition und Vorproduktion sowie im experimentellen klang- schöpferischen Bereich.

Bei den im folgenden beschriebenen Bauteilen, die schon vielfach erwähnt wur- den, ist zwischen analogen (spannungsgesteuerten) und digital gesteuerten Bau- teilen zu unterscheiden. Dabei handelt es sich im ersten Fall um reale elektroni- sche Bausteine, die mit Hilfe einer geringen Spannung gesteuert werden; diese Bausteine, die natürlich ausschließlich in Analogsynthesizern vorkommen, lassen sich an dem Buchstaben „V“ in der Abkürzung erkennen (z. B. die Abkürzung „VCA“ für einen spannungsgesteuerten Verstärker, vom englischen

68

Alkemper:

). Der Terminus „ Digitalsteuerung“ ist eigentlich irreführend, denn hier werden nicht analoge Bausteine digital gesteuert – was eine immense Zahl an D/ A-Wandlern schon in den frühesten digitalen Synthesizermodellen bedeutet und diese unbezahlbar gemacht hätte –, sondern die Funktionen analoger Bau- steine wird mit Hilfe der Halbleitertechnologie simuliert. Aus Gründen der Kon- tinuität (mithin der Einfachheit halber) hat man die Bezeichnungen der simulier- ten Bausteine nicht geändert, sondern lediglich den Zusatz „spannungsgesteuert“ durch „digital gesteuert“ ersetzt (z. B. „ DCO“ = digital gesteuerter Oszillator). In diesem Zusammenhang sei auch erwähnt, dass es, soweit es die technische Reali- sierung besagter Bausteine betrifft, in der Beschreibung derselben nur um die analoge Variante geht; die Funktionsbeschreibung trifft natürlich gleichermaßen für analoge wie digitale Bausteine zu.

Das Prinzip der Spannungssteuerung war Grundlage der ersten Synthesizer, die von den Amerikanern Robert A. Moog und Don Buchla – welche unabhängig voneinander arbeiteten – entwickelt wurden. Bei Anlegen einer geringen Span- nung an die in ihren Synthesizern verwendeten Schaltungen konnte man variable Größen steuern – Oszillatorgrundfrequenz, Filtereckfrequenz usw. Dabei gibt eine Spannungsquelle – z. B. eine Tastatur, ein Hüllkurvengenerator oder ein Nie- derfrequenzoszillator – eine Spannung ab, die die klangerzeugenden und -verar- beitenden Teile des Synthesizers beeinflusst. Ein Hüllkurvenverlauf ist also tech- nisch gesehen eine kontrollierbare, sich dynamisch verändernde Spannung. Dabei ist festzuhalten, dass im Grunde genommen zwischen Steuer- und Audiospan- nungen nicht unterschieden wird, da beide nun einmal Spannungen sind; insofern ist es z. B. möglich, den im der Firma Moog eingebauten dritten Oszil- latoren wahlweise als Klangquelle oder als Modulationsquelle zu verwenden.

Man muss bei den klangauslösenden Spannungen zwischen zwei unterschiedli- chen Spannungsarten unterscheiden, die beide eingesetzt werden: der Tonhöhen- steuerspannung (die auch, ebenso wie der allgemeine Terminus, als „Steuerspan- nung“ – engl. , abgekürzt „CV“ – bezeichnet wird) und der Schalt- spannung (Gate-Spannung).

69

Alkemper:

Die Tonhöhenspannung zeigt bei gedrückter Taste dem Gerät sozusagen an, wel- che Taste gedrückt wurde, und legt naheliegenderweise die Tonhöhe des zu steu- ernden Oszillatoren fest. Dabei arbeiten die meisten analogen Geräte mit einer logarithmischen Charakteristik von einem Volt pro Oktave (d. h. pro Taste erhöht sich die Steuerspannung um 1/ 12 Volt, da eine Oktave aus zwölf Klaviertasten besteht). Alte Synthesizer der Firmen Korg und Yamaha benutzen dagegen eine lineare Charakteristik, bei der ein Volt einer festen Frequenzzunahme entspricht (Hz/ V).

Die Schaltspannung, die die eigentliche Tonerzeugung auslöst, zeigt dem Synthe- sizer an, dass überhaupt eine Taste gedrückt ist. Dabei ist die positive Gate-Span- nung am weitesten verbreitet, d. h. eine positive Spannung zwischen 5 V und 10 V bedeutet einen Tastendruck, eine Spannung von 0 V signalisiert keinen Tas- tendruck. Bei Korg- und Yamaha-Synthesizern wird allerdings genau die umge- kehrte Logik benutzt. Bei Synthesizern von Moog schließlich wird zur Darstellung des Schaltzustandes überhaupt keine Spannung benutzt, sondern ein so genannter „Switched Trigger“ . Das ist ein einfacher Kontakt an jeder Taste, der bei ge- drückter Taste kurzgeschlossen wird.

Da die meisten analogen Kompaktsynthesizer Anschlüsse hatten, um durch eine externe Tonhöhensteuer- und Schaltspannung das Gerät steuern zu lassen (siehe auch Abschnitt 1.10.1), war auch die Verkettung von solchen Synthesizern – so- fern sie die gleiche Charakteristik benutzten – kein Problem. Dadurch ließen sich zwei oder mehr Synthesizer koppeln, um so neuartige Sounds zu kreieren. Auch die Steuerung durch analoge Sequenzer war machbar. Aufgrund des Vorhanden- seins der genannten Anschlüsse ist es heutzutage auch möglich, mit Hilfe von Konvertern, die MIDI-Signale in Steuerspannungen umwandeln, Analogsynthesi- zer über MIDI zu steuern, was angesichts der wieder zunehmenden Popularität dieser Geräte als sehr erfreulich zu bezeichnen ist.

Der Terminus ist, wie bereits erwähnt, irreführend, denn die Klangbausteine in Synthesizern werden, da es sich bei solchen Geräten heutzutage mehr oder weniger um spezialisierte Computer handelt, nicht mehr baulich von- einander getrennt, sondern vielmehr durch Computerprogramme imitiert, d. h. die gesamte Steuerung wird durch die Software abgewickelt, wobei als einzige mecha-

70

Alkemper:

nische Teile Tastatur und Spielhilfen verbleiben. Insofern kann man von digitaler Steuerung im eigentlichen nur noch bezüglich der externen Steuerung des Gerätes reden; diese wird heute ausschließlich über MIDI abgewickelt, da die Einführung dieses Standards so kurzfristig nach der Einbeziehung der Digitaltechnik in die Herstellung elektronischer Klangerzeuger stattfand, dass praktisch keine anderen Schnittstellen mehr verwendet wurden (siehe auch die Abschnitte 1.9.3.1 und

1.10.2).

Unter diesen Begriffen versteht man die Anzahl der Stimmen von Synthesizern. Die frühen Analogsynthesizer waren generell einstimmig (monophon), da sie – bedingt durch die im vorherigen Abschnitt beschriebene Konstruktion – nicht mehrere Töne gleichzeitig erzeugen konnten. Durch die Tastaturkonstruktion konnte eben immer nur eine bestimmte Spannung abgegeben werden, die eine festgelegte Tonhöhe auslöste. Auch durch die externe Steuerung war immer nur eine einzige Steuerspannung pro Zeit übertragbar. Dabei gab es bei der Tonaus- gabe – je nach Konstruktion – die verschiedensten Prioritäten, die sich teilweise stark unterschieden; einige Modelle gaben keine neu angeschlagene Note aus, solange die vorherige noch nicht wieder losgelassen worden war, andere gaben nur den höheren zweier angeschlagener Töne aus usw.

Polyphone 3 (mehrstimmige) Instrumente wurden seit Anfang der Siebziger Jahre auf dringenden Wunsch der potenziellen Anwender entwickelt. Dieser Wunsch entwickelte sich als Folge eines der Meilensteine in der Geschichte der mit elek- tronischen Klangerzeugern gemachten Musik:

3 Mit dem Begriff „Polyphonie“ ist hier selbstverständlich die Stimmpolyphonie gemeint. Es gibt außerdem noch die Klangpolyphonie; dieser Terminus bezeichnet die Möglichkeit eines Instrumentes, gleichzeitig verschiedene Noten mit unterschiedlichen Klangfarben hervorzu- bringen und wird heutzutage gewöhnlich „Multitimbralität“ genannt (s. a. die Erklärung zum Begriff „Multi-Mode“ in Abschnitt 1.9.2.3 dieser Arbeit).

71

Alkemper:

Einer der ersten Synthesizer, die voll mehrstimmig spielbar waren, war der 1976 ebenfalls von Robert Moog entwickelte . Dieses Gerät erzeugte die zwölf Töne einer chromatischen Oktave durch Frequenzteilung und alle weiteren Töne der darunter liegenden Oktaven nach dem gleichen Prinzip und war deswegen vollpolyphon, d. h. alle Tasten waren gleichzeitig spielbar. Das gleiche Konzept verfolgten die damals sehr populären „Multikeyboards“ (im Volksmund auch „Heimorgeln“ genannt), die jedoch aufgrund der Phasengleichheit aller Stimmen einen sehr sterilen Klangcharakter hatten.

Ein anderes Konzept verfolgte die Firma Oberheim, die 1975 in den - Synthesizer vier komplette Synthesizereinheiten einbaute, die jedoch alle gemein- sam von der einem monophonen Synthesizer nachempfundenen Bedienoberflä- che gesteuert wurden. Nun wurde jeder Synthesizereinheit eine Stimme zugeord- net, d. h. das Gerät war vierstimmig spielbar, man konnte also bis zu vier Tasten gleichzeitig anschlagen. Dabei wurde die Tastaturabfrage bereits digital realisiert, wodurch mehrere Steuerspannungen gleichzeitig an die verschiedenen internen Synthesizermodule abgegeben werden konnten. Später entstandene Analoggeräte hatten dann bis zu 16 Stimmen.

Heutzutage ist die Realisation der Polyphonie dank der Imitation von Synthesi- zerbausteinen durch Software lediglich eine Frage des Preises und der Prozessor- leistung. Der Rekord der Stimmenanzahl liegt im Moment bei 128, angeboten durch den Sampler der Firma E-Mu Systems, dessen Preis dafür allerdings auch im unteren fünfstelligen Bereich liegt. Synthesizer und Workstations verfü- gen derzeit normalerweise über 16 oder 32 Stimmen, wobei natürlich beachtet werden muss, dass sich die Stimmenzahl auf die Oszillatoren bezieht und nicht auf die Klänge an sich; werden also für einem Klang zwei oder vier Oszillatoren verwendet, so muss die Stimmenanzahl (oder genauer: die Anzahl der gleichzeitig anschlagbaren Tasten) natürlich halbiert bzw. geviertelt werden.

72

Alkemper:

In diesem Zusammenhang sei noch die Eigenschaft der dynamischen Stimmen- zuweisung zu nennen, die die meisten Synthesizer heute aufweisen. Ältere Ana- logsynthesizer mit vier oder acht Stimmen konnten natürlich nicht mehr Stimmen erzeugen, als sie zur Verfügung hatten. Das bedeutete, dass, wenn z. B. bei einem vierstimmigen Synthesizer vier Tasten angeschlagen waren, das Niederdrücken einer fünften keinerlei Reaktion hervorrief; erst musste eine andere Taste losgelas- sen werden. Später konnte man dann bei einigen Modellen festlegen, welche Stimme bei Überschreiten der Stimmenzahl einer neu angeschlagenen Taste zuge- ordnet wurde; man musste auswählen, ob in einem solchen Fall die „älteste“ (d. h. die zuallererst angeschlagene), die höchste oder die tiefste Note abgeschaltet wurde, um der neu angeschlagenen Platz zu machen. Heutzutage bezeichnet der Terminus der „dynamischen Stimmenzuweisung“ (engl. auch „ Voice Stealing“ genannt) die Fähigkeit von multitimbralen Synthesizern, ihre Stimmen bei Bedarf unterschiedlichen Klangfarben zuzuweisen, sodass bei- spielsweise eine Stimme zunächst einen Ton mit einem Streicherklang, nach des- sen Verklingen einen Basssound, dann wieder den Streicherklang und schließlich einen Klavierton erzeugen kann. Bei einer starren Stimmzuweisung würde bei- spielsweise ein Multimode-Synthesizer mit 32 Stimmen jedem seiner acht gleich- zeitig erzeugbaren Klänge vier Stimmen zuweisen, auch wenn viele Stimmen oft unbeschäftigt blieben, während ein voller Akkord mit einem einzigen Klang die ihm zugewiesene Stimmenzahl schon überschreiten würde. Derlei Situationen werden durch die dynamische Stimmenzuweisung unterbunden.

Der Oszillator (selten auch als „Tone Source“ [dt. „Tonquelle“ ] bezeichnet) ist das Herzstück der Klangerzeugung beim Synthesizer. Er erzeugt das klangliche Ausgangsmaterial (z. B. Wellenformen), das dann mit klangverarbeitenden Mitteln wie Filtern und Lautstärkehüllkurven weiterverarbeitet werden kann. Analoge Oszillatoren sind nichts anderes als elektronische Tonfrequenzgeneratoren, die in der Lage sind, Schwingungen zu erzeugen, die im menschlichen Hörbereich (zwi- schen 20 Hz und 20 kHz) liegen; darüber hinaus können sie jedoch, wie bereits gesagt, auch solche Schwingungen erzeugen, die außerhalb dieses Bereichs liegen,

73

Alkemper:

nämlich zwischen 0,1 Hz und 40 kHz, wobei die niederfrequenten Schwingungen auch zur Modulation von anderen Oszillatoren verwendet werden können (siehe auch Abschnitt 1.8.1.1).

Monophone Analogsynthesizer sind gewöhnlich mit mindestens zwei separat einstellbaren Oszillatoren versehen. Damit ist es möglich, das begrenzte Klang- material eines einzigen Oszillators zu erweitern, indem z. B. den Oszillatoren un- terschiedliche Grundwellenformen (z. B. eine Sägezahnwelle für Oszillator 1 und eine Pulswelle für Oszillator 2) oder Oktavlagen (Fußlagen) zugewiesen oder sie mit Hilfe eines Reglers relativ zueinander verstimmt werden können, um durch die resultierenden Phasenverschiebung der Wellenformen Schwebungseffekte zu erzielen. Manche Synthesizermodelle (z. B. der der Firma Roland) glichen das Fehlen eines zweiten Oszillators mit dem Vorhandensein eines Choruseffek- tes zur Schwebungserzeugung aus. Heutige Synthesizer bieten zur Erstellung eines einzigen Klanges bis zu vier Oszillatoren an.

Oszillatoren – bzw. die Tonhöhe der durch sie erzeugten Klänge – lassen sich nun durch verschiedene andere Bauteile beeinflussen. Zunächst einmal legt natürlich die angeschlagene Taste die erzeugte Tonhöhe fest, die dann aber durch Nie- derfrequenzoszillatoren, Modulations- und Pitchbend-Räder, Tonhöhenhüllkur- ven und andere Module und Spielhilfen variiert und dadurch lebendiger gestaltet werden kann; Vibratoeffekte, Zufallstonhöhen, stufenloser Übergang zwischen verschiedenen Tonhöhen innerhalb eines festgelegten Zeitraums und andere Ef- fekte werden so ermöglicht. Außerdem lassen sich zwei oder mehr Oszillatoren zueinander synchronisieren (Abbildung 1.6-1), um unerwünschte Schwebungen auszuschließen, die bei analogen Bauteilen praktisch immer auftreten, da die Os- zillatoren durch freies Schwingen in der Phase auseinanderlaufen. Hierbei legt ein Oszillator, der so genannte Master-Oszillator, den Beginn einer Phase starr fest, d. h. wenn er mit der Ausgabe einer Periode beginnt, werden der oder die übrigen Oszillatoren (die Slave-Oszillatoren) gezwungen, ebenfalls eine Periode neu zu beginnen; dabei spielt es keine Rolle, in welcher Phase sich die Slave-Oszillatoren gerade befinden.

74

Alkemper:

Alkemper: – Abbildung 1.6-1: Oszillatorensynchronisation Diese Synchronisationsfunktion ist bei den im Moment

Abbildung 1.6-1: Oszillatorensynchronisation

Diese Synchronisationsfunktion ist bei den im Moment erhältlichen Synthesizern normalerweise nicht mehr enthalten, da die Nachteile, die durch analoge Bauteile bedingt waren, durch die Einführung der Digitaltechnik wegfielen; nur einige we- nige Modelle wie der der Firma Waldorf oder das Modell der Firma Ensoniq bieten diese vormals sehr beliebte Eigenschaft an, die – wie die meisten Steuerungsmöglichkeiten analoger Synthesizer – Klangexperimente mit sehr interessanten Ergebnissen ermöglicht.

Bei heutigen Synthesizern wird – wie bereits gesagt – kein echter Analogoszillator mehr eingesetzt, sondern die Funktionen werden durch einen Digitalprozessor simuliert. Allerdings gab es bei Einführung der Digitaltechnik Synthesizer, die – neben digitaler Speichermöglichkeit – auch über digital gesteuerte Oszillatoren verfügten, deren Signale dann jedoch analog weiterverarbeitet wurden. Diese „DCOs“ erzeugten die Wellenformen nicht allein durch Steuerspannungen, son- dern generierten sie mit einer digitalen Steuerung, sodass sie sich nicht verstimm- ten. Durch die schnellen Fortschritte in der Halbleitertechnologie kann man je- doch nicht von einer Ära solcher Geräte reden, da nur verhältnismäßig wenig unterschiedliche Modelle hergestellt wurden – der Einzug der Digitaltechnik machte sehr rasch die Entwicklung wirklicher Digitalsynthesizer möglich, die oftmals nach neuen Syntheseprinzipien arbeiteten, und führte dazu, dass die sub- traktive Synthese eine Zeitlang als altmodisch galt.

75

Alkemper:

Das Filter 4 ist der Baustein eines Synthesizers, der für die Änderung der Klang- farbe zuständig ist, indem er bestimmte wählbare Frequenzbereiche abschwächt (ausfiltert); dieses kann auf verschiedene Art und Weise geschehen (siehe Ab- schnitt 1.6.4.1), und auch das Filter kann mit Hilfe von Hüllkurven oder Modulatoren in einigen Parametern moduliert werden. Da dabei nicht Tonhöhe oder Lautstärke verändert werden, sondern die Klangfarbe selbst, wird eine Fil- termodulation meist als drastischste Klangveränderung bezeichnet.

Das Filter insbesondere analoger Synthesizer gilt unter Synthesizerspielern ge- meinhin als der Baustein, der einem Synthesizer seinen Charakter gibt. Man stößt in der Fachpresse immer wieder auf Zitate wie das folgende:

Dabei gilt diese Feststellung in erster Linie für analoge Synthesizer, denn hier werden die technischen Unzulänglichkeiten analoger Bauteile zum Stilmittel. Analoge Tiefpassfilter bestehen nämlich zumeist aus einem RC-Glied, also einer elektronischen Baugruppe, aufgebaut aus einem Widerstand und einem Konden- sator; diese Bauteile weisen folgende Eigenschaften auf:

Man kann davon ausgehen, dass die Bauteile verschiedener Synthesizerhersteller ihrerseits von unterschiedlichen Firmen stammen und insofern auch unterschied- liche Eigenschaften aufweisen; also darf man annehmen, dass darin die Begrün-

4 Der neutrale Artikel ist hier in der Tat richtig gewählt; zwar trifft man hin und wieder auch auf die männliche Bezeichnung, doch insbesondere in der Fachpresse ist das Filter sächlichen Ge- schlechts (vgl. Abschnitt 2.3.1.1).

76

Alkemper:

dung für die unterschiedlichen Klangcharakteristiken verschiedener Analogfilter zu finden ist. Solche Filter sind derart populär, dass manche Synthesizer einen Eingang aufweisen, durch den das interne Filter mit Signalen von außen – von anderen Synthesizern, aber auch allen möglichen Musikinstrumenten oder sogar der von menschlichen Stimme, kurz, von jedem erdenklichen Laut – gespeist werden kann. Neuerdings werden sogar Geräte entwickelt, die ausschließlich aus einer einzelnen analogen Filtereinheit mit Steuerungsmöglichkeiten bestehen – wie beispielsweise das der Firma Waldorf oder das der Herstellers Peavey.

Da digitale Filter – die softwareseitige Imitation eines RC-Glieds – keine Neben- wirkungen aufweisen, mithin also sauber arbeiten, sind sie bei Synthesizerspielern und -programmierern unbeliebt, denn ihnen mangelt es an Individualität und Va- rianz – sie klingen einfach immer gleich. Außerdem ist die digitale Nachahmung der Resonanz (siehe auch den nachfolgenden Abschnitt) sehr schwierig zu reali- sieren, weswegen eine Reihe von Digitalsynthesizern – als Beispiel seien hier Mo- delle wie die -Workstation von Korg und deren Nachfolgemodelle genannt – den Resonanzparameter gar nicht erst aufweisen bzw. diesen beispielsweise mit Hilfe des Waveshaping (vgl. Abschnitt 1.5.2.7) im Modell auf andere Art und Weise nachzubilden versuchen.

Ein Filter dämpft – wie bereits gesagt – Frequenzen aus dem Spektrum eines Klanges ab. Welche Frequenzen das sind, hängt von der Filtereckfrequenz (vgl. Abschnitt 1.6.4.2), aber auch vom Filtertyp ab. Man unterscheidet heute vier Arten von Filtern, die in Synthesizern vorkommen: Tiefpass-, Hochpass-, Bandpass- und Bandsperrfilter (die charakteristischen Kurven sind in Abbildung 1.6-2 dargestellt). Diese Filter können – je nach Einsatzgebiet – seriell oder parallel miteinander verkoppelt werden, um neue Filterungsmöglichkeiten zu erzeugen.

Dieses Filter kommt praktisch in jedem Synthesizer vor. Seine Aufgabe besteht darin, die Frequenzen oberhalb der Eckfrequenz auszufiltern und die tiefen Frequenzen unbeeinflusst zu lassen; je tiefer

77

Alkemper:

also die Eckfrequenz, desto dumpfer wirkt der Klang. Das Tiefpassfilter

(abgekürzt „TPF“ oder „LPF“ ) wird

zeichnet; bei Synthesizern findet man außerdem die Bezeichnungen „ Fil-

ter“ (falls das TPF das einzige angebotene Filter ist) und „VCF“ bzw. „DCF“ .

im Englischen als be-

Das Hochpassfilter (abgekürzt „HPF“ ) stellt praktisch das Gegenteil eines Tiefpassfilters dar; hiermit werden tiefe Frequenzen ausgefiltert, während hohe Frequenzen durchgelassen werden. Die Eck- frequenz kann bis zum Grundton verschoben werden, d. h. wenn das HPF arbeitet, dann wird bei Anhebung der Eckfrequenz zuerst die Grundfrequenz des Klanges ausgefiltert. Steigt die Eckfrequenz an, so wird der Klang immer höhenbetonter und wirkt dadurch dünner. Da klanglich nicht so ergiebig wie das TPF, verwendet man diesen Filtertyp eher selten in Synthesizern; wenn doch, so ist er in der Regel nicht modu- lierbar und weist als einzigen variierbaren Parameter die Eckfrequenz auf. Er dient in erster Linie dazu, unerwünschte tiefe Brummtöne auszublen- den. Trotzdem ermöglicht das HPF interessante Klangfarben und ist ge- meinsam mit dem TPF Voraussetzung für das Zustandekommen eines Bandpass- bzw. Bandsperrfilters.

Dieser Filtertyp kommt durch die Reihenschaltung eines Hochpass- und eines Tiefpassfilters zustande. Hier werden also zunächst hohe und dann tiefe Frequenzen beschnitten, hörbar bleibt ein Frequenz- band (daher die Bezeichnung „Bandpassfilter“ , kurz „BPF“ ), dessen Breite von den beiden Eckfrequenzen des Filters bestimmt wird. Die Eck- frequenzen lassen sich durch Hüllkurven oder andere Modulatoren paral- lel zueinander oder unabhängig voneinander modulieren, wodurch eine „Wanderung“ des Frequenzbandes durch das gesamte Frequenzspektrum oder aber ein kontinuierliches Verbreitern und Verengen des Bandes möglich ist. Mit diesem Filter lassen sich gezielt unerwünschte Frequenzen oder Frequenzbänder aus einem Signal eliminieren.

78

Alkemper:

Diese auch als „Sperrpassfilter“ oder „ Selektivfilter“ , im Englischen als oder bezeichnete Variante ist die Umkehrung des Bandpassfilters; durch Parallelschaltung eines Tiefpass- und Hochpassfilters wird ein bestimmtes Frequenzband aus dem gesam- ten Frequenzbereich eines Klanges herausgenommen. Dabei entsprechen die Modulationsmöglichkeiten denen des BPF, allerdings führt eine glei- che Modulation beider Filter verständlicherweise zu entgegengesetzten Ergebnissen.

Bandpass- und Bandsperrfilter werden sehr selten in Synthesizern, wesentlich öfter allerdings in Equalizern (vgl. Abschnitt 1.8.3.3) eingesetzt, um bestimmte Frequenzen oder Frequenzbänder hervorzuheben oder zu dämpfen. Zumindest das Bandpassfilter lässt sich jedoch mit einem Synthesizer nachbilden, wenn ein Tiefpassfilter und ein Hochpassfilter mit identischen Steuerungsmöglichkeiten vorhanden sind.

und ein Hochpassfilter mit identischen Steuerungsmöglichkeiten vorhanden sind. Abbildung 1.6-2: Filterkennlinien 79

Abbildung 1.6-2: Filterkennlinien

79

Alkemper:

Ein Filter weist im allgemeinen zwei Hauptparameter auf, nämlich die Eckfre- quenz 5 und die Resonanz. Diese beiden Parameter sind die wesentlichen Mitteln der Klangfärbung bei der subtraktiven Synthese; von ihrer Einstellung hängt es ab, inwieweit ein Naturklangimitat als gelungen oder nicht gelungen bezeichnet werden kann. Dieser Meinung ist auch Matthias Becker, der in Deutschland wohl anerkannteste Experte für alte analoge Synthesizer:

.

Der Terminus beschreibt die Frequenz, ab der die Filterwirkung ein- setzt, d. h. beim Tiefpassfilter werden alle Frequenzen oberhalb der Eckfrequenz beschnitten, bei Hochpassfilter unterhalb usw. In welchem Maße die Frequenzen beschnitten werden, hängt vom Filter selbst ab. Zwar kann ein Filter Frequenzen vollständig unterdrücken, doch in der Praxis ist es so, dass eine Frequenz umso weniger unterdrückt wird, je näher sie an der Eckfrequenz liegt – ein Filter, das alle Frequenzen oberhalb der Eckfrequenz vollständig und radikal eliminieren würde, klänge alles andere als natürlich. In der Kurve (Abbildung 1.6-3) ist zu erkennen, dass der Pegel mit zunehmender Frequenz ständig abnimmt. Die so genannte Flankensteilheit, also der Grad der Lautstärkereduzierung pro Oktave, wird in Dezibel (dB) ausgedrückt, die Maßeinheit für die Flankensteilheit ist also dB/ Oktave. Je größer der dB-Wert, desto stärker ist die Bedämpfung der

5 Geläufig sind auch Bezeichnungen wie „Grenzfrequenz“ , „Beschneidungsfrequenz“ , „Einsatzfrequenz“ oder der englische Begriff „Cutoff Frequency“ , welche neben „Eckfre- quenz“ gleichbedeutend und auch nebeneinander verwendet werden.

6 Die Verwendung der englischen Begriffe für Eckfrequenz und Resonanz erklären sich durch den Verweis auf an Synthesizern befindlichen Reglern, die mit diesen Bezeichnungen be- schriftet sind.

80

Alkemper:

Frequenzen. Je steiler also die Kurve, desto radikaler beeinflusst ein Filter das Spektrum und somit auch die Klangfarbe eines Klanges.

Analogsynthesizer werden mit Filtern ausgestattet, die eine Flankensteilheit von – 12 oder –24 dB/ Oktave aufweisen. Da man in Fachkreisen übereingekommen ist, eine Flankensteilheit von –6 dB/ Oktave als „ Pol“ zu bezeichnen, handelt es sich also bei handelsüblichen Filtern um 2-Pol- oder 4-Pol-Filter. Die ersten 4-Pol- Filter hat übrigens Robert A. Moog entwickelt und sich patentieren lassen; aus diesem Grund haben zahlreiche Hersteller jahrelang – bis zur Freigabe der 4-Pol- Filter – die Vorteile der 12dB-Filter, ihre „Wärme“ und „Natürlichkeit“ anzuprei- sen – man durfte schlichtweg keine 24dB-Filter bauen.

Der zweite Parameter des Filters ist die Resonanz. Sie ermöglicht Rückkopplun- gen, d. h. das am Ausgang des Filters anliegende Signal wird phasengedreht wie- der an den Eingang zurückgeführt. Der Sinn dieses Unterfangens ist die Betonung der Frequenzen unmittelbar unterhalb der Eckfrequenz; als Nebeneffekt werden die Grundtöne des Eingangssignals abgeschwächt. Bei extrem hoch eingestellter Resonanz verfallen zahlreiche Analogfilter in die so genannte Selbstoszillation; das bedeutet, dass der Filterkreis selbst zu schwingen beginnt, das Filter also zum Sinusoszillator wird, und zwar selbst dann, wenn kein Eingangssignal eines ande- ren Oszillatoren mehr anliegt. Der so durch Selbstoszillation (auch als „ Rück- kopplung“ bezeichnet) entstandene Sinuston erweist sich als sehr durchdringen- der Pfeifton und ist – z. B. in Verbindung mit einem Zufallsgenerator (vgl. Ab- schnitt 1.8.1.3) – durchaus musikalisch sinnvoll nutzbar.

schnitt 1.8.1.3) – durchaus musikalisch sinnvoll nutzbar. Abbildung 1.6-3: Filterresonanz Das Filter wird in der Regel

Abbildung 1.6-3: Filterresonanz

Das Filter wird in der Regel durch eine Hüllkurve gesteuert, wobei die ihr gelie- ferte Steuerspannung normalerweise die Eckfrequenz beeinflusst; die Resonanz- stärke – also der Grad der Betonung der unterhalb der Eckfrequenz befindlichen

81

Alkemper:

Frequenzen – lässt sich jedoch bei alten Analogsynthesizern nicht modulieren. Eine solche Möglichkeit bieten erst neuere Synthesizer mit analogen Filtern, vor- zugsweise solche von den Herstellern Oberheim und Waldorf. Aber auch ohne individuell modulierbare Resonanz lassen sich interessante Klangverläufe erzeu- gen, beispielsweise durch zeitlich zueinander versetzte Filter- und Lautstärkehüll- kurven oder auch durch die von manchen Synthesizern gebotene Möglichkeit, Hüllkurven zu invertieren (vgl. Abschnitt 1.6.6.2).

Eine ganz neue Art des Filters wurde im Dezember 1993 von der Firma E-MU Systems vorgestellt: das „Z-Plane-Filter“ . Dieses Filter ist nicht nur in der Lage, 14 Filterpole (siehe oben) auf bis zu acht verschiedene Filtertypen zu verteilen, sondern sogar – beeinflusst durch Modulatoren wie Keyboard-Tracking, An- schlagsstärke u. a. – zwischen diesen zu interpolieren. In Abbildung 1.6-4 wird das Arbeitsprinzip dieses Filters anschaulich dargestellt.

das Arbeitsprinzip dieses Filters anschaulich dargestellt. Abbildung 1.6-4: Das Z-Plane-Filter Man erkennt hier die

Abbildung 1.6-4: Das Z-Plane-Filter

Man erkennt hier die acht verschiedenen Filtertypen innerhalb eines Würfels, also eines dreidimensionalen Koordinatensystems. Abhängig von der imaginären Po- sition des Klanges innerhalb dieses Würfels wird nun zwischen den Filtern inter- poliert, d. h. die Filterkennlinien werden einander angeglichen. In Abbildung 1.6-5 ist dieses als „ Morphing“ bezeichnete Verfahren zu erkennen: Das Filter stellt je- weils an der untersten und obersten Taste der Tastatur ein Filtermodell zur Verfü- gung, das eine eigene Filterkennlinie hat; dabei müssen die Filtermodelle nicht unbedingt gleichen Typs sein, es kann sich auch um ein TPF an der untersten und ein HPF an der obersten Taste handeln. Wird nun eine nicht zu den äußeren ge-

82

Alkemper:

hörende Taste angeschlagen, so bildet das Filter eine neue Kennlinie, die von ih- ren Frequenz- und Amplitudenwerten her zwischen den ursprünglichen Filter- modellen liegt.

her zwischen den ursprünglichen Filter- modellen liegt. Abbildung 1.6-5: Morphing beim Z-Plane-Filter E-Mu Systems

Abbildung 1.6-5: Morphing beim Z-Plane-Filter

E-Mu Systems hat sich ein Patent für das Z-Plane-Filter erteilen lassen, weswegen es bis jetzt ausschließlich in E-mu-Synthesizern und -Samplern eingebaut wird. Inwieweit sich dieses Filter durchsetzen wird, bleibt abzuwarten, die klangliche Flexibilität des Filters insbesondere durch das Morphing gilt jedoch als bisher unerreicht.

Der Verstärker 7 – auch als „Loudness“ oder „ Amplifier“ (aus dem Englischen) oder mit den Abkürzungen VCA oder DCA (von bzw. ) bezeichnet – dient der flexiblen Lautstärkepegelan- passung des anliegenden Eingangssignals durch Amplitudenveränderung. Dabei muss ein Verstärker nicht unbedingt den Pegel erhöhen – also verstärken –, er kann ihn auch absenken; insofern ist die Bezeichnung „ Verstärker“ etwas irrefüh- rend, trotzdem jedoch neben den erwähnten Abkürzungen die gebräuchlichste. Natürlich muss auch der Verstärker gesteuert werden, um sinnvolle Ergebnisse hervorzubringen. Dieses geschieht in der Regel mit Hilfe eines Hüllkurvengene-

7 Hier ist – trotz der gleichen Bezeichnung – nicht ein Gerät zur Lautstärkeerhöhung gemeint, das gemeinhin zur Verstärkung der Lautstärke aller möglichen Instrumente oder auch als Teil einer Beschallungsanlage verwendet wird; die Rede ist lediglich von dem Synthesizerbaustein, der – in Verbindung mit Hüllkurven – Lautstärkeanpassungen des Klangverlaufs er- möglicht.

83

Alkemper:

rators, wodurch sich mittels Änderung der Steuerspannung (bzw. deren digitaler Nachahmung) Lautstärkeverläufe erzielen lassen (vgl. auch Abschnitt 1.6.6.2). Der Verstärker lässt sich überdies durch alle Arten von Modulatoren beeinflussen; hier soll der Niederfrequenzoszillator als Beispiel dienen, mit dem sich Tremolo-Ef- fekte erzielen lassen.

Manche Analogsynthesizer bieten statt eines auch zwei VCAs an, wodurch sich – falls ausreichend Hüllkurvengeneratoren vorhanden sind – das Überblenden zweier Klangfarben erzielen lässt; ähnliches ist heutzutage generell mit allen Digi- talsynthesizern möglich. Trotzdem gehört der Verstärker – anders als beispiels- weise das Filter – nicht zu den Klangbausteinen, die einen Synthesizer legendär machen können.

Als Hüllkurve bezeichnet man den zeitlichen Verlauf eines Klanges hinsichtlich der Parameter Frequenz (Tonhöhe), Amplitude (Lautstärke) und Klangfarbe, d. h. die Veränderungen, die sich während des Erklingens eines Tones bei diesen Pa- rametern ergeben. Dieser zeitliche Verlauf lässt sich pro Parameter auch grafisch – als Kurve – darstellen, wodurch die Herkunft der Bezeichnung „ Hüllkurve“ offensichtlich wird. Hüllkurven charakterisieren jedes Naturinstrument, wobei Einschwing- und Ausklingphasen die Hüllkurve bestimmen. Als Beispiel mag hier das Klavier dienen: Der Klavierton hat eine recht kurze Einschwingzeit und klingt dann bei gehaltener Taste langsam aus, während er rasch verklingt, wenn die Taste losgelassen wird. Bei Streichinstrumenten sind die Parameter variabel, weil mit dem Geigenbogen beeinflussbar, bei Orgeln hingegen gibt es praktisch keine Einschwing- und Ausklingphase: Wird eine Taste gedrückt, erklingt ein Ton, wird die Taste losgelassen, bricht er abrupt ab.

Bei Synthesizern werden nun – in der Regel zwei – Module angeboten, mit denen es möglich ist, diese Hüllkurven nachzubilden. Diese Module bezeichnet man als „Hüllkurvengeneratoren“ ; die Abkürzung „ EG“ für die englische Bezeichnung ist im Deutschen ebenso gebräuchlich, selten wird der Hüllkur- vengenerator auch als bezeichnet.

84

Alkemper:

Hüllkurven treten in verschiedenen Erscheinungsformen bei Synthesizern auf. Sie bieten eine Anzahl von Parametern, die in zwei Kategorien zu unterscheiden sind:

Hüllkurvenphase (engl. ) und Hüllkurvenpegel oder -stufe (engl. ). Je mehr Phasen und Pegel eine Hüllkurve aufweist, desto genauer sind zeitliche Verläufe von Instrumentenklängen nachzubilden. Die Lautstärkehüllkurve eines Pianos ist mit einer einfachen ADSR-Hüllkurve (siehe unten) schon recht authentisch nach- zubilden, komplexe Tonhöhenschwankungen bei Blasinstrumenten (so genannte Anblasgeräusche) lassen sich jedoch nur mit mehrstufigen Hüllkurven imitieren. Dabei ist festzuhalten, dass eine Hüllkurve immer mit einem Einschwingvorgang beginnt und mit einer Ausklingphase endet; die Zahl der dazwischen liegenden Pegel und Phasen ist variabel und hängt von der Leistungsfähigkeit des Geräte- prozessors ab. Die größte Anzahl liegt im Moment bei acht einzeln steuerbaren Hüllkurvenstufen.

Diese Hüllkurve (Abbildung 1.6-6) bietet keine Pegel, sondern lediglich zwei Phasen, die Einschwingphase („Attack“ ) und die Ausklingphase („Release“ ). Die Attack-Phase bestimmt den zeitlichen Ab- stand zwischen dem Tastenanschlag und dem Erreichen eines global ein- stellbaren Pegels, die Release-Phase den Abstand zwischen dem Loslassen der Taste und dem Wiedererreichen des Nullpegels. Am einfachsten kann man sich diese Hüllkurve (wie auch alle anderen) an einem Lautstärkever- lauf klarmachen: Wird eine Taste angeschlagen, so vergeht die durch den Attack-Regler eingestellte Zeit bis zum Erreichen der Höchstlautstärke des Tons, wird die Taste dann losgelassen, so bestimmt der Regler für die Release-Phase die Zeit, die vergeht, bis der Klang völlig verstummt ist. AR-Hüllkurven findet man heute nur noch an Dynamikprozessoren wie z. B. Kompressoren oder Noise Gates, wo sie Ein- und Ausblendmöglichkeiten bieten (vgl. auch Abschnitt 1.8.3.3).

85

Alkemper:

Alkemper: – Abbildung 1.6-6: Die AR- Hüllkurve • Die ADSR- Hüllkurve (Abbildung 1.6-7) war bei

Abbildung 1.6-6: Die AR-Hüllkurve

Die ADSR-Hüllkurve (Abbildung 1.6-7) war bei Analogsynthesizern die Standardhüllkurve. Sie besteht aus drei Phasen und einem Pegel, nach deren Abkürzungen die Hüllkurve benannt ist:

Attack- und Decay-Phase, Sustain-Level und Release-Phase. Der Hüllkur- venverlauf soll wieder durch das Beispiel der Lautstärkeveränderung ver- deutlicht werden: Die Lautstärke steigt bei Tastenanschlag zunächst, zeit- lich durch die Attack-Phase festgelegt, auf die global eingestellt Höchst- lautstärke an und fällt dann mit der Decay-Phase auf den Sustain-Pegel ab; wird die Taste nun losgelassen, so bestimmt die Release-Phase die Aus- klingzeit des Tones.

so bestimmt die Release-Phase die Aus- klingzeit des Tones. Abbildung 1.6-7: Die ADSR- Hüllkurve • Die

Abbildung 1.6-7: Die ADSR-Hüllkurve

Die modernen, digital arbeitenden Synthesizer bieten Hüllkurven an, die komplexer sind als herkömmliche ADSR-Hüll- kurven, also über mehr Phasen und Pegel verfügen (Abbildung 1.6-8). Das Prinzip ist aber das gleiche: Die Pegel steuern die Änderungen von Para- meterwerten bestimmter Bausteine, zwischen denen in durch die Phasen festgelegten Zeiten übergeblendet wird. Dabei bieten Hüllkurvengenerato- ren generell keine absoluten Zeiten in Millisekunden o. ä. an, sondern ein-

86

Alkemper:

fache Werte, die Zeiten repräsentieren. Will man eine Hüllkurve anderen musikalischen Ereignissen anpassen, so muss man also ausprobieren.

Ereignissen anpassen, so muss man also ausprobieren. Abbildung 1.6-8 : Mehrstufige Hüllkurve In Synthesizern

Abbildung 1.6-8: Mehrstufige Hüllkurve

In Synthesizern lassen sich nun die grundlegenden Bausteine durch Hüllkurven steuern. Die Funktionen, die Hüllkurven dabei wahrnehmen, bestimmen die Be- zeichnungen der Hüllkurven selbst:

Sie bestimmt die zeitliche Veränderung der Grund- frequenz des Oszillators und wird in erster Linie zu experimentellen Zwe- cken oder zur Imitation komplexer Einschwingvorgänge von Naturin- strumenten verwendet. Die wenigsten Analogsynthesizer früherer Tage verfügten über einen Hüllkurvengenerator zur Tonhöhensteuerung; man beschränkte sich damals aus Kostengründen auf EGs für Filter und Ver- stärker.

Hier besteht die Aufgabe der Hüllkurve in der Verschie- bung der Filtereckfrequenz. Auf diese Weise wird eine kontinuierliche Veränderung der Klangfarbe ermöglicht. Man kann zum Beispiel das Fil- ter langsam einschwingen lassen (was den Klang nach und nach heller werden lässt), oder auch – durch weit auseinanderliegende Pegel und kurze Phasen – Klangfarbensprünge realisieren, die im experimentellen Bereich sehr gerne verwendet werden. Manche Geräte bieten überdies eine Invertierung der Filter-Hüllkurve an; das bedeutet, das z. B. ein von einer ADSR-Hüllkurve gesteuertes Filter beim Anschlag die global einge- stellte Filtereckfrequenz aufweist, welche dann durch die Attack-Phase hindurch absinkt, hierauf während der Decay-Phase wieder ansteigt und

87

Alkemper:

dann – nach dem Loslassen der Taste – allmählich wieder den global ein- gestellten Filtereckfrequenzwert annimmt.

Die wohl wichtigste Anwendung des Hüllkurvengenerators ist die Einflussnahme auf den Verstärker zum Zwe- cke der Steuerung des Lautstärkeverlaufs eines Klanges. Hier wird letzt- endlich festgelegt, ob ein Klang langsam eingeblendet wird oder sofort in voller Lautstärke präsent ist (was einer Attack-Phase von 0 entspricht), ob und inwieweit der Klang ausklingt oder abgeschnitten wird usw. Zur auch nur näherungsweisen Nachbildung von Naturinstrumenten ist diese Hüll- kurve die wichtigste, denn der Unterschied zwischen der Ausklingphase beispielsweise einer Gitarre und einer Flöte ist doch schon sehr groß.

Bei alten Synthesizern gab es oft nur einen einzigen Hüllkurvengenerator, der gleichermaßen Filtereckfrequenz und Lautstärke modulierte. Das war ein Zuge- ständnis an die Finanzierbarkeit des Gerätes, denn ein Hüllkurvengenerator stellt einen eigenen komplexen Baustein dar. Technisch gesehen tut ein analoger Hüll- kurvengenerator nichts anderes, als die Ausgangsspannungen von Filter, Verstär- ker und ggf. Oszillator zu verändern. Dabei lässt sich der Grad dieser Verände- rung für Filter und Oszillator durch einen Regler mit der Bezeichnung „Envelope Amount“ , der gelegentlich bei Analogsynthesizer zu finden ist, stufenlos verstel- len.

Durch die Digitalisierung der Synthesizer ist die Frage, über wie viele Hüllkurven ein Gerät verfügt und aus wie viel Stufen und Phasen diese ihrerseits bestehen, nur mehr abhängig von der Prozessorleistung des Gerätes; inwieweit man die Frage beantworten kann, ob eine zukünftige, beispielsweise 64stufige Hüllkurve sich sinnvoll einsetzen ließe, bleibt allerdings dem Ideenreichtum der Klangpro- grammierer überlassen.

Um von Synthesizern erzeugte Klänge spielbar zu machen, muss natürlich auch ein Medium vorhanden sein, mit dem Notenwerte und Modulationen eingegeben werden können – es sei denn, man beschränkt sich darauf, sämtliche Noten- und

88

Alkemper:

MIDI-Controller-Werte per Hand in einen Computer einzugeben, der den Syn- thesizer dann steuert. Im Normalfall ist das Haupteingabemittel für Noten eine Klaviertastatur; es gibt zwar auch andere Möglichkeiten – wie z. B. Gitarrensyn- thesizer (die nicht, wie oft irrtümlich angenommen, auf Gitarrenklänge speziali- siert sind, sondern über eine Gitarre bedient werden, deren Saitenschwingungen abgenommen und dann in MIDI-Signale umgewandelt werden) oder auch Blasin- strumenten nachempfundene Eingabemöglichkeiten (wie das der Firma Steiner), doch da zu Zeiten der Einführung preiswerter Synthe- sizer für „ normale“ Musiker das Klavier das wohl populärste und meistgespielte Instrument in den Ländern war, die für einen solchen Markt in Frage kamen (Amerika, Westeuropa, Japan), hat sich die normale Klaviertastatur durchgesetzt.

Um nun neben dem eigentlichen Spielen dem Klang auch noch Ausdruck zu ver- leihen, hat man Spielhilfen (so genannte „ Controller“ 8 ) wie Handräder, Joysticks, Pedale usw. ersonnen, die in Echtzeit Einfluss auf das Klangverhalten der er- zeugten Töne nehmen können. Diese sollen im folgenden beschrieben werden.

Die Tastatur (oder Klaviatur, oft auch als „Keyboard“ bezeichnet) eines Synthesi- zers ist das Haupteingabemedium für Noten. Tastaturen kommen in den ver- schiedensten Versionen vor, von der zwei oder zweieinhalb Oktaven umfassen- den Tastatur der alten Analogsynthesizer bis zur gewichteten 88-Tasten-Klaviatur, die der eines normalen Klaviers nahezu entspricht.

In alten analogen Synthesizern gab es ausschließlich monophone Tastaturen, da eine niedergedrückte Taste einen elektrischen Widerstand schaltete, sodass die resultierende Spannung als Kontrollspannung für den tonerzeugenden Oszillator diente (siehe auch Abschnitt 1.6.1). Als dann die Mikroprozessoren solche Aufga-

8 Das Wort kann, da doppeldeutig, zu Missverständnissen führen; es bezeichnet einer- seits die erwähnten Spielhilfen selbst, zum anderen die dazugehörigen, durch die MIDI-Spezi- fikation festgelegten MIDI-Nachrichten (die oft auch als „MIDI-Controller“ bezeichnet wer- den). Beispielsweise ist dem Modulationsrad der MIDI-Controller mit der Nummer 1 zuge- ordnet.

89

Alkemper:

ben übernahmen, konnte eine kontinuierliche Abfrage separater Tastenschalter realisiert werden, was polyphones Spielen erlaubte, zumal die erzeugten Töne nun den Synthesizerstimmen dynamisch zugewiesen werden konnten.

Könnte man von einer derzeitigen Synthesizerstandardtastatur sprechen, so sähe diese folgendermaßen aus: Eine 61-Tasten-Klaviatur (C1 – C7), die gewichtet (an den Kunststofftasten sind Gewichte befestigt, wodurch das Spielgefühl von Kla- viertasten ansatzweise vermittelt wird), anschlags- und druckdynamisch spielbar (die Begriffe „ Anschlagsdynamik“ und „ Druckdynamik“ werden noch zu erklären sein) und „ splitbar“ ist. Unter „Splitting“ versteht man ein mit Hilfe der internen Software mögliches „Aufteilen“ der Tastatur. Das bedeutet nichts anderes, als dass man verschiedene Klänge auf unterschiedliche Tastaturzonen verteilt, um beispielsweise mit der rechten Hand einen Klavierklang zu spielen, der von einem mit der linken Hand gespielten Basssound begleitet wird. Schlechtestenfalls lässt sich eine Tastatur in der Mitte (bei C4) splitten, um zwei Klänge gleichzeitig zu spielen, optimal ist heute eine Tastatur mit bis zu acht verschiedenen Tastaturzo- nen, auf die sich ebenso viele Klänge verteilen lassen, und frei definierbaren Split- punkten.

Des weiteren gibt es auch Tastaturen mit 76 oder 88 Tasten; Tastaturen mit be- deutend weniger als 61 Tasten werden heutzutage nur noch in Nachbauten älterer Analogsynthesizer eingebaut, zum einen, um eine gewisse Ähnlichkeit zum Origi- nal herzustellen, zum anderen, um die Kosten niedrig zu halten, denn die Her- steller solcher Nachbauten sind meist kleinere Firmen. Außerdem gibt es noch immer – vor allem bei Billigmodellen – ungewichtete Tastaturen ohne Anschlags- oder Druckdynamik (die das berüchtigte „Keyboard-Spielgefühl“ vermitteln). Solche Exemplare sind allerdings sehr selten geworden. Das andere Extrem stel- len – insbesondere bei teuren Synthesizern, Digitalpianos und Masterkeyboards – Tastaturen dar, bei denen der Schaltvorgang durch eine komplette Hammerme- chanik ausgelöst wird (Abbildung 1.7-1); diese sehr kostspielige Einrichtung hat allerdings wirklich nur die eine Funktion, den Spieler glauben zu lassen, er spiele ein wahrhaftiges Klavier.

90

Alkemper:

Alkemper: – Abbildung 1.7-1: Hammermechanik bei Digitalpianos (hier: Denon EP-X07) Anschlagsdynamisches Verhalten bei

Abbildung 1.7-1: Hammermechanik bei Digitalpianos (hier: Denon EP-X07)

Anschlagsdynamisches Verhalten bei Synthesizertastaturen ist verhältnismäßig leicht zu erklären: Spielt man laut, d. h. mit festem Anschlag, so erklingt der ange- schlagene Ton auch laut; spielt man leise, so ist es umgekehrt. Dabei wird durch elektromagnetische oder (häufiger) optische Sensoren gemessen, wie schnell eine Taste gedrückt wurde – daher stammt der auch im Deutschen verwendete engli- sche Ausdruck für die Anschlagsstärke, . Man kann aber bei modernen Synthesizern nicht nur die Lautstärke anschlagsdynamisch kontrollieren, sondern auch zahlreiche andere Parameter, z. B. die Filtereckfrequenz, die Geschwindig- keit von Hüllkurven, die Position des Klanges im Stereopanorama usw. Manche Synthesizer bieten auch Funktionen zur Änderung der Interpretation von Velo- city-Daten an, beispielsweise die Umkehrung (je stärker der Anschlag, desto leiser der Ton), oder lassen sich durch bestimmte Algorithmen auf das Spielverhalten des jeweiligen Spielers einstellen.

Neben der Messung der Anschlagsgeschwindigkeit bieten einige wenige Synthesi- zer auch die Messung der Loslassgeschwindigkeit („Release-Velocity“ ) an; ein sinnvoller Einsatz der Loslassgeschwindigkeitsmessung ist beispielsweise die Be- einflussung des Ausklingverhaltens eines Klanges.

Heutzutage sind Tastaturen von Synthesizern mit einer Einrichtung ausgestattet, die ebenfalls als Modulationsquelle dienen kann – der Druckdynamik, die ge- meinhin als „ Aftertouch“ (aus dem Engl.) bezeichnet wird. Dabei wird nach dem eigentlichen Tastenanschlag – vor dem Loslassen der Taste – mit dem Finger Druck auf die angeschlagene Taste bzw. die angeschlagenen Tasten ausgelöst. Dieser Druck wird mit einem Sensor gemessen, der die empfangenen Informatio- nen in Daten umwandelt, die dann (mit Hilfe eines Niederfrequenzoszillators)

91

Alkemper:

etwa ein Vibrato oder ein Tremolo auslösen können – gerade bei Flächenklängen ein nicht zu unterschätzendes Mittel, um dem Klang Lebendigkeit und Ausdruck zu verleihen. Andererseits ist es recht schwierig, mit Druckdynamik zu spielen, da die Rasterung (128 Schritte) extrem fein gehalten ist – immerhin beträgt der Spiel- raum des Aftertouch nur wenige Millimeter; deswegen sollte man bei der Pro- grammierung von Klängen den Einfluss der Druckdynamik nicht zu stark wählen, da dies zu sehr unschönen Ergebnissen führen kann – etwa dann, wenn die Strei- cher unter Einfluss der Druckdynamik nicht, wie geplant, zart zu vibrieren begin- nen, sondern eher den Klangcharakter einer Sirene annehmen.

Man muss zwei Arten der Druckdynamik unterscheiden. Da wäre zum ersten die kanalbezogene Druckdynamik (engl. ), die technisch recht einfach zu realisieren ist. Hierbei wird die Modulation – unabhängig von Tonhöhe oder Anzahl der gedrückten Tasten – für alle angeschlagenen Töne des betreffenden MIDI-Kanals ausgeführt, da die Druckdynamik nur von einem einzigen Sensor für die gesamte Tastatur ermittelt wird. Technisch aufwändiger ist die polyphone Druckdynamik (auch oder genannt), bei der für jede Taste ein Sensor zur Verfügung gestellt wird. Da dieser Umstand zu einer extre- men Verteuerung der Tastatur und zu einer ausgesprochenen Datenintensivität führt, verfügen nur die wenigsten Geräte über polyphonen Aftertouch. Das Prin- zip ist das gleiche wie das der kanalbezogenen Druckdynamik, nur dass sich bei der polyphonen Variante durch Druck jede Taste einzeln beeinflussen lässt; eine sinnvolle Einsatzmöglichkeit wäre beispielsweise die Aufhellung (durch Anhe- bung der Filtereckfrequenz) oder Lautstärkeanhebung des höchsten Tones eines angeschlagenen Akkordes.

Das Keyboard-Tracking ist eine bereits bei frühen Kompaktsynthesizern sehr verbreitete Funktion, die es erlaubt, bestimmte Parameter in Abhängigkeit von der angeschlagenen Tonhöhe zu ändern. Solche Parameter können Lautstärke, Filter- eckfrequenz oder auch Hüllkurvenverläufe sein. Als Beispiel für diese auch als „Key Follow“ bezeichnete Eigenschaft wird oftmals die Veränderung der Filter- eckfrequenz in Relation zur Tonhöhe genannt. Bliebe nämlich die Eckfrequenz

92

Alkemper:

über den gesamten Tastaturumfang hinweg gleich, so würden die einzelnen Töne, je höher ihre Tonhöhe ist, immer dumpfer, da die Eckfrequenz starr ist und so immer mehr Obertöne ausfiltern würde. Durch die Erhöhung der Eckfrequenz via Keyboard-Tracking wird ein über die gesamte Tastatur einheitliches Klangbild realisiert.

Etwas komplexer ist die Eigenschaft des „Key Scaling“ , das z. B. durch Absenken bzw. Erhöhen der Lautstärken zweier Klänge in Abhängigkeit zur Tastaturposi- tion das Überblenden zweier Klänge relativ zur Tonhöhe ermöglicht. Eine weitere Variante ist das „Rate Scaling“ (auch „ Time Key Follow“ genannt), das mit zu- nehmender Tonhöhe die Hüllkurvenlänge verkürzt, um z. B. die kürzer werden- den Saiten bei Naturinstrumenten wie Gitarre oder Klavier zu simulieren.

Bei analogen Synthesizern war das Keyboard-Tracking baulich in die Tastatur integriert, wobei bei Tastenanschlag eine Steuerspannung abgegeben wurde, die den gewünschten Effekt hervorrief. Dabei konnte die Stärke des Keyboard-Tra- cking mit einem Schalter gesteuert werden, der für gewöhnlich über zwei bis vier unterschiedliche Schaltstufen verfügte; bei späteren Modellen gab es dann auch eine stufenlose Regelung des Keyboard-Tracking. Heutzutage wird auch diese Funktion durch die Software wahrgenommen, wobei das Keyboard-Tracking in Abhängigkeit von der MIDI-Notennummer abgearbeitet wird (und mithin von der Tastatur des Gerätes abgekoppelt ist) und der Parameterbestand erheblich an- gewachsen ist. So ist es z. B. möglich, eine Notennummer einzugeben, von der ab das Keyboard-Tracking erst zu wirken beginnt; auch ist die Anzahl der beein- flussbaren Parameter teilweise erheblich erweitert worden.

Beim Modulationsrad wie auch beim noch zu beschreibenden Pitchbend-Rad handelt es sich um Handräder, die bei vielen – vor allem größeren – Synthesizern älterer Bauart links von der Tastatur in das Gehäuse eingebaut sind. Diese Räder sitzen auf einer Längsachse und lassen sich so bequem mit der linken Hand bewe- gen (neben den früher auf zwei oder drei Oktaven beschränkten Tastaturen eine Ursache dafür, dass zahlreiche Keyboarder ausschließlich mit der rechten Hand zu spielen in der Lage sind). Das Modulationsrad, das normalerweise das rechte

93

Alkemper:

zweier Räder ist, erzeugt eine vorher programmierte Modulation wie z. B. Vibrato oder Tremolo; bei MIDI-Systemen wird diesem Rad der MIDI-Controller 1 zu- geordnet, d. h. die Modulation kann z. B. mit einem Sequenzer aufgezeichnet werden. Heutzutage findet man Handräder vorzugsweise bei Masterkeyboards (und dort in verhältnismäßig großer Zahl), wobei die Modulation hier völlig frei zugewiesen werden kann; bei den meisten Synthesizern hat sich der Joystick (X- Y-Controller) durchgesetzt.

Bei dem Pitchbend-Rad, das sich – sofern es nicht ebenfalls durch eine Funktion des Joysticks ersetzt wurde – normalerweise links vom Modulationsrad befindet, handelt es sich um ein Rad zur Tonhöhenbeugung (auch „Pitchbending“ ge- nannt), d. h. bei Betätigung dieses Rades lässt sich die Tonhöhe bis zu einem ge- wissen Grad, der oft zuvor festgelegt werden kann, in beide Richtungen ändern. Dieses Rad, das auch „Pitch-Wheel“ oder „Pitchbend-Wheel“ genannt wird, ver- fügt im Gegensatz zum Modulationsrad über eine Rückstellfunktion oder eine Mittelstellungsrasterung, um unerwünschte dauerhafte Verstimmungen zu ver- meiden. Im MIDI-System werden zwei Datenbytes (à sieben Bits) übertragen, was eine Auflösung der Tonhöhenbeugung in 16.384 Schritte zulässt; in der Praxis wird jedoch das niederwertige Byte von den meisten Klangerzeugern ignoriert, da sich eine Auflösung von 128 Schritten als praktikabel erwiesen hat.

Bei den meisten Synthesizern ist das Pitchbend-Rad im übrigen nicht ausschließ- lich der Tonhöhenbeugung vorbehalten, sondern frei programmierbar, was den Vorteil hat, dass man über je ein Modulationsrad mit und ohne Rückstellfunktion verfügen kann.

Seit Anfang der Achtziger Jahre wurden Handräder zunehmend durch multifunk- tionale Hebel ersetzt. Dabei setzten sich zwei Arten dieser Hebel durch: der „Le- ver“ (Regler, nicht zu verwechseln mit dem Datenregler oder Slider) und der Joy- stick, der früher oftmals, heute eher selten, als „X-Y-Controller“ bezeichnet wird.

94

Alkemper:

Der Lever, der vornehmlich bei Modellen der Firmen Roland und Oberheim auf- tritt, vereint die beiden Funktionen von Modulations- und Pitchbend-Rad in ei- nem einzigen Hebel. Das Pitchbending wird durch eine Links-/ Rechts-Bewegung des Hebels gesteuert, die Modulation durch einen Druck nach hinten. In älteren Modellen der Firma Roland war die Modulation durch Druckausübung noch nicht möglich, vielmehr gab es zwei Schieberegler, mit denen sich unabhängig voneinander der Grad der Tonhöhenbeugung und Modulation einstellen ließen, die dann durch die Bewegung des Levers nach rechts oder links ausgelöst wurden. Außerdem gab es bei diesen Geräten die Möglichkeit, einen Klang so zu pro- grammieren, dass die Modulation automatisch oder aber manuell mit Hilfe eines neben dem Lever befindlichen Tasters ausgelöst wurde.

Eine andere Entwicklung verfolgte die Firma Korg, die schon sehr früh den Joy- stick vorstellte, mit dem außer der Tonhöhenbeugung gleich zwei weitere Modu- lationen möglich waren, wenn auch nicht gleichzeitig. Dabei muss man sich den Joystick als Hebel vorstellen, der in alle Richtungen frei beweglich ist. Eine Bewe- gung nach rechts oder links löst das Pitchbending aus, eine Bewegung nach hinten eine Modulation, eine Bewegung nach vorne die zweite Modulation (wobei bei Korg-Modellen die Rückwärtsbewegung normalerweise eine Tonhöhen-, die Vorwärtsbewegung eine Filtereckfrequenz-Modulation auslöste). Da der Joystick frei beweglich ist (auch wenn er normalerweise mit einer Rückstellfunktion aus- gestattet ist), ist es einleuchtend, dass gleichzeitig mit der Tonhöhenbeugung immer auch eine der beiden Modulationen auslösbar ist. In diesem Zusammen- hang ist auch die Bezeichnung „X-Y-Controller“ einleuchtend, da sich der Joy- stick in Ruhelage sozusagen im Zentrum eines imaginären Koordinatensystems befindet, von dem aus er (natürlich durch die Maximalauslenkung beschränkt) jeden Punkt in diesem System anfahren kann. Aus diesem Grunde ist den Joy- sticks auch kein eigener MIDI-Controller zugewiesen, vielmehr erzeugen sie zwei oder drei verschiedene Controller-Datenarten gleichzeitig.

Bei Synthesizern, die nach dem Prinzip der Vektorsynthese ihre Klänge erzeugen, dient ein Joystick normalerweise auch zur Festlegung des Lautstärkeverlaufes der einzelnen Klangbestandteile; derartige Joysticks haben natürlich keine Rückstell- funktion, um unerwünschte Klangergebnisse zu vermeiden.

95

Alkemper:

Einen neuartigen Lever bietet das Modell der schwedischen Firma Cla- via. Dieser so genannte „Pitch-Stick“ , der zum Patent angemeldet ist, weist gegenüber herkömmlichen Pitchbend-Rädern, Joysticks und Levern eine Reihe von Vorteilen auf:

.

Der Schieberegler (auch „Fader“ oder „[Daten-]Slider“ genannt) ist im Grunde genommen ein Dateneingabemedium, das bei der Klangprogrammierung zur Grobeingabe von Programmdaten dient. Er wird deswegen unter der Rubrik „Spielhilfen“ aufgeführt, da bei einer Reihe von Geräten dieser Regler, sofern ihm keine spezielle Eingabeaufgabe zugewiesen ist, als Modulationsregler während des Spielens verwendet werden kann und auch MIDI-Controll-Daten ausgibt. Bei dem Modell von Korg beispielsweise dient er zur Regelung der Effekttiefe bei den geräteinternen Effektprogrammen. In eingeschränktem Maße lassen sich dem Daten-Slider jedoch auch andere Steuerungsaufgaben zuweisen.

Der Arpeggiator, der – bedingt durch die Möglichkeiten der heutigen Hard- und Softwaresequenzer – ziemlich aus der Mode gekommen ist, stellt eine Funktion dar, die es ermöglicht, einen auf der Tastatur gehaltenen Akkord automatisch gebrochen zu spielen, d. h. die Töne des Akkordes erklingen nicht gleichzeitig, sondern nacheinander, und zwar so lange, wie der Akkord gehalten wird. Ein-

96

Alkemper:

stellbar sind bei den Arpeggiatoren je nach Ausführung das Abspieltempo (stu- fenlos), die Abspielrichtung (z. B. aufwärts, abwärts, auf- und abwärts oder in zufälliger Reihenfolge) und die Anzahl der durchgespielten Oktaven (eine, zwei oder mehr Oktaven). Außerdem gibt es eine so genannte Hold-Funktion, die normalerweise dafür zuständig ist, Noten nach dem Loslassen der betreffenden Taste weiterklingen zu lassen, und zwar solange, bis die Hold-Funktion wieder abgeschaltet wird oder aber die Stimmenzahl des Synthesizers erschöpft ist; in Zusammenhang mit einem Arpeggiator sorgt sie dafür, dass der angeschlagene Akkord auch nach dem Loslassen der Tasten weiter gebrochen abgespielt wird, bis die Funktion abgeschaltet oder ein neuer Akkord angeschlagen wird.

Arpeggiatoren waren prägend für eine Reihe von Populärmusikstilen der Achtzi- ger und Neunziger Jahre, bei denen die aufgelösten Akkorde ein typisches Cha- rakteristikum waren; zu nennen wären hier der elektronische New Wave zu Be- ginn der Achtziger Jahre, die daraus hervorgegangene Electronic Body Music, bei der Arpeggiatoren in erster Linie für Bassläufe verwendet wurden, und Techno, der Anfang der Neunziger Jahre eine weite Verbreitung fand und auch noch fin- det. Dieser Umstand mag ein Grund dafür sein, dass Arpeggiatoren heutzutage wieder populärer werden, wobei die Möglichkeiten – insbesondere bei Software- sequenzern – heute die der frühen Arpeggiatoren bei weitem übersteigen; z. B. lassen sich die modernen Arpeggiatoren über MIDI zu anderen Klangerzeugern und Sequenzern synchronisieren, d. h. der Arpeggiator gibt den Takt nicht mehr an, sondern folgt dem vorgegebenen Takt des MIDI-Signals. Ältere Arpeggiato- ren ließen sich über so genannte „ Clock-Impulse“ zu Analogsequenzern synchro- nisieren. Neuerdings findet man Arpeggiatoren auch wieder in Synthesizern und Masterkeyboards, so z. B. in den Modellen und des deutschen Herstellers Quasimidi, die direkt zur Komposition von Techno-Stücken konzi- piert sind.

Mit einem Blaswandler (nach der englischen Bezeichnung auch „Breath-Control- ler“ genannt) ist es möglich, Parameter eines Synthesizers zu ändern; es handelt sich dabei sozusagen um einen Ersatz für ein Modulationsrad, wobei man hier

97

Alkemper:

vorteilhafterweise nicht extra eine Hand von der Tastatur nehmen muss. Dabei bläst der Spieler in ein Mundstück, in dem der Blasdruck dann abgenommen und in MIDI-Daten umgewandelt wird, mit deren Hilfe sich Einfluss auf das Klangge- schehen nehmen lässt. Die Einführung des Breath-Controllers erfolgte fast zeit- gleich mit der des MIDI-Standards (ca. 1983), weswegen er die MIDI-Controller- Nummer 2 zugewiesen bekam; es war damals nämlich nicht abzusehen, dass sich diese Einrichtung nicht als Controller durchsetzen würde. Allerdings fertigte aus- schließlich die Firma Yamaha Blaswandler (und tut das bis heute), und abgesehen von Yamaha-Modellen besitzen nur sehr wenige Synthesizer einen Anschluss für einen Blaswandler und können den MIDI-Controller 2 verarbeiten. Auf der ande- ren Seite spielt der Blaswandler bei den neuen PM-Synthesizern von Yamaha (z. B. der ) eine wichtige Rolle, da dieses Instrument zur Erzeugung virtuel- ler Blasinstrumente dient. Insofern ist der Blaswandler wohl das geeignetste Mit- tel, um den Blasdruck des virtuellen Spielers abzunehmen, wobei die Töne selbst nach dem herkömmlichen Muster mit einer Tastatur ausgelöst werden; jedoch wird hier nach der Devise verfahren: Kein Blasdruck, kein Ton.

Zu unterscheiden sind von den Blaswandlern die so genannten „Wind-Control- ler“ , die tatsächlich als Spielmedium dienen und sozusagen eine flötenähnliche Kombination von Tastatur und Blaswandler sind. Sie konnten sich jedoch als Spielmittel bisher nicht durchsetzen.

Der Ribbon-Controller besteht aus einem Stoffband (engl. ), unter dem sich eine Anzahl Sensoren befinden. Auf dieses Stoffband kann durch ein Fenster im Gehäuse zugegriffen werden, wobei die Position des Fingers auf dem Band durch die Sensoren abgegriffen und in Tonhöheninformationen umgewandelt wird. Wird von den Sensoren keine Berührung wahrgenommen, so wird die Original- tonhöhe wieder eingestellt. Der Ribbon-Controller diente in alten Analogsynthe- sizern als Tonhöhenbeuger, bis er vom Pitchbend-Rad verdrängt wurde, und ist heute – trotz mancherlei Vorteilen gegenüber Pitchbend-Rad und Joystick – praktisch ausgestorben.

98

Alkemper:

Die erwähnten Vorteile gegenüber Pitchbend-Wheel und Joystick bestehen u. A. darin, dass der Ribbon-Controller um seine Nulllage herum keine tote Zone hat, sondern bereits auf die kleinste Bewegung anspricht. Des weiteren sind mit dieser Einrichtung Spieltechniken möglich, die mit den heutigen Pitchbendern gar nicht oder nur unzureichend durchgeführt werden können. Dazu gehört das Gleiten auf dem Band, das in etwa mit dem Gleiten („ Sliding“ ) auf einer Gitarren- oder Bass- saite verglichen werden kann; außerdem kann man zur Erzielung unwillkürlicher Tonsprünge auch einfach mit mehreren Fingern auf dem Band herumtippen. Schnelles Hin- und Herbewegen des aufliegenden Fingers erzeugt ein Vibrato usw. Nachdem der Ribbon-Controller jahrelang von den Herstellern als Spielhilfe ignoriert wurde, ist er nun von der Firma Kurzweil wiederentdeckt worden, die ihn in das Modell integrierte.

Bei den Fußpedalen muss zwischen zwei Arten unterschieden werden: dem Fuß- schalter und dem Schwellerpedal (welches oft auch allgemein als „Fußpedal“ oder auch „Slider“ bezeichnet wird).

Der Fußschalter übt, wie der Name schon sagt, Schaltfunktionen aus; hiermit kann z. B. das Haltepedal eines Klaviers imitiert werden, außerdem können Se- quenzer gestartet, Klangprogramme fortlaufend weitergeschaltet, Effekte an- und abgeschaltet werden etc., je nachdem, welche Funktionen dem Pedal durch den Synthesizer zugewiesen werden. An einen Synthesizer können oftmals zwei oder mehr Fußschalter angeschlossen werden, die dann verschiedene Funktionen wahrnehmen können; beim Anschluss ist allerdings auf die Polung des Anschluss- steckers, der gewöhnlich als ¼"-Stereoklinkenstecker (vgl. Abschnitt 1.13) ausge- führt ist, zu achten, da Steckerspitze und -ring des Anschlusssteckers bei Pedalen verschiedener Hersteller unterschiedlich belegt sind. Das gleiche gilt für die nun zu beschreibenden Schwellerpedale.

Die Schwellerpedale dienten einst der externen Lautstärkeregelung von elektri- schen und elektronischen Klangerzeugern aller Art und haben ihren Ursprung im Lautstärkepedal der Orgel. Heutzutage lassen sich mit diesem stufenlos regelbaren Pedal aber auch andere Parameter in Echtzeit regeln, so z. B. Filtereckfrequenz,

99

Alkemper:

Geschwindigkeit und Tiefe von Modulationen und auch Effekte, beispielsweise die Geschwindigkeit eines Rotorlautsprechereffektes. Dabei lassen sich die Steuer- spannungswerte am Potentiometer des Pedals abgreifen und in MIDI-Signale umwandeln.

Unter Modulation versteht man die Veränderung des Klangbildes eines Klangs mit den verschiedensten Hilfsmitteln. Diese Klangbildveränderung kann entweder kontinuierlich oder auch gezielt durch Echtzeiteingriffe in die Klangparameter unter Zuhilfenahme der in Abschnitt 1.7 beschriebenen Spielhilfen erfolgen. Mit Hilfe dieser Mittel kann man den Klängen entweder – in Nachahmung von Mo- dulationen natürlicher Instrumente – einen authentischeren Charakter geben, bei künstlichen (Synthesizer-)Klängen hingegen wirken modulierte Klänge meist inte- ressanter als starre Klangquellen und vermögen einem Klang mehr Originalität zu verleihen. Beim populärmusikalischen Technostil beispielsweise hat sich die Mo- dulation des Filters zu einem Stilelement entwickelt.

Auch mit Hilfe von Effekten kann man verschiedene Ziele wie Authentizität oder Originalität erreichen, je nach Wahl des oder der verwendeten Effekte; so werden z. B. Halleffekte zur Simulation natürlicher Räume verwendet (beispielsweise die Orgel, die in einer virtuellen, weil aus einem Hallgerät stammenden Kathedrale erklingt) oder auch zur Klangveränderung (Modulationseffekte) und Klangbeein- flussung (Dynamikprozessoren).

Art und Weise einer Modulation müssen natürlich der Kontrolle des Spielers unterliegen, weswegen man auch schon vorhandene Modulationen durch Spielhil- fen in der Modulationsintensität noch ändern kann. Zu unterscheiden sind bei der Modulation Modulationsquellen (Modulatoren) und Modulationsziele (modulierte Bausteine); dabei kann man hier durchaus von Modulationsketten sprechen, denn eine Spielhilfe wie z. B. das Modulationsrad moduliert die Geschwindigkeit eines Niederfrequenzoszillators, der seinerseits die Eckfrequenz des Filters moduliert – der Niederfrequenzoszillator ist also gleichermaßen Modulationsziel wie auch -

100

Alkemper:

quelle. Deswegen bieten manche Synthesizer eine Modulationsmatrix an, d. h. ein virtuelles Steckfeld, in dem alle Modulationsquellen und -ziele aufgeführt sind, die sozusagen über eine Verbindung der einzelnen „ Leitungen“ miteinander verbun- den werden. Je mehr Modulationsmöglichkeiten ein Synthesizer anbietet, desto interessanter sind die klanglichen Ergebnisse, wobei allerdings sehr sauber pro- grammiert werden muss, will man keine unerwünschten Klänge erhalten. Dabei kann eine Modulation unterschiedlich intensiv sein (man spricht auch von der „Modulationstiefe“ ); der Grad der Modulation reicht von fast unhörbarer Verän- derung bis zur drastischen Klangbeeinflussung, die mit dem Ursprungsklang rein gar nichts mehr zu tun hat.

Die im folgenden zu beschreibenden Modulationsquellen sind hauptsächlich Be- standteile von Analogsynthesizern gewesen und wurden im Zuge der Digitalisie- rung durch Softwarefunktionen und -imitationen ersetzt. Man findet z. B. die Be- zeichnungen – mit Ausnahme des Niederfrequenzoszillators – heutzutage nur noch selten in den Parameterlisten gängiger Synthesizer. Sample&Hold-Funktion und Rauschen als Modulationsquellen wurden weitgehend durch Zufallsgenerato- ren ersetzt, die jedoch ähnliche Ergebnisse wie die beschriebenen Analogbauteile zulassen. Doch gerade im Zuge der „Repopularisierung“ analoger Synthesizer und der Verbreitung von Nachbauten solcher Geräte werden auch diese fast in Ver- gessenheit geratenen Bauteile wieder aktuell.

Im übrigen bleibt festzuhalten, dass natürlich auch Bausteine wie Hüllkurvengene- ratoren und Filter in weitestem Sinne Modulationsquellen sind, da auch sie die erzeugten Klänge verändern; doch diese Einheiten werden im allgemeinen nicht zu den Modulatoren gezählt, da sie insbesondere für die subtraktive Synthese grundlegende Bausteine darstellen.

Der Niederfrequenzoszillator (nach der englischen Bezeichnung auch im Deutschen kurz als „ LFO“ , selten auch als „ Modulationsgenerator“ oder „MG“ bezeichnet) ist die wohl bedeutendste Modulationsquelle in Synthesi- zern. Es handelt sich dabei um einen ganz normalen Oszillator, wie er auch zur Tonerzeugung verwendet wird, nur erzeugt der LFO Schwingungen im Infra-

101

Alkemper:

schallbereich (zwischen 0 und 20 Hz), mit denen es dann möglich ist, andere Bauteile des Synthesizers zu modulieren, indem durch die vom LFO erzeugten Schwingungen Spannungsschwankungen hervorgerufen werden. Dabei stellen einfache LFOs Wellenformen wie Sinus-, Dreiecks- oder Sägezahnwelle zur Ver- fügung, aufwändigere Exemplare vermögen auch andere Wellenformen zu erzeu- gen.

Einsatzgebiet des LFO ist die Modulation aller möglichen Bausteine, seien es Fre- quenz und Amplitude des Audiooszillators, die Eckfrequenz des Filters oder auch ein zweiter LFO. Dabei müssen Frequenz und Modulationstiefe bei der Klang- programmierung festgelegt werden, andererseits kann auch ein Niederfrequenzos- zillator noch durch Spielhilfen moduliert werden.

Heutzutage werden Modulationsgeneratoren durch entsprechende Software imi- tiert, wodurch die Funktionsvielfalt in hohem Maße zugenommen hat – Zufalls- generatoren und andere Funktionen wurden implementiert, sodass die Bezeich- nung „ Modulationsgenerator“ nun weitaus passender ist als Niederfrequenzoszil- lator, denn diese Generatoren schließen auch Funktionen von Bausteinen wie „Sample&Hold“ bzw. Rauschen als Modulationsquellen mit ein, die in erster Linie zufällige Ergebnisse produzieren sollten.

Beim LFO einstellbar sein sollten Parameter wie Wellenform, Modulationsge- schwindigkeit und -tiefe, Modulationsziele, Verzögerung („Delay“ ) und Einblen- den („Fade-In“ ) der Modulation sowie die Möglichkeiten bzw. Art und Weise der Modulation des LFO selbst beispielsweise durch Spielhilfen oder einen anderen LFO.

Beim Ringmodulator handelt es sich um einen Baustein, der ursprünglich aus der Nachrichtentechnik stammt; dort ermöglicht er die gegenseitige Beeinflussung zweier Oszillatoren (vgl. Špeljak 1983:39). In der Synthesizer-Technik wurde er mehr oder weniger von Beginn an als klangveränderndes Mittel eingesetzt.

Der Ringmodulator verfügt über zwei Eingänge. Werden nun diesen Eingängen unterschiedliche Frequenzen zugeführt, so bildet der Ringmodulator die Summe

102

Alkemper:

und die Differenz dieser Frequenzen und gibt diese aus. Ein Beispiel: Wird am ersten Eingang eine Sinusschwingung von 400 Hz und am zweiten Eingang eine Sinusschwingung von 100 Hz angelegt, so gibt der Ringmodulator Schwingungen mit Frequenzen von 500 Hz und 300 Hz aus. Wichtig hierbei ist, dass die erzielten Frequenzen keine Vielfachen der ursprünglichen Frequenzen sind; es werden also nichtharmonische Frequenzanteile (d. h. Verzerrungen) erzeugt. Komplexere Ringmodulatoren geben zusätzlich auch die Ursprungsfrequenzen aus.

Nun kann man dem Ringmodulator natürlich nicht nur Sinusschwingungen, son- dern auch obertonreiche Wellen zuführen. Dadurch lassen sich äußerst komplexe Klänge erzeugen, die – bedingt durch die unharmonischen Frequenzanteile – ei- nen sehr metallischen, geräuschhaften Charakter haben und gerne zur Imitation von Naturinstrumenten verwendet wurden, deren Klang auch nichtharmonische Frequenzanteile enthält: Glocken, Gongs, Schellen etc. Alle Arten von Schall- erzeugnissen lassen sich zuführen, z. B. die menschliche Stimme einerseits und ein synthetischer Klang andererseits; diese Kombination hat eine Art „ Roboter- stimme“ zum Ergebnis. In Extremfällen führt die Ringmodulation zu Verzerrun- gen, die keine Grundtonhöhe mehr feststellen lässt.

Durch die Möglichkeiten der Wellentabellen- und der ROM-Sample-Synthese, die Wellenformen und Samples mit nichtharmonischen Frequenzanteilen zur Verfü- gung stellen können, hat der Ringmodulator seine Bedeutung als klangverändern- des Mittel verloren und wird heute eigentlich nur noch in Nachbauten alter Ana- logsynthesizer eingebaut – diese Funktion softwareseitig in neuen Synthesizern anzubieten, erschien offenbar unnötig im Hinblick auf die Möglichkeiten neuer Geräte, das Hauptziel der Ringmodulation weitgehend durch metallisch klingende Wellenformen und Samples zu erreichen.

Die Sample&Hold-Schaltung (oder S&H-Schaltung) wurde – trotz deutlich wei- tergehender Möglichkeiten – in alten Analogsynthesizern meist nur als Zufallsge- nerator verwendet (und auch so bezeichnet). Dabei wird dieser Schaltung eine Spannung (meist in Form eines Rauschens) zugeführt. In bestimmten, von der internen Uhr des S&H-Gliedes gesteuerten Abständen werden dann der anliegen-

103

Alkemper:

den Spannung Proben („ Samples“ ) dieser Spannung entnommen (der Span- nungswert wird also elektronisch ausgelesen). Der ausgelesene Spannungswert wird solange durch das S&H-Glied gehalten, bis die nächste Probenentnahme durchzuführen ist. Dabei wird die Taktrate, d. h. die Schnelligkeit der internen Uhr, durch eine Pulswelle mit einer Frequenz von 0,1 bis 30 Hz festgelegt; diese Frequenz kann durch den Anwender festgelegt werden. Die abgenommenen und gehaltenen Spannungswerte können nun als Modulationsquellen für andere Bau- steine dienen. Lässt man z. B. einen Oszillator durch ein S&H-Glied modulieren, so werden in regelmäßigen Abständen Töne mit unterschiedliche Tonhöhen aus- gegeben. Filter- und Verstärkermodulationen sind natürlich ebenso denkbar.

Die Art und Weise der Modulation hängt davon ab, was für ein Signal am S&H- Glied anliegt. Wird es von einem Oszillator oder einem LFO gespeist, der eine periodische Wellenform erzeugt, beispielsweise eine Sinuswelle, so wird das Mo- dulationsziel des S&H-Gliedes derart moduliert, dass das Ergebnis selbst auch periodisch verläuft – in unserem Beispiel würde ein modulierter Oszillator ständig auf- und absteigende Tonfolgen ausgeben, deren Geschwindigkeit durch die in- terne Uhr des S&H-Gliedes festgelegt werden kann.

Soll das S&H-Glied nun tatsächlich als Zufallsgenerator fungieren, so muss man ihm auch ein Signal zuführen, das keine periodischen Charakteristiken aufweist. Hierfür werden die Signale des Rauschgenerators verwendet, deren gemessene Spannungswerte keinerlei Gesetzmäßigkeiten erkennen lassen; sie wechseln völlig zufällig. Oft ließ leider das S&H-Glied in Analogsynthesizern kein anderes Ein- gangssignal zu, weswegen die S&H-Glieder in der Tat zu reinen Zufallsgenerato- ren verkamen; heute wird diese Funktion durch Zufallsgeneratoren des Synthesi- zers wahrgenommen, wodurch auch die S&H-Funktion mittlerweile nicht mehr in modernen Synthesizern zu finden ist.

Diese Funktion, deren Bezeichnungen „Portamento“ und „Glide“ synonym sind, war – bedingt durch die Spannungssteuerung – schon in den ältesten Synthesi- zermodellen analoger Bauart vorhanden. Der Effekt besteht darin, dass, wenn eine Taste gedrückt wird, nicht – wie im Normalfall – sofort die gewählte Ton-

104

Alkemper:

höhe gespielt wird, sondern der Ton allmählich von der Tonhöhe des zuvor ge- spielten Tones zur gewählten Tonhöhe hinauf- bzw. hinabgleitet. Die Geschwin- digkeit dieses „ Gliding“ ist voreinstellbar. Technisch wird das Portamento bei Analogsynthesizern durch eine kontinuierliche Steuerspannungsänderung reali- siert, im Gegensatz zum Umschalten der Spannung, wenn das Portamento nicht eingesetzt wird. Bei neueren Synthesizern ist diese Funktion (insbesondere bei ROM-Sample-Synthesizern) nur sehr schwer zu imitieren und wird hier weitge- hend durch die Tonhöhen-Hüllkurve ersetzt, die allerdings nicht so flexibel ar- beitet wie das Portamento selbst.

Es gibt bei Synthesizern – abhängig von der Ausführung – verschiedene Porta- mento-Modi, von denen der „ Fingered-Portamento-Modus“ erwähnt werden soll:

Hierbei wird das Portamento nur ausgeführt, wenn zwei Noten , also gebun- den gespielt werden, d. h. eine Note wird angeschlagen, während die vorher- gehende noch nicht losgelassen ist; dadurch ist dem Spieler die Kontrolle über das Portamento gegeben.

Zu nennen ist außerdem noch der „Glissando“ -Effekt. Er arbeitet ähnlich wie der Glide-Effekt, nur wird die Tonhöhe hierbei nicht stufenlos, sondern in Halbton- schritten (d. h. chromatisch) erhöht. Dieser Effekt ist allerdings bei Synthesizern sehr selten anzufinden.

Modulierbar sind in Synthesizern älterer wie auch neuerer Bauart praktisch alle Bausteine und Funktionen. Inwieweit die einzelnen Modelle Modulationen zulas- sen, wird vom Hersteller festgelegt; unsinnige Modulationen werden von vorn- herein ausgeschlossen (wobei sich darüber streiten ließe, welche Modulationen man als unsinnig bezeichnen kann). Art und Umfang der angebotenen Modula- tionsmöglichkeiten differieren in hohem Maße von Modell zu Modell. So lassen sich z. B. bei den Workstations der Firma Korg durch den Modulationsgenerator nur sehr wenige Parameter modulieren, wohingegen beispielsweise das Modell der Firma Waldorf die Modulation praktisch jedes klangrelevanten Pa- rameters zulässt. Dieses hat Vor- und Nachteile: Auf der einen Seite verspricht eine große Anzahl möglicher Modulationen klanglichen Variantenreichtum, Ori-

105

Alkemper:

ginalität und Lebendigkeit; andererseits wird eine zu große Modulationsmatrix sehr schnell unübersichtlich. Gerade bei Geräten, bei denen sämtliche Modula- tionsverkettungen nicht auf einen Blick zu erkennen sind (und das sind praktisch alle), muss man eine immens große Zahl an Daten zumindest näherungsweise im Kopf behalten, was fast unmöglich ist; deswegen werden zahlreiche Anwender während der Klangprogrammierung zunehmend verwirrt oder aber trauen sich gar nicht erst an die Programmierung eigener Klänge. Im übrigen hat diese Tat- sache dazu geführt, dass Editorprogramme (siehe auch Abschnitt 1.9.3.3) zu einer massenhaften Verbreitung gekommen sind; diese zeigen teilweise sämtliche Para- meter eines Klanges am Computerbildschirm an und gestalten die Kreation neuer Klänge einfacher als eine Flüssigkristallanzeige mit zwei Zeilen à 16 Zeichen.

Mögliche Modulationsziele, die zum größten Teil bereits an anderer Stelle dieser Arbeit beschrieben und erläutert worden sind, sind in Tabelle 1 aufgeführt.

Oszillatoren

Tonhöhe

Filter

Eckfrequenz

Resonanz

Verstärker

Lautstärke

 

Hüllkurvenzeiten

Hüllkurven

Hüllkurvenpegel

 

Modulationstiefe

Niederfrequenzoszillator

Modulationsgeschwindigkeit

Stereopanorama

Position des Klanges im Stereopanorama

 

Effektanteil

Effekte

Effekttiefe

Tabelle 1: Modulationsquellen und -ziele

Eine andere Möglichkeit, das Klangbild eines Synthesizers zu verändern, ist der Einsatz von Effekten. Darunter versteht man nun nicht mehr die Änderung des Klanges an sich (Amplitude, Frequenz oder Klangfarbe), sondern den gezielten Einsatz von Verzerrungen, Filterungen oder Verzögerungen. Das kann zum Zwe- cke einer Hallimitation geschehen, einer Klangeindrucksänderung oder auch einer gezielten Frequenzbetonung. Der Klang selbst wird dabei nicht verändert, er lässt sich immer noch dem Effektsignal zumischen; deswegen spricht man bei Klängen von einem Direktanteil (der „trockene“ Klang) und einem Effektanteil.

106

Alkemper:

Effekte wurden früher mit Analoggeräten aus verschiedenen elektronischen Bau- steinen realisiert, auch hier hat jedoch inzwischen die Digitaltechnik Einzug gehalten. Dabei gibt es neben spezialisierten Effektgeräten, die nur eine begrenzte Bandbreite an Effekten anbieten (z. B. Hallgeräte) auch Multieffektgeräte, die eine Vielzahl von Effekten auf digitalem Wege realisieren. Bei Effektgeräten gibt es hinsichtlich Kosten und Qualität verschiedene Alternativen, die Preispalette reicht von 300,- DM bis zu mehreren Tausend Mark, abhängig von der Güte der er- zeugten Effekte, mithin auch von der verwendeten Hard- und Software.

Effekte werden schon seit recht langer Zeit in Synthesizer eingebaut. Analogsyn- thesizer mit nur einem Oszillator boten zur Erzeugung von Schwebungen einen Chorus an, die ersten Digitalsynthesizer der Firma Korg verfügten bereits über ein digitales Delay usw. Seit Ende der Achtziger Jahre werden Synthesizer, insbeson- dere natürlich Workstations, mit einer Reihe von digital erzeugten Effekten ausge- rüstet, deren Qualität in der Regel der eines preiswerten Multieffektgerätes ent- spricht. Dabei ist festzuhalten, dass diese Effekte autark arbeiten, d. h. wenn eine Workstation zwei Effektprozessoren aufweist, so sind diese nicht klangpro- grammgebunden, sondern arbeiten auch im multitimbralen und im Sequenzermo- dus, wodurch dann Klangprogrammen wieder andere Effekte als im Polymode (vgl. Abschnitt 1.9.2.3) zugewiesen werden können.

Hall- und Verzögerungseffekte bieten die Möglichkeit, einem Klang Räumlichkeit zu verschaffen. Ein Halleffekt tut nichts anderes, als durch Berechnung eines vir- tuellen Raumes einem Klang den Klangeindruck dieses Raumes zuzurechnen. Wichtige Parameter des Halleffektes, der auch als „Reverb“ (vom englischen ) bezeichnet wird, sind die Hallzeit, die Höhendämpfung und die Erstrefle- xionszeit. Hallzeit nennt man die Zeit, in der ein Hallsignal bei 1 kHz um 60 dB leiser wird; sie wird deswegen auch RT60 genannt (RT = ). Mit der Hö- hendämpfung kann man z. B. die Beschaffenheit der Wände nachbilden; ver- schiedene Materialien reflektieren Schall auf unterschiedliche Weise, wobei schlecht reflektierende Materialien in der Regel energieschwache (also hohe) Töne eher absorbieren als energiereiche (mithin tiefe) Töne. Die Vorverzögerung bis

107

Alkemper:

zur Erstreflexion ermöglicht die Nachbildung der Raumgeometrie sowie eines bestimmten Abstandes zwischen Hörer und Schallquelle. Nachbilden lassen sich kleinste bis größte, teilweise sogar theoretisch mögliche, in der Realität aber nicht vorkommende Räume. Ein Halleffekt ist im Grunde nichts anderes als ein Verzö- gerungseffekt, der in der Lage ist, eine ungeheuer große Menge an Verzögerungen gleichzeitig zu berechnen und auszugeben.

Verzögerungseffekte sind Effekte auf der Basis der verzögerten Wiedergabe eines Schallereignisses. Delay-Effekte, wie sie auch genannt werden, ermöglichen allerlei Anwendungen, von der Klangverfärbung bis zum Echoeffekt. Dabei spielt das Feedback (auch „Rückkopplung“ genannt) eine wichtige Rolle: Der am Eingang anliegende Schall wird zum einen verzögert ausgegeben, zum anderen aber auch – mit vermindertem Pegel – dem Eingang der Verzögerungseinheit wieder zugeführt und mit dem dort anliegenden Schallsignal gemischt. Je nach der Lautstärke des Ausgangssignals und des Lautstärkerückgangs pro Rückkopplungsdurchgang lassen sich ein bis mehrere Wiederholungen erzeugen. Manche Delay-Geräte haben eine Hold-Funktion; diese Funktion macht nichts anderes, als das Signal ohne Lautstärkeabnahme wieder auszugeben: Das Signal wird solange wiederholt, bis die Verzögerungseinheit abgeschaltet wird.

Wichtig für den Effekt der Verzögerung ist auch die Verzögerungszeit. Eine Ver- zögerungszeit im Bereich weniger Millisekunden führt zu einer Klangverfärbung, dem so genannten „ Kammfiltereffekt“ (benannt nach dem Aussehen des Fre- quenzverlaufs, der durch Überlagerung zweier identischer, zeitlich gegeneinander verschobener Signale entsteht). Bei etwas höheren Verzögerungszeiten gelangt man dann in den so genannten Haas-Bereich (zwischen 5 und 30 Millisekunden). In diesem Bereich entsteht der Höreindruck von Erstreflexionen, also eine Art Rauminformation. Ab ca. 30 – 60 Millisekunden Verzögerungszeit werden dann einzelne Wiederholungen unterscheidbar – ein Echo entsteht. Deswegen nennt man den Verzögerungseffekt – in Verkennung seiner weitergehenden Möglich- keiten – auch Echoeffekt.

108

Alkemper:

Die Modulationseffekte verdanken ihren Namen der Tatsache, dass sie scheinbar einen Eingriff in das Klangbild selbst vornehmen, und zwar durch Mittel, die an- sonsten sehr unbeliebt sind: Phasenverschiebungen oder Verunreinigung des Klanges durch zufällige Obertöne. Dabei sind Modulationseffekte teilweise sogar zum Stilmittel geworden; das E-Piano ist ohne Choruseffekt genauso wenig vor- stellbar wie die Hammondorgel ohne Verzerrer und Rotorlautsprecher.

Zur ersten Gruppe der Modulationseffekte gehören Chorus, Flanger und Phaser. Der Chorus sorgt für einen „breiten“ Klang, indem er ein Phänomen nachbildet, dass beim Anhören eines Chores auftritt: Aufgrund der Laufzeiten der Schallwel- len kommen die Gesänge der einzelnen Sänger mit unterschiedlichen Verzöge- rungen beim Zuhörer an, abhängig von seinem Abstand zu den Musikern; über- dies singen die Sänger niemals mit der exakt gleichen Tonhöhe. Diese Faktoren – und weniger die Lautheit von Musikern – ergibt des Höreindruck eines „ En- sembles“ . Der Chorus erzeugt den gleichen Effekt durch mehrfache Verzögerung des Eingangssignals zwischen 20 und 40 Millisekunden, wobei allerdings ein LFO die Verzögerungszeit ebenso wie die Tonhöhe in einem sehr engen Rahmen mo- duliert.

Ein Flanger arbeitet vom Prinzip her genau so wie ein Chorus, allerdings sind die Verzögerungszeiten des Flangers mit einer bis fünf Millisekunden wesentlich kür- zer – das Ergebnis so kurzer Verzögerungen, der Kammfiltereffekt, wurde bereits beschrieben.

Ein Phaser arbeitet auf ähnliche Art und Weise, allerdings frequenzabhängig, d. h. mit einem Allpassfilter, das zwar alle Frequenzen passieren lässt, aber sie – pro- portional zur Frequenz – in der Phase verschiebt. Mit sechs oder zwölf solcher Filter wurde in Analogphasern der „singende“ Phasing-Charakter erzeugt, heute genügt dazu ein digitales Effektgerät.

Pitchshifter arbeiten nach einer anderen Methode. Mit diesem Effekt ist es mög- lich, ein anliegendes Signal in Echtzeit um bis zu eine Oktave nach oben oder unten zu verstimmen. Das geschieht durch Sampeln des Signals und Auslesen mit

109

Alkemper:

variierender Lesegeschwindigkeit, was zu Frequenzänderungen und somit zu Tonhöhenverschiebungen führt.

In eine andere Kategorie gehören Panner und Lesliesimulatoren. Panner (oder auch „Auto-Panning“ ) ermöglichen es, ein Signal im Stereopanorama hin- und herwandern zu lassen; dieses ist insofern interessant, als eine als unbeweglich ein- geschätzte Signalquelle vom Gehirn intensiver wahrgenommen wird, wenn sie sich bewegt.

Ein Lesliesimulator ist ein Sonderfall des Panners: Die Rotorlautsprecher, die insbesondere von der Firma Leslie hergestellt wurden, waren in den Sechziger und Siebziger Jahren prägend für den Klang der Hammondorgel. Die Hochtöner dieses 2-Wege-Lautsprechers waren auf einem Rotor angebracht, der sich mit zwei verschiedenen Geschwindigkeiten drehen konnte. Die Rotation und die da- mit verbundene ständige Änderung des Schallwellenverlaufs prägte neben seinem seltsamen Aussehen diesen Lautsprecher. Deswegen wurde – besonders auch für Rock- und Poporganisten – der Leslie-Simulationseffekt ersonnen.

Zu erwähnen seien noch die Verzerrungseffekte, bei denen das anliegende Signal mit unharmonischen Teiltönen versehen wird. Diese Effekte, die in zwei Varia- tionen vorkommen – der verhältnismäßig gemäßigte und auch für Orgeln ver- wendete Overdrive- und der wesentlich drastischere Distortion-Effekt – werden insbesondere für Gitarren verwendet und sind als stilbildendes Mittel schon vor Jahrzehnten in die Rockmusik eingezogen.

Im Gegensatz zu Hall-, Verzögerungs- und Modulationseffekten dienen Dyna- mikprozessoren eher der Qualitätsverbesserung eines Klanges als der Änderung des Klanges selbst. Hiermit werden Klänge sozusagen verfeinert.

Das einfachste Beispiel eines Dynamikprozessoren ist der Equalizer. Ihn kennt man in einer sehr simplen Ausführung auch an der heimischen Stereoanlage, nämlich als Bass- und Höhenregler. Aufgabe von Equalizern ist es, bestimmte einstellbare Frequenzbereiche zu verstärken bzw. abzuschwächen; sie sind also nichts anderes als Filter. Als in Synthesizern implementierte Effekte weisen Equa-

110

Alkemper:

lizer meist drei Bänder auf, d. h. drei unterschiedliche Frequenzbereiche können wahlweise angehoben oder abgeschwächt werden: Höhen, Mitten und Bässe. Equalizer in Multieffektgeräten oder eigenständige Equalizer weisen bis zu 31 solcher Bänder auf, sodass das gesamte Frequenzspektrum sehr genau bear- beitet werden kann.

Neben Equalizern kommen nur wenige andere Dynamikprozessoren in den Ef- fektsektionen von Synthesizern vor. Hauptsächlich sind dies Expander und Li- miter, selten wird auch ein Exciter angeboten. Ein Limiter ist eine Sonderform des Kompressors; letzterer dient dazu, den Lautstärkepegel eines Signals abzu- schwächen, sobald dieser einen bestimmten Schwellwert überschreitet. Die Ab- schwächung erfolgt in einem bestimmten, als „ Ratio“ bezeichneten Verhältnis, welches beispielsweise 1:2 oder 1:4 betragen kann. Der Sinn eines Kompressors ist die Vermeidung zu großer Dynamiksprünge, vor allem bei Gesang und Natur-

instrumenten. Arbeitet ein Kompressor mit einer Ratio von 1:– kommt es also

nach Überschreiten des Schwellwertes zu keiner Lautstärkezunahme mehr –, so bezeichnet man diesen Zustand als Begrenzung oder Limiting. Damit ist die Wir- kungsweise eines Limiters klar.

Ein Exciter arbeitet ganz anders; sein Sinn liegt in einer subjektiv wahrnehmbaren „Auffrischung“ des Signals. Ausgehend von der Tatsache, dass das menschliche Gehör nicht über das gesamte Frequenzspektrum hinweg gleich gut funktioniert, wurde ein Gerät entwickelt, das ein Signal durch ausgewählte Verzerrungen und Resonanzen mit neuen Obertönen in einem bestimmten Frequenzbereich für das menschliche Gehör interessanter gestaltet. Dieses geschieht dadurch, dass dem Gehör „ bekannte“ Obertöne durch ungewohnte Harmonische ersetzt werden.

Es gibt noch weitere Dynamikprozessoren, die allerdings nicht in Synthesizern als Effekt angeboten werden und deswegen nur kurz in ihrer Funktion erklärt werden sollen:

Ein Expander ist das genaue Gegenteil eines Kompressors, er dämpft die Lautstärke eines Signals nicht, sondern vergrößert den Dynamikbereich der Lautstärke durch Abdämpfen leiser Passagen.

111

Alkemper:

Ein Noise Gate ist sozusagen eine Art „Extremexpander“ ; es hat die Auf- gabe, leise Störgeräusche wie Rauschen oder Brummen, die in jeder au- diotechnischen Anlage auftreten können, komplett zu unterdrücken.

Eine sehr neue Entwicklung sind Psychoakustikprozessoren. Diese Geräte betreiben Klangformung unter Berücksichtigung der besonderen Eigen- schaften des menschlichen Gehörs, d. h. der physikalischen Gegebenhei- ten des Ohres selbst und der Informationsverarbeitung in unserem Ge- hirn. Bestimmte Frequenzbereiche werden dynamisch angehoben oder abgeschwächt, die Phasenlage des Signals kann manipuliert werden, man- che Geräte fügen dem Signal sogar Obertöne zu; in dieser Hinsicht arbei- ten sie wie ein „intelligenter“ Exciter.

MIDI steht für „Musical Instruments Digital Interface“ (dt. „digitale Schnittstelle für Musikinstrumente“ ) und hat seit seiner Einführung im Jahr 1983 die Ent- wicklung elektronischer Musikinstrumente und auch der elektronischen Musik selbst nachhaltig beeinflusst. Es handelt sich bei MIDI um einen herstellerüber- greifenden Standard, der definiert, wie die digitale Kommunikation von Synthesi- zern und anderen Klangerzeugern untereinander sowie mit Computern und allen möglichen elektronischen Geräten, die das MIDI-Protokoll verstehen, zu erfolgen hat und wie die Hardwareschnittstelle für diese Kommunikation aufgebaut sein muss. Neben der Verbindung zweier Synthesizer auch unterschiedlicher Hersteller hat MIDI im Laufe der Zeit eine ganze Reihe weiterer Anwendungen hervorge- bracht. Die Palette reicht hier von der Ansteuerung von Synthesizern durch Computerprogramme bis hin zur Steuerung von Lichtanlagen, die synchron zur Musik erfolgt.

Heute wird praktisch kein elektronischer Klangerzeuger mehr ohne die MIDI- Schnittstelle ausgeliefert. Spätestens seit im Jahre 1985 der Atari ST-Computer erschien, der herstellerseitig mit einem MIDI-Interface ausgerüstet war, war die computergestützte Musikproduktion durch MIDI auch für den „ normalen“ Kun- den erschwinglich und ermöglichte es vielen Musikern, sich ein musikalisches

112

Alkemper:

Umfeld zu erstellen, dass unabhängig von teuren Tonstudios ein Komponieren und Produzieren ohne Zeitdruck zulässt, ohne sich gleich in Schulden stürzen zu müssen. Des weiteren lässt MIDI z. B. auch die maschinelle Erstellung von Par- tituren zu, die früher mühselig mit der Hand geschrieben werden mussten. Die Entstehung von MIDI selbst führte zur Entwicklung einer Reihe von Geräten und Computerprogrammen, die die Arbeit im so genannten MIDI-Verbund (die Verkettung mehrerer MIDI-kompatibler Geräte) unterstützen, z. B. Master- keyboards, Datenkonverter, Synchronisationsgeräte, Sequenzersoftware usw. Auch die Synthesizermodule (Expander) sind hier zu nennen, denn es war nun möglich, mit einer Tastatur des Herstellers X das Modul des Herstellers Y anzu- sprechen, ohne Kompatibilitätsprobleme befürchten zu müssen.

Auch wenn MIDI immer wieder im Mittelpunkt der Kritik stand, (siehe auch den folgenden Abschnitt), so sind doch 99 Prozent aller Anwender mit diesem Stan- dard zufrieden und sehen keinen Bedarf an einer Erweiterung des MIDI-Proto- kolls. Andererseits ist abzusehen, dass die erst in den letzten Jahren entwickelten PM-Synthesizer durch ihre immens große Anzahl an Parametern eine Datenflut verursachen, die durch eine MIDI-Schnittstelle nicht mehr bewältigt werden kann. Ansichten zu MIDI und seiner (Weiter-) Entwicklung werden im folgenden noch zu erwähnen sein.

Wie bereits erwähnt, war die Verbindung von Synthesizern zu Steuerungszwecken vor Einführung des MIDI-Standards eine äußerst komplizierte Angelegenheit. Das lag u. A. daran, dass es aus dem Konkurrenzdenken verschiedener Hersteller heraus unterschiedliche Standards für die Kontrollspannungen gab:

Mit Einführung der Digitaltechnik in den Synthesizerbereich erfolgte schon bald der Einzug digitaler Schnittstellen, wobei auch hier unterschiedliche, firmenspezi- fische Standards entwickelt wurden; so entwickelte beispielsweise die Firma

113

Alkemper:

Oberheim eine Schnittstelle auf der Grundlage des in den frühen Achtziger Jahren sehr verbreiteten Z-80-Prozessors, andere Firmen verwendeten ein der auch heute noch verbreiteten RS-232-Schnittstelle ähnliches Interface, und die Firma Roland führte den DCB-Bus ein, ein 25-Pin-Interface, das hinsichtlich der Möglichkeiten schon eine gewisse Ähnlichkeit mit der MIDI-Schnittstelle aufwies; die Erfahrun- gen, die mit dem DCB-Bus gemacht worden waren, flossen dann auch kon- sequenterweise in die Entwicklung des MIDI-Standards mit ein.

Im Jahre 1981 kam es auf der NAMM-Show (Fachmesse der amerikanischen „National Association of Music Merchants“ ) zu ersten Kontakten zwischen ver- schiedenen Herstellern. Mitarbeiter der Firmen Roland, Oberheim und Sequential Circuits entwickelten die Arbeitsversion eines Interfaces mit Namen „ Universal Synthesizer Interface“ (USI); diese Bezeichnung legt den ursprünglichen Sinn des Interfaces nahe: die Verkopplung zweier Synthesizer. An weitergehende Mög- lichkeiten wurde damals noch nicht gedacht. Als dann im Oktober 1981 die USI- Spezifikationen vorgestellt wurden, hatten sich zu den bereits genannten Herstel- lern noch die japanischen Firmen Korg, Kawai und Yamaha gesellt.

Zwar waren weitere Hersteller ebenfalls an der Entwicklung eines solchen Inter- faces interessiert und wollten sich auch an dieser beteiligen, es kam dann jedoch zu Unstimmigkeiten der verschiedenen Firmen bezüglich der Spezifikation und der technischen Ausführung der Schnittstelle, was dazu führte, dass sich nur noch die sechs bereits genannten Firmen die Entwicklung fortführten und im Oktober 1982 – nach Abgleich der Datenspezifikation – den neuen Standard unter der Bezeichnung „MIDI“ vorstellten.

Im Dezember 1982 wurde das erste MIDI-Gerät überhaupt, der -Syn- thesizer der Firma Sequential Circuits, vorgestellt, und im darauffolgenden Monat kam es dann zur (Schädel 1993:52) von MIDI, als ein mit einem von Roland gekoppelt wurde. In der Folge kam es indes zu Ungereimtheiten zwischen Produkten verschiedener Hersteller, die die Spezifikation unterschiedlich, teilweise sogar falsch interpretiert hatten. So sendet und empfängt beispielsweise der Yamaha nur 100 statt der geforderten 127 Velocity-Schritte, der Arpeggiator des Roland sendet keine Notendaten usw.

114

Alkemper:

Um solcher Inkompatibilitäten Herr zu werden, musste die MIDI-Spezifikation unter Aufsicht gestellt werden. Da keine Firma die alleinigen Rechte auf die Schnittstelle hatte, setzten sich alle Beteiligten wieder zusammen, um über diese Überwachung zu beraten. Ergebnis dieser Beratungen waren Mitte 1983 die Gründung des „Japan MIDI Standards Committee“ (JMSC) und die Publikation der MIDI-Spezifikation 1.0, das erste offizielle und verbindliche Datenblatt zum MIDI-Standard. Mit der „International MIDI Association“ (IMA) und der „ MIDI Manufacturer Association“ (MMA) bildeten sich in Amerika zwei weitere Auf- sichtsgremien, die nach einigen Jahren des Konkurrierens nun sehr eng zusam- menarbeiten.

Derartige Gremien haben es sich zum Ziel gesetzt, den MIDI-Standard zu erwei- tern und zu verfeinern, da bei Einführung des Standards bewusst viele Optionen offen gelassen worden waren. Dabei werden die Vorschläge einzelner Mitglieder beispielsweise der MMA zur Erweiterung des Standards zunächst eingehend be- raten. Gegebenenfalls werden diese dann – mit einfacher Mehrheit – verabschie- det und nachfolgend zur Beratung an die übrigen Gremien weitergereicht. Erst nach Verabschiedung durch alle Gremien wird der Vorschlag dann in die MIDI- Spezifikation aufgenommen. Dabei sind zwei unterschiedliche Bewertungskatego- rien zu unterscheiden:

1. Diese Kategorie wird Vorschlägen zugewiesen, die mehrheitlich von allen Seiten angenommen worden sind, z. B. der verbindlichen Festlegung einer vorher nicht definierten Nach- richt;

2. In diese Kategorie fallen mehrheitlich empfohlene Neuheiten oder Verfeinerungen; diese sind jedoch nicht ver- bindlich. Als Beispiel mag hier der GM-Standard dienen: Der Standard an sich ist zwar verbindlich (Reihenfolge der Klangprogramme, Belegung verschiedener Controller etc.), er muss jedoch nicht in jedem Klangerzeu- ger implementiert sein.

115

Alkemper:

Auf diese Weise wurden im Laufe der Zeit eine Reihe neuer und wichtiger Ergän- zungen zum MIDI-Protokoll gemacht. Einige sollen hier genannt werden 9 :

März 1987:

Mai 1987:

Dezember 1988:

April 1990:

Juli 1991:

Oktober 1991:

Dezember 1991:

Januar 1992 :

Einführung des „MIDI Time Code“ (MTC)

Einführung des

„Sample Dump Standard“

Definition des Befehls zum Zurücksetzen aller Controller

Definition des Befehls „All Sounds Off“

Einführung

Spezifikation

des

für Standard-MIDI-Files

„MIDI

Show

Control“

und

Spezifikation des „General MIDI- (GM-) Stan- dards“

Einführung des „Microtuning“

Spezifikation der „MIDI Machine Control“

Es ist immer wieder Kritik an MIDI geäußert worden, insbesondere wegen der vermeintlich zu langsamen Übertragungsgeschwindigkeit, die die Entscheidung für eine serielle Schnittstelle zur Folge hatte. Das Geschwindigkeitsproblem liegt allerdings weniger an der Spezifikation der Schnittstelle selbst als an der Tatsache, dass zahlreiche Klangerzeuger die ankommenden MIDI-Daten zu langsam verar- beiten, wodurch sich teils hörbare Verzögerungen bei der Tonauslösung ergeben. Außerdem wird der Umfang des möglichen Wehrbereichs durch die Hersteller ignoriert (siehe auch Abschnitt 1.9.2.2). MIDI-Daten lassen sich im Verbund mit anderen Daten problemlos über große Entfernungen verschicken und können per ISDN-Leitung sogar in Echtzeit übertragen werden (Zeitverzug über eine Strecke von 1200 km etwa 2 – 3 Millisekunden