Beruflich Dokumente
Kultur Dokumente
08
Der Musikcomputer
eine musikalische Universalmaschine
oder:
Gliederung
Ich addiere
Und subtrahiere
kontrolliere
Und komponiere
"Alles ist Zahl", sagten die Pythagoräer und sie versuchten die musiktheoretischen
Grundlagen mit mathematisch-logischen Beziehungen zu beschreiben, weshalb die
Musikwissenschaft als scientia mathematica mit der Arithmetik, der Geometrie und
der Astronomie zum quadrivium der ersten Wissenschaften gehört.
Warum die Musikwissenschaft, die sich mit vielen physikalischen Objekten und
Funktionalitäten befaßt, z.B. Instrumentenakustik, Raumakustik, mit physiologischen
Vorgängen und psychologischen Phänomenen (z.B. beim Hören und Spielen), mit
informatischen und medientechnologischen Fragestellungen, heute als
Geisteswissenschaft zählt, kann ich mit historischen Gründen erklären, warum
dagegen die Mathematik, die sich ausschließlich mit logischen Symbolen beschäftigt,
die sich durch deduktive Methoden und einem axiomatischen Aufbau abstrakter
Strukturen auszeichnet, heute zu den Naturwissenschaften gehört, weiß ich nicht.
Ursprünglich war der Computer nur eine Art Rechenknecht, z.B. für
Tabellenkalkulationen, später konnte er eben auch Texte verarbeiten, dann Graphiken,
wie z.B. Noten, und Sounds, letzten Endes alles, was sich irgendwie in Symbolen und
Zahlen ausdrücken bzw. codieren läßt.
Heute kann man ihn als multifunktionale und omnipräsente Denkmaschine betrachten,
wenn man mit Denken nur den softwarebasierten Umgang mit Informationen aller
Art meint. Und mit geeigneter Soundkarte und musikspezifischen Interfaces wird aus
ihm ein omnipotentes Musikinstrument. Und sogar Taschenrechner können Musik
erzeugen, wie die deutsche Elektronikformation Kraftwerk schon in den 80er Jahren
wußte.
"Alles ist Zahl", sagten die Pythagoräer - eine Gruppe von naturwissenschaftlich
geprägten Denkern, gleichermaßen Philosophen, Mathematiker, Musikwissenschaftler
und Politiker. Sie schätzten die Musik als Teil einer auf allgemein gültigen
Zahlengesetzlichkeiten (= logos) beruhenden (organischen wie anorganischen)
Weltordnung, deren harmonikale Struktur sich mit Hilfe eines einfachen Monochords,
also einer über einem Resonanzkasten aufgespannten, klingenden Saite, hörbar,
sinnfällig, also unmittelbar erfahrbar machen läßt. Das Monochord war hier kein
Musik- sondern ein Meßinstrument.
Weil Intervalle identisch mit Zahlenverhältnissen sind, geschieht dabei nichts anderes,
"als daß eine intellektuell erfaßbare Zahlenquantität in eine seelisch erlebbare
Sinnesqualität verwandelt wird", wie es ein zeitgenössischer Vertreter des
harmonikalen Pythagorismus ausdrückt. Für das pythagoräische Denken ist ein
Zahlenverhältnis und das entsprechende musikalisches Intervall ein und dasselbe. Es
ist nur folgerichtig, wenn die Welt des Klangs genau nach den gleichen harmonischen
Prinzipien aufgebaut ist wie die Gesetze der Physik, der Astronomie und der
Mathematik - und umgekehrt. "Alles ist Zahl", so lautet die Quintessenz. Die
Sphärenmusik der pythagoräischen Schule ist real, denn gemeint ist tatsächlich, daß
im Weltall Musik erklingt, hervorgerufen durch die naturgesetzlich geordneten
Bahnen der Himmelskörper. Die Musik dient vorrangig zur wissenschaftlichen
Erfassung dieser Weltordnung, ihr Wert als ästhetisch-sinnfällige Kunst ist eher
zweitrangig.
Klangbeispiel (pyt_komma.wav)
Mit anderen Worten: für die Konstruktion pythagoräisch rein gestimmter Instrumente
ergeben sich für Instrumentenbauer und Instrumentalisten kaum zu bewältigenden
Schwierigkeiten beim Spielen von Tönen wie his und c, fis und ges, gis und as, deren
Frequenzen zwar sehr dicht beieinander liegen, aber dennoch eigene Tasten benötigen
würden. Enharmonische Umdeutungen dieser Töne, die in der temperierten Stimmung
auf gleicher Taste liegen, zu Modulationszwecken waren ausgeschlossen und die
Komponisten vermieden überhaupt Tonarten, die sich von den rein klingenden
Haupttonarten (also etwa C, G, D, F, B) zu weit entfernten.
Die von dem berühmten Orgelbauer Gottfried Silbermann (1683-1753) und anderen
wegen der in der Musikentwicklung immer wichtiger werdenden Terz bevorzugte
mitteltönige Stimmung geht zum Beispiel von reinen Terzen aus, denn in der
Musikpraxis hatte sich ihr Wohlklang trotz der pythagoräischen Einstufung als
Dissonanz durchgesetzt, obwohl man eigenartigerweise theoretisch an der Tetraktys
des Pythagoras festhielt. Aber das Stimmungsproblem bleibt auch hier bestehen.
Erst die von Arnold Schönberg 1925 aufgestellte Zwölftontheorie verzichtet völlig auf
intervallqualitative Unterschiede dieser Art. Es gibt kein tonales Bezugssystem mehr,
was die verschiedenen Intervallqualitäten sowie Konsonanz-Dissonanz-Unterschiede
festigen würde. Die Zwölftonmusik basiert nicht nur melodisch und harmonisch,
sondern auch funktionslogisch / musiktheoretisch vollständig auf dem letztlich
mathematisch-technisch begründeten System gleichstufig-temperierter Frequenzen,
sozusagen auf den Tasten einer Klaviatur, die funktionale Differenz verschieden
abgeleiteter Ton- und Intervallqualitäten wird ignoriert, vermutlich ein Grund dafür,
daß sie keiner hören will.
Mit zunehmendem Wissen über die Musik, mit ständig steigender Bedeutung der
Musik für kulturelle Handlungen und der wachsenden Notwendigkeit gemeinsamer
musikalischer Aktionen in einer Gruppe, zum Beispiel beim chorischen
Kirchengesang, verstärkte sich zugleich der Wunsch nach genauerer Festlegung der
musikalischen Aktionen. Töne wurden zum Beispiel bei den Griechen durch
alphabetische Zeichen bestimmt, ein System, das sich über den Generalbass und den
Akkordsymbolen im Jazz (zum Beispiel:. A7/9 für einen Septnonakkord in A-Dur) bis
heute in verschiedenen Formen bewährt hat, im 9. Jahrhundert wurden
Tonhöhenverläufe durch Neumen (griech. neuma, der Wink) mehr oder weniger
genau angezeigt, das sind Notenzeichen, die aus gestischen, heute noch beim Dirigat
von Laienchören gebräuchlichen, Handbewegungen entstanden sind und im
Mittelalter zur groben Fixierung von einstimmigen Choralmelodien dienten, ohne
dass Intervallgrößen oder Notenwerte exakt aufgezeichnet werden konnten.
Der Benediktinermönch Guido von Arezzo (ca. 991–1033) schuf um 1025 die
Grundlagen für die heutige, weltweit verbreitete Notenschrift mit fünf Linien und
Schlüsseln, so daß eine exakte Fixierung von musikalisch relevanten Tonhöhen
möglich wurde. Mit diesem Schritt wird eine Rasterung des akustischen Tonraums
vorgenommen: Aus dem akustischen Frequenzkontinuum werden diskrete Tonorte
gemäß einem Tonsystem ausgewählt und bezeichnet. Musikalische Klangbewegungen
werden damit zumindest auf dem Papier in vertikaler Ausrichtung stufenförmig
geordnet, also digitalisiert (von lat. digitus, der Finger), das heißt zählbar und klar
unterscheidbar gemacht.
Teilweise werden aber auch neue Notencodes notwendig, um eine Verarbeitung mit
Computern zu bewerkstelligen. Der Anfang der 1970er Jahre entwickelte Plaine and Easy
Code (PEC) ´zerlegt die verschiedenen Notenparameter, wie Stammton, Versetzungszeichen,
Oktave, Notenwert usw., welche in der konventionellen Notenschrift durch variierende
graphische Informationen und vertikale Anordnungen quasi in einem Symbol verschmelzen,
in separate Zeichenfolgen.
Schon für den Bau antiker Theater nutzte man die Erkenntnis, dass der Schall sich in
der Luft kugelförmig ausbreitet, weshalb die kreisförmig angelegten Amphitheater
erstaunlich gute akustische Verhältnisse bieten. Galileo Galilei (1564–1642) und
Marin Mersenne (1588–1648) entdeckten um 1600 herum den Zusammenhang
zwischen Tonhöhe und Schwingungszahl, Isaac Newton (1643–1727) beschrieb die
physikalischen Grundlagen für die wellenförmige Ausbreitung des Schalls in
elastischen Medien, 1636 bestimmte Mersenne die Schallgeschwindigkeit. Joseph
Sauveur (1653–1716) beschrieb etwas später erstmals die Obertonstruktur einer
schwingenden Saite und 1819 konstruierte Charles Cagniard de la Tour (1777–1859)
die Lochsirene zur Bestimmung der Frequenz von Tönen.
Der alte Pythagoras wäre nicht erstaunt gewesen, wenn er noch erfahren hätte, dass
sich auch die auf die Klangfarbe eines Tons auswirkende Schwingungsform eines
musikalisch verwendbaren Klangs durch einfache Proportionen ganzer Zahlen
darstellen läßt. Der französische Mathematiker Jean Baptiste Joseph Fourier (1768–
1830) formulierte das Theorem, daß jede noch so komplizierte periodische
Schwingung als Resultat einer Summe von sinusförmigen Teilschwingungen
dargestellt werden kann. Musikalisch wird allgemein zwischen einer
Grundtonschwingung, die normalerweise den Tonhöheneindruck hervorruft, und den
Obertönen, die klangfarbenbestimmend sind, unterschieden.
Soll das Klangspektrum eines Tons vollständig beschrieben oder mit Hilfe
elektronischer Klangerzeuger synthetisiert werden, dann gilt es, die Frequenzen und
die Amplituden(verläufe) jeder einzelnen Teilschwingung nach der gegebenen Formel
numerisch zu bestimmen (Fourieranalyse) beziehungsweise zu addieren (additive
Klangsynthese). Jedes Musikinstrument weist eine charakteristische Obertonstruktur
auf, die seine Klangfarbe unverwechselbar macht. Mit geeigneten Algorithmen
können harmonische Klangsignale heute mit digitalen Systemen sehr rasch analysiert
oder synthetisiert werden.
additive Klangsynthese
Die Frequenzen der Obertöne sind ganze Vielfache der Frequenz des Grundtons. Sie
stehen im Verhältnis 1 : 2 : 3 : 4 (und so weiter), entsprechen also exakt den reinen
Intervallen, die die alten Griechen durch Teilung der Monochordsaiten ermittelten.
Die Obertonreihe eines musikalisch verwendbaren Tons (also einer periodischen
Schwingung) läßt sich damit auch über die musikalischen Intervalle beschreiben:
Bereits im 17. Jahrhundert wuchs die Überzeugung, dass Musik die Kunst geschickter
Zahlenordnungen ist. Als einen der frühesten Überlieferungen dieser Art gilt die Arca
Musarithmica, eine mechanische Komponiermaschine, die in der 1650 gedruckten
Musurgia Universalis des Jesuitenpater und Musikgelehrten Athanasius Kircher
erwähnt wurde. Kircher war überzeugt davon, daß musikalische Vorgänge vollständig
auf einem zu ergründenden Regelsystem beruhen: "Musica nihil aliud est quam
ordinem scire." (Musik ist nichts anderes, als die Regel zu kennen.)
Lejaren A. HILLER und Leonard ISAACSON übertrugen in den 50er Jahre des 19.
Jh. die anhand von thermodynamisch gewonnenen Zustandsbeschreibungen
chemischer Prozesse mittels informationstheoretischer Umsetzung, u.a. mit sog,.
Markov-Ketten, einfach auf musikalische Strukturen; daneben dienten auch andere
Regeln, die bei der Analyse historischer Stile auf informationstheoretischem Wege
gefunden wurden als Grundlage für die komponierenden Programmroutinen. Als
Resultat der Bemühungen entstand die berühmte 21-minütige ILLIAC-Suite, benannt
nach dem Computersystem der Universität in Illinois. Es handelte sich um eine Suite
für Streichquartett, bestimmt also für die Aufführung mit traditionellen Instrumenten,
nicht etwa für eine elektronische Realisation, wie man meinen könnte.
Es ist also durchaus wahrscheinlich, daß der Rechner nach einiger Zeit eine Melodie
ausstoßen würde, die durch eine mehrfachen Wiederholung einer Tonstufe
charakterisiert wäre; es ist aber höchst unwahrscheinlich, das zu Lebzeiten des
geduldig harrenden Musikers daraus so etwas entstünde wie das Anfangsthema von
Franz Schuberts Lied: "Der Tod und das Mädchen", das ausgerechnet durch eine
derartige Tonrepetition, nämlich durch eine 16fache Wiederholung des Tons d
gekennzeichnet ist, allerdings mit einer bemerkenswerten harmonischen Folge, die
der Computer zusätzlich noch errechnen müßte.
Musikbeispiel:16fache Wiederholung des Tons d, Thema des Todes (Der Tod und
das Mädchen, Liedfassung, Schubert)
Aus eigener 'Kraft' käme der Computer also nicht zu brauchbaren Ergebnissen. Er
benötigt bestimmte Regeln, die nur der musikalisch empfindende Mensch ihm
vorgeben kann. Mit anderen Worten: der Einbau von Regeln in einen
computergesteuerten Kompositionsprozeß erfordert die menschliche Vorgabe,
benötigt die Kenntnis musikalisch sinnvoller Bezugssysteme und erhöht
logischerweise den Anteil des Menschen am Kompositionsergebnis.
Beliebt sind fraktalgeometrische Formeln, wie z.B. die auch für graphische
Transformationen gerne benutzten Mandelbrot-Mengen, mit den Apfelmännchen und
Seepferdchen. Obwohl man für eine musikalische Struktur die geometrisch-flächige
Ausgabe in eine geeignete vertikal nach Tonhöhen aufgelöste serielle Abfolge
konvertieren muß, entstehen durch die repetierenden Algorithmen musikalische
Loops, also z.T. sinnvoll klingende melodische Schleifen und ostinate, aber leicht
variierende Sequenzen, so daß die resultierende Musik an amerikanische minimal
music erinnert und sich auch gut für popmusikalische Arrangements eignet.
Ich spiele ein kurzes Klangbeispiel an, das unsere Studenten im Studio entstehen
ließen.
Brüggemann / Fischer: aus Rhapsodie fraktal, 2007
Kommen wir zu einem weiteren wichtigen Einsatzgebiet des Computers in der Musik,
dem Gegenstück zur Computerkomposition, nämlich zur Computerunterstützten
Musikanalyse. Hier dient der Computer zur Analyse von musikalischen Strukturen,
er soll in mancher Hinsicht den analysierenden Zugriff des Musikwissenschaftlers auf
die musiktheoretischen Grundlagen von Musik simulieren, vielleicht gar ersetzen,
eine Aufgabe, die im Grunde genommen noch komplizierter als die
computerunterstützte Komposition ist, denn bei einer Computerkomposition kommt
immer etwas Hörbares, wenn auch vielleicht nichts Hörenswertes heraus.
Bei einer automatischen Analyse ist es jedoch unumgänglich, daß der Rechner exakte
Angaben über die aufzufindenden Strukturelemente zuvor erhält. Ein
Analyseprogramm, das selbständig eine umfassende Formenanalyse nebst
überzeugender Interpretation abliefert, ist zur Zeit noch undenkbar und angesichts der
schwer zu beschreibenden musikalischen Begriffskategorien, die eher intuitiv
angewendet werden und auf individuell oder im gesellschaftlichen Konsens
entstandenen ästhetischen Empfindungen beruhen, auch schwer vorstellbar.
Ein Teilbereich der musikalischen Analyse kann jedoch mathematisch relativ exakt
definiert werden, so daß der Computer tatsächlich wichtige Informationen liefern
kann, vor allem dann, wenn es um die Erfassung großer Musikdatenbestände geht.
Interessanter sind jedoch die Versuche, per Programm hörbare oder auch
nicht-hörbare Ähnlichkeiten von Melodiemustern herauszufinden. Zwar existiert
keine allgemeingültige Definition dessen, was man unter Ähnlichkeit und erst recht
unter musikalischer Ähnlichkeit zu verstehen hat, da hier die subjektive Empfindung
eine entscheidende Rolle spielt, aber gewisse, für viele Anwendungszwecke praktisch
anwendbare Regeln sind doch aufstellbar.
Abbildung aus dem Computerkolleg Musik - Gehörbildung, ein Lernprogramm aus Osnabrück, das
musikalische Eingaben mit Vorgaben aus einer Datenbank über melodische Ähnlichkeiten vergleicht
und auswertet
6. Digitalisierung: MIDI, Controlling, Interfaces
Eine weitere Aufgabe, die man dem Computer übertragen kann, ist das automatische
Steuern von Musikinstrumenten, so daß diese zu Musikautomaten umfunktioniert
werden. Dazu ist es notwendig, musikalische Informationen über zu spielende
Tonhöhen, Notenwerte und Lautstärkegrade von einem steuernden zu einem
empfangenden Gerät übertragen zu können.
Für einen Computerfachmann ist es beispielsweise völlig normal, daß Daten zwischen
zwei Geräten, z.B. zwischen Computer und Diskettenlaufwerk, übertragen werden
können, denn dieser Vorgang ist die unbedingte Voraussetzung für die Flexibilität und
Leistungsfähigkeit eines Systems. Für Musiker war es zunächst kaum vorstellbar, daß
elektronische Musikinstrumente sich gegenseitig beeinflussen können. Lediglich die
automatische Steuerung von Musikinstrumenten ist schon früher realisiert worden;
man denke z.B. an die großen Jahrmarktsorgeln (Orchestrions) mit den selbständig
pfeifenden und trommelnden Musikaggregaten.
Dies änderte sich radikal mit der Einführung der international genormten
MIDI-Technik im Jahre 1981. M I D I ist die Abkürzung von MUSICAL
INSTRUMENT DIGITAL INTERFACE, zu deutsch: Digitale Schnittstelle für
Musikinstrumente; es handelt sich um ein international genormtes Verfahren zur
Datenübertragung, d.h., die in einem Musikinstrument anfallenden Daten, also
Informationen über die auf einer Tastatur gespielten Tonhöhen, können in Form
digitaler Codes anderen Instrumenten oder einem Computer übermittelt werden und
diesen entsprechend steuern. Man wollte einfach die vielen Synthesizer durch eine
Klaviatur ersetzen, die dann diverse Soundmodule steuert.
Erstmals in der Geschichte des Musikinstruments konnte man also Instrumente und
Geräte miteinander vernetzen, um musikalischen Informationen, auszutauschen, ein
Vorgang, der für den Musiker ungewohnte Perspektiven bereithält.
Der Computer steuert exakt das gesamte angeschlossene Instrumentarium, so daß
jedes Musikinstrument in einen perfekten Musikautomaten verwandelt wird.
Da die gespeicherten Daten normalerweise am Computerbildschirm auch in
vielfältigster Weise manipuliert werden können, etwa indem Melodieteile umgekehrt
werden, damit sie rückwärts, im Krebsgang, zu hören sind, oder Fehler ausgemerzt
bzw. neue Töne hinzugefügt werden können, besteht grundsätzlich die Möglichkeit,
komplette Kompositionen gleich am Bildschirm zu entwerfen. In diesem Fall wird das
Sequencerprogramm als Composer genutzt, d.h. die Musikdaten werden nicht
Typische MIDI-Konfiguration
eingespielt, sondern die Töne werden einzeln über die Computertastatur eingegeben,
eine echte Chance für pianistisch unbegabte Komponisten und Arrangeure.
Heute ist MIDI praktisch in jedem PC eingebaut, mit der Soundkarte verfügbar, MIDI
ist ähnlich wie MP3 ein standardisiertes Datenformat, das aus der Musiktechnologie
allgegenwärtig in die allgemeine Computertechnologie übernommen wurde.
MIDI-Messages
Das berühmte "königliche" Thema des "Musikalischen Opfers" von J. S. Bach in drei
Der Musikcomputer kann hierbei stellvertretend für das gesamte digitale audio- und
musiktechnologische Instrumentarium stehen, denn er repräsentiert im Grunde
sämtliche Aspekte der Klanggestaltung mit Hilfe elektronischer Klanggeräte.
Der Computer ist theoretisch in der Lage, beliebige Klangstrukturen erzeugen, jede
der in den aktuellen Synthesizern verwendeten Klangsyntheseformen stehen dem
Computer mit einem geeigneten Programm offen. Es ist z.B. gleichgültig, ob man
Obertonstrukturen additiv aus Sinuskomponenten zusammensetzen möchte oder
Klänge durch die vielseitigen Formen der Modulation von Schwingungen, z.B. der
beliebten Frequenzmodulation, erzeugen will; es genügt, die entsprechenden
mathematische Formel in ein Programm einzusetzen und die Berechnung des Klangs
kann beginnen, wenn Hard- und Software es erlauben, sogar in Echtzeit, d.h., der
Klang steht sofort für musikalische Zwecke zu Verfügung.
Ein Qualitätsmerkmal vieler Synthesizer ist der Grad der klanglichen Nachbildung
originaler Instrumente, obwohl die Schaffung und musikalische Auswertung neuer
Klangstrukturen und ihre ungewöhnliche Manipulation eigentlich interessanter sein
müßten.
Der Musikcomputer verändert aber auch Klänge, indem er beispielsweise als Filter
oder Echogerät oder als Transposer arbeitet. Auch hierzu muß lediglich ein
entsprechendes Programm erstellt werden, was die notwendigen Berechnungen
veranlaßt. Natürlich gibt es hier unterschiedliche Schwierigkeitsgrade bei der
Bewältigung einer derartigen Aufgabenstellung, z.B. ist sehr viel aufwendiger die
komplizierten akustischen Bedingungen eines hallenden Raums, also die Funktion
eines Hallgeräts, für die Klangberechnung zu berücksichtigen, als etwa ein
künstliches Echo zu erzeugen.
Neben der Digitalisierung und Globalisierung dürfte sich als eine der wichtigsten
computertechnischen Neuerungen die erweiterten Möglichkeiten der Modellbildung
bis hin zu virtuellen Realität erweisen. Virtualität meint eine gedachte oder über ihre
Eigenschaften konkretisierte Sache, also ein Gegenstand, ein Prozeß, eine Miniwelt,
die zwar nicht physisch, aber doch in ihrer Funktionalität oder Wirkung vorhanden ist.
Claude Cadoz, ein franz. Komponist (Virtuelle Realität, 1998) erklärt die Virtualität
als "integrale Repräsentation". Repräsentation einfach als "Wieder-Darstellung". In
der virtuellen Realität wird also das Wesentliche einer Erscheinung, eines Dinges,
erneut dargestellt. Das geht mit ganzen Welten, wie das sehr populär z.B. in
Computerspielen wie Second Life der Fall ist, in denen man einen visuellen (durch
ein Fenster, das reicht schon) und einen auditiven Eindruck der fiktiven Landschaft
bekommt. Der (noch) fehlende Tastsinn, die Haptik ist für die Spielfreude der meisten
User offenbar noch nicht wichtig, für virtuelle Instrumente aber immer schon ein
wesentlicher Faktor.
Virtuelle Instrumente stellen nach der Definition oben die Essenz eines
Musikinstrumentes dar, erneut dargestellt im Medium Computer. Das Wesentliche
eines Instruments ist offenbar sein Klang, denn dies ist ja das, was virtuelle
Instrumente liefern.
Hier werden große Anstrengungen unternommen, z.B. über die exakte algorithmische
Nachbildung der Klangerzeugungsvorgänge, etwa beim Physical Modelling.
a) multifunktionales Musikinstrument
- Klangsteuerung (MIDI-Sequencing)
- Klangveränderung (Sound Processing)
- Klangsspeicherung (Sound Sampling)
- Klangerzeugung (Sound Synthesizing)
b) musikalisches Werkzeug
- Kompositionsprogramm (Composing)
- Analyseprogramm (Music Analysis)
- Notendruck (Score Printing)
- virtuelles Tonstudio (Production, Audio Mixing)
c) musikspezifische Informationsquelle
- multimediale Präsentation von Wissen (Musiklexikon, Musik mit Hintergrundinformationen usw.)
- interaktives Spielzeug (Simulation von musikalischen Situationen oder Geräten, Quiz, Adventure)
- interaktive Musiklernprogramme (Music Teaching & Learning)
- netzbasierter Wissens- und Kommunikationsserver (Telelearning, virtuelles Musikkonservatorium)
d) als flexibles audiovisuelles Wiedergabegerät
- Recording, Editing, Playing (Aufnahme, Bearbeitung und Wiedergabe von Musik, Geräusch,
Sprache, Video)
- Audiovisueller Server (Basiscomputer für Radio- und TV-Sendungen per Internet
- Datenbank für Klänge, Musik (wav, MP3 usw.), Score- und MIDI-Dateien, Videos, Animationen
usw. //
Musik im Prozeß der Produktion, Interpretation, Reproduktion und Rezeption - in jedem Bereich
werden heute Computer eingesetzt
10. Schlußwort
Mathematik ist Musik für den Verstand, Musik ist Mathematik für die Seele.
Akzeptiert man die Einstufung des multifunktionalen Computers als Brennpunkt der
musikspezifischen Digitalisierung von Geräten der Instrumental- und Audiotechnik,
der Globalisierung von musikalischen Kommunikationsstrukturen (Datenvernetzung
per Internet) und Virtualisierung von musikalischen Prozessen (Simulation,
Emulation, Modellbildung), dann läßt sich ohne weiteres die These des Schweizer
Musikwissenschaftlers und Mathematikers Guerino Mazzola nachvollziehen:
"...daß von allen klassischen Künsten - und wohl auch von den neuen multimedialen
Derivaten - die Musik und ihre Wissenschaft am meisten der Wissensgesellschaft des
Informationszeitalters einverleibt worden ist. Dies liegt sicher an der Abstraktheit
musikalischer Konstruktion, aber auch daran, daß die Klangsynthese durch digitale
Medien bis hin zur Simulation realer traditioneller Instrumente die Wirklichkeit
musikalischer Werke massiv zu virtualisieren vermocht hat."
Sein Landsmann und Kollege Pierre Barbaud, ein Komponist, der mit Computern
komponierte, hielt wacker dagegen und meinte:
"Niemals kann ein noch so genialer Mensch eine elektronische Maschine
ersetzen."
Nun ist die Kognitionswissenschaft dem menschlichen Denken und der Emotion auf
der Spur, das Bewußtsein arbeitet im 3-Sekundentakt, dem sich sowohl der Vers eines
Gedichtes als auch ein musikalisches Motiv unterzuordnen hat. Vielleicht läßt sich
das menschlichen Denken und Fühlen eines Tages doch mathematisch beschreiben
Schließlich sei noch auf das aktuelle, allerdings noch kontrovers diskutierte Konzept
der Superstringtheorie verwiesen, mit deren Hilfe man Quantentheorie und
Gravitation unter einen Hut zu bringen hofft. Dabei werden Elementarteilchen als
schwingende Saiten (= string) (sic!) angesehen, deren Schwingungsanregungen,
Akkorde, Harmonien etc. nichts Geringeres als ein schlüssiges Konzept der gesamten
Welt liefern sollen.
"Alles ist Zahl", sagten die Pythagoräer. Sie hatten ein anderes Weltbild und sie
hatten keine Computer, aber in einem gewissen Sinne behielten sie recht.