Sie sind auf Seite 1von 62
Jahresarbeit zum Abschluss der 12.Klasse an der Freien Waldorfschule Freiburg-Rieselfeld vorgelegt von Pascal Kuri Im

Jahresarbeit zum Abschluss der 12.Klasse

an der

Freien Waldorfschule Freiburg-Rieselfeld

vorgelegt von

Pascal Kuri

Im Schuljahr 2013/2014

Einführung 2 Warum „elektronische Musik, warum nicht „Computermusik“? 4 Mein Weg zur elektronischen

Einführung

2

Warum „elektronische Musik, warum nicht „Computermusik“?

4

Mein Weg zur elektronischen Musik

6

8

Elektronische Musik Aufbau der Töne und Klänge

8

Technische Errungenschaften: Geschichte der elektronischen Musik

12

17

Was ist FL Studio? Pattern

19

Das Piano Roll

22

Die Playlist

24

Was ist ein Sample und was ein Loop?

26

Oszillatoren

28

LFO (Low Frequenzy Oscillator)

32

VST Plugins

33

Der Mixer

35

Was sind Automation Clips?

39

Edit Events

40

Welches Equipment wird wirklich benötigt?

41

Von der Idee zum fertigen Lied

44

Schluss

50

Glossar

52

Quellenverzeichnis

59

„Elektronische Musik“, dieser Begriff wird häufig missverstanden. Die Vorstellung, elektronische Musik bestünde nur

„Elektronische Musik“, dieser Begriff wird häufig missverstanden. Die Vorstellung, elektronische Musik bestünde nur aus Techno, House, Dance oder Elektro, ist weit verbreitet. Da diese nun wirklich recht spezielle, wenn auch inzwischen weit verbreitete Musikrichtungen sind, kann leicht die Vorstellung aufkommen, sie allein repräsentierten elektronische Musik. Mittlerweile haben sie ihren festen Platz in der Vielfalt der Musikrichtungen gefunden und verdienen, wie ich finde, durchaus ihre Beachtung und sollten genau so geschätzt werden, wie etwa Jazz, Rock oder Klassik.

In der elektronischen Musik gibt es unzählige Genres mit ihren Subgenres, wie Trip- Hop, Psychedelic Ambient, Chiptune, Breakbeat, Lo-Fi oder Glitch Hop, die sich alle durch charakteristische Merkmale unterscheiden. Lo-Fi ist zum Beispiel eine spezielle Musikrichtung, in der oft das Krakeln von Schallplattennadeln benutzt wird, dabei werden Sounds verwendet die übersteuert oder Beats die verzerrt sein können. Oft sind Geigen oder Gitarren dabei. Ein wenig kann Lo-Fi als Hip-Hop mit dreckigeren Beats und verzerrteren Sounds ohne Text betrachtet werden. Häufig werden auch Filme oder Menschen zitiert. Der Begriff Lo-Fi stammt von Low Fidelity und beschreibt schlechte Aufnahmen, das Gegenteil von Hi-Fi, also High-Fidelity.

Diese unterschiedlichen Genres sind den Wenigsten bekannt. Dubstep, Drum & Bass oder Elektro Swing kennt man eher. Ihre Subgenres jedoch, wie Jump-Up, Darkstep oder intelligent Drum & Bass sind der Masse wieder völlig fremd.

Natürlich sind Vorurteile diesen speziellen Musikstilen gegenüber nicht völlig grundlos. Elektronische Musik ist, ein wenig wie das Internet, noch relativ neu. Für die ältere Generation ist es oftmals schwer, sich vorzustellen, wie diese Musik zustande kommt. Auch sind ihnen die neuartigen Klänge fremd. Hinzu kommt, dass ein Großteil der Charts, also der bekanntesten und erfolgreichsten Songs, fast

ausschließlich am Computer entstanden ist. Bekanntlich bestehen diese aktuellen Charts aus einfachsten Melodien und Rhythmen. Die ästhetische Vielfalt und der Reichtum, der durch Synthesizer erzeugten Klänge und der elektronischen Musik, bleiben damit verborgen. Eine grundsätzliche Abneigung entspringt, meiner Meinung nach, aus Unkenntnis und Unwissenheit.

Eine weitere Unsicherheit bringen die Begriffe „elektroakustische Musik“, „Computermusik“ und „elektronische Musik“. Welcher dieser Begriffe beschreibt nun das Komponieren und Vertonen von Musik am Computer?

Die elektroakustische Musik ist eine Art Spielerei mit den Möglichkeiten der elektronischen Klangerzeugung und der Bearbeitung von akustischen Eindrücken. Es werden beispielsweise Aufnahmen von Zügen mit Schritten im Schnee vermischt und elektronisch verzerrt. Nur für die Wenigsten ist diese Musik wirklich hörenswert und auch ich zähle mich nicht zu jenen. Zu sehr entsteht der Eindruck, Industrielärm in seiner unangenehmsten Form würde zu Kunst erhoben werden. Wer bereits elektronische Musik als Lärm empfindet, sollte sich von der elektroakustischen Musik also unbedingt fernhalten, um dadurch in seinem Vorurteil, gegenüber elektronischer Musik nicht noch Bestätigung zu finden.

Die elektronische Musik beschreibt Klänge, die mit elektronischen Instrumenten oder Klangerzeugern erzeugt werden und keine herkömmlichen akustischen Instrumente verwendet. Auch das Komponieren am Computer könnte also dazugehören. Tatsächlich entwickelte sich daraus der Begriff „Computermusik“. Dieser wird sogar auf Wikipedia umfassend beschrieben. Elektronische Musik ist also nur ein Überbegriff für, unter Anderem, meine Art des Musizierens am Computer.

Der Begriff „Computermusik“ ist den Wenigsten bekannt und dürfte einige sogar abschrecken. Auch habe ich

Der Begriff „Computermusik“ ist den Wenigsten bekannt und dürfte einige sogar abschrecken. Auch habe ich das Gefühl, dass Computermusik ein wenig komisch und nach etwas ganz anderen klingt, als es wirklich ist. Bei Computermusik fehlt der Bezug zum Komponisten im Begriff. Es entsteht der Eindruck, man habe auf einen Knopf gedrückt, und der Computer habe direkt ein Ergebnis, ein fertiges Lied, ausgespuckt. Auch kommt das Gefühl auf, der Computer sei das Instrument. Das ist nicht der Fall. Da die Instrumente virtuell sind, kann der Computer oder ein Keyboard mit dem virtuellen Instrument funktionieren, wie die Finger oder der Bogen mit einem üblichen akustischen Instrument, als eine Art Medium.

Das Vorurteil, „auf ein paar Knöpfe drücken und fertig“, ist der größte Feind eines elektronischen Komponisten. Während das Programm Magix Music Maker tatsächlich mit sehr einfachen Mitteln auskommt, ist das bei profitauglichen Programmen gänzlich anders. Der Weg zum fertigen Lied ist schwer und lang. Ein gutes Lied kann Monate, wenn nicht sogar ein Jahr benötigen um wirklich ausgereift zu sein. Von der Idee, zur Gestaltung, über Instrumentenfindung, den Rhythmus, das Tempo, die Synthesizerprogrammierung, die Effekte und das Mastering, sind es tausend kleine Schritte. Man begegnet unterschiedlichsten Arbeitsgebieten, die man kennen oder kennenlernen und durchschreiten muss. Besonders in meinem Entwicklungsstand ist dies noch sehr zeitaufwendig. An einzelnen Liedern kann ich so mehrere Stunden am Tag, monatelang, jeden Tag sitzen und arbeiten. Da ich nebenbei noch einiges darüber lernen muss, ist es nicht ganz so einfach, flüssig arbeiten zu können.

In der heutigen Gesellschaft wird die elektronische Musik viel zu wenig geschätzt und in ihrer
In der heutigen Gesellschaft wird die elektronische Musik viel zu wenig geschätzt und in ihrer
In der heutigen Gesellschaft wird die elektronische Musik viel zu wenig geschätzt und in ihrer

In der heutigen Gesellschaft wird die elektronische Musik viel zu wenig geschätzt und in ihrer Komplexität durchgehend in Frage gestellt. Genau wie die CGI Special Effects bei Kinofilmen, oder die Programmierung von Spielen, wird die elektronische Musik als schnell und einfach in der Produktion hingestellt, doch allein durch ihre Vielfalt sollte klar sein, dass dies nicht so einfach ist, wie man es sich vielleicht vorstellt. Wie könnte es sein, dass zwei völlig unterschiedliche Lieder, beide elektronisch, mit ein paar Knopfdrücken gemacht wurden? Das ist bereits in der Vorstellung unrealistisch.

Im Praktischen Teil habe ich mich mit dem Komponieren und Fertigstellen zweier eigener elektronischer Musikstücke beschäftigt. Von der Grundidee (Melodie) über die Begleitungen, die Instrumente, die Rhythmen, das Mastering usw. entstand alles aus meinen Vorstellungen und der eigenen Kreativität. Auch steht mir die Möglichkeit frei, meine Musik zu vermarkten und damit Geld zu verdienen.

Der theoretische Teil befasst sich überwiegend mit den Grundlagen des Musizierens mit elektronischen Hilfsmitteln. Des Weiteren werde ich auf die Geschichte der elektronischen Klangerzeugung eingehen, sowie einige Technologien erklären, ohne die eine Komposition am Computer überhaupt nicht möglich gewesen wäre. Auch gibt es eine Chronologie der Entstehung meiner Lieder.

Seit Ewigkeiten bin ich riesiger Musik- und Filmfan. Durch Musik kann so Vieles ausgedrückt und

Seit Ewigkeiten bin ich riesiger Musik- und Filmfan. Durch Musik kann so Vieles ausgedrückt und transportiert werden, wie man es sich kaum vorstellen kann. Gefühle aller Art können ihren Ausdruck finden, oft auch ganz ohne Gesang. Instrumentalmusik war mir schon immer die liebste, auch wenn es wirklich gute Stücke mit Vocals gibt. Als ich dann 13 Jahre alt war, lag, auf meinen Wunsch hin, unter dem Weihnachtsbaum Virtual DJ. Ein simples Programm, mit dem man verschiedene Lieder zusammenmischen kann. Auch wenn ich dieses Programm niemandem empfehlen würde, hat es mir den Weg in die elektronische Musik bereitet.

Später bekam ich Magix Music Maker, mit dem ich monatelang Musik machte und immer weniger auf Vorlagen und Loops, als auf Samples und virtuelle Instrumente zurückgriff. 2010 endlich besorgte ich mir FL Studio 9 Signature Bundle und fing sofort an, Musik zu machen. Natürlich zunächst sehr primitive und einfache Musik die wirklich ein wenig komisch ist. Auf Youtube kann man unter MrHi23 meine alten Lieder finden und die Entwicklung nachvollziehen. Nach und nach wurde ich immer besser und hatte bereits einige Lieder geschafft, auf die ich auch heute noch ein wenig stolz bin.

Ab Ende 2011 gab es eine große Lücke. Einige persönliche Gründe hielten mich von meiner Leidenschaft ab. Erst kürzlich fand ich wieder zur eigenen Musik und die Lieder der Zwölftklassarbeit sind sozusagen mein Comeback. Mit FL Studio 11, einem Keyboard und Aktiven Nahfeld-Monitoren inklusive Interface ausgerüstet, versuche ich den Sprung von amateurhaft zu etwas Professionellem.

Dass ich elektronische Musik für meine Zwölftklassarbeit wählen würde, war nicht von Anfang an klar. Zu Beginn wollte ich einen Kurzfilm drehen. Alles war bereit, ich hatte eine Kamera und sogar eine Idee. Optimistisch dachte ich auch, dass es wohl nicht so schwer sei, ein paar Schauspieler zu finden. Doch die Idee, die ich hatte, war in dieser Zeit nicht realisierbar und ein absolutes Mammutprojekt. Special Effects

hätten programmiert und teures Equipment ausgeliehen oder gekauft werden müssen. Die Idee gefällt mir trotzdem. Nachdem ich genau in dieser Zeit zur Musik zurückfand, war klar: Ich mache ein Album mit ca. zehn Liedern und zu einem davon vielleicht noch ein Musikvideo mit kleiner Story. Auch hier hatte ich bereits eine Idee. Doch die Realität holte mich ein. Sich in nicht einmal einem Jahr zehn einigermaßen professionelle Lieder auszudenken und zu produzieren, obwohl ich überhaupt keine Erfahrung mit dem Mastering und den Schritten zu einem wirklich fertigen Track hatte, war so schon kaum erreichbar. Zusätzlich noch ein Musikvideo mit Story zu drehen, also deutlich zu viel. Lieber wollte ich zwei wirklich gute und wirklich fertige Lieder haben, als zehn mittelmäßig gemasterte und insgesamt eher schlechte. So ist das Album zur Single oder auch einer Kurz-EP geworden, diese entspricht dafür meinen Anforderungen als Perfektionist.

Elektronische Musik unterscheidet sich von „normaler“ Musik vor allem in der Vorbereitung und Produktion. Es

Elektronische Musik unterscheidet sich von „normaler“ Musik vor allem in der Vorbereitung und Produktion. Es braucht für die elektronische Musik wesentlich mehr als monotone Kicks und tiefe Bässe.

ö
ö

änge

Grundsätzlich unterscheiden sich die Töne, die von herkömmlichen Instrumenten erzeugt werden, nicht von den elektronischen. Jedes Geräusch, jeder Ton besteht aus Schallwellen. Bei gleichmäßigem Schwingen von Gegenständen oder Saiten entstehen diese Schallwellen in gleichbleibender Geschwindigkeit und es kommt ein Ton in bestimmter Lautstärke und Höhe hörbar heraus. Die Luft, die uns umgibt schwingt mit und transportiert so die Schallwellen zu unserem Gehör. Aus diesem Grund gibt es keine Geräusche im All, es gibt keine Stoffe, die die Schwingungen transportieren könnten. Im Gehör wird nun das Trommelfell durch Klänge und Geräusche in Schwingung versetzt und leitet die Informationen an unser Gehirn weiter. Um diese Schwingungen mit Tönen zu verbinden ist es wichtig zu verstehen, wie diese bezeichnet werden. Dabei ist es vor allem nötig, zwischen Geräusch und Ton zu unterscheiden. Ein Ton besteht in seiner Urform aus einer gleichmäßigen Welle, dabei kann man sich am besten eine Gitarrensaite vor sein geistiges Auge holen und zupfen. Da das menschliche Auge ein wenig träge für Bewegungen ist, sehen wir nur, dass die Saite schwingt. Bei extremer Verlangsamung können wir nun die Wellenform erkennen, die die Saite immer wieder durchläuft. Sie geht auf und ab.

Diese Welle hat immer eine bestimmte Geschwindigkeit und wird in Schwingungen pro Sekunde, kurz Hertz gemessen. An der Hertzzahl kann man die Tonhöhe erkennen. Bei 100Hz (Hertz) geht die Schwingung 100-mal in der Sekunde auf und ab. 1kHz (Kilohertz) entspricht 1000Hz. Die Zahl im Zusammenhang mit den Hertz wird auch Frequenz genannt. Das menschliche Ohr kann durchschnittlich Frequenzen von 20Hz bis zu 20kHz (also 20 000Hz) hören. Den für uns nicht hörbaren Bereich unter 20Hz nennt man Infraschall, ihn senden z.B. Wale aus. Auch wenn wir diese nicht hören können, auf unseren hörbaren Bereich hinaufgestuft, senden diese Tiere die lautesten Geräusche, die je ein Tier oder Mensch von sich geben kann. Da Infraschall sehr langsam schwingt, kann man ihn durchaus erkennen, auch auditiv. Dabei hören wir keine Töne, sondern empfinden nur die Schwingung an sich, ähnlich wie einen regelmäßigen Windstoß. Anders herum, alles was über 20kHz schallt, ist für uns auch nicht hörbar und wird Ultraschall genannt. Häufig verwenden bestimmte Tiere Ultraschall. Echoortung beschreibt das Orientieren mithilfe von Ultraschall. Das bekannteste Beispiel ist die Fledermaus, sie bringt Frequenzen bis zu 200kHz zum schwingen und orientiert sich am Echo, welches z.B. Bäume zurückwerfen. So kann sie Beute orten und Gefahren ausweichen. Bei Ratten konnte bei 50kHz ein sozialeres Verhalten nachgewiesen werden. So bekamen diese ein steigendes Annäherungsverhalten unter Einwirkung dieser Ultraschallfrequenz. In einem einfachen Internettest (egopont.com) konnte ich Frequenzen von ca. 30Hz bis zu 19kHz deutlich hören. Jedoch hängt dieses Vermögen stark vom Alter und der Belastung des Gehörs ab. So können Kleinkinder Ultraschall häufig noch hören, verlieren diese Gabe jedoch bereits mit etwa fünf Jahren. Mit ca. 18 Jahren können die meisten nur noch bis 16kHz hören und die höheren Töne nicht mehr wahrnehmen. Im Alter reduziert sich also unser Hörspektrum, deshalb wird oft bereits ab 16kHz von Ultraschall gesprochen, eigentlich sind jedoch 20kHz der Standartwert.

Um die Schwingungen noch einmal zu verdeutlichen, gibt es hier ein Beispiel mit einer Stimmgabel. (Abb. 1 )

es hier ein Beispiel mit einer Stimmgabel. (Abb. 1 ) In dem Moment, in dem die

In dem Moment,

in

dem

die

Gabel

in

Schwingung versetzt wird, versetzt diese die

umliegende Luft, in der

selber

Frequenz

in

Schwingung. Das

Hin

und Her beim Schall ist,

wie

auf

dem

Bild

erkennbar,

ein

Zusammenspiel

aus

erhöhtem verringertem Druck.

und

Der hier gezeigte Ton jedoch, ließe sich ganz einfach als elektronischer Sinuston identifizieren, da er keine Obertöne oder weitere Klänge besitzt. Wenn der Schall, eine sich nicht verändernde Schwingungsperiode besitzt, und aus einer einzigen Welle besteht, spricht man in der Physik von einem reinen Ton. Der Klang ist bekanntlich ein Zusammenspiel von mehreren Tönen, meist sind es Akkorde, welche zusammen ein bestimmtes Klangmuster ergeben. Der Klang ist in der Wellenform völlig anders als der Ton und, je nach Anzahl der Töne, weitaus komplexer. Gehörtechnisch ist der Unterschied relativ klar und deutlich hörbar. Auch physisch, und dadurch auch visuell, verändert sich das Bild der Schallwelle. Nachfolgend ein Beispiel mit einem reinen Ton im Vergleich zu einem Klang einer Geige in a‘ gestimmt

(440Hz).

1 Quelle Abbildung:

akustik.tu-berlin.de/fileadmin/fg23/Lehre/Lehre/Raumbauakustik/Abschn_1_PhysikGrundlg.pdf (Jan. 2014)

(Abb. 2 ) Auf der linken Seite ist der Vergleich als Schallwellenmuster abgebildet, der Klang

(Abb. 2 )

Auf der linken Seite ist der Vergleich als Schallwellenmuster abgebildet, der Klang der Geige (unten) ist deutlich komplexer, obwohl er in der gleichen Frequenz (440Hz) schwingt. Auf der rechten Seite ist das Spektrum der Geigensaite mit ihren Obertönen veranschaulicht. Diese Obertöne machen die Veränderung vom Ton zum Klang aus. Auffällig wird, dass die Obertöne mit steigender Frequenz immer leiser werden, dies geht theoretisch bis hin zum Unendlichen und lässt sich mathematisch berechnen. Eine einzelne Saite schwingt somit in unendlich vielen Frequenzen auf einmal, das macht es unter Anderem so schwer, natürliche Instrumente elektronisch zu imitieren. Nach dem Klang folgt das Geräusch, es ist eine zufällig auftretende Schallwelle, ohne Regelmäßigkeiten. In der elektronischen Musik werden Geräusche beispielsweise bei der Imitation von Flöten verwendet. Vor allem jedoch bei Perkussion und elektronischen Drum Kits werden Geräusche oft auch recht dominierend benutzt. Um einem Querflötensolo etwas mehr Leben einzuhauchen, werden zum Beispiel leisere

2 Quelle Abbildung:

http://www.laermorama.ch/m1_akustik/oszillogramm.html (Jan. 2014)

Geräusche verwendet, um Atmung zu imitieren. Musik unterscheiden wir von Geräuschen vor allem also durch das Vorhandensein von Tönen. Die Lautstärke eines Klanges oder eines Geräusches wird Amplitude genannt. Eine Schallwelle, die nur ganz schwach vom Nullpunkt auf und ab schwingt, ist leise. Bei starker Aussteuerung ist das Resultat lauter, die Amplitude stärker.

ist das Resultat lauter, die Amplitude stärker. Niemals hätte ich gedacht, dass die Entstehungsgeschichte
ist das Resultat lauter, die Amplitude stärker. Niemals hätte ich gedacht, dass die Entstehungsgeschichte

Niemals hätte ich gedacht, dass die Entstehungsgeschichte der elektronischen Musik so interessant ist, wie kaum eine andere. Von den allerersten Schritten, bis hin zu heutigen Entwicklungen, gibt es immer spannende Instrumente und schlaue Köpfe hinter den Instrumenten der elektrischen Ton- und Geräuscherzeugung mit unglaublich interessanten Ideen. Bevor es um wirkliche, elektronische Musik geht, kommen wir zu den elektronischen Klangerzeugern und Instrumenten. Prokop Diviš (1698-1765) u.a. auch der Erfinder des Blitzableiters, interessierte sich besonders für die Elektronik und stellte bereits um 1730 herum seine Erfindung, das „Mutationsorchestrion Denis d’or“, vor. Es existierte nur ein einziges Exemplar und es soll mit 790 Saiten gearbeitet haben. Mithilfe von 130 elektronischen Registern soll nun eine Modifikation an den Saiten und den Klängen möglich gewesen sein. Das soll soweit gereicht haben, dass übliche Bläser- und Streicherinstrumente imitiert werden konnten. Der Erfinder Prokop Diviš baute einen kleinen Scherz ein, der dem Musizierenden einen schwachen elektrischen Schlag gab, wann er es wollte. Jedoch ist dieses Instrument nur für die Modifikation der Töne brauchbar gewesen und konnte keine eigenen erzeugen. Deshalb gilt es nicht als elektronisches Musikinstrument. 1761 stellte Jean-Baptiste Thillaie Delaborde (1730-1777), ein französischer Priester, seine Clavecin électrique, ein neues Musikinstrument, das mit Elektronik arbeitete,

vor. Es war im Wesentlichen ein Glockenspiel, basierend auf Warnglocken. Es ist etwas schwer zu erklären und zu verstehen, wie das Clavecin électrique überhaupt funktionierte. Zwei Glocken für jeden Ton, eine geerdet, eine ungeerdet bringen einen Klöppel dazwischen in der gewünschten Geschwindigkeit und damit auch Tonhöhe zum schwingen. Weitere Beschreibungen sind wirklich kompliziert.

Nach einem großen Loch in der Geschichte geht es erst am Ende des 19. Jahrhunderts mit der Entwicklung weiter. 1897 stellte Thaddeus Cahill (1867-1934) sein Dynamophon vor. Das erste richtige, elektronische Musikinstrument. Es erlangte schnell Beliebtheit und war mit einem einzigartigen Klang ausgestattet. Zu dieser Zeit erschien das Dynamophon, besser bekannt als Telharmonium, noch wie Science Fiktion und ein völlig neues Klangerlebnis. Es sorgte für einigen Gesprächsstoff und wurde häufig in Zeitschriften beschrieben. Im Allgemeinen wird der Klang wie der einer elektronischen Orgel, etwas gemischt mit einem Leierkasten (Drehorgel) beschrieben. Das Telharmonium war jedoch gigantisch und wog ca. 200 Tonnen. Es war und ist bis heute, das größte Musikinstrument, welches je gebaut wurde. Somit war es nicht besonders mobil und es konnten nicht sehr viele Menschen in den Genuss kommen, es zu sehen und spielen zu hören. Über Telefonleitungen konnte es nach Wunsch empfangen werden. Auch hier ist es kompliziert, den genauen Aufbau zu verstehen und wiederzugeben. Es besteht im Groben aus Zahnrädern mit je einem zugeordneten Ton, je nach Zackenanzahl und Drehzahl verändert sich dieser Ton von Zahnrad zu Zahnrad. Leider wurden die einzigen zwei Telharmonien zerstört und hinterließen keine Video- oder Tonaufnahmen. Es wurde auf Grund seiner Größe und der Tatsache, dass das Telefonnetz durch übermäßiges Interesse zusammenstürzte nicht weiterentwickelt. Der Erfinder arbeitete zunächst an der Vermarktung seines Dynamophons, wechselte dann jedoch aus dem Grund der Telefonübertragung seine Ideen. Auch die erste elektrische Schreibmaschine ist auf ihn zurückzuführen. Thaddeus Cahill gilt durch sein Dynamophon als ein Pionier der elektronischen Musikproduktion. Er erkannte das Potenzial und wandelte es in die Tat um.

In diesem Raum konnte der Musizierende sein Telharmonium spielen. Von den Ausmaßen, die dieses annimmt,
In diesem Raum konnte der Musizierende sein Telharmonium spielen. Von den Ausmaßen, die dieses annimmt,

In diesem Raum konnte der Musizierende sein Telharmonium spielen. Von den Ausmaßen, die dieses annimmt, bekommt man auf diesem Bild nichts mit, denn der Rest des Instrumentes, der eigentliche Hauptteil, befand sich im Nebenraum.

der eigentliche Hauptteil, befand sich im Nebenraum. (Abb. 4 ) 3 , 4 Quelle Abb.

(Abb. 4 )

3 , 4 Quelle Abb. http://www.flickr.com/photos/stephenhill/galleries/72157628449186983/ (Jan. 2014)

(Abb. 5 )

(Abb. 5 ) Die Komplexität wird auf diesen Bildern schnell klar, was einem heutigen Serverraum gleicht,

Die Komplexität wird auf diesen Bildern schnell klar, was einem heutigen Serverraum gleicht, ist nur ein Teil eines einzigartigen Instrumentes, welches über zwei Räume verteilt arbeitet.

Bald wurden die ersten Oszillatoren für die Musik erfunden, sie sind bis heute das Fundament eines jeden elektronischen Instruments. Das Theremin basiert auf dem Prinzip von normalen Antennen, davon besitzt es zwei Stück. Eine vertikale Antenne bestimmt die Tonhöhe und eine horizontale die Lautstärke. Ein Oszillator vertont die empfangenen Signale. Der Musizierende benutzt beide Hände und kann mit Hilfe des Magnetfeldes völlig berührungslos spielen. Auch wenn das Theremin strahlt, ist diese Strahlung deutlich reichweitenbeschränkt und insgesamt viel schwächer als die eines Handys (Verhältnis ca. 1:1000) und damit deutlich weniger schädlich. Erfunden wurde es von Leon Theremin, dem wir auch einige andere Erfindungen in der elektronischen Musik zu verdanken haben. Leon Theremin wurde 1896 in Sankt Petersburg geboren und verstarb 1993 in Moskau. Mit der Erfindung des Theremins gilt er als einer der wichtigsten Pioniere der elektronischen Musik und Klangerzeugung durch Synthesizer und Drumcomputer. Er entwickelte sein Theremin weiter und erfand einige Instrument wie das Theremincello und das Terpsiton, welches Bewegungen des gesamten Körpers in Töne umwandelt. Heutzutage gibt es in etwa zehn professionelle Thereminspieler,

5 Quelle Abb. http://www.flickr.com/photos/stephenhill/galleries/72157628449186983/ (Jan. 2014)

die das Instrument wirklich gut bedienen können. Einige Erfindungen wie das Sphärophon, das Ondes Martenot und das Trautonium basieren auf dem Theremin und werden also nur am Rande erwähnt. Der nächste große Schritt ist die Hammond Orgel, sie ist die kleinere Version eines Telharmoniums, welches damals gigantische Maße hatte. Laurens Hammond (1895 1973) brachte seine nach ihm benannte Hammond Orgel 1934 auf den Markt. Sie wurde sofort ein kommerzieller Erfolg. Die Idee, Pfeifenorgeln zu ersetzen, wurde jedoch nicht wahrgenommen und die Orgel wurde nicht in Kirchen, sondern überwiegend im Jazz verwendet. Einige Jazzberühmtheiten wie Fats Waller, Jimmy Smith, Keith Emerson usw. verwendeten die Hammond Orgel regelmäßig. Sie hat einen unverwechselbaren Klang und wird deshalb noch Heute, viele Jahre nach Einstellung der Produktion, gehandelt und von Sammlern und Liebhabern gerne gekauft.

Das „FL Studio“ ist bei meiner For m der Musikproduktion, der Hauptbestandteil und das Fundament

Das „FL Studio“ ist bei meiner Form der Musikproduktion, der Hauptbestandteil und das Fundament für meine elektronische Musik. Mit FL Studio lässt sich komponieren, abmischen und aufnehmen. Die Aufnahmen lassen sich beliebig bearbeiten und können direkt als Mp3 oder als ein anderes Audioformat exportiert werden. FL Studio, die Abkürzung für Fruity Loops Studio, ist nur eines von vielen Musikprogrammen für den PC, weitere sind Cubase von Steinberg oder Magix Samplitude. Die Anwendungsbereiche unterscheiden sich in vielerlei Hinsicht, wobei Cubase und FL Studio einige Ähnlichkeiten aufweisen.

Das einfachste Programm, Magix Music Maker, hat zwar einen eher geringen kreativen Wert, ist zum Einstieg in das Komponieren elektronischer Musik aber bestens geeignet. Magix Music Maker wurde 1994 auf den Markt gebracht und ist seitdem die erfolgreichste Musiksoftware weltweit. Der Anwender benutzt sogenannte Loops, das sind kurze Takte Musik, beispielsweise ein Beat, also eine Schlagzeugsequenz, die man in der Dauerschleife ohne Brüche hören kann. Diese fügt er zu einem Song zusammen. Im Internet gibt es eine unendliche Anzahl an kostenlosen, sowie kostenpflichtigen Loops, sodass der Benutzer große Wahlmöglichkeiten hat. Die Kreativität beschränkt sich hier auf das Mischen von diesen Loops, so kann man Hip-Hop Elemente mit Techno oder sogar Klassik verbinden. So ist Magix Music Maker zwar kein vollwertiges Programm durch das man stolz sagen kann: „Das ist mein Song.“, man kann jedoch die Dramatik eines Liedes gestalten lernen. Das Programm bietet zwar die Möglichkeit, eigene Melodien zu entwerfen, ist jedoch in der Ausführung und Umsetzung dieser Melodien sehr beschränkt, und vor allem das Mastering benötigt einige weitere Funktionen, um als wirklich professionell gelten zu können. Zu viel ist noch automatisiert. Trotzdem würde ich es als Einsteigerprogramm, vor allem für jüngere Beginner durchaus empfehlen. Für die professionelle Musikproduktion ist Magix Music Maker also nicht geeignet.

Den größten Lerneffekt, den Magix Music Maker bieten kann, stellt für mich der Spannungsbogen in einem Lied dar. Denn auch als unplugged Musiker, also ohne elektronische Hilfsmittel, kann man eine noch so tolle Melodie erschaffen und trotzdem ein sterbenslangweiliges Lied als Produkt erhalten, wenn die Gestaltung nicht stimmt.

Der große Bruder, Magix Samplitude, ist die konsequente Weiterführung von Magix Music Maker und für professionelle Produktionen geeignet, jedoch sieht, für meinen Geschmack, die optische Darstellung am PC ein wenig zu bunt und verwirrend aus. Ausserdem ist Samplitude um ein Vielfaches teurer als das, meiner Meinung nach, höherwertige FL Studio. Ein weiteres Programm ist Logic Pro. Es wird besonders in der professionellen Technoproduktion benutzt und ist für Apple Computer konzipiert und damit für PC User nicht oder kaum zugänglich. Cubase ist vor allem für die Aufnahme von Instrumenten und zum Mastering, sowie für das Bearbeiten der Aufnahmen und somit weniger zum eigenen Komponieren, als zum Vervollständigen eines Songs konzipiert. FL Studio wird in allen Bereichen und Musikrichtungen verwendet und ist somit barrierefrei und für den Einstieg, sowie die professionelle Produktion gleichermaßen geeignet. Einige bekannte Künstler wie Afrojack, Avicii, sowie Timbaland benutzen FL Studio für ihre Musik. Es ist auch für das berufliche Komponieren von elektronischer Musik nutzbar.

FL Studio basiert auf dem sogenannten Patternsystem, das für mich logischste und am einfachsten nachvollziehbare

FL Studio basiert auf dem sogenannten Patternsystem, das für mich logischste und am einfachsten nachvollziehbare System in der elektronischen Musikproduktion. Es ist für meine Bedürfnisse das Beste.

Musikproduktion. Es ist für meine Bedürfnisse das Beste. 6 Quelle Abbildung: Eigener Screenshot eines meiner
Musikproduktion. Es ist für meine Bedürfnisse das Beste. 6 Quelle Abbildung: Eigener Screenshot eines meiner

6 Quelle Abbildung:

Eigener Screenshot eines meiner elektronischen Lieder in frühem Stadium

19

Pattern kommt, wie die meisten Begriffe in der elektronischen Musik, aus dem Englischen und bedeutet wörtlich übersetzt „Muster“. Ein in FL Studio komponiertes Lied setzt sich unter Anderem aus einer Vielzahl von Pattern zusammen, welche der Komponist zuerst „programmiert“ und anschließend wie Loops zu seinem fertigen Song zusammenfügen kann. Die Patterns sind also der Teil an dem am häufigsten, vor allem zu Beginn der Produktion, gearbeitet wird. Im Schaubild (Abb. 1) links oben in der Ecke wird der Takt eingestellt (1). In diesem Fall ist es ein 12/4 Takt. Von -- (also 0) bis 64 gibt es keine Einschränkungen in der Taktart. Heutzutage sind die meisten Lieder in einem 4/4 Takt komponiert, das ist das einfachste und einprägsamste Format für Laien und vor allem für einfache Musikkonsumenten. Der 8/4 Takt ähnelt dem 4/4 Takt sehr, er ist genau doppelt so lang und für längere Melodien geeignet. Ein Song im 4/4 Takt kann jedoch auch mit 8/4 Patterns gemacht werden. Die Taktart wird für jedes Pattern neu eingestellt und kann von Pattern zu Pattern variieren. So kann man beispielsweise in ein Techno Lied, das so gut wie immer einen 4/4 Takt besitzt, einen Ambient Break, einen komplett andersartigen Teil im sonst fortlaufenden Lied, einbauen. Dieser kann deutlich verlangsamt und in einem typischen Takt für Ambient gehalten sein. Ausgefallene Rhythmusänderungen sind damit am besten möglich. Die Angabe erfolgt immer in Vierteln. Rechts neben dem Taktwähler ist ein Button um den sogenannten Step-Sequenzer bei der Wiedergabe zu wiederholen (2). Der Wiedergabebutton für das einzelne Pattern befindet sich weiter rechts, gefolgt von der Option den Namen und die Farbe des Patterns zu ändern (das kleine +). Klickt man auf den aktuellen Patternnamen oder das dazugehörige Dreieck (3), erscheint ein Scrolldownmenü, also ein sich aufklappendes oder ausfahrendes Menü mit dazugehörigen Optionen. Auf der gleichen Höhe befindet sich noch ein „Swing“-Regler, den ich noch nie benutzt habe, geschweige denn Informationen darüber herausfinden konnte. Beim Herumspielen konnte ich auch keine bedeutenden Änderungen feststellen.

Der Graph- und der Keyboard Editor (4) verlangen eine vorhergehende Erklärung einiger anderer Elemente. Der Step-Sequenzer ist überwiegend für die Rhythmuselemente im Lied zuständig. Das Pattern ist nur die Zahl oder der Name des Step-Sequenzers. Bei jedem Pattern kann der Step-Sequenzer unabhängig von allen anderen verändert werden. Das Prinzip ist recht einfach. Die Zeit vergeht von links nach rechts und die Taktschläge sind abwechselnd kaminrot und graublau gefärbt. Auf ein Viertel kommen vier Steps. Diese Steps haben zwei Möglichkeiten, sie sind an oder aus Bei den Steps gilt: an bedeutet, das Sample wird gespielt und aus, das Sample wird nicht gespielt. Alle Instrumente und beispielsweise Kicks, Snares, Hi-Hats etc. werden, bevor sie genutzt werden können, in das Pattern geladen und erscheinen als neue Reihe im Step-Sequenzer (5). Jede Reihe bietet noch die Möglichkeiten (von links nach rechts) de- oder aktiviert zu werden. Ausserdem kann die Balance vom linken und rechten Lautsprecher verändert und die vorläufige Lautstärke eingestellt werden. An diesen Reglern sollte man jedoch vorsichtig sein, da diese sich auf jedes Pattern übertragen. Der Graph Editor (4) hält nun einige weiterführende Optionen für die aktuell angewählte Reihe im Pattern bereit. In ihm kann man einzelne Teile in der Dauer des Step-Sequenzers lauter oder leiser schalten und das Gleiche mit der Balance und einem feinen Pitch machen. Der Pitch ist die Tonhöhe in dem das Instrument erklingt und der feine Pitch ist eine sehr präzise Feineinstellung des Pitches. Der Keyboard Editor (4) rechts davon lässt die Höhe jedes einzelnen Steps im Step- Sequenzer bearbeiten und fährt zur aktuell angewählten Reihe zu jedem Step eine winzige hochkantige Klaviertastatur aus. Mit einem Rechtsklick auf das jeweilige Instrument bekommt man unter Anderem die Funktion, es im Piano Roll zu bearbeiten. Dadurch wird für dieses Instrument der Step-Sequenzer deaktiviert und auch optisch verändert sich die dazugehörige Reihe (Bsp. 6). Sie zeigt die Höhen und die zeitlichen Positionen der einzelnen Töne aus dem Piano Roll an.

Reihe (Bsp. 6). Sie zeigt die Höhen und die zeitlichen Positionen der einzelnen Töne aus dem
Reihe (Bsp. 6). Sie zeigt die Höhen und die zeitlichen Positionen der einzelnen Töne aus dem
Im Piano Roll, entstehen die Melodien und Differenzen in Tonhöhen und Längen. Das Instrument, welches
Im Piano Roll, entstehen die Melodien und Differenzen in Tonhöhen und Längen. Das Instrument, welches
Im Piano Roll, entstehen die Melodien und Differenzen in Tonhöhen und Längen. Das Instrument, welches

Im Piano Roll, entstehen die Melodien und Differenzen in Tonhöhen und Längen. Das Instrument, welches in den Step-Sequenzer geladen wurde, kann hier ohne Einschränkungen gespielt werden. Auch hier vergeht die Zeit von links nach rechts. Anhand des Positionsmarkers (1) kann man die Position in der Zeit erkennen. Am

7 Quelle Abb. Eigener Screenshot eines meiner Lieder mit dem VSTi Wasp XT mit dem modifizierten Preset Wired Saw

linken Rand des Piano Rolls ist eine Klaviertastatur hochkant mit Notennamen und Nummern abgebildet (2). Am Namen kann man die Tonart und an der Nummer die Oktave des Tones erkennen und mit einem Linksklick auf dem Noteneditor festlegen. Mit dem Linksklick erscheint ein grüner Balken an der gewünschten Stelle in der letztbenutzen Länge (z.B 3). Dieser Balken steht für einen Ton, er ist auch im Nachhinein völlig mobil und verschiebbar. Mit der gedrückten linken Maustaste, kann man diesen nun auf und ab (Tonhöhe) und hin und her (zeitliche Position) bewegen. Am linken Rand eines jeden Balkens kann man seine Länge verändern. In der linken oberen Ecke stehen weitere Optionen und Werkzeuge zur Verfügung (4 von links nach rechts). Das Dreieck verweist wieder auf ein Scroll-down-Menü und bringt weiterführende Optionen, unter anderem Akkorde zu generieren und wiederholt aber auch einige Werkzeuge von den folgenden:

Das Werkzeug-Symbol birgt Optionen, die dem Komponisten etwas unter die Arme greifen. Es lässt auch den Ton an sich bearbeiten. Jedoch wird diese Option von mir so gut wie nicht benutzt. Nun kommt das Magnetsymbol. Dieses ist sehr hilfreich und wird von mir regelmäßig genutzt. Beim Verschieben oder Verlängern der Töne versucht man meist genau im Takt zum Lied zu bleiben, das Magnetsymbol fährt nun beim Anklicken Optionen für das Springen der Noten in bestimmten Abständen aus. Das Raster, welches über den gesamten Noteneditor verteilt ist, gibt darüber weitere Auskunft. Man kann auf diese Weise auswählen, ob die Noten nicht springen (None), oder z.B. in einem Abstand von einem Step springen und somit die Notenpositionen und -längen schnell finden. Bei der Verlängerung oder Verschiebung springt der Ton nun um den gewählten Abstand. Das Stiftsymbol ist das erste, welches Auswirkungen auf den Cursor hat. Mit dem Stift schreibt (mit rechts löscht) man Töne, mit dem Pinsel kann man viele Töne mit gehaltener Maustaste schreiben, und mit dem Löschsymbol löscht man. Der durchgestrichene Lautsprecher lässt Angewähltes stummschalten. Dann folgt eine Art Kuttermesser, mit ihm kann man Töne zerstückeln. Darauf folgt die Anwählfunktion

und zuletzt der Lautsprecher mit dem man wiedergeben kann, was man mit der Maus anwählt. Diese ganzen Funktionen lassen sich jedoch viel leichter und schneller über Tastaturbefehle ansteuern. Bei fast allen Musik- Foto- und Filmprogrammen gilt, je weniger die Maus und je mehr die Tastatur benutzt wird, desto schneller kann man in einen fließenden Workflow kommen und sich damit auf das Wesentliche, das Kreative konzentrieren. Nachdem man die Patterns mit den gewünschten Melodien und Rhythmen gefüllt hat, kommt es zum zusammensetzen der Puzzleteile und somit, ähnlich wie bei Magix Music Maker, zur Dramatik des Stücks.

wie bei Magix Music Maker, zur Dramatik des Stücks. In der Playlist wird nach und nach,

In der Playlist wird nach und nach, größtenteils aus den Patterns, das Endprodukt zusammengestellt. Nachdem die Patterns einigermaßen fertiggestellt sind, können diese in die Playlist geladen und beliebig vermischt, geschnitten und gekürzt werden. Die Playlist funktioniert ähnlich dem Piano Roll. Mit einem Linksklick fügt man ein Pattern in die Playlist ein. Mit gedrückter linker Maustaste kann das Pattern nun, wie der Ton im Piano Roll, in der Zeit hin und her verschoben werden. Das Auf- und Ab- verschieben der Pattern, dient lediglich der Ordnung. Sowohl in den Patterns, wie in der Playlist, kann oben, mittig zwischen den Pattern hin- und hergewechselt werden. In der Playlist, kann damit das gewünschte Pattern ausgewählt und eingefügt werden.

Die Spuren werden als Tracks bezeichnet, deren Namen und Farbe man immer ändern und das Ganze somit deutlich übersichtlicher gestalten kann. Da die Playlist besonders zum Ende hin noch mit Effekten aus dem Mixer gefüllt wird, ist es ratsam, diese immer geordnet zu halten und zu beschriften, um vor allem spätere Änderungen, ohne lästiges Suchen, vornehmen zu können.

Dieses Schaubild zeigt die Grundfenster. Zu sehen ist darauf das Pattern mit dem Step-Sequenzer, rechts
Dieses Schaubild zeigt die Grundfenster. Zu sehen ist darauf das Pattern mit dem Step-Sequenzer, rechts

Dieses Schaubild zeigt die Grundfenster. Zu sehen ist darauf das Pattern mit dem Step-Sequenzer, rechts davon der Mixer. Darunter die Playlist, die die ganzen Ideen zu einem fertigen Lied zusammenstellen lässt und unten das Piano Roll. Links an der Seite, der Browser. Mit gedrückter linker Maustaste lassen sich die Dateien aus dem Browser als neues Instrument in das Pattern/den Step-Sequenzer oder als einzelne Sounds in die Playlist laden.

8 Quelle Abbildung Eigener Screenshot mit den geöffneten Hauptfenstern in FL Studio

25

Samples sind winzige Audiofiles, also Sounddateien, die beispielsweise ein Kick (Basstrommel) darstellen können. Ich

Samples sind winzige Audiofiles, also Sounddateien, die beispielsweise ein Kick (Basstrommel) darstellen können. Ich benutze Samples in meinen Songs fast ausschließlich für Drums und Percussion. Sample kommt aus dem Englischen und bedeutet Probe oder Beispiel. Eigentlich wird in der Musik jedoch zwischen Loop und Sample unterschieden. Während der Loop ein Takt ist, der wiederholt, meist ohne Brüche, gespielt und verwendet werden kann, besteht das Sample aus einem einzigen Schlag und kann so wie ein Teil eines Schlagzeuges benutzt werden. Tatsächlich kann man sich im Internet Schlagzeuge auch als Sample Packs (also Sample Sammlungen) oder, als Drum Kit kaufen oder kostenlos herunterladen; manchmal sogar bestimmte, auch real existierende Schlagzeug Sets. Eine andere Form, in der ich Samples verwende, ist als FX oder SFX. Das sind Sound Effekte, wie zum Beispiel eine wild redende Menschenmenge, ein startendes Auto oder völlig elektronische Sounds, die nichts mit Instrumenten gemein haben. Samples können sogar gezupfte Seiten einer Gitarre in einer bestimmten Tonhöhe sein. Samples unterscheiden sich auditiv und visuell von Loops.

Samples unterscheiden sich auditiv und visuell von Loops. 9 Quelle Abb. Kick Sample in FL Studio
Samples unterscheiden sich auditiv und visuell von Loops. 9 Quelle Abb. Kick Sample in FL Studio

9 Quelle Abb. Kick Sample in FL Studio geladen, eigener, herausgeschnittener Screenshot

Diese Abbildung zeigt ein Sample eines Basskicks. Von links nach rechts sieht man den ``Knall‘‘ abklingen und die Aussteuerung verringert sich bis zum Nullpunkt. Die Gesamtlänge dieses Samples beträgt zwei Sekunden, wovon ca. 1,5 Sekunden absolute Stille sind. Samples können in ihrer Länge unbegrenzt variieren und sind nicht unbedingt rhythmusgebunden. Sobald aber eine sich, ohne starke Brüche, wiederholende Melodie oder ein Rhythmus hinzukommt, spricht man von einem Loop.

oder ein Rhythmus hinzukommt, spricht man von einem Loop. Loops sind, im Gegensatz zu Samples, kleine

Loops sind, im Gegensatz zu Samples, kleine Melodiestücke oder Rhythmusteile. Man kann also aus mehreren Samples oder sogar aus einem, immer wiederkehrenden, Sample einen Loop kreieren (z.B. Basskick für einen Dancesong). Auch hier kann man an der Aussteuerung deutlich die Kicks, Claps o.Ä. erkennen und somit mit etwas Können an einem Loop herumschneiden und ihn völlig verändern.

an einem Loop herumschneiden und ihn völlig verändern. Der wohl bekannteste Loop, weltweit, ist der Amen

Der wohl bekannteste Loop, weltweit, ist der Amen Break. Die großen Aussteuerungen sind die Snares und die Kicks. Die Kicks setzen ab der Hälfte aus. Die kleinen Aussteuerungen sind die Hi-Hats. Die große Aussteuerung am Ende ist ein Becken (engl. Cymbal). Wenn man nun diesen Loop direkt, ohne Lücke fortlaufen lassen würde, könnte man ihn unendlich oft wiederholen und eine Melodie dazu spielen, oder ihn auch mit anderen Loops kombinieren (Magix Music Maker). Die Länge des Loops kann nur stufenweise variieren. Wenn Magix Music Maker oder FL Studio einen Loop erkennt, wird er automatisch an die Schnelligkeit angepasst. Jedoch muss er klar einen Takt haben z.B. 4/4, 7/8, 12/8, um zum Rest des Projektes

10 Quelle Abb. Der legendäre Amen Break geladen und aus eigenem Screenshot herausgeschnitten

zu passen. Ich benutze nur sehr selten Loops, denn die Kreativität ist eingeschränkt. Lediglich den Amen Break würde ich benutzen, um eine kleine Hommage an Breakbeat und Soul zu gestalten. Im praktischen Teil der Arbeit habe ich keine Loops in meinen Liedern. Sie sind komplett selbstproduziert.

Loops in meinen Liedern. Sie sind komplett selbstproduziert. Ein Oszillator ist grob gesehen der elektronische

Ein Oszillator ist grob gesehen der elektronische Schwingkörper. Er erstellt elektrische Schwingungen, welche schließlich auf die Lautsprecher übertragen werden. Das Wort wird abgeleitet von dem lateinischen Oscillare, was so viel wie schwingen bedeutet. In der Physik werden auch sogenannte Oszillatoren verwendet um bestimmte Abläufe zu visualisieren. Die elektronischen Impulse, bzw. die Schallwellen können im Gegensatz zu denen akustischer Instrumente völlig barrierefrei bearbeitet werden. Die üblichen Standarts sind zu Beginn die natürliche Sinuswelle. Sie ist vor allem durch ihren weichen Klang erkennbar und ist die angenehmste für unser menschliches Ohr. Häufig wird diese für extrem tiefe Bässe (Sub Bass) oder Science Fiktion Melodien verwendet

Bässe (Sub Bass) oder Science Fiktion Melodien verwendet 1 1 Quelle Abb.
Bässe (Sub Bass) oder Science Fiktion Melodien verwendet 1 1 Quelle Abb.

11 Quelle Abb. http://www.analogeklangsynthese.de/analog/sine.html (Jan. 2014)

Diese Welle sieht noch recht natürlich aus, die folgenden können in dieser Form jedoch nur schwer ohne Elektronik realisiert werden. Die Sinuswelle wird vor allem für die Erzeugung von Bass- und Orgelklängen verwendet.

ä
ä

Die Sägezahnwelle hört sich in jeder Tonhöhe in ihrer Grundform elektronisch an und hat im Klang eine eher technische Ästhetik. Sie hat einen deutlich gröberen Charakter und wird, wie sie hier gezeigt ist, gerne in härteren Elektro- oder Technotracks verwendet. Ausserdem wird sie im Zusammenspiel mit anderen Wellenformen bei der Erzeugung von Streichern, E-Gitarren oder Bässen genutzt. Auf diesem Beispielbild ist eine von zwei Möglichkeiten einer Sägezahnwelle aufgeführt. Diese ist steigend, von links nach rechts steigt die Welle linear. Eine abwärts steigende Sägezahnwelle macht dies anders herum.

abwärts steigende Sägezahnwelle macht dies anders herum. 1 2 Quelle Abb.

12 Quelle Abb. http://www.analogeklangsynthese.de/analog/saw.html (Jan. 2014)

Die Dreieckswelle ist etwas härter als die Sinuswelle, jedoch lange nicht so grob wie der

Die Dreieckswelle ist etwas härter als die Sinuswelle, jedoch lange nicht so grob wie der Sägezahn. Bei der Erzeugung von flötenartigen Sounds wird diese gerne verwendet.

von flötenartigen Sounds wird diese gerne verwendet. Die Rechteckwelle ist die, die am stärksten nach Elektronik
von flötenartigen Sounds wird diese gerne verwendet. Die Rechteckwelle ist die, die am stärksten nach Elektronik

Die Rechteckwelle ist die, die am stärksten nach Elektronik klingt und vor allem im LFO für Chiptune, gerne verwendet wird. Sie ist wie ein plötzlich wechselndes An und Aus. Vom Überdruck geht es ohne Übergang zum Unterdruck.

Aus. Vom Überdruck geht es ohne Übergang zum Unterdruck. 1 3 Quelle Abb.

13 Quelle Abb. http://www.analogeklangsynthese.de/analog/triangle.html (Jan. 2014)

14 Quelle Abb. http://www.analogeklangsynthese.de/analog/square.html (Jan. 2014)

ä
ä

Das Rauschen ist das sogenannte „Chaos“ bei Wellen und rein zufällig. Es besteht aus einer Unzahl von verschiedenen Frequenzen und verändert sich durchgehend. Es wird grundsätzlich in drei Kategorien eingeteilt:

Weißes Rauschen enthält alle Frequenzen in gleicher Lautstärke. Für mich hört es sich ein wenig wie der Soundeffekt in einem unendlich großen Raum, unendliche Weiten und ein ewiger Hall, der sich nie wiederholt.

Rosa Rauschen hört sich da bereits deutlich härter an und beinhaltet tiefe Frequenzen, die höheren werden abgeschwächt. Dieses Rauschen ist typisch bei FM Radios ohne Empfang.

Blaues Rauschen ist das genaue Gegenteil von rosa Rauschen und ist somit sehr hell und könnte wie ein laut aufgedrehter Verstärker ohne Signalquelle beschrieben werden. Ein nicht sehr penetrantes, eher durchgehend existierendes Rauschen.

sehr penetrantes, eher durchgehend existierendes Rauschen. Mithilfe dieser Wellenformen, lassen sich alle möglichen,

Mithilfe dieser Wellenformen, lassen sich alle möglichen, vorstellbaren Töne, Klänge und Geräusche erstellen oder imitieren. Vor allem das Erstellen neuer Sounds ist wirklich unvorstellbar spannend und interessant, man kann Klänge erzeugen, die noch nie jemand so gehört hat.

15 Quelle Abb. http://www.analogeklangsynthese.de/analog/noise.html (Jan. 2014)

Der LFO ist ein wichtiges Utensil in jedem elektronischen Musikprogramm und darf nicht fehlen. Der

Der LFO ist ein wichtiges Utensil in jedem elektronischen Musikprogramm und darf nicht fehlen. Der Low Frequency Oscillator bedeutet wörtlich übersetzt Niederfrequenzoszillator. Genau das macht er auch. Der LFO sendet die gleichen elektronischen Impulse aus, wie der Oszillator, jedoch im absolut niederfrequenten Bereich, im Bereich des Infraschalls. Erst, wenn dieser einen Zusammenhang mit einem bereits existierenden Instrument herstellt, kann er hörbar gemacht werden. LFOs können nun auf eine bestimmte Eigenschaft übertagen werden. So kann man den LFO unter anderem auf die Lautstärke oder die Verzerrung anwenden. In der gewünschten Wellenform und Frequenz moduliert der LFO nun den gewählten Effekt. Häufig wird der LFO vor allem im Dubstep verwendet, um den typischen Wobble Bass zu kreieren. Außerdem wird er für die elektronische Erzeugung von einem Vibrato benutzt. Er kann also auch die Tonhöhe Modulieren und so in einer Frequenz von 3- 15Hz das typische Vibrato an einer Geige, einer Gitarre oder Ähnlichem erzeugen. Der LFO hat den Vorteil, gänzlich verändert werden zu können, während der normale Oszillator noch ein wenig eingeschränkt ist. So kann zum Beispiel der LFO durchgehend geändert werden, abwechselnd im Takt mal schneller, mal langsamer. Er ist nicht frequenzgebunden und somit deutlich flexibler. Insgesamt kann der LFO einen viel größeren Bereich abdecken, als er für das Vibrato benötigt wird. Modulation meint in der elektronischen Musik nichts weite, als das Bearbeiten von Parametern. Sobald also an einem Knopf gedreht wird, spricht man von der Modulation. Auch FL Studio besitzt die Möglichkeit der LFO-Modulation.

Was sind Plugins? Bei Internetbrowsern wie Firefox oder Google Chrome, gibt es Plugins ebenso wie

Was sind Plugins? Bei Internetbrowsern wie Firefox oder Google Chrome, gibt es Plugins ebenso wie in der elektronischen Musik. Diesen helfen sie beispielsweise Werbung zu verbergen oder Internetvideos abzuspielen. VST ist die Abkürzung für Virtual Studio Technology und macht Entwicklern, sowie Musikern den Weg für völlig Neues frei. Eine Schnittstelle für VST Plugins, macht ein Programm gleich viel flexibler und bietet endlose Möglichkeiten. VSTs kommen auch direkt aus der Musikproduktion und wurden eigens für diese entworfen. 1996 stellte Steinberg das erste Mal die VSTs vor. Der Programmierer programmiert ein Instrument oder einen Effekt, den der Musiker dann direkt in sein Programm laden kann. Nicht alle Musikprogramme jedoch sind VST-kompatibel und damit sogenannte VST-Hosts, sondern einige bedienen sich auch anderen Technologien. VSTs sind am weitesten verbreitet und können unterschiedlich benutzt werden. Mit der Zeit hat sich VST weiterentwickelt, sodass nun einige Erweiterungen, wie beispielsweise ein Qualitätszertifikat und weitere Möglichkeiten für die Kompabilität hinzugekommen sind. Der einzige Nachteil ist, da VST für jeden Programmierer frei zugänglich ist, können schlecht programmierte Instrumente oder Effekte die Stabilität des gesamten Programms beeinflussen und in Extremfällen zu einem Absturz führen.

Frühere Versionen 16

zu einem Absturz führen. Frühere Versionen 1 6 Ab Version 3.0 1 7 1 6 Quelle

Ab Version 3.0 17

führen. Frühere Versionen 1 6 Ab Version 3.0 1 7 1 6 Quelle Abb.

16 Quelle Abb. http://www.soundonsound.com/sos/nov10/articles/25-milestone-products.htm (Jan. 2014)

17 Quelle Abb. http://www.musictech.net/wp-content/uploads/2013/09/steinberg_vst3_logo.jpg (Jan. 2014)

Als Effekt kann das VST meist keine eigenen Töne erzeugen, sondern nur die der Instrumente durch Modulation bearbeiten. Eine Ausnahme bildet beispielsweise ein VST Effekt, welcher ein Krakeln eines Schallplattenspielers imitieren soll (so wie ich einen benutze). Die Möglichkeiten sind beinahe grenzenlos. Flanger, Distortion (Verzerrung), Delay (Verzögerung), oder Reverb (Hall) sind nur einige Beispiele. Im Mixer, werden diese Effekte dann auf das gewählte Instrument angewandt. Auch Effekte, die es physisch zu kaufen gibt, gibt es ebenso digital als VST. Die folgende Abbildung zeigt, wie ein Effekt aussehen kann. (Abb. 18

Abbildung zeigt, wie ein Effekt aussehen kann. (Abb. 1 8 Als Instrument (Virtual Studio Technology Instrument),
Abbildung zeigt, wie ein Effekt aussehen kann. (Abb. 1 8 Als Instrument (Virtual Studio Technology Instrument),

Als Instrument (Virtual Studio Technology Instrument), kann das Plugin direkt in das Pattern geladen und dort bearbeitet und verwendet werden. Im VSTi können eigene Effekte integriert sein, die man verwenden kann. Ausserdem kann man häufig vollständig in den Klang eingreifen. Ein Instrument besteht so gut wie immer aus Oszillatoren die durch ihre Kombination Klänge imitieren oder typische Synthesizer Klänge erstellen können. Meistens gibt es auch sogenannte Presets, die bereits Töne voreingestellt haben. Die Vielfalt ist unendlich: Mundharmonika, Geigen, Flöten,

Chor, Contrabass, Akustische Gitarre, Exotische Instrumente,

Ein dauernd

wachsendes Spektrum und die Freiheit bei modulierbaren Oszillatoren können helfen, den Liedern eine absolut persönliche Note zu geben. Genau wie Effekte können die Instrumente komplett unterschiedlich aussehen und jedes Mal, wenn

man ein neues benutzt, muss man beginnt eine neue Auseinadersetzung.

18 Quelle Abb. Eigener bearbeiteter Screenshot

Ein Effekt (VST) kann also auf ein Instrument (VSTi) angewendet werden. Doch wie werden diese

Ein Effekt (VST) kann also auf ein Instrument (VSTi) angewendet werden. Doch wie werden diese beiden verbunden? Auch der Mixer ist ein mächtiges Werkzeug, er kann VSTs mit VSTis verbinden, das macht ihn unter Anderem so wichtig. Der Großteil des Masterings, also des letzten Schliffs eines Liedes, findet im Mixer statt. Somit ist der fachgemäße Gebrauch des Mixer auch ein Zeichen für die Professionalität eines Musikers, denn ein gutes Mastering ist in der Musikwelt immer wichtig. Wenn man ein Instrument in den Mixer laden will, um es mit Effekten zu versehen oder weiter zu bearbeiten, gibt es mehrere Möglichkeiten. Die einfachste Möglichkeit ist, es im Pattern anzuwählen. Bei VST Instrumenten öffnet sich das Plugin zusätzlich, dieses kann man schließen. Bei geladenen Samples, öffnet sich nur ein kleines Fenster, welches dann weiterführende Möglichkeiten bereithält.

(Abb. 19 )

(Abb. 1 9 ) Hier gibt es die Möglichkeit den Pitch zu verändern, die Lautstärke und

Hier gibt es die Möglichkeit den Pitch zu verändern, die Lautstärke und das Spektrum in welchem der Pitch geändert werden kann. Weitere Optionen wie Attack (Anschlag), Release oder Decay sind auch möglich, jedoch unter dem Reiter INS. Unten ist das Sample visuell dargestellt, die Knobs, also die runden, drehbaren Regler können das Sample an sich verändern. Zum Beispiel Fade-in oder Fade-out lassen das Sample vorne und hinten an- oder abklingen. Darüber sind einige Möglichkeiten, die Welle zu bearbeiten; Reverse für rückwärts oder Swap Stereo, für ein vertauschtes Stereoverhältnis. Alle Möglichkeiten lassen sich kaum in diesem Rahmen beschreiben, die meisten sind beim Instrument auch nicht vorhanden. Beim VSTi wird ausserdem eine Klaviatur anstatt der Aussteuerung angezeigt.

Um nun das Sample oder das Instrument an den Mixer zu senden, muss lediglich die passende Zahl in das FX Fenster eingegeben werden. In diesem Fall, FX 4. Es wird an Channel 4 im Mixer geschickt und kann dort mit bis zu acht Effekten beladen werden.

19 Quelle Abb. Eigener Screenshot

(Abb. 2 0 ) Diese Abbildung zeigt den Mixer, der bereits mit Effekten und Instrumenten

(Abb. 20 )

Diese Abbildung zeigt den Mixer, der bereits mit Effekten und Instrumenten beladen ist. Für die Übersicht wurden den Instrumenten Farben und kleine Icons (Symbole) zugeordnet. Auch hier ist es nicht möglich, wirklich alles zu beschreiben. Jede vertikale Spur kann mit mindestens einem Instrument, Sample oder Loop belegt werden. Die Spur auf der linken Seite ist immer der Master (hier Grün), also das Endergebnis und die Gesamtlautstärke. Am obersten Rand kann am Dreieck ein Scrolldownmenu ausgefahren werden, welches jedoch von mir nicht oder kaum benutzt wird. Jede Spur hat eine Aussteuerungsanzeige. Wenn die Aussteuerung am oberen Rand ankommt, ist das Ergebnis deutlich übersteuert und es klingt schrecklich verzerrt. Somit sollte kein Instrument in diesen Bereich kommen und auch der Master darf den Orangenen Bereich nicht überschreiten. Unter dem Namen des Instrumentes (in der ersten Spur der Master), gibt es einen Bogen über den man die Balance, also ob der rechte oder der linke Lautsprecher

20 Quelle Abb. http://www.flstudio-shop.de/assets/images/neuer-mixer_600.png (Jan. 2014)

angesteuert werden soll, einstellen kann. Darunter befindet sich der Volumenregler, über den man die Lautstärke einstellen kann. Die Channelzahl kann am oberen Ende jeder Spur abgelesen werden. Ein an FX 4 geschicktes Instrument erscheint an Insert 4. Auf der rechten Seite sind die Effekte. Von unten nach oben gibt es eine Art Rangordnung. Der unterste Effekt wirkt sich auf die oberen Effekte aus. Ein Verzerrer auf Platz 8, verzerrt so auch einen Flanger auf Platz 7, diese beiden wirken sich auf einen Reverb auf Platz 6 aus usw. Unter der Möglichkeit, acht Plätze mit Effekten zu belegen, gibt es einen groben Equalizer und weitere Funktionen. Diesen sollte man jedoch nicht verwenden, da der Equalizer viel zu ungenau ist. Dafür verwendet man also besser auch ein Plugin. Jede Spur bietet außerdem die Möglichkeit, das FX zu deaktivieren. Wenn es deaktiviert ist, wird es grau, aktiviert, gelb. Das hat zur Folge, dass alle Effekte abgeschaltet werden und das Instrument dry gehört werden kann. Das ist für einen Vorher- nachher-Vergleich wichtig, um zu erkennen, ob eine Besserung oder eine Veränderung erfolgt ist, die es wert ist, beibehalten zu werden. Um auch einen Vergleich mit nur einem einzigen Effekt zu haben, gibt es neben jedem Slot, also jedem Platz für einen Effekt einen Knob, mit dem die Intensität des Effektes gewählt werden kann. Das kleine grüne Lichtchen, kann an- oder ausgeschaltet werden, um den Effekt völlig zu deaktivieren.

Automation Clips können bei vielen Knobs mit einem Rechtsklick in die Playlist geladen werden, dabei

Automation Clips können bei vielen Knobs mit einem Rechtsklick in die Playlist geladen werden, dabei spielt es keine Rolle, ob es die Lautstärke, der Cutoff oder etwas anderes ist. (Abb. 21 )

der Cutoff oder etwas anderes ist. (Abb. 2 1 ) Mithilfe der Kurven lässt sich nun

Mithilfe der Kurven lässt sich nun die Entwicklung des gewählten Effekts über das ganze Lied hinweg bearbeiten. Dicke Punkte sind dabei immer die Extremwerte. Zwischen zwei großen Punkten ist immer ein Mittelpunkt, der etwas kleiner ist, es sei denn, die großen Punkte sind vertikal auf einer Höhe. Durch Benutzen eines kleinen Punktes, kann von einer linearen bis zu einer exponentiellen Steigung stufenlos eingestellt werden. Wenn man mit der gedrückten Maustaste nach unten fährt, geht es immer mehr zur exponentiellen Kurve am rechten Extremwert. Fährt man nach oben, nähert sich die Steigung einer exponentiellen am linken Extremwert. Auch auf dem LFO lassen sich diese Einstellungen vornehmen. Somit sind die Automation Clips auch eine Möglichkeit, den berühmten Wobble Bass im Dubstep zu erschaffen. Für meine Musik benutze ich Automation Clips vor allem für Übergänge, so kann ich eine Melodie (Trance oder Dance typisch) aus dem Bass kommen lassen und so den Effekt des aus dem Nichts entstehen lassen, erzeugen.

21 Quelle Abb. Eigener Screenshot

Eine weitere Möglichkeit ist das Edit Events, es hat eine ähnliche Funktionsweise, wie die Automation Clips, lässt sich aber genauer bearbeiten.

die Automation Clips, lässt sich aber genauer bearbeiten. Das perfekte Werkzeug für jeden Dubstep Produzenten ist
die Automation Clips, lässt sich aber genauer bearbeiten. Das perfekte Werkzeug für jeden Dubstep Produzenten ist

Das perfekte Werkzeug für jeden Dubstep Produzenten ist Edit Events, auch über den Rechtsklick anwählbar. Es erscheint ein neues Fenster, welches im ersten Moment ein wenig wie die anderen Aussieht, jedoch eine völlig eigene Funktion hat. Im Beispiel Dubstep kann man es auf den Cutoff anwenden und ihn dort sehr präzise bearbeiten. Es gibt die Möglichkeit, diese komplett mit der Maus zu erstellen, oder einen LFO zu verwenden, wie in diesem Beispiel. Diesen LFO habe ich von links nach rechts zu Beginn schnell und zum Ende hin immer langsamer ausschlagen lassen.

22 Quelle Abb. Eigener Screenshot

Auch wenn ein LFO benutzt wurde, kann er nachträglich mit der Maus bearbeitet werden. Wenn man nur einen Teil der Zeit markiert und den LFO verändert, wird er nur für diesen Teil verändert, so kann man Rhythmusänderungen vornehmen. Mit der linken Maustaste werden die Änderungen genau der Maus folgend erstellt. Mit der rechten erstellt man eine Gerade zwischen Ansatz- und Endpunkt.

erstellt man eine Gerade zwischen Ansatz- und Endpunkt. ötigt Was man für das Komponieren benötigt, kommt

ötigt

man eine Gerade zwischen Ansatz- und Endpunkt. ötigt Was man für das Komponieren benötigt, kommt ganz

Was man für das Komponieren benötigt, kommt ganz darauf an, welches Budget man zur Verfügung hat, und wie professionell man arbeiten möchte. Das Programm an sich gibt es in verschiedenen Ausführungen. Die Fruity Edition ist die günstigste und in ihren Möglichkeiten sehr reduzierte Version. Wichtig ist natürlich zu überlegen, was damit gemacht werden soll. Hobbymäßig zu komponieren ist damit möglich. Doch sollte es professionell werden, fehlt doch Einiges. Das Aufnehmen generell, ist mit der Fruity Edition nicht möglich. Auch die wichtigen Automation Clips, mit denen Effekte oder die Lautstärke über die Laufzeit des Liedes unterschiedlich geschaltet werden können, fehlen. Die Producer Edition bietet da schon mehr. Sie kann aufnehmen und Automation Clips verwenden.

Die Signature Bundle Edition bringt noch einige, sonst separat käufliche Effekte und Instrumente gleich mit. Sie ist die teuerste von allen Dreien. Da das Aufnehmen und die Automation Clips wirklich wichtige Werkzeuge sind, ist es ratsam sich die Producer Edition zu holen. Die Signature Bundle Version ist nur bei vertiefter Auseinandersetzen mit der elektronischen Musik zu empfehlen. Von der Fruity Version würde ich ganz abraten. Hat man sich für eine Version entschieden, sollte man sich 49$ bereithalten um sich im Online-Shop von Image-Line „Lifetime free Updates“ zu kaufen. In der Signature Bundle Edition sind diese bereits mitgeliefert. Damit kann man jede kommende Version von FL Studio, mit allen Erneuerungen, kostenlos bekommen und ist so immer auf dem neusten Stand.

Neben FL Studio ist für jedes Musikprogramm ein relativ aktueller Computer empfehlenswert, um Hänger und starke Verzerrung durch zu langsames Bearbeiten der Informationen zu vermeiden. Mit der Maus und der Tastatur lassen sich so bereits mit den vorinstallierten Instrumenten gute Melodien und Lieder komponieren. Der einzige Nachteil ist, dass in Musikerkreisen zum Beispiel der Klang der FL Keys sehr schnell erkannt wird und das Lied somit an Magie verliert. Im Internet gibt es zahlreiche VSTs, die das verhindern können und so den Eindruck eines schlecht gemachten Liedes ausbremsen können. Das Angebot an kostenfreien sowie kostenpflichtigen Instrumenten ist immens. Gute Kopfhörer oder Lautsprecher sind das A und O. Auf gar keinen Fall darf man über Laptop Lautsprecher arbeiten. Das Ergebnis könnte aus 90% Bass bestehen und auf jeder anderen Box ganz miserabel klingen. Da die Bassfrequenzen von einem kleinen Lautsprecher nur bedingt wiedergegeben werden, versucht der Musizierende dies durch Anheben des Basspegels auszugleichen und heraus kommt eine Art Subwoofer Test. Mit normalen Lautsprechern einer Stereoanlage oder eines Hi-Fi Systems ist es vorerst in Ordnung zu komponieren. Dennoch ist es immer wichtig einen Vergleich zu haben und die Anlage gut zu kennen. Wenn das fertige Lied auf der einen Anlage ausgeglichen klingt, jedoch auf jeder anderen zu höhenbetont, dann hat die Referenzanlage zu viel Bass oder anders herum. Bei einer richtigen Leidenschaft, oder sogar dem Wunsch, diese Kreativität beruflich auszuüben, ist es von großer Wichtigkeit, sich Monitorlautsprecher zu besorgen, am besten aktive. Diese haben einen linearen Sound und versuchen die Musik so wiederzugeben, wie sie ist. Die teuersten Hi-Fi Lautsprecher nützen nichts, wenn sie nicht linear sind und jedes Stück mit einem Equalizer romantisieren und somit verfälschen. Denn ein fertiges Lied sollte nicht nur auf einer Anlage gut klingen, sondern auf so gut wie jeder. Über ein USB Interface kann ein extrem hochwertiger Sound wiedergegeben werden. 3,5mm Klinke sollte hierbei vermieden werden, zu schlecht die Qualität. Mindestens 6,3mm, wenn nicht sogar XLR Anschlüsse sollten für das beste Ergebnis verwendet werden.

Um die Vorteile der Aktivmonitore voll auszunutzen, ist es wichtig den Raum akustisch vorteilhaft einzurichten. Hall sollte vermieden werden. Bei weniger Budget, kann ein Teppich auf dem Boden und Stoff an der Wand bereits Wunder wirken. Auf gar keinen Fall jedoch, sollte eine kahle Wand den Boxen gegenüber oder in unmittelbarer Nähe sein. Eine Wand absorbiert den Schall nicht, sondern wirft ihn zurück, was wiederum eine ungenaue Soundwiedergabe zur Folge hat. Die Lautsprecher sollten am besten auf weichem Untergrund stehen und nicht auf Holz. Wer etwas mehr Geld zur Verfügung hat, kann sich Akustikschaumstoff kaufen und Ständer für die Lautsprecher. Je mehr Stoff und je weniger Holz oder Metall in der Umgebung ist, desto besser. Ein Midi Keyboard kann auch nicht schaden. Nach dem Anschließen kann man es dann mit allen Samples und Instrumenten belegen, die man in sein Programm geladen hat und diese gleich aufnehmen. Das praktische ist, die Töne werden im Piano Roll angezeigt und können dort wieder völlig frei verändert, gelöscht oder ergänzt werden.

Zu Beginn steht oft, nicht immer, die Idee. Unter der Dusche, bei den Hausaufgaben oder

Zu Beginn steht oft, nicht immer, die Idee. Unter der Dusche, bei den Hausaufgaben oder unterwegs kommt sie, manchmal unangekündigt, manchmal beim wilden Rumpfeifen. Dann muss alles ganz schnell gehen, die Idee muss festgehalten werden, damit sie nicht verloren geht. Zu oft ist es mir passiert, dass ich eine Idee hatte und dachte: „die vergesse ich nicht mehr“, und zehn Minuten später war sie weg. Also so unmittelbar wie möglich muss die Idee verewigt werden. In der eigenen Wohnung ist das kein Problem, ich schmeiße den Computer an, öffne das Internet und gehe auf die Seite all8.com, klicke auf Tap BPM und drücke im Takt zu meiner Melodie im Ohr eine beliebige Taste. Die Seite spuckt nach einiger Zeit die passende BPM (Beats per Minute) in Zahlen aus und ich öffne mein Musikprogramm. Die aufgerundete Zahl gebe ich dann in das passende Kästchen bei FL Studio ein. Somit ist das ganze Projekt bereits im passenden Tempo. An der Geschwindigkeit im Zusammenspiel mit der Melodie und natürlich meinen Wünschen kann ich nun voraussagen, in welche Richtung das Lied in etwa gehen wird. Nachdem ich also die Geschwindigkeit angepasst habe, nehme ich mir das nächstbeste Instrument und beginne mein Hirngespinst in Töne zu verwandeln. Meistens nehme ich dazu die FL Keys, das primitive virtuelle Instrument von Image- Line. Jedes andere Instrument benötigt, um die Melodie klar und schnell zu vertonen, vorangehende Einstellungen, und das kann ich in so einer eiligen Situation überhaupt nicht gebrauchen. FL Keys dagegen muss ich nur in das Programm laden und kann es sofort wie ein kleines, schlecht klingendes Klavier benutzen, spielen und mit meinen Ideen beschreiben. Nachdem dies getan ist, speichere ich sofort und ein Stein fällt mir vom Herzen. Ich habe es geschafft: Ein neues Lied steht in den Startlöchern.

Problematisch wird es erst, wenn ich unterwegs den Einfall habe. Da ich notentechnisch eine Niete bin, ist es mir nicht möglich, schnell ein Blatt mit Noten zu beschreiben. Besser ist es, wenn ich mein Handy, meine Kamera oder Ähnliches dabei

habe, mit dem ich etwas aufnehmen kann. Solange ich nicht in der Straßenbahn oder der Innenstadt bin, geht das auch mal, um die Melodie festzuhalten. Wenn auch das nicht der Fall ist, dann muss ich doch auf meine Erinnerungsfähigkeit zurückgreifen und versuche die Melodie möglichst tief in mein Gehirn einzubrennen. Meistens jedoch bin ich damit erfolgslos und die Idee verliert sich.

Ü
Ü

Nachdem ich FL Studio öffne, erscheint die Arbeitsoberfläche völlig leer, wie ein unbeschriebenes Blatt. (Abb. 23 )

Arbeitsoberfläche völlig leer, wie ein unbeschriebenes Blatt. (Abb. 2 3 ) 2 3 Quelle Abb. Eigener

23 Quelle Abb. Eigener Screenshot

Im aktuellen Pattern öffne ich mit einem Rechtsklick auf ein Instrument/Sample (hier Kick, Clap, Hat oder Snare) ein Scrolldownmenü, welches mir unter Anderem die Möglichkeiten gibt, es durch ein anderes zu ersetzen oder ein weiteres hinzuzufügen. Ich ersetze den Kick durch ein richtiges Instrument. Bei schnelleren oder komplexeren Melodien nehme ich vorrübergehend FL Keys, um schnelle Ergebnisse zu erzielen. Bei Begleitung oder Melodien, die mit Klavier überhaupt nichts zu tun haben, nehme ich vorerst Sytrus und irgendein Preset. Für den typischen Bass BooBass. Mit dem geladenen Instrument gehe ich nun in den Piano Roll (Rechtsklick „send to Piano Roll“) und beginne meine Melodie zu schreiben. Nachdem ich das gespeichert habe, verfalle ich meist in den Beat. Auch hier suche ich mir erst nur Kicks, die funktionieren und beginne einen passenden Beat zu kreieren. Kick und Snare sind hier die Grundfunktionen, später kommen Hi-Hats, Crash und Precussion hinzu. Wenn ich etwas an der Melodie verändern oder ergänzen möchte, klone ich das Pattern, um eine Art Backup zu haben, für den Fall, dass mir die Idee misslingt, oder etwas völlig Anderes dabei herausspringt.

Ü
Ü

Irgendwann ist es dann soweit. Nach einigen Wochen oder Monaten habe ich lauter unbenannte, vollgestopfte Patterns. Oft haben einige Patterns einige Instrumente mit den gleichen Melodien oder Begleitungen. Nachdem ich so die Grundzüge herausgearbeitet habe, splitte ich die Patterns, nehme sie also auseinander. Dafür klone ich ein Pattern und lösche im neuen alle Instrumente, bis auf eines. Dieses lösche ich dann aus dem ursprünglichen Pattern, bis nur noch eines übrig ist. Dies mache ich mit allen Pattern, die mehrere Instrumente haben und lösche Doppeltes. Nun habe ich für jedes Instrument in jeder Ausführung ein eigenes Pattern. So habe ich mehr Übersicht und kann später in der Playlist viel flexiblere Einstellungen vornehmen. In der Playlist setze ich meine Puzzlestücke zusammen, meistens entstehen Gruppen an Musiksegmenten. So zum Beispiel zu Beginn eine Art Intro,

welches völlig anders daherkommt, als der Mittelteil. Oft kommen die Übergänge erst sehr spät dazu, das heißt, nach dem Intro ist eine kleine Pause, dann kommt der Mittelteil, wieder eine Pause und dann eine Art Zwischenteil und wieder der Hauptteil. Meistens kommt anschließend noch ein Anhängsel in einer völlig anderen Musikrichtung hinzu. Diese Anordnung ist natürlich nicht jedes Mal gleich, aber als Veranschaulichung in Ordnung.

Nach und nach beginne ich, die Grundlautstärke für die Instrumente festzulegen. Diese darf später nicht mehr verändert werden, da dies Auswirkungen auf jedes Pattern und somit auf das gesamte Arrangement hat. Für die Übersicht, welche, je weiter ich in der Produktion fortschreite, immer wichtiger wird, halte ich in der Playlist die Tracks nach Instrumenten sortiert. Ein Track ist dann z.B. der Bass, dieser wird so benannt, bekommt ein Icon und eine passende Farbe von mir zugeteilt. Alles, was jetzt Bass ist, setze ich in diesen Track. Nur selten überschneidet sich dort etwas. Da Fruity Loops bis zu 199 Tracks zulässt, hat man auch mehr als ausreichend Platz.

24

Loops bis zu 199 Tracks zulässt, hat man auch mehr als ausreichend Platz. 24 2 4

24 Quelle Abb. Eigener Screenshot

Bei meinen Kompositionen für die Jahresarbeit begann ab hier für mich absolutes Neuland, den Mixer habe ich in meinen alten Produktionen so gut wie nicht benutzt, und somit habe ich keine Effekte zu meiner Musik hinzugefügt oder gar ein Mastering vollbracht. Da meine letzten Lieder bereits über zwei Jahre zurückliegen, ist das zu verkraften. Da ich mich jedoch weiterentwickeln, und für die Jahresarbeit von vorne bis hinten komplette Lieder gestalten möchte, komme ich daran nicht vorbei.

ä
ä

Da alle Instrumente/Samples noch relativ unbrauchbar sind, mache ich mich auf die Suche nach den Sounds die meinen Vorstellungen entsprechen. Nach und nach ersetze ich so die eher schlecht klingenden mit gut klingenden Instrumenten und die billigen mit den qualitativ hochwertigeren Samples. Dabei kombiniere ich auch Kicks, Claps, Snares und Hi-Hats so miteinander, dass sie mir gefallen. Meistens habe ich bereits während vorheriger Schritte damit angefangen und vervollständige das nur noch mit Begleitungen und nicht mit den Hauptinstrumenten.

noch mit Begleitungen und nicht mit den Hauptinstrumenten. Ich schicke nun ein Sample oder Instrument nach

Ich schicke nun ein Sample oder Instrument nach dem anderen in den Mixer. Für jedes nehme ich einen anderen Channel, sonst würden sich die Einstellungen auf mehrere auswirken. Beim Mischen werden Frequenzen gespart. Über den Parametric Equalizer 2 in FL Studio kürze ich so zum Beispiel die Höhenanteile aus einem Kick und die tiefen aus einem Hi-Hat. Der Vorteil hier ist besonders der satte Sound, der entsteht, da sich die Höhen und Tiefen nun stärker voneinander abheben, weil sich die Instrumente stark voneinander unterscheiden und jedes seinen eigenen Frequenzbereich bekommt. Wichtig ist auch, die Stereoanteile aus tieferen Instrumenten zu verbannen und diese so monoton zu halten wie möglich, damit die

Melodie und die höheren Töne diese voll ausnutzen können. Nach diesen Schritten ist das Mischen fertig. Trotzdem sollte es nicht unterschätzt werden, da es mit einer gewissen Anzahl an Instrumenten einige Zeit dauern kann. Über mehrere Stunden verteilt hört man dann meistens auch nur einzelne Instrumente und passt diese aneinander an. Somit ist das Mischen nicht nur Visuell, sondern immer auch auditiv und man sollte immer einen Vergleich haben, um zu sehen, ob es wirklich eine Besserung gab. Nach dem Mischen oder Pre-Mastering geht es an das richtige Mastering. Zu Beginn muss die Frequenzkurve mit einem Equalizer (apQualizer) kontrolliert werden. Am besten ist es, wenn diese Kurve von links (Bass) nach rechts (Höhen) duchschnittlich linear abfällt. Beim Mastering wird vor allem noch einmal etwas Lautstärke hinzugewonnen. Mit dem Fruity Multiband Compressor bearbeite ich die Tiefen, Mitten und Höhen des gesamten Songs. Der Kompressor komprimiert die Töne, die aus dem Lied herausstechen und zu laut sind. Sie werden leiser gespielt werden, damit sich der gesamte Ton gleichmäßiger anhört. Der Kompressor springt bei der vorgegeben Lautstärke der gewählten Frequenz an. Der Kompressor hilft, die lauten Teile eines Tons abzusenken und den kompletten Ton dadurch lauter spielbar zu machen, ohne, dass dieser übersteuert.

Auch, wenn ich ein sehr großer Fan von elektronischer Musik bin, sollte sie in meinen

Auch, wenn ich ein sehr großer Fan von elektronischer Musik bin, sollte sie in meinen Augen auf gar keinen Fall die akustische ersetzen. Zwar hat elektronische Musik für mich genauso eine Essenz wie unplugged Music, dennoch ist es schön, Instrumente live oder auch aufgenommen zu hören und zu sehen. Deshalb sollte elektronische Musik nie versuchen, wie akustische zu klingen, sondern eindeutig elektronisch sein und ihre Vorteile der Synthesizer und Oszillatoren, sowie digitalen Effekte voll ausnutzen. Es gibt nichts Schöneres als gemeinsames Musizieren. Doch auch das Zusammenkommen und Musizieren mit Freunden muss bei der elektronischen Musik nicht verloren gehen. Es geschieht aber auf einer ganz anderen Ebene. Ein Vorteil ist auch, wenn man mit jemanden aus dem Internet oder einem Freund, der gerade fern ist, musizieren will, kann man sozusagen kooperative Lieder gestalten. Man kann sich flps (das Dateiformat in dem FL Studio Projekte vor dem Export gespeichert werden) hin und her schicken und so gemeinsam Musik erschaffen. Auch ist es nun für Menschen, die kein riesiges Budget haben, bereits mit einfachsten Mitteln möglich, ihr Talent zu fördern und ihre eigene Musik zu komponieren.

Genau wie das Internet und andere technische Errungenschaften sollte in der elektronischen Musik nicht sofort nur das Schlechte gesehen werden, denn das Internet und die elektronische Musik sind letzten Endes nur das, was wir daraus machen. Ob wir uns nun über das Internet verabreden oder den ganzen Tag online- Rollenspiele spielen ist schließlich uns überlassen.

Die Idee einige, elektronische Musik entstehe allein durch ein paar Knopfdrücke, entspricht nicht ganz der Wahrheit.

Eine Ungerechtigkeit gibt es: Es gibt Menschen, die jahrelang ihre eigene Musik komponieren, die immer einen besonderen Charakter hat und hinter der wirklich Arbeit steckt. Andere benutzen Vorlagen, kopieren Melodien und werden über Nacht zum Star. Das ist wirklich nicht fair. Ich beobachte, dass nur eine kleine Anzahl von Musikrichtungen wirklich Verbreitung findet, sei es, weil die Plattenfirmen und

Musikproduzenten keine Lust oder keinen Mut dazu haben, etwas neues zu versuchen, und lieber Zusammengeklautes veröffentlichen, oder sei es, dass das ausgewählte Stück wie 30 andere Stücke klingt, die zuvor schon in den Charts waren. Auf diese Weise kommen kleine Musiker, die wirklich für die Musik arbeiten und leben, nicht oder nur sehr selten auf diesen Stand der Bekanntheit. Dieses Phänomen, war jedoch auch vorher schon erkennbar.

Wenn man sich aber ein wenig in die Tiefen der Musikrichtungen und Möglichkeiten begibt, findet man, da bin ich mir sicher, immer etwas, was einem gefällt, auch wenn man elektronischer Musik generell eher skeptisch gegenübersteht. Denn auch hier ist es, wie überall anders auch, immer gut eine allgemeine Offenheit, dem Neuen gegenüber zu haben, sonst verpasst man womöglich noch einige Highlights. Später kann man immer noch entscheiden, ob man es nun mag oder nicht.

Ich habe in der Vielfalt des Hörbaren im Internet einiges Interessantes gefunden, und auch meine Musik durch verschiedene Impulse bereichern können.

meine Musik durch verschiedene Impulse bereichern können. 25 2 5 Quelle Abb.

25

25 Quelle Abb.

http://4.bp.blogspot.com/-f0vY0Sih5uc/UHh5JDhNTjI/AAAAAAAAAC4/fbYfLzm07DA/s1600/blog+pic.png

(Jan. 2014)

Afrojack: bekannter Künstler, der Fl Studio nutzt und sich durch seine ausgefallene Verwendung des Dirty

Afrojack:

bekannter Künstler, der Fl Studio nutzt und sich durch seine ausgefallene Verwendung des Dirty Dutch Styles (Subgenre zu Elektro) in der elektronischen Musikbranche einen Namen gemacht hat.

Aktive/Passive Monitore:

Aktive Lautsprecher haben einen eingebauten Verstärker und können direkt an die Musikquelle angeschlossen werden. Passive hingegen haben oft einen Klemmanschluss für Kabel, die von einem Verstärker kommen. Monitorlautsprecher sind immer an den Musiker gewandt, so auch bei Live-Auftritten

Amplitude:

Die Amplitude kann mit der Lautstärke verglichen werden, sie beschreibt, wie weit eine Schallwelle ausschlägt und wie laut sie demnach klingt oder ist.

Attack:

Das Attack ist oft grafisch gezeigt und kann eingestellt werden. Es beschreibt wie abrupt ein Sample oder ein Instrument anschlagen soll.

Avicii:

Bekannter Künstler, der im Mainstream vor allem durch „Levels“ und „Wake Me Up“ bekannt wurde. Er nutzt teilweise sogar häufig verwendete Presets von typischen Plug-Ins bei FL Studio und zeigt damit, dass FL Studio durchaus massentauglich ist und letzen Endes die Melodie über die Instrumentenwahl geht.

Balance:

An der Balance kann man einstellen, welcher Lautsprecher angesteuert werden soll. Auch bei normalen Stereo oder Hi-Fi Anlagen kann man diese Bezeichnung finden.

BPM (Beats Per Minute):

An der BPM kann man die Schnelligkeit des Liedes erkennen. Fast alle Musikrichtungen bewegen sich in ungefähren Bereichen, was einen erhöhten Wiedererkennungswert schafft. Der typische Wert für Dance zum Beispiel ist ca. 120BPM, Hip-Hop oft ca. 95BPM oder Dubstep 140BPM. 60BPM sind 60 Schläge in der Minute

Beat (1):

Der Beat ist der Teil des Liedes, der aus dem Schlagzeug besteht (Basskick, Snare, Hi- Hats, Cymbal, Tom usw.).

Beat (2):

In Musikerkreisen der elektronischen Musik wird von einem auch Beat als fertiges Lied gesprochen.

CGI Special Effects:

CGI (Computer Generated Imagery) bezeichnet (meistens) die Effekte in Filmen, die mithilfe von Computern erzeugt werden. Häufig werden Filme kritisiert, die eine Menge CGI benutzen. Special Effects müssen dagegen nicht mit dem Computer gemacht werden.

Claps:

Der Sound zusammenklatschender Hände, heute meist imitiert, wurde immer beliebter und kann mit der Snaredrum gemischt werden oder diese ersetzen.

Cutoff:

Der Cutoff beschneidet das ausgewählte Instrument um bestimmte Frequenzen. Dreht man den Cutoff ganz auf wird das Instrument nicht bearbeitet, bei herunterregeln nun, beschneidet er das Instrument immer mehr um die höheren Instrumente. Besonders bei Übergängen (auch von mir verwendet) und bei Dubstep in Verbindung mit einem LFO oder einem Automation Clip wird er häufig verwendet.

Decay:

Nach dem Anschlag eines Tones, beginnt der Decay in der gewünschten Länge einzusetzen. Er lässt das Instrument entweder langsam oder schnell abklingen.

Dry:

Instrumente sind Dry (engl. Trocken), wenn keine Effekte auf sie angewendet werden (Gegenteil Wet).

Fade-In/Fade-Out:

Langsames verstärken der Lautstärke aus dem Nichts (In) oder abschwächen aus der Lautstärke in das Nichts (Out).

Frequenz:

Die Frequenz bestimmt die Höhe eines Tones. Sie wird in Hertz, kurz Hz gemessen, das sind Schwingungen pro Sekunde, das menschliche Gehör umfasst im Idealfall 20Hz 20kHz (Kilohertz 20 000Hz). Ein Klang besteht aus einem Zusammenspiel von Frequenzen.

FX:

FX steht für die Effekte (Reverb, Delay…)

Hi-Hat:

Am Schlagzeug, Beckenähnlich. Diese werden zusammengeschlagen. Open Hi-Hat, nach dem Zusammenschlagen sofort wieder auseinander. Closed Hi-Hat zusammenhalten. So gut wie immer im Off-Beat also zur Hälfte von Kicks und Snare.

Knob:

Ein Drehregler

Kick:

Basskick am Schlagzeug. Wird im Dance- und Technobereich oft auf jeden Schlag, ähnlich einem Metronom verwendet.

LFO (Low Frequenzy Oscillator):

Erzeugt Wellen im Infraschallbereich (unter 20Hz) und kann auf Beliebiges angewendet werden. Häufig für Vibrato oder Dubstep Wobble Bass benutzt.

Linearer Sound/Klang:

Wenn Lautsprecher Linear sind, geben sie den Sound möglichst originalgetreu und unverfälscht wieder. Die meisten Hi-Fi Lautsprecher verschönern die Musik und lassen so keine objektive Begutachtung zu.

Loop:

Ein Loop, wird vor allem in der Anfangsphase vom Benutzer verwendet, meist ist es ein Takt, der in der Dauerschleife ohne Sprünge oder Brüche gespielt werden kann und somit als Teil eines Musikstückes dienen kann. Oft werden Loops auch in Remixen verwendet, dort jedoch um ein anderes Stück zu Parodieren oder eine Hommage daran zu geben. Der bekannteste und am häufigsten verwendete Loop ist der sog. Amen Break.

Mastering:

Beim Mastering, wird der Song abgerundet, hierbei muss man ein wenig zwischen dem Mastering eines Liedes, welches ausschließlich mit dem Computer gemacht wurde, bei dem jedes Instrument einzeln aufgenommen wurde, und dem Mastering eines Live-Auftrittes als Live CD unterscheiden. Beim Mastering von ersterem, werden Überschneidungen der Frequenzen verhindert oder zumindest möglichst reduziert. Zeitlich gebundene Lautstärkeänderungen werden hier auch durchgeführt. Beim nachträglichen Mastering eines Live-Auftritts, kann nun nur zwischen den einzelnen Mikrofonen gewechselt werden, was das Mastering ungenau und nicht so effektiv macht. Beim Mastering also, wird das beste herausgenommen und es wird versucht das Lied voller und klarer zu gestalten, die Instrumente sollen sich klar voneinander abheben und es soll auf den verschiedensten Anlagen und Lautsprechern gut klingen.

Mp3:

Ein Format, welches bei Computern und mp3 Playern häufig genutzt wird. Es beinhaltet die Musikinformationen und kann zusätzlich sogenannte id3 Tags speichern, sie sind für weitere Informationen wie ein Cover, die Titelnummer, Interpret, Titel, Veröffentlichungsdatum bis hin zu Lyrics etc. Der Nachteil dieses Formates ist die starke Komprimierung (meist 320 kb/s), sie wird verwendet um möglichst wenig Speicher zu verbrauchen und akzeptiert den Verlust vieler Informationen. Somit wird die Qualität deutlich verschlechtert.

Music Unplugged:

Wörtlich aus dem englischen übersetzt bedeutet unplugged, uneingestöpselt. Es beschreibt die akustische Musik, die ohne elektronische Hilfsmittel funktioniert und keinerlei Verstärker oder gar Synthesizer verwendet.

Oszillator:

Elektronischer Klangerzeuger, der verschiedenste Schallwellen erzeugen kann und in

Kombination mit Weiteren, Instrumente imitieren kann.

Pitch:

Eigentlich die Tonhöhe des Klanges. Einige Anlagen oder vor allem

Schallplattenspieler, können den Pitch nur zusammen mit der Geschwindigkeit

verändern.

Reiner Ton:

In der Physik wird musiktechnisch von einem reinen Ton geredet, wenn keine

anderen Schwingungen, diesen modifizieren und beeinflussen. Somit kann ein reiner

Ton in unserer Natur gar nicht vorkommen und nur elektronisch erzeugt werden.

Doch auch hier kann es nur ein fast reiner Ton sein.

Reverb:

Ein Effekt: der Hall. Sehr häufig verwendet um das Lied voller klingen zu lassen.

Sinuswelle:

Die Sinuswelle ist die ``normale‘‘ Form eines evtl. elektronischen (siehe auch reiner

Ton unten) Tones, sie ist ein gleichmäßiges Auf und Ab des Tonträgers (Saite o.Ä.)

Sample:

Aufnahme eines einzelnen Instruments in einem einzigen Ton gespielt. Auch ein Kick oder ähnliches ist möglich. Soundeffekte gehören auch zu den Samples. Ähnlich dem Loop, jedoch in der Verwendung professioneller.

Scrolldownmenu:

Bei anklicken eines Scrolldownmenüs, fährt dieses passende Optionen aus.

Snare(-drum):

Eine kleine Trommel mit Schnarrsaiten an der Unterseite.

Subgenres:

Dem Grundgenre (Musikrichtung) untergeordnete, genauere Einordnungen in bestimmte Erkennungsmerkmale innerhalb einer großen Musikrichtung.

Subwoofer:

Bassbetonter Lautsprecher, der im Zusammenspiel mit anderen Lautsprechern funktioniert. En Soundsystem mit Subwoofer bekommt eine x.1 zugeordnet. Stereo 2.0 (ohne Subwoofer), Stereo 2.1 (mit Subwoofer)…

Virtuell:

In der Musikwelt nur als Datei existierende Instrumente (VSTi) oder Musik. Wenn man sich beispielsweise Musik kaufen will, kann man sich zwischen Virtual Copy (MP3 o.Ä.) zum Downloaden oder Physical Copy (Vinyl , CD o.Ä.) entscheiden.

Volume:

Lautstärke

Wet:

Gegenteil von Dry. Mit Effekten versehenes Instrument, Sample oder Loop.

Wobble Bass:

Besonders in Dubstep und Elektro häufig verwendet. Ein Bass, der schnell im Klangbild mithilfe des Cutoffs und einem LFO o.Ä. verändert wird.

Vielen Dank an meine Betreuerin, die immer ein Auge auf meinen Fortschritt hatte, ohne mir

Vielen Dank an meine Betreuerin, die immer ein Auge auf meinen Fortschritt hatte, ohne mir Freiheit in der Gestaltung zu nehmen und mir meine Arbeit innerhalb kürzester Zeit mit nützlichen Anregungen verbessert hat.

Auch Danke ich meinen Eltern für das stundenlange Ertragen meiner Musik und speziell meinem Vater für einige Anregungen im musikalischen und meiner Mutter für die Hilfe im schriftlichen Teil.

Auch meinen Freunden danke ich für offene Ohren, gute Einfälle und Meinungen, die mir meine Kreativität zeigen und immer aufrecht zu mir sind und mir helfen, den richtigen Weg nicht zu verlieren.

Zusätzlich möchte ich noch meiner Familie danken, die immer hinter meinen verrückten Ideen und Träumen steht, mich unterstützt und konstruktiv kritisiert.

Ich versichere, dass ich die vorgelegte Arbeit selbstständig angefertigt und ausschließlich die von mir erwähnten

Ich versichere, dass ich die vorgelegte Arbeit selbstständig angefertigt und ausschließlich die von mir erwähnten Hilfsmittel verwendet habe.