Sie sind auf Seite 1von 163

Universit

at des Saarlandes
Lehrstuhl f
ur Sprachsignalverarbeitung

Grundlagen der Signalverarbeitung


Prof. Dr. Dietrich Klakow

Erstellung und Bearbeitung


Denis Grelich
Sebastian Hafner
Marco Schott

28. Oktober 2011

Inhaltsverzeichnis
1 Signale im zeitinvarianten Systemen
1.1 Einfache Signale . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Einfache Funktionen auf Signalen . . . . . . . . . . . . . . . . . .
1.3 Eigenschaften der Delta-Funktion . . . . . . . . . . . . . . . . . .
1.3.1 Siebeigenschaft . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Linearkombinationen von Delta-Funktionen . . . . . . . .
1.3.3 Skalierung der Zeitachse . . . . . . . . . . . . . . . . . . .
1.3.4 Ableitung der Heavisideschen Sprungfunktion . . . . . .
1.3.5 Ableitung des Diracimpulses . . . . . . . . . . . . . . . .
1.4 Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 Lineare Zeitinvariante-Systeme (LTI-Systeme) . . . . . . . . . . .
1.6 Allgemeinster Zusammenhang des Eingangs- und Ausgangssignals
LTI-System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8 Eigenschaften der Faltung (Faltungsalgebra) . . . . . . . . . . . .
1.9 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Maple: Einfu
hrung . . . . . . . . . . . . . . . . . . . . . . . . . . .

. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
f
ur
. .
. .
. .
. .
. .

. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
ein
. .
. .
. .
. .
. .

.
.
.
.
.
.
.
.
.
.

3
3
4
5
5
6
7
8
8
9
10

.
.
.
.
.

10
12
13
14
16

2 Die Fouriertransformation
2.1 Eigenschaften von LTI-Systemen . . . . . .
2.1.1 Eigenvektoren . . . . . . . . . . . . .
2.1.2 Eigenfunktionen . . . . . . . . . . .
2.2 Die Fouriertransformation . . . . . . . . . .
2.3 Die inverse Fouriertransformation . . . . . .
2.4 Theoreme zur Fouriertransformation . . . .
2.4.1 Linearit
at . . . . . . . . . . . . . . .

2.4.2 Ahnlichkeitssatz . . . . . . . . . . .
2.4.3 Verschiebungssatz . . . . . . . . . .
2.4.4 Ableitungssatz . . . . . . . . . . . .
2.4.5 Dualit
at . . . . . . . . . . . . . . . .
2.4.6 Symmetrie . . . . . . . . . . . . . .
2.4.7 Faltungssatz . . . . . . . . . . . . .
2.4.8 Multiplikationssatz . . . . . . . . . .
2.5 Parsevaltheorem der Fouriertransformation
2.6 Berechnung einfacher Schaltungen . . . . .
2.7 Aufgaben . . . . . . . . . . . . . . . . . . .
Maple: Fouriertransformation . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

23
23
23
23
24
27
29
29
30
31
31
33
34
35
36
36
37
42
43

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3 Diskrete Signale und Systeme


49
3.1 Einf
uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Klassifizierung von Signalen . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3.3

Abtastung im Zeitbereich . . . . . . . .
3.3.1 Idealer Abtaster . . . . . . . . .
3.3.2 Realer Abtaster . . . . . . . . . .
3.3.3 Scha-Funktion . . . . . . . . . .
3.4 Abtasttheoreme . . . . . . . . . . . . . .
3.4.1 Nyquistrate . . . . . . . . . . . .
3.4.2 Unterabtastung . . . . . . . . . .

3.4.3 Ubertastung
. . . . . . . . . . .
3.5 Signalrekonstruktion im Frequenzbereich
3.6 Abtastung im Frequenzbereich . . . . .
3.7 Aufgaben . . . . . . . . . . . . . . . . .
Maple: Diskrete Signale und Systeme .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

50
50
50
51
53
53
53
53
54
55
56
57

4 Numerische Berechnung der Fouriertransformation


4.1 Diskrete Fouriertransformation . . . . . . . . . . . . . . . . . .
4.2 Parsevaltheorem der Diskreten Fouriertransformation . . . . . .
4.3 Fast Fourier Transform (FFT) . . . . . . . . . . . . . . . . . . .
4.4 Schmetterlingsgraphen . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Signalflussgraphen . . . . . . . . . . . . . . . . . . . . .
4.4.2 Veranschaulichung der FFT . . . . . . . . . . . . . . . .
4.5 Faltung abgetasteter Signale . . . . . . . . . . . . . . . . . . . .
4.5.1 Herleitung der Diskreten Faltung . . . . . . . . . . . . .
4.5.2 Elementare zeitdiskrete Signale . . . . . . . . . . . . . .
4.6 Diskrete LTI-Systeme . . . . . . . . . . . . . . . . . . . . . . .
4.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Maple: Numerische Berechung der Fourier-Transformation .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

63
63
65
68
70
70
71
72
73
74
74
77
79

5 Korrelation von Signalen


5.1 Energie, Leistung, Korrelation .
5.2 Korrelation und Faltung . . . .
5.3 Wiener-Khinchin-Theorem . . .
5.4 Wiener-Lee-Beziehung . . . . .
5.5 Aufgaben . . . . . . . . . . . .
Maple: Korrelationen . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

87
87
90
91
92
93
95

6 Statistische Signalbeschreibung
6.1 Grundlagen der Wahrscheinlichkeitstheorie .
6.2 Zufallssignale und ihre Beschreibung . . . .
6.3 Station
are Zufallsprozesse . . . . . . . . . .
6.4 Eigenschaften der Autokorrelationsfunktion
6.4.1 Maximum der AKF . . . . . . . . .
6.4.2 Beschr
anktheit der AKF . . . . . . .
6.4.3 Symmetrie . . . . . . . . . . . . . .
6.4.4 Unkorreliertheit . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

99
99
101
102
104
104
105
105
105

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

6.5

Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

7 z-Transformation
7.1 Einf
uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Herleitung der z-Transformation . . . . . . . . . . . . . . .
7.3 Tabelle von h
aufig auftretende Paare der z-Transformation
7.4 Konvergenzbereich . . . . . . . . . . . . . . . . . . . . . . .
7.5 Eigenschaften der z-Transformation . . . . . . . . . . . . . .
7.5.1 Linearit
at . . . . . . . . . . . . . . . . . . . . . . . .
7.5.2 Verschiebungssatz . . . . . . . . . . . . . . . . . . .
7.5.3 Modulation . . . . . . . . . . . . . . . . . . . . . . .
7.5.4 Zeitumkehr . . . . . . . . . . . . . . . . . . . . . . .
7.5.5 Faltungssatz . . . . . . . . . . . . . . . . . . . . . .
7.6 Inverse z-Transformation . . . . . . . . . . . . . . . . . . . .

7.6.1 Uber
den Integralsatz von Cauchy . . . . . . . . . .

7.6.2 Uber
Potenzreihenentwicklung . . . . . . . . . . . .
7.7 Parsevaltheorem . . . . . . . . . . . . . . . . . . . . . . . .
7.8 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

8 Laplacetransformation
8.1 Probleme der Fouriertransformation . . . . . . . . . . . . . . . .
8.2 Definition von kausalen Signalen und der Laplacetransformation
8.2.1 Kausale Signale . . . . . . . . . . . . . . . . . . . . . . . .
8.2.2 Definition der Laplacetransformation . . . . . . . . . . . .
8.3 Inverse Laplacetransformation . . . . . . . . . . . . . . . . . . . .
8.4 Eigenschaften der Laplacetransformation . . . . . . . . . . . . . .
8.4.1 Linearit
at . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.2 Verschiebungssatz . . . . . . . . . . . . . . . . . . . . . .
8.4.3 D
ampfungssatz . . . . . . . . . . . . . . . . . . . . . . . .
8.4.4 Faltungssatz . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.5 Ableitungssatz . . . . . . . . . . . . . . . . . . . . . . . .
8.5 L
osung von Differentialgleichungen mit Laplacetransformation . .
8.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9 L
osungen
Losungen zu
Losungen zu
Losungen zu
Losungen zu
Losungen zu
Losungen zu
Losungen zu
Losungen zu

Kapitel
Kapitel
Kapitel
Kapitel
Kapitel
Kapitel
Kapitel
Kapitel

1
2
3
4
5
6
7
8

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

109
. 109
. 109
. 112
. 114
. 115
. 116
. 116
. 116
. 116
. 117
. 117
. 117
. 117
. 118
. 119

.
.
.
.
.
.
.
.
.
.
.
.
.

121
. 121
. 122
. 122
. 122
. 123
. 124
. 124
. 125
. 125
. 126
. 126
. 127
. 132

.
.
.
.
.
.
.
.

135
. 135
. 141
. 145
. 146
. 151
. 155
. 156
. 159

Tabellenverzeichnis
1
2
3

Elementare Signale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Syntaxelemente von Maple. . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Elementare zeitdiskrete Signale. . . . . . . . . . . . . . . . . . . . . . . . . 74

Abbildungsverzeichnis
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33

Skalierter Rechteckimpuls zur Herleitung der -Funktion . . . . . . . . .

Ubertragung
eines Signals durch das Telefonnetz . . . . . . . . . . . . .
Das RC-Glied und sein Amplitudenverlauf . . . . . . . . . . . . . . . . .
System Auto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Antwort eines nicht spezifizierten LTI-Systems auf einen Rechteckimpuls


Linearzerlegung eines Signals in Rechteckimpulse . . . . . . . . . . . . .
Maple-Hilfe: Suche nach dem Begriff Fourier. . . . . . . . . . . . . . .

Hilfefenster nach dem Anklicken des Befehls assume im Eingabefenster


und Dr
ucken von F2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Plot der sin-Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Plot der rect-Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
RC-Glied . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aufbau einfacher Schaltungen . . . . . . . . . . . . . . . . . . . . . . . .
L
osungsschema zur Berechnung von Schaltungen. . . . . . . . . . . . . .
Schaubild des RC-Gliedes . . . . . . . . . . . . . . . . . . . . . . . . . .
Klassifizierung von Signalen . . . . . . . . . . . . . . . . . . . . . . . . .
Abtastung im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . .
Ideale Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Reale Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Abtastung im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . .
Abtastung im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . .
Graphik zur Unterabtastung . . . . . . . . . . . . . . . . . . . . . . . . .
Graphik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rekonstruktion einer abgetasteten Sinusfunktion. . . . . . . . . . . . . .
Anwendung der Fouriertransformation in einem Filter. . . . . . . . . . .
Abgetastete Sinuswelle, zerlegt in geraden und ungeraden Anteil. . . . .
Grundelemente von Signalflussgraphen. . . . . . . . . . . . . . . . . . .
Schmetterlingsgraph der FFT f
ur acht Abtastwerte. . . . . . . . . . . .
Zusammenhang zwischen der kontinuierlichen und diskreten Signalverarbeitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Beispiel f
ur ein deterministisches und ein nichtdeterministisches Signal. .
Mehrere gleichzeitige Messungen eines Zufallssignals. . . . . . . . . . . .
Periodische Funktion in der komplexen Ebene . . . . . . . . . . . . . . .
Umwandlung in eine konforme Abbildung . . . . . . . . . . . . . . . . .
Konvergenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

4
9
9
10
11
11
17

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

17
19
20
25
37
38
40
49
50
51
51
52
53
54
54
58
63
69
70
71

.
.
.
.
.
.

75
99
102
110
111
113

34
35
36
37
38
39
40
41
42
43
44

Konvergenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Der Konvergenzbereich schliet keine Pole ein . . . . . . . . . . . . . . .
L
osen von Differentialgleichungen mit Hilfe der Laplacetransformation .
RC-Glied . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fallunterscheidung bei der Faltung von (t) mit (t). . . . . . . . . . .
Dreiecksimpuls gefaltet mit der Sprungfunktion. . . . . . . . . . . . . .
Fallunterscheidung bei der Faltung von rect((t 3)/5) mit rect(t/5 + 2).
Vergleich der Komplexit
aten 3N log2 (3N ) und N 2 . . . . . . . . . . . . .
Fallunterscheidung in der AKF von rect(t). . . . . . . . . . . . . . . . .
Verlauf von (t + ) f
ur positives und negatives . . . . . . . . . . . . .
8.3A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

114
115
128
128
136
137
139
147
151
155
157

1 Signale im zeitinvarianten Systemen


Die physikalische (z. B. in Form von elektrischen Spannungen, Feldstarken, Lichtimpulsen oder Schallwellen) und mathematische Darstellung einer Nachricht bezeichnet
man als Signal. Wir definieren Signale als Funktionen oder Wertefolgen, die Informationen repr
asentieren; in vielen F
allen sind diese Funktionen zeitabhangig, oftmals besteht
aber auch eine Abh
angigkeit vom Ort (dies ist beispielsweise f
ur die Bildpunkte in einer
Bilddatei der Fall).

1.1 Einfache (elementare) Signale


Besonders einfache Signale, die leicht mathematisch beschrieben werden konnen, bezeichnet man als Elementarsignale. Oftmals kann man sie auch technisch recht einfach
und in guter Qualit
at erzeugen. Viele komplexe Signale lassen sich auf Elementarsignale
zur
uckf
uhren.
1

Sinus

s(t) = sin(2t)

Sprungfunktion,
Heaviside-Funktion1

(
0
(t) =
1

Rechteck-Impuls

(
0
rect(t) =
1

Diracsto,
Deltafunktion2

(
t=0
(t) =
0
sonst

t<0
t0
|t| > 1/2
|t| 1/2

Tabelle 1: Elementare Signale.

Den unendlich hohen, unendlich schmalen Diracsto konnen wir aus einem skalierten

Rechteckimpuls der Form sa (t) = a1 rect(t/a) herleiten (Abb. 1). Die Flache dieses Signals

1
2

Oft abgek
urzt als -Funktion, in der Literatur manchmal auch als -Funktion bezeichnet.
Auch Stofunktion, Einheitsimpuls, Diracimpuls oder -funktion, -Funktion oder Delta-Distribution
genannt.

ist
Z
Z
1
t0 =t/a
rect(t/a) dt =
rect(t0 ) dt0 = 1.
a

Damit kann man den Diracsto als Grenzwert definieren:




1
rect(t/a)
(t) = lim
a0 a
Insbesondere erkennt man aus dieser Betrachtung auch, dass der Flacheninhalt unter
dem Graphen der Delta-Funktion genau 1 ist.

Abbildung 1: Skalierter Rechteckimpuls mit der Hohe 1/a und der Breite a.

1.2 Einfache Funktionen auf Signalen


Aus den elementaren Signalen lassen sich zeitlich gestreckte (skalierte) und verschobene
Signale durch einfache Substitutionen erzeugen:
Verschiebung
Die Substitution t t t0 verschiebt das Signal um t0 nach rechts, z. B.
s(t) = (t 17)

(Sprung bei t = 17).

Skalierung
Die Substitution t Tt resultiert in einer zeitlichen Dehnung des Signals um den Faktor
T . Dabei wird f
ur |T | > 1 das Signal breiter, f
ur |T | < 1 wird es schmaler. Ist T negativ,
so wird das Signal gespiegelt:
 t
(Sinus mit einer Periodendauer von T )
s(t) = sin 2
T
s(t) = (t)
(Sprunghafter Abfall des Signals)

1.3 Eigenschaften der Delta-Funktion


Der Diracsto hat eine besondere Bedeutung f
ur die Beschreibung vieler Sachverhalte
in der Signalverarbeitung. Er ist ein Modell f
ur einen lauten Knall, hellen Lichtblitz,
kurzen Spannungssto oder ein
ahnlich starkes, aber kurzes Signal.
Aufgrund seiner Wichtigkeit in Theorie und Anwendung der Signalverarbeitung sollen
deshalb im Folgenden die Eigenschaften der Delta-Funktion beschrieben werden. Sie
werden in den sp
ateren Kapiteln immer wieder Verwendung finden.
1.3.1 Siebeigenschaft
Die Tatsache, dass die Delta-Funktion nur an der Stelle, an der ihr Argument verschwindet, ungleich null ist, kann man sich zunutze machen, um aus einem Signal den
Funktionswert zu einem bestimmten Zeitpunkt herauszusieben.

Dazu betrachten wir das Integral


Z
f (t) (t) dt,

und f (t) sei stetig an der Stelle t = 0. Zur Berechnung dieses Integrals nutzen wir die
Definition des Delta-Impulses aus der skalierten Rechteckfunktion. Damit gilt
(t) = lim

t0

1
rect(t/t)
t

und somit
Z
Z
1
f (t) (t) dt = lim
f (t) rect(t/t) dt
t0 t

1
= lim
t0 t

t/2
Z

f (t) dt

t/2

t
1
2
= lim
F (t) t
t0 t
2
t
F ( t
2 ) F ( 2 )
t0
t
= F 0 (0)

= lim

= f (0).
Wir haben hier die Definition der Ableitung aus dem Differenzenquotienten angewendet;
F (t) bezeichnet dabei die Stammfunktion von f (t). Es gilt also:

Theorem 1.1 Siebeigenschaft


Z
f (t) (t) dt = f (0)

Beispiel 1

Es sei f (t) = 1. Mit der Siebeigenschaft der Delta-Funktion gilt:


Z
Z
1 (t) dt = (t) dt = 1

Beispiel 2

Es sei f (t) =

et + 7 cos(t + )
. Mit der Siebeigenschaft gilt:
t2 + 1

Z
1 + 7 cos()
e0 + 7 cos(0 + )
=
= 6
f (t)(t) dt =
0+1
1

Diese Eigenschaft kann man f


ur beliebige Stellen t0 verallgemeinern:
Theorem 1.2 Verallgemeinerte Siebeigenschaft
Z
f (t)(t t0 ) dt = f (t0 )

1.3.2 Linearkombinationen von -Funktionen


Einen konstanten Faktor a vor dem Diracimpuls a(t) bezeichnet man als Gewicht des
Diracimpulses. Nach den u
ur die Integration gilt
blichen Rechenregeln f
Z
Z
f (t) a(t) dt = a f (t)(t) dt = af (0).

10

In gleicher Weise gilt f


ur eine Linearkombination von Delta-Funktionen
Z
Z
Z
f (t) (a(t) + b(t)) dt = a f (t)(t) dt + b f (t)(t) dt

Z
= (a + b) f (t)(t) dt

oder k
urzer:
Theorem 1.3 Linearkombination von Diracimpulsen
a(t) + b(t) = (a + b)(t)

1.3.3 Skalierung der Zeitachse


Man betrachte wieder das Integral
Z
(at)f (t) dt.

Die Substitution = at ergibt f


ur positive a
Z
 d
1
( )f
= f (0),
a a
a

f
ur negative a erh
alt man, da auch die Grenzen substituiert werden m
ussen,
Z
Z
1

1
 d
=
( )f
d = f (0).
( )f
a a
a
a
a

F
ur positive und negative a allgemein hat man also
Z
Z
1

1
(at)f (t) dt =
( )f
d =
f (0),
|a|
a
|a|

und so auch:
Theorem 1.4 Gedehnter Diracimpuls

(at) =

1
(t)
|a|

11

1.3.4 Ableitung der -Funktion


Obwohl die Heavisidesche Sprungfunktion an der Sprungstelle nicht differenzierbar ist,
kann man dennoch die Delta-Funktion sinnvoll als ihre Ableitung definieren. Man betrachte:
Z
Z
( ) d = (t )( ) d = (t)

Ableiten beider Seiten der Gleichung liefert dann:


Theorem 1.5 Ableitung der Heaviside-Funktion
(t) =

d
(t)
dt

1.3.5 Ableitung der -Funktion


Zur Bestimmung der Ableitung der Delta-Funktion betrachtet man wieder ein Integral:
Z


Z

d

(t) f (t) dt = (t)f (t) (t)f(t) dt
dt

Setze f (t) = t und leite auf beiden Seiten der Gleichung ab:
Theorem 1.6 Ableitung des Diracimpulses
= (t)
t(t)

12

1.4 Systeme
In der realen Welt sind Signale nicht unveranderlich. Oft erfahren sie gewollte oder
ungewollte Ver
anderungen wenn sie u
ber ein physikalisches Medium u
bertragen werden.

So kann die Ubermittlung


eines Audio-Signals u
ber eine elektrische Leitung (z. B. beim
Telefon) den Ton verzerren, verrauschen oder dampfen (Abb. 2) und der Gesang eines
Chors erh
alt in der Kirche ein Echo; selbst das Innenohr des Menschen u
bertragt nicht
alle Frequenzen gleich gut und f
uhrt so zu einer Veranderung des Signals.

Schalldruck am
M und von Person A

Schalldruck am
M und von Person B

Telefonnetz

Abbildung 2: Ubertragung
eines Signals durch das Telefonnetz.

Uein

10

10

20

20
R

Uaus

C
0,01

0,1

1
Frequenz [Hz]

30
10

Amplitude [dB]

Erw
unschte Ver
anderungen f
uhrt beispielsweise ein HiFi-Verstarker durch, indem er die
Amplitude des Eingangssignals erhoht. Das Abschneiden hoher Frequenzen aus einem
Signal (z. B. f
ur eine Bass-Endstufe) erfolgt mit einem RC-Glied (Abb. 3). Auch das Erhohen der Sch
arfe in einem Urlaubsfoto mit einem Bildbearbeitungsprogramm ist nichts
anderes als eine Ver
anderung an einem Signal.
In der Signalverarbeitung bezeichnet man in diesen Fallen die Telefonleitung, das Innenohr, den HiFi-Verst
arker u. s. w. als Systeme.

100

Abbildung 3: Das RC-Glied und sein Amplitudenverlauf.


Mathematisch beschrieben wird ein System durch eine Abbildung (Transformation) eines
Eingangssignals s(t) auf ein Ausgangssignal g(t):
g(t) = Tr{s(t)}

13

Abbildung 4: Eingangssignale
Systemantwort.

in

das

System

Auto

und

die

entsprechende

1.5 Lineare Zeitinvariante Systeme


engl. Linear Time-Invariant Systems = LTI
Viele technische Systeme sind in guter Naherung linear und/oder zeitinvariant. Ein System bezeichnet man als linear, falls gilt:
(
)
X
X
X
Tr
ai si (t) =
ai Tr{si (t)} =
ai gi (t)
| {z }
i

gi (t)

Es reagiert also auf ein doppelt so starkes Signal mit einer ebenfalls doppelt so starken
Antwort. Ein zeitinvariantes System liefert zu einem Eingangssignal zu jeder beliebigen
Zeit das gleiche Ausgangssignal, es ist also zeitunabhangig. Es gilt:
Tr {s(t t0 )} = g(t t0 )
Erf
ullt ein System beide Bedingungen, so spricht man von einem linear-zeitinvarianten
System (LZI- oder LTI-System). Eine Besonderheit der Klasse der LTI-Systeme ist die
Tatsache, dass sich ihre theoretische Behandlung gegen
uber dem allgemeinen Fall stark
vereinfacht.

1.6 Allgemeinster Zusammenhang des Eingangs- und Ausgangssignals f


ur
ein LTI-System
Ausgehend vom Rechteckimpuls als Eingangssignal lasst sich ein allgemeiner Zusammenhang zwischen dem Eingangssignal s(t) eines LTI-Systems und seinem Ausgangssignal
g(t) herstellen. Man betrachte dazu die Antwort eines LTI-Systems auf einen Rechteckimpuls der Dauer t und der H
ohe 1/t:
1
rect (t/t)
t
Tr {r(t)} = h(t)

r(t) =

14

Abbildung 5: Antwort eines LTI-Systems auf einen Rechteckimpuls der Breite t und
H
ohe 1/t.
s(t)
t

t 2t

Abbildung 6: Linearzerlegung eines Signals in Rechteckimpulse.

Davon ausgehend betrachtet man die Zerlegung eines beliebigen Eingangssignals s(t) in
eine Linearkombination von Rechteckimpulsen:

s(t)


rect

i=

t it
t


s(it)

Schickt man dieses approximierte Signal nun durch ein LTI-System, so erhalt man
entsprechend der Linearit
at und Zeitinvarianz des Systems:
)
(


X
t it
g(t) = Tr
rect
s(it)
t
i=
(

)

X
1
t it
=
s(it)Tr
rect
t
t
t
i=
|
{z
}
r(tit)

s(it)h(t it)t

i=

15

Um das Signal immer genauer zu approximieren, muss sich t immer mehr null nahern.
Im Grenzwert t 0 geht man nun zum Integral
Z
g(t) = h(t )s( ) d

u
ber.
Beispiel

Es sei s(t) = (t). Dann gilt:


Z
g(t) = h(t )( ) d = h(t)

Durch dieses Beispiel macht man folgende interessante Beobachtung:


Definition 1.7 Impulsantwort
Die Impulsantwort h(t) eines LTI-Systems beschreibt nach
Z
g(t) = h(t )( ) d

das System vollst


andig.3

1.7 Faltung
Die Faltung ist die Verallgemeinerung der oben hergeleiteten Integrale.
Definition 1.8 Faltung
Das Integral
Z
a(t )b( ) d

heit Faltung (engl. convolution) und wird mit dem Faltungsprodukt


a(t) b(t)
abgek
urzt ( a(t) gefaltet mit b(t)).

Antwort eines Systems auf den Diracsto

16

Die Faltung ist eine f


ur alle LTI-Systeme g
ultige Transformationsgleichung, da ein beliebiges Eingangssignal gefaltet mit der Impulsantwort des Systems immer das entsprechende
Ausgangssignal des Systems liefert. Nach Def. 1.7 kann man f
ur solche Systeme also auch
g(t) = h(t) s(t)
schreiben, wobei s(t) und g(t) das Ein- bzw. Ausgangssignal bezeichnen und h(t) die
Impulsantwort des Systems bezeichnet.
Beispiel

Es sei a(t) = rect(t) sowie b(t) = (t t0 ) + (t t1 ).

Die Faltung von a(t) und b(t) ergibt:


Z
a(t) b(t) = rect(t ) [( t0 ) + ( t1 )] d

= rect(t t0 ) + rect(t t1 )

1.8 Eigenschaften der Faltung (Faltungsalgebra)


F
ur die Faltung gelten grunds
atzlich die gleichen Rechenregeln wie f
ur die Multiplikation.
Einselement: Diracsto

a(t) (t) = a(t)

Kommutativit
at

a(t) b(t) = b(t) a(t)

Assoziativ-Gesetz

[a(t) b(t)] c(t) = a(t) [b(t) c(t)]

Distributiv-Gesetz

a(t) [b(t) + c(t)] = a(t) b(t) + a(t) c(t)

Exemplarisch wird die Kommutativitat bewiesen, indem in


Z
a(t) b(t) = a(t )b( ) d

die Substitution = t durchgef


uhrt wird:
Z
Z
a()b(t )[ d] = b(t )a() d

= b(t) a(t)


17

1.9 Aufgaben
1.1 Sind die folgenden Abbildungen LTI-Systeme?
a) f (t)

d
f (t)
dt

b) f (t) f 2 (t)
c) f (t) f (t),

mit 6= 1

Hinweis: Begr
unden Sie Ihre Antwort, indem Sie die Eigenschaften eines LTI-Systems
nachweisen oder gegebenenfalls einen Funktion f (t) als Gegenbeispiel anf
uhren.

1.2 Berechnen Sie die Ubertragungsfunktion


des RC-Glieds (vgl. Abb. 3 auf S. 9).

Hinweis: Die Ubertragungsfunktion


ist definiert als der Quotient von Ausgangsspannung
und Eingangsspannung H = Uaus /Uein in Abhangigkeit von der Frequenz des Signals.
1.3 Der Dreiecksimpuls sei definiert als

ur 1 t < 0,
t + 1 f
(t) = 1 t f
ur 0 t < 1,

0
sonst.
Berechnen Sie die Faltung (t) (t).
1.4 Der Integrator ist definiert als

Zt
g(t) =

s( ) d.

a) Ist der Integrator linear? Ist er zeitinvariant?

18

b) Wie lautet seine Impulsantwort?


1.5 Berechnen Sie die Faltung
Z
rect( ) cos ((t )) d.

Hinweis: Berechnen Sie zuvor folgendes Integral:


Z
rect(t) cos(t) dt

1.6 Berechnen Sie die Faltung von rect((t 3)/5) mit rect(t/5 + 2).
1.7 Die Impulsantwort eines Systems sei
h(t) =

t
1
(t)e T .
T

Berechnen Sie die Impulsantwort eines Systems, dass aus zwei identischen hintereinandergeschalteten Systemen dieses Typs besteht.
1.8 Zeigen Sie, dass
s0 (t) h(t) = s(t) h0 (t).
Hinweis: s0 (t) und h0 (t) bezeichnen die Ableitungen von s(t) bzw. h(t).
1.9 Beweisen Sie das Distributivgesetz der Faltung bez
uglich der Addition.

19

Maple: Einf
uhrung
Maple ist ein Computer-Algebra-System (CAS). Ein CAS kann nicht nur wie ein Taschenrechner mit Zahlen rechnen, sondern beherrscht auch die symbolische Mathematik, d. h.
das Rechnen mit Variablen, Matrizen und Vektoren oder auch das Auswerten von komplizierten Ableitungen und Integralen.

Die Arbeit mit Maple


Grundsatzlich ist es nicht m
oglich, ein so komplexes System wie Maple in einer kurzen
Einf
uhrung komplett zu erkl
aren. Deshalb ist es absolut unvermeidlich, sich auch mit
anderen Quellen zum Thema zu beschaftigen. Neben der Webseite des Herstellers oder
Google ist insbesondere die eingebaute Hilfefunktion von Maple hilfreich.4
Es gibt mehrere Methoden, die Maple-Hilfe aufzurufen. Zum einen geht es u
ber das
Men
u (Help Maple Help) oder die Tastenkombination STRG-F1. Es erscheint eine
Suchmaske, in der man den gesuchten Begriff eingeben kann (Abb. 7). N
utzlich ist auch
die Moglichkeit, einen Befehl im Eingabefenster anzuklicken und F2 zu dr
ucken. Dies
ruft direkt die passende Seite in der Hilfe-Datei auf (Abb. 8). Besonders anschaulich

sind die in der Hilfe enthaltenen Beispiele. Uber


Edit Copy Examples im Men
u des

Hilfefensters lassen sich alle Beispiele aus der Hilfe leicht ins Eingabefenster kopieren.
Wei man genau, wonach man sucht, kann man auerdem ein Kommando der Form
> ?simplify
eingeben, um die Hilfe zu einem Befehl, in diesem Beispiel simplify, zu erhalten.
Maple organisiert Benutzereingaben und Programmausgaben in Worksheets. Dabei unterscheidet es zwischen Worksheet-Mode, in dem ganz klassisch Ein- und Ausgaben

eingelesen und ausgegeben werden und dem Document-Mode, der dazu gedacht ist,

druckreife Dokumente zu erstellen. Wir werden uns im folgenden auf den Worksheet
Mode beschr
anken. Worksheets werden im Maple Worksheet-Format mit der Dateien
dung .mw oder dem Format Maple Worksheet Classic mit der Endung .mws auf der

Festplatte gespeichert. M
ochte man ein Worksheet an andere weitergeben, so empfiehlt
sich das .mws-Format, das auch mit alteren Programmversionen kompatibel ist.
Befehle werden in sog. Execution Groups zusammengefasst. Das sind eine oder mehrere
Zeilen, gekennzeichnet
durch ein >-Symbol am Zeilenanfang und eingeschlossen in einer

eckigen Klammer am linken Rand, die gemeinsam ausgef
uhrt werden, wenn man Enter
dr
uckt.

Uber
die Men
uleiste lassen sich Execution Groups einf
ugen und loschen, schneller geht
dies u
ber F3 und F4.

http://www.maplesoft.com/applications

20

Abbildung 7: Maple-Hilfe: Suche nach dem Begriff Fourier.

Abbildung 8: Hilfefenster nach dem Anklicken des Befehls assume im Eingabefenster und
Dr
ucken von F2.

21

Symbol
;

Beispiel
a;
a

+ - * /

Beschreibung
Befehlsende. Folgen mehrere Befehle in einer Execution Group aufeinander, so m
ussen die einzelnen Befehle mit dem Strichpunkt abgetrennt werden.
Wie ;, unterdr
uckt aber die Ausgabe des Befehls. N
utzlich f
ur Zwischenrechnungen, wenn die Ausgabe sehr
lang ist.
Weist einer Variable einen Wert zu. Nicht zu verwechseln mit dem einfachen =, das benutzt wird, um Gleichungen zu definieren.
Grundrechenarten.

^ sqrt

Potenzieren und Wurzelziehen.

evalf

Auswertung als Fliekommazahl.

I Pi

Imagin
are Einheit j und die Kreiszahl . Zu beachten
ist die Gro- und Kleinschreibung. Die Eulersche Zahl
bekommt man mit exp(1).

2^3;

sqrt(2);

2^(1/2);

evalf(sqrt(2));
. . . .
1 + 2*I;
+ I
(2*I)^2;

evalf(Pi);
. . . .

reset

L
oscht alle Definitionen und setzt alle im Dokument
gemachen Einstellungen auf den Ausgangswert zur
uc.
Griechische Buchstaben konnen u
ber
die
Seitenleiste

ausgew
ahlt oder ausgeschrieben werden.

:=

...

->

Definiert eine Funktion von einer oder mehreren


Ver
anderlichen. Eine Definition u
ber f(x) := x^2 ist
ebenfalls m
oglich.

diff

Ableitung.

int

Bestimmtes oder unbestimmtes Integral. Beim unbestimmten Integral wird die Integrationskonstante vernachl
assigt.
L
osen einer Gleichung oder eines Gleichungssystems.

solve

Tabelle 2: Syntaxelemente von Maple.

22

a := 4:
a;

a/(2*c+d);

alpha
Theta

c + d

f := x -> x^2:
f := x x
r := (x, y)
-> x^2 + y^2:
f := (x, y) x + y
f(x) := x^2;
f := x x
diff(x^2, x);
x
int(2*x, x);
x

int(t, t=1..2);

solve(x^2 - 1, x)
,

Grundlegende Syntax
Mathematische Ausdr
ucke und Funktionen werden u
ber eine eigene Programmiersprache
eingegeben. Die Namen von selbst definierten Funktionen und Variablen d
urfen dabei
aus aneinanderh
angenden Buchstaben und Zahlen bestehen, beliebig groe Ganzzahlen
werden wie gewohnt interpretiert. F
ur Zahlen mit Nachkommastellen muss man allerdings darauf achten, einen Punkt statt einem Komma zu verwenden. Leerzeichen werden
im Groen und Ganzen ignoriert.
Tab. 2 listet einige weitere Syntaxelemente und wichtige Befehle von Maple auf.
Neben den in den Maple-Bibliotheken vordefinierten Funktionen lassen sich nat
urlich
auch eigene Funktionen angeben.

Elementarfunktionen
Einige wichtige Elementarfunktionen sind in Maple bereits vordefiniert, so z. B. die Sinusund Kosinusfunktion. Die Sinusfunktion soll mit der plot-Funktion dargestellt werden
(Abb. 9):
> plot(sin(t), t);
Auch die Heavisidesche Sprungfunktion ist bereits definiert. Die Rechteckfunktion (Abb. 10)
1.0

0.5

10

10

0.5

1.0

Abbildung 9: Plot der sin-Funktion.


dagegen m
ussen wir selbst definieren. Das kann man z. B. mit der piecewise-Funktion.
Ihr werden jeweils paarweise eine Bedingung und der zugehorige Wert u
bergeben. Gibt
man als letzten Parameter noch einen weiteren Wert an, so nimmt die neu definierte
Funktion an allen Stellen, die nicht durch Bedingungen abgedeckt sind, diesen Wert an.
>
>
>
>

rect := t -> piecewise(t < -1/2, 0, 1/2 < t, 0, 1):


# Alternative Definition:
# rect := t -> Heaviside(t + 1/2) - Heaviside(t - 1/2)
plot(rect(t), t=-1..1);

23

2.0

1.5

1.0

0.5

2.0

1.5

1.0

0.5

0.5

1.0

1.5

2.0

Abbildung 10: Plot der rect-Funktion.


Den Diracimpuls grafisch ausgeben zu lassen, ist wenig sinnvoll, da er unendlich schmal
und unendlich hoch ist.

Faltung
Mit diesen Werkzeugen k
onnen wir nun auch ein Faltungsintegral berechnen. Es sei
> s := t -> rect(1/2*t - 1/2):
ein Signal und
> h := t -> Heaviside(t)*exp(-t):
sei die Impulsantwort eines Systems. Die Faltung des Signals mit der Impulsantwort ist
dann
> g := t -> int(h(t - tau)*s(tau), tau = -infinity..infinity);
> g(t);
> plot(g(t), t = -1..5);

24

Z
h(t )s( ) d
g := t

t<0
0
t
e + 1
t<2

t
2t
e + e
2 <= t
0.8

0.5

0.3

0.1

25

placeholder

2 Die Fouriertransformation
Das nachfolgende Kapitel befasst sich, wie auch das erste Kapitel, mit dem Problem

der Ubertragung
von Signalen u
ber LTI-Systeme. Es wird jedoch mathematisch anders
gelost. Im ersten Kapitel haben wir das u
bertragene Signal dadurch erhalten, indem wir
ein Faltungsprodukt berechnet haben. Im Verlauf des Kapitels wird sich herausstellen,
dass die Signal
ubertragung auch durch ein simples algebraisches Produkt dargestellt werden kann. Voraussetzung hierf
ur ist, dass das Signal zuvor mit der Fouriertransformation
analysiert worden ist. Zu beachten ist, dass keine Methode der anderen zu bevorzugen
ist beide Herangehensweisen sind gleichwertig.

2.1 Eigenschaften von LTI-Systemen


Dieser Abschnitt dient dazu, den Begriff Eigenvektoren und Eigenfunktionen von LTISystemen herzuleiten und zu charakterisieren. Die Begriffe Eigenfunktion und Eigen

wert stammen aus der Linearen Algebra.


2.1.1 Eigenvektoren
Unter einem Eigenvektor einer Abbildung versteht man einen Vektor, der nicht der Nullvektor ist und dessen Richtung sich durch die Abbildung nicht andert. Jedoch vollzieht
er eine Streckung um einen Faktor, der als Eigenwert bezeichnet wird.
Es sei A Rnn eine Matrix und der xE Rn ein Vektor. Gilt
A xE = xE ,
so heit xE Eigenvektor zu der Matrix A. Die Variable ist in dieser Darstellung der
Eigenwert. Zu ber
ucksichtigen ist, dass es maximal n linear unabhangige Eigenvektoren
gibt.
2.1.2 Eigenfunktionen
In Kap. 1.5 wurde gezeigt, dass ein LTI-System, dessen Impulsantwort h(t) ist, auf das
Eingangssignal s(t) mit h(t) s(t) = g(t) antwortet. Nun gibt es Funktionen sE (t), die

bei der Ubertragung


u
ber beliebige LTI-Systeme folgendes Verhalten aufweisen:
h(t) sE (t) = H sE (t).
Solche Funktionen werden in ihrer Form nicht geandert, sondern nur mit einem komplexwertigen Amplitudenfaktor H multipliziert. Der Grundtyp solcher Funktionen wird
Eigenfunktion genannt und lautet
sE (t) = ejt = cos(t) + j sin(t).

27

F
ur beliebige Frequenzen f erh
alt man durch das Einsetzen der speziellen Eigenfunktion
jt

h(t) sE (t) = h(t) e

Z
= ej(t ) h( ) d.

Durch Extraktion der Exponentialfunktion gelangt man zu


Z
Z
ej(t ) h( ) d = ejt ej h( ) d = ejt H().

{z

H()

H() bezeichnet man als Ubertragungsfunktion.

Definition 2.1 Ubertragungsfunktion


Z
H() =

h( ) ej d

2.2 Die Fouriertransformation


Nachdem wir im ersten Kapitel die Eigenschaften von LTI-Systemen kennen gelernt
haben, wenden wir uns nun der Fouriertransformation zu. Hergeleitet wurde sie aus
der Fourierreihe, die der franz
osische Mathematiker und Physiker Jean Baptiste Joseph
Fourier entwickelte. Die Fourierreihe zerlegt eine reellwertige periodische Funktion in
eine Linearkombination von Sinus- und Kosinusschwingungen. Zu beachten ist, dass sie
auf periodische Systeme beschr
ankt ist und somit aperiodische Signale nicht auswerten
5
kann. Deswegen benutzt man die Fouriertransformation, um solche Signale auszuwerten. Diese Transformation wandelt ein Signal aus dem Zeitbereich in ein Signal im
Frequenzbereich um. Durch sie erhalt man das Frequenzspektrum eines zeitbezogenen
Signals. Dabei bezeichnet man die Summe der Frequenzen, die in einem Signal enthalten
sind, als das Frequenzspektrum.
Hierzu sehen wir uns die Def. 2.1 an:
Z
H() = h( ) ej d

Sie zeigt zum einen die Ubertragungsfunktion


und zum anderen den zeitlichen Verlauf
der Impulsantwort h( ) eines Systems. Solch eine Beziehung wird als Transformation
oder als Fouriertransformation bezeichnet.
5

Allgemein versteht man unter einem aperiodischen Signal eine Funktion, deren Periode gegen unendlich
l
auft.

28

Definition 2.2 Fouriertransformation


Z
F {s(t)} = S() = s(t) ejt dt

Abk
urzende Notation:
Impulsantwort h(t) (Zeitbereich)

Ubertragungsfunktion
H() (Frequenzbereich)

Beispiel 1 Es sei eine RC-Schaltung gegeben. Zu berechnen ist die Fouriertransformierte


des Ausgangssignals.

Abbildung 11: RC-Glied.


Durch eine Anregung mit einem Dirac-Impuls (t) erhalten wir die Impulsantwort der
Schaltung:
t
1
(t) e RC
h(t) =
RC

Die Ubertragungsfunktion
H() erhalten wir durch die Fouriertransformation
Z
H() = h(t) ejt dt.

Da h(t) kausal ist, k


onnen wir die untere Grenze des Integrals zu Null setzen und erhalten
den Ausdruck
Z
1
1
H() =
et( RC +j) dt.
RC
0

Integrieren
1
H() =

RC

"

1
1
RC + j

29

!
et(

1
+j
RC

)
0

und Auswerten in den Grenzen liefert


H() =

1
RC
1
RC

+ j

1
.
1 + j RC

Setzen wir f
ur = 0 ein, so erhalten wir f
ur die Ubertragungsfunktion
den Wert 1.
1
Wenn wir allerdings die Annahme treffen, dass > RC ist, so bekommen wir f
ur die

Ubertragungsfunktion
den Wert H() = 1 (Tiefpass).
jRC

Beispiel 2

Zu berechnen sei die Fouriertransformierte des Rechteck-Impulses


(
0 |t| > 1/2,
s(t) = rect(t) =
1 |t| 1/2.

Durch die Verwendung der Fouriertransformation


Z
Z
jt
F {s(t)} = s(t) e
dt = rect(t) ejt dt

1
2

Z
=

21


1
2
1
ejt dt = ejt
j
1

und die Auswertung der Grenzen erhalten wir




j jt
F {s(t)} =
e

1

=
12


1
j  1 j
e 2 e 2 j .

Mit der Schreibweise ejz = cos(z) + j sin(z) gelangen wir zu



 
 
 
 
j
1
1
1
1
F {s(t)} =
cos
j sin
cos
j sin

2
2
2
2
und erhalten schlielich das gesuchte Ergebnis
2
F {s(t)} = sin


1
.
2

Dieses Beispiel f
uhrt uns zu der Definition der si-Funktion. Man findet diese Funktion
auch unter dem Begriff Kardinalsinus wieder.

30

Definition 2.3 si-Funktion


si(x) =

Beispiel 3

sin(x)
x

Zu berechnen ist die Fouriertransformierte eines verschobenen Deltastoes


s(t) = (t t0 ).

Das gegebene Signal setzt man in die Fouriertransformation ein und erhalt den Ausdruck
Z
Z
jt
F {s(t)} = s(t) e
dt = (t t0 ) e|jt
{z } dt.

f (t)

Mit der Siebeigenschaft


Z
f (t) (t) dt = f (0)

und der Beziehung des verschobenen Deltastoes


(
t0 = t
(t t0 ) =
0
sonst
ergibt sich
F {s(t)} = ejt0 .

2.3 Die inverse Fouriertransformation


Sehen wir uns nochmal die Formel
Z
H() = h( ) ej d

an. Unter bestimmten Umst


anden ist es moglich, die Zeitfunktion h( ) aus ihrer Fouriertransformierten zur
uckzuerhalten. Genau dies bewerkstelligt die inverse Fouriertransformation. Sie wandelt ein Signal aus dem Frequenzbereich in ein Signal im Zeitbereich
um.

31

Definition 2.4 Inverse Fouriertransformation


F {S()}

1
= s(t) =
2

Z
S() ejt d

Wir beweisen nun, dass die in Def. 2.4 definierte Funktion tatsachlich die inverse Funktion
zur Fouriertransformation ist.
Beweis
Den Beweis beginnt man mit der allgemeinen Darstellung der inversen Fouriertransformation
Z
1
S() ejt d.
s(t) =
2

In die inverse Fouriertransformation setzt man nun die Definition der Fouriertransformierten ein:
Z
0
S() = s(t0 ) ejt dt0

Dadurch ergibt sich die Beziehung


1
2

Z
Z Z
1
0

S() ejt d =
s(t0 ) ejt dt0 ejt d .
2

Nun kann man durch geschicktes Zusammenfassen die Darstellung weiter vereinfachen:

Z Z
Z Z
1
1
0
0

s(t0 ) ejt ejt dt0 d =


s(t0 ) ej(tt ) dt0 d
2
2

Nach dem Satz von Fubini kann man die Integrationsreihenfolge vertauschen und erhalt

Z Z
1
0

s(t0 ) ej(tt ) d dt0 .


2

Um die Gleichung noch etwas zu vereinfachen zieht man eine andere mathematische
Beschreibung des -Impulses,
Z
1
ejt d
(t) =
2

1
(t t) =
2
0

Z
0
ej(tt ) d,

32

hinzu. Da s(t0 ) konstant bez


uglich der Integration nach ist, kann man die Funktion
aus dem zweiten Integral herausziehen. Somit erhalt man schlielich den Ausdruck

Z
Z
Z
1
0
j(tt0 )
0

s(t ) e
d dt = s(t0 ) (t0 t) dt0 = s(t).
2

2.4 Theoreme zur Fouriertransformation


Nicht immer sind die Fouriertransformationen so einfach zu berechnen wie in den vorangegangenen Beispielen. Man bedient sich verschiedener Theoreme, um den mathematischen Aufwand so gering wie m
oglich zu halten.
2.4.1 Linearit
at
Man nennt eine Transformation linear, wenn folgende Eigenschaft erf
ullt ist:
Tr{a s1 (t) + b s2 (t)} = a Tr{s1 (t)} + b Tr{s2 (t)}
Dabei sind s1 (t) und s2 (t) zwei unterschiedliche Signale, a und b Konstanten. Da die
Integration linear ist, gilt diese Eigenschaft auch f
ur die Fouriertransformation.
Beispiel Wie hilfreich die Linearitat bei der Auswertung der Fouriertransformation
sein kann, wird in folgendem Beispiel deutlich. Gegeben seien die zwei Signale
s1 (t) = (t t0 )
und
s2 (t) = (t + t0 ).
Hierbei f
allt auf, dass es sich um zwei verschobene -Funktionen handelt. Gesucht ist die
Fouriertransformierte
sges = s1 (t) + s2 (t).
Daf
ur benutzt man die Linearit
atseigenschaft:
F {sges } = F {(t t0 ) + (t + t0 )} = F {(t t0 )} + F {(t + t0 )}
Durch Benutzung der Siebeigenschaft
Z
f (t) (t) dt = f (0)

33

kann man die einzelnen Fouriertransformierten


F {sges } = ejt0 + ejt0
angeben. Durch die Eulersche Identitat erhalten wir nun
F {sges } = cos(t0 ) + j sin(t0 ) + cos(t0 ) + j sin(t0 ).
Schlielich gelangt man zu dem gesuchten Ergebnis
F {sges } = 2 cos(t0 ).

2.4.2 Ahnlichkeitssatz
Wird bei einer Zeitfunktion die Zeitachse mit einer reellen Konstante b skaliert, dann
resultiert daraus folgendes Transformationspaar:
 
1
S
s(bt)
|b|
b

Der Ahnlichkeitssatz
besagt unter anderem, dass breite Signale schmale Spektren und
schmale Signale breite Spektren besitzen.
Beweis

Zum Beweis des Ahnlichkeitssatzes


machen wir die Annahme, dass b > 0 ist. Somit gilt
Z
F {s(bt)} = s(bt) ejt dt.

Mit Hilfe der Substitution t0 = bt ergibt sich


Z
t0
dt0
F {s(bt)} = s(t0 ) ej b
b

1
=
b

Z
t0
s(t0 ) ej b dt0

 
1
S
.
b
b

Der Beweis erfolgt analog f


ur b < 0.

34

2.4.3 Verschiebungssatz
Die zeitliche Verschiebung eines Signals bewirkt eine Multiplikation im Frequenzbereich.
s(t t0 )

S() ejt0

Bei der zeitlichen Verschiebung einer Funktion verandert sich unter keinen Umstanden
der Betrag des zugeh
origen Spektrums, lediglich die Phase erfahrt eine Veranderung.
Beweis
Gegeben sei ein verschobenes Signal s(tt0 ). Mithilfe der Substitution t0 = tt0 erhalten
wir
Z
Z
0
jt
F {s(t t0 )} = s(t t0 ) e
dt = s(t0 ) ej(t +t0 ) dt0 .

Nach dem Ausklammern


Z
0
F {s(t t0 )} = s(t0 ) ejt0 ejt dt0

zieht man ejt0 aus dem Integral heraus und erhalt


jt0

F {s(t t0 )} = e

Z
0
s(t0 ) ejt dt0 = S() ejt0 .


2.4.4 Ableitungssatz
Eine weitere wichtige Eigenschaft der Fouriertransformation ist der Ableitungssatz. Er
besagt, dass die Differentation im Zeitbereich in eine Skalierung j im Frequenzbereich
bewirkt:
d
s(t)
j S()
dt

35

Beweis
Nun wollen wir den Ableitungssatz beweisen. Wir suchen die Fouriertransformierte eines
abgeleiteten Signals:

 Z
d
d
F
s(t) =
s(t) ejt dt
dt
dt

Durch partielle Integration


Zb

f (t) g (t) dt = [f (t)

g(t)]ba

Zb

f 0 (t) g(t) dt

bekommt man

F


Z
d jt
d
jt a
s(t) = lim [s(t) e
]a s(t)
e
dt.
dt
dt
|a
{z
}

= 0

Nach dem Ableiten der e-Funktion




Z

d
F
s(t) = s(t) j ejt dt
dt

erhalten wir


F


d
s(t) = j S().
dt


Beispiel 1
d
dt (t).

Man berechne die Fouriertransformierte eines abgeleiteten Dirac-Stoes



F


d
(t) = j F {(t)} = j
| {z }
dt
= 1

Beispiel 2
Impulses

Zu berechnen sei die Fouriertransformierte eines zweifach abgeleiteten Rechtecks(t) =

d2
rect(t).
dt2

Durch die Verwendung des Ableitungssatzes gelangt man zu



 
 
 2
d
1
1
2 2
F
rect(t) = (j) sin
= 2 sin
.
2
dt

2
2

36

2.4.5 Dualit
at
Unter Dualit
at versteht man folgenden Zusammenhang:
s(t)

S()

und

S(t)

2 s()

Stellen zwei Funktionen s(t) und S() ein Transformationspaar dar, so bilden S(t) und
2 s() ebenfalls ein Transformationspaar. Dies nennt man duale Korrespondenz.
Beweis
Die nachfolgenden Rechenschritte sollen verdeutlichen, wie wir zu der Erkenntnis gelangen, dass s(t)
S() und S(t)
2 s() gilt. Die Fouriertransformation ist
als
Z
S() = s(t) ejt dt

definiert. Unsere inverse Fouriertransformation


Z
1
s(t) =
S() ejt d
2

unterscheidet sich nur geringf


ugig von der regularen Fouriertransformation. Wird nun
t t substituiert, bekommt man
Z
1
s(t) =
S() ejt d.
2

Vertauscht man nun die Variablen t und , so gelangt man zu


Z
2 s() = S(t) ejt dt.


Beispiel
Z
Z
jt
S(t) = s(t) e
dt s(t) = S() ejt d

F
ur das erste Integral substituiert man t
und f
ur das zweite Integral t0 :
Z
Z
0
0
0 0
S(t0 ) = s( 0 ) e+j t d 0 s( 0 ) = S(t0 ) ej t dt0

37

2.4.6 Symmetrie
F
ur reelle Signale s(t) gilt:
S() = S()
Dies bedeutet, dass der Realteil der Fouriertransformierten eines reellen Signals immer
gerade ist, und der Imagin
arteil immer ungerade. Diese Eigenschaft bezeichnet man als
Hermitesche Symmetrie.6 Ist zusatzlich s(t) gerade, so verschwindet der Imaginarteil
der Fouriertransformierten S(). Ist s(t) ungerade, so verschwindet der Realteil.
Beweis
Sei s(t) reell. Es gilt:
Z
S() = s(t) ejt dt

Z
Z
= s(t) cos(t) dt + j s(t) sin(t) dt

Z
Z
= s(t) cos(t) dt j s(t) sin(t) dt

Z
s(t) cos(t) dt + j s(t) sin(t) dt

Z
=

Mit

Z
Z
S() = s(t) cos(t) dt + j s(t) sin(t) dt

folgt die Hermitesche Symmetrie.


Sei nun s(t) zus
atzlich gerade. Es gilt:
Z
Z
S() = s(t) cos(t) dt + j s(t) sin(t) dt

Nach Charles Hermite, 1822-1901, franz


osischer Mathematiker.

38

{z

=0, da s gerade

sowie f
ur ungerades s(t):
Z
Z
S() = s(t) cos(t) dt +j s(t) sin(t) dt

{z

=0, da s ungerade

}


2.4.7 Faltungssatz
Nun betrachten wir den Faltungssatz:
s1 (t) s2 (t)

S1 () S2 ()

Nach s1 (t) s2 (t) = g(t) und S1 () S2 () = G() wird das Faltungsprodukt beider
Zeitfunktionen in das Produkt der beiden zugeordneten Fouriertransformierten transformiert. Die Darstellung erhalten wir aus der Dualitat der Fouriertransformation. Die
Faltungsalgebra wird in eine Multiplikationsalgebra transformiert. Dies f
uhrt zu einer
deutlichen Vereinfachung bei der Behandlung von LTI-Systemen.

Beweis
Nun beweisen wir den Faltungssatz. Dazu erinnert man sich an die Definition der Faltung
Z
a(t ) b( ) d

und bekommt dadurch

Z Z
F {s1 (t) s2 (t)} = s1 (t ) s2 ( ) d ejt dt

ZZ
=
s1 (t ) s2 ( ) ejt d dt.

Nun substituieren wir t0 = t . Damit erhalten wir


ZZ
0
=
s1 (t0 ) s2 ( ) ej(t + ) d dt0 .

Mit ej(t + ) = ej(t ) ej( ) konnen nun die beiden Integrale auseinandergezogen
werden

39

Z
Z
0
= s1 (t0 )ej(t ) dt0 s2 ( )ej( ) d.

Somit ergibt sich die Behauptung


F {s1 (t) s2 (t)} = F {s1 (t)} F {s2 (t)} .

2.4.8 Multiplikationssatz
Der Muliplikationssatz l
asst sich mit Hilfe des Faltungssatzes herleiten. Durch die Hinzunahme der Dualit
at erhalten wir folgende Eigenschaft:
1
S1 () S2 ()
s1 (t) s2 (t)
2
Der Faltungssatz und der Muliplikationssatz stellen zwei grundlegende Beziehungen der
Systemtheorie dar. Eine Faltung im Zeitbereich entspricht einer Multiplikation im Frequenzbereich und eine Multiplikation im Zeitbereich entspricht einer Faltung im Frequenzbereich. Beide Theoreme ermoglichen es, die recht komplizierte Faltungsvariante
im einen Bereich durch eine einfache Multiplikation in den anderen Bereich zu u
bergeben.

2.5 Parsevaltheorem der Fouriertransformation


Das Parsevaltheorem spiegelt die Gleichheit zwischen der Energie zweier Signale im
Zeitbereich und der Energie zweier Signale im Frequenzbereich wider.
Z
Z
1

S1 () S2 () d
s1 (t) s2 (t) dt =
2

Sind die beiden Signale s1 (t) und s2 (t) gleich, so gilt:


Z
Z
1
2
|s(t)| dt =
|S()|2 d
2

Dabei wird

|S()|2

als Energiespektrum bezeichnet.

Definition 2.5 Signalenergie


Z
Z
1
2
E = |s(t)| dt =
|S()|2 d
2

Die Signalenergie kann im Zeit- oder Frequenzbereich berechnet werden. In Kap. 5.1
wird der Energiebegriff noch einmal genauer definiert.

40

Beweis
Nun beweisen wir das Parsevaltheorem. Den Beweis beginnt man mit dem Symmetrieansatz
s2 (t)
S2 ()
und man erh
alt f
ur die Signalenergie
Z
0
s1 (t) s2 (t) ej t dt.

Durch den Gebrauch des Multiplikationssatzes erhalt man


Z
1
0
S1 ( 0 ) S2 ( 0 )
s1 (t) s2 (t) ej t dt =
2

Z
S2 (( 0 )) S1 () d.

1
=
2

Setzt man nun 0 = 0, so ver


andert sich die Gleichung zu
Z
Z
1
s1 (t) s2 (t) dt =
S1 () S2 () d.
2

2.6 Berechnung einfacher Schaltungen

Abbildung 12: Aufbau von einfachen Schaltungen.


Nun wollen wir uns die Berechnung von Schaltungen ansehen. Eine Schaltung besteht aus einer Eingangsspannung, einem Netzwerk von Bauelementen und der daraus

41

resultierenden Ausgangsspannung. Unser Netzwerk kann aus den unterschiedlichsten


Bauelementen bestehen, wie zum Beispiel Dioden, Widerstanden, Transistoren etc. Hier mochten wir unser Netzwerk auf die drei wichtigsten Bauelemente reduzieren. Das

sind der Widerstand, die Spule und der Kondensator. Nachdem man einen Uberblick
u
uber Gedanken machen, wie man die Schalber die Schaltung hat, muss man sich dar
tung mathematisch beschreiben kann. Oft wird die Eingangs- oder Ausgangsspannung
gesucht. Die gebr
auchlichen Gleichungen die man f
ur solch eine Beschreibung der Netzwerke ben
otigt, sollten bereits aus den Vorlesungen zu den Grundlagen der Elektrotechnik
bekannt sein. Der erste Schritt beginnt damit, das System mithilfe von Differentialgleichungen zu beschreiben, welche im Zeitbereich liegen. Oft sind der Maschensatz und das
Knotengesetz hilfreiche Methoden um den mathematischen Aufwand und die Beschreibung so u
oglich zu gestalten. Durch die Fouriertransformation wandelt
bersichtlich wie m
man die Differentialgleichungen vom Zeitbereich in den Frequenzbereich um und erhalt
somit ein lineares Gleichungssystem, dass wir dann nach der gesuchten Groe umstellen
konnen. Anschlieend wandelt man das System durch die inverse Fouriertransformation
vom Frequenzbereich in den Zeitbereich um und erhalt den gesuchten Wert.

Abbildung 13: L
osungsrezept zur Berechnung von Schaltungen.

42

Beispiel 1 Wir sehen uns ein RC-Glied etwas genauer an. Bei dieser Schaltung gilt
zum Zeitpunkt t = 0, dass der Kondensator ungeladen ist: Q(0) = 0.

Zuerst stellt man sich mit der Maschenregel eine Gleichung auf, die das System vollstandig beschreibt:
Ur (t) = R I(t) + U0 (t)
Mit U0 (t) =

Q(t)
,
C
Ur (t) = R I(t) +

Q(t)
,
C

und I(t) = Q(t)


erh
alt man die Differentialgleichung
1

Ur (t) = R Q(t)
+ Q(t).
C
Mittels Fouriertransformation wandelt man das Signal vom Zeitbereich in den Frequenzbereich um und erh
alt


j
Q()
Ur
() = R jQ() +
.

C
Als nachstes wird die Ladung Q() ausgeklammert




j
1
Ur
() = Q() R j +

C
und isoliert

Q() = Ur

 

j
1 1
() R j +
.

Schlielich wandelt man das System wieder vom Frequenzbereich in den Zeitbereich um,

Q(t) = F
|


Ur

j
()

{z
U (t)

(
 )1
1 1
F
R j +
,
C
} |
{z
}
(t)
t
exp

(
)
R
RC

1

und erh
alt f
ur die Ladung Q(t)
Z
( )
Q(t) = U (t )
e RC d.
R

Nun muss man eine Fallunterscheidung machen und t < 0 und t 0 unterscheiden. Im
ersten Fall t < 0 erh
alt man
Q(t) = 0.
F
ur den zweiten Fall t 0 muss man das Integral zwischen den Grenzen t und 0
auswerten
Z t
Ur
Q(t) =
e RC d
0 R
und u
ber integrieren


Ur
Q(t) =
(RC) e RC
R

t
0

und erh
alt schlussendlich


t
Q(t) = Ur C e RC 1


t
= Ur C 1 e RC .
Das Ergebnis wird in Abb. 14 deutlich.

kap2/img/pdf/RCuebertrag.pdf

Abbildung 14: Schaubild des RC-Glieds.

44

Beispiel 2 Nun sehen wir uns einen Schwingkreis an, der aus einer Spule, einem Kondensator und einem Widerstand besteht. Er hat folgenden Aufbau:

Mithilfe des Maschensatzes


(t) = UL + h(t)
und der Beziehung f
ur die u
ber der Spule abfallenden Spannung

UL (t) = L I(t)
erhalt man den Zusammenhang
+ h(t).
(t) = L I(t)
Jedoch gen
ugt diese Gleichung nicht um das System vollstandig zu beschreiben. Deswegen stellt man mit der Knotenregel eine weitere Beziehung auf. An dem Knotenpunkt an
dem die Str
ome von Kondensator, Widerstand und Spule einflieen ist der Gesamtstrom
gleich null:
I(t) = IR (t) + IC (t)
Da

IC (t) = C h(t)
und
IR (t) =

h(t)
R

gilt, erhalten wir die Differentialgleichung


I(t) =

h(t)

+ C h(t)
R

Mit Maple k
onnen wir die Auswertung etwas beschleunigen und erhalten:
I() =

H()
+ cjH().
R

2.7 Aufgaben
2.1 Berechnen Sie die Fouriertransformierte des folgenden Signals:
s(t) = sgn(t)
2.2 Berechnen Sie die Fouriertransformierte des folgenden Signals
(

1
cos(0 t) wenn 2 < t < 2 ,
w(t) =
0
sonst.
2.3 Wir bezeichnen mit F () die Fouriertransformierte einer Funktion f (t). Beweisen
Sie die folgende Gleichung:
F{f (at)} =

1  
F
|a|
a

2.4 Beweisen Sie die folgende Eigenschaft der Fouriertransformation


1
F{f (t) cos(0 t)} = (F ( + 0 ) + F ( 0 ))
2
2.5 Berechnen Sie die Fouriertransformation des Dreiecksimpulses

ur 1 t < 0
t + 1, f
f (t) = 1 t, f
ur 0 t < 1

0,
sonst
2.6 Berechnen Sie folgendes Integral unter Benutzung des Parsevaltheorems:
Z

(t2 + 1)2 dt

2.7 Berechnen Sie die Fouriertransformierte der Normalverteilung mit der Struktur
(tt0 )2
1
Nat0 (t) = e a
a

46

Maple: Fouriertransformation
si-Funktion
Im Beispiel 2 des Abschnitts 2.2 haben wir die si-Funktion aus der Fouriertransformation
eines Rechteckimpulses hergeleitet. Die Rechteckfunktion wird u
ber die Summe zweier
Heaviside-Funktionen definiert:
> rect := t -> Heaviside(t+1/2) - Heaviside(t-1/2):
Die Fouriertransformation wird nach Def. 2.2 durchgef
uhrt:
> i1 := int(rect(t)*exp(-I*omega*t), t=-infinity..infinity)
1
1
I
I
I e2
Ie 2
i1 :=
+

Das Ergebnis erinnert stark an die Beschreibung einer trigonometrischen Funktion u


ber
die Euler-Identit
at. Wir weisen Maple deshalb an, den Ausdruck mit Hilfe der convertFunktion in trigonometrische Grundfunktionen umzuwandeln und mit dem simplifyBefehl zu vereinfachen:
> simplify(convert(i1, trig))



1
2 sin

Wir erhalten die si-Funktion. Da sie in Maple nicht vordefiniert ist, holen wir dies selbst
nach. Zur Veranschaulichung lassen wir den Verlauf der Funktion plotten.
> si := x -> sin(x)/x
> plot(si(x), x=-15..15)
si := x

sin(x)
x

1.0

0.8

0.6

0.4

0.2

15

10

10

0.2

47

15

Beispiele f
ur Fouriertransformationen
Das in Maple vordefinierte Paket inttrans enthalt eine Reihe von bekannten Integraltransformationen, darunter auch die Fouriertransformation. Mit with binden wir es ein
und erhalten als Ausgabe die in dem Paket enthaltenen Definitionen.
> with(inttrans)
[addtable, f ourier, f ouriercos, f ouriersin, hankel, hilbert, invf ourier,
invhilbert, invlaplace, invmellin, laplace, mellin, savetable]
Zunachst m
ochten wir die Fouriertransformierte der sin-Funktion bestimmen. Der Befehl
> fourier(sin(omega0*t), t, omega)
1
1
I f ourier(eI 0 t , t, ) + I f ourier(eI 0 t , t, )
2
2
f
uhrt allerdings nicht zum gew
unschten Ergebnis, da die Variable nicht definiert
wurde. Maple nimmt deshalb eine komplexe Zahl an und kann keine allgemeine Losung
des Transformationsintegrals angeben.
Der Befehl
> assume(omega0 > 0)
legt fest, dass es sich bei um eine positive reelle Zahl handelt. Die Schlangenlinie
( Tilde), die von nun an neben der Variablen erscheint, deutet an, dass Einschrankungen

bez
uglich des Wertebereichs der Variablen getroffen worden sind. Damit lasst sich das
Fourierintegral in analytisch geschlossener Form darstellen:
> fourier(sin(omega0*t), t, omega)
I (Dirac( + 0) Dirac( 0))
Auch andere Fouriertransformationen sind mit Maple leicht zu berechnen:
> fourier(Heaviside(t), t, omega)
I

Einige Funktionen werden durch die Fouriertransformation auf sich selbst abgebildet,
darunter auch die Gau-Funktion:
Dirac()

> fourier(1/(2*Pi)^(1/4) * exp(-(1/2)*t^2), t, omega)


1

21/4 1/4 e 2

48

S
atze zur Fouriertransformation
Alle in Kap. 2.4 hergeleiteten Theoreme zur Fouriertransformation lassen sich auch in
Maple zeigen. Dazu geh
oren z. B. die Linearitat, der Verschiebungssatz und der Ableitungssatz:
a) Linearit
at (Kap. 2.4.1)
> fourier(a*f(t) + b*g(t), t, omega)
b f ourier(g(t), t, ) + a f ourier(f (t), t, )

b) Verschiebungssatz (Kap. 2.4.3)


> assume(t0 > 0)
> fourier(f(t - t0), t, omega)
eI t0 f ourier(f (t), t, )

c) Ableitungssatz (Kap. 2.4.4)


> fourier(diff(f(t), t), t, omega)
I f ourier(f (t), t, )
Als Beispiel dient die Fouriertransformation der Ableitung des Diracimpulses:
> fourier(diff(Dirac(t), t), t, omega)
I

Ubertragungsfunktion
und Impulsantwort des RC-Glieds
Analog zum Beispiel 1 auf Seite 39 soll die Impulsantwort eines RC-Glieds berechnet werden. Zun
achst laden wir die Bibliothek der Integraltransformationen in unser Dokument
und deklarieren dann R und C als positiv und reellwertig.
> with(inttrans):
> assume(R > 0)
> assume(C > 0)
Ebenso wie im Beispiel gehen wir von einer Differentialgleichung aus, allerdings wird
hier unsere Schaltung mit einem Diracimpuls statt mit einer Sprungfunktion angeregt:

49

> g1 := R*(diff(Q(t), t)) + Q(t)/C = Dirac(t)



g1 := R


d
Q(t)
Q(t) +
= Dirac(t)
dt
C

Die Gleichung wird in den Frequenzbereich transformiert,


> g2 := fourier(g1, t, omega)
g2 :=

(I R C + 1) f ourier(Q(t), t, )
=1
C

und sie wird nach der Fouriertransformierten der Ladung aufgelost:


> Qof := solve(g2, fourier(Q(t), t, omega))
Qof :=

C
I R C + 1

Die Ubertragungsfunktion,
d. h. die Ausgangsspannung der Schaltung in Abhangigkeit
von der Eingangsfrequenz, erhalten wir nach u() = q()/C zu:
> H := Qof/C
H :=

1
I R C + 1

Die Impulsantwort ist die R


ucktransformierte der Ubertragungsfunktion.
> h := invfourier(H, omega, t)

h :=

RtC

Heaviside(t)
R C

Im Plot erkennt man deutlich, wie die Spannung am Ausgang nach der Anregung mit
dem Impuls exponentiell abf
allt, statt sofort auf null zur
uckzugehen:
> plot(subs(R=1, C=1, h), t=-2..5, axes=boxed)

50

0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0.0

Schwingkreis
Es soll nun der Schwingkreis aus Beispiel 2 (Seite 41) berechnet werden. Wir deklarieren
die Konstanten und beginnen wieder bei den von uns ermittelten DGL:
>
>
>
>

with(inttrans):
assume(R > 0); assume(C > 0); assume(L > 0);
deq1 := L*(diff(i(t), t)) + h(t) - Dirac(t)
deq2 := h(t)/R + C*diff(h(t), t) - i(t)



d
i(t) + h(t) = Dirac(t)
dt


h(t)
d
deq2 :=
+ C
h(t) = i(t)
R
dt

deq1 := L

Wir gehen mit diesen Gleichungen in den Frequenzbereich u


ber:
> eq1 := fourier(deq1, t, omega)
> eq2 := fourier(deq2, t, omega)
eq1 := f ourier(h(t), t, ) + I L f ourier(i(t), t, ) = 1
(I C R + 1) f ourier(h(t), t, )
eq2 :=
= f ourier(i(t), t, )
R
Aus der ersten Gleichung bestimmen wir i1 () = F {i(t)},
> i1 := solve(eq1 = 0, fourier(i(t), t, omega)

51

i1 :=

I (f ourier(h(t), t, ) 1)
L

und setzen es in die Gleichung eq2 ein:


> eq2a := subs(fourier(i(t), t, omega) = i1, eq2)
eq2a :=

(I C R + 1) f ourier(h(t), t, ) I (f ourier(h(t), t, ) 1)

R
L

Daraus erhalten wir dann die Ubertragungsfunktion


durch auflosen:
> H := solve(eq2a = 0, fourier(h(t), t, omega))
H :=

L 2

I R
C R + L I R

p
Der Amplitudengang |H()| = (Re{H()})2 + (Im{H()})2 zeigt, wie beim Schwingkreis
erwartet, einen Peak an der Resonanzfrequenz.
> plot(subs(C=1, L=1, R=10, abs(H)), omega=0..4)

9
8
7
6
5
4
3
2
1
0

52

3 Diskrete Signale und Systeme


3.1 Einf
uhrung
Signale und Signalformen sind wesentlich zum Verstandnis physikalischer Messsysteme.
Ein Signal kann auf seinen Defintionsbereich auf der Zeitachse oder auf seinem Wertebereich diskret7 oder kontinuierlich8 sein. Ein Signal ist kontinuierlich, wenn es beliebige
Werte annehmen kann, sonst wird es wertdiskret genannt. Ein Signal ist zeitkontinuierlich, wenn die Kenntnis seines Wertes zu jedem beliebigen Zeitpunkt erforderlich ist,
andernfalls wird es zeitdiskret genannt. Ein wertdiskretes Signal nennt man auch zweiwertig oder auch bin
ar.

3.2 Klassifizierung von Signalen

Abbildung 15: Klassifierzierung von Signalen


Die Umwandlung eines wertkontinuierlichen Signals in ein wertdiskretes Signal, nennt
man Quantisierung. Im Gegensatz dazu nennt man die Umwandlung von einem zeitkontinuierlichen in ein zeitdiskretes Signal Abtastung. Das zeit- und wertdiskrete Signal
kann durch die Codierung, zum Beispiel ein binares Signal, weiterverarbeitet werden.
7
8

diskret = abz
ahlbar

kontinuierlich = nicht abz


ahlbar

53

3.3 Abtastung im Zeitbereich


Unter Abtastung versteht man die Aufnahme von Messwerten zu diskreten Zeitpunkten.
Somit wird ein zeitkontinuierliches Signal in ein diskretes Signal umgewandelt. Hierbei
ist vor allem die Abtastrate von hoher Bedeutung, da sie die Anzahl der Abtastungen pro
Sekunde angibt. Der Grundsatz der Abtastung liegt darin, dass mehrere Werte (Signal)
u
ber einen groen Zeitraum hinweg aufgezeichnet werden. Diese Werte wandelt man im
Folgenden in digitale Messwerte um. Die Abtastung ist also eine wiederholte Messung
des Signals f
ur kurze Zeiten (Abb. 16).

Abbildung 16: Abtastung im Zeitbereich

3.3.1 Idealer Abtaster


Der ideale Abtaster ist so definiert, dass das Signal nicht u
ber einen umfangreichen
Zeitraum um den Abtastzeitpunkt die Abtastwerte sammelt, sondern genau zu dem
Zeitpunkt selbst. Mathematisch l
asst sich der ideale Abtaster mit einer Summation von
Dirac-St
oen beschreiben.
sa (t) =

(t nT ) s(t)

n=

3.3.2 Realer Abtaster


Der ideale Abtaster l
asst sich nat
urlich nicht realisieren, da wir keine idealen Dirac-Stoe
erzeugen k
onnen. Durch die Abtastung wird das Signal eher u
ber einen Zeitraum um
den eigentlichen Abtastzeitpunkt erfasst. Zum anderen benotigen wir einen idealen Tiefpass, der f
ur die R
uckgewinnung des Signals erforderlich ist. Jedoch ist so ein Tiefpass
nicht realisierbar. Nat
urlich gibt es f
ur beide Probleme einen Ansatz zur Behebung des
Problems. Mit der Sample-and-Hold-Schaltung kann man die Dirac-Stoe durch einen

54

Abbildung 17: Ideale Abtastung


Rechteckimpuls korrigieren. Die Schwierigkeit mit dem Tiefpass lasst sich mit der Erhohung der Abtastfrequenz umgehen. Dadurch werden die Einzelspektren weiter auseinander gedehnt:



X
t nT
sa (t) =
rect
.
T0
n=

Abbildung 18: Reale Abtastung

3.3.3 Scha-Funktion
Definition 3.1 Scha-Funktion
X(t) =

(t n)

n=

Die Bezeichnung kommt von der Ahnlichkeit


mit dem kyrillischen Buchstaben X ( Scha), die

Funktion wird aber auch oft Dirac-Kamm genannt.

55

Bilden wir die Fourier-Transformierte von der X-Funktion, so erhalten wir das folgendes
Transformationpaar

X(t)
X
2
Mit dieser Formulierungen k
onnen wir den idealen Abtaster darstellen, als


t
1
s(t)
X
sa (t) =
T
T

Durch die Verwendung des Ahnlichkeitssatzes


erhalten wir



1

t
X T
X
T
T
2


Sa () = X T
S() =
2




Z 


0
T
n S
2
d 0

Mithilfe der Substitution F = T


SA () =

0
2

und weiteren Umforungen erhalten wir



2F
2
(F n) S
dF
T
T

n=


2n
=
S
T
n=

2
T

Dabei f
allt auf, dass SA () periodisch ist. Die Periodenlange der Funktion ist
bildungen 19 und 20 verdeutlichen dies.

Abbildung 19: Abtastung im Zeitbereich


Die Bedingung zur Rekonstruktion eines Signals ist
g <

g T <
.
T
g

56

2
T .

Ab-

Abbildung 20: Abtastung im Zeitbereich

3.4 Abtasttheoreme
Die Signalrekonstruktion ist m
oglich wenn T <

gilt.

3.4.1 Nyquistrate
Unter der Nyquistfrequenz versteht man die Grenzfrequenz. Sie ist die hochste im anfanglichen Signal auftauchende Frequenz. Unter der so genannten Nyquistrate, versteht
man die Frequenz 2f, die von der Abtastfrequenz u
berschritten werden muss.

1
T
=
g
2f
3.4.2 Unterabtastung
In der Signalverarbeitung redet man von Unterabtastung (Undersampling), wenn das
Signal mit einer Abtastrate, die niedriger als die Nyquist-Rate ist, diskret abgetastet
wird. Die Unterabtastung zieht allerdings mehrere Probleme nach sich und erschwert
die erneute Rekonstruktion des Signals. Zum einen gehen durch die nicht vollstandige
Reproduktion der Bestandteile des Signals Information verloren, zum anderen entstehen
Storfrequenzen (Spiegelfrequenzen).

T >
g

3.4.3 Ubertastung

In der Signalverarbeitung redet man von Uberabtastung


(Oversampling), wenn das Signal mit einer gegen
uber der Nquist-Rate erhohten Abtastrate analysiert wird. Diese
Abtastrate ist dabei gr
oer, als die Signalbandbreite. Diese Abtastung zeigt im Gegensatz zur Unterabtastung einige applikative Anwendungen. Sie wird bei SC-Filtern, DAund AD-Wandlern verwendet.

T <
g

57

fg

Abbildung 21: Unterabtastung

fg

Abbildung 22: Uberabtastung

3.5 Signalrekonstruktion im Frequenzbereich

F
ur die R
uckgewinnung des abgetasteten Signals benotigen wir die Ubertargungsfunktion



1
H(f ) =
rect
2
2g
und erhalten somit das Signal
T
SA () rect
S() =
2

2g

Dies gilt allerdings nur wenn die wichtige Bedingung T <

zutrifft.





g
T
1
t
s(t) =

X
s(t)
X(g t)
2
T
T

58

Dabei sei zu beachten, dass T = 2fg gilt.


s(t) =

=
=

(t0 nT ) s(t0 ) si(g (t t0 )) dt0

n=

s(n T ) si(g (t n T ))

n=

s(n T ) si

n=



(t T )
T

Ein bandbegrenztes Signal kann durch eine Linearkombination von si-Funktionen dargestellt
werden.

3.6 Abtastung im Frequenzbereich


In vergleichbarem Stil wie die Zeitfunktion s(t) lasst sich auch die Frequenzfunktion
S() durch frequenzdiskrete Werte ausdr
ucken. Durch das Systemtheorems der FourierTransformation erh
alt man einen a
hnlichen
Ausdruck wie im vorigen Kapitel.

1
Sp (f ) = S(f ) X
F

f
F

Signal
Signal

Zeitbereich
abgetastet
periodisch
F requenzbereich periodisch abgetastet(Linienspektrum)
1
F {g(t)} =
T rect
2

T
2

T0 si

59

T0
2


!

2 X
2

k
T
T
k=

3.7 Aufgaben
3.1 Eine Menge von Funktionen sei durch

fn (t) = si((t n))n Z


gegeben. Zeigen Sie, dass

(
0,
fn1 (t) fn2 (t)dt =
1,

f
ur n1 6= n2
f
ur n1 = n2

gilt. Verwenden Sie die Parseval-Identitat:


Z
Z
1
s(t) g(t)dt =
F{s(t)} F{g(t)}d
2

60

Maple: Diskrete Signale und Systeme


Fouriertransformation eines Deltaimpuls-Kamms
Die Darstellung von abgetasteten bzw. diskreten Signalen in Maple ist auf mehrere Arten
moglich. Eine M
oglichkeit ist die Darstellung als kontinuierliche Funktion, wobei die
Funktion allerdings nur zu ganzzahligen Zeiten ungleich null ist. Ein Beispiel f
ur so eine
Funktion ist der Dirac-Kamm. Wir konnen ihn mit Hilfe der sum-Funktion folgendermaen definieren:
> KammN := sum(Dirac(t - n), n=-N..N)

KammN :=

N
X

Dirac (t n)

n=N

Davon berechnen wir nun die Fouriertransformation:


> with(inttrans):
> KammNf := fourier(KammN, t, omega)
eI eI(N +1) + eIN
KammN f :=
1 + eI

Unter verwendung der subs-Funktion von Maple substituieren wir N = 3 in dieser Formel
und plotten so die Transformierte eines Kamms mit 7 Impulsen:
> plot(subs(N = 3, abs(KammNf)), omega=-20..20)
7
6
5
4
3
2
1

K20

K10

10

20

Wir erhalten ein kontinuierliches transformiertes Signal. Deutlich zu erkennen ist der
Leakage-Effekt, aufgrund dessen die Transformierte der Dirac-Stoe einen si-artige

Form annimmt. Auf diesen Effekt wird im nachsten Kapitel naher eingegangen.

61

Signal-Rekonstruktion
Das Signal, das wir hier abtasten und wieder rekonstruieren wollen, soll eine einfache
Sinus-Funktion sein. Die Abtastung und Rekonstruktion erfolgt in einem Zug:
> sr := sum(sin(n*dT)*si(Pi*(t-n*dT)/dT), n=-N..N)

sr :=

N
X
n=N

(t n dT )
sin(n dT ) si
dT

Die si-Funktion, die nach Kap. 3.5 zur Rekonstruktion eines abgetasteten Signals benotigt
wird, ist in Maple nicht vordefiniert, weshalb wir dies hier nachholen:
> si := x -> sin(x)/x:
Die Nyquist-Rate der Sinusfunktion ist in etwa dT = 1,57. Tastet man mit einer niedrigeren
Abtastrate ab, so wird die Rekonstruktion des Signals unvollstandig. (Abb. 23)
> plot(subs(N=20, dT=5, sr), s(t), t=-10..10);
> plot(subs(N=20, dT=3, sr), s(t), t=-10..10);
> plot(subs(N=20, dT=1, sr), s(t), t=-10..10);

1.0

0.5

10

0.5

1.0

(a) dT = 5

1.0

1.0

0.5

0.5

10

10

K
K

10

10

0.5

1.0

(b) dT = 3

10

0.5

1.0

(c) dT = 1

Abbildung 23: Rekonstruktion einer Sinusfunktion nach Abtastung mit verschiedenen


Abtastraten.

Weitere Hilfsmittel f
ur die Arbeit mit diskreten Signalen
Eine weitere M
oglichkeit, diskrete Signale in Maple darzustellen, bietet die Verwendung
von Wertetabellen oder -listen. Eine Liste in Maple ist eine geordnete Aneinanderreihung von Werten. Man definiert eine Liste, indem man die Werte der Liste in eckigen
Klammern, durch Kommata getrennt, hinteinanderschreibt:

62

> ls := [a, b, c, d, e]
ls := [a, b, c, d, e]
Man greift auf ein Element der Liste mit dem Auswahloperator [...] zu:
> ls[2] + ls[5]
b+e
Anstatt jeden einzelnen Wert der Liste von Hand einzugeben, kann man die seq-Funktion
von Maple verwenden. Diese Funktion erzeugt, wenn sie in der Form seq(f(i), i=1..n)
aufgerufen wird, eine Sequenz von Werten f (), f (), . . . , f (n).
> [seq(evalf(sin(n)), n=-3..3)]
[.141, .909, .841, 0., .841, .909, .141]

Uber
das Schachteln von Listen ist es beispielsweise moglich, Koordinatenpunkte effizient abzuspeichern. Im folgenden erzeugen wir eine Liste [a , a , a , . . . ] von Paaren
an = [n, sin(n)]. Die listplot-Funktion aus dem Paket plots ist in der Lage, solche
Listen grafisch darzustellen. Wir weisen das Programm mit style=line an, die Koordinatenpunkte mit Linien zu verbinden.
> ls := [seq([n, evalf(sin(n))], n=-3..3)];
> with(plots):
> listplot(ls, style=line);
ls := [[3, .141], [2, .909], [1, .841], [0, 0.000], [1, .841], [2, .909], [3, .141]]
0.8
0.6
0.4
0.2

KK
K
K
K
1

0.2

0.4
0.6
0.8

Mochte man auf ein Element einer solchen mehrdimensionalen Liste zugreifen, kann man
entweder zwei Auswahloperatoren hintereinander einsetzen, oder aber man greift auf eine
abk
urzende Schreibweise zur
uck:

63

> ls[1][1];

ls[1,2];
3
0.141

Mochte man eine Funktion auf alle Eintrage einer Liste anwenden, so ist der map-Befehl
hilfreich. Ihm wird als erstes Argument eine Funktion u
bergeben, die dann auf die Eintrage der Liste im zweiten Argument angewendet wird:
> l1 := [1, 2, 3, 4, 5]:
> map(x -> 2*x, l1)
[2, 4, 6, 8, 10]
Die zip-Funktion verkn
upft zwei Listen u
ber eine Operation miteinander:
> l2 := [6, 7, 8, 9, 10]:
> zip((x, y) -> x + y, l1, l2)
[7, 9, 11, 13, 15]
Mochte man eine Liste aus den Werten von zwei anderen Listen erstellen, d. h. eine
Liste an eine andere anh
angen, kann man den leeren Auswahl-Operator verwenden, der
die Liste wieder in eine einfache Komma-getrennte Aneinanderreihung ihrer Elemente
umwandelt:
> l3 := [l1[], l2[]]
l3 := [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]

Oftmals ist es notwendig, komplexere Operationen an Listen durchzuf


uhren, die durch
die einfachen Hilfsfunktionen, die Maple bietet, nicht abgedeckt werden. In diesen Fallen
kommt eine for-Schleife zum Einsatz. In ihr wird eine Variable in festen Schritten
hochgez
ahlt und der K
orper der for-Konstruktion (der durch do und end do eingegrenzte Code) wird f
ur jeden Wert dieser Variable ein mal ausgef
uhrt.
In diesem Beispiel soll die Variable ges
> ges := 0:
die Summe der ungeraden Elemente von l3 enthalten:
1
for i from 1 by 2 to 9
>
2
do
3
ges := ges + l3[i]
4
end do;

64

ges := 1
ges := 4
ges := 9
ges := 16
ges := 25
In einem weiteren Beispiel soll die Reihenfolge der Elemente von l3 umgedreht werden:
1
for
2 > do
3
4
5
6
end

i from 1 to 5
zw := l3[i]
l3[i] := l3[10 - (i-1)]
l3[10 - (i-1)] := zw
do:

Der Doppelpunkt hinter der end do-Anweisung verhindert die Ausgabe der zwischenergebnisse innerhalb des Schleifenk
orpers. Das Ergebnis ist wie gew
unscht:
> l3;
[10, 9, 8, 7, 6, 5, 4, 3, 2, 1]

65

placeholder

4 Numerische Berechnung der Fouriertransformation


Seit dem Aufkommen von immer kleineren, schnelleren und kosteng
unstigeren digitalen Systemen ist es m
oglich geworden, in zahlreichen technischen Anwendungen auch
komplexere und rechenintensivere Verfahren zum Einsatz kommen zu lassen. Die Fouriertransformation geh
ort zu den wichtigsten dieser Verfahren, da viele Operationen an
Signalen, insbesondere die Faltung, erst im Frequenzbereich effizient durchgef
uhrt werden konnen.

Abbildung 24: Anwendung der Fouriertransformation in einem Filter.


Digitale Komponenten sind dabei allerdings nicht in der Lage, analytische Berechnungen an kontinuierlichen Signalen durchzuf
uhren. Zur Verarbeitung m
ussen diese deshalb
abgetastet werden. Die Berechnung selbst muss dann mit numerischen Methoden erfolgen.

4.1 Diskrete Fouriertransformation


F
ur die numerische Berechnung der Fouriertransformation existiert mit der FFT eine
sehr effiziente Berechnungsvorschrift.9 Die Grundlage daf
ur ist die diskrete Fouriertransformation (DFT), die sich, wie sich im Laufe des Kapitels zeigen wird, analog zur Fouriertransformation von kontinuierlichen Signalen verhalt.
Entsprechend dem vorangegangenen Kapitel werden zu bestimmten Abtastzeiten
tn = nT

mit n = 0 . . . N 1

Abtastwerte
sn = s(nT )
9

Fast Fourier Transform, schnelle Fouriertransformation

67

bestimmt. Daraus ergibt sich sofort eine maximale Grenzfrequenz


=

.
T

Signalcharakteristika h
oherer Frequenzen fallen zwischen die Abtastzeiten und konnen
nicht mehr erfasst werden.
Umgekehrt muss auch der Frequenzbereich diskretisiert werden:


N
N
n = 2fn = 2nf mit n = + 1 . . .
2
2
Analog zum Zeitbereich ergibt sich eine obere Abtastrate
f =

1
.
N T

Man erkennt, wie eine Erh


ohung der Anzahl der Abtastwerte zu einer feineren Frequenzauflosung f
uhrt.
In realen Anwendungen sind Signale nun immer beschrankt und selten in ihrer Ganzheit
erfassbar. Deshalb definiert man die Kurzzeit-Fouriertransformation, die ein Signal nur
durch ein eingeschr
anktes Zeitfenster betrachtet. Da das Signal allerdings diskret ist,
kann man vom Integral auf die Summenschreibweise zur
uckkehren.
Z T
S(fn ) =
s(t) ejn t dt

0
N
1
X
k=0
N
1
X

s(tk ) e(2jn

1
N T

tk ) T

nk

sk ej2 N T

k=0

In der Praxis bevorzugt man es, die Abtastweite T nicht mit in die weitere Berechnung
zu u
bernehmen. Man definiert also:
Definition 4.1 Diskrete Fouriertransformation (DFT)
Sn =

N
1
X

nk

sk e2j N

k=0

Sn wird auch im Diskreten als Spektrum bezeichnet.

68

Anmerkungen
Man sieht leicht ein (z. B. durch Einsetzen), dass das Spektrum der diskreten Fouriertransformation periodisch ist, so dass gilt:
S N = S N
2

Diese Eigenschaft der DFT wird uns spater noch zu Gute kommen. Auerdem ist die
DFT eine lineare Abbildung der Form CN CN. Das bedeutet, dass es moglich ist, eine
Matrix
 2j nk
Mnk = e N
zu definieren, so dass man die DFT unter Zuhilfenahme der Vektordarstellungen des
Signals und seines Spektrums

s0
S0
S1
s1

s = . , S = .
..
..
sN 1
SN 1
auch wie folgt beschreiben kann:
Definition 4.2 Diskrete Fouriertransformation (Vektorschreibweise)
S = Ms
Dies gibt uns bereits einen Hinweis auf eine naive Methode zur numerischen Berechnung, bei der allerdings der Rechenaufwand f
ur das Matrixprodukt mit N N = N 2
Multiplikationen relativ hoch ist.

4.2 Parsevaltheorem der Diskreten Fouriertransformation


Auch im Diskreten gilt das Parsevaltheorem der Fouriertransformation, das wir bereits
in Kap. 2.5 eingef
uhrt haben. Mit der Matrix-Schreibweise konnen wir es allerdings unter
Verwendung von Begriffen aus der linearen Algebra anders ausdr
ucken. Damit besagt
es, dass die Matrix
1
M
N
eine unit
are Matrix ist.

69

Definition 4.3 Unit


are Matrix
Eine komplexe Matrix U heit unitar, falls gilt
(U ) T U = I.
Dabei bezeichnet I die Einheitsmatrix. Man schreibt
U := (U ) T .

Der Beweis des Parsevaltheorems wird durch einfaches Einsetzen in die Definition der
unitaren Matrix gef
uhrt. Man erh
alt:



1
1
1
M M
(M ) T M nm
=
N
N
N
nm

nk 

km
N 1 
1 X
2j
2j
=
exp
exp
N
N
N
k=0




N 1
1 X
2j nk
2j km
=
exp
exp
N
N
N
k=0


N 1
1 X
2j
=
exp
(n m)
N
N
k=0

Im Fall n = m ist

N 1
1
1  
1 X k
1 =
MM
=
N = 1.
N
N
N
mn
k=0

Ansonsten, falls also n 6= m ist, substituiert man




2j
q = exp
(n m)
N
und erh
alt

N 1
1  
1 X k
q .
MM
=
N
N
nm
k=0

70

Dies ist eine geometrische Summe. Mit dieser Idee kann man dann fortfahren:
N 1
1 X k
1 1 qN
q =
N
N 1q
k=0



2j
1

exp
(n

m)

N
N
1


=
N 1 exp 2j (n m)
N

1
11


N 1 exp 2j (n m)
N

=0
Oftmals bevorzugt man allerdings eine andere Form des Theorems, die mit der Schreibweise im Kontinuierlichen vergleichbar ist:
Theorem 4.4 Parsevaltheorem der DFT
N
1
X
k=0

N 1
1 X
|sk | =
|Sk |2
N
2

k=0

Diese Form des Parsevaltheorems lasst sich ebenfalls aus der Matrix-Schreibweise der
DFT herleiten:
N
1
X

|Sk |2 = S S

k=0

= (M s) (M s)

= s M
| {zM} s
N

= Ns s
=N

N
1
X

|sk |2

k=0

Def. 4.3 zeigt uns auch einen anderen wichtigen Zusammenhang auf. Demnach beschreibt
1

N M nichts anderes als die Inverse von M, also die inverse diskrete Fouriertransformation.

71

4.3 Fast Fourier Transform (FFT)


Am Ende von Kapitel 4.1 haben wir gesehen, dass die direkte Berechnung der Fouriertransformation recht aufw
andig ist. Gl
ucklicherweise hat man mit der schnellen Fouri
ertransformation FFT eine Methode gefunden, die den Rechenaufwand drastisch reduziert.
Die Idee hinter einer solchen Reduzierung ist oft, dass man die Rechnung in zwei Komponenten aufteilt und dann die beiden Ergebnisse durch eine einfache Rechenoperation
wieder zusammenf
uhrt.10 Wenn sich die beiden Teilberechnungen nun wieder aufteilen
lassen, so sieht man sofort, wie sich durch einen rekursiven Algorithmus viel Arbeit
einsparen l
asst.
Um die Berechnung der diskreten Fouriertransformation so aufzuteilen, ist es nun notwendig,
dass die Anzahl der Abtastwerte N des Signals durch zwei teilbar ist. Will man durch
Rekursion die Berechnung noch weiter vereinfachen, so sollte N eine Zweierpotenz der
Form N = 2k , k N sein.
Zur Herleitung der FFT geht man von der in Kap. 4.1 bestimmten Formel f
ur die DFT
aus:
N
1
N
1
X
X
kn
2j N
e
Sn =
WNkn sk
sk =
k=0

k=0

Um im Folgenden den Uberblick


nicht zu verlieren, f
uhren wir hier die Abk
urzung WNkn =
2j kn
N ein. Desweiteren sollen die Abtastwerte des zu transformierenden Signals durch
e
sk

mit k = 0 . . . N 1

bezeichnet werden.
Um den Rechenaufwand zu verk
urzen, versuchen wir zunachst einmal auf hoherfrequente
Anteile des Signals zu verzichten. Dazu verringern wir die Abtastrate und betrachten
bei der Berechnung der Transformation nur jeden zweiten Abtastpunkt. Die dadurch
im transformierten Signal entstandene Ungenauigkeit werden wir dadurch auszugleichen
versuchen, dass wir auch die Transformierte der herausgenommenen Abtastwerte berechnen und die beiden Transformierten geeignet wieder verkn
upfen.
In der folgenden Rechnung bezeichnen also
sgk = s2r

und suk = s2r+1

mit r = 0 . . . N/2 1

die geraden bzw. ungeraden Abtastwerte. Entsprechend sind


Sk

bzw. Skg und Sku

die fouriertransformierten Werte des Gesamtsignals und der Teilsignale.


10

Dieses Verfahren wird auch als divide and conquer bezeichnet.

72

4 5 6 7 8 9
10 11 12 13 14 15

0 1 2 3

(a) Abgetastete Sinuswelle

2
0

4
5

(b) Der gerade Anteil

(c) Der ungerade Anteil

Abbildung 25: Abgetastete Sinuswelle, zerlegt in geraden und ungeraden Anteil.


Mit diesen Vereinbarungen schreiben wir nun:
Sk =

N
1
X

WNkn sk

n=0

WNkn sk +

n ungerade

n gerade

N
2

N
2

1
X

k(2r)
WN s2r

r=0
N
2

k(2r)
WN sgk

1
X

k(2r)

WN

s2r+1

WNk suk

r=0
N
2

k(2r+1)

WN

r=0

r=0
N
2

1
X

N
2

WNkn sk

k(2r)
WN sgk

WNk

r=0

1
X
r=0

73

k(2r) u
sk

WN

k(2r)

Mit WN

= e

2j
N/2 kr

2j
N 2kr

=e

kr gilt:
= WN/2

N
2

Sk =

1
X

N
2

kr g
sk
WN/2

WNk

r=0

kr u
sk
WN/2

r=0

Skg

1
X

WNk Sku

Zur Berechnung der DFT sind also nunmehr zwei Transformationen an Signalen der
Lange N/2, eine Multiplikation mit einem Wert WNk und eine Addition der beiden Teilergebnisse notwendig. F
ur die FFT wird diese Aufspaltung in geraden und ungeraden
Anteil so lange durchgef
uhrt, bis tatsachlich nur noch Transformationen von Signalen
mit nur zwei Abtastwerten u
brig sind.
An dieser Stelle muss man noch einmal auf die Periodizitat der Fouriertransformation
(vgl. Kap. 4.1, S. 65) hinweisen:
g/u
g/u
Sk = Sk+ N
2

Demnach braucht man eine Berechnung der Werte Sk f


ur k N/2 nicht gesondert
durchzuf
uhren.

4.4 Schmetterlingsgraphen
4.4.1 Signalflussgraphen
Bei der Visualisierung von Algorithmen, insbesondere wenn sie relativ aufwandig sind,
werden sogenannte Signalflussgraphen verwendet. Sie sind eine Art von Blockdiagramm,
das einen Algorithmus mitsamt Ausgangswerten, Zwischenschritten und Ergebnissen
bildlich darstellt. Die Knoten des Graphen stellen dabei Variablen dar, die sie verbindenden Linien repr
asentieren mathematische Operationen.
Vereinfachte Notation:

s1(h)

s1(h)
+

s1(h) + s2(h)

s1(h) + s2(h)

s2(h)

s2(h)
(a) Addition
Vereinfachte Notation:

s(h)

c s(h)

s(h)

c s(h)

(b) Multiplikation

Abbildung 26: Grundelemente von Signalflussgraphen.

74

Die beiden wichtigsten Elemente dieser Graphen sind die Addition zweier Werte und
die Multiplikation einer Variablen mit einer Konstanten (Abb. 26). Aus ihnen lassen
sich eine Vielzahl weiterer Elemente zusammensetzen, aus denen wiederum komplexere
Systeme zusammengebaut werden konnen.
4.4.2 Veranschaulichung der FFT
Am Ende des Kapitels 4.3 haben wir festgestellt, dass bei der FFT nach der Aufspaltung
eines Signals in geraden und ungeraden Anteil die transformierten Teilsignale durch
jeweils eine Multiplikation und eine Addition wieder zusammengesetzt werden m
ussen.
Hat man nur zwei Abtastwerte, so erhalt man die transformierten Abtastwerte nach
S0 = W20 s0 + W20 s1 = s0 + W20 s1 ,
S1 = W21 s0 + W21 s1 = s0 + W21 s1 .
Der Graph dieser Operation wird allgemein, seiner Form nach, als Schmetterling beze
ichnet.11 Diese Figur findet man auch im Signalflussgraphen der FFT f
ur mehr als zwei
Abtastpunkte wieder (so auch f
ur N = 8 Werte, Abb. 27).

Abbildung 27: Schmetterlingsgraph der FFT f


ur acht Abtastwerte.

11

engl. butterfly

75

Durch genaues Hinsehen erkennt man, dass alle Schmetterlinge die gleiche Form haben:

Bemerkt man auerdem, dass


k+N/2

WN

N/2

= WNk WN

N 1
N

= WNk e2j 2

= WNk |{z}
ej = WNk ,
1

so wird der allgemeine Schmetterlingsgraph noch etwas einfacher:

Im Fall der FFT f


ur N = 8 (Abb. 27) werden pro Rekursionsebene 4 Schmetterlinge
verwendet, d. h. es werden 2 4 = 8 Multiplikationen durchgef
uhrt. Insgesamt gibt es
3 Rekursionsebenen, was insgesamt 3 8 = 24 Berechnungen bedeutet. Es lasst sich
zeigen, dass f
ur die FFT im Allgemeinen jeweils N/2 Schmetterlinge auf log2 N Ebenen
berechnet werden m
ussen, insgesamt sind es also N log2 N Operationen.
Vergleicht man den Berechnungsaufwand der FFT mit der naiven DFT (Kap. 4.1), die
N 2 Operationen erfordert, so kann man leicht verstehen, warum man diese Methode
die schnelle Fouriertransformation nennt. Besonders f
ur groe N ist der Geschwin
digkeitsvorteil bei der Berechnung sehr deutlich zu sehen: wahrend bei N = 1024 die
DFT etwa 106 Multiplikationen benotigt, kommt die FFT mit groenordnungsmaig 104
Multiplikationen aus, die Fast Fourier Transform ist um einen Faktor 100 schneller.

4.5 Faltung abgetasteter Signale


Mit der FFT haben wir nun einen g
unstigen Algorithmus f
ur den ersten Teil unseres
Filters aus Abb. 24 f
ur abgetastete Signale. Analog zur diskreten Fouriertransformation
wollen wir nun auch die diskrete Faltung herleiten, die uns erlaubt, zeitdiskrete LTISysteme zu beschreiben.

76

4.5.1 Herleitung der Diskreten Faltung


Es sei g(t) = h(t) s(t). Man kann die Rekonstruktion g(t), h(t), s(t) nach Abtastung
mit der Nyquist-Rate (vgl. Kap. 3.4.1) beschreiben als



X
t
g(t) =
g[n](t nT ) si
,
T
n=



X
t
,
h(t) =
h[n](t nT ) si
T
n=



X
t
s(t) =
s[n](t nT ) si
,
T
n=
sodass gilt:


t
g[n](t nT ) si
g(t) =
T
n=
"

# " X

#

X
t
t
=
h[k](t kT ) si

s[m](t mT ) si
T
T
m=
k=






X
X
t
t
=
(t mT ) si
h[k] s[m] (t kT ) si
T
T
m=


k=

Wahlt man nun die Zeiteinheit so, dass T = 1 wird, kann man diesen Ausdruck unter
Ausnutzen der bekannten Zusammenhange
Z
(t k) (t m) = (t0 k)(t t0 m) dt = (t k m)

und
si(t) si(t) = si(t)
vereinfachen. Es ergibt sich:
g(t) =

h[k]s[m](t k m) si(t)

k= m=

Substituiert man n = k + m,
g(t) =

h[n m]s[m](t n) si(t),

n= m=

erkennt man, wie aufgrund der Siebeigenschaft der Diracfunktion nur die diskreten Abtastwerte bei t = n u
brig bleiben. Man erhalt die folgende Definition der diskreten
Faltung, die in ihrer Form stark der kontinuierlichen Faltung ahnelt.

77

Definition 4.5 Diskrete Faltung


g[n] =

h[n m]s[m]

m=

Da die diskrete Faltung aus der allgemeinen Definition der Faltung hergeleitet wurde,
konnen auch auf sie alle bekannten Rechenregeln wie Distributivitat, Assoziativitat und
Kommutativit
at angewandt werden.
4.5.2 Elementare zeitdiskrete Signale
In Anlehnung an die Elementarfunktionen der kontinuierlichen Signalverarbeitung definiert
man auch f
ur die zeitdiskreten Signale einige haufig verwendete Funktionen.

Einheitsimpuls

(
1
[n] =
0

Einheitssprung

(
1 f
ur n 0
[n] =
0 sonst

Rechteckimpuls
der Breite 2M + 1

f
ur n = 0
sonst

rectM [n] = [n + M ]
[n M 1]
Tabelle 3: Elementare zeitdiskrete Signale.

Insbesondere sieht man, dass der Einheitsimpuls [n] im Gegensatz zum kontinuierlichen
Diracimpuls (t) eine einfache Funktion ist und keiner besonderen mathematischen Behandlung bedarf.

4.6 Diskrete lineare zeitinvariante Systeme12


Analog zu den linearen zeitinvarianten Systemen der kontinuierlichen Signalverarbeitung
bezeichnen die zeitdiskreten LTI-Systeme eine Klasse von Systemen, die sich auf besonders einfache Weise durch Transformationsbeziehungen der Form
g[n] = Tr {s[n]}
12

In der diskreten Signalverarbeitung spricht man auch von linearen


verschiebungsinvarianten Systemen.

78

darstellen lassen. Genau wie f


ur kontinuierliche Systeme auch impliziert Linearitat und
Zeitinvarianz, dass ein System als Faltung
g[n] = h[n] s[n]
ausgedr
uckt werden kann.
Ebenso gelten die gleichen Bedingungen f
ur diskrete LTI-Systeme wie f
ur kontinuierliche.
Linearitat ist gegeben, wenn
(
)
X
X
X
Tr
ai si [n] =
ai Tr {si [n]} =
ai gi [n]
i

gilt. Die Zeitinvarianz ist ebenfalls analog definiert als


Tr{s[n m]} = g[n m]
und f
ur die Impulsantwort gilt
h[n] = Tr{[m]}.

Kontinuierliche Signalverarbeitung
s(t)

g(t)

h(t)

Abtastung
s[n]

g[n]

h[n]

Diskrete Signalverarbeitung

Abbildung 28: Zusammenhang zwischen


Signalverarbeitung.

der

kontinuierlichen

Beispiel
Die Impulsantwort eines diskreten linearen zeitinvarianten Systems sei
h[n] = [n]an ,

79

|a| < 1.

und

diskreten


Ubertragen
wird das Signal
s[n] = rectM [n].
Berechnen Sie die diskrete Faltung
g[n] = h[n] s[n].
F
ur n < M gilt:
g[n] = h[n] s[n]

X
=
[n m]anm rectM [m]
m=

M
X

[n m]anm

m=M

F
ur n > M gilt:
g[n] =

M
X

anm

m=M

= an+M

2M
X

am

m=0
an+M +1

= an+M

1
a1

Die Rechnung f
ur M n M erfolgt analog u
ber die geometrische Reihe.

80

4.7 Aufgaben
4.1 Zeichnen Sie den Signalflussgraphen f
ur eine FFT von vier Abtastwerten.
4.2 Vergleicht man zwei Algorithmen miteinander, so erweist sich das Konzept der
Komplexit
at als n
utzlich. Darunter versteht man die Menge an Ressourcen (z. B. Speicherberdarf oder Rechenschritte), die ein Algorithmus benotigt, um eine Datenmenge
von einer bestimmten L
ange zu verarbeiten.
Dabei interessiert weniger die Zeit, die ein Programm nun tatsachlich auf einem Computer zur Ausf
uhrung braucht, sondern eher, wie schnell die Rechenzeit wachst, wenn
man dem Programm gr
oere Mengen an Daten zur verarbeitung u
bergibt.
a) Weisen Sie nach, dass f
ur eine Berechnung der diskreten Fourier-Transformation
von N Abtastwerten nach Kap. 4.1 eine Anzahl von N 2 komplexen Multiplikationen
notwendig ist.
b) Zeigen Sie, dass die Anzahl der komplexen Multiplikationen, die notig sind, um
eine rekursive FFT nach Kap. 4.3 zu Berechnen, nur N log2 N betragt.
c) Ein Programm implementiert die FFT mit einem Zeitaufwand von 3N log2 (3N ).
Ab welchem Wert von N lohnt es sich, diesen Algorithmus statt einer DFT mit Laufzeit
N 2 einzusetzen?
Hinweis: Die Berechnung der Werte WNkn fliet nicht mit in die Anzahl der Multiplikationen ein.
4.3 Berechnen Sie die diskreten Fourier-Transformationen folgender Signale:
a) s1 (n) = cos(2n)
b) s2 (n) = rectM (n)
c) s3 (n) = si2 (n/4)
4.4
a) Berechnen Sie die diskrete Fourier-Transformation des Vektors (4, 3, 2, 1) mit Hilfe
der Definition Def. 4.1.

81

b) Nach Def. 4.2 kann die diskrete Fourier-Transformation auch als Matrix-VektorProdukt formuliert werden. Geben Sie die Matrix der DFT an und transformieren Sie
den Vektor aus Aufgabenteil a) unter Verwendung dieser Matrix.
4.5 Gegeben seien die folgenden diskreten Signale:
(
1 f
ur |n| N, N N
f1 (n) =
0 sonst
(
an f
ur n 0, |a| 1, a N
f2 (n) =
0
sonst
(

N |n| /N f
ur |n| N, N N
f3 (n) =
0
sonst

Berechnen Sie folgende diskrete Faltungen:


a) f1 (n) f1 (n)
b) f1 (n) f2 (n)
c) f1 (n) f3 (n)
4.6 Gegeben sei ein diskretes System, dass das Signal (xn )nZ auf das Signal (x2n )nZ
abbildet. Ist dieses System ein LTI-System?
4.7 Ein Signal der Form s(t) = si(t/T ) durchlauft einen relen Abtaster mit dem Impulsabstand T1 und der Impulsbreite T0 (0, T1 ). Berechnen und skizzieren Sie das
Spektrum des Ausgangssignals f
ur
a) T1 = T und
b) T1 = 43 T .
4.8 Eine weitere in der Technik gern verwendete Transformation, die ahnlich zur DFT
definiert ist, ist die diskrete Sinustransformation DST. Ihre Definition lautet:
Sq =

N
X
n=1


sn sin

qn
N +1


,

q = 1, . . . , N

a) Geben Sie die Transformationsmatrix f


ur N = 4 an.
b) Leiten Sie ein Parsevaltheorem f
ur diese Transformation her

82

Maple: Numerische Berechung der Fourier-Transformation


Symbolische Berechnung der DFT
Das Eingangssignal f
ur unser erstes Beispiel soll eine einfache Kosinusfunktion mit der
Frequenz f = 2 sein:
> f := 2:
> s := n -> cos(n * 2*Pi*f):
> plot(s(n), n = 0..3);
1.0

0.5

0
0.5

K
K

1.5

2.5

0.5

1.0

Das Signal soll 4 mal pro Periode abgetastet werden, d. h. mit einer Frequenz von 4f. Dies
ist mehr als die Nyquist-Frequenz von fn = 2f , unser Signal ist also leicht u
berabgetastet.
Insgesamt generieren wir 32 Abtastwerte.
> N := 32:
> list1 := [seq([n, evalf(f(n * 1/(3f)))], n=0..(N-1))];
> plot(list1);
list1 := [[0, 0.000], [1, 0.866], [2, .866], [3, 0.000], . . . , [13, 0.866], [14, .866], [15, 0.000]]
1.0

0.5

K
K

10

20

30

0.5

1.0

Die Fourier-Transformation f
uhren wir naiv unter Verwendung der DFT aus Def. 4.1
durch.
> F := omega -> evalf(sum(f(n * 1/(3f))*exp(-I*omega*n), n=0..N-1))

83

F := evalf

N
1
X
n=0

1 In
)e
f (n
3f

> plot(Re(F(omega)), omega=-2Pi..2Pi, title="Realteil");


> plot(Im(F(omega)), omega=-2Pi..2Pi, title="Imagin
arteil");

Imaginarteil

10

Realteil
16
14

12
10
8

K2 p

6
4
2

Kp
2

Kp

p
w

Kp

K5
K10

p
w

2p

Das Ergebnis dieser Fourier-Transformation ist komplexwertig. In den Plots deutlich


zu erkennen ist die gerade Symmetrie des Realteils und die ungerade Symmetrie des
Imaginarteils um den Nullpunkt und die 2-Periodizitat der Fouriertransformierten.
Da die komplexen Werte des Spektrums kaum physikalische Bedeutung haben, bevorzugt
man in der Regel eine Darstellung als Amplitude
a = |F ()|
und Phase
= atan

Im(F ())
.
Re(F ())

Dabei ist im Graphen der Amplituden abzulesen, welche Amplituden die Sinusanteile einer bestimmten Frequenz haben, aus denen sich das Signal zusammensetzt. Das Phasendiagramm gibt zu diesen die jeweilige Phasenverschiebung an.
> plot(abs(F(omega)), omega=-2Pi..2Pi);
> plot(arctan(Im(F(omega))/Re(F(omega))), omega=0..Pi);

84

16

0.5

0.25

14
12
10
8

6
4
2

Kp
2

Kp K

0.5

0.5

p p
w

1.5

p 2p

K
K

0.25

0.25

0.5

0.5

0.75

Wie erwartet erhalten wir zwei Peaks im Frequenzspektrum des Kosinus. Da es sich in
unserem Fall um ein zeitbegrenztes Eingangssignal handelt, handelt es sich bei diesen
Impulsen nicht um Dirac-St
oe, sondern um si-Funktionen. An den Peak-Frequenzen
( = /2) haben wir eine Phasenverschiebung von null.

Implementierung der DFT


Maple stellt uns bereits eine Vielzahl an Datentypen und Hilfsfunktionen zur Verf
ugung,
mit denen sich Algorithmen bequemerweise direkt in mathematischer (funktionaler) Notation implementieren lassen; diese Notation ist allerdings weit von der Funktionsweise
der Maschine entfernt und weder erlaubt sie, Einfluss auf Speichernutzung und Recheneffizienz zu nehmen, noch k
onnen wir damit rechnen, Algorithmen auf diese Art in allen
Anwendungen implementieren zu konnen.
Ein maschinennahes Programm (geschrieben in z. B. C oder BASIC), das die DFT durchf
uhrt, h
atte m
oglicherweise eher folgende Form:
1
DFT := proc (m, x, y)
>
2
local n, k, arg, resum, imsum, xf, yf, N:
3
N := 2^m:
4
for n from 1 to N
5
do
6
resum := 0:
7
imsum := 0:
8
for k from 1 to N
9
do
10
arg := (2*Pi * (n-1)*(k-1))/N:
11
resum := resum + x[k]*cos(arg) + y[k]*sin(arg):
12
imsum := imsum - x[k]*sin(arg) + y[k]*cos(arg):
13
end do:
14
xf[n] := resum:
15
yf[n] := imsum:

85

16
17
18
19

end do:
x := array([seq(evalf(xf[n]), n=1..N)]):
y := array([seq(evalf(yf[n]), n=1..N)]):
end:

Hier haben wir von der M


oglichkeit in Maple Gebrauch gemacht, aufwendigere Prozeduren zu definieren. Die Prozedur DFT erhalt als Argumente einmal die Anzahl der Abtastwerte als Zweierpotenz 2^m und dazu das komplexe Eingangssignal als Real- (x)
und Imagin
arteil (y) in Form von Arrays (Zeile 1). Da Mikroprozessoren nicht im komplexen Zahlenraum arbeiten, ist es hier notwendig, Real- und Imaginarteil getrennt zu
berechnen. Dazu benutzen wir das Euler-Theorem
ej = cos() + j sin(),
mit dem wir
Sn =

N
1
X

j 2n
k
N

sk e

k=0

N
1
X

2n
sk cos( 2n
N k) + j sin( N k)

k=0

bekommen. F
ur ein komplexes Eingangssignal sk = xk + j yk erhalt man also
Sn =

N
1
X

2n
sk cos( 2n
N k) + j sin( N k)

k=0
N
1 
X

2n
xk cos( 2n
N k) + xk j sin( N k)

k=0
2n
+ jyk cos( 2n
N k) + jyk j sin( N k)

Xn + jYn =

N
1
X

2n
xk cos( 2n
N k) yk sin( N k)

k=0
N
1
X

+j

2n
xk sin( 2n
N k) + yk cos( N k).

k=0

Nutzt man dazu noch aus, dass Kosinus und Sinus gerade bzw. ungerade sind, d. h.
2n
cos( 2n
N k) = cos( N k)

und

2n
sin( 2n
N k) = sin( N k),

kann man Real- und Imagin


arteil der Fouriertransformierten getrennt durch
Xn =

Yn =

N
1
X
k=0
N
1
X

2n
xk cos( 2n
N k) + yk sin( N k),

2n
xk sin( 2n
N k) + yk cos( N k)

k=0

86

berechnen (Zeilen 7 bis 12). Die Funktion schreibt schlielich das Ergebnis der Transformation zur
uck in die Eingabevariablen (Zeilen 16 und 17).
Wir testen unsere Funktion an einem Rechteck-Impuls der Breite 2t0 = 4.
> t0 := 2: T := 12:
> f := t -> piecewise(t < -t0, 0, t0 < t, 0, 1):
> plot(f(t), t=-T..T);

1.0
0.6

10

0.2

K K
6

10

Das Signal soll die L


ange 2T = 24 bei N = 27 Abtastwerten haben. Das Array f
ur den
komplexen Teil der Werte initialisieren wir mit Nullen.
>
>
>
>

m := 7: N := 2^m:
dt := 2*T/N:
x := array([seq(f((i-1)*dt-T), i=1..N)]):
y := array([seq(0, i=1..N)]):

Wir f
uhren die Berechnung aus und plotten das Ergebnis:
> DFT(m, x, y):
> plot([seq([2T/N*(i-1), sqrt(x[i]^2+y[i]^2)], i=1..N)])

20
16
10
6
2
0

10

15

20

Man sieht deutlich, dass die diskrete Fourier-Transformation im gegensatz zur analytisch
bestimmten kontinuierlichen ein periodisches Spektrum liefert.

87

> plot(int(f(t)*exp(-I*omega*t), t=-T..T), omega=-T..T)

3
2
1
0

10

15

20

Vergleich zwischen DFT und FFT


Nun soll unsere Implementierung der DFT der FFT gegen
ubergestellt werden. Die
schnelle Fourier-Transformation implementieren wir allerdings nicht mehr selbst die in
Maple bereitgestellte FFT-Prozedur wird uns f
ur diesen einfachen Benchmark reichen.
Zur Messung der Laufzeit k
onnen wir die time-Funktion benutzen. Sie liefert die Zeit in
Sekunden zur
uck, die der Prozessor gebraucht hat, um das der time-Funktion u
bergebene
Argument auszuwerten. Wir bestimmen die Laufzeit der beiden Prozeduren f
ur Mengen
von Abtastwerten von 23 bis 210 .
1
mMin := 3: mMax := 10:
2 > rzDFT := array(mMin..mMax):
3
rzFFT := array(mMin..mMax):
4
for m from mMin to mMax
5
do
6
N := 2^m:
7
dt := 2*T/N:
8
x := array([seq(f((i-1)*dt-T), i=1..N)]):
9
y := array([seq(0, i=1..N)]):
10
rzDFT[m] := time(DFT(m, x, y)):
11
x := array([seq(f((i-1)*dt-T), i=1..N)]):
12
y := array([seq(0, i=1..N)]):
13
rzFFT[m] := time(FFT(m, x, y)):
14
end do:

88

Die Ausf
uhrung dieser Befehlsgruppe dauert in der Regel sehr lange. Die folgenden Plots
zeigen deutlich den Grund daf
ur.
>
>
>
>

rzDFTplot := [seq([2^m, rzDFT[m]], m=mMin..mMax)]:


rzFFTplot := [seq([2^m, rzFFT[m]], m=mMin..mMax)]:
plot(rzDFTplot, labels = ["Zahl der Abtastwerte", "Laufzeit"])
plot(rzFFTplot, labels = ["Zahl der Abtastwerte", "Laufzeit"])
kap5/maple/dftbench.pdf

kap5/maple/fftbench.pdf

Wahrend die FFT auch f


ur sehr hohe Abtastraten noch relativ schnell ist (logarithmische
Laufzeit), wird die Berechnungsdauer f
ur unsere DFT-Prozedur wegen der exponentiell
Anwachsenden Laufzeit schnell sehr hoch.

DFT mit Fensterung


Der bei der Kurzzeit-Fourier-Transformation (Kap. 4.1) auftretende Leakage-Effekt, der
zu einer Verschmierung scharfer Kanten zu si-artigen Verlaufen f
uhrt, ist eine direkte
Konsequenz des beschr
ankten Zeitfensters, durch das eine Funktion f
ur die Transformation betrachtet wird. Diese Betrachtung durch ein Zeitfenster entspricht der Multiplikation des Signals mit einer Rechteckfunktion von der Breite des Fensters. Diese
Multiplikation im Zeitbereich bedeutet eine Faltung im Frequenzbereich mit einer siFunktion, der Transformierten dieser Rechteckfunktion. Solange die Breite des Fensters
kein Vielfaches der Signalperiode ist (falls das Signal u
berhaupt periodisch ist), ist diese
Faltung die Ursache f
ur die Verf
alschung des Spektrums.
Um diesen unerw
unschten Effekt zu minimieren, verwendet man in der Praxis statt
rect(t) oft andere Fensterfunktionen, die den betrachteten Teil des Signals zum Rand des
Fensters hin abschw
achen und so eine Periodizitat innerhalb des Fensters vortauschen.
Eine haufig verwendete Fensterfunktion ist das sogenannte von-Hann-Fenster:13
> wHann := 1/2 * (1 - cos(2*Pi*n/(N-1)));
1 1
wHann := cos
2 2

2n
N 1

Zur Demonstration verwenden wir wieder das Kosinus-Signal vom Anfang des Kapitels.
> list2 := [seq([n, evalf(wHann(n)*s(n/(4f)))], n=0..(N-1))]:
> plot(list1,list2);

13

Auch bekannt als raised cosine-Fenster.

89

1.0

0.5

0
10

20

30

0.5

1.0

rect-Fenster

Hann-Fenster

> FHann:= omega -> sum(wHann(n)*s(n/(4f))*exp(-I*omega*n),n=0..N-1);

F Hann :=

N
1
X

wHann(n) s(n/(4f )) eI n

n=0

> plot(abs(FHann(omega)), omega=0..2*Pi);

7
6
5
4
3
2
1
0

Das Spektrum des gefensterten Kosinus ist nun deutlich weniger verschmiert.

90

5 Korrelation von Signalen


Eine der interessantesten Fragen in der Signalverarbeitung lautet: Wie ahnlich sind zwei

Signale? Diese Frage stellt sich immer dann, wenn man ein bekanntes Muster in einem
Signal wiederfinden will, sei es um einen Funkempfanger mit dem Tragersignal einer

Ubertragung
zu synchronisieren, um bei der Bildverarbeitung ein Objekt zu erkennen
oder um in einer Sprachaufnahme Worte herauszufiltern. Das Konzept, das hierf
ur jedes
mal zum Einsatz kommt, heit Korrelation ( Zusammenhang).14

5.1 Energie, Leistung, Korrelation


Aus der Statistik entlehnt ist die Verwendung einer Quadratfunktion, durch die kleine
Differenzen kaum wahrgenommen werden, groe Unterschiede allerdings u
berproportional betont werden.
In diesem Sinne definiert man die Signalenergie als Integral u
ber das Quadrat eines
Signals:
Definition 5.1 Signalenergie
Z

t2

Es =

|s(t)|2 dt,

t1

Anmerkungen: Der Betrag wird gebildet, damit die Formel auch f


ur komplexwertige Signale
g
ultig bleibt. F
ur die Grenzen w
ahlt man meist t1 = und t2 = .

Diese Definition verwendet man f


ur nichtperiodische Signale (z. B. eine gedampfte Schwingung),
um das ganze Signal zu erfassen.
Die Betrachtung des gesamten Signals ist f
ur periodische Funktionen nicht sinnvoll, insbesondere nicht bei Grenzen von bis , da diese Grenzwerte f
ur periodische Funktionen nicht gebildet werden k
onnen. Hier bietet es sich eher an, nur u
ber eine Periode
zu integrieren. Um immer den gleichen Wert zu erhalten, auch wenn man u
ber mehrere
Perioden integriert, normiert man auerdem nach der Zeit, u
ber die man Integriert. Man
definiert f
ur periodische Funktionen also:
Definition 5.2 Signalleistung
1
Ps =
t2 t1
14

t2

|s(t)|2 dt

t1

Auch Impulskorrelation zur Abgrenzung von der Statistik, in der sehr


ahnliche Rechnungen gemacht
werden.

91

Die Bezeichnungen Energie und Leistung stammen aus der Elektrotechnik, da diese

Integrale zu den hier behandelten sehr ahnlich sind.15


F
ur unsere weiteren Betrachtungen soll nun die Signalenergie zu Grunde genommen
werden. Die Definitionen und Theoreme gelten entsprechend auch f
ur Signalleistungen
und werden analog hergeleitet.

Ahnlichkeitsma
f
ur Signale
Die mittlere quadratische Abweichung zweier Signale s(t) und g(t) ist
A
Esg

Z
= [s(t) g(t)]2 dt

Z
Z
Z
2
= s (t) dt s(t)g(t) dt + g 2 (t) dt

Z
= Es + Eg 2 s(t)g(t) dt.

Leicht erkennt man die Verwandtschaft zum Verschiebungssatz zur Berechnung der Varianz in der Statistik.
Beim Vergleichen zweier Signale interessiert man sich nun nicht f
ur absolute Energien,
weshalb sie nicht betrachtet werden.16 Interessant ist also nur der letzte Summand.
Definition 5.3 Kreuzkorrelationskoeffizient

sg

Z
= s (t)g(t) dt

Z
= s(t)g(t) dt

(f
ur reellwertige Signale)

Ein von absoluten Energiewerten unabhangiges Ma f


ur die Ahnlichkeit
zweier reellwertiger Signale.

15

Die
in einem Stromkreis mit einem bekannten Widerstand ist
R Energie eines Spannungssignal
R
U (t)I(t) dt = 1/R U 2 (t) dt, sie h
angt also vom Quadrat der Spannung ab.
16
In der Literatur wird oft hier noch einmal u
ber die Signalenergien normiert, um von der absoluten
Energie unabh
angige Werte zu erhalten.

92

Der Kreuzkorrelationskoeffizient wird genau dann null, wenn zwischen zwei Signalen kein
linearer Zusammenhang besteht. Solche Signale bezeichnet man dann als orthogonal. Im
Falle von einfachen, linearen Funktionen deckt sich diese Definition der Orthogonalitat
mit der, die aus der Geometrie bekannt ist.
Diese Definition der Korrelation ist nur dann n
utzlich, wenn man eine feste zeitliche
Lage der Funktionen zueinander annimmt. Konnen Signale auch verschoben zueinander
auftreten, wie es in der Technik in der Regel der Fall ist, macht es Sinn, den Koeffizienten
zu einem Funktionsausdruck zu erweitern.
Definition 5.4 Kreuzkorrelationsfunktion
Z
sg ( ) = s(t)g(t + ) dt

Den Kreuzkorrelationskoeffizienten erhalt man aus der Kreuzkorrelationsfunktion ganz


trivial mit sg = sg (0).
Erstaunlicherweise ist eine der h
aufigeren Anwendungen dieser Definition der Vergleich
eines Signals mit sich selbst, genannt Autokorrelation. Man nennt:
Definition 5.5 Autokorrelationsfunktion (AKF)
ss ( )
Nach Def. 5.1 gilt insbesondere:
ss (0) = ss = Es

Zu den Anwendungen der AKF gehort auf der einen Seite festzustellen, wie repetitiv
ein Signal ist, d. h. ob Periodizit
aten vorliegen. In diesem Fall hat die AKF auch an
anderen Stellen als ss (0) Werte, die von null verschieden sind. Auf der anderen Seite
ist nur ein Hintergrundrauschen dermaen zufallig, dass Periodizitaten nicht auftreten
und sich das Rauschsignal nie wiederholt. Man kann ein storendes Rauschen also eben
daran erkennen, dass die AKF an der Nullstelle einen sehr scharfen Peak hat, sonst
u
berall allerdings verschwindet.

93

5.2 Korrelation und Faltung

Betrachtet man die Def. 5.4 einmal genauer, so stellt man eine gewisse Ahnlichkeit
zum
Faltungsintegral fest. Tats
achlich lasst sich die Kreuzkorrelationsfunktion auch durch
eine Faltung ausdr
ucken:
Z
sg ( ) = s(t)g(t + ) dt

Z
= s()g( ) dt0

(Substitution = t)

= s( ) g( )
Aus dieser Beziehung kann man auch erkennen, was passiert, wenn man bei der Korrelation die zu vergleichenden Funktionen vertauscht, es gilt dann namlich
gs ( ) = g( ) s( )
= s( ) g( ) = sg ( ).
Speziell im Falle der Autokorrelationsfunktion ist nun ss ( ) = ss ( ), die AKF ist
also gerade.
Kreuzkorrelationstheorem
Es bietet sich nun geradezu an, die Signale in den Frequenzbereich zu u
uhren und hier
berf
die Berechnung der Korrelation u
ber die Faltung auf eine Multiplikation zu vereinfachen.
Es ergibt sich:
sg () = F {sg ( )}
= F {s( ) g( )}
= F {s( )} F {g( )}
= S () G()
Man beachte auch hier wieder, dass die komplexe Konjugation nicht fallen gelassen
werden kann, da auch bei reellen Signalen die Fouriertransformierte in der Regel komplexwertig wird. Der so hergeleitete Zusammenhang wird in einem eigenen Theorem
zusammengefasst:
Theorem 5.6 Kreuzkorrelationstheorem
sg () = S () G()

Es ist f
ur die Korrelation insofern wichtig, weil es damit jetzt moglich ist, die FFT f
ur
eine schnelle Berechnung der Korrelationsfunktion zu benutzen.

94

5.3 Wiener-Khinchin-Theorem
F
ur die Autokorrelationsfunktion, also im Fall s( ) = g( ), gilt mit Theorem 5.6

 

ss () = s( ) s( )
S () S() = |S()|2 .
Definition 5.7
ss () = |S()|2

Das Energiespektrum eines Signals ist also seine fouriertransformierte Autokorrelationsfunktion.17


Parsevaltheorem
In diesem Zusammenhang l
asst sich das in Kap. 2.5 bereits eingef
uhrte Parsevaltheorem
nun auch mit Hilfe der AKF herleiten. Aus der Def. 5.7 gilt
ss ( ) = F 1{ss ()}


= F 1 |S()|2
Z
1
=
|S()|2 ej d,
2

1
ss (0) =
2

Z
|S()|2 d.

Mit den Beziehungen 5.1 und 5.5 gilt andererseits:


Z
ss (0) = Es = |s(t)|2 dt

Man erh
alt also tats
achlich das Parsevalsche Theorem,
Z
Z
1
2
|s(t)| dt =
|S()|2 d.
2

17

Auch den Begriff des Energiespektrums kann man leicht nachvollziehen, wenn man ein Spannungssig
nal in einem realen Stromkreis betrachtet. F
ur ein reales Signal hat die Autokorrelationsfunktion im
Frequenzbereich die Einheit 1/W V2 s2 = VA s2 = J/Hz, also Energie pro Frequenz.

95

5.4 Wiener-Lee-Beziehung
Soll man die Korrelationsfunktion eines Signals bestimmen, dass durch ein LTI-System
u
ur
bertragen wurde, so kann man sich die Wiener-Lee-Beziehung zunutze machen. F
g( ) = h( ) s( ) hat man:
gg ( ) = g( ) g( )
= h( ) s( ) h( ) s( )
= h( ) h( ) s( ) s( )
Es gilt also:
Theorem 5.8 Wiener-Lee-Beziehung
gg ( ) = hh ( ) ss ()

96

5.5 Aufgaben
5.1 Berechnen Sie die Autokorrelationsfunktion von s(t) = rect(t).
5.2 Bestimmen Sie den Kreuzkorrelationskoeffizienten der folgenden beiden Funktionen:

5.3 Die Korrelationsfunktion soll f


ur Leistungssignale definiert werden als
Z t2
1
L
s(t)g(t + ) dt.
sg ( ) =
t2 t1 t1
Betrachten Sie die Funktionen
s1 (t) = a cos(2t),

s2 (t) = a sin(2t),

s3 (t) = (t)

und berechnen Sie


a) die Leistung der Signale,
b) ihre Autokorrelationsfunktionen,
c) die Kreuzkorrelationsfunktion der Signale s1 (t) und s2 (t).
5.4 In der modernen Telekommunikationstechnik spielt das OFDM-Verfahren eine groe
Rolle. Es ist u. A. die Grundlage f
ur den digitalen Horfunk (DAB), das digitale terrestrische Fernsehen (DVB-T) und kommt auch bei der wirtschaftlich besonders bedeutungsvollen DSL-Technik zum Einsatz.18
Dabei wird ein Signal, statt u
ber die gesamte Bandbreite eines Kanals u
bertragen zu werden, auf mehrere Unterkan
ale aufgeteilt. Dadurch bewirkt man, dass eine schmalbandige
Storung sich nur auf einen Unterkanal auswirkt und nicht die gesamte Daten
ubertragung
auf einmal behindert.

18

OFDM : Orthogonal Frequency Division Multiplex, orthogonales Frequenzmultiplex

DAB : Digital Audio Broadcast, digitale H


orfunk-Ubertragung
DVB-T : Terrestrial Digital Video Brodcast, terrestrische Verbreitung digitaler Fernsehsignale
DSL: Digital Subscriber Line, digitaler Teilnehmer-Anschluss

97

Damit sich die einzelnen Unterkan


ale nicht gegenseitig beeinflussen, ist es nun notwendig,
entweder ausreichende Abst
ande zwischen den Frequenzbandern zu lassen, oder noch
besser, daf
ur zu sorgen, dass die Tragersignale orthogonal zueinander sind.
Bestimmen Sie nun, f
ur welche Frequenzen m , n die Signale
sm (t) = sin(m t),

sn (t) = sin(n t)

orthogonal sind, wenn die Periodendauer des Signals T betragen soll.


Hinweis: Da die Signale periodisch sind, ist es sinnvoll, den Kreuzkorrelationskoeffizienten ahnlich der Kreuzkorrelationsfunktion aus Aufg. 5.3 zu definieren:
Z t2
1
L
s(t)g(t) dt
sg =
t2 t1 t1

98

Maple: Korrelationen
Korrelation von Leistungssignalen
Die Korrelationsfunktion von Leistungssignalen kann nach Kap. 5.1 folgendermaen
definiert werden:
> limit(1/(2T) int(s(t)*g(t + tau), t=-T..T), T=infinity)

lim

1
2T

Z


s(t) g(t + ) dt

Die Grenzen unseres Integrals sind symmetrisch im Unendlichen.


Zu Beginn soll die Autokorrelationsfunktion einiger einfacher Funktionen bestimmt werden, z. B. die der Sinusfunktion:
> s1 := t -> a*sin(2*Pi*t):
> s1s1 := limit(1/(2T)int(s1(t)*s1(t + tau), t=-T..T), T=infinity);
s1s1 :=

1 a2 (16 cos( )2 8)
16

> plot(subs(a = 1, s1s1 ), tau=-2..2);

0.4

0.2

K
K

0.2

0.4

Obwohl es f
ur die Sinusfunktion sowieso trivial ist, so kann man an den Maximalstellen
im Plot der AKF von s1 dennoch sehr leicht erkennen, dass das Signal 1-periodisch ist.

99

Da die Kosinusfunktion die gleiche Periodenlange hat, und auch sonst die gleiche Form
wie die Sinusfunktion hat, ist ihre Autokorrelationsfunktion identisch:
> s2 := t -> a*cos(2*Pi*t):
> s2s2 := limit(1/(2T)int(s2(t)*s2(t + tau), t=-T..T), T=infinity);
s2s2 :=

1 a2 (16 cos( )2 8)
16

> plot(subs(a = 1, s2s2 ), tau=-2..2);

0.4

0.2

K
K

0.2

0.4

Die AKF der Heavisideschen Sprungfunktion dagegen verschwindet:


> s3 := t -> Heaviside(t):
> s3s3 := limit(1/(2T)int(s3(t)*s3(t + tau), t=-T..T), T=infinity);
0
Nun soll die Kreuzkorrelationsfunktion der Sinus- und Kosinusfunktionen s1 und s2
berechnet werden.
> s1s2 := limit(1/(2T)int(s1(t)*s2(t + tau), t=-T..T), T=infinity);
> plot(subs(a = 1, s1s2 ), tau=-2..2);
s1s2 := a2 sin( ) cos( )
0.4

0.2

K
K

0.2

0.4

Die Korrelationsfunktion hat ihre Maxima bei vielfachen von 1/4, denn s1 und s2 sind
um genau den Wert 1/4 in der Phase zueinander verschoben.

100

Orthogonalit
at von si-Funktionen im optimalen Laufzeitsystem
Zunachst definieren wir die diskrete si-Funktion mit Hilfe der kontinuierlichen si-Funktion
und dem Diracimpuls. Die Abtastrate soll T betragen.
> si := x -> sin(x)/x:
> assume(T > 0):
> sin := int(si(Pi*tau/T)*Dirac(t - tau - n*T), tau=-infinity..infinity);
T sin
sin :=

 (t n T ) 

T
(t n T )

Um zu bestimmen, wann zwei Funktionen nun orthogonal sind, wird der Autokorrelationskoeffizient berechnet. In der zweiten Funktion wird dazu die Variable n durch
m substituiert. Da daraus ein komplizierterer Ausdruck entsteht, wird Maple mit der
combine-Funktion angewiesen, zu versuchen, den Ausdruck mit Hilfe von Zusammenhangen aus der Trigonometrie zusammenzufassen.
> i1 := int(sin *subs(n = m, sin ), t=-infinity..infinity):
> combine(i1, trig);
T sin( n m)
nm
Dieser Ausdruck konvergiert f
ur n = m gegen 1, f
ur jedes andere ganzzahlige Paar von
n und m ist er null. si-Funktionen dieser Form sind also immer orthogonal zueinander.

101

placeholder

6 Statistische Signalbeschreibung
Alle bis jetzt betrachteten Signale haben die gemeinsame Eigenschaft, dass sie zu jedem Zeitpunkt von vornherein exakt bekannt und vorhersagbar sind. Der Verlauf der
Sinusfunktion sin(t) l
asst sich zum Beispiel f
ur jeden Zeitpunkt, selbst f
ur Zeitpunkte in

der Zukunft, analytisch bestimmen, ohne dass Uberraschungen


zu erwarten sind. Solche
Signale bezeichnet man als deterministisch.
Deterministische Signale haben den Vorteil, dass ihre Behandlung, Berechnung, Identifizierung und Messung einfach ist. Man sieht allerdings leicht ein, dass sie f
ur die
Nachrichten
ubertragung eher weniger interessant sind: ein deterministisches Signal u
agt
bertr
keine Neuigkeiten.

(a) Sinuswelle: Deterministisch

(b) Sprache: Nichtdeterministisch (stark vergr


oerte Darstellung)

Abbildung 29: Beispiel f


ur ein deterministisches und ein nichtdeterministisches Signal.
Signale, die sich dagegen nicht exakt vorhersagen lassen, bezeichnet man als nichtdeterministisch. Sie lassen sich nicht in geschlossener Form analytisch beschreiben, da sie
Zufallselemente enthalten. Oft sind Storquellen, wie das zufallige (nicht-determinierte)
thermische Rauschen elektronischer Bauteile, Ursache f
ur solche nichtdeterministischen
Signale. Andererseits sind auch fast alle interessanten Nutzsignale nicht deterministisch,
denn Nachrichten werden ja gerade deshalb u
bertragen, weil der Empfanger nicht wei,
wie die Nachricht, die er bekommt, aussieht.
Obwohl man keine genauen Voraussagen u
ber nichtdeterministische Signale machen
kann, so lassen sie sich dennoch mit Hilfe der Werkzeuge, die die Wahrscheinlichkeitstheorie zur Verf
ugung stellt, beschreiben.

6.1 Grundlagen der Wahrscheinlichkeitstheorie


Die Basis der Wahrscheinlichkeitstheorie ist das beliebig oft wiederholbare Zufallsereignis,
genannt Experiment. Alle m
oglichen Ergebnisse des Experiments werden in der Ergeb-

103

nismenge zusammengefasst. Ein Ereignis ist eine Teilmenge der Ergebnismenge. Umfasst ein Ereignis nur ein Element der Ergebnismenge, spricht man von einem Elementarereignis.19 Die Zufallsvariable X() ist eine Funktion, die den Ergebnissen Zahlenwerte
x zuweist und somit die mathematische Beschreibung mit der Realitat verkn
upft.
Bedeutungsvolle Aussagen macht die Wahrscheinlichkeitstheorie erst, wenn sich ein Zufallsereignis mehrfach wiederholt. Das arithmetische Mittel (der Mittelwert) einer Serie
von N Experimenten ist definiert als
N
1 X k
X( ),
x=
N

: k-tes Ergebnis.

k=1

Die Idealisierung des arithmetischen Mittels, den Grenzwert


N
1 Xk
X = lim
x,
N N

x: Wert des k-ten Ergebnisses,

k=1

bezeichnet man als Mittelwert der Zufallsvariablen. Neben dem arithmetischen Mittel
verwendet man auch den Begriff des Erwartungswerts einer Zufallsvariablen. Der Erwartungswert ist definiert als
E(X) =

N
X

X(kx)p(kx),

p(kx): Wahrscheinlichkeit des Wert kx

k=1

und beschreibt den durchschnittlichen Wert, der sich bei haufigem Wiederholen des
Experiments in der Regel ergibt.20 Ist das Experiment fair, sind also alle Ergebnisse
gleich wahrscheinlich, so sind der Erwartungswert und der Mittelwert gleich.
Neben dem Erwartungswert oder dem Mittelwert ist es oft auch n
utzlich zu wissen, wie
stark einzelne Ergebnisse des Experiments vom Mittelwert abweichen konnen ( streuen).

Ein Ma daf
ur ist die Varianz einer Zufallsvariable:
2

Var(X) = E (X )

N
X

2
X(kx) E(X) p(kx)

k=1

Die Idee hinter dieser Definition ist, dass kleine Abweichungen vom Mittelwert in der
Regel weniger gravierend sind als groere; dies wird u
ber das Quadrat der Abweichung
ber
ucksichtigt. Der Verschiebungssatz liefert eine weitere Berechnungsvorschrift f
ur die
Varianz, die in einigen Situationen die Berechnung erleichtert:
Var(X) = E(X 2 ) (E(X))2
19

In der Praxis ist die Unterscheidung von Ergebnis und Ereignis oft eher schwammig, so dass der
Mengencharakter des Ereignisses oft vernachl
assigt wird.
20
Der Erwartungswert wird in der Wahrscheinlichkeitstheorie oft mit bezeichnet.

104

p
In diesem Zusammenhang wird auch oft die Standardabweichung = Var(X) verwendet, da sie die gleiche physikalische Einheit tragt wie die Messwerte selbst.
Beispiel

F
ur den Wurf eines Spielw
urfels mit sechs Seiten ist die Ergebnismenge
= {1, 2, 3, 4, 5, 6}.

Wir betrachten die Zufallsvariable X, die der gew


urfelten Augenzahl eben diesen Wert
zuweist. Der Mittelwert ist damit
6

x=

1 Xk
1+2+3+4+5+6
x=
= 3,5.
6
6
k=1

Solange der W
urfel nicht gezinkt ist, betragt die Wahrscheinlichkeit p() f
ur jede Zahl
immer 1/6. Der Erwartungswert ist also gleich dem Mittelwert:
E(X) =

6
X
1
k=1

x=

1
1
1
1
1
1
1 + 2 + 3 + 4 + 5 + 6 = 3,5
6
6
6
6
6
6

Mit der hier u


ber den Verschiebungssatz berechneten Varianz


1 2 1 2 1 2 1 2 1 2 1 2
1 + 2 + 3 + 4 + 5 + 6 (3,5)2 2,9166
Var(X) =
6
6
6
6
6
6
betragt die Standardabweichung der gew
urfelten Augenzahl
p
= Var(X) 1,7.

6.2 Zufallssignale und ihre Beschreibung


Die im vorangehenden Abschnitt eingef
uhrte Wahrscheinlichkeitstheorie soll nun auf
nichtdeterminierte Signale, Zufallssignale, angewendet werden, da sich diese ja nicht
ohne Weiteres durch die regul
aren Werkzeuge der Signalverarbeitung behandeln lassen.
Da eine einzelne Messung noch keine Aussage u
ber ein Zufallssignal machen kann, ist es
notwendig, zu einem Zeitpunkt t0 eine groe Anzahl an Einzelmessungen durchzuf
uhren
k
(Abb. 30), bezeichnet als Schar von Zufallssignalen s(t0 ). Die erste und naheliegendste
Groe bei der Betrachtung einer Schar von Zufallssignalen ist der Scharmittelwert und
wird ganz analog zum Mittelwert einer Zufallsvariable definiert.

105

Abbildung 30: Mehrere gleichzeitige Messungen von gleichartigen Zufallssignalen zu


einem Zeitpunkt t0 .
Definition 6.1 Scharmittelwert
Es ist ks(t0 ) eine Schar von Zufallssignalen zum Zeitpunkt t0 und M bezeichne die
Anzahl der Einzelsignale. Man bezeichnet
M
1 Xk
E {s(t0 )} = lim
s(t0 )
M M
k=1

als Scharmittelwert oder lineares Scharmittel.


Quadratisches Scharmittel
Scharmittelwerte k
onnen auch u
ber andere Funktionen F [ks(t0 )] gebildet werden. So ist
z. B. das quadratische Scharmittel definiert als
M
1 Xk 2
s (t0 ).
M M



E s2 (t0 ) = lim

k=1

Mittelwerte dieser Form bezeichnet man als Mittel 1. Ordnung. Mittelfunktionen u


ber
k
k
Funktionen der Form F [ s(t1 ), s(t1 + t0 )] bezeichnet man als Scharmittel 2. Ordnung.
Entsprechend sind auch Mittelwerte hoherer Ordnung definiert. Eine Schar derartig
beschreibbarer Zufallssignale wird auch als Zufallsprozess bezeichnet.

6.3 Station
are Zufallsprozesse
Da das Aufnehmen einer groen Anzahl an Messwerten zum selben Zeitpunkt in der
Praxis nicht durchf
uhrbar ist oftmals existiert nur eine einzige Signalquelle , interessiert man sich f
ur Prozesse, die leichter zu beschreiben sind. Dazu gehoren in ganz
besonderem Mae die station
aren Prozesse.

106

Ein Zufallsprozess, dessen Scharmittel 1. Ordnung E {F [s(t1 )]} zu jedem Zeitpunkt t0


konstant sind, insbesondere
E {s(t)} s

f
ur alle t,

wird als station


arer Prozess bezeichnet. Eine Verschiebung um eine Zeit t0 bedeutet also

keine Anderung:
E {F [s(t1 )]} = E {F [s(t1 + t0 )]}
Mittelwerte 2. Ordnung h
angen dagegen nur von dem zeitlichen Abstand t2 t1 der
Signalwerte ab:
E {F [s(t1 ), s(t2 )]} = E {F [s(t1 + t0 ), s(t2 + t0 )]}
Dies erkennt man besonders gut, wenn man t0 = t1 setzt und = t2 t1 schreibt:
E {F [s(t1 + t0 ), s(t2 + t0 )]} = E {F [s(0), s( )]}
Allgemein, mit einer Verschiebung um einen beliebigen Wert t, erhalt man dann f
ur einen
Mittelwert 2. Ordnung eines stationaren Zufallsprozesses:
E {F [s(t), s(t + )]}
Diese Eigenschaft der station
aren Prozesse bedeutet einen wichtigen Vorteil f
ur die Bestimmung der Mittelwerte. Statt nun eine Vielzahl an gleichen Signalen zum selben Zeitpunkt messen zu m
ussen, reicht es aus, an ein- und demselben Signal mehrere Messungen
zu unterschiedlichen Zeitpunkten zu machen. Es hat sich gezeigt, dass man f
ur die meisten physikalischen Prozesse diese Annahme treffen kann.
F
ur station
are Prozesse definiert man deshalb neben dem Scharmittelwert einen Mittelwert u
ber die Zeit, den Zeitmittelwert.
Definition 6.2 Zeitmittelwert
Es ist ks(t) die Funktionenschar eines stationaren Prozesses und F eine beliebige
Mittelwertsfunktion. Der Zeitmittelwert 1. Ordnung ist definiert als
Z T
1
F [ks(t)] = lim
F [ks(t)] dt.
T 2T T
Den Zeitmittelwert 2. Ordnung definiert man als
Z T
1
k
k
F [ s(t), s(t + )] = lim
F [ks(t), ks(t + )] dt.
T 2T T

107

Nach der Voraussetzung f


ur einen stationaren Prozess m
ussen Schar- und Zeitmittel
gleich sein. Es muss also
E {F [s(t1 )]} = F [ks(t)]

f
ur alle t1 , k

gelten. Prozesse, die diese Eigenschaft haben, werden als ergodisch bezeichnet. Bei ergodischen Prozessen ist es also m
oglich, den Index k und die Indizierung des Zeitpunkts
wegzulassen, da die Zusammenh
ange f
ur alle Zeitpunkte und alle Funktionen der Schar
gelten:
E {F [s(t)]} = F [s(t)]
Hier lasst sich auch der Zusammenhang zwischen dem Mittelwert eines Prozesses und
der in Kap. 5.1 erw
ahnten Autokorrelationsfunktion f
ur Leistungssignale herstellen:
Z T
1
s(t) s(t + ) = lim
s(t)s(t + ) dt = L
ss ( )
T 2T T
F
ur ergodische Prozesse gilt also:
Theorem 6.3 Autokorrelationsfunktion
L
ss ( ) = s(t) s(t + ) = E {s(t) s(t + )} .
Den quadratischen Mittelwert
1
T 2T

s2 (t) = lim

s2 (t) dt

erkennt man als Leistung des Signals (Def. 5.2) wieder.


Definition 6.4 Varianz
Die Differenz
s2 = s2 (t) s(t)

wird als Varianz des ergodischen Prozesses bezeichnet. s wird Standardabweichung


genannt.

6.4 Eigenschaften der Autokorrelationsfunktion


6.4.1 Maximum der AKF
L
ss ( ) nimmt bei = 0 sein Maximum an.

108

Beweis
Das Zeitmittel
s(t) s(t )

2

ist aufgrund der Quadratfunktion groer oder gleich null. Mit


2
s(t) s(t ) = s2 (t) + 2s(t)s(t ) + s2 (t )
Z T
1
s2 (t) + 2s(t)s(t ) + s2 (t ) dt
= lim
T 2T T

Z T
Z T
Z T
1
2
2
= lim
s (t ) dt
2s(t)s(t ) dt +
s (t) dt
T 2T
T
T
T
= s2 (t) + 2s(t)s(t ) + s2 (t )
erhalt man also die Ungleichung
s2 (t) + 2s(t)s(t ) + s2 (t ) 0
L
L
L
ss (0) 2ss ( ) + ss (0) 0
L
2L
ss (0) 2ss ( )

und es ergibt sich:


L
L
ss (0) ss ( )

6.4.2 Beschr
anktheit der AKF
Durch ahnliche Betrachtungen kann man auch zeigen, dass die Autokorrelationsfunktion
nach oben und unten hin beschr
ankt ist.
2
2
L
ss ( ) s + s

Obere Schranke

2
2
L
ss ( ) s + s

Untere Schranke

6.4.3 Symmetrie
Mit t = in Theorem 6.3 gilt
L
L
ss ( ) = E {s( )s(0)} = ss ( ).

Die AKF ist also eine gerade Funktion (vgl. Kap. 5.2).
6.4.4 Unkorreliertheit
Lasst man die Verschiebung gegen unendlich laufen, | | , so ergibt sich:
2
lim L
ss ( ) = s

109

6.5 Aufgaben
6.1 Bei einem gezinkten Wurfel sei die Wahrscheinlichkeit f
ur das Werfen einer Sechs

1/6 + . Die Wahrscheinlichkeiten f


ur die anderen Zahlen seien gleich. Berechnen Sie
Erwartungswert und Varianz dieser Wahrscheinlichkeitsverteilung.

110

placeholder

placeholder

7 z-Transformation
7.1 Einf
uhrung
Wie wir bereits gesehen haben ist die Fourier-Transformation f
ur die Darstellung und
Analyse von zeitdiskreten Signalen und Systemen ein sehr n
utzliches Mittel. Nun wollen
wir uns die Darstellung und die Eigenschaften der z-Transformation ansehen . Die zTransformation f
ur zeitdiskrete Signale ist das Pendant zur Laplace-Transformation
f
ur zeitkontinuierlichen Signalen. Die Beziehung zwischen beiden Transformationen und
der Fourier-Transformation ist
ahnlich. Die Einf
uhrung einer solchen verallgemeinerten
Transformation hat den Vorteil, dass sie im Gegensatz zur Fourier-Transformierte eine
weitreichendere Klasse von Signalen bietet, die konvergieren. Zudem ist die Notation bei
analytischen Aufgaben mithilfe der z-Transformation oftmals leichter als die Notation
mithilfe der Fourier-Transformation.

7.2 Herleitung der z-Transformation


Nun machen wir uns Gedanken wie wir zu unserer Definition der z-Transformierten
gelangen. Zur Herleitung der z-Transformation sehen wir uns ein abgetastetes Signal,
das folgende Gestalt aufweist, an:

sa (t) =

s[n] (t nT )

n=

Von diesem Signal aus, bestimmen wir zuerst die Laplace-Transformierte:


(
)
X
L {sa (t)} = L
s[n] (t nT )
n=

Wir konnen die Laplace-Transformation in die Summe hineinziehen:

L {sa (t)} =

s[n] L {(t nT )}

n=

Mit Hilfe einer Siebeigenschaft erhalten wir:

L {sa (t)} =

s[n] esnT

n=

Dabei ist die Variable s eine komplexe Zahl. L {sA (t)} ist periodisch in.....
Nun betrachten wir die Periodizit
at der Exponentialfunktion etwas naher:
enT (s+

2j
k
T

) = enT s2jnk

113

Falls k und n eine nat


urliche Zahl ist erhalten wir
enT (s+

2j
k
T

) = enT s falls m, k N
= enT s e2jkn

Dabei ist die aufgef


uhrte Eigenschaft zu beachten:
e2jkn = cos(2kn) + j sin(2kn)
Nun sehen wir uns die Periodizit
at unsere gerade hergeleiteten Formel etwas praziser an.
Wie zu erwarten befinden wir uns in der komplexen Ebene.

Abbildung 31: Periodische Funktion in der komplexen Ebene


Es gilt:
enT (st

2k
j)
T

= enT s

Da wir aber die Periodizit


at vermeiden mochten, wandeln wir unsere Gleichung so um,
dass wir eine konforme Abbildung zu unseren jetzigen Abbildung erhalten. Allgemein
versteht man unter einer konformen Abbildung eine winkeltreue Abbildung. F
ur unseren
Fall ware die Ersetzung von z = esT sinnvoll. Da die z-Transformierte eine Funktion einer komplexen Variablen ist, kann sie leicht mithilfe der komplexen Ebenen beschrieben
werden. In der z-Ebene ist die Kurve , die |z| = 1 entspricht, ein Kreis mit Einheitsradius. Diese Kurve wird daher als Einheitskurve definiert. Somit ergibt sich folgende
Darstellung:

114

Abbildung 32: Umwandlung in eine konforme Abbildung


Definition 7.1 z-Transformation

S(z) =

s[n]z n = Z{s[n]}

n=

Wie wir bereits aus der Mathematik wissen, ist z eine komplexe Zahl und lasst sich auch
in der polaren Form mit z = rej umschreiben. Somit erhalt unsere z-Transformation
folgende Gestalt:

S(re ) =

s[n](rej )n

n=

Diese Gleichung l
a sst sich leicht als Fourier-Transformierte des Produktes aus der
herkommlichen Folge s[n] und der Exponentialfolge rn interpretieren. Setzen wir nun
r = 1, erkennen wir, dass sich die Gleichung auf die Fourier-Transformierten reduziert
hat. Wie wir bereits aus dem 2.Kapitel wissen konvergiert nicht jede Fourier-Transformierte
(Potenzreihe). Das bedeutet, dass eine unendliche Summe nicht unmittelbar konvergieren
muss. Genauso konvergiert die z-Transformierte auch nicht f
ur jede Folge oder f
ur jeden z-Wert. F
ur jede gegeben Folge nennt man den Wertebereich von z den Konvergenzbereich (engl. region of convergence, ROC), falls die z-Transformierte konvergiert.
Der Konvergenzbereich h
angt nur von |z| ab und somit gilt:

|x[n]| |z|n <

n=

115

Der Konvergenzbereich besteht aus einem konzentrischen um den Ursprung liegenden


Kreis in der z-Ebene. Die Fl
ache zwischen auerem und inneren Ring bezeichnet den
tatsachlichen Konvergenzbereich.
Die Potenzreihe wie sie die z-Transformation besitzt ist eine Laurent-Reihe. Deswegen
ist bei der Auswertung der z-Transformierten eine Vielzahl von eleganten Theoreme
der Funktionentheorie heranzuziehen. Eine z-Transformierte spiegelt eine analytische
Funktion an jedem Punkt innerhalb der Konvergenzbereich da.
Als mogliche Option k
onnen wir uns die z-Transformation auch nur als einseitige Transformation vorstellen. Somit erh
alt unsere veranderte Definition folgendes Aussehen:

S(z) :=

s[n] z n

n=0

7.3 Tabelle von h


aufig auftretende Paare der z-Transformation

Hier ist mal eine kleine Ubersicht


u
ber haufig auftretender Paare der z-Transformation.
Folge
s[n]
u[n 1]
[n]
n
a u[n]
an U [n 1]
nan u[n]
sin(n)u[n]
(
an ,
0,

Transformierte
1
1z 1
1
1z 1

1
1
1az 1
1
1az 1
az 1
(1az 1 )2
sin()z
12 cos()z 1 +z 2

wenn 0 n n 1
sonst

Konvergenzbereich
|z| > 1
|z| < 1
zC
|z| > |a|
|z| < |a|
|z| < |a|

1an z n
1az 1

|z| > 1
|z| > 0

Nun sehen wir uns die folgenden zwei Beispiele zur Verinnerlichung an.
Beispiel 1

Gegeben sei folgendes Signal:


(
1,
s[n] = [n] =
0,

116

f
urn 0
sonst

Durch die Anwendung der z-Transformation erhalten wir folgende Gleichung:


S(z) =

n=0

 n
X
1

z
z
z1
n=0
z
S(z) =
z1
=

Nun betrachten wir uns S(z) n


aher. Dabei fallt uns auf das der Konvergenzbereich bei
|z| > 1. Die Funktion hat bei z = 1 eine Polstelle und zudem weist sie bei 0 eine Nullstelle
auf. Dadurch erhalten wir folgende Abbildung:

Abbildung 33: Konvergenzbereich

Beispiel 2

Gegeben sei das Signal:


s[n] = an [n 1]a N

Nun wenden wir die z-Transformation und erhalten dadurch ein ahnliches Aussehen wir
bei unserem ersten Beispiel:
S(Z) =

an [n 1]z n

n=

1
X

a z

 
X
z n
n=1

z
S(z) =
za

117

z
za

Nun untersuchen wir den Konvergenzradius etwas naher:


z

|z| < |a|
a

Wie beim ersten Beispiel existieren Polstellen, hier liegen sie bei a, und es befindet sich
eine Nullstelle bei 0. Dadurch erhalten wir folgende Abbildung:

Abbildung 34: Konvergenzbereich

7.4 Konvergenzbereich
Unter dem Konverenzbereich versteht man eine Funktionenreihe. Sie bezeichnet die
Menge aller Punkte im Definitionsbereich, die die Eigenschaft haben in der Funktionenreihe absolut konvergent zu sein. Diese konvergenten Bereiche sind vor allem in der
Systemtheorie, zum Beispiel in der Stabilitatsanalyse von Systemen, wichtig.
Nun betrachten wir unterschiedliche Konvergenzbereiche:
1.Eigenschaft
Das Signal s[n] sei eine rechtsseitige Folge. Somit ist amax der Pol mit dem groten
Betrag. Somit erf
ullt der Konvergenzbereich folgende Menge |z| > |amax |. Man vergleiche
hierzu das erste Beispiel.

118

2.Eigenschaft
Das Signal s[n] sei eine linksseitige Folge. Somit ist amin der Pol mit dem kleinsten
Betrag. Der Konvergenzbereich beschreibt die Menge |z| < |amin |. Zur Verdeutlichung
sehe man sich das zweite Beispiel an.
3.Eigenschaft
Der Konvergenzbereich kann keinen Pol einschlieen.
4.Eigenschaft
Das Signal s[n] sei eine zweistellige Folge. Der Konvergenzbereich ist somit ein Kreisring,
der durch Pole begrenzt wird.

Abbildung 35: Der Konvergenzbereich schliet keine Pole ein

7.5 Eigenschaften der z-Transformation


Es gibt viele hilfreichen Eigenschaften die bei der Untersuchung von zeitdiskreten Signalen und System n
utzlich sind. In diesem Abschnitt werden wir uns die wichtigsten
Eigenschaften ansehen.

119

7.5.1 Linearit
at
Eine der wichtigsten Eigenschaften der z-Transformation, von der wir schon in den vorangegangenen Kapiteln Gebrauch gemacht haben, ist die Linearitat. Sie setzt sich zusammen aus der Homogenit
at und der Additivitat.
Z{ax[k] + by[k]} = aZ{x[k]} + bZ{y[k]}

Der Konvergenzbereich lautet:


ROC = ROC(x) ROC(y)
7.5.2 Verschiebungssatz
Der Verschiebungssatz der z-Transformation konnen wir gefolgt definieren:
Z{x[k i]} = z i X(z)
F
ur die Konvergenz erhalten wir den Bereich:
ROC = ROC(x)
z = 0 und z = gesonderte Betrachtung
7.5.3 Modulation
Multiplizieren wir ein zeitdiskretes Signal x[k] mit ak , so ergibt sich
z 
Z{x[k]ak } = X
a
F
ur den Konvergenzbereich erhalten wir:
n z
o
ROC = z| ROC(x)
a
7.5.4 Zeitumkehr
F
ur die Zeitumkehr gilt folgender Satz
 
1
Z{x[k]} = X
z
F
ur den Konvergenzbereich erhalten wir folgende Gestalt:

ROC =

z|

1
ROC(x)
z

120

7.5.5 Faltungssatz
Die Faltung zweier zeitdiskreter Signale, x[k] und y[k], wird definiert durch
Z{x[k] y[k]} = X(Z) Y (Z)

Der Konvergenzbereich liegt bei


ROC  ROC(x) ROC(y)

7.6 Inverse z-Transformation

7.6.1 Uber
den Integralsatz von Cauchy
Mit Hilfe des Umlaufintegrals kann man die inverse z-Transformation direkt berechnen.
Der Weg C u
ber den integriert wird muss den Ursprung der z-Ebene in mathematisch
positiver Richtung umlaufen.
Definition 7.2 Inverse z-Transformation
I
1
s[k] =
S(z)z k1 dz
2j c

Siehe dazu Funktionentheorie (Cauchyscher Integralsatz)

7.6.2 Uber
Potenzreihenentwicklung
Die z-Transformation ist eine Potenzreihenentwicklung , die der Sequenz s[k] sind die
Koeffizienten von z n . Kann man eine Potenzreihenentwicklung f
ur S(z) finden, dann
lassen sich die Werte der inversen z-Transformation s[k] einfach als die Koeffizienten
ablesen.
Definition 7.3 Inverse z-Transformation

S(z) =

s[k]z n = ... + s[2] z 2 + s[1] z + s[0] + s[1]z 1

n=

121

Nun wollen wir mit zwei Beispielen die Definition etwas praktischer anwenden.
Beispiel 1

Formen sie folgende Reihe um:



 
 

1
1
1
S(Z) = z 2 1
1+
1
2z
z
z




z
1
= z2
1 2
2
z
1
1
s[n] = [n + 2] [n + 1] [n] + [n 1]
2
2

Beispiel 2

Formen sie folgende Reihe um:


S(Z) = lg(1 + az 1 )|z| > |1|
 n

X
1
n1
lg(1 + x) =
(1)
n
n=1

X
1 a n
S(Z) =
(1)n1
n z
n=1

(
s[n] =

1n1
n

an

f
urn  1
sonst

7.7 Parsevaltheorem
Nun setzen wir das Parsevaltheorem in die inverse z-Transformation ein. Somit erhalten
wir folgenden Term:
 
I

X
1
1
1

dz
s[n] s [n] =
S(Z) S

2j C
Z
z
n=

Beweis:
Beweisen kann man diese Aussage mit dem Cauchyschen Integralsatz. Auf die Ausf
uhrung wollen wir zu Ende verzichten.

122

7.8 Aufgaben

7.1 Die z-Transformierte eines Signal ist exp z1 . Wie lautet das Signal im Zeitbereich?
7.2 Berechnen Sie die z-Transformierte des Signals s[n] = n s[n]. Beachte hierbei,
dass n 0 ist.
7.3 Wir sehen uns nun die Summer zweier reeller Exponentialfolgen an. Berechnen Sie
hierzu die z-Transformierte:

 n
 n
1
1
s[n] =
[n] +
[n]
4
3
7.4 Die z-Transformierte von x[k] ist X(z). Ein zweites Signal ist gegeben durch y[k] =
eak x[k]. Berechnen Sie Y (z).

7.5 Die z-Transformierte eines Signals ist exp z1 . Wie lautet das Signal im Zeitbereich?
7.6 Bestimmen Sie die Z-Transformation von

(
ank ,
x(n) =
0,

wenn n, k N, n k, |a| < 1


sonst

7.7 Bestimmen Sie die z-Transformierte des Signals


 n
1
sin(n) (n)
s(n) =
2
Geben Sie zudem den ROC an! N.

123

placeholder

8 Laplacetransformation
Die Laplacetransformation, die nach Pierre-Simon Laplace benannt ist, ist eine einseitige Integrationsformel. Ihre Aufgabe besteht darin eine gegebene Funktion f (t) vom
reellen Zeitbereich in eine Funktion F (s) im komplexen Spektralbereich zu verandern.
Die Laplacetransformation sowie die inverse Laplacetransformation sind essentielle Methoden zur Behebung vieler mathematischer Probleme. Die Laplacetransformation gehort
zur Klasse der Integraltransformationen und kann als Generalisation der Fouriertransformation aufgefasst werden. Sie verk
orpert Originalfunktionen einer reellen Veranderlichen
auf Bildfunktionen einer komplexen Veranderlichen. Zudem ist eine der wesentlichen Aspekte, dass der Differentation ebenso der Integration im reellen Bereich unkomplizierte
algebraische Operationen im Bildbereich entsprechen. Oftmals ist die Situation, dass der
Zeitbereich dem reellen Orignalbereich und der Spektralbereich dem komplexen Bildbereich darstellt. Bei n
aherer Betrachtung der Bildfunktion kommen oft bessere Erkenntnisse in das Verhalten linearer Systeme gegen
uber der Betrachtung des Zeitbereiches.
Was ganz besonders ist ist die Betrachtung der Resonanz der Systeme, hierbei kann der
Frequenzbereich genauer unter die Lupe genommen werden. Der Vorteil der Laplacetransformation gegen
uber der Fouriertransformation liegt an den konvergierenden Integralen.

8.1 Probleme der Fouriertransformation


Falls s(t) absolut integrierbar ist, dass heit
Z
|s(t)|dt <

dann existiert die Fouriertransformierte F {s(t)} .

Beweis


Z

Z


jt

s(t) e
dt
|s(t)|dt <


125

8.2 Definition von kausalen Signalen und der Laplacetransformation


8.2.1 Kausale Signale
In der Systemtheorie verwendet man den Ausdruck kausales System, wenn seine Ausgangswerte eine Abh
angigkeit von den vorangegangenen Eingangswerten besitzt. Die Impulsantwort eines solchen Systems wird f
ur negative Vorzeichen vollkommen ausgeloscht.
Systeme die nicht kausal sind werden als akausale Systeme bezeichnet. Ein nicht kausales
System beschreibt die Situation, bei dem die Ausgangswerte nur von den gegenwartigen und zuk
unftigen Eingangswerten abhangt, dabei wird die Impulsantwort f
ur positive
Zeiten vollkommen ausgel
oscht. Ganz allgemein wird ein kausales Signal als ein Signal
definiert, das f
ur negative Zeiten verschwindet. Somit ist ein kausales System ein System
mit einer kausalen Impulsantwort.
Definition 8.1 Kausale Signale
Ein Signal f (t) heit kausal, falls gilt:
f (t) = 0 f
ur alle t < 0

8.2.2 Definition der Laplacetransformation


Definition 8.2 Laplacetransformation
Z
F (s) = L{f (t)} =

f (t) est dt

Diese Gleichung umschreibt die Laplacetransformation von f (t). Dabei ist s = 0 + j


eine komplexe Zahl.
Beispiel 1 Gegeben sei die Funktion f (t) = t. Berechnen Sie die Laplacetransformierte
mit Hilfe der partiellen Integration.
Z
L{t} =

t est dt


Z
1 st 1
= t e
+
est dt
s
s
0
0
  

1 st
1
1
=

e
= 2
s
s
s
0


126

Beispiel 2 Gegeben sei eine Sprungfunktion (t). Auch hier soll nun im weiteren die
Laplacetransformation angewendet werden. Die Sprungfunktion ist wie folgt definiert:
(
0, wenn t 0
(t) =
1, wenn t > 0
Nun setzen wir die Sprungfunktion in die Laplace-Formel:
Z
L{(t)} =

f (t) e

st

Z
dt =

(t) est dt

Z
1e

st

1
dt = est
s

Beispiel 3
formierte.


=
0

1
s

Hier ist nun die Funktion f (t) = eat . Berechnen Sie die Laplacetrans-

at

L{e

Z
}=

f (t) est dt

Z
=

at

st

Z
dt =

e(a+s)t dt



1
1
(a+s)t
=
e
=
a+s
sa
0

8.3 Inverse Laplacetransformation


Definition 8.3 Inverse Laplacetransformation

f (t) = L

1
{F (s)} =
2j

Z0 +j

F (s) est ds

0 j

127

Nun f
uhren wir eine komplexe Integration wie im Riemann Integral durch

L{F (s)} =

X
1
lim
F (0 jsi)e(0 +jis)t s
2j s0
i=

Auf den ersten Blick scheint die Laplacetransformation etwas kompliziert, aber wenn man
die Transformationstabellen, die Transformationsregeln und manche Funktionen durch
Partialbruchzerlegung vereinfacht, ist die Laplace Transformation ein gutes Mittel zur
Untersuchung. Zudem kann man durch die Hinzunahme von Maple weitere Schwierigkeiten beheben.

8.4 Eigenschaften der Laplacetransformation


Wie auch schon bei der Fouriertransformation gibt es auch bei der Laplacetransformation
hilfreiche Eigenschaften und Theoreme, die das Auswerten sehr stark vereinfachen.
8.4.1 Linearit
at
Eine Laplacetransformation ist eine lineare Transformation, da folgende Eigenschaft erf
ullt ist:
(N
)
N
X
X
L
ai (t) fi (t) =
ai L{fi (t)}
i=1

i=1

Dabei sind fi (t) die Transformationspaare und ai die Konstanten.


Beispiel 1 Das Beispiel soll einen Einblick verschaffen, wie man mit dem Gebrauch der
Linearit
at umzugehen hat.



1 jt
2jt
L{sin(at)} = L
e e
2j




1
=
L ejt L ejt
2j


1
1
1
=

2j
s ja s + ja
1 s + ja s + ja
=

2j
s 2 a2
a
= 2 2
s a

128

8.4.2 Verschiebungssatz
Eine Verschiebung des periodischen Systems um mehrere Punkte im Zeitbereich entspricht
einer Multiplikation der Laplacetransformierten im Frequenzbereich. Sei f0 (t) = f (t)
(t) dann gilt:
L{f0 (t t0 )} = L{f (t t0 ) (t t0 )}
= est0 L{f (t) (t)}
= est0 L{f0 (t)}
Beispiel 1 L
osen Sie die Fouriertransformierten mit dem Verschiebungssatz. Gegeben
sei ein Rechteckimpuls:


1
f (t) = rect t
2
Diese Funktion setzen wir nun in die Laplacesche Transformationsformel und erhalten



1
= L{(t)} L{f (t)(t)}
L rect t
2
1
= es L{(t)}
| {z }
s
1
s

1 es
s

8.4.3 D
ampfungssatz
Mit L{f (t)} = F (s) gilt:
L{f (t) eat } = F (s a)
Beispiel 1 Berechnen sie die Laplacetransformiert von der Funktion f (t). f (t) sei wie
folgt definiert:
f (t) = ebt sin(at)
Nun berechnen wir die Laplacetransformierte unter Ber
ucksichtigung des Dampfungssatzes:
a
+ a2
a
L{ebt } =
(s + b)2 + a2

L{sin(at)} =

s2

129

8.4.4 Faltungssatz
Der Faltungssatz besagt, dass die Laplacetransformation eines gefaltenen Signals gleich
dem Produkt der einzelnen Laplacetransformierten ist. Seien f1 (t) und f2 (t) kausale
Signale, so gilt:
L{f1 (t) f2 (t)} = L{f1 (t)} L{f2 (t)}
Beispiel 1

Inverse Laplacetransformation zu
F (s) =

(a2

s
a
as
2
= 2
2
2
2
+s )
+ s } |a {z
+ s2}
|a {z

L{sin(at)} L{cos(at)}

Z
sin[a(t )] cos(a )d

f (t) =
Z0

sin[a(t )] cos(a )d

=
t

1
= t sin(at)
2

8.4.5 Ableitungssatz
Der Ableitungssatz ist ein fast notwendiges Mittel zum Losen von Differentialgleichungen.
L{f 0 (t)} = s F (s) f (0)
Allgemein l
asst sich der Ableitungssatz als
n1
n
o
X
L f (n) (t) = sn F (s)
sn1i f (i) (0)
i=0

notieren.

130

Beweis
Den Ableitungssatz wollen wir nun beweisen. Dazu nutzen wir das mathematische Verfahren der vollst
andigen Induktion.
Induktionsanfang
Z 


d
L{f (t)} =
f (t) est dt
dt
0

Z
st

= f (t) |{z}
e
f (t) (s) est dt
| {z }
|{z}
v
v0
u0
0
|0 {z }
0

= f (0) + s L{f (t)}


Induktionsschritt
Z

L{f (t)} =

f n (t) est dt

Z
=

n1

(t)

est |
0

f (n1) (t)(s) est dt


=sL f
(t) f (n1)(t) f (n1) (0)
!
n2
X
= s sn1 F (s)
sn2i f i (0) f n1 (0)


na

i=0

= sn F (s)

n1
X

sn1i f (i) (0)

i=0

8.5 L
osung von Differentialgleichungen mit Laplacetransformation
Genauso wie mit der Fouriertransformation kann man auch mit der Laplacetransformation einfache Schaltungen berechnen. Meist Auch hier wollen wir unser Netzwerk auf
Widerstande, Kondensatoren und Spulen reduzieren.
Beispiel 1

131

Abbildung 36: L
osen von Differentialgleichungen mit Hilfe der Laplacetransformation

Abbildung 37: RC-Glied


Nun sehen wir uns ein RC-Glied an und wollen mit Hilfe von Differentialgleichungen
die Ladung Q berechnen. Zu beachten sei, dass zum Zeitpunkt t = 0 der Kondensator
ungeladen ist.
Zuerst stellen wir unsere Randbedingungen auf, die wie folgt lauten:
Q(0) = 0
Q0 (0) = 0
Nun stellen wir unsere Differentialgleichung auf
Ui (t) = R I(t) +

Q(t)
C

Durch geschicktes Umformen erhalten wir


CUi (t) = R Q0 (t) + Q(t)
Jetzt wenden wir die Laplacetransformation an und formen weiter um
CUi
= RCsQ0 (s) + Q(t)
s
CUi
Q(s) =
s (RCst)

132

Nun werden wir die Gleichung etwas vereinfachen und ersetzen = CUi und = .
Somit erhalten wir folgendes Ergebnis:

Q(s) = + 1
s
ac + s
+ RCs + RCs
=
s (RCs + 1)

Durch R
uckeinsetzen erhalten wir
CUi
s (RCs + 1)
CU i
CUi
=

1
s
s + RC


1
Q(t) = CU i cot 1 e RC
Q(s) =

Beispiel 2 Nun betrachten wir eine weitere Schaltung. Ausgehend von unserem ersten
Beispiel ver
andern wir unsere RC-Glied-Schaltung. Wir ersetzen R durch R, L, die parallel zu dem Kondensator C liegen. Wir stellen uns mehrere Gleichungen auf, die durch
die Maschenregel und die Knotenregel leicht hergeleitet werden konnen.
Gleichungen mit Hilfe der Maschenregel (1)
UL (t) + U0 (t) = U i(t)
M
dI(t)
UL (t) = L
T
dt
dI(t)
+ U0 (t) = Ui (t)
L
dt
Gleichungen mit Hilfe der Knotenregel (2)
I(t) = IR (t) + IC (t)
dU0 (t)
IC (t) = C
dt
U0
IR (t) =
R
U0 (t)
dU0 (t)
I(t) =
+C
.
R
dt

133

Nun wenden wir die Laplacetransformation an


(1) LsI(s) + U0 (s) =

U0
s

U0 (s)
+ C s U0 (s).
R

(2) I(s) =

Somit erhalten wir f


ur die Spannung:
U0 (s) =

Setzen wir nun 0 =

1
LC

und =

L
s( R

1
2RC ,

so erhalten wir
Ui

U0 (s) =
s
=

Ui
s + L C s2 + 1)

2
0 s

1 2
s
02
Ui 02

+1

s (s2 + 2s + 02 )

Beispiel 3 f (t) sei eine periodische Funktion mit der Periode T . Beweisen Sie, dass
deren Laplacetransformation F (s) gegeben ist durch:
T

1
F (s) =
1 esT

f (t) est dt

Wir zerlegen die Funktion in ihre Perioden:


Z T

Z 2T
Z
X
F (s) =
+
+ f (t)est dt =
0

nT +T

n=0 nT

Substitution t = nT + ergibt
F (s) =

Z
X

f (nT + )es(nT + ) d

n=0 0
Periodik

Z
X

f ( )es(nT + ) d

n=0 0

X
n=0

snT

134

f ( )es d

f (t)est dt

und mit der geometrischen Reihe (Konvergenz f


ur Re(s) > 0 vorausgesetzt) ergibt sich
die Behauptung:
Z T
1
f ( )es d
F (s) =
1 esT 0

Beispiel 4

Berechnen Sie die Ausgangsspannung der folgenden Schaltung:

Zuerst definieren wir die ben


otigten Groen
U1 : Spannung am linken Widerstand
I1 : Strom durch linken Widerstand
U2 : Spannung am Kondensator
I2 : Strom durch Kondensator
U3 : Spannung am rechten Widerstand
I3 : Strom durch rechten Widerstand
Somit ergeben sich folgende Gleichungen:

UIn (t) = U1 (t) + UOut (t)


I1 (t) = I2 (t) + I3 (t)
Durch Einsetzen der Gleichungen U1 (t) = RI1 (t), U3 (t) = RI3 (t) und U Out (t)C = I2 (t)
ergibt sich die Differentialgleichung:
Ui (t) = RC U out (t) + 2Uout (t)
Nun benutzen wir die Laplacetransformation:
U0
= RCsUout (s) + 2Uout (s)
s
Losung in Bildbereich:
Uout (s) =

U0
(RCs + 2)s

Dies ist im Prinzip die inverse Laplacetransformation aus Aufgabe 3. Damit ergibt sich:
2t
1
s(t) = U (1 e RC )(t)
2

135

8.6 Aufgaben
8.1 f (t) sei eine periodische Funktion mit der Periode T . Beweisen Sie, dass deren
Laplacetransformation F (s) gegeben ist durch:

1
F (s) =
1 esT

136

f (t) est dt

placeholder

placeholder

9 L
osungen
L
osungen zu Kapitel 1
1.1 Ein System ist genau dann ein LTI-System, wenn es linear und zeitinvariant ist.
a) Linearit
at:
d
d
d
(f (t) + g(t)) = f (t) + g(t)
dt
dt
dt
Zeitinvarianz:

Das System f (t)


LTI-System.

d
d
(f (t t0 )) =
f (t t0 )
dt
dt
d
dt f (t)

ist sowohl linear, als auch zeitinvariant und ist somit ein

b) Linearit
at:
(f (t) + g(t))2 = 2 f 2 (t) + 2 f (t) g(t) + 2 g 2 (t) 6= f 2 (t) + g 2 (t)
Zeitinvarianz:
(f (t t0 ))2 = f 2 (t t0 )
Das System f (t) f 2 (t) ist also zwar zeitinvariant, aber nicht linear. Damit ist es kein
LTI-System.
c) Linearit
at:
f (t) + g(t) = f (t) + g(t)
Zeitinvarianz:
f ((t t0 )) = f (t t0 ) 6= f (t t0 )
Das System f (t) f (t) ist linear, aber nur zeitinvariant f
ur die trivialen Falle = 1
oder f (t) konstant. Deshalb ist dieses System also auch kein LTI-System.
1.2 Da das RC-Glied einen frequenzabhangigen Amplitudenverlauf hat, ist es notwendig,

bei der Berechnung der Ubertragungsfunktion


die Impedanzen der Bauelemente zu betrachten. Es ist ZR = R f
ur den Widerstand und ZC = 1/jC am Kondensator, wobei
die Impedanz des Kondensators durch = 2f frequenzabhangig ist.
Das RC-Glied bildet nun einen komplexen Spannungsteiler mit ZR und ZC in Reihenschaltung. Damit folgt sofort
1

ZC
1
Uaus
jC
=
=
.
H=
=
Uein
ZR + ZC
R + jC
1 + jRC

139

(t )

(t )

1
()

()

(a) t < 1

(t )

(b) t > 1

(t )

1
()

1
()

(c) 1 t 0

(d) 0 < t 1

Abbildung 38: Fallunterscheidung bei der Faltung von (t) mit (t).
1.3 Sowohl (t) als auch (t) sind abschnittsweise definierte Funktionen. Deshalb bietet es sich an, f
ur
Z
(t) (t) = ( )(t ) d

Z1
Z1
Z
= 0 (t ) d + ( )(t ) d + 0 (t ) d
1

Z1
( )(t ) d

=
1

eine Fallunterscheidung zu machen (Abb. 38).


(a) F
ur t < 1 ist (t ) von = 1 bis = 1 gleich null. Damit:
Z1
(t) (t) =

( )(t ) d = 0
1

140

(b) F
ur t > 1 ist entsprechend
Z1

Z1
( )(t ) d =

( ) d
1

Z0
=

Z0
(1 ) d

(1 + ) d +
1





1 2 0
1 2 1
= +
+
= 1.
2
2
1
0
F
ur die Bereiche 1 t 0 und 0 < t 1 dazwischen wertet man die Integrale
andererseits aus zu


Zt
1
1
1 2 t
(c)
= t + t2 +
1 + d = +
2
2
2
1
1

beziehungsweise
Z0
(d)

Zt
1 + d +

1
1 d = +
2

0

1
+
2
1

t
0

1
1
= t t2 + .
2
2

Das Ergebnis ist insgesamt also wieder eine st


uckweise definierte Funktion:

0
t < 1

t + 1 t2 + 1 1 t 0
2
2
(t) (t) =
1 2
1

t 2t + 2
0<t1

1
t >1
In der Technik lassen sich Rechteckimpulse
mit perfekt senkrechten Flanken nicht generieren,
1
sie werden immer eine endliche Steigung und eine
gewisse Kr
ummung aufweisen. Zur Beschreibung
solcher realer Rechteck- und Sprungfunktionen
kann man eben Funktionen der Form (t) (t)
Abbildung 39: Graph von
verwenden.
(t) (t).
1.4 Der Integrator ist linear, denn
Zt

Zt
s1 ( ) + s2 ( ) d =

Zt
s1 ( ) d +

141

s2 ( ) d = g1 (t) + g2 (t),

und er ist zeitinvariant, denn


tt
Z 0

Zt

s( ) d = g(t t0 ).

s( t0 ) d =

F
ur die Impulsantwort h(t) muss gelten:
Z
Zt
!
s(t) h(t) = s( )h(t ) d =
s( ) d

Man sieht, dass


(
1 f
ur t,
h(t ) =
0 f
ur > t
oder
h(t) = (t).
1.5 Zun
achst berechnet man das Integral aus dem Hinweis, z. B. unter Zuhilfenahme
der Substitutionsmethode:

Z1/2
Z
Z1/2
Z
1 cos(t) dt + 0 cos(t) dt
0 cos(t) dt +
rect(t) cos(t) dt =
1/2

1/2

1
Z1/2
sin t 2
2
=
cos(t) dt =
=

1

1/2

Das eigentliche Faltungsintegral errechnet sich nun analog, es ist:


Z
rect(t) cos(t) = rect( ) cos((t )) d

1
Z1/2
sin ((t )) 2
2 cos(t)
=
=
cos((t )) dt =

1
2

1/2

1.6 Um das Integral






Z
3
t
rect((t 3)/5) rect(t/5 + 2) = rect
rect
+ 2 d
5
5

142

(a) t +

(c)

1
2

t+

15
2

25
2

11
2

1
2

und

(b) t +

11
2

t+

25
2

15
2

(d)

1
2

11
2

und t +

t+

25
2

11
2

15
2

Abbildung 40: Fallunterscheidung bei der Faltung von rect((t 3)/5) mit rect(t/5 + 2).
zu losen, betrachtet man den Verlauf der beiden Funktionen unter dem Integral:
 (

1 12 11
3
2
=
rect
5
0 sonst
 (

25
1 t + 15
t
2 t+ 2
+2 =
rect
5
0 sonst

An den Graphen der beiden Funktionen (Abb. 40) sieht man, wie sich das Integral nun
in vier F
alle aufspalten l
asst.
25
1
(a) t +
bzw. t 12:
2
2






Z
Z 11
2
3
t
t
rect
rect
+ 2 d =
+ 2 d = 0
rect
1
5
5
5

(b) t +

25
1
1
25
11
und t +

bzw. 12 < t 7:
2
2
2
2
2


Z 11
Z t+ 25
2
2
t
25 1
rect
+ 2 d =
1 d = t +
= t + 12
1
1
5
2
2
2

(c)

1
15
11
11
25
t+

und
t+
bzw. 7 < t 2:
2
2
2
2
2


Z 11
Z 11
2
2
t
11
15
rect
+ 2 d =
1 d =
t
= 2 t
1
15
5
2
2
t+
2

143

(d)

11
25
t+
bzw. t > 2:
2
2
Z

t+ 25
2


rect

t+ 15
2

t
+2
5


d = 0

Es ist also

0,
t 12

t + 12, 12 < t 7
rect((t 3)/5) rect(t/5 + 2) =

2 t, 7 < t 2

0
t > 2.
1.7 Die Impulsantwort eines Systems aus zwei Systemen, die hintereinandergeschaltet
sind, ergibt sich aus der Faltung der Impulsantworten der beiden Systeme. F
ur t < 0 ist
(t) = 0, also ist auch die Faltung
hGes = h(t) h(t) = 0.
F
ur t > 0 gilt:
hGes

Z
Z
t
1
1
( )e T (t )e T d
= h(t) h(t) = h( )h(t ) d =
T
T

1
= 2
T

Zt
e

T t
T

Tt

e
d = 2
T

Zt

( T1 T1 )

e T
d = 2
T

Zt

e T
1 d = t 2
T

1.8 Da im Faltungsintegral nur noch eine der beiden Funktionen von t abhangen, kann
man die Differentiation leicht in das Integral ziehen:

d
d
s(t) h(t) =
dt
dt

Z
Z
d
d
s(t )h( ) d =
s(t )h( ) d =
s(t) h(t)
dt
dt

Entsprechend ist

d
d
h(t) s(t) =
dt
dt

Z
Z
d
d
h(t )s( ) d =
h(t )s( ) d =
h(t) s(t).
dt
dt

Mit der Kommutativit


at der Faltung erhalt man dann:


d
d
s(t) h(t) =
h(t) s(t)
dt
dt
d
d
s(t) h(t) = s(t)
h(t)
dt
dt

144

1.9

a(t) b(t) + c(t) =

Z

a(t ) b( ) + c( ) d

Z
= a(t )b( ) + a(t )c( ) d

Z
Z
= a(t )b( ) d + a(t )c( ) d

= a(t) b(t) + a(t) c(t)

L
osungen zu Kapitel 2
2.1 Wir nutzen, dass sgn(t) = (t) (t). Mit F {(t)} = (t)
Maple-Teil dieses Kapitels) ergibt sich:

F {s(t)} = F {(t)} F {(t)}


=

2j
.

2.2
Z
S(t) =

w(t) ejt dt =

Z2

cos(0 t) ejt dt

Mit Hilfe von cos(x) = 21 (ejx + ejx ) erhalten wir

145

(aus dem

1
S(t) =
2

Z2

(ej0 t + ej0 t ) ej0 t dt

1
2

Z2

(ej(0 )t + ej(+0 )t )dt

"
#
1
ej(+0 )t
ej(0 )t 2
=

+
2
j( + 0 ) j( 0 )

ej(0 ) 2 ej(0 ) 2
+
j( 0 )
!

ej(+0 ) 2 ej(+0 ) 2
ej(0 ) 2 ej(0 ) 2
+
2j( + 0 ) 2
2j( 0 ) 2
 




si ( + 0 )
+ si ( 0 )
2
2

1
=
2
=

1
2

1
2

j(+0 ) 2

j(+0 ) 2

e
j( + 0 )

2.3 Zu zeigen ist das:


F{f (at)} =

1  
F
|a|
a

Es gilt j(t) = f (at) und = at. Dann gilt:

F{f (at)} =
Z

=
Z

j(t) ejt dt
f (at) ejt dt

f ( ) ej( a ) d

 

1
=
f ( ) ej ( a ) d
|a|
1  
=
F
|a|
a

146

2.4 Zu zeigen ist, dass


1
F{f (t) cos(0 t)} = (F ( + 0 ) + F ( 0 ))
2
Es sei g(t) = f (t) cos(0 t). Dann gilt:

F{g(t)} =
Z

g(t) ejt dt
f (t) cos(0 t) ejt dt

Mit cos(0 t) = 12 (ej0 t + ej0 t ) ist:



Z
Z
1
j0 t
jt
j0 t
jt
f (t) e
e
=
f (t) e
e
dt +
2

Z

Z
1
j(0 t
j+0 t
=
f (t) e
dt +
f (t) e
2

1
= (F ( + 0 ) + F ( 0 ))
2

2.5 Allgemein gilt die Formel:


Z
F {f (t)} = f (t) ejt dt

f (t) in die Formel einsetzen, daraus ergibt sich:


Z1
F {f (t)} =

Z0
=
1

0 ejt dt +

Z0

(t + 1) ejt dt +

(t + 1) ejt dt +

Z1
0

Z1

(1 t) ejt dt

147

(1 t) ejt dt +

Z
1

0 ejt dt

Durch zweimaliges partielles Ableiten erhalten wir:


0
0

1



j
1
j jt 1
1
jt
jt
jt
F {f (t)} =
(t + 1) e
2 2 e
+
e
+ 2 2 e

j
1
1
0
0

0
1

j
1
j
1
= ejt ( (t + 1) + 2
+ ejt ( (1 t) 2

0
 


j
j
1
1
1
= 2 + ej 2
2


cos j sin + cosh + j sin
2
= 2

2
2
cos
= 2 2

2
2
= 2 (1 cos )

4 

= 2 sin

2


2.6 Daraus l
asst sich schlieen:
Z

(t + 1)

Z 

dt =

e||

2

Daraus l
asst sich leicht erkennen, dass
Z

(t + 1)

Z
dt =

148

e2 =

2.7 Durch die Verwendung des Verschiebungssatzes s(t T0 )


S() ejt0 erhalten
wir:




2
(tt )2
1
1
j0
a0
ta
=e
F e
F e
a
a
Z
t2
1
= ejt0 e a ejt dt
a

jt0

=e

Z 2
t
e a jt dt

= ejt0

Z
1 2
e a (t +ajt) dt

jt0

=e

Z
aj 2
aj 2
1 2
e a (t +ajt+( 2 ) ( 2 ) )

jt0

=e

Z
aj 2
1
2
e a (t+aj) ( 2 ) dt

jt0

=e

Z
1 aj 2
1
2
e a (t+aj) e a ( 2 ) dt

jt0

=e

a 2
1
e 4
a

Z
1
2
e a (t+aj) dt

{z

a 2
1
= ejt0 a e( 4 )
a
= e(jt+

a 2
)
4

L
osungen zu Kapitel 3
3.1 Es gilt:

F{fn (t)} = ein rect

149


2

Hierzu m
ussen wir eine Fallunterscheidung machen.
1.Fall: n1 = n2 = n :
Z
Z


1
ein rect
fn (t) fn (t) =
ein rect
d
2
2
2

Z
1
=
d = 1
2
2.Fall: n1 =
6 n2 :
Z
Z


1
fn1 (t) fn2 (t) =
ein1 rect
ein2 rect
d
2
2
2

Z
2
=
ei(n2 n1 ) d
2
=

1
ei(n2 n1 )

| =0
2 i(n2 n1 )

L
osungen zu Kapitel 4

b
Erkl
arender

4.1

Text

4.2
a) Nach Def. 4.1 ist f
ur jeden Wert im Frequenzbereich die Summe
Sn =

N
1
X

sk WNkn

k=0

zu berechnen. In dieser Summe sind N Multiplikationen sk WNkn enthalten. F


ur N
Abtastwerte werden eben N solcher Summen berechnet. Die Komplexitat betragt also
N 2.

b
Herleitung

b) . . .

Komplexit
at
der FFT

150

600

Laufzeit

500
400
300
200
100
0
0

10

15

20

25

3N log (3N)

Abbildung 41: Vergleich der Komplexitaten 3N log2 (3N ) und N 2 .


c) Tr
agt man den Verlauf der Komplexitatsfunktionen in einem Schaubild ein, kann
man am Schnittpunkt der Graphen ablesen, ab welchem Wert von N die Funktion
3N log2 (3N ) von der Quadratfunktion u
berholt wird (Abb. 41). Der Schnittpunkt liegt
hier bei N = 17. Ab einem N > 17 ist das Programm mit logarithmischer Laufzeit trotz
der jroeren Konstanten effizienter.
4.3 Unter Zuhilfenahme der Siebeigenschaft der -Funktion schreibt man die diskrete
Funktion s(n) um in eine kontinuierliche Funktion sa (t). Darauf kann man nun einfach
die Transformationsregeln f
ur kontinuierliche Signale anwenden.
a)

s1a (t) = cos(2t)

(t n)

n=

 X
( n)
S1a () = ( 2) + ( + 2)
n=

b)

s2a (t) = rect

t
2M + 1

(t n)

n=

 X
S2a () = (2M + 1) si /2 (2M + 1)
( n)
n=

151

4.4
a) Einsetzen in die Definition mit N = 4:
3
X

C0 =

ck e

2j 0k
N

3
X

ck = 4 + 3 + 2 + 1

k=0

k=0

= 10
3
X

C1 =

1k

ck e2j N = 4 + e2j 4 3 + e2j 4 2 + e2j 4 1

k=0

= 4 3j 2 + j
= 4 2j
2

C2 = 4 + e2j 4 3 + e2j 4 2 + e2j 4 1 = 4 3 + 2 1


=2
C3 = 4 + e2j 4 3 + e2j 4 2 + e2j 4 1 = 4 + 3j 2 j
= 2 + 2j

b) Die Matrix der DFT lautet:

M=
1

1
11

12

e2j N

e2j N

21

22

e2j N
..
.

1 e2j

e2j N

(N 1)1
N

e2j

(N 1)2
N

1(N 1)
2j N

..
.

e2j

e2j

2(N 1)
N

..
.
(N 1)(N 1)
N

Mit ihr gilt f


ur den transformierte Vektor:
C

Mc

1
1
1 e2j 14

=
2
1 e2j 4
3
1 e2j 4

4 + e2j 14

=
2
4 + e2j 4
3
4 + e2j 4


4
3

e2j 4

3
2j 46 2

e
2j 49
1
e
1

e2j 4
4
e2j 4
6
e2j 4

4+3+2+1
10
2
3
3 + e2j 4 2 + e2j 4 1
2 2j

=
2j 44
2j 46

2
3+e
2+e
1
6
9
2 + 2j
3 + e2j 4 2 + e2j 4 1

152

4.5

Rechenwege!

a)
f1 (n) f1 (n) = 2N + 1 |n| f
ur |n| 2N , sonst 0

b)

f1 (n) f2 (n) =

n+N
X

f
ur n < N
ak =

an+N +1 1
a1

k=0

nN a2N +1 1
a
a1

f
ur N n N
sonst

c)

(2N |n|)(2N + 1 |n|)


2N
f1 (n) f3 (n) =
|n|(|n| 1)

N 2

f
ur |n| 2N
f
ur N |n| < 2N
f
ur 1 < |n| < N
f
ur |n| 1

4.6 Das System ist nicht zeitinvariant. Man betrachte zum Beispiel die Antwort des
Systems auf die Folge . . . , 1, 0, 1, 0, 1, 0, 1, 0, 1, . . . und die um ein Sample verschobene
Folge . . . , 0, 1, 0, 1, 0, 1, 0, 1, 0 . . . . Die fettgedruckte Zahl bezeichnet jeweils das
Element x0 .
4.7

b
Erl
autern

a) Abtastung:
  X



t
t kT
g(t) = si
rect
T
T0
k=
 
  X

t
t
rect

(t kT )
= si
T
T0
k=





!

T
T0 2 X
2
1
F {g(t)} =
T rect
T0 si
k
2
2
2
T
T
k=

 X

 


T
T0 k
2

si
k
= T0 rect
2
T
T
k=

nicht-
uberlappendes Spektrum

153

b)
!
  X

t 43 kT
t
g(t) = si
rect
T
T0
k=
 
  X



t
t
4
= si
rect

t kT
T
T0
3
k=



!



T0
3 X
T
2
1
T0 si
T rect
k
F {g(t)} =
2
2
2
2T
T
k=
 X






3
3
T
3T0 k

k
= T0 rect
si
4
2
4T
2T
k=

u
berlappendes Spektrum
4.8 F
ur N = 4 evaluiert man die Summe f
ur einen transformierten Abtastpunkt zu
Sq =

4
X

sn sin

n=1

= sin

 q 
5

 qn 
5

+ sin

2q
5


+ sin

3q
5


+ sin

4q
5


.

a) Die Transformationsmatrix ist also:





sin 11
sin 12
sin 13
sin 14
5
5
5
5





sin 21 sin 22 sin 23 sin 24

5
5
5
5
M=




sin 31 sin 32 sin 33 sin 34
5
5
5
5





41
42
43
44
sin 5
sin 5
sin 5
sin 5





sin 51 sin 52
sin 35
sin 45





6
8
sin 2 sin 4

sin

sin

5
5
5
5
=





9
12
sin 3 sin 6

sin

sin

5
5
5
5





16
sin 54 sin 58 sin 12

sin

5
5

b) Das Parsevaltheorem besagt, dass die normierte Transformationsmatrix 1/ N M


unitar ist:

b
Ausf
uhren

154

1
M ist unitar
N
1
1
M M = I
N
N
1
T
(M ) M = I
N
Im Falle der DST bedeutet das Parsevaltheorem also




N

1
km
1 X
nk
T
sin
(M ) M nm =
sin
N
N
N +1
N +1
k=1

= ...

L
osungen zu Kapitel 5

rect(t + )

rect(t) 1

12

1
2

rect(t) 1 rect(t + )

12

(a) < 1

(b) 1 < 0

rect(t + ) 1 rect(t)

12

1
2

1
2

rect(t + )

1 rect(t)

12

(c) 0 < 1

1
2

(d) 1

Abbildung 42: Fallunterscheidung in der AKF von rect(t).


5.1 An Abb. 42 sieht man, welche Falle man zur Berechnung des AKF-Integrals
ss

Z
Z
= s(t)s(t + ) dt = rect(t) rect(t + ) dt

beachten muss, um es einfach zu berechnen. Es ist leicht zu sehen, wie das Integral f
ur
< 1 und 1 zu null wird. In den anderen beiden Fallen vereinfacht es sich zu
Z 1
Z 1
2
2
rect(t + ) dt =
1 dt = 1 + ,
1 < 0
21

12

155

beziehungsweise
Z

1
2

Z
rect(t + ) dt =

21

1 dt = 1 ,

0 < 1.

12

Die Autokorrelationsfunktion von s(t) = rect(t) ist also insgesamt:

0,
< 1

1 + 1 < 0
ss =

1 0 <1

0,
1

5.2 Die erste Funktion l


asst aus zwei verschobenen Rechteckfunktionen bilden:
s(t) = rect(t 12 ) rect(t 32 )
Die zweite Funktion ist leicht als Sinuskurve mit beschranktem Wertebereich zu erkennen:
(
sin(t), t [0, 2]
g(t) =
0,
sonst
Damit l
asst sich der Kreuzkorrelationsfaktor berechnen:
sg

Z
= s(t)g(t) dt


rect(t 21 ) rect(t 32 ) sin(t) dt
0
Z 2
Z 2
1
=
rect(t 2 ) sin(t) dt
rect(t 32 ) sin(t) dt
0
0
Z 1
Z 2
=
sin(t) dt
sin(t) dt
=

Integration durch Substitution mit


= t,

dt =

1
d

liefert nun das Ergebnis:


sg

1
=

Z
0

1
sin d

sin d =

5.3

156

2 (2)
4
=

a) Es reicht, bei periodischen Signalen nur eine Periode zu betrachten.


F
ur s1 (t) = a cos(2t) ist das 0 t 1. Es ist also:
Ps1

1
=
10

1
2

|a cos(2t)| dt = a

cos2 (2t) dt

Man substituiert
= 2t,

dt =

1
d
2

und kommt so auf das Standardintegral


a2
2

Z
0

cos2 d =



a2 1
1 2
1
cos sin +
= a2 .
2 2
2 0
2

F
ur s2 (t) = a sin(2t) kommt man mit der gleichen Rechnung auf den selben Wert f
ur
die Leistung,
1
Ps2 = a 2 .
2
Da s3 (t) = (t), die Heavisidesche Sprungfunktion, nicht periodisch ist, bestimmt man
ihre Leistung, in dem man die Grenzen t1 und t2 willk
urlich festsetzt. Solange die Grenzen
symmetrisch zum Nullpunkt sind, wird man aufgrund der Normierung des Leistungsintegrals immer den selben Wert erhalten. Wahlt man die Grenzen nicht symmetrisch, so
wird der Bereich, in dem die Funktion null bzw. eins ist, starker oder weniger stark in
das Integral einflieen und man erhalt unterschiedliche Werte f
ur die Leistung.
Wir wollen f
ur unsere Leistungsberechnung die Grenzen symmetrisch gegen unendlich
laufen lassen:
Z T
1
Ps3 = lim
|(t)|2 dt
T 2T T
Nun nutzen wir aus, dass (t) nur die Werte 0 und 1 annehmen kann und berechnen
weiter:
Z T
1
Ps3 = lim
(t) dt
T 2T T
Z 0
Z T
1
1
(t) dt + lim
(t) dt
= lim
T 2T T
T 2T 0
Z 0
Z T
1
1
= lim
0 dt + lim
1 dt
T 2T T
T 2T 0
| {z }
| {z }
=T

=0

1
1
= lim
T =
T 2T
2

157

b) Man betrachtet wieder nur eine Periode. Mit dem Theorem


cos(x + y) = cos x cos y sin x sin y
berechnet man die Autokorrelationsfunktion von s1 (t) = a cos(2t) als:
Z 1

1
L
a cos(2t) a cos 2(t + ) dt
s1 s1 ( ) =
10 0
Z 1

2
cos(2t) cos(2t) cos(2 ) sin(2t) sin(2 ) dt
=a

0
Z 1
Z 1
2
2
cos(2t) sin(2t) dt
cos (2t) dt sin(2 )
= a cos(2 )
0

Durch Substitution von

1
d
2
bringt man die Integrale wieder auf Standard-Form:


Z 2
Z 2
a2
2
cos(2 )
cos d sin(2 )
cos sin d
2
0
0




2 
1
1 2
1
a2
2
cos(2 )
cos sin +
sin(2 ) cos
=
2
2
2 0
2
0
|
{z
}
|
{z
}
= 2t,

dt =

=0

1
= a2 cos2 (2 )
2
Auch hier f
uhrt eine analoge Rechnung mit s2 (t) = a sin(2t) auf das selbe Ergebnis:
1 2
2
L
s2 s2 ( ) = a cos (2 )
2
Ganz
ahnlich zur Leistung berechnet man ebenfalls die Autokorrelationsfunktion
des dritten Signals, indem man die Grenzen ins Unendliche legt.
Z T
1
L
s3 s3 ( ) = lim
(t) (t + ) dt
T 2T T
Z T
1
= lim
(t + ) dt
T 2T 0
Nun ist eine Fallunterscheidung f
ur positives und negatives notig (Abb. 43).
Ist negativ, so ist
Z T
1
1
T

1
1
lim
(t + ) dt = lim
(T + ) = lim
+
= +0= .
T 2T 0
T 2T
T 2T
2T
2
2
Ist positiv, erh
alt man
1
T 2T

lim

(t) dt = lim

158

1
1
T = .
2T
2

1
0

(a) < 0

(b) > 0

Abbildung 43: Verlauf von (t + ) f


ur positives und negatives .
c) Mit dem Theorem
sin x cos y =


1
sin(x y) + sin(x + y)
2

berechnet man:
Z

1 1
a cos(2t) a sin 2(t + ) dt
=
1 0
Z 1

1
= a2
sin(2 ) + sin 2(2t + ) dt
2
0
1 2
= a (2 )
2
Man bemerkt, dass s1 (t) und s2 (t) orthogonal sind, da L
s1 s2 (0) = 0.
L
s1 s2 ( )

5.4 Um festzustellen, ob zwei periodische Signale orthogonal sind, bildet man ihren
Kreuzkorrelationskoeffizienten u
ber eine Periode. In unserem Fall soll eine Periode die
Lange T haben:
Z
1 T
sin(m t) sin(n t) dt
L
=
sm sn
T 0
Wir benutzen ein Produkttheorem der Trigonometrischen Funktionen und erhalten:
Z

1 T 1
L
sm sn =
cos(m t n t) cos(m t + n t) dt
T 0 2
"

 #T
sin (m + n )t
1 sin (m n )t
=

2T
m n
m + n
0

!
sin (m + n )T
sin (m n )T
1

=
2T
m n
m + n
Man erkennt, dass sm sn nur dann null wird, wenn sowohl (m n ) T als auch (m +
n ) T ein vielfaches von sind. Dies ist erf
ullt, wenn f
ur m und n gilt:
m = m ,

n = n

mit m 6= n,

159

m, n {0,

1
2,

1, 1 12 , 2, 2 12 , . . . }

L
osungen zu Kapitel 6
6.1 Die Wahrscheinlichkeit, dass eine andere Augenzahl als 6 gew
urfelt wird betragt
p(X = 1, 2, 3, 4, 5) =

1 
,
6 5

da die Wahrscheinlichkeit f
ur das Werfen einer sechs
p(X = 6) =

1
+
6

betragt und die Summe aller Wahrscheinlichkeiten 1 ergeben muss. Demnach ist der
Erwartungswert
7
= E(X) = + 3.
2
Die Varianz berechnet man zu

 
 

2 
2 
2 
5
3
1
1 
1 
1 
Var(X) = 3
+ 3
+ 3

2
6 5
2
6 5
2
6 5

2 
 
2 
 
2 

1
1 
3
1 
5
1 
+
3

+
3

+
3

2
6 5
2
6 5
2
6 5

 



45
1
25
1 
2
2

+ 45 + 15 +
+
+ 9 15 .
=
6 5
4
6
4

L
osungen zu Kapitel 7
7.1
exp(1/z) =

X
(1)i 1 i
( )
i! z
i=0

Damit ist s[i] =

(1)i
i!

f
ur i 0 und s[i] = 0 sonst.

7.2 Da f
ur n 0 gilt. K
onnen wir die Darstellung der rechtsseitigen z-Transformation
verwenden.

S(z) =

s[n]z n S(z) =

n=

s[n]z n

n=0

Nun setzen wir unser Signal in die Gleichung ein und erhalten somit:

160

S(z) =

z 1

n

n=0

F
ur unseren Konvergenzbereich muss folgende Eigenschaft greifen:

X


z 1 n <
n=0

Somit erhalten wir die z-Transformierte und den folgenden Konvergenzbereich.

S(z) =

az 1

n

n=0

1
z
=
1
1 z
z
ROC = |z| > ||

7.3 Hierzu sehen wir uns zuerst die einzelnen Konvergenzbereiche an:
S1 (z) =

1
1 12 z 1

Abbildung 44: Der erste Konvergenzbereich

S2 (z) =

1
1 + 13 z 1

161

Die gesamte z-Transformierte wir gefolgt berechnet:


 n

 n
X
1
1
S(z) =
[n] +
[n] z n
4
3
n=

 n

X
X
1
1 n
n
=
[n] z +

[n] z n
4
3
n=
n=





n
X 1
X
1 1 n
1
=
z
+
z
4
3
n=0

n=0

1
1 14 z 1

1
1 + 13 z 1

1 1
2(1 24
z )
1 1
(1 4 z ) (1 + 13 z 1 )

1 1
z )
2(1 24
z2

1
z 2 (1 4 z 1 ) (1 + 31 z 1 )

1
2z (z 24
)
1
(z 4 ) (z 31 )

7.4
S(Z) =
=

 n
X
1
n=0

X
n=0

2
1
2

n

sin(n) (n) z k
sin(n) z k

 
1 X 1 n
=
(ejn ejn ) z n
2j
2
n=0
!
 
 
1 X 1 n jn n X 1 n jn n
=
e
z
e
z
2j
2
2
n=0
n=0
!n
! !

1
j n
X
1 X 12 ej
2 e
=

2j
z
z
n=0
n=0

1
1
1


 1 j 


e
2j 1 12 ej
1 2z
z

Es gilt:


1 ej
2


<1
z

162

. Somit erhalten wir f


ur unsere z-Transformierte
z

1
S(Z) =
2j

1
2

ej

z
z

1
2

ej

F
ur unseren Konvergenzbereich erhalten wir


1 ej
2


<1
z

1
2

|z| >

L
osungen zu Kapitel 8
8.1 Wir zerlegen das Integral in seine Perioden:
Z
F (s) =

2T

+
0

st

f (t)e

dt =

Z
X

nT +T

f (t)est dt.

n=0 nT

Substitution t = nT + ergibt
F (s) =

Z
X

f (nT + )es(nT + ) d

n=0 0

=Periodik

Z
X

f ( )es(nT + ) d

n=0 0

X
n=0

snT

f ( )es d

und mit der geometrischen Reihe (Konvergenz f


ur Re(s) > 0 vorausgesetzt) ergibt sich
die Behauptung:
Z T
1
f ( )es d.
F (s) =
1 esT 0

163