Sie sind auf Seite 1von 172

Friedrich–Schiller–Universität Jena

Fakultät für Mathematik und Informatik


Mathemathisches Institut

Analysis I

Manuskript zur Vorlesung

Prof. Dr. H.–J. Schmeißer

Jena, 22. Januar 2009


Analysis

Manuskript zur Vorlesung

Prof. Dr. H.–J. Schmeißer

Friedrich–Schiller–Universität Jena
Fakultät für Mathematik und Informatik
Mathematisches Institut
Inhaltsverzeichnis

1 Reelle und komplexe Zahlen 5


1.1 Reelle Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Zahlbereiche und Eigenschaften . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Häufungspunkte und Grenzwerte . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Supremum und Infimum . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.4 Existenz von Wurzeln aus reellen Zahlen . . . . . . . . . . . . . . . . 16
1.2 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.1 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.2 Konjugierte Elemente, Subtraktion, Division . . . . . . . . . . . . . . 20
1.2.3 Normaldarstellung, Betrag, Abstand . . . . . . . . . . . . . . . . . . 22

2 Konvergenz von Folgen und Reihen 26


2.1 Folgen komplexer Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Eigenschaften konvergenter Folgen . . . . . . . . . . . . . . . . . . . 26
2.1.2 Das Cauchy–Konvergenz–Kriterium . . . . . . . . . . . . . . . . . . 29
2.2 Folgen reeller Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.1 Einige wichtige Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.2 Monotone Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.3 Die Zahl e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Konvergenz von Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.1 Konvergenz und Divergenz . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.2 Konvergenzkriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.3.3 Umordnung von Reihen . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.4 Multiplikation von Reihen . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3.5 Die Funktion exp(z) . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3 Stetigkeit und Grenzwerte von Funktionen 50


3.1 Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.1 Konvergenz im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.2 Funktionen: Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.3 Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . 56

2
INHALTSVERZEICHNIS 3

3.2.2 Eigenschaften stetiger Funktionen . . . . . . . . . . . . . . . . . . . . 58


3.2.3 Zwischenwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.4 Monotone Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.5 Gleichmäßige Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Elementare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.1 Exponential– und Logarithmusfunktion . . . . . . . . . . . . . . . . . 66
3.3.2 Potenzfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3.3 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . 69
3.3.4 Polarkoordinatendarstellung komplexer Zahlen, Wurzeln . . . . . . . 73

4 Differentialrechnung 75
4.1 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.1 Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.2 Differentiationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2 Sätze über differenzierbare Funktionen . . . . . . . . . . . . . . . . . . . . . 82
4.2.1 Mittelwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.2 Die l’Hospitalsche Regel . . . . . . . . . . . . . . . . . . . . . . . . 84
4.3 Höhere Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3.1 Satz von Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3.2 Konvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.3.3 Lokale Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

5 Integralrechnung 93
5.1 Das Riemannsche Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.1.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.1.2 Existenz und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . 95
5.2 Stammfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2.1 Hauptsatz der Differential– und Integralrechnung . . . . . . . . . . . 101
5.2.2 Grundintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.2.3 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2.4 Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.3 Integration rationaler Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 110
5.3.1 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . 110
5.3.2 Partialbruchzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3.3 Integration der auftretenden Partialbrüche . . . . . . . . . . . . . . . 118
5.4 Substitutionsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.4.1 Integration von Wurzelausdrücken . . . . . . . . . . . . . . . . . . . . 120
5.4.2 Integration trigonometrischer Funktionen . . . . . . . . . . . . . . . . 123
5.5 Einfache Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.5.1 Differentialgleichungen mit getrennten Variablen . . . . . . . . . . . . 124
5.5.2 Lineare Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . . 126
5.5.3 Lineare Differentialgleichungen 2. Ordnung . . . . . . . . . . . . . . . 128
5.5.4 Lineare Differentialgleichungen 2. Ordnung mit konstanten Koeffizienten132
4 INHALTSVERZEICHNIS

5.6 Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135


5.6.1 Approximation durch Integralsummen . . . . . . . . . . . . . . . . . 135
5.6.2 Lagrange–Interpolation . . . . . . . . . . . . . . . . . . . . . . . . 138
5.6.3 Trapezregel und Simpson–Formel . . . . . . . . . . . . . . . . . . . . 140
5.7 Uneigentliche Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
5.7.1 Konvergenz und Divergenz . . . . . . . . . . . . . . . . . . . . . . . . 142
5.7.2 Integralkriterium für Reihen . . . . . . . . . . . . . . . . . . . . . . . 146
5.7.3 Die Gammafunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

6 Differentiation von Funktionen mehrerer Variabler 149


6.1 Partielle Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.1.1 Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . 149
6.1.2 Die Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
6.2 Höhere Ableitungen und lokale Extrema . . . . . . . . . . . . . . . . . . . . 157
6.2.1 Der Satz von Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . 157
6.2.2 Der Taylorsche Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.2.3 Lokale Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
6.3 Differenzierbare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.3.1 Die Jacobische Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.3.2 Krummlinige Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . 168
Kapitel 1

Reelle und komplexe Zahlen

1.1 Reelle Zahlen


1.1.1 Zahlbereiche und Eigenschaften

Wir führen folgende Bezeichnungen ein:


Natürliche Zahlen: N := {1, 2, 3, . . .}, N0 := {0, 1, 2, . . .}

Ganze Zahlen: Z := {0, 1, −1, 2, −2, . . .}

Rationale Zahlen: Q := {r = m
n : m ∈ Z, n ∈ N}

Reelle Zahlen: R := {α : α = ±n1 n2 . . . nk , nk+1 nk+2 . . . , mit nj ∈ {0, . . . , 9}}

Rechenoperationen: Addition, Multipkikation, Subtraktion, Division

Ordnungsrelationen: <, ≤, >, ≥

Potenzen: α ∈ R, j ∈ N
α0 := 1, α1 = α, αj = αj−1 · α (j = 2, 3, . . . )
1
α−j := j , (α 6= 0)
α

Folgerung 1 α ∈ R, j, k ∈ Z (α 6= 0, falls j < 0 oder k < 0). Dann gilt:

αj+k = αj αk .

5
6 1.1 Reelle Zahlen

Das Beweisprinzip der vollständigen Induktion

Axiom: Für jedes n ∈ N sei A eine Aussage über die Zahl n. Ist A(1) richtig und folgt aus
der Richtigkeit von A(n) die Richtigkeit von A(n + 1), so ist A(n) für alle n ∈ N richtig.

Bemerkung:
Eine äquivalente Formulierung des Axioms lautet:
Es sei S ⊂ N mit
(1) 1 ∈ S, (2) n ∈ S ⇒ n + 1 ∈ S.
Dann ist S = N.

Als Beispiel betrachten wir den Beweis des Binomischen Satzes. Dazu führen wir noch zwei
Begriffe ein.
Fakultät: Es sei n ∈ N0 .
0! := 1
n+1
Q
(n + 1)! := n!(n + 1) = j = 1 · 2 · . . . · n · (n + 1)
j=1

Bemerkung:
Es gibt genau n! verschiedene bijektive Abbildungen A −→ A (vgl. Definition 3.1.1/1), wobei
A eine Menge mit n Elementen ist.
Binomialkoeffizienten: n, k ∈ N0
 
n
:= 1
0
 
n n! n(n − 1) · · · (n − k + 1)
:= =
k k!(n − k)! 1 · 2 · ... · k

Bemerkungen:
(1) Jede n–elementige Menge besitzt genau nk verschiedene k–elementige Teilmengen.


(2) Es gilt (Bildungsgesetz im Pascal’schen Dreieck):


     
n n n+1
+ = .
k−1 k k

(3) Es gilt folgende Symmetrieeigenschaft:


   
n n
= .
k n−k
1.1.1 Zahlbereiche und Eigenschaften 7

(4) Pascalsches Dreieck:


(a + b)0 1
1
(a + b) 1 1
2
(a + b) 1 2 1
(a + b)3 1 3 3 1
4
(a + b) 1 4 6 4 1
(a + b)5 1 5 10 10 5 1
Binomischer Satz: Es seien a, b ∈ R, n ∈ N. Dann gilt:
n  
n
X n n−k k
(a + b) = a b .
k=0
k

Beweis: Durch vollständige Induktion.


Die Aussage ist für n = 1 richtig:
   
1 1 1
(a + b) = a + b = a+ b.
0 1
Es gelte
n  
n
X n
(a + b) = an−k bk
k=0
k
Wir zeigen, daß damit die Aussage auch für n + 1 richtig ist.

(a + b)n+1 = (a + b)(a + b)n

n   n  
X n n+1−k k
X n
= a b + an−k bk+1
k=0
k k=0
k
n   n+1  
X n X
n+1−k k n
= a b + an−(k−1) bk
k=0
k k=1
k−1
  n      
n n+1 X n n n+1−k k n n+1
= a + + a b + b
0 k=1
k k − 1 n
  n    
n + 1 n+1 X n + 1 n+1−k k n + 1 n+1
= a + a b + b
0 k=1
k n + 1
nach Bemerkung (2)

n+1  
X n+1
= an+1−k bk
k=0
k
8 1.1 Reelle Zahlen

2
Folgerungen: Durch spezielle Wahl von a, b erhalten wir
(1)
n  
n n
X n
2 = (1 + 1) = ,
k=0
k

(2)
n  
n
X n n
0 = (1 − 1) = (−1) .
k=0
k

Abzählbarkeit: M sei eine Menge.

M heißt endlich :⇐⇒ ∃n ∈ N, ∃ bijektive Abbildung ϕ : {1, . . . , n} −→ M


M heißt abzählbar unendlich :⇐⇒ ∃ bijektive Abbildung ϕ : N −→ M
M heißt abzählbar :⇐⇒ M ist endlich oder abzählbar unendlich.
Bemerkung: ϕ heißt auch „Abzählung“, ϕ−1 „Numerierung“.
Beispiele:

(1) N, Z sind abzählbar unendlich.

(2) Ist M eine Teilmenge von N, so ist M abzählbar unendlich oder endlich.

Jede Teilmenge einer abzählbaren Menge ist abzählbar.

(3) N × N ist abzählbar.

Sind M1 und M2 abzählbar, so ist auch M1 × M2 abzählbar.

(4) Die rationalen Zahlen sind abzählbar unendlich.


 
nj
A := : nj ∈ Z, mj ∈ N
mj

Also ist Q ⊂ A, und A ist abzählbar mit dem Cantorschen Diagonalverfahren:


1.1.1 Zahlbereiche und Eigenschaften 9

@ Z ...
n1 n2 n3 n4
N@@
m1 n1 m1
n2
m1
n3
m1
...

n1 n2 ..
m2 m2 m2 .
n1 ..
m3 m3 .
m4 ..
.
..
.

(5) R ist überabzählbar, d.h. nicht abzählbar.


Es sei M = {a : a ∈ R, 0 < a < 1} Annahme: M ist abzählbar.
Dann ist M darstellbar als M = {a1 , a2 , . . .} mit

a1 = 0, a11 a12 a13 . . .


a2 = 0, a21 a22 a23 . . .
..
.
aj = 0, aj1 aj2 aj3 . . . . . . ajj
..
.

Wir konstruieren b := 0, b1 b2 b3 . . . bj . . . mit bj 6= ajj . Dann ist b ∈ M und b 6= aj für


alle j. Das ist aber ein Widerspruch.

Betrag und Abstand reeller Zahlen

Betrag: Sei x ∈ R.

x x≥0
|x| := heißt Betrag von x.
−x x<0

Abstand: x, y ∈ R.

d(x, y) := |x − y| heißt Abstand von x und y.

Lemma 1 (Eigenschaften des Betrages) Es seien x, y ∈ R, a ≥ 0. Dann gilt:

(i) |x| ≥ 0, |x| = 0 ⇐⇒ x = 0.


10 1.1 Reelle Zahlen

(ii) |x| ≤ a ⇐⇒ −a ≤ x ≤ a.

(iii) |x · y| = |x||y|.

(iv) |x + y| ≤ |x| + |y| (Dreiecksungleichung).



(v) |x| − |y| ≤ |x + y|.

Beweis: (i) |x| ≥ 0 folgt unmittelbar aus der Definition des Betrages. Ist x = 0, so ist auch
|x| = 0. Es sei |x| = 0. Wir nehmen an, es gelte x > 0 und erhalten |x| = x > 0. Das ist
aber ein Widerspruch zur Voraussetzung. Unter der Annahme x < 0 gelangen wir analog
zum Widerspruch |x| = −x > 0.
(ii) „=⇒“: Es sei |x| ≤ a. Wir machen eine Fallunterscheidung:
1.Fall: Ist x ≥ 0, so gilt |x| = x ≤ a.
2.Fall: Ist x < 0, so gilt |x| = −x ≤ a bzw. −a ≤ x.
Zusammengefaßt erhalten wir −a ≤ x ≤ a.
„⇐=“: Aus x ≤ a folgt |x| ≤ a, aus x ≥ −a folgt ebenfalls |x| ≤ a.
(iii) Wir führen wieder eine Fallunterscheidung durch.
1.Fall: x ≥ 0, y ≥ 0. Damit ist x · y ≥ 0 sowie |x| = x und |y| = y, und wir erhalten:
|x · y| = x · y = |x||y|.

2.Fall: x < 0, y ≥ 0. Wegen |x| = −x und |y| = y gilt: |x||y| = −xy .


|xy| ist ebenfalls −xy, da xy < 0.

3.Fall: x < 0, y < 0. Es gilt: |x||y| = (−x)(−y) = xy.


Außerdem ist |xy| = xy, da xy > 0.
(iv) Wegen (ii) gilt:
−|x| ≤ x ≤ |x| ,

−|y| ≤ y ≤ |y| .

Daraus folgt: −(|x| + |y|) ≤ x + y ≤ |x| + |y|.


Nochmalige Anwendung von (ii) ergibt schließlich: |x + y| ≤ |x| + |y|.
(v) Mit Hilfe der Dreiecksungleichung erhalten wir:

1. |x| ≤ |x + y − y| ≤ |x + y| + |y|,

2. |y| ≤ |x + y − x| ≤ |x + y| + |x|.
2. 1.
Also gilt: −|x + y| ≤ |x| − |y| ≤ |x + y|, und wegen (ii) ergibt sich |x| − |y| ≤ |x + y|. 2

1.1.2 Häufungspunkte und Grenzwerte 11

1.1.2 Häufungspunkte und Grenzwerte


Intervalle: Es seien a, b ∈ R oder a = −∞, b = ∞. Wir unterscheiden folgende Arten von
Intervallen:
(a, b) := {x : x ∈ R, a < x < b} offenes Intervall
(a, b] := {x : x ∈ R, a < x ≤ b} halboffenes Intervall (b < ∞)
[a, b) := {x : x ∈ R, a ≤ x < b} halboffenes Intervall (a > −∞)
[a, b] := {x : x ∈ R, a ≤ x ≤ b} abgeschlossenes Intervall
Die Menge Uε (x) := {x : |x − x0 | < ε} = (x0 − ε, x0 + ε) heißt (offene) ε–Umgebung von x0 .

Definition 1 Es sei M eine beliebige Menge reeller Zahlen. x0 ∈ R heißt Häufungspunkt


von M , falls in jedem offenen Intervall (a, b) mit x0 ∈ (a, b) (∼ in jeder ε–Umgebung von
x0 ) unendlich viele Elemente aus M liegen.

Beispiele: · Eine endliche Menge besitzt keine Häufungspunkte (HP).


· M = {x : x = 1j , j = 1, 2, . . .} : x = 0 ist einziger HP.
· M = (0, 1) : Die Menge aller HP ist das Intervall [0, 1].

Definition 2 Eine Menge M , M ⊂ R, heißt beschränkt, falls es eine reelle Zahl c > 0 gibt,
so daß für jedes x ∈ M gilt: |x| ≤ c.

Bemerkung: Ist M beschränkt mit der Schranke c, so gilt: M ⊂ [−c, c].


Axiom (Ordnungsvollständigkeit, OM): Jede unendliche beschränkte Menge reeller Zahlen
besitzt mindestens einen Häufungspunkt. (OM)
Bemerkungen:

(1) Dieses Axiom ist als Satz von Bolzano und Weierstraß bekannt.

(2) Intervallschachtelung („Wie man einen HP findet“):


Halbierungsverfahren:

I0 = [−c, c] enthält unendlich viele Elemente


I1 = [a1 , c] –“ –
I2 = [a1 , a2 ] –“ –
I3 = [a3 , a2 ] –“ –
I4 = [a3 , a4 ] –“ –
.. ..
. .
Hierbei ist aj der Mittelpunkt von Ij−1 .
12 1.1 Reelle Zahlen

Äquivalente Formulierung des Axioms


Folge: Eine Abbildung (Funktion)

a : N −→ R (j 7−→ aj )

heißt Folge reeller Zahlen, sie wird mit {aj }∞


j=1 oder auch {a1 , a2 , . . .} bezeichnet. Die Bilder
(Funktionswerte) aj der Folge nennen wir Glieder der Folge.
Beachte: Im Unterschied zur Menge {a1 , a2 , . . .} sind die Glieder aj einer Folge nicht not-
wendig paarweise verschieden.
Teilfolge: Mit Hilfe einer injektiven Abbildung ϕ : N −→ N mit ϕ(k) = jk und ϕ(k) < ϕ(k+1)
wählen wir abzählbar unendlich viele natürliche Zahlen aus.
{xjk }∞ ∞
k=1 heißt Teilfolge von {xj }j=1 .

z.B. ϕ(k) = 2k; 2k + 1; 4k + 7; k 2 ; . . .

Definition 3 Eine Folge {xj }∞


j=1 ⊂ R konvergiert gegen ein x ∈ R, falls außerhalb jeder
ε–Umgebung von x höchstens endlich viele Glieder der Folge liegen.
Bezeichnung: x = lim xj oder xj −→ x (j −→ ∞) „xj strebt gegen x für j gegen ∞“.
j→∞

x heißt dann Grenzwert oder Limes der Folge. Wir sagen


{xj } ist konvergent :⇐⇒ Es existiert ein x ∈ R mit x = lim xj .
j→∞

Definition 3 kann wie folgt umformuliert werden:

x = lim xj ⇐⇒ ∀ε > 0 ∃j(ε) ∈ N ∀j > j(ε) =⇒ xj ∈ Uε (x)


j→∞
⇐⇒ ∀ε > 0 ∃j(ε) ∈ N ∀j > j(ε) =⇒ |xj − x| < ε.

Lemma 2 (i) Sei {xj } ⊂ R mit xj −→ x.


Dann gilt für jede Teilfolge {xjk } : xjk −→ x (k −→ ∞).

(ii) Es sei M ∈ R eine unendliche Menge, x sei Häufungspunkt von M . Dann existiert
eine Folge {xj }∞
j=1 , xj ∈ M, xj 6= xk mit xj −→ x (j −→ ∞)
(Auswahl einer Folge aus M , die gegen x konvergiert)

Beweis:

(i) Es gilt: |xjk − x| < ε für alle jk ≥ j(ε).


1.1.2 Häufungspunkte und Grenzwerte 13

(ii) Es sei x Häufungspunkt von M . Dann existieren in jeder Umgebung (x − 1j , x + 1j ),


j ∈ N, von x unendlich viele (voneinander verschiedene) Elemente aus M .
Wir wählen x1 ∈ M, so daß x1 ∈ (x − 1, x + 1)
x2 ∈ M, so daß x2 ∈ (x − 12 , x + 12 ) und x2 6= x1
..
.
xj ∈ M, so daß xj ∈ (x − 1j , x + 1j ) und xj 6= xk für k < j
Die so konstruierte Folge {xj } konvergiert gegen x.2
Definition 4 Die Folge {xj }∞
j=1 heißt beschränkt, falls es ein c > 0 gibt, so daß |xj | ≤ c gilt
für alle j ∈ N.
Bemerkung: Jede konvergente Folge ist auch beschränkt. Das sieht man wie folgt: Es sei
x = lim xj . Wir wählen ε = 1. Dann gibt es ein j0 = j(1), so daß |xj − x| ≤ 1 für j ≥ j0 .
Daraus folgt unter Anwendung der Dreiecksungleichung

|xj | = |xj − x + x| ≤ |xj − x| + |x| ≤ 1 + |x| für j ≥ j0 ,


und wir erhalten

|xj | ≤ max{1 + |x|, |x1 |, . . . , |xj0 −1 |} = c für alle j.


Damit ist eine Schranke für die Folge {xj } gefunden.
Satz 1 (OF) Folgende Aussage ist äquivalent zu obigem Axiom (OM):
Jede beschränkte Folge reeller Zahlen besitzt eine konvergente Teilfolge.
Beweis: 1. Schritt: Wir zeigen (OM) =⇒ (OF).
Es sei {xj }∞
j=1 beschränkt, und es gelte (OM).
1.Fall: Es existieren nur endlich viele voneinander verschiedene xj .
Dann gibt ein x und eine Folge {jk } mit j1 < j2 < . . . , so daß xjk = x. Die Folge {xjk } ist
eine konvergente Teilfolge von {xj }.
2.Fall: Es existieren unendlich viele voneinander verschiedene xj .
Dann gibt es eine Folge {jk }, j1 < j2 < . . . < jk < jk+1 < . . . mit xjk 6= xjl für k 6= l. Die
Menge
M := {xjk : k ∈ N}
ist beschränkt und unendlich. Wegen der Gültigkeit von (OM) hat M mindestens einen
Häufungspunkt. Nach Lemma 1.2/2(ii) existiert damit eine konvergente Teilfolge.
2. Schritt: Wir zeigen (OF) =⇒ (OM):
Es sei M beschränkt und unendlich, und es gelte (OF). Wir wählen eine abzählbare Teilmenge
M 0 ⊂ M, M 0 = {x1 , x2 , . . .} und betrachten die Folge {xj } mit xj 6= xk für j 6= k. {xj } ist
beschränkt, da M beschränkt ist. Wegen (OF) existiert eine konvergente Teilffolge {xjk } mit
xjk −→ x (k −→ ∞)
Damit ist x ein Häufungspunkt von M.2
14 1.1 Reelle Zahlen

1.1.3 Supremum und Infimum


Definition 5 (i) Eine Menge M ⊂ R heißt beschränkt nach oben (unten), falls es eine
Zahl c ∈ R gibt, so daß x ≤ c (c ≤ x) für alle x ∈ M gilt. Die Zahl c heißt dann obere
(untere) Schranke von M .

(ii) Die kleinste obere (größte untere) Schranke von M heißt Supremum (Infimum) von M .

Schreibweise: sup M, sup x, inf M, inf x


x∈M x∈M

Bemerkungen: Es gilt:
(1) c = sup M ⇐⇒ (i) x ≤ c für alle x ∈ M
(ii) Für alle oberen Schranken C gilt: c ≤ C.

(2) Es existiert höchstens ein Supremum (Infimum).

(3) sup M = − inf{x : −x ∈ M }, inf M = − sup{x : −x ∈ M }

(4) Wir setzen


c = max M :⇐⇒ c = sup M und c ∈ M.
Analog wird min M definiert.

Lemma 3 Sei M ⊂ R.

c = sup M ⇐⇒ (i) x ≤ c für alle x ∈ M


(ii) ∀ε > 0 ∃x ∈ M mit c − ε < x ≤ c

Beweis:„=⇒“:
(i) ist klar, da c obere Schranke von M ist. Wir nehmen an, (ii) gilt nicht. Dann existiert ein
ε > 0, und für alle x ∈ M gilt:
x≤c−ε
Damit ist auch c − ε obere Schranke von M . Das ist aber ein Widerspruch, da c schon die
kleinste obere Schranke ist und c − ε < c.
„⇐=“:
Wegen (i) ist c obere Schranke. Wir nehmen an, c ist nicht die kleinste obere Schranke von
M . D.h. es existiert ein c0 < c mit x ≤ c0 für alle x ∈ M (∗). Wir wählen nun ein ε mit
c0 < c − ε < c. Wegen (ii) gibt es ein x ∈ M mit c − ε < x ≤ c. Das ist ein Widerspruch zur
Aussage (∗).2
Beispiele: · sup(0, 1) = sup[0, 1] = 1
· inf{ 1j : j ∈ N} = 0
Bemerkung: Es sei c = sup M kein Element der Menge M . Dann ist c ein Häufungspunkt
von M , und es existiert eine Folge {xj } von Elementen aus M , die gegen c konvergiert. Eine
analoge Aussage glt für das Infimum.
1.1.3 Supremum und Infimum 15

Satz 2 Jede nichtleere nach oben (nach unten) beschränkte Menge reeller Zahlen besitzt
genau ein Supremum (Infimum).

Beweis: Wegen Bemerkung (3) ist es ausreichend, die Aussage für das Supremum zu beweisen.
Es sei M ⊂ R, M 6= ∅ eine nach oben beschränkte Menge. c sei obere Schranke:
1.Fall: Es gibt ein y ∈ M mit x ≤ y für alle x ∈ M . Dann ist y Supremum von M :
y = sup M.
2.Fall: Es existiert kein größtes Element, d.h. M ist eine unendliche Menge. Es sei x0 ein Ele-
ment von M . Dann liegen unendlich viele Elemente von M in dem abgeschlossenen Intervall
[x0 , c]. Wir setzen
I0 := [x0 , c].
Nun halbieren wir I0 und setzen

rechtes Teilintervall, falls dort Elemente von M
I1 :=
linkes Teilintervall, sonst
..
. 
rechte Hälfte von Ij−1 , falls dort Elemente aus M
Ij :=
linke Hälfte von Ij−1 , sonst

Außerdem sei βj der Mittelpunkt von Ij . Die Menge der Intervallmittelpunkte

B := {βj : j = 0, 1, . . .}

ist beschränkt und unendlich. Nach dem Vollständigkeitsaxiom (OM) existiert mindestens
ein Häufungspunkt β von B. Es gilt:

I0 ⊃ I1 ⊃ I2 ⊃ . . . ⊃ Ij ⊃ Ij+1 ⊃ . . . ,

d.h.
β ∈ Ij für alle j.
c − x0
Die Intervallänge von Ij ist und wird beliebig klein für j −→ ∞. Außerdem liegen
2j
nur endlich viele βk außerhalb von Ij . Damit ist β einziger Häufungspunkt, und es gilt:

β = lim βj .
j→∞

β ist obere Schranke von M : Wir nehmen an, es existiere ein α ∈ M mit α > β. Dann gibt
es ein Intervall Ij mit α > γ für alle γ ∈ Ij . Das ist aber ein Widerspruch zur Konstruktion.
β ist kleinste obere Schranke: Wir nehmen an, es gibt eine obere Schranke β 0 , die kleiner
ist als β. Dann gibt es ein Ij mit β 0 6∈ Ij . Das ist ein Widerspruch, da es ein x gibt mit
x ∈ (M ∩ Ij ).2
Bemerkung: M sei beschränkt. Dann gilt: M ist nach oben und nach unten beschränkt,
und es existieren sup M und inf M .
16 1.1 Reelle Zahlen

1.1.4 Existenz von Wurzeln aus reellen Zahlen



Vorbemerkung: 2 ist keine rationale Zahl, d.h. ist irrational:
Beweis: Annahme: Es existieren zwei Zahlen p, q ∈ Z, die keine gemeinsamen Teiler haben,
und für die gilt:  2
p
=2
q
Wegen p2 = 2q 2 , ist p2 gerade, und damit ist p auch gerade: p = 2k. Es gilt somit:

4k 2 = 2q 2 bzw. 2k 2 = q 2

Also ist auch q 2 und damit q eine gerade Zahl: q = 2l. Das ist ein Widerspruch, da p und q
keine gemeinsamen Teiler haben.2

Definition 6 n ∈ N, a ∈ R a > 0.
Eine reelle Zahl x ≥ 0 heißt n–te Wurzel aus a, falls gilt: xn = a.

Bemerkungen:
(1) Die Definition ist sinnvoll, denn es existiert höchstens eine n–te Wurzel: Wir nehmen
an, x1 und x2 seien n–te Wurzeln aus a mit x1 < x2 . Also gilt

0 < xn1 < xn2 ,

und somit wäre a < a;. Das ist aber ein Widerspruch.

(2) Problem: Gibt es ein x mit xn = a ?


√ 1
(3) Schreibweise: x = n a = a n

Lemma 4 n ∈ N, 0 < ε < 1. Dann gilt:

(1 + ε)n < 1 + 3n ε

Beweis: Wir beweisen die Aussage durch vollständige Induktion. Die Behauptung ist für
n = 1 richtig:
1 + ε < 1 + 3ε
Es gelte:
(1 + ε)n < 1 + 3n ε
Daraus folgt

(1 + ε)n+1 = (1 + ε)n (1 + ε) < (1 + 3n ε)(1 + ε)


= 1 + 3n ε2 + 3n ε + ε = 1 + ε(3n ε + 3n + 1) < 1 + ε(3n + 3n + 3n )
= 1 + 3n+1 ε
1.1.4 Existenz von Wurzeln aus reellen Zahlen 17

2
Bemerkung: Es gilt sogar (n ∈ N, 0 < ε < 1) :

(1 + ε)n < 1 + (2n − 1)ε.


Der Beweis verwendet den Binomischen Satz:
n  
n
X n
(1 + ε) = εk
k=0
k
n  
X n
< 1+ε
k=1
k
n
= 1 + (2 − 1)ε.
Satz 3 (i) a ≥ 0, n ∈ N . Es existiert genau ein x ∈ R, x ≥ 0 mit xn = a.

n √ √
(ii) Es gilt für a, b ≥ 0 : a·b= na· nb
Beweis: 1. Schritt: Wir zeigen (i). Die Eindeutigkeit folgt aus Bemerkung (i). Ist a = 0, so
ist auch x = 0. Es sei a > 0, n ≥ 2. Wir definieren
E := {t ∈ R : t > 0, tn < a}
a
E ist nicht leer, da t0 = ∈ E : t0 ist kleiner als 1, deshalb gilt
1+a
a
tn0 < t0 = < a.
a+1
Für t ∈ E gilt: t < 1 + a, denn, ist t > 1, so gilt: t < tn < a. Damit ist E nach oben
beschränkt und besitzt nach Satz 1.1/2 ein Supremum x = sup E mit x ≥ t0 > 0.
Wir zeigen jetzt xn = a. Wir nehmen zunächst an, xn < a. Für 0 < ε < 1 gilt nach Lemma
1.1/4
xn (1 + ε)n < xn (1 + 3n ε) = xn + (3x)n ε < a,
falls
n n a − xn
(3x) ε < a − x bzw. ε < = ε0
(3x)n
Mit x0 = x(1 + ε) haben wir ein Element von E gefunden (denn (x0 )n < a), das größer ist
als x. Das ist ein Widerspruch zu x = sup E.
x
Wir nehmen jetzt an, xn > a. Für 0 < ε < 1 gilt: 1+ε < x. Da x = sup E, gibt es ein t ∈ E
x
mit 1+ε < t ≤ x, und es gilt:
 n
x
< tn < a.
1+ε
Andererseits gilt nach Lemma 1.1/4:
xn xn
> > a,
(1 + ε)n 1 + 3n ε
18 1.1 Reelle Zahlen

falls
xn − a
ε<
3n a
n
Das ist aber ein Widerspruch. Also ist x = a.
2. Schritt: (ii) folgt aus
√ √ n
( n a · b)n = a · b
und der Eindeutigkeit.2

n
q
1 √ q
1
Bemerkung: Es gilt: 1 = 1= n
a· a
= n
a· n
a
Damit folgt: r
n 1 1
= √
a n
a
√ 1 1
Schreibweise: n
a = an , a− n = 1
1
an
1.2. KOMPLEXE ZAHLEN 19

1.2 Komplexe Zahlen


1.2.1 Definition und Eigenschaften
Bemerkung: Im Bereich der reellen Zahlen ist es nicht möglich, Wurzeln aus negativen
Zahlen zu ziehen. Deshalb wird nun eine Zahlbereichserweiterung vorgenommen.

Definition 1 (i) Es seien a, b ∈ R. Das geordnete Zahlenpaar (a, b) heißt komplexe Zahl.
C bezeichnet die Menge aller komplexen Zahlen.

(ii) z1 = (a1 , b1 ) und z2 = (a2 , b2 ) seien zwei komplexe Zahlen. Wir setzen

z1 + z2 := (a1 + a2 , b1 + b2 ) Addition
z1 z2 := (a1 a2 − b1 b2 , a1 b2 + a2 b1 ) Multiplikation

Bemerkung: Summe und Produkt zweier komplexer Zahlen sind wieder komplexe Zahlen:
z1 + z2 ∈ C, z1 · z2 ∈ C. Es gilt:

(x1 , 0) + (x2 , 0) = (x1 + x2 , 0)


z + (0, 0) = z

(x1 , 0)(x2 , 0) = (x1 x2 , 0)


z · (1, 0) = (x · 1, y · 1) = (x, y) = z

(0, 1)(0, 1) = (−1, 0)

Satz 1 z1 , z2 , z3 ∈ C. Dann gilt:

(i) z1 + z2 = z2 + z1 Kommutativgesetz der Addition


z1 z2 = z2 z1 Kommutativgesetz der Multiplikation

(ii) (z1 + z2 ) + z3 = z1 + (z2 + z3 ) Assoziativgesetz der Addition


(z1 z2 )z3 = z1 (z2 z3 ) Assoziativgesetz der Multiplikation

(iii) (z1 + z2 )z3 = z1 z3 + z2 z3 Distributivgesetz

Beweis: Durch Anwenden der Definition für Addition und Multiplikation komplexer Zahlen
sowie der entsprechenden Gesetze aus dem Breich der reellen Zahlen ergeben sich leicht die
Kommutativgesetze und das Assoziativgesetz der Addition. Wir zeigen das Assoziativgesetz
20 1.2 Komplexe Zahlen

der Multiplikation und das Distributivgesetz.

(z1 z2 )z3 = (x1 x2 − y1 y2 , x1 y2 + x2 y1 )(x3 , y3 )


 
= (x1 x2 − y1 y2 )x3 − (x1 y2 + x2 y1 )y3 , (x1 x2 − y1 y2 )y3 + (x1 y2 + x2 y1 )x3
 
= x1 (x2 x3 − y2 y3 ) − y1 (x2 y3 + x3 y2 ), x1 (x2 y3 + x3 y2 ) + y1 (x2 x3 − y2 y3 )
= (x1 , y1 )(x2 x3 − y2 y3 , x2 y3 + x3 y2 )
= z1 (z2 z3 )

(z1 + z2 )z3 = (x1 + x2 , y1 + y2 )(x3 , y3 )


 
= (x1 + x2 )x3 − (y1 + y2 )y3 , (x1 + x2 )y3 + (y1 + y2 )x3
 
= (x1 x3 − y1 y3 ) + (x2 x3 − y2 y3 ), (x1 y3 + x3 y1 ) + (x2 y3 + x3 y2 )
= z1 z3 + z2 z3

Bemerkung: Natürliche Potenzen komplexer Zahlen werden wie folgt definiert: Sei j ∈ N.
Dann setzen wir:
z j := z · z j−1 , z 0 := (1, 0)
Es gilt: z j+k = z j z k .

1.2.2 Konjugierte Elemente, Subtraktion, Division


Definition 2 Es sei z = (x, y) ∈ C.
z := (x, −y) heißt konjugierte Zahl zu z.
−z := (−x, −y)

Bemerkung: Wir führen folgende Schreibweise ein: z1 + (−z2 ) = z1 − z2 .


(0, 0) ist das neutrale Element der Addition.
(1, 0) ist das neutrale Element der Multiplikation.

Satz 2 (i) z1 , z2 ∈ C. Es existiert genau ein w ∈ C mit

z1 + w = z2 ,

und es gilt: w = z2 + (−z1 )


1.2.2 Konjugierte Elemente, Subtraktion, Division 21

(ii) Es sei z = (a, b) 6= (0, 0). Dann existiert genau ein w ∈ C mit

z · w = (1, 0).

Es gilt:
       
1 1 1 a b
w= ·z = , 0 · (a, −b) = ,0 z = ,−
zz a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2

(iii) Es sei z1 6= (0, 0). Dann existiert genau eine Lösung w mit z1 · w = z2 . Es gilt:
 
1
w= , 0 z1 z2
a2 + b 2

Beweis:

(i) z1 + w = z2 mit w = (x, y) ist gleichbedeutend mit

a1 + x = a2 x = a2 − a1
bzw.
b1 + y = b2 y = b2 − b1

Das heißt aber nichts anderes als w = z2 + (−z1 ).

(ii) Es existiere ein w mit z · w = (1, 0). Dann gilt:

(a, −b) = z = z · z · w
= (a2 + b2 , 0) · (x, y)
 
= (a2 + b2 )x, (a2 + b2 )y .

Daraus folgt:  
a b
(x, y) = , − .
a2 + b 2 a2 + b 2
Die obige Gleichungskette ergibt sich von rechts gelesen durch Anwendung der bereits
bekannten Rechenregeln der Multiplikation von komplexen Zahlen. Die Umkehrung
erhält man durch Einsetzen von w = (x, y) in die Gleichung z · w = (1, 0):

a2 b2
   
a b ab ab
(a, b) · ,− = + ,− + = (1, 0)
a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2

(iii) Es sei z1 · w = z2 mit z1 = (a1 , b1 ). Wegen (ii) existiert ein w1 mit


 
a1 b1
z1 · w1 = (1, 0) und ,− .
a21 + b21 a21 + b21
22 1.2 Komplexe Zahlen

Daraus folgt

z1 · w = z2 · z1 · w1
w = w1 · z2
 
1
w = , 0 z1 z2 (nach (ii)).
a2 + b 2

Die Umkehrung erhalten wir wieder durch Einsetzen in die obige Gleichung.2

Vereinbarung:

(i) Es sei c ∈ R. Wir setzen c = (c, 0) ∈ C. In diesem Sinne ist R ⊂ C. Wir definieren
außerdem: c · z := (ca, cb)

(ii) Es gilt:

z · z = a2 + b 2
 
1 1 1
z 6= 0 = z −1 := 2 2
,0 z = ·z
z a +b zz
z2 z2 z 1 1
z1 6= 0 = = z2 z 1
z1 z1 z 1 z1 z 1
|{z}
reell

(iii) Negative Potenzen: z −j := z −1 z −j+1 . Also gilt für alle j, k ∈ Z : z j+k = z j z k .

Bemerkung: Es gilt:
z1 z2 = z 1 z 2

z1 + z2 = z 1 + z 2
 
1 1
=
z z

1.2.3 Normaldarstellung, Betrag, Abstand


Definition 3 Es seien z, z1 , z2 ∈ C.
1
(i) z = (x, y) ∈ C. |z| := (x2 + y 2 ) 2 heißt Betrag von z.

(ii) z1 , z2 ∈ C. ρ(z1 , z2 ) := |z1 − z2 | heißt Abstand von z1 und z2 .

Satz 3 Es seien z, z1 , z2 ∈ C. Dann gilt:


1.2.3 Normaldarstellung, Betrag, Abstand 23

1
(i) |z| = (z · z) 2

(ii) |z| ≥ 0, |z| = 0 ⇐⇒ z = 0

(iii) |z1 z2 | = |z1 ||z2 |

(iv) |z1 + z2 | ≤ |z1 | + |z2 |



(v) |z1 | − |z2 | ≤ |z1 + z2 |

Beweis:

(i) z · z = (a, b)(a, −b) = (a2 + b2 , 0) = |z|2

(i) (i)
(ii) |z1 z2 |2 = z1 z2 · z1 z2 = z1 z1 · z2 z2 = |z1 |2 |z2 |2 .

(iii) |z| ≥ 0 folgt aus der Definition. Ist |z| = 0, so ist a2 + b2 = 0. Damit ist a = 0 und
b = 0 und somit z = 0. Aus z = 0 = (0, 0) folgt unmittelbar |z| = 0.

(iv) Es seien z1 = (a1 , b1 ) und z2 = (a2 , b2 ). Es gilt:

|z1 + z2 |2 = (z1 + z2 )(z1 + z2 )


= (z1 + z2 )(z1 + z2 )
= z1 z1 + z1 z2 + z2 z1 + z2 z2
= |z1 |2 + |z2 |2 + z1 z2 + z1 z2

Wir berechnen

z1 z2 + z1 z2 = (a1 a2 + b1 b2 , −b1 a2 − b2 a1 ) + (a1 a2 + b1 b2 , b1 a2 + b2 a1 )


= 2(a1 a2 + b1 b2 , 0)
= 2(a1 a2 + b1 b2 )
≤ 2|z1 z2 |,

und erhalten
|z1 + z2 |2 ≤ (|z1 | + |z2 |)2 .

(v) Diese Ungleichung wird wie früher in Lemma 1.1/1 bewiesen.2

Bemerkungen:

(1) {z : |z − z0 | < r} ∼ Kreis um z0 mit Radius r.


24 1.2 Komplexe Zahlen

(2) Geometrische Deutung der Multiplikation: Es seien z1 und z2 zwei komplexe Zahlen
mit Abstand ri vom Ursprung und den Winkeln ϕi , i = 1, 2 mit der x–Achse. Dann
gilt:

z1 = (r1 cos ϕ1 , r1 sin ϕ1 ) 0 ≤ ϕi < 2π


z2 = (r2 cos ϕ2 , r2 sin ϕ2 ) ri = |zi |
z1 z2 = r1 r2 (cos ϕ1 cos ϕ2 − sin ϕ1 sin ϕ2 , sin ϕ1 cos ϕ2 + cos ϕ1 sin ϕ2 )
= |z1 ||z2 |(cos (ϕ1 + ϕ2 ), sin (ϕ1 + ϕ2 ))

Das heißt, bei der Multiplikation komplexer Zahlen wird das Produkt der Beträge
gebildet, und die Winkel mit der reellen Achse werden addiert.

Definition 4 (i) z = (a, b) ∈ C

Re z := a Realteil von z
Im z := b Imaginärteil von z

(ii) i := (0, 1) heißt imaginäre Einheit.

Satz 4 Es sei z ∈ C. Dann gilt:

(i) z = Re z + i Im z
z+z z−z
(ii) Re z = , Im z =
2 2i
1
(iii) i2 = −1 , = −i
i
(iv) |z| ≤ |Re z| + |Im z|

|Re z| ≤ |z|
|Im z| ≤ |z|

Beweis: (i) Wir betrachten z = (a, b) ∈ C als Element der Gaußschen Zahlenebene. Mit
der Einheit 1 auf der reellen Achse und der Einheit i auf der imaginären Achse können wir
z wie einen Vektor des R2 zusammensetzen, und wir erhalten:

z = a + ib = Re z + iIm z

(ii) Wegen z = (a, −b) gilt:

z+z a + ib + a − ib 2a
= = = a = Re z
2 2 2
z−z a + ib − a + ib 2ib
= = = b = Im z
2i 2 2i
1.2.3 Normaldarstellung, Betrag, Abstand 25

(iii) Nach Definition von i und der Multiplikation komplexer Zahlen gilt:

i2 = (0, 1) · (0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = (−1, 0) = −1

Weiterhin gilt:  
1 1
= , 0 i = (1, 0)(0, −1) = (0, −1) = −i
i a2 + b 2
(iv) Aus der Dreiecksungleichung folgt:

|z| = |a + ib| ≤ |a| + |b| = |Re z| + |Im z|. 2

Bemerkung: Rechnen mit komplexen Zahlen

(1 + 2i) · (3i)
a + ib = ∈ C, a, b = ?
5i − 3
(3i + 6i2 )(−5i − 3) −(3i − 6)(3 + 5i)
= 2
=
|5i − 3| 34
−(9i − 30i − 18 − 15) 33 + 21i
= =
34 34
Kapitel 2

Konvergenz von Folgen und Reihen

2.1 Folgen komplexer Zahlen


2.1.1 Eigenschaften konvergenter Folgen
Definition 1 Es sei {zj }∞
j=1 eine Folge komplexer Zahlen.

(i) {zj } heißt konvergent :⇐⇒ ∃ z ∈ C und ∀ ε > 0 ∃ j0 (ε) ∈ N,


so daß ∀j ≥ j0 (ε) gilt: |z − zj | ≤ ε.

(ii) z heißt Grenzwert (Limes) der Folge. Wir verwenden folgende Schreibweisen:

z = lim zj und zj −→ z (j −→ ∞).


j→∞

Bemerkungen:

(1) ε–Umgebung von z entspricht einem Kreis um z mit Radius ε. Außerhalb jeder ε–
Umgebung von z liegen nur endlich viele Glieder der Folge.

(2) {zj } konvergiert gegen z genau dann wenn {zj − z} gegen 0 konvergiert, das heißt
genau dann wenn {zj − z} eine Nullfolge ist. Um die Konvergenz nachzuweisen ist es
somit ausreichend, eine Nullfolge cj zu finden so daß für hinreichend große j ∈ N

|zj − z| ≤ cj

gilt.

(3) Es seien {xj } und {yj } reelle Folgen und z = x + iy. Wir setzen:

zj = Re zj + iIm zj = xj + iyj

Es gilt: |xj − x| ≤ |zj − z| ≤ |xj − x| + |yj − y|


|yj − y| ≤ |zj − z|

26
2.1.1 Eigenschaften konvergenter Folgen 27

(4) Jede in C konvergent Folge ist auch beschränkt, d.h. es existiert ein c > 0, so daß
|zj | ≤ c für alle j ∈ N gilt.

Satz 1 Es gilt:
(i) lim zj = z ⇐⇒ Re zj −→ Re z (j −→ ∞)
j→∞
Im zj −→ Im z (j −→ ∞)

(ii) Der Grenzwert ist eindeutig bestimmt.


(iii) Aus zj −→ z (j −→ ∞) folgt |zj | −→ |z| und zj −→ z

Beweis: Der Beweis des Satzes wird mit Hilfe der Bemerkung (3) und der Dreiecksungleichung
geführt.2

Satz 2 (i) zj −→ z, wj −→ w, λ, µ ∈ C. Dann gilt:

λzj + µwj −→ λz + µw (j −→ ∞)
zj wj −→ z · w

(ii) zj −→ z, wj −→ w 6= 0. Dann gilt:


zj z
−→
wj w
Beweis: Wir zeigen (i). Es gilt:

|λzj + µwj − λz − µw| ≤ |λzj − λz| + |µwj − µw|


= |λ||zj − z| + |µ||wj − w|

|zj wj − zw| ≤ |zj wj − zwj | + |zwj − zw|


≤ |zj − z||wj | + |z||wj − w|
≤ |zj − z||wj − w| + |w||zj − z| + |z||wj − w|

Wir zeigen jetzt (ii). Für j ≥ j0 ist |wj | ≥ δ. Dann folgt:



− 1 = w − wj =
1 1 1
|wj − w| ≤ |wj − w|
wj w wj w |wj ||w| δ|w|
2

Lemma 1 Es gelten folgende Aussagen:

|z| < 1 =⇒ z j −→ 0 (j −→ ∞).


|z| ≥ 1, z 6= 1 =⇒ z j ist nicht konvergent (divergent).
28 2.1 Folgen komplexer Zahlen

1
Beweis: 1.Schritt: Sei |z| < 1. Wir setzen |z| = 1+a mit einer reellen Zahl a > 0. Es ist nach
dem Binomischen Satz
(1 + a)j > aj,
und wir erhalten somit
1 1
|z j | = |z|j = j
< .
(1 + a) aj
Daraus folgt z j −→ 0.
2.Schritt: Sei |z| ≥ 1 und z 6= 1. Dann ist |z − 1| > 0. Wir nehmen an, es existiere ein z0 mit
z j −→ z0 . Wir wählen ein j0 (ε), so daß für alle j ≥ j0
1
|z j − z0 | ≤ ε := |z − 1|.
3
Dann gilt:
3ε = |z − 1| ≤ |z|j |z − 1| = |z j+1 − z j | ≤ |z j+1 − z0 | + |z j − z0 | ≤ 2ε.
Das ist aber ein Widerspruch. Damit ist z j divergent, und das Lemma ist bewiesen.2
Beispiele:
6j 3 − 4j 2 + 17 6 − 4j + 17
j3
(1) = −→ −3
3
−2j + 20j + 1 −2 + j 2 + j13
20

(2) √ √ √ √
p p ( j + 1 − j)( j + 1 + j) 1
j+1− j = √ √ =√ √ −→ 0,
j+1+ j j+1+ j
 2
1 1 1 1
da √
√ ≤ √ ≤ ε,
falls j≥ .
j+1+ j 2 j 2ε
(3) Analog zeigt man
p p p 1
j( j + 1 − j) −→
2
(4) Folgende Aussagen erweisen sich ebenfalls als nützlich:
Ist {zj } eine Nullfolge (zj −→ 0), und ist {wj } beschränkt, so konvergiert auch das
Produkt der beiden Folgen zj · wj gegen 0:
|zj wj | ≤ |wj ||zj | ≤ c |zj | ≤ ε.

(5) Bei reellen Zahlen sprechen wir vom „Sandwich–Lemma“. Es lautet: Konvergieren die
Folgen {aj } und {cj } gegen eine Zahl a, und gilt für eine weitere Folge {bj } die Bezie-
hung
aj ≤ b j ≤ c j für alle j,
dann konvergiert auch {bj } gegen a:
|bj − a| = |bj − aj + aj − a| ≤ |cj − aj | + |aj − a|.
2.1.2 Das Cauchy–Konvergenz–Kriterium 29

2.1.2 Das Cauchy–Konvergenz–Kriterium


Definition 2 (i) {zj } heißt beschränkt :⇐⇒ ∃ c > 0, so daß |zj ≤ c| ∀ j.

(ii) {zj } heißt Cauchy–Folge :⇐⇒ ∀ ε > 0 ∃ j0 (ε), so daß |zj − zk | ≤ ε ∀ j, k ≥ j0 .

Bemerkungen:

(1) Jede konvergente Folge ist Cauchy–Folge.


Beweis: Wir wissen: zj −→ z. Also gilt

|zj − zk | ≤ |zj − z| + |zk − z| ≤ 2ε1 = ε.

(2) Jede Cauchy–Folge ist beschränkt.


Beweis: Sei ε = 1. Dann ist |zj − zk | ≤ 1 für alle j, k ≥ j1 . Daraus folgt für alle j ≥ j1 :

|zj | ≤ |zj − zj1 | + |zj1 | ≤ 1 + |zj1 | = c

(3) Sei j ≥ j(ε) fest. Dann gilt für alle k ≥ j(ε) : |zk − zj | ≤ ε, wenn {zj } eine Cauchy–
Folge ist.

Satz 3 Sei {zj }∞


j=1 beschränkt. Dann existiert eine konvergente Teilfolge.

Beweis: Es sei zj = xj +iyj für j = 1, 2, . . .. Da {zj } beschränkt ist, sind auch die Folgen {xj }
und {yj } beschränkt. Aus Satz 1.1.2/1(OF) folgt, {xj } hat eine konvergente Teilfolge {xjk }
mit xjk −→ x für k −→ ∞. Ebenfalls aus Satz 1.1/1 (OF) folgt, daß {yjk } eine konvergente
Teilfolge {yjkl } besitzt mit yjkl −→ y. Wenden wir Satz 2.1/1 an, so folgt

zjkl −→ x + iy = z.

2
Bemerkung: Vergleiche mit Satz 1.1/1(OF).

Satz 4 (Cauchysches Konvergenzkriterium) Es gilt folgende Äquivalenz:

{zj }∞
j=1 ⊂ C ist konvergent ⇐⇒ {zj }∞
j=1 ist Cauchy–Folge.

Beweis: Wegen Bemerkung (1) ist noch zu zeigen: Jede Cauchy–Folge ist konvergent. Es
sei {zj } eine Cauchy–Folge. Nach Bemerkung (2) ist {zj } beschränkt. Dann existiert nach
Satz 2.1/3 eine konvergente Teilfolge {zjl } mit zjl −→ z für l −→ ∞. Es sei ε > 0. Dann
existiert ein j(ε) ∈ N, so daß
ε
|zjl − z| ≤ für alle jl ≥ j(ε).
2
30 2.1 Folgen komplexer Zahlen

Außerdem existiert ein k(ε), so daß


ε
|zj − zk | ≤ für alle j, k ≥ k(ε).
2
Dann gilt für alle j ≥ max(j(ε), k(ε))

|zj − z| ≤ |zj − zjl | + |zjl − z| ≤ ε,

falls jl ≥ max(j(ε), k(ε)) gewählt wird.2


Bemerkung: Der Satz gilt auch im Bereich der reellen Zahlen (Spezialfall), nicht aber im
Bereich der rationalen Zahlen. Entscheidend ist die Vollständigkeit der reellen bzw. komple-
xen Zahlen. Eine Cauchyfolge rationaler Zahlen ist zwar ebenfalls konvergent, jedoch kann
der Grenzwert eine irrationale Zahl sein.
2.2. FOLGEN REELLER ZAHLEN 31

2.2 Folgen reeller Zahlen


2.2.1 Einige wichtige Grenzwerte
Satz 1 Es sei a ∈ R, a > 1, k ∈ N. Dann gilt:

nk
(i) n −→ 0 für a > 1 (n−k an −→ ∞).
a
an
(ii) −→ 0 für a > 1 (n!a−n −→ ∞).
n!

(iii) n a −→ 1 (a > 0),

n
n −→ 1,

n
n! −→ ∞.

Bemerkung: lim an = +∞ :⇐⇒ ∀ k ∈ N ∃ n0 (k) mit an ≥ k ∀ n ≥ n0 .


n→∞
Beweis:

(i) Es sei a = 1 + x mit x > 0, und sei n ≥ 2. Dann gilt nach dem Binomischen Satz:
 
n n n 2 n(n − 1) 2
a = (1 + x) ≥ x = x.
2 2

Es folgt
n 2n 1 2 1
n
≤ · 2 ≤ · 2 −→ 0 für n −→ ∞,
(1 + x) n(n − 1) x n−1 x

und wir erhalten


nk n n n n
n
= √ n
··· √ n
= n ··· n mit b > 1.
a ( a)
k
( a)
k
|b {z b }
k–mal

a
(ii) Wir wählen k ∈ N (fest), so daß k+1
≤ 12 . Dann gilt

an ha a  
ai a a
= · ··· ··· (2.1)
n! 1 2 k k+1 n
 n−k
1
≤ ak · (2.2)
2
1
= (2a)k n −→ 0 (2.3)
2
32 2.2 Folgen reeller Zahlen

(iii) Aus dem Binomischen Satz folgt (für n > 1)


 n
2 n(n − 1) 4
1 +√ > · > n.
n 2 n
Man erhält somit
√ 2
1< n
n < 1 + √ −→ 1.
n
Ist a > 1, so folgt √ √
n n
1< a< n
und somit √
n
a −→ 1.
Für a < 1 erhalten wir
√ 1
n
a = q −→ 1.
n 1
a

Aus (ii) folgt

an ≤ n! für n ≥ n0 (a)

n
und damit a ≤ n!.

Demnach gilt √
n
n! −→ ∞.

2.2.2 Monotone Folgen


Eine reelle Folge {an }∞
n=1 heißt beschränkt nach oben (unten), falls es eine Zahl c gibt, so daß
für alle n ∈ N gilt: an ≤ c (c ≤ an ). Wir setzen

sup an := sup{an : n ∈ N}
n
inf an := inf{an : n ∈ N}
n

Folgerung 1 Jede nach oben (unten) beschränkte Folge reeller Zahlen besitzt ein Supremum
(Infimum).

Definition 1 {an } ⊂ R heißt (streng) monoton wachsend, falls für alle n ∈ N gilt:

an ≤ an+1 (an < an+1 ).

{an } ⊂ R heißt (streng) monoton fallend, falls für alle n ∈ N gilt:

an+1 ≤ an (an+1 < an ).


2.2.2 Monotone Folgen 33

Bemerkung: monoton wachsend ∼ monoton nicht fallend


monoton fallend ∼ monoton nicht wachsend
Satz 2 (i) Sei {an } monoton wachsend und nach oben beschränkt. Dann ist {an } konver-
gent und
lim an = sup an .
n→∞ n

(ii) Sei {an } monoton fallend und nach unten beschränkt. Dann ist {an } konvergent und
lim an = inf an .
n→∞ n

Beweis: Sei {an } monoton wachsend und nach oben beschränkt. Nach Folgerung 2.2.1/1
besitzt {an } ein Supremum: sup an =: a. Für alle n gilt demnach: an ≤ a. Es sei ε > 0. Dann
existiert ein n0 (ε) = n0 mit
a − ε ≤ an0 ≤ a.
Wegen der Monotonie der Folge gilt dann für alle n ≥ n0 :
a − ε ≤ an ≤ a, und damit |a − an | ≤ ε ∀n ≥ n0 .
Der Beweis für monoton fallende, nach unten beschränkte Folgen wird analog geführt.2
Beispiel: Wurzelberechnung. Es sei 1 < a < ∞. Wir setzen
a(1 + xn )
x1 = a und xn+1 := .
a + xn

Dann gilt: xn −→ a (n −→ ∞).
Beweis: Die Folge ist nach unten beschränkt: xn > 0.
1.Schritt: Wir zeigen durch vollständige Induktion, daß {xn } streng monoton fallend ist, d.h.
xn+1 < xn . Für x1 und x2 ist die Aussage richtig:
a(1 + x1 ) a(1 + a) 1+a 2a
x2 = = = < = a = x1 .
a + x1 2a 2 2
Es gelte: xn < xn−1 (∗). Daraus folgt:

xn+1 a(1 + xn ) a + xn−1


xn+1 = · xn = · · xn
xn a + xn a(1 + xn−1 )
a + axn − axn−1 + axn−1 + xn−1 + xn xn−1
= · xn
(a + xn )(1 + xn−1 )
a + axn + axn−1 + (1 − a)xn−1 + xn xn−1
= · xn
(a + xn )(1 + xn−1 )
(∗) a + axn + axn−1 + (1 − a)xn + xn xn−1
< ·xn
(a + xn )(1 + xn−1 )
| {z }
=1
= xn
34 2.2 Folgen reeller Zahlen

In der zweiten Zeile wurde dabei die aktive Null (−axn−1 + axn−1 ) eingefügt.

2.Schritt: Wir zeigen nun, daß xn gegen a konvergiert. Nach Satz 2.2.1/1 ist lim xn = x ≥ 0.
Da
a(1 + xn )
xn+1 = ,
a + xn
folgt für n −→ ∞:
a(1 + x)
x= .
a+x

Damit ist x2 = a und folglich x = a.2

2.2.3 Die Zahl e


Lemma 1 (Bernoullische Ungleichung) Für x > −1 und n ∈ N gilt die Ungleichung

(1 + x)n ≥ 1 + nx.

Falls n ≥ 2 und x 6= 0, gilt sogar

(1 + x)n > 1 + nx.

Beweis: Wir beweisen die Ungleichung durch vollständige Induktion. Die Aussage ist für
n = 1 richtig, denn (1 + x)1 = 1 + x. Es gelte

(1 + x)n ≥ 1 + nx.

Dann gilt:

(1 + x)n+1 = (1 + x)(1 + x)n ≥ (1 + x)(1 + nx)


| {z }
>0
= 1 + (n + 1)x + nx2 ≥ 1 + (n + 1)x

Lemma 2 Es gilt:
 n
1
(i) an = 1 + ist streng monoton wachsend.
n
 n n
1 X 1 1
(ii) 2 ≤ 1+ < ≤ 3 − < 3.
n k=0
k! n
2.2.3 Die Zahl e 35

Beweis:1.Schritt: Wir zeigen, daß {an } streng monoton wachsend ist.


!n+1 
1 n+1
1 + n+1
  
an+1 1 1 1
= 1+ = 1+ 1− .
an n 1 + n1 n (n + 1)2

Anwendung der Bernoullischen Ungleichung (Lemma 1) ergibt


  
an+1 1 n+1 n+1 n
> 1+ 1− = = 1.
an n (n + 1)2 n n+1
2.Schritt: Nach dem Binomischen Satz gilt:
 n n  
1 X n 1
1+ = 1+
n k=1
k nk
n
X n(n − 1) n−k+1 1
= 1+ ··· ·
k=1
n · n n k!
n    
X 1 k−1 1
= 1+ 1− · ... · 1 − · (2.4)
k=1
n n k!
n n
X 1 X 1
< 1+ =
k=1
k! k=0 k!
n
X 1
3.Schritt: Wir betrachten .
k=0
k!
n n n
X 1 X 1 X 1
= 2+ ≤2+
k=0
k! k=2
1 · 2 · . . . · (k − 1)k k=2
(k − 1)k
n  
X 1 1 1 1
= 2+ − =2+1− =3−
k=2
k−1 k n n

Damit ist das Lemma bewiesen.2

Satz 3 (i) Die in Lemma 2.2/2 definierte Folge ist konvergent. Es gilt:
 n n
1 X 1
lim 1 + = lim =: e.
n→∞ n n→∞
k=0
k!

(ii) Es gilt:
n
X 1 2
e− ≤ .
k=0
k! (n + 1)!
Die Eulersche Zahl e ist irrational, und 2 < e < 3.
36 2.2 Folgen reeller Zahlen

Beweis:1.Schritt: Aus Lemma 2 folgt: Es existieren die Grenzwerte


 n
1
lim 1 + =: e,
n→∞ n
n
X 1
lim =: s
n→∞
k=0
k!
mit e ≤ s.

Wir zeigen: e = s. Es sei ε > 0 eine beliebige reelle Zahl. Dann existiert ein n0 mit
n0
X 1
s−ε< ≤s
k=0
k!

Aus (2.1) im zweiten Schritt im Beweis von Lemma 2 folgt:


 n n    
1 X 1 k−1 1
e> 1+ = 1+ 1− ··· 1 − für n > n0
n k=1
n n k!
n0    
X 1 k−1 1
> 1+ 1− ··· 1 − für n > n0 .
k=1
n n k!

Für n −→ ∞ erhalten wir n0


X 1
e≥1+ > s − ε.
k=1
k!
Daraus folgt
s < e + ε.
Dies gilt für alle ε > 0, und damit ist s ≤ e.
2.Schritt: Es seien m und n natürliche Zahlen. Wir setzen
n
X 1
Sn := .
k=0
k!

Dann gilt:
 
1 1 1 1
Sn+m − Sn = + + ... +
n! n + 1 (n + 1)(n + 2) (n + 1) · . . . · (n + m)
 
1 1 1 1
≤ + + ... +
n! n + 1 (n + 1)(n + 2) (n + m − 1)(n + m)
 
1 1 1 1 1 1
= + − + ... + −
n! n + 1 n+1 n+2 n + m − 1) n + m
 
1 2 1 2
= − <
n! n + 1 n+m (n + 1)!
2.2.3 Die Zahl e 37

Wir erhalten:
2
e − Sn ≤ .
(n + 1)!
Daraus folgt
2 5
e ≤ S2 + = 2 + < 3.
3! 6
Wir zeigen jetzt, daß e irrational ist. Dazu nehmen wir an, e sei rational, d.h. es gibt zwei
m
ganze Zahlen (bzw. natürliche Zahlen, da 2 < e < 3) m und n mit e = . Dann gilt:
n
m 2
0< − Sn ≤ .
n (n + 1)!

Daraus folgt:
n
X 1 2
0 < m(n − 1)! − n! ≤ < 1.
k=0
k! n + 1
| {z }
∈N

Das ist aber ein Widerspruch, da es keine natürliche Zahl zwischen 0 und 1 gibt.2
38 2.3 Konvergenz von Reihen

2.3 Konvergenz von Reihen


2.3.1 Konvergenz und Divergenz
Wir untersuchen die Frage, inwiefern man unendlichen Summen wie z.B.
a0 + a1 + a2 + a3 + . . . + aj + aj+1 + . . . mit aj ∈ R,
z0 + z1 + z2 + z3 + . . . + zj + zj+1 + . . . mit zj ∈ C.
einen Sinn geben kann. Man schreibt formal

X ∞
X
aj bzw. zj .
j=0 j=0

Die Summe der ersten N Glieder einer Reihe


N
X
SN := zj
j=0

heißt N –te Partialsumme.


Definition 1 Wir unterscheiden Konvergenz und absolute Konvergenz von Reihen.
X∞ ∞
X
(i) zj heißt konvergent :⇐⇒ (SN )∞
N =0 ist konvergent; sonst heißt zj divergent.
j=0 j=0


X ∞
X
(ii) zj heißt absolut konvergent :⇐⇒ |zj | ist konvergent.
j=0 j=0
P P
Schreibweise: Sei aj ≥ 0 und aj konvergent. Dann schreiben wir: aj < ∞.
X
S= zj :⇐⇒ S := lim SN .
N →∞
Bemerkung: Im letzten Abschnitt haben wir bereits die Konvergenz einer unendlichen
Reihe bewiesen. Es folgt nämlich aus Satz 2.2/3

X 1
=e
k=0
k!

Bemerkung: Aus dem Cauchyschen Konvergenzkriterium (Satz 2.1.2/4) wissen wir, daß
die Partialsummenfolge (SN ) genau dann konvergent ist, wenn (SN ) eine Cauchy–Folge ist.
Das heißt aber nichts anderes als
|SN − SM | < ε für N, M ≥ M (ε). (2.5)
Das ist gleichbedeutend mit
|zM +1 + . . . + zN | < ε für N, M ≥ M (ε).
2.3.1 Konvergenz und Divergenz 39

P
Satz 1 (i) Ist zj konvergent, dann gilt (notwendige Bedingung): lim zj = 0.
j→∞
P P
(ii) Ist zj absolut konvergent, dann ist zj auch konvergent.
P P P
(iii) zj ist konvergent ⇐⇒ Re zj und Im zj sind konvergent.
Diese Äquivalenz gilt auch für absolute Konvergenz.
P P P
(iv) Es seien zj und wj konvergente Reihen und λ, µ ∈ C. Dann ist auch (λzj +µwj )
konvergent, und es gilt: X
(λzj + µwj ) = λz + µw.

(v) Sei aj reell und größer oder gleich Null. Dann gilt folgende Äquivalenz:
∞ N
!∞
X X
aj < ∞ ⇐⇒ aj beschränkt.
j=0 j=0 N =0

Beweis:
(i) Wegen (2.2) in der Bemerkung gilt:

|zj | = |Sj − Sj−1 | < ε für j ≥ j(ε).

(ii) Für M, N ≥ M (ε) gilt nach (2.2):

|SN − SM | ≤ |zM +1 | + . . . + |zN | < ε.

(iii) Es gilt:

|Re SN − Re SM | + |Im SN − Im SM | ≤ 2|SN − SM |


≤ 2(|Re (SN − SM )| + |Im (SN − SM )|)

Die Anwendung des Cauchyschen Konvergenzkriteriums ergibt die Konvergenz.


(iv) Die Aussage folgt aus den Eigenschaften von SN .
N
X
(v) SN = aj ist monoton nicht fallend und beschränkt und ist somit konvergent.
j=0

2
Bemerkung:


X

X
zj konvergent ⇐⇒ ∀ ε > 0 ∃ M (ε), so daß
zj
< ε.

j=0 j=M (ε)

Wir betrachten einige Beispiele.


40 2.3 Konvergenz von Reihen


X
Lemma 1 Es sei z ∈ C und |z| < 1. Dann ist z j absolut konvergent, und es gilt:
j=0


X 1
zj = .
j=0
1−z

Diese Summe wird als Geometrische Reihe bezeichnet.

Beweis: Es gilt:
N
X
zSN − SN = (z j+1 − z j ) = z N +1 − 1.
j=0

Daraus folgt:
1 − z n+1 1
SN = −→ .
1−z 1−z
2

Lemma 2 Es gilt:

X 1
(i) ist divergent (Harmonische Reihe).
j=0
j


X 1
(ii) ist konvergent für k = 2, 3, . . ..
j=0
jk

Beweis:

(i) Es gilt:
     
1 1 1 1 1 1
S2l −1 = 1+ + + + ... + + ... + + ... + l
2 3 4 7 2l−1 2 −1
| {z }
2l−1 Summanden
     
1 1 1 1 1 1
≥ 1+ + + + ... + + ... + + ... + l
4 4 8 8 2l 2
     
1 1 1 1 1 1
= 1+ + + + ... + 3 + ... + + ... + l
22 22 23 2 2l 2
2 l−1
2 2 2
= 1 + 2 + 3 + ... + l
2 2 2
1
= l · −→ ∞
2
Damit haben wir eine divergente Teilfolge gefunden.
2.3.2 Konvergenzkriterien 41

(ii) Es gilt:

N N N
X 1 X 1 X 1
< ≤

j k j 2 j=M +1 j(j − 1)


j=M +1 j=M +1
N  
X 1 1 1 1
= − = − −→ 0
j=M +1
j − 1 j M N

und die Konvergenz folgt aus dem Cauchy-Konvergenzkriterium.


2
Bemerkung Es gilt eine schärfere Aussage als (ii):

X 1
α
< ∞ ⇐⇒ α > 1.
k=1
k
Beweis: Es gilt für hinreichend große n
   
1 1 1 1
Sn ≤ S2n+1 −1 = 1 + + + ··· + + · · · + n+1
2α 3α 2nα (2 − 1)α
1 1
≤ 1 + 21 · α + · · · + 2n · nα
2 2
= 1 + q + · · · + q n < ∞,

wobei q = 2α−1 < 1.

2.3.2 Konvergenzkriterien
Wir betrachten Reihen mit nichtnegativen, reellen Summanden.

Satz 2 (Majorantenkriterium) Es sei aj ≥ 0, bj ≥ 0, aj ≤ bj .


P P P P
(i) Ist bj konvergent, dann ist aj ≤ bj , und aj ist konvergent.
P P
(ii) Ist aj divergent, dann divergiert auch bj .

Beweis: Da
N
X N
X
aj ≤ bj ,
1 1
N
X
ist aj beschränkt und folglich konvergent. Für n −→ ∞ erhalten wir
1


X ∞
X
aj ≤ bj = c.
1 1
42 2.3 Konvergenz von Reihen

P
Ist aj divergent, so gilt:

N
X N
X
bj ≥ aj ≥ k für N ≥ N (k).
1 1
P
Also ist bj nicht beschränkt und deshalb divergent.2

X n! n! 2
Beispiele: (1) n
< ∞, da n < 2 für n > 3.
n=1
n n n

X 1 1 1
(2) p = ∞, da √ √ > .
n=0 n(n + 1) n n+1 n+1

Satz 3 (i) (Quotientenkriterium) Sei aj ≥ 0. Es existiere ein q, 0 < q < 1, so daß


aj+1 P
≤ q < 1 für j ≥ j0 . Dann ist aj < ∞.
aj

j a ≤ q < 1 für j ≥ j .
(ii) (Wurzelkriterium)
P Es existiere ein q, 0 < q < 1, so daß j 0
Dann ist aj < ∞.

Beweis: O.B.d.A. sei j0 = 1.

(i) Es gilt:
aj+1 ≤ qaj ≤ q 2 aj−1 ≤ q j a1 .
Die Konvergenz der Reihe folgt aus Satz 2 und Lemma 2.3.1/1 mit z = q.

(ii) Wegen j aj , gilt
aj ≤ q j .
Die Konvergenz folgt ebenfalls aus Satz 2 mit der geometrischen Reihe als konvergente
Majorante.

Beispiele:

nk (n + 1)k an
 
X n+1 1 1
(1) < ∞ für a > 1, da · k = k· −→ < 1.
n=1
an an+1 n n a a
nk
Es folgt unmittelbar, daß −→ 0, d.h. wir haben einen anderen Beweis für Satz
an
2.2.3/3(i) gefunden.
∞ r
X an n an a
(2) n
< ∞, da = −→ 0.
n=1
n nn n
2.3.3 Umordnung von Reihen 43

Satz 4 (Leibnizsches Kriterium für alternierende Reihen) Seien aj ≥ 0, (aj ) mono-



X
ton fallend und lim aj = 0. Dann ist (−1)j aj konvergent.
j=0

Beweis: S2n+1 ist monoton wachsend:

S2n+1 = (a0 − a1 ) + (a2 − a3 ) + . . . + (a2n − a2n+1 )


| {z } | {z } | {z }
≥0 ≥0 ≥0
≤ S2n+1 + (a2n+2 − a2n+3 ) = S2(n+1)+1 .

S2n+1 ist beschränkt:

S2n+1 = a0 − (a1 − a2 ) − (a3 − a4 ) − . . . − (a2n−1 − a2n ) − a2n+1 ≤ a0 .


| {z } | {z } | {z } | {z }
≥0 ≥0 ≥0 ≥0

Damit existiert lim S2n+1 = s, und es gilt:

lim S2n = lim(S2n+1 − a2n+1 ) = s − lim a2n+1 = s.

Damit existiert auch lim Sn = s.2


∞ ∞
n1 1
X X
Beispiele: (−1) ist konvergent, (−1)n √ ist konvergent.
n=1
n n=1
n
Bemerkung:
P Abelsches Konvergenzkriterium (Verallgemeinerung von Satz 4):
Sei
X zj so, daß (SN ) beschränkt ist, und sei (aj ) eine monoton fallende Nullfolge. Dann ist
aj zj konvergent.
j

2.3.3 Umordnung von Reihen


Es sei ϕ : N0 −→ N0 eine bijektive Abbildung (damit ist ϕ eine Permutation) und sei
(zj )∞
j=0 ⊂ C. Wir setzen
wj := zϕ(j) .
Die Folge (wj )∞
j=0 heißt Umordnung von (zj ).
X∞ ∞
X
Die Frage ist: Gilt zj = wj ?
j=0 j=0

P P P
Definition 2 aj heißt bedingt konvergent, falls aj konvergent und |aj | divergent ist.

1
(−1)j ist bedingt konvergent.
P
Beispiel:
j
44 2.3 Konvergenz von Reihen

P
Satz 5 (Riemann) (vgl. z.B. Blatter Bd. I, S.105/106) Es sei (aj ) ⊂ R, aj bedingt
konvergent und ξ eine beliebige reelle Zahl. Dann existiert eine Umordnung (bj ) von (aj ), so
daß gilt: X
bj = ξ.
j

X
Satz 6 (Kleiner Umordnungssatz) Sei zj absolut konvergent, (zj ) ⊂ C und (wj ) eine
j=0

X P P
Umordnung von (zj ). Dann ist wj absolut konvergent, und es gilt: zj = wj .
j=0

Beweis: Es sei wj = zϕ(j) , und sei N eine beliebige natürliche Zahl. Dann existiert ein
M = M (N ) mit M ≥ N und
{w1 , . . . , wN } ⊂ {z1 , . . . , zM },
und es gilt:
N
X M
X ∞
X
|wj | ≤ |zj | < |zj | = s < ∞.
j=0 j=0 j=0
P
Damit Pist wj absolut
P konvergent.
Es sei zj = z und wj = w. Dann gilt:
M ∞ N ∞

X X X X
|z − w| ≤ zj + zj − wj − wj


j=0 j=M +1 j=0 j=N +1
∞ ∞
M N

X X X X
≤ |zj | + |wj | + zj − wj (2.6)


j=M +1 j=N +1 j=0 j=0

Wir wählen nun N so, daß



X
|wj | < ε
j=N +1

und M so, daß



X
{w1 , . . . , wN } ⊂ {z1 , . . . , zM } und |zj | < ε.
j=M +1

Dann gilt:
XM N
X X X
zj − wj = wkl ≤ |wk | < ε.



j=0 j=0 k >N k>N
| l {z }
endliche Summe

Aus (2.3) folgt nun für alle ε


|z − w| < 3ε,
und damit ist z = w.2
2.3.4 Multiplikation von Reihen 45

2.3.4 Multiplikation von Reihen

Problem:

∞ ∞ ∞
! ∞
! ∞
?
X X X X X
z= zj , w = wk =⇒ z·w zj wk = zj wk
j=0 k=0 j=0 k=0 j,k=0

Bei der Anordnung der Summanden wählen wir die „diagonale Summierung“:

w0 w1 w2 w3 w4 ...
z0 z0 w0 z0 w1 z0 w2 z0 w3 z0 w4 ...
z1 z1 w0 z1 w1 z1 w2 z1 w3 z1 w4 ...
z2 z2 w0 z2 w1 z2 w2 z2 w3 . . . ...
z3 z3 w0 z3 w1 z3 w2 . . . ... ...
z4 z4 w0 ... ... ... ... ...


X
Definition 3 Die Reihe vl mit
l=0

l
X
vl := zj wl−j = z0 w0 + z1 wl−1 + . . . + zl w0
j=0

P P
heißt Cauchy–Produkt von zj und wk .


X ∞
X
Satz 7 Es seien zj = z, wk = w absolut konvergente Reihen. Dann ist die Produkt-
j=0 k=0

X
reihe vl absolut konvergent, und es gilt:
l=0


X
vl = z · w.
l=0
46 2.3 Konvergenz von Reihen

Beweis: Es gilt:
N N
! N
!
X X X X
vl − zj wk ≤ |zj ||wk |



l=0 j=0 k=0 j+k>N
0≤j,k≤N

N
X X N
X X
≤ |zj ||wk | + |zj ||wk |
N
2
<j≤N k=0 N
2
<k≤N j=0
   

! ∞
!
X X X X
≤  |zj | |wk | +  |wk | |zj |
N
<j≤N k=0 N
<k≤N j=0
2 2
| {z }| {z
=s1
} | {z }| {z }
≤ε ≤ε =s2

≤ (s1 + s2 )ε für N ≥ N (ε).


Für n −→ ∞ folgt:
N N
! N
! " N N N
#
X X X X X X
lim vl = lim zj wk + lim vl − zj wk = z · w (2.7)
N N
l=0 j=0 k=0 l j k
| {z }
=0

und damit !
N
X N
X X X  X 
|vl | ≤ |zj ||wk | −→ |zj | |wk |
l=0 l=0 j+k=l

nach (2.4) mit |zj |, |wk | anstelle von zj , wk .2


P P P
Folgerung 1 Es seien P z j , wk und vl wie in Satz P sei (ul ) eine Umordnung
P 7, und
von (vl ). Dann ist ul absolut konvergent, und es gilt: ul = v l .
Beweis: Anwendung von Satz 2.3.3/6 und Satz 7 ergibt die Behauptung.2
Bemerkung: D.h. also, es kommt nicht auf die Reihenfolge der Summanden an. Eine andere
Möglichkeit ist z.B. die Summation über Quadrate:
 
X∞ X  X  X 
 zj wk  = zj wk
l=0 max(j,k=l)

Beispiel: |z| < 1.



! ∞
!
X X 1
zj zk =
j=0 k=0
(1 − z)2
| {z }
∞ l
! ∞
X X X
j l−j
z z = z l (l + 1)
l=0 j=0 l=0
2.3.5 Die Funktion exp(z) 47

2.3.5 Die Funktion exp(z)



X zk
Wir betrachten die Reihe . Sie konvergiert absolut für alle z ∈ C:
k=0
k!
Beweis: Es sei z ∈ C beliebig, aber fest und ungleich Null. Dann gilt nach dem Quotienten-
kriterium:
|zk+1 | |z|k+1 k! |z|
= = −→ 0.
|zk | (k + 1)!|z|k (k + 1)
Es folgt die absolute Konvergenz der Reihe.

Definition 4 Es sei z ∈ C.

X zk
exp(z) := heißt Exponentialfunktion.
k=0
k!

Bemerkung: exp ist eine Funktion von C in C


exp(0) = 1.

Satz 8 (Eigenschaften von exp(z)) Seien z, z1 z2 ∈ C. Dann gilt:

(i) exp(z1 + z2 ) = exp(z1 ) · exp(z2 ).


1
(ii) exp(z) 6= 0 und exp(−z) = .
exp(z)

(iii) Seien
mm, n ∈ N, n 6= 0.
1 m
exp = (em ) n =: e n , exp(1) = e.
n
(iv) | exp(z) − (1 + z)| ≤ |z|2 für |z| ≤ 21 .
 z n
(v) exp(z) = lim 1 + .
n→∞ n

Beweis: 1.Schritt: Nach Satz 2.3.4/7 gilt:



! ∞
! ∞ l
!
X zj 1
X zk 2
X X z1j z2l−j
=
j=0
j! k=0
k! l=0 j=0
j!(l − j)!
∞ l
!
X 1 X l!
= z1j z2l−j
l=0
l! j=0
j!(l − j)!

X (z1 + z2 )l
= nach dem Binomischen Satz.
l=0
l!
48 2.3 Konvergenz von Reihen

Daraus folgt:
1 = exp(z − z) = exp(z) exp(−z),
und damit sind (i) und (ii) gezeigt.
2.Schritt: Wir wissen
exp(1) = e.
Es sei m ∈ N. Dann gilt nach (i):
exp(m) = exp (1 + . . . + 1) = exp(1) · . . . · exp(1) = em ,
| {z } | {z }
m–mal m–mal

und mit (ii) folgt:


1
exp(−m) = = e−m .
exp(m)
Außerdem gilt     n
1 1 1
e = exp(1) = exp + ... + = exp ,
n n n
und wir erhalten    
1 1 1 1
exp = en und exp − = e− n .
n n
Schließlich gilt:
m    m
1 1 1  1 m
exp = exp + ... + = exp = en ,
n n n n
folglich ist  m in m
h m
exp = exp + ... + = exp(m) = em ,
n | n {z n }
n–mal
und wir erhalten m 1
exp = (em ) n .
n
1
3.Schritt: Für |z| ≤ 2
gilt:
∞ ∞
X |z|j |z|2 X j
| exp(z) − (1 + z)| ≤ ≤ |z|
j=2
j! 2 j=0
2
|z| 1
≤ 1 = |z|2 .
2 1− 2

4.Schritt: Es gilt für k ∈ N, k ≥ 2 und a, b ∈ C:


ak − bk = (a − b)(ak−1 + ak−2 b + . . . + abk−2 + bk−1 )
k−1
X
= (a − b) aj bk−1−j .
j=0
2.3.5 Die Funktion exp(z) 49

Es folgt:
z n
   z n  z n
exp(z) − 1 + = exp − 1+
n n n
z   n−1
h z X
i  z j  z n−1−j
= exp − 1+ exp 1+ .
n n j=0 n n

|z|
Es sei n
≤ 12 . Dann folgt aus (iv):
n−1  j  n−1−j
 z n z 2 X |z| |z|
| exp(z) − 1 + | ≤ exp exp

n n j=0 n n
 n−1
z 2 |z|
= n · exp

n n
z 2
≤ exp(|z|) ≤ ε für n ≥ n0 .

n
Lassen wir nun noch n gegen ∞ laufen, so folgt die Behauptung.2
Bemerkung: Ist z = x reell, so ist auch exp(z) reell. Ist z = ix mit x ∈ R, so gilt:

exp(ix) · exp(−ix) = 1
und damit | exp(ix)| = 1

Später werden wir noch sehen, daß

exp(x + iy) = ex eiy = ex (cos y + i sin y).


Kapitel 3

Stetigkeit und Grenzwerte von


Funktionen

3.1 Grenzwerte
3.1.1 Konvergenz im Rn
Wir wiederholen zunächst einige Begriffe aus der linearen Algebra.

Definition 1 (i) Rn = {(x = (x1 , . . . xn ) : xi ∈ R (i = 1, . . . n)}


heißt n-dimensionaler euklidischer Raum.
(ii) Für alle x, y ∈ Rn setzen wir
x + y = (x1 + y1 , . . . , xn + yn ) (Addition)
(iii) Für alle x ∈ Rn , λ ∈ R setzen wir
λx = (λx1 , . . . , λxn ) (Multiplikation mit reellen Zahlen)

Bemerkung 1 Rn ist ein reeller Vektorraum der Dimension n. Betrachtet man die kom-
plexen Zahlen als Vektorraum über dem Körper der reellen Zahlen, so ist er isomorph zum
R2 .

Definition 2 Es seien x, y ∈ Rn .
(i) (x, y) = x1 y1 + · · · + xn yn heißt Skalarprodukt.
(ii) kxk = (x, x)1/2 heißt euklidische Norm.

Bemerkung 2 Für x, y ∈ Rn bezeichnen wir mit kx − yk den (euklidischen) Abstand der


Punkte x und y.

Eigenschaften:
Es seien x, y ∈ Rn , und λ sei eine reelle Zahl. Es gelten folgende Eigenschaften:

50
3.1.1 Konvergenz im Rn 51

(i) kxk > 0 für x 6= 0

(ii) kλxk = |λ|kxk

(iii) kx + yk ≤ kxk + kyk (Dreiecksungleichung)


| kxk − kyk | ≤ kx + yk

(iv) |(x, y)| ≤ kxk kyk (Cauchy-Schwarz’sche Ungleichung)

Analog zu R und C können wir mit Hilfe eines Abstandsbegriffes (mit Hilfe einer Norm) die
Konvergenz von Folgen im Rn definieren. Wir bezeichnen mit
 k ∞
x k=1 , wobei, xk = (xk1 , . . . , xkn ) ∈ Rn

Folgen im Rn .

 ∞
Definition 3 Es sei xk k=1 eine Folge im Rn , und es sei x ∈ Rn . Wir setzen:

lim xk = x :⇐⇒ ∀ > 0 ∃ k() ∀ k > k() =⇒ kxk − xk < 


k→∞
 ∞
Die Folge xk k=1 heißt dann konvergent. x ist der Grenzwert der Folge.

Bemerkung 3 Alle Folgenglieder xk mit k > k() liegen in einer Kugel um x mit Radius .
 ∞
Satz 1 Es sei xk k=1 mit xk = (xk1 , . . . , xkn ), eine Folge im Rn , und es sei x = (x1 , . . . , xn ) ∈
Rn . Dann gilt:

lim xk = x ⇐⇒ ∀i (i = 1, . . . , n) =⇒ lim xki = xi .


k→∞ k→∞

Beweis. Der Beweis ergibt sich unmittelbar aus der Definition und den Ungleichungen

| xki − xi | ≤ k xk − x k (i = 1, . . . , n),
n
X
k
kx − xk ≤ | xki − xi |.
i=1

Mit Satz 1 lassen sich Eigenschaften von Grenzwerten aus Abschnitt 2.1 übertragen. Insbe-
sondere ist der Grenzwert einer Linearkombination von Folgen gleich der Linearkombination
der einzelnen Grenzwerte.
Eine Cauchyfolge im Rn ist analog zu Definition 2.1.2/2 erklärt, und es gilt der folgende
Satz.
 
Satz 2 xk eine Cauchyfolge im Rn , wenn jede Folge xki eine Cauchyfolge in R ist.
Eine Folge im Rn ist konvergent, genau dann wenn sie ein Cauchyfolge ist.
52 3.1 Grenzwerte


Wir nennen eine Folge xk in Rn beschränkt, wenn es eine positive Zahl c gibt, so daß für
alle k ∈ N gilt: kxk k ≤ c.

Satz 3 Jede in Rn beschränkte Folge besitzt eine konvergente Teilfolge.

Beweis. Der Beweis wird analog zum Fall von Folgen komplexer Zahlen (vgl. Satz 2.1.2/3)
geführt.

Topologische Grundbegriffe

Definition 4 Wir führen einige topologische Grundbegriffe ein, die später benötigt werden.

(i) Es sei x ∈ Rn , und es sei  > 0. Die Menge K(x, ) := {y ∈ Rn : ky − xk < } heißt
offene Kugel um x mit Radius .

(ii) Ω ⊂ Rn heißt offene Menge :⇐⇒ Für jedes x ∈ Ω existiert eine offene Kugel um x,
die ebenfalls in Ω enthalten ist.

(iii) A ⊂ Rn heißt abgeschlossen :⇐⇒ Jede konvergente Folge von Punkten aus A besitzt
einen Grenzwert in A.

(iv) K ⊂ Rn heißt kompakt :⇐⇒ M ist beschränkt und abgeschlossen.

(v) Ein Punkt x0 ∈ Rn heißt Häufungspunkt von M ⊂ Rn :⇐⇒ Für jedes  > 0 existiert
ein Punkt x ∈ M, x 6= x0 , mit k x − x0 k < . Andernfalls heißt ein Punkt x0 , der
zusätzlich zu M gehört, singulärer Punkt von M .

(vi) Die Vereinigung von M und der Menge aller Häufungspunkte von M nennt man den
Abschluß von M und wird mit M bezeichnet.

Bemerkung 4 (i) A ist abgeschlossen ⇐⇒ Jeder Häufungspunkt von A gehört zu A.

(ii) Eine offene Kugel ist auch offen. Der Abschluß einer Menge ist auch abgeschlossen.

(iii) K(x, ) = {y : ky − xk ≤ } und {y : ky − xk = } sind kompakt in Rn .

(iv) Rn ist offen und abgeschlossen.

(v) Die Menge k1 : k ∈ N ⊂ R besteht nur aus singulären Punkten. 0 ist ihr einziger


Häufungspunkt.

(vi) Die Menge aller rationalen Zahlen ist weder offen noch abgeschlossen. Der Abschluß
der Menge aller rationalen Zahlen ist R.

(vii) Es gilt (a, b) = [a, b] und (a, ∞) = [a, ∞).


3.1.2 Funktionen: Grundbegriffe 53

3.1.2 Funktionen: Grundbegriffe


In dieser Vorlesung werden Funktionen f : M −→ Rm behandelt, wobei M eine Teilmenge
des Rn ist. Solche Funktionen lassen sich darstellen als

(y1 , . . . , ym ) = (f1 (x), . . . , fm (x))

wobei jede Funktion fj : M −→ R,

fj (x) = fj (x1 , . . . , xn ), (j = 1, . . . , m)

eine reellwertige Funktion von n Variablen ist.


Beispiele solcher Funktionen werden ausführlich in den folgenden Abschnitten und Kapiteln
behandelt. Wir führen nun einige grundlegende Begriffe ein.

Definition 5 Es seien X, Y Mengen und f : X −→ Y sei eine Funktion.

(i) f ist injektiv :⇐⇒ ∀ x1 , x2 ∈ X mit f (x1 ) = f (x2 ) folgt x1 = x2 .

(ii) f ist surjektiv :⇐⇒ ∀ y ∈ Y ∃ x ∈ X mit f (x) = y.

(iii) f ist bijektiv :⇐⇒ f ist injektiv und surjektiv.

Definition 6 Sei f : X −→ Y eine Bijektion, und sei y ∈ Y mit f (x) = y.


Wir setzen f −1 (y) = x.
f −1 : Y −→ X heißt Umkehrfunktion von f .

Lemma 1 Es gelten folgende Aussagen:


f −1 : Y −→ X ist eine Bijektion.
f −1 (f (x)) = x für alle x ∈ X.
f (f −1 (y)) = y für alle y ∈ Y .

Beweis: Der Beweis folgt unmittelbar aus der Definition der Umkehrfunktion.2

3.1.3 Grenzwerte
Definition 7 Es seien M ⊂ Rn , x0 ein Häufungspunkt von M und f : M −→ Rm eine
Funktion. 
a ∈ Rm heißt Grenzwert von f (x) für x −→ x0 (a = lim0 f (x)) :⇐⇒ Für jede Folge xk
x→x
in M mit lim xk = x0 gilt lim f (xk ) = a.
k→∞ k→∞

Bemerkung 5 Es gilt

(i) a = lim0 f (x) ⇐⇒ ∀j (j = 1, . . . , m) =⇒ aj = lim0 fj (x)


x→x x→x
54 3.1 Grenzwerte

(ii) Die Regeln für Grenzwerte von Summe, Produkt und Quotient von Folgen (verglei-
che Satz 2.1.1/2) lassen sich unmittelbar auf den Fall von Funktionen f : Rn −→ R
übertragen.

(iii) Hilfreich bei der Berechnung von Grenzwerten von reellwertigen Funktionen ist folgende
Aussage: Es seien

f (x) ≤ g(x) ≤ h(x) und lim f (x) = lim0 h(x) = a.


x→x0 x→x

Dann gilt lim0 g(x) = a


x→x

Beispiele

(i) Es sei für x 6= 0 f (x) = sin x1 . Für xk = 1


gilt lim f (xk ) = 0. Wählt man xk =

1
π/2+2kπ
k→∞
1
so ist lim f (xk ) = 1. Folglich existiert lim sin nicht.
k→∞ x→0 x
(ii) Es sei f : R2 − {(0, 0)} −→ R gegeben durch
xy
f (x, y) =
x2 + y2
1
Es sind f (x, 0) = 0 und f (x, x) = 2
für x 6= 0. Somit kann der Grenzwert für (x, y) →
(0, 0) nicht existieren.

(iii) Es sei f : R2 − {(0, 0)} −→ R gegeben durch

x2 y 2
f (x, y) =
x2 + y 2
Dann gilt
x2 y 2 (x2 + y 2 )2
0≤ ≤ = x2 + y 2 −→ 0
x2 + y 2 x2 + y 2
für (x, y) → (0, 0).

Definition 8 (Uneigentliche Grenzwerte)


Wir erweitern unseren Grenzwertbegriff für Funktionen f : R −→ R. Für y 0 ∈ R setzen wir

lim f (x) = y0 :⇐⇒ ∀ ε > 0 ∃ R ∈ R ∀ x > R (< R) =⇒ |f (x) − y0 | < ε


x→±∞

. Außerdem führen wir ein

lim f (x) = +∞(−∞) :⇐⇒ ∀ k > 0 ∃ R ∈ R ∀ x > R (< R) =⇒ f (x) ≥ k (≤ −k)


x→±∞

.
3.1.3 Grenzwerte 55

Beispiele:

1
(i) Es ist lim = 0.
x→∞ x2

(ii) Für jedes Polynom P (x) = an xn + · · · + a1 x + a0 gilt

lim |P (x)| = ∞
x→∞

Satz 4 (Epsilon-Delta-Formulierung des Grenzwertes)


Es seien M ⊂ Rn und a ∈ Rm . Es seien ferner f : M −→ Rm und x0 ein Häufungspunkt
von M . Dann gilt

lim0 f (x) = a ⇐⇒ ∀ > 0∃δ(, x0 )∀x ∈ M, k x − x0 k < δ(, x0 ) =⇒ k f (x) − a k < .


x→x

Bemerkung. Für jede Kugel V = K(a, ) ⊂ Rm muß also eine Kugel U = K(x0 , δ ⊂ Rn
existieren mit der Eigenschaft, daß f (U ) ⊂ V gilt.

Beweis: 1. Schritt. „=⇒ “(indirekt). Annahme


1 1
∃0 > 0∀δ = (k ∈ N)∃xk ∈ M mit k x − x0 k < und k f (xk ) − a k ≥ 0 .
k k
Dann ist lim xk = x0 aber lim f (xxk ) 6= a.
2. Schritt. „⇐= “Es sei  > 0 vorgegeben, und es existiere ein δ so daß

∀x ∈ M mit k x − x0 k < δ → k f (x) − a k < 



Ist nun xk eine Folge in M mit xk → x0 , so existiert ein k0 (δ) = k1 (), so daß für alle
k > k0 (δ) gilt, daß k xk − x0 k < δ. Aus obiger Annahme folgt somit, daß

k f (xk − a k <  für alle k > k0 (δ)

und somit lim f (xk ) = a. 2


56 3.2 Stetigkeit

3.2 Stetigkeit
3.2.1 Definition und Beispiele
Definition 1 Es sei M ⊂ Rn , und es sei f : M −→ Rm .

(i) f heißt stetig in x0 ∈ M :⇐⇒ ∀ ε > 0 ∃ δ = δ(x0 , ε), so daß ∀ x ∈ M mit kx−x0 k <
δ(x0 , ε) folgt: kf (x) − f (x0 )k < ε.

(ii) f heißt stetig auf U ⊂ M :⇐⇒ f ist stetig in jedem Punkt von U .

Folgerung 1 Es seiM ⊂ Rn , und es sei


 
f1

 · 

f = ·  : M −→ Rm .
 
 · 
fm

(i) Dann ist f stetig in x0 = (x01 , . . . , x0n ) genau dann wenn jede Funktion fj : Rn −→
R (j = 1, . . . m) stetig in x0 ist.

(ii) Ist x0 ∈ M ein Häufungspunkt, so gilt:

f stetig in x0 ⇐⇒ lim0 f (x) = f (x0 )


x→x

Bemerkung 1 Ist x0 ein Häufungspunkt von M und kein Element von M , dann heißt f
stetig fortsetzbar in x0 , falls lim0 f (x) =: f (x0 ) existiert.
x→x

Beispiele:
P (x)
(1) Polynome sind überall auf R stetige Funktionen. Rationale Funktionen R(x) = Q(x)
mit Polynomen P (x) und Q(x) sind stetig in allen Punkten x0 mit Q(x0 ) 6= 0.

(2) Die Funktion f (x) = kxk, definiert für jedes x ∈ Rn ist stetig auf Rn . Dies folgt aus
der Ungleichung
|kxk − kx0 k| ≤ kx − x0 k.

x sin x1 x 6= 0

(3) Die Funktion f (x) = ist stetig im Punkt 0.
0 x=0
3.2.1 Definition und Beispiele 57

(4) Die Funktion ex ist stetig in x0 für jedes x0 ∈ R, denn es gilt:

|ex − ex0 | = |ex0 ||e(x−x0 ) − 1|


|x − x0 |2
 
x0
≤ |e | |x − x0 | + + ...
2!
≤ |ex0 ||x − x0 | (1 + |x − x0 | + |x − x0 |2 + . . .)
1
≤ 2 |ex0 ||x − x0 | ≤ ε für |x − x0 | <
2
ε
falls |x − x0 | ≤ = δ(ε, x0 )
2|ex0 |

Klassifikation der Unstetigkeitsstellen


Wir unterscheiden verschiedene Typen von Unstetigkeitstellen. Hierbei beschränken wir uns
auf Funktionen f : R −→ R.

Definition 2 Sei f : (a, x0 ) ∪ (x0 , b) −→ R mit −∞ ≤ a < b ≤ ∞.

(i) f (x0 + 0) := lim f (x) =: y0 :⇐⇒ ∀ ε > 0 ∃ δ(ε, x0 ), so daß ∀ x > x0 mit |x − x0 | ≤ δ
x↓x0
folgt: |f (x) − y0 | ≤ ε.
y0 heißt rechtsseitiger Grenzwert von f in x0 .

(ii) f (x0 − 0) := lim f (x) =: y0 :⇐⇒ ∀ ε > 0 ∃ δ(ε, x0 ), so daß ∀ x < x0 mit |x − x0 | ≤ δ
x↑x0
folgt: |f (x) − y0 | ≤ ε.
y0 heißt linksseitiger Grenzwert von f in x0 .

(iii) f (x0 + 0) = ±∞ :⇐⇒ ∀ k > 0 ∃ δ(k), so daß ∀ x > x0 mit |x − x0 | ≤ δ folgt:

f (x) ≥ k (f (x ≤ −k)).

f (x0 − 0) = ±∞ :⇐⇒ ∀ k > 0 ∃ δ(k) so daß ∀ x < x0 mit |x − x0 | ≤ δ folgt:

f (x) ≥ k (f (x ≤ −k)).

(iv) f ist linksseitig (rechtsseitig) stetig in x0 :⇐⇒ f (x0 − 0) = f (x0 )

(f (x0 + 0) = f (x0 )).

Folgerung 2 f ist stetig ⇐⇒ f ist linksseitig und rechtsseitig stetig


⇐⇒ f (x0 − 0) = f (x0 + 0) = f (x0 ).

Definition 3 Sei f : (a, b) −→ R, x0 ∈ (a, b) und f nicht stetig in x0 .


58 3.2 Stetigkeit

(i) x0 heißt hebbare Unstetigkeitsstelle :⇐⇒ f (x0 − 0) = f (x0 + 0) ∈ R

(ii) x0 heißt Sprungstelle :⇐⇒ ∃ f (x0 − 0) ∈ R, ∃ f (x0 + 0) ∈ R und f (x0 − 0) 6= f (x0 + 0)

(iii) x0 heißt Polstelle :⇐⇒ ∃ f (x0 − 0), ∃ f (x0 + 0), und wenigstens ein Grenzwert ist
+∞ oder −∞.

(iv) x0 heißt wesentliche Unstetigkeitstelle :⇐⇒ mindestens ein einseitiger Grenzwert exi-
stiert nicht.

3.2.2 Eigenschaften stetiger Funktionen


Satz 1 Es sei M ⊂ Rn .
(i) Es seien f, g : M −→ R stetig in x0 ∈ M . Dann sind auch die Funktionen f + g und
f · g stetig in x0 ∈ M . fg ist stetig in x0 , falls g(x0 ) 6= 0 ist.

(ii) Es seien f : M −→ Rm , g : Rm −→ Rp . Ist f stetig in x0 und g stetig in f (x0 ), so ist


g ◦ f stetig in x0 .

Beweis: 1. Schritt: O.B.d.A. sei ε ≤ 1. Dann gilt:

|f (x) + g(x) − f (x0 ) − g(x0 )| ≤ |f (x) − f (x0 )| + |g(x) − g(x0 )| ≤ 2ε.

Außerdem gilt:

|f (x)g(x) − f (x0 )g(x0 )|

≤ |f (x) − f (x0 )||g(x)| + |g(x) − g(x0 )||f (x0 )|

≤ |f (x) − f (x0 )| |g(x) − g(x0 )| + |f (x) − f (x0 )| |g(x0 )| + |g(x) − g(x0 )| |f (x0 )|
| {z }| {z } | {z } | {z }
≤ε ≤ε≤1 ≤ε ≤ε
0 0
≤ ε(1 + |g(x )| + |f (x )|).

2. Schritt: Es sei O.B.d.A. g(x0 ) > 0. Dann existiert ein δ0 = δ(x0 ) > 0, so daß g(x) ≥ g(x0 )/2
für alle x mit kx − x0 k ≤ δ0 . Das zeigen wir indirekt. Sei δ = 1j . Wir nehmen an, für jedes
j ∈ N existiert ein xj ∈ M , so daß für alle xj mit kxj − x0 k ≤ 1j gilt:

g(xj ) =≤ g(x0 )/2.

Wegen der Stetigkeit von g im Punkt x0 kann dann nicht

lim g(xj ) = g(x0 ),

gelten, und das ist ein Widerspruch.


3.2.2 Eigenschaften stetiger Funktionen 59

3. Schritt: Es gilt (g(x0 ) > 0 und δ0 wie oben):



1 1 1 0 2 0
g(x) − g(x0 ) = |g(x)||g(x0 )| |g(x) − g(x )| ≤ g(x0 ) |g(x − x )|

1
für |x − x0 | ≤ δ0 . Damit ist g(x) stetig in x0 , und aus dem 1. Schritt folgt, daß fg stetig in x0
ist.
4. Schritt: Aus x −→ x0 folgt, da f stetig ist, f (x) −→ f (x0 ). Daraus folgt, da g stetig ist,
g(f (x)) −→ g(f (x0 )). 2
Im 2. Schritt des Beweises haben wir folgende Aussage gezeigt.

Lemma 1 Es sei M ⊂ Rn . Es sei g : M −→ R stetig in x0 ) ∈ M , g(x0 ) > 0. Dann


existieren ein δ0 > 0 und ein c > 0, so daß für alle x ∈ M mit kx − x0k ≤ δ0 folgt: g(x) ≥ c.

Satz 2 Es sei U ⊂ M ⊂ Rn kompakt, und es sei f : M −→ Rm stetig auf U . Dann ist die
Menge f (U ) = {f (x) : x ∈ U } ebenfalls kompakt.

Beweis: 1. Schritt: Wir zeigen zunächst, daß f (U ) beschränkt ist. Nehmen wir an, f (U ) sei
unbeschränkt, d.h. für alle k ∈ N existiere ein y k ∈ f (U ) mit ky k k ≥ k. Dann existiert eine
beschränkte Folge {xk } ⊂ U mit f (xk ) = y k . O.B.d.A. konvergiere xk gegen x ∈ U (sonst
wählen wir eine Teilfolge aus), und da f stetig ist, gilt:

f (xk ) = y k −→ f (x).

Das ist ein Widerspruch.


2. Schritt: Wir zeigen, f (U ) ist abgeschlossen. Sei {f (xk )} mit xk ∈ U konvergent: f (xk ) −→
y. Zu zeigen ist: y ∈ f (U ). {xk } ist eine Folge in U , U ist beschränkt und abgeschlossen, d.h.
es gibt eine Teilfolge {xkl } mit xkl −→ x ∈ U . Aus der Stetigkeit von f folgt f (xkl ) −→ f (x),
und da f (xk ) −→ y, folgt y = f (x). Damit ist y ∈ f (U ). 2

Satz 3 (Satz vom Maximum) Es sei f : M −→ R stetig auf U ⊂ M ⊂ Rn , und sei U


kompakt. Dann ist f beschränkt auf U , und es existieren Punkte x0 und x1 , so daß

f (x0 ) = sup f (U ) = sup f (x)


x∈U

f (x1 ) = inf f (U ) = inf f (x)


x∈U

Beweis: Nach Satz 2 ist f beschränkt auf U (f (U ) ist beschränkt). f (U ) ⊂ R. Daher existieren
sup f (U ) = y0 und inf f (U ) = y1 . Wir wählen eine Folge {yj } = {f (uj )} mit f (uj ) −→ y0 .
Das ist immer möglich. Die Folge {uj } ist eine Teilmenge von U , U ist kompakt, d.h. es
existiert eine Teilfolge {ujl } mit ujl −→ x0 ∈ U . Es folgt f (ujl ) −→ f (x0 ), da f stetig ist,
und damit ist f (x0 ) = y0 . Mit x1 verfahren wir analog. 2

Satz 4 (Stetigkeit der Umkehrfunktion) Es seien U ⊂ Rn , W ⊂ Rm U kompakt, f :


U −→ W bijektiv und stetig. Dann ist f −1 : W −→ U bijektiv und stetig.
60 3.2 Stetigkeit

Beweis: Nach Satz 2 ist W = f (U ) kompakt. Es sei w0 ∈ W . Wir nehmen an, f −1 ist nicht
stetig in w0 . D.h. es existiert eine Folge {wj } ⊂ W mit wj −→ w0 und f −1 (wj ) 6→ f −1 (w0 ).
Es sei uj := f −1 (wj ) und u0 := f −1 (w0 ). Da uj 6→ u0 , existiert eine Teilfolge {ujk } mit
k jk
u − u0 k ≥ ε. O.B.d.A. konvergiere ujk gegen v 0 ∈ U . Es ist klar, daß v 0 6= u0 . Da f stetig
ist, folgt
f (ujk ) −→ f (v 0 )
bzw. wjk −→ f (v 0 ).
Also ist w0 = f (v 0 ). Wenden wir darauf f −1 an, erhalten wir u0 = v 0 . Das ist aber ein
Widerspruch. √ 2
Beispiel: Es sei n ∈ N. f (x) := x ist stetig auf [0, ∞).
n

3.2.3 Zwischenwertsatz
Wir führen folgende Bezeichnungen ein: Es sei M ⊂ R.

sup M = +∞ :⇐⇒ ∀ k > 0 ∃ xk ∈ M mit xk ≥ k.


(M ist dann nicht nach oben beschränkt.)

inf M = −∞ :⇐⇒ ∀ k > 0 ∃ xk ∈ M mit xk ≤ −k.


(M ist dann nicht nach unten beschränkt.)
Satz 5 Es sei f : (a, b) −→ R stetig auf (a, b), wobei −∞ ≤ a < b ≤ +∞, und η ∈ R
mit α := inf f < η < sup f =: β (α = −∞, β = +∞ ist zugelassen). Dann existiert ein
ξ ∈ (a, b) mit f (ξ) = η.
Beweis: Es existieren a0 , b0 mit
f (a0 ) < η < f (b0 ).
O.B.d.A. sei a0 < b0 . Wir betrachten die Funktion
f˜(x) := f (x) − η auf [a0 , b0 ].
Dann ist f˜ stetig, und es gilt:
f˜(a0 ) < 0 und f˜(b0 ) > 0.
Zu zeigen ist, es existiert ein ξ ∈ (a0 , b0 ) mit f˜(ξ) = 0. Es sei
M := {x ∈ [a0 , b0 ] : f˜(x) ≤ 0.}
M ist nicht leer und beschränkt, da f˜(a0 ) ≤ 0. Also hat M ein Supremum ξ := sup M . Wir
wählen nun eine Folge {xj } ⊂ M mit xj −→ ξ. Dies ist immer möglich. Da f˜ stetig ist, folgt
f˜(xj ) −→ f˜(ξ). Wegen f˜(xj ) ≤ 0 ist auch f˜(ξ) ≤ 0, und ξ < b0 , da f˜(b0 ) > 0. Also ist
f˜(x) > 0 auf (ξ, b0 ].
3.2.4 Monotone Funktionen 61

Da f˜ stetig ist, existiert der rechtsseitige Grenzwert f˜(ξ + 0) ≥ 0, und es gilt:

f˜(ξ + 0) = f˜(ξ).

2
Bemerkung: Es kann ein konstruktiver Beweis gegeben werden, der auf einem Halbierungs-
verfahren (bzw. einer Intervallschachtelung) beruht.Hierzu halbiert man das Intervall [a0 , b0 ]
und wählt das Teilintervall [a1 , b1 ] ⊂ [a0 , b0 ], so daߘf (a1 ) < 0 und f˜(b1 ) > 0. Dieses Verfah-
ren setzt man fort und erhält zwei Folgen {aj } und {bj } mit lim aj = lim bj = ξ.

Beispiel: Jedes Polynom ungerader Ordnung hat mindestens eine reelle Nullstelle.
Beweis:

P (x) = a2m+1 x2m+1 + . . . + a1 x + a0 a2m+1 6= 0, aj ∈ R, m = 1, 2, . . . , x 6= 0


h a 2m a 0
i
= x2m+1 a2m+1 + + . . . + 2m+1
x x
Es folgt
lim P (x) = ±∞ und lim P (x) = ∓∞,
x→∞ x→−∞

und damit gilt:


sup P (x) = ∞ und inf P (x) = −∞.
R R

3.2.4 Monotone Funktionen


Definition 4 Sei f : (a, b) −→ R mit −∞ ≤ a < b ≤ +∞.
(i) f heißt monoton wachsend (oder monoton nicht fallend) auf (a, b)
:⇐⇒ für alle x1 , x2 ∈ (a, b) mit x1 < x2 gilt: f (x1 ) ≤ f (x2 ).
f heißt streng monoton wachsend auf (a, b)
:⇐⇒ für alle x1 , x2 ∈ (a, b) mit x1 < x2 gilt: f (x1 ) < f (x2 ).

(ii) f heißt monoton fallend (oder monoton nicht wachsend) auf (a, b)
:⇐⇒ für alle x1 , x2 ∈ (a, b) mit x1 < x2 gilt: f (x1 ) ≥ f (x2 ).
f heißt streng monoton fallend auf (a, b)
:⇐⇒ für alle x1 , x2 ∈ (a, b) mit x1 < x2 gilt: f (x1 ) > f (x2 ).

Bemerkung: Ist die Funktion f streng monoton, dann ist f bijektiv, und es existiert die
Umkehrfunktion f −1 .

Lemma 2 Sei f (a, b) −→ R monoton wachsend (oder monoton fallend).


(i) Für jedes x0 ∈ (a, b) existieren f (x0 − 0) ∈ R und f (x0 + 0) ∈ R, und
f (x0 − 0) ≤ f (x0 + 0), falls f monoton wachsend.
62 3.2 Stetigkeit

(ii) Es existiert f (a+0) ≥ −∞, und es existiert f (b−0) ≤ +∞, falls f monoton wachsend.
Es existiert f (a + 0) ≤ ∞, und es existiert f (b − 0) ≥ −∞, falls f monoton fallend.

Beweis: Sei f monoton wachsend und x0 ∈ (a, b). Wir betrachten {f (x) : x < x0 }. Diese
Menge ist nicht leer und wegen der Monotonie von f beschränkt (f (x) ≤ f (x0 ) für alle x).
Das heißt, es existiert ein
β := sup{f (x) : x < x0 }.

Für ε > 0 existiert dann ein xε < x0 mit

β − ε < f (xε ) ≤ β.

Für alle x ∈ (xε , x0 ) gilt wegen der Monotonie: β − f (x) < ε. Daraus folgt, es existiert
f (x0 − 0), und
f (x0 − 0) = sup f (x) < ∞.
x<x0

Alle anderen Fälle werden analog bewiesen.2

Satz 6 Sei f : (a, b) −→ R monoton (wachsend oder fallend). Dann ist f stetig bis auf
höchstens abzählbar viele Sprungstellen.

Beweis: O.B.d.A. sei f monoton wachsend. Es sei

A := {x ∈ (a, b) : f (x − 0) < f (x + 0)}.

Wir setzen  
J(x) := ηx ∈ f (x − 0), f (x + 0) , x ∈ A mit ηx rational.

Die Abbildung J : A −→ Q ist injektiv, d.h. J(A) ist abzählbar. Damit ist auch A, die
Menge der Sprungstellen, abzählbar.2

Satz 7 Sei f : (a, b) −→ R streng monoton (wachsend oder fallend) und stetig auf (a, b).
Dann ist R(f ) = (inf f, sup f ) ein Intervall, und f −1 ist stetig.

Beweis: Da f streng monoton ist, gilt o.B.d.A.

α := inf f < f (x) < sup f =: β.

Für η ∈ (α, β) existiert nach dem Zwischenwertsatz (Satz 3.2.3/5) ein ξ ∈ (a, b) mit f (ξ) = η.
f ist stetig auf [a0 , b0 ] ⊂ (a, b) für alle a0 , b0 . Damit ist f −1 stetig nach Satz 3.2.2/4. 2
3.2.5 Gleichmäßige Stetigkeit 63

3.2.5 Gleichmäßige Stetigkeit


Definition 5 Es sei M ⊂ Rn , f : M −→ Rm .
f ist gleichmäßig stetig auf U ⊂ M :⇐⇒ ∀ ε > 0 ∃ δ = δ(ε), so daß ∀ x, x0 mit kx − x0 k < δ:

kf (x) − f (x0 )k < ε.

Bemerkung: Bei gleichmäßiger Stetigkeit kann δ unabhängig von der Lage von x und x0 in
U gewählt werden. Maßgebend ist lediglich ihr Abstand. f ist dann natürlich stetig in jedem
Punkt x ∈ U .
Beispiele:

(1) f (x) = x, f (x) = const, f (x) = |x| sind gleichmäßig stetig auf R.

(2) f (x) = x2 ist gleichmäßig stetig auf jeder beschränkten Menge.:


Es gilt folgende Abschätzung:

|f (x) − f (x0 )| = |x2 − (x0 )2 | = |x − x0 ||x + x0 | ≤ (|x| + |x0 |)|z − z 0 | < ε


ε
für |x − x0 | < δ := , da |x| ≤ c und |x0 | ≤ c.
2k

(3) Wir betrachten f (x) = x auf [0, ∞). Es gelten die Abschätzungen
√ √
|x − x0 |1/2 |x − x0 |1/2

1 1 x + x0
√ − √ =
x √ √ ≤ √ √ |x − x0 |1/2 | = |x − x0 |1/2
x 0 x+ x 0 x+ x 0

Somit kann δ = ε2 gewählt werden und f ist gleichmäßig stetig auf [0, ∞).

Definition 6 Es sei f : M −→ R, U ⊂ M ⊂ Rn . Es sei 0 < α < 1.

(i) f heißt Lipschitz–stetig auf U :⇐⇒ ∃ L > 0, so daß ∀ x, x0 ∈ U gilt:

|f (x) − f (x0 )| ≤ Lkx − x0 k

(ii) f heißt α−Hölder–stetig auf U :⇐⇒ ∃ L > 0, so daß ∀ x, x0 ∈ U gilt:

|f (x) − f (x0 )| ≤ Lkx − x0 kα

Folgerung 3 Ist f Lipschitz–stetig auf U , oder ist f eine dort α−Hölder–stetige Funk-
tion, so ist f gleichmäßig stetig.

Wir betrachten nun Beispiele stetiger, aber nicht gleichmäßig stetiger Funktionen.
64 3.2 Stetigkeit

1
Lemma 3 Es existiere ein ε, und es existieren Folgen {uj } und {v j } aus U mit kuj −v j k ≤ j
und |f (uj ) − f (v j )| ≥ ε. Dann ist f nicht gleichmäßig stetig auf U .

Beweis: Wir nehmen an, f ist gleichmäßig stetig. Es sei ε wie im Lemma angegeben. Nach
Definition 5 existiert ein δ > 0, so daß |f (u) − f (v)| ≤ 2ε für kv − v 0 k ≤ δ. Wir wählen ein j
mit 1j ≤ δ. Es folgt, daß kuj − v j | ≤ δ und |f (uj ) − f (v j )| ≥ ε. Das ist aber ein Widerspruch.
2
Beispiele:

(1) f (x) = x2 ist nicht gleichmäßig stetig auf [1, ∞).


Wir wählen die Folgen xj = j und x0j = j + 1j . Es gilt:
 2
1 1
|f (xj ) − f (x0j )| = j 2 − j + = 2 + 2 ≥ 2.

j j

Die Ursache für die nicht gleichmäßige Stetigket ist „starkes Wachstum“für x −→ ∞.

(2) Ebenso ist f (x) = exp(x) nicht gleichmäßig stetig auf (1, ∞).
Es gilt:
   
1 1
exp j + − exp(j) = exp(j) exp − 1
j j
 
1 1
= exp(j) + + ...
j 2j 2
 
1 1 1
= exp(j) 1 + + . . . ≥ exp(j)
j 2j j
2
 
1 j j j
= +1+ + + ... ≥ −→ ∞.
j 2 3! 2

1
(3) Die Funktion f (x) = sin ist nicht gleichmäßig stetig auf (0, 1).
x
Wir wählen
1 1
xj = und x0j =
2πj 2πj + π2
Es gilt: |f (xj ) − f (x0j )| = 1 und

1 π 1
|xj − x0j | = π ≤ −→ 0

2πj(2πj + 2 ) 2 8πj 2

Die Ursache liegt hier in der „starken Oszillation “auf einem endlichen Intervall.

Satz 8 (über die gleichmäßige Stetigkeit) Es sei f : M −→ Rm stetig auf U ⊂ M ⊂


Rn , und U sei kompakt. Dann ist f gleichmäßig stetig auf U .
3.2.5 Gleichmäßige Stetigkeit 65

Beweis: Wir nehmen an, f ist nicht gleichmäßig stetig auf U . Dann existiert ein ε > 0, und
für alle δ = 1j existieren uj , v j mit

1
kuj − v j k ≤ und kf (uj ) − f (v j )k ≥ ε.
j

Da U kompakt ist, existiert eine Teilfolge {ujk } mit ujk −→ u ∈ U . Daraus folgt: v jk −→ u.
Wegen der Stetigkeit von f gilt

f (ujk ) −→ f (u) und f (v jk ) −→ f (u),

und damit
kf (ujk ) − f (v jk )k −→ 0.
Das ist aber ein Widerspruch. 2
66 3.3 Elementare Funktionen

3.3 Elementare Funktionen


3.3.1 Exponential– und Logarithmusfunktion
Aus Satz 2.3.5/8 folgt für z, w ∈ C:


X zj  z n
exp(z) := = lim 1+
j=0
j! n→∞ n
exp(z + w) = exp(z) exp(w)
m m m
exp = en, rational
n n
Außerdem ist exp(x) stetig auf R, wobei
| exp(x) − exp(x0 )| ≤ c| exp(x0 )||x − x0 | für |x − x0 | ≤ 1
Definition 1 Sei x ∈ R. ex := exp(x) heißt Exponentialfunktion.
Satz 1 ex ist streng monoton wachsend und stetig von R auf (0, ∞). Es gilt:
ex
 
x n −x
lim e = 0, lim x e = 0 lim =∞ n = 0, 1, . . .
x→−∞ x→∞ x→∞ xn

Beweis: Die Stetigkeit und Monotonie der Exponentialfunktion ist klar. Es gilt für alle x > 0
und für jedes feste n
xn+1
ex > .
(n + 1)!
Es folgt
ex x
n
> −→ ∞ für x −→ ∞
x (n + 1)!
und
1
lim ex = lim e−x = = 0.
x→−∞ x→+∞ lim ex
x→∞
Aus dem Zwischenwertsatz folgt:
ex : R −→ (0, ∞)
ist surjektiv.2
Bemerkung: Es gelten folgende Beziehungen:
ex+y = ex ey
(ex )α = eαx , α rational
1
e−x = x
e
3.3.1 Exponential– und Logarithmusfunktion 67

Definition 2 Die Umkehrfunktion der Funktion exp(x) : R −→ (0, ∞) heißt Logarithmus-


funktion (natürlicher Logarithmus).

log(x) = ln x := (exp)−1 (x), x ∈ (0, ∞)

Bemerkung: Es gelten also folgende Identitäten:

elog x = x, x>0

log ex = x, x∈R

Satz 2 (i) Die Funktion log : (0, ∞) −→ R ist streng monoton wachsend und stetig von
(0, ∞) auf R. Es gilt:

lim log x = −∞, lim log x = +∞


x↓0 x→∞

(ii) Für alle x, y ∈ (0, ∞) gilt:

log x · y = log x + log y (3.1)


x
log = log x − log y (3.2)
y

Für alle α ∈ Q, x ∈ (0, ∞) gilt:

log xα = α log x

Beweis: Wir zeigen (ii). Mit x = eu und y = ev gilt:

log x · y = log(eu ev ) = log eu+v = u + v = log x + log y.


u
log xy = log eev = log eu−v = u − v = log x − log y.

log xα = log(eu )α = log eαu = αu = α log x.


2
m
Bemerkung: Sei a > 0 und n
rational. Es gilt:
m  mn m
a n = elog a = e n log a .

Daraus folgt ax = ex log a für rationale x.

Definition 3 Sei a > 0, x ∈ R. Die allgemeine Exponentialfunktion wird definiert als

ax := ex log a .
68 3.3 Elementare Funktionen

Bemerkungen:
(1) Für a < 1 gilt: log a < 0 =⇒ ax streng monoton fallend.
Für a > 1 gilt: log a > 0 =⇒ ax streng monoton wachsend.
Für a = 1 gilt: ax ≡ 1.

(2) Es existiert die Umkehrfunktion:


1
a log a ·log x = elog x = x für alle x ∈ R.
1
Somit lautet die Umkehrfunktion: log x.
log a
Definition 4 Sei a > 0. Die Umkehrfunktion von ax ist
1
loga x := log x.
log a

Satz 3 (i) Die Funktionen ax und loga x sind stetig und streng monoton (fallend für a < 1,
wachsend für a > 1).

(ii) Es gelten die Rechenregeln:

ax+y = ax ay x, y ∈ R
(ax )y = a x·y
x, y ∈ R
ax · b x = (a · b)x
x ∈ R, a, b > 0
log ax = x log a a > 0, x ∈ R

Beweis: Der Beweis folgt aus den Definitionen für ax und loga x sowie den Rechenregeln für
ex und log x.2

3.3.2 Potenzfunktionen
Definition 5 Sei x ≥ 0, α ∈ R. Wir setzen

0α := 0, falls α > 0,

xα := eα log x für x > 0, α ∈ R


xα heißt allgemeine Potenzfunktion.

Satz 4 Die Funktion xα hat folgende Eigenschaften.


(i) xα ist monoton wachsend und stetig für α > 0.
xα ist monoton fallend und stetig für α < 0.
1
Die Umkehrfunktion ist x α , α 6= 0.
3.3.3 Trigonometrische Funktionen 69

(ii) Für α > 0 gilt:


lim x−α log x = 0, lim xα log x = 0
x→∞ x→0

Beweis: Wir zeigen (ii). Es gilt:

lim x−α log x = lim e−α log x log x = lim ye−αy = 0


x→∞ x→∞ y→∞

 α
1 1
α
lim x log x = lim log = − lim y −α log y = 0
x↓0 y→∞ y y y→∞

2
−α α
Bemerkung: Für große x gilt: x log x ≤ c und damit log x ≤ cx ∀ α.
Für kleine x gilt: |xα log x| ≤ c, also −xα log x ≤ c bzw. − log x ≤ cx−α .

3.3.3 Trigonometrische Funktionen


Definition 6 Sei x ∈ R.
eix + e−ix
cos x := Re (eix ) = Cosinus von x
2
eix − e−ix
sin x := Im (eix ) = Sinus von x
2i
Bemerkungen: (1) Interpretation von x: Bogenlänge bzw. Winkel
(2) eix = cos x + i sin x

Satz 5 Für alle x, y ∈ R gilt:



x2 x4 x6 X x2k
(i) cos x = 1 − + − + ... = (−1)k
2! 4! 6! k=0
(2k)!

x3 x5 x7 X x2k+1
sin x = x − + − + ... = (−1)k
3! 5! 7! k=0
(2k + 1)!
Die Reihen konvergieren absolut.

(ii) cos2 x + sin2 x = 1, | cos x| ≤ 1, | sin x| ≤ 1.

(iii) (cos x + i sin x)n = cos nx + i sin nx für n ∈ N.

cos(x ± y) = cos x cos y ∓ sin x sin y

sin(x ± y) = sin x cos y ± cos x sin y

Beweis:
70 3.3 Elementare Funktionen

(i) Es gilt:
x2 x4 x3 x5
   
ix
e = 1− + − ... + i x − + − ...
2! 4! 3! 5!

(ii) klar.

(iii)
1  i(x+y)
+ e−i(x+y)

cos(x + y) = e
2
1  ix iy
e e + e−ix e−iy

=
2

= cos x cos y + sin x sin y

Lemma 1 (i) sin 0 = 0, cos 0 = 1, cos 1 > 0, cos 2 < 0


sin x > 0 auf (0, 2),
cos x ist streng monoton fallend auf [0, 2].

(ii) Es existiert genau ein x0 ∈ (1, 2) mit cos x0 = 0 (Nullstelle).

Beweis: Es gilt:
     
1 1 1 1 1
cos 1 = 1− + − + − +... > 0
2 4! 6! 8! 10!
| {z } | {z } | {z }
>0 >0 >0

22 24 26 28 210
cos 2 = 1 − + − + − + ...
2! 4! 6! 8! 10!
 6
28
  10
212

16  2 2
= 1−2+ −  − + − +...
24  6! 8! 10! 12!
| {z } | {z }
>0 >0
1
= − − R mit R > 0
3
Sei x ∈ (0, 2).

x3 x5 x7
sin x = x − + − + ...
 3! 2 5! 7! 
x5 x2 x9 x2
  
x
= x 1− + 1− + 1− + ...
3! 5! 6·7 9! 10 · 11
> 0 fürx ∈ (0, 2)
3.3.3 Trigonometrische Funktionen 71

Es sei 0 < u < v < 2. Dann gilt:



v 2 − u2 v 4 − u4 v 6 − u6 X v 2k − u2k
cos u − cos v = − + − ... = (−1)k+1
2! 4! 6! k=1
(2k)!

s − t s2 − t2 s3 − t3 X sk − tk
= − + − ... = (−1)k+1
2! 4! 6! k=1
(2k)!
mit 0 < u2 = t < s = v 2 < 4


X sk−1 + sk−2 t + . . . + stk−2 + tk−1
= (s − t) (−1)k+1
k=1
(2k)!
 
∞  2l−2
+ . . . + t2l−2 s2l−1 + s2l−2 t + . . . + st2l−2 + t2l−1 

X s
= (s − t) 
 (2(2l − 1))! − 
| {z }
l=1 |
(2(2l))! 

>0 {z }
al
(4l−2)!

Es gilt:
s2l−1 + s2l−2 t + . . . + st2l−2 + t2l−1 = s(al ) + t · t2l−2 ≤ (s + t)al ≤ 8al
Es folgt für jeden Summanden
h i al 8al
... ≥ − >0 l = 1, 2, . . . ,
(4l − 2)! (4l)!
und somit ist
cos u − cos v > 0.
Damit ist cos x streng monoton fallend auf [0, 2], und nach dem Zwischenwertsatz hat cos x
genau eine Nullstelle in (1, 2), da cos 1 > 0 und cos 2 < 0.2

π
Definition 7 Wir setzen 2
:= x0 , wobei x0 Nullstelle von cos x in (1, 2) ist.
Wertetabelle

cos 0 = 1 √ sin 0 = 0 √
cos π4 = 12 2 sin π4 = 12 2
cos π2 = 0 sin π2 = 1
cos π = −1 sin π = 0
cos 32 π = 0 sin 23 π = −1
cos 2π = 1 sin 2π = 0
72 3.3 Elementare Funktionen

Satz 6 (i) Es gilt für alle x ∈ R:


cos(x + π) = − cos x
cos(x + 2π) = cos x
sin x = cos x − π2
sin(x + π) = − sin x
sin(x + 2π) = sin x

(ii) cos ist eine streng monoton fallende Funktion von [0, π] auf [−1, 1].
sin ist eine streng monoton wachsende Funktion von [− π2 , π2 ] auf [−1, 1].

Beweis: Der Beweis erfolgt unter Anwendung der Additionstheoreme, der speziellen Werte
aus der Wertetabelle und des Lemmas.2

Folgerung 1 eix : [0, 2π) −→ {z : |z| = 1} ist eine Bijektion. Es gilt:


ei(x+2kπ) = eix
π 3
eiπ = 1, ei 2 = i, ei 2 π = −i.

Definition 8 Wir definieren die Umkehrfunktionen von cos und sin.

(i) arccos ist die Umkehrfunktion von cos auf [0, π]


arccos : [−1, 1] −→ [0, π]

(ii) arcsin ist die Umkehrfunktion von sin auf [− π2 , π2 ]


arcsin : [−1, 1] −→ [− π2 , π2 ]

Die Funktionen tan x und cot x

Definition 9
sin x π
tan x := , x ∈ R, x 6= 2kπ + , k∈Z
cos x 2
cos x
cot x := , x ∈ R, x 6= kπ, k ∈ Z
sin x

Bemerkung: tan(x + 2kπ) = tan x


cot(x + π) = cot x
sin(x + π) − sin x
tan(x + π) = = = tan x
cos(x + π) −cosx
tan π4 = 1, tan 0 = 1, tan(− π2 ) = −∞ tan π2 = ∞.
3.3.4 Polarkoordinatendarstellung komplexer Zahlen, Wurzeln 73

Definition 10 Wir definieren die Umkehrfunktionen von tan und cot.


arctan ist die Umkehrfunktion von tan auf (− π2 , π2 ).
π π
arctan : (−∞, ∞) −→ (− , )
2 2
arccot ist die Umkehrfunktion von cot auf (0, π).

arccot : (−∞, ∞) −→ (0, π)

Bemerkung: Die Zahl π

π = 4 arctan 1 oder π = 16 arctan 15 − 4 arctan 239


1

Potenzreihenentwicklung und Berechnung ergibt: π = 3.14159 . . .

3.3.4 Polarkoordinatendarstellung komplexer Zahlen, Wurzeln


Jede komplexe Zahl kann dargestellt werden in der Form

z = x + iy.

Setzen wir r := |z|, so gilt


z x y  x 2  y 2
= +i und + = 1.
|z| r r r r
Daraus folgt, es existiert genau ein ϕ ∈ [0, 2π) mit
x y
= cos ϕ und = sin ϕ,
r r
und wir erhalten
z
= cos ϕ + i sin ϕ = eiϕ .
|z|
Nun können wir z in Polarkoordinaten darstellen:

z = r · eiϕ = r(cos ϕ + i sin ϕ).

Bemerkungen:
(1) eiϕ = ei(ϕ+2kπ) , k ∈ Z (Periodizität)

(2) (cos x + i sin x)n = cos nx + i sin nx Moivresche Formel

(3) ϕ = arg z Argument


r = |z| Betrag

(4) ϕ ∼ Bogenlänge am Einheitskreis.


74 3.3 Elementare Funktionen

Definition 11 Sei w ∈ C, w 6= 0, n ∈ N.
z ∈ C heißt n–te Wurzel aus w :⇐⇒ z n = w.

Satz 7 Es gibt genau n verschiedene n–te Wurzeln aus w = |w|eiψ , ψ ∈ [0, 2π):
p
zk = n |w|eiϕk mit nϕk = ψ + 2kπ k = 0, . . . , n − 1

Beweis: Es sei z = |z|eiϕ . Es gilt:

z n = w ⇐⇒ (|z|eiϕ )n = |w|eiψ 0 < ψ < 2π


n
⇐⇒ |z| = |w| und nϕ = ψ + 2kπ
p ψ 2kπ
⇐⇒ |z| = n |w| und ϕ = + k = 0, 1, . . . , n − 1
n n
2

Bemerkung: Einheitswurzeln:

zn = 1 =⇒ zk = ei n k , k = 0, . . . , n − 1
Kapitel 4

Differentialrechnung

4.1 Differentiation
4.1.1 Definitionen und Beispiele
Wir betrachten f : (a, b) −→ R mit −∞ < a < b < ∞.

Definition 1 Sei x0 ∈ (a, b).


f (x0 + h) − f (x0 )
(i) f ist differenzierbar in x0 :⇐⇒ ∃ α mit −→ α (h −→ 0).
h
df
f 0 (x0 ) := (x0 ) := α heißt (erste) Ableitung von f in x0 .
dx
(ii) f ist differenzierbar in (a, b) :⇐⇒ ∃ f 0 (x) ∀ x ∈ (a, b).

(iii) f : [a, b] −→ R
f (x0 + h) − f (x0 )
f+0 (x0 ) = lim , x0 ∈ [a, b), a > −∞ heißt rechsseitige Ableitung.
h↓0 h
f (x0 + h) − f (x0 )
f−0 (x0 ) = lim , x0 ∈ (a, b], b < ∞ heißt linksseitige Ableitung.
h↑0 h
f (x0 + h) − f (x0 ) f (x) − f (x0 )
Bemerkung: Es gilt: lim = lim .
h→0 h x→x0 x − x0

Geometrische Interpretation

Es sei γ = {(x, f (x) : x ∈ (a, b))} eine Kurve in R2 und f differenzierbar in (x0 ).

g(x) = f (x0 ) + f 0 (x0 )(x − x0 )

heißt Tangente an die Kurve γ. Wir setzen:


f (x) − g(x)
ε(x) := .
x − x0

75
76 KAPITEL 4. DIFFERENTIALRECHNUNG

Daraus folgt
f (x) − f (x0 )
ε(x) = − f 0 (x0 ) −→ 0 (x −→ x0 ),
x − x0
und damit
f (x) − g(x)
x − x0 −→ 0. (4.1)

Lemma 1 Ist f differenzierbar in x0 , so ist g(x) die einzige Gerade durch (x0 , f (x0 )), so
daß (4.1) gilt.

Beweis: Es sei g(x) = f (x0 ) + α(x − x0 ). Dann gilt:

f (x) − g(x) f (x) − f (x0 )


= − α.
x − x0 x − x0
Da wegen (4.1)
f (x) − g(x)
−→ 0 für x −→ x0 ,
x − x0
folgt
f (x) − f (x0 )
−→ α = f 0 (x0 ).
x − x0
2
|f (x) − f (x0 ) − α(x − x0 )|
Satz 1 f ist differenzierbar in x0 ⇐⇒ ∃ α ∈ R so daß −→ 0.
|x − x0 |
Dann ist α = f 0 (x0 ).

Beweis: Satz 1 folgt aus Lemma 1.2

Satz 2 Es gilt:

(i) f ist differenzierbar in x0 ∈ (a, b) ⇐⇒ ∃ f+0 (x0 ), f−0 (x0 ) und f+0 (x0 ) = f−0 (x0 ).

(ii) Ist f differenzierbar in x0 , so ist f stetig in x0 .

Beweis: Für |x − x0 | ≤ δ gilt, da f differenzierbar,

|f (x) − f (x0 )|
≤ c.
|x − x0 |

Daraus folgt sofort die Stetigkeit von f .2


4.1. DIFFERENTIATION 77

Beispiele:

(1) f (x) = xn , n ∈ N.
xn − xn0 = (x − x0 )(xn−1 + xn−2 x0 + . . . + xxn−2
0 + xn−1
0 )
xn − xn0
−→ xn−1
0 + xn−2
0 x0 + . . . + x0 x0n−2 + x0n−1 = nx0n−1 für x −→ x0
x − x0
(xn )0 = nxn−1

(2) (ex )0 = ex
Beweis: Aus Satz 2.3.5/8(iv) wissen wir

1
|ez − (1 + z)| ≤ |z|2 für |z| < .
2
Daraus folgt
z
e − ez0
z−z
z
z
e 0 − 1
z − z0 − e = |e | z − z0 − 1
0 0

1
= |ez0 | |ez−z0 − (1 + (z − z0 ))|
|z − z0 |
1
≤ |ez0 ||z − z0 | für |z − z0 | < .
2
Nach Satz 3.3.1/1 gilt:

ex − ex0 ex−x0
 
− ex0 = ex0 − 1 −→ 0 (x −→ x0 )
x − x0 x − x0

(3) (sin x)0 = cos x


(cos x)0 = − sin x
Beweis: Es gilt:
 
cos x − cos x0 sin x − sin x0
− (− sin x0 ) + i − cos x0
x − x0 x − x0
eix − eix0
= − ieix0
x − x0
 i(x−x0 ) 
ix0 e −1
= ie −1 −→ 0 für (x −→ x0 )
i(x − x0 )

(4) f (x) = |x|. f 0 (0) existiert nicht, da f+0 = 1 und f−0 = −1.
78 KAPITEL 4. DIFFERENTIALRECHNUNG

4.1.2 Differentiationsregeln
Satz 3 Seien f, g differenzierbar in x0 .
(i) Für λ, µ ∈ R gilt: (λf + µg)0 (x0 ) = λf 0 (x0 ) + µg 0 (x0 ).

(ii) Es gilt die Produktregel:


(f · g)0 (x0 ) = f 0 (x0 )g(x0 ) + f (x0 )g 0 (x0 ).

 g(x
(iii) Für 0 ) 6= 0 gilt die Quotientenregel:
0
f f 0 (x0 )g(x0 ) − f (x0 )g 0 (x0 )
(x0 ) = .
g [g(x0 )]2
f g
(iv) Sei (a, b) −→ R(f ) ⊂ D(g) −→ R und y0 = f (x0 ). Es existieren f 0 (x0 ) und g 0 (y0 ).
Dann gilt die Kettenregel:
 0  
g(f ) (x0 ) = g 0 f (x0 ) · f 0 (x0 ).

Beweis:
(i) Diese Behauptung kann man einfach nachrechnen.

(ii) Es gilt:

f (x)g(x) − f (x0 )g(x0 ) f (x)g(x) − f (x0 )g(x) f (x0 )g(x) − f (x0 )g(x0 )
= +
x − x0 x − x0 x − x0
 0
1
(iii) Wir berechnen g
:

1 1
g(x)
− g(x0 ) 1 g(x0 ) − g(x) −g 0 (x0 )
= −→
x − x0 g(x)g(x0 ) x − x0 [g(x0 )]2
Wenden wir nun noch die Produktregel an, so folgt die Behauptung.

(iv) Es sei h(x) := g(f (x)), y0 = f (x0 ), y = f (x). Da f stetig in x0 , gilt für x −→ x0 :
y −→ y0 . Daraus folgt:
h(x) − h(x0 ) − g 0 (y0 )f 0 (x0 )(x − x0 )
x − x0
g(y) − g(y0 ) − g 0 (y0 )(y − y0 ) (y − y0 ) g 0 (y0 )[(y − y0 ) − f 0 (x0 )(x − x0 )]
= · +
y − y0 (x − x0 ) x − x0
  
  
y y y
0
0 f (x0 ) 0
4.1. DIFFERENTIATION 79

nach Satz 4.1.1/1. Also gilt:


h0 (x0 ) = g 0 (f (x0 ))f 0 (x0 ).
Damit ist der Satz bewiesen.2
Beispiele:

1 π
(1) (tan x)0 = = 1 + tan2 x, x 6= + kπ, k ∈ Z.
cos2 x 2
Beweis: Es gilt:
0
sin2 x + cos2 x

sin x 1 2 1
= (cos x − (sin x)(− sin x)) = = = 1 + tan2 x
cos x cos2 x cos2 x cos2 x
| {z }
=1

1
(2) (cot x)0 = − , x 6= kπ.
sin2 x
Beweis: Es gilt analog:
 cos x 0 1 1
2 2
= 2 (−(sin x) − cos x) = − = −(1 + cot2 x)
sin x sin x sin2 x

(3) (x−n )0 = (−n)x−n−1 , x 6= 0, n ∈ Z


Beweis: Wir wenden wieder die Quotientenregel an:
 0
1 1 n
= (−nxn−1 ) = − n+1 = −nx−n−1
xn x 2n x

(4) (ax )0 = (log a)ax .


Beweis: Es gilt:
(ax )0 = (ex log a )0 = ex log a · log a = (log a) · ax

Satz 4 (Differentiation der Umkehrfunktion) Es sei f differenzierbar auf (a, b) und


f 0 (x) > 0 auf (a, b) (f 0 (x) < 0 auf (a, b)). Dann gilt:

(i) f ist streng monoton wachsend (fallend) auf (a, b).

(ii) f −1 ist differenzierbar auf R(f ) = (c, d) und

1
(f −1 )0 (y) = für alle y ∈ R(f ).
f 0 (f −1 (y))
80 KAPITEL 4. DIFFERENTIALRECHNUNG

Beweis: 1. Schritt: O.B.d.A. sei f 0 (x) > 0 auf (a, b). Wir nehmen an, f ist monoton fallend,
d.h. es existieren x1 , x2 ∈ (a, b) mit x1 < x2 und f (x1 ) ≥ f (x2 ). f ist stetig auf [x1 , x2 ]. Nach
dem Satz vom Maximum (Satz 3.1.3/4) existiert ein x0 ∈ [x1 , x2 ] mit f (x0 ) = max f (x).
x∈[x1 ,x2 ]
Außerdem gilt:

f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + ε(x)(x − x0 ) mit ε(x) −→ 0 (x −→ x0 )

Daraus folgt, es existiert ein δ > 0 mit


f 0 (x0 )
|ε(x)| ≤
2
für alle x mit |x − x0 | ≤ δ. Dann gilt für x ∈ (x0 , x0 + δ):
f 0 (x0 )
f (x) ≥ f (x0 ) + f 0 (x0 )(x − x0 ) − (x − x0 )
2
f 0 (x0 )
= f (x0 ) + (x − x0 ) > f (x0 )
| 2 {z }
>0

Das ist ein Widerspruch zur Maximalität von f (x0 ), und damit ist f streng monoton wach-
send, und es existiert f −1 und ist stetig.
2. Schritt: R(f ) = (c, d) ist ein offenes Intervall. Es sei y = f (x), y0 ∈ (c, d) mit y0 = f (x0 ).
Aus y −→ y0 folgt x −→ x0 , da f −1 stetig ist. Es gilt:
f −1 (y) − f −1 (y0 ) x − x0 1 1 1
= = −→ =
y − y0 f (x) − f (x0 ) f (x)−f (x0 ) f 0 (x 0) f 0 (f −1 (y 0 ))
x−x0

Damit ist der Satz bewiesen.2


Bemerkung: Existiert (f −1 )0 , und ist f 0 (x) 6= 0, so gilt: x = f −1 (f (x)). Mit Hilfe der
Kettenregel folgt
 
1 = (f −1 )0 f (x) f 0 (x)
1 1
(f −1 )0 (y) = = .
f 0 (x) f 0 (f −1 (y))

Beispiele:
(1) (log x)0 = x1 , x > 0.
Beweis: Wir betrachten f (x) = ex . Die Umkehrfunktion ist f −1 (y) = log y, und es gilt:
f 0 (x) > 0 auf R. Wir wenden nun Satz 4 an und erhalten
1 1 1
(log y)0 = (f −1 )0 (y) = x
= log y = .
e e y
4.1. DIFFERENTIATION 81

(2) (loga x)0 = 1


x log a
 0
Beweis: (loga x)0 = 1
log a
log x = 1
x log a

(3) (xα )0 = αxα−1 für x > 0, α ∈ R.


Beweis: Wir verwenden die Kettenregel:
1
(xα )0 = (eα log x )0 = eα log x · α · = αxα−1
x

1
(4) (arcsin x)0 = √ , x ∈ (−1, 1)
1 − x2
1
(arccos x)0 = − √
1 − x2
Beweis: sin(arcsin x) = x. Daraus folgt:

1 = cos(arcsin x) · (arcsin x)0 .

Für y = arcsin x ∈ (− π2 , π2 ) gilt:


q
2 2
cos y = 1 − sin y bzw. cos y = 1 − sin2 y.

Somit erhalten wir √


1= 1 − x2 · (arcsin x)0 .
Analog gilt:
1 1 1
(arccos x)0 = = −p = −√ .
− sin y 1 − cos2 y 1 − x2

1
(5) (arctan x)0 =
1 + x2
1
(arccot x)0 = −
1 + x2
Beweis: Sei y = tan x. Dann gilt:
1 1 1
(arctan y)0 = 0
= cos2 x = 2
= .
(tan x) 1 + tan x 1 + y2
Analog erhalten wir:
1 1
(arccot x)0 = 2
=− .
−(1 + cot x) 1 + y2

Bemerkung: Es gibt Funktionen, die stetig, aber nirgends differenzierbar sind. Ist f diffe-
renzierbar, so folgt daraus nicht, daß die Ableitung f 0 stetig ist.
82 KAPITEL 4. DIFFERENTIALRECHNUNG

4.2 Sätze über differenzierbare Funktionen


4.2.1 Mittelwertsätze
Definition 1 f hat lokales Maximimum (Minimum) in x0 ∈ (a, b) :⇐⇒
Es existiert ein δ > 0 mit (x0 − δ, x0 + δ) ⊂ (a, b), so daß für alle x ∈ (x0 − δ, x0 + δ) gilt:

f (x) ≤ f (x0 ) (f (x) ≥ f (x0 ))

Lemma 1 Sei f differenzierbar in x0 ∈ (a, b). Hat f ein lokales Maximum oder Minimum
in x0 , so gilt (notwendige Bedingung): f 0 (x0 ) = 0.

Beweis: Für x > x0 gilt:


f (x) − f (x0 )
≤ 0 d.h. f 0 (x0 ) ≤ 0.
x − x0
Für x < x0 gilt:
f (x) − f (x0 )
≥ 0 d.h. f 0 (x0 ) ≥ 0.
x − x0
Damit folgt
f 0 (x0 ) = 0.
2

Satz 1 (Satz von Rolle) Es sei f stetig auf [a, b] sowie differenzierbar auf (a, b), wobei
−∞ < a < b < ∞, und es gelte: f (a) = f (b) = 0. Dann existiert ein x0 ∈ (a, b) mit
f 0 (x0 ) = 0.

Beweis: 1.Fall: f ≡ 0. Dann ist f 0 (x) = 0 für alle x.


2.Fall: f (x) 6≡ 0. O.B.d.A. existiere ein x1 ∈ (a, b) mit f (x1 ) > 0. Da f stetig ist, existiert
nach dem Satz vom Maximum (Satz 3.1.3/4) ein x0 ∈ (a, b) mit f (x0 ) = max f (x). Aus
x∈[a,b]
dem Lemma folgt f (x0 ) = 0, da f differenzierbar. 2
0

Satz 2 (Mittelwertsätze) (i) f, g seien stetig auf [a, b], differenzierbar auf (a, b), und
sei g 0 (x) 6= 0 in (a, b). Dann existiert ein ξ ∈ (a, b) mit

f (b) − f (a) f 0 (ξ)


= 0 .
g(b) − g(a) g (ξ)

(ii) Mittelwertsatz von Lagrange: Sei f stetig auf [a, b], differenzierbar auf (a, b).
Dann existiert ein ξ ∈ (a, b) mit

f (b) − f (a)
= f 0 (ξ).
b−a
4.2. SÄTZE ÜBER DIFFERENZIERBARE FUNKTIONEN 83

Beweis:

(i) g(b) − g(a) 6= 0, denn sonst gäbe es nach Satz 1 ein x0 ∈ (a, b) mit g 0 (x0 ) = 0. Wir
setzen
f (b) − f (a)
F (x) := f (x) − f (a) − [g(x) − g(a)] für x ∈ (a, b).
g(b) − g(a)

F ist stetig auf [a, b], differenzierbar auf (a, b) und F (a) = F (b) = 0. Aus Satz 1 folgt,
es existiert ein ξ ∈ (a, b) mit F 0 (ξ) = 0. Damit gilt:

f (b) − f (a) 0
F 0 (ξ) = f 0 (ξ) − g (ξ) = 0.
g(b) − g(a)

Das ist genau die Aussage (i).

(ii) Wir setzen in (i) g(x) = x.2

Bemerkung: Der Mittelwertsatz kann auch so formuliert werden: Seien x, x0 ∈ (a, b) und f
differenzierbar in (a, b). Dann gilt:

f (x) − f (x0 )
= f 0 (ξ) = f 0 (x0 + ϑ(x − x0 )) mit 0 < ϑ < 1
x − x0
und
f (x) = f (x0 ) + f 0 (x0 + ϑ(x − x0 ))(x − x0 ).

Folgerung 1 Sei f stetig auf [a, b], differenzierbar auf (a, b), und es gelte: f 0 (x) ≡ 0. Dann
ist f konstant.

Beweis: Aus dem Mittelwertsatz folgt

f (x) − f (x0 )
= 0 für alle x ∈ (a, b),
x − x0
und damit ist
f (x) = f (x0 ) für alle x.
2
Beispiel: Wir betrachten f (x) = x2 . Es gilt:

x2 − x20 1
= x + x0 = 2 (x0 + (x − x0 )),
x − x0 | 2{z }

und damit ist ϑ = 12 .


84 KAPITEL 4. DIFFERENTIALRECHNUNG

4.2.2 Die l’Hospitalsche Regel


0 ∞
In diesem Abschnitt betrachten wir Grenzwerte der Form „ “, „ “, „0 · ∞“, „∞ − ∞“.
0 ∞
Satz 3 Seien f, g differenzierbar in (a, b), seien g(x) und g 0 (x) ungleich Null in (a, b), und
es gelte
lim f (x) = lim g(x) = 0.
x↓a x↓a
0
f (x) f (x)
Existiert lim = k, dann existiert auch lim , und es gilt:
x↓a g 0 (x) x↓a g(x)

f (x)
lim = k.
x↓a g(x)
Analoge Aussagen gelten für x ↑ b, x → x0 ∈ (a, b).

Beweis: Wir setzen f (a) := g(a) := 0. Damit sind f, g stetig auf [a, a + δ]. Aus dem Mittel-
wertsatz (Satz 4.2.1/2(i)) folgt
f (x) f (x) − f (a) f 0 (ξ)
= = 0 .
g(x) g(x) − g(a) g (ξ)
Für x −→ a folgt ξ −→ a, und es gilt
f (x)
−→ k.
g(x)
2
Beispiele:
xα − 1 αxα−1
(1) α ∈ R. lim = lim = α.
x→1 x − 1 x→1 1
sin x cos x
(2) lim = lim = 1.
x→0 x x→0 1
xh − 1 √ 1
(3) log x = lim bzw. log x = lim n( n x − 1) (h = ).
h→0 h n→∞ n
Beweis: Sei x > 0.
d
xh − 1 dh
(xh − 1) (log x)xh
lim = lim d
= lim = log x.
h→0 h h→0
dh
(h) h→0 1

Bemerkung: Die l’Hospitalsche Regel ist auch anwendbar bei x → ∞:

f (x) f(1) f 0 ( 1 )(−t−2 ) f 0 (x)


lim = lim 1t = lim 0 1t = lim .
x→∞ g(x) t↓0 g( ) t↓0 g ( )(−t−2 ) x→∞ g 0 (x)
t t
4.2. SÄTZE ÜBER DIFFERENZIERBARE FUNKTIONEN 85

Satz 4 Seien f, g : (a, b) −→ R differenzierbar, g 0 (x) 6= 0 auf (a, b).


f 0 (x) f (x)
Sei lim f (x) = lim g(x) = ∞, es existiere lim 0 = k. Dann existiert auch lim , und
x↓a x↓a x↓a g (x) x↓a g(x)
es gilt:
f (x)
lim = k.
x↓a g(x)

Analoge Aussagen gelten für x → x0 ∈ (a, b), x ↑ b, x → ∞.

Beweis: 1.Fall: k < ∞. Sei ε > 0 vorgegeben. Dann existiert ein δ > 0, so daß für alle
x ∈ (a, a + δ) 0
f (x)

g 0 (x) − k ≤ ε.

Wir setzen x0 := a + δ. Nach Satz 4.2.1/2(i) gilt für a < x < x0
f (x) − f (x0 ) f 0 (ξ)
= 0 mit x < ξ < x0 .
g(x) − g(x0 ) g (ξ)
Es folgt
f (x) − f (x0 )
g(x) − g(x0 ) − k ≤ ε für alle x ∈ (a, x0 ). (4.2)

Damit erhalten wir


  
f (x) f (x0 ) − kg(x0 ) g(x0 ) f (x) − f (x0 )
− k = + 1 − − k
g(x) g(x) g(x) g(x) − g(x0 )

f (x0 ) − kg(x0 ) g(x 0 )
≤ + 1 − ε ≤ 3ε für a < x < a + δ̃.
g(x) g(x)
| {z } | {z }
≤ε ≤2

2.Fall: k = ∞. Es gilt
g 0 (x)
−→ 0.
f 0 (x)
Aus dem 1. Schritt folgt
g(x) f (x)
−→ 0 und damit −→ ∞.
f (x) g(x)
2
Bemerkung: Die meisten Fälle können auf den ursprünglichen Fall zurückgeführt werden.
f (x) 0ı
(1) „0 · ∞“: f (x) · g(x) = 1 ∼
g(x)
„0
1 1
1 1 g(x)
− f (x) 0ı
(2) „∞ − ∞“: f (x) − g(x) = 1 − 1 = 1 ∼
f (x) g(x) f (x)g(x)
„0
86 KAPITEL 4. DIFFERENTIALRECHNUNG

Beispiele:
1
log x x 1
(1) lim = lim = lim = 0, ∀ α > 0.
x→∞ xα x→∞ αxα−1 x→∞ αxα

1
ln x x
(2) lim x ln x = lim 1 = lim = − lim x = 0.
x↓0 x↓0
x
x↓0 − x12 x↓0

Schreibweise: (1) log x = o (xα ) für x −→ ∞ und für alle α > 0 („klein o“).

4.3 Höhere Ableitungen


4.3.1 Satz von Taylor
Definition 1 Sei f : (a, b) −→ R, x0 ∈ (a, b), n = 2, 3, . . .
f (n) (x0 ) := (f (n−1) )0 (x0 ), f (0) = f, f (1) = f 0
heißt n–te Ableitung von f in x0 . f heißt n–mal differenzierbar in (a, b), falls f (n) (x) für alle
x ∈ (a, b) existiert.

Bezeichnung: f 00 (x0 ) = f (2) (x0 ), f 000 (x0 ) = f (3) (x0 ).


Bemerkung: Differentiationsregeln
Es gilt die Leibnizsche Produktregel:
n  
(n)
X n
(f · g) (x) = f (n−j) (x)g (j) (x)
j=0
j

Beweis: Wir führen den Beweis durch vollständige Induktion. Für n = 1 ist das die bekannte
Produktregel. Wir nehmen an, die Aussage ist für n richtig. Dann gilt:
n  
!0
X n
(f · g)(n+1) (x) = f (n−j) g (j) (x)
j=0
j
n
X n  
f (n+1−j) g (j) + f (n−j) g (j+1)

=
j=0
j
n   n+1  
X n (n+1−j) (j) X n
= f g + f (n+1−k) g (k)
j=0
j k=1
k + 1
 

 n
X     
(n+1) (0) n n 
(n+1−j) (j) 
= f g +
 + f g  + f (0) g (n+1)
 j=1 | j j−1 
{z }
n+1
( j )
4.3. HÖHERE ABLEITUNGEN 87

Vorbemerkung: Unser Ziel ist

f (x) = Pn (x − x0 ) + ε(x)(x − x0 ) (4.3)

in einer Umgebung von x0 mit ε(x) −→ 0 (x −→ x0 ). Wir wissen, dies ist richtig für n = 1,
falls f 0 (x0 ) existiert. Wir nehmen nun an, f sei n–mal differenzierbar in einer Umgebung von
x0 , und es gelte (4.3). Setzen wir

f (x) = an (x − x0 )n + . . . + a1 (x − x0 ) + a0 + ε(x)(x − x0 )n ,

so gilt:
f (x0 ) = a0 ,
und

f 0 (x) = n · an (x − x0 )n−1 + . . . + 2a2 (x − x0 ) + a1 + ε0 (x)(x − x0 )n + ε(x)n(x − x0 )n−1


| {z }
ε1 (x)(x−x0 )n−1

Für x −→ x0 gilt dann


f 0 (x0 ) = a1 .
Dieses Verfahren setzen wir nun fort und erhalten

f 00 (x) = n(n − 1)an (x − x0 )n−2 + . . . + 3 · 2 · a3 (x − x0 ) + 2a2 + ε2 (x)(x − x0 )n−2

Für x −→ x0 folgt
f 00 (x0 ) = 2 · 1 · a2
und schließlich
f (j) (x0 ) = j!aj j = 0, 1, . . . n.
Wir können also für f schreiben:
n
X f (j) (x0 )
f (x) = (x − x0 )j +ε(x)(x − x0 )n
j=0
j!
| {z }
Taylor–Polynom

Satz 1 (Satz von Taylor) Sei f (n + 1)mal differenzierbar in (x0 − δ, x0 + δ). Dann exi-
stiert für jedes x ∈ (x0 − δ, x0 + δ) ein ϑ = ϑ(x0 , x) mit 0 < ϑ < 1, so daß gilt:

f 0 (x0 ) f (n) (x0 ) f (n+1) (x0 + ϑ(x − x0 ))


f (x) = f (x0 ) + (x − x0 ) + . . . + (x − x0 )n + (x − x0 )n+1
1! n! (n + 1)!
| {z }
Restglied Rn (x)
88 KAPITEL 4. DIFFERENTIALRECHNUNG

Beweis: f (x) = Q(x) + R(x). Es gilt

Q(j) (x0 ) = f (j) (x0 ), R(j) (x0 ) = 0 für j = 0, 1, . . . , n

und
f (n+1) (x0 ) = R(n+1) (x0 ).
Wir setzen
ϕ(x) := (x − x0 )n+1 .
Für ϕ gilt: 
(j) 0 j = 0, . . . , n
ϕ (x0 ) = .
(n + 1)! j = n + 1
Wir verwenden den Mittelwertsatz 4.2.1/2 mit f (x) = R(j) (x) und g(x) = ϕ(j) (x) und
erhalten
R(x) R(x) − R(x0 ) R0 (x1 )
= = 0 mit x0 < x1 < x (o.B.d.A. x0 < x)
ϕ(x) ϕ(x) − ϕ(x0 ) ϕ (x1 )
R0 (x1 ) − R0 (x0 ) R00 (x2 )
= = mit x0 < x2 < x
ϕ0 (x1 ) − ϕ0 (x0 ) ϕ00 (x2 )
..
.
R(n) (xn ) − R(n) (x0 ) R(n+1) (xn+1 )
= = (n+1) mit x0 < xn+1 < x
ϕ(n) (xn ) − ϕ(n) (x0 ) ϕ (xn+1 )
f (n+1) (xn+1 )
=
(n + 1)!
2
ξ
e
Beispiel: f (x) = ex . Rn (x) = −→ 0.
(n + 1)!

Satz 2 f sei in (x0 −δ, x0 +δ) n–mal differenzierbar. Dann gibt es eine in x0 stetige Funktion
ε(x) mit lim ε(x) = 0 und
x→x0

n
X f (j) (x0 )
f (x) = (x − x0 )j +ε(x)(x − x0 )n ∀ x ∈ (x0 − δ, x0 + δ).
j=0
j!
| {z }
Qn (x)

Beweis: Wir setzen h(x) := f (x) − Qn (x) und zeigen, daß


h(x)
ε(x) = −→ 0.
(x − x0 )n
Es gilt:
h(x0 ) = h0 (x0 ) = . . . = h(n) (x0 ) = 0.
4.3. HÖHERE ABLEITUNGEN 89

Aus Satz 1 folgt


h(n−1) (ξ)
h(x) = (x − x0 )n−1 mit x0 < ξ < x.
(n − 1)!
Da h(n−1) in U (x0 ) differenzierbar ist, gilt

h(n−1) (x) = h(n−1) (x0 ) + h(n) (x0 )(x − x0 ) + ε1 (x)(x − x0 )


= ε1 (x)(x − x0 )

Setzen wir x = ξ, erhalten wir

ε1 (ξ)(ξ − x0 )
h(x) = (x − x0 )n−1
(n − 1)!

und schließlich
ε1 (ξ)
|h(x)| ≤ |x − x0 |n
(n − 1)!
| {z }
−→ 0 für x −→ x0 , da |ξ − x0 | < |x − x0 | 2.
Bemerkung: Es gilt:
f (x) = Qn (x) + o ((x − x0 )n ).
Denn setzen wir
r(x) := ε(x)(x − x0 )n ,
so folgt:
r(x)
−→ 0.
(x − x0 )n

4.3.2 Konvexität
Definition 2 (i) f heißt konvex (von unten) auf (a, b) :⇐⇒ Für alle x1 , x2 ∈ (a, b), für
alle α, β mit 0 < α, β < 1 und α + β = 1 gilt:

f (αx1 + βx2 ) < αf (x1 ) + βf (x2 ).

(ii) f heißt konkav (von unten) auf (a, b) :⇐⇒ Für alle x1 , x2 ∈ (a, b), für alle α, β mit
0 < α, β < 1 und α + β = 1 gilt:

f (αx1 + βx2 ) > αf (x1 ) + βf (x2 ).

Satz 3 Sei f : (a, b) −→ R zweimal differenzierbar.

(i) Ist f 00 (x) > 0 auf (a, b), so ist f auf (a, b) konvex.

(ii) Ist f 00 (x) < 0 auf (a, b), so ist f auf (a, b) konkav.
90 KAPITEL 4. DIFFERENTIALRECHNUNG

Beweis: f 00 (x) > 0 auf (a, b). Nach Satz 4.1.2/2 ist f 0 (x) dann streng monoton wachsend. Es
sei x = αx1 + βx2 mit 0 < α, β < 1, x1 < x2 und α + β = 1. Dann gilt:
x2 − x x − x1
α= und β = .
x2 − x1 x2 − x1

Nach dem Mittelwertsatz von Lagrange gilt:

f (x) − f (x1 ) f (x2 ) − f (x)


= f 0 (ξ) < f 0 (η) = , x1 < ξ < x < η < x2 .
x − x1 x2 − x

Es folgt
[f (x) − f (x1 )](x2 − x) < [f (x2 ) − f (x)](x − x1 ).
Daraus ergibt sich

f (x)(x2 − x1 ) < (x2 − x)f (x1 ) + (x − x1 )f (x2 ),

und wir erhalten


f (x) < αf (x1 ) + βf (x2 ).
Damit ist der Satz bewiesen.2

Definition 3 Sei f : (a, b) −→ R zweimal differenzierbar.


f hat Wendepunkt in x0 ∈ (a, b) :⇐⇒ f 00 wechselt das Vorzeichen in x0 ,
d.h. sgn f 00 (x1 ) · sgn f 00 (x2 ) = −1 für alle x1 , x2 mit x0 − δ < x1 < x0 < x2 < x0 + δ.

Beispiele:

(1) ex ist konvex, log x ist konkav.

(2) cos x ist konkav auf (− π2 , π2 ).


sin x ist konkav auf (0, π).
cos x ist konvex auf ( π2 , 3π
2
). x0 = π
2
ist Wendepunkt.
sin x ist konvex auf (π, 2π). x0 = π ist Wendepunkt.

4.3.3 Lokale Extrema


Wir wissen: Mit den notwendigen Bedingungen f ist differenzierbar und f 0 (x0 ) = 0 erhalten
wir alle Kandidaten für Extrema der Funktion. Problem: Wann hat f in x0 ein lokales
Extremum, wann einen Wendepunkt?

Satz 4 f : (a, b) −→ R sei n–mal differenzierbar in einer Umgebung von x0 ∈ (a, b). Es sei
n ≥ 2.
4.3. HÖHERE ABLEITUNGEN 91

(i) Es gelte
f 0 (x0 ) = f 00 (x0 ) = . . . = f (n−1) (x0 ) = 0, f (n) (x0 ) 6= 0.
Ist n eine gerade Zahl, so besitzt f in x0 ein lokales Maximum, falls gilt f (n) (x0 ) < 0,
und ein lokales Minimum, falls gilt f (n) (x0 ) > 0.

(ii) Es gelte
f 00 (x0 ) = . . . = f (n−1) (x0 ) = 0, f (n) (x0 ) 6= 0.
Ist n ungerade, so besitzt f in x0 einen Wendepunkt (einen horizontalen Wendepunkt,
falls zusätzlich f 0 (x0 ) = 0).

Beweis:

(i) Wir verwenden Satz 4.3.1/2 (Taylor). In Umgebung von x0 gilt:


n
X f (j) (x0 )
f (x) = (x − x0 )j + ε(x)(x − x0 )n mit ε(x) −→ 0 (x −→ x0 ).
j=0
j!

Daraus folgt
f (n) (x0 )
 
f (x) − f (x0 ) = + ε(x) (x − x0 )n .
n!
(x − x0 )n > 0, falls n gerade ist.
[. . .] > 0 für |x − x0 | < δ, falls f (n) (x0 ) > 0. Dann hat f ein Minimum.
[. . .] < 0 für |x − x0 | < δ, falls f (n) (x0 ) < 0. Dann hat f ein Maximum.

(ii) Sei n = 3, 5, . . . ungerade. Nach Satz 4.3.1/2, angewendet auf f 00 (x), gilt:
 (n) 
00 f (x0 )
f (x) = + ε(x) (x − x0 )n−2 mit ε(x) −→ 0 (x −→ x0 ).
n!

O.B.d.A. sei f (n) (x0 ) > 0. Dann gilt:


 (n) 
f (x0 )
+ ε(x) > 0 für |x − x0 | < δ.
n!

Wir erhalten

f 00 (x) < 0 für x < x0 ,


f 00 (x) > 0 für x > x0 .

Also hat f einen Wendepunkt in x0 .

2
Bemerkung:
92 KAPITEL 4. DIFFERENTIALRECHNUNG

(1) f 00 (x0 ) < 0 =⇒ f hat Maximium in x0 .


f 00 (x0 ) > 0 =⇒ f hat Minimum in x0 .
f 00 (x0 ) = 0 =⇒ f hat ein lokales Extremum (Minimum oder Maximum), einen
Wendepunkt oder keines von beiden in x0 .
 1
e− x x > 0
(2) f (x) =
0 x≤0
(n)
f (0) = 0 für alle n = 0, 1, . . .
Kapitel 5

Integralrechnung

5.1 Das Riemannsche Integral


5.1.1 Definitionen
Wir führen einige neue Bezeichnungen ein.

Es sei f (x) : [a, b] −→ R beschränkt, wobei a = x0 < x1 < x2 < . . . < xn = b. Wir setzen
Ij := [xj−1 , xj ], für j = 1, . . . n.

Z := {I1 , . . . , In } heißt Zerlegung von [a, b].

Wir setzen außerdem:

m := inf f (x), M := sup f (x),


x∈[a,b] x∈[a,b]

mj := inf f (x), Mj := sup f (x).


x∈Ij x∈Ij

n
X
S(f, Z) := mj (xj − xj−1 ) heißt Untersumme.
j=1
Xn
S(f, Z) := Mj (xj − xj−1 ) heißt Obersumme.
j=1

Eigenschaften

(1) Untersummen und Obersummen sind beschränkt. Für alle Zerlegungen Z gilt:
m(b − a) ≤ S(f, Z) ≤ M (b − a),

93
94 KAPITEL 5. INTEGRALRECHNUNG

m(b − a) ≤ S(f, Z) ≤ M (b − a).

(2) Seien Z = {Ij } und Z 0 = {Il0 } Zerlegungen. Ist Z 0 eine Verfeinerung von Z, d.h. für
jedes Intervall Il0 ∈ Z 0 existiert ein Ij ∈ Z mit Il0 ⊂ Ij , so gilt:

S(f, Z) ≤ S(f, Z 0 ),

S(f, Z 0 ) ≤ S(f, Z).

(3) Es seien Z, Z ∗ Zerlegungen von [a, b]. Dann gilt stets:

S(f, Z) ≤ S(f, Z ∗ ).

(Eine Untersumme ist stets kleiner als eine Obersumme.)


Beweis: Es sei Z ∼ {xj }nj=0 und Z ∗ ∼ {x∗j }m 0
j=0 . Wir bilden die Zerlegung Z entspre-
chend {xj , x∗l } j=0,...,n , d.h. Z 0 ist eine Verfeinerung sowohl von Z als auch von Z ∗ . Aus
l=0,...,m
(2) folgt damit
S(f, Z) ≤ S(f, Z 0 ) ≤ S(f, Z 0 ) ≤ S(f, Z ∗ ).

Definition 1 Sei f : [a, b] −→ R beschränkt.

(i) J(f ) := sup S(f, Z) heißt Unterintegral.


Z
J(f ) := inf S(f, Z) heißt Oberintegral.
Z

(ii) f heißt Riemann–integrierbar :⇐⇒ J = J.


Rb
Wir setzen dann: f := J(f ) = J(f ) (Riemann–Integral von f ).
a

Bemerkungen:
Rb Rb
(1) später: f= f (x) dx
a a

(2) Die Definition ist wegen der Eigenschaft (1) der Unter– und Obersummen sinnvoll.

(3) Aus Eigenschaft (3) folgt für alle f : J(f ) ≤ J(f ).

(4) Nicht jede beschränkte Funktion ist Riemann–integrierbar. Gegenbeispiel:



1 x ∈ [0, 1] rational
f (x) =
0 x ∈ [0, 1] irrational
Es gilt für alle Z: S(f, Z) = 0
S(f, Z) = 1
Daraus folgt: J(f, Z) = 0 < 1 = J(f, Z).
5.1. DAS RIEMANNSCHE INTEGRAL 95

Rb
(5) f (x) = c = const =⇒ ∃ f = c(b − a).
a
Rb

c x = x0
f (x) = =⇒ ∃ f = 0.
0 sonst a

Lemma 1 Sei f beschränkt auf [a, b]. Dann gilt:


f ist Riemann–integrierbar ⇐⇒ ∀ ε > 0 ∃ Zerlegung Z = Z(ε), so daß gilt:
S(f, Z) − S(f, Z) ≤ ε.

Beweis: Wir zeigen „=⇒“. Wir wählen

Zb
1 1 ε
Z , so daß S(f, Z ) − f ≤ ,
2
a
Zb
ε
Z 2, so daß − S(f, Z 2 ) + f ≤ .
2
a

Es sei Z 0 eine Verfeinerung von Z 1 und Z 2 . Dann gilt:

S(f, Z 0 ) − S(f, Z 0 ) ≤ S(f, Z 1 ) − S(f, Z 2 )


Zb Zb
≤ S(f, Z ) − f + f − S(f, Z 2 ) ≤ ε.
1

a a

Wir zeigen nun „⇐=“. Für alle ε gilt:

J − J ≤ S(f, Z) − S(f, Z) ≤ ε.

5.1.2 Existenz und Eigenschaften


Eigenschaften des Riemann–Integrals

Satz 1 Seien f, g Riemann–integrierbar auf [a, b].


Rb Rb Rb
(i) Für λ, µ ∈ R gilt: ∃ (λf + µg) = λ f +µ g.
a a a

Rb Rb
(ii) Ist f (x) ≤ g(x) auf [a, b], so folgt: f (x) ≤ g(x).
a a

Beweis:
96 KAPITEL 5. INTEGRALRECHNUNG

(i) Es ist klar, daß


Zb Zb
λf = λ f.
a a

Für alle ε > 0 gilt:

Zb Zb
J(f + g) ≤ S(f, Z) + S(g, Z) ≤ f+ g+ε
a a
Zb Zb
f+ g ≤ ε + S(f, Z) + S(g, Z) ≤ ε + J(f + g)
a a

für Z = Z(ε). Aus diesen beiden Ungleichungen folgt (i).

(ii) Da f (x) ≤ g(x), gilt für alle Zerlegungen Z:

S(f, Z) ≤ S(g, Z).

Daraus folgt
Zb
f ≤ S(g, Z) für alle Z.
a

Bilden wir nun das Infimum über alle Z, so erhalten wir

Zb Zb
f (x) ≤ g(x).
a a

Satz 2 Ist f Riemann–integrierbar, so ist auch |f | Riemann–integrierbar, und es gilt:

Zb Zb
f ≤ |f |.

a a

Beweis: Sei I ⊂ [a, b] ein beliebiges Intervall mit x, y ∈ I. Aus der Dreiecksungleichung folgt

|f (x)| − |f (y)| ≤ |f (x) − f (y)| ≤ sup f (x) − inf f (x) = c


x∈I x∈I

und damit
|f (x)| ≤ c + |f (y)| für alle x, y ∈ I.
5.1. DAS RIEMANNSCHE INTEGRAL 97

Dann gilt

sup |f (x)| ≤ c + |f (y)| für alle y ∈ I,


x∈I
und sup |f (x)| ≤ c + inf |f (y)|,
x∈I y∈I

und wir erhalten


sup |f (x)| − inf |f (x)| ≤ sup f (x) − inf f (x).
I I I I

Also existiert für jedes ε eine Zerlegung Z, so daß

S(|f |, Z) − S(|f |, Z) ≤ S(f, Z) − S(f, Z) ≤ ε,


R
und nach Lemma 5.1.1/1 existiert dann |f |. Außerdem gilt

−|f (x)| ≤ f (x) ≤ |f (x)|.

Aus Satz 1 folgt


Zb Zb Zb
− |f (x)| ≤ f (x) ≤ |f (x)|,
a a a

und damit
Zb Zb
f ≤ |f |.

a a
2

Satz 3 Sei f beschränkt auf [a, b] und c ∈ (a, b). Dann gilt:
Rb Rc Rb
Es existiert f ⇐⇒ es existieren f und f .
a a c
Rb Rc Rb
Dabei ist f= f+ f.
a a c

Beweis: 1. Schritt: Es sei ε > 0. Dann existiert nach Lemma 5.1.1/1 eine Zerlegung Z von
[a, b] mit
S(f, Z) − S(f, Z) ≤ ε.
Wir wählen eine Verfeinerung Z 0 von Z, die c als Zerlegungspunkt enthält. Dann gilt

S(f, Z 0 ) − S(f, Z 0 ) ≤ ε

und
Z 0 = Z 1 ∪ Z 2,
98 KAPITEL 5. INTEGRALRECHNUNG

wobei Z 1 eine Zerlegung von [a, c] und Z 2 eine Zerlegung von [c, b] ist. Daraus folgt:
[S(f, Z 1 ) − S(f, Z 1 )] + [S(f, Z 2 ) − S(f, Z 2 )] = S(f, Z 0 ) − S(f, Z 0 )
≤ S(f, Z) − S(f, Z) ≤ ε,
Zc Zb
und damit existieren nach Lemma 5.1.1/1 die Integrale f und f.
a c
1 2
2. Schritt: „ ⇐= ı. Sei ε > 0 und seien Z und Z Zerlegungen der Intervalle [a, c] bzw. [c, b]
mit
ε
S(f, Z i ) − S(f, Z i ) ≤ für i = 1, 2.
2
Dann ist Z = Z 1 ∪ Z 2 eine Zerlegung von [a, b], und es gilt:
S(f, Z) − S(f, Z) ≤ ε.
Zb
Die Existenz von f folgt wiederum aus Lemma 5.1.1/1.
a

3. Schritt: Es sei ε > 0 beliebig. Dann gilt für eine passende Zerlegung Z und eine Verfeine-
rung Z 0 von Z mit c als Zerlegungspunkt und Z 0 = Z 1 ∪ Z 2 :
Zb Zc Zb
f ≤ S(f, Z) + ε ≤ S(f, Z 0 ) + ε = S(f, Z 1 ) + S(f, Z 2 ) + ε ≤ f+ f +ε
a a c

Für ε −→ 0 folgt
Zb Zc Zb
f≤ f+ f.
a a c
Analog erhalten wir
Zc Zb Zb
1 2
f+ f ≤ S(f, Z ) + S(f, Z ) + ε = S(f, Z) + ε ≤ f + ε,
a c a

wobei Z 1 , Z 2 Zerlegungen von [a, c] und [c, b] mit Z = Z 1 ∪ Z 2 sind. Für ε −→ 0 folgt
Zc Zb Zb
f+ f≤ f.
a c a

Also gilt:
Zb Zc Zb
f= f+ f.
a a c
5.1. DAS RIEMANNSCHE INTEGRAL 99

2
Rc Ra
Bemerkung: Sei c < a. Wir setzen f := − f . Falls die Integrale existieren, gilt für alle
a c
c ∈ R:
Zb Zc Zb
f= f+ f.
a a c

Existenz des Riemann–Integrals

Definition 2 f : [a, b] −→ R heißt stückweise stetig


:⇐⇒ Es existiert lim f (x) für alle x0 ∈ [a, b),
x↓x0
Es existiert lim f (x) für alle x0 ∈ (a, b],
x↑x0
f hat höchstens endlich viele Unstetigkeitsstellen.

Bemerkung: Insbesondere ist f beschränkt.

Satz 4 Ist f : [a, b] −→ R stückweise stetig, so ist f Riemann–integrierbar.

Beweis: Es seien x1 , . . . , xn die Unstetigkeitsstellen von f und x0 = a, xn+1 = b. Nach Satz


5.1.2/3 ist es ausreichend zu zeigen, daß die Integrale
Zxi
f für i = 1, . . . , n + 1 auf [xi−1 , xi ]
xi−1

existieren. Es gilt die Darstellung


f = f˜ + g,
wobei f˜ stetig auf [xi−1 , xi ] ist und

0 auf (xi−1 , xi )
g(x) =
6 0
τ= x = xi−1 , x = xi

Da
Zxi
g = 0,
xi−1

Zxi
ist noch zeigen, es existiert f˜. Da f˜ auf [xi−1 , xi ] stetig ist, ist f˜ gleichmäßig stetig auf
xi−1
[xi−1 , xi ] nach Satz 3.1.4/6. D.h. es existiert ein δ > 0, so daß für |x − y| ≤ δ
ε
f˜(x) − f˜(y) ≤ .
∆xi
100 KAPITEL 5. INTEGRALRECHNUNG

Wir wählen eine Zerlegung Z = {I1 , . . . , IN } von [xi−1 , xi ] mit


max(tj − tj−1 ) = d ≤ δ,
wobei tj die Zerlegungspunkte sind. Dann gilt:
N
X
S(f˜, Z) − S(f˜, Z) = [sup f˜(x) − inf f˜(x)](tj − tj−1 ) ≤ ε.
Ij Ij
1
| {z }
ε
≤ ∆x
i

Zxi
Damit existiert f˜ nach Lemma 5.1.1/1.2
xi−1

Satz 5 Ist f : [a, b] −→ R monoton, so ist f Riemann–integrierbar.


Beweis: O.B.d.A. sei f monoton wachsend. Es ist
Mj = f (xj ), mj = f (xj−1 ) j = 1, . . . , n
für eine beliebige Zerlegung Z mit den Zerlegungspunkten x0 , . . . , xn . Dann gilt:
n
X
S(f, Z) − S(f, Z) = [f (xj ) − f (xj−1 )](xj − xj−1 )
j=1
n
X
≤ max (xj − xj−1 ) [f (xj ) − f (xj−1 )]
j=1,...,n
j=1
= max (xj − xj−1 )[f (b) − f (a)] ≤ ε
j=1,...,n

für eine passende Zerlegung Z.2


Satz 6 (Mittelwertsatz der Integralrechnung) Ist f : [a, b] −→ R stetig, so existiert
ein ξ ∈ (a, b) mit
Zb
1
f = f (ξ).
b−a
a

Beweis: Es gilt:
Zb
(inf f )(b − a) ≤ f ≤ (sup f )(b − a).
[a,b] [a,b]
a
Nach dem Zwischenwertsatz (Satz 3.2.2/1) gibt es ein ξ ∈ (a, b) mit
Zb
1
f (ξ) = f.
b−a
a
2
5.2. STAMMFUNKTIONEN 101

5.2 Stammfunktionen
5.2.1 Hauptsatz der Differential– und Integralrechnung
Aus Kapitel 3 wissen wir:

• f : [a, b] −→ R ist Lipschitz–stetig :⇐⇒ ∃ L > 0, so daß für alle x, y ∈ [a, b] gilt:

|f (x) − f (y)| ≤ L|x − y|.

• Ist f Lipschitz–stetig, so ist f gleichmäßig stetig.

Bemerkung: Ist f stetig auf [a, b], differenzierbar in (a, b) und |f 0 (x)| ≤ L, dann ist f
Lipschitz–stetig.
Beweis: Wir wenden den Mittelwertsatz der Differentialrechnung (Satz 4.2.1/2) an. O.B.d.A.
sei x < y. Dann folgt:

f (x) − f (y) 0
x − y = |f (ξ)| ≤ L, x < ξ < y.

Satz 1 (i) Sei f : [a, b] −→ R Riemann–integrierbar auf [a, b].


Rx
Dann ist F (x) := f Lipschitz–stetig auf [a, b].
a

(ii) Sei f : [a, b] −→ R stetig. Dann ist F (x) differenzierbar auf (a, b) mit F 0 (x) = f (x)
auf (a, b).

Beweis: 1. Schritt: Sei x2 > x1 . Dann gilt

Zx2 Zx1 Za Zx2 Zx2


F (x2 ) − F (x1 ) = f− f= f+ f= f
a a x1 a x1

nach Satz 5.1.2/3. Daraus folgt nach Satz 5.1.2/2

Zx2 Zx2
|F (x2 ) − F (x1 )| = f ≤ |f |,

x1 x1

und damit ist


|F (x2 ) − F (x1 )| ≤ M |x2 − x1 |,
102 KAPITEL 5. INTEGRALRECHNUNG

nach Satz 5.1.2/1, da f auf [a, b] beschränkt ist. Also ist F (x) Lipschitz–stetig.
2. Schritt: Es gilt:
Zx Zx Zx
F (x) − F (x0 ) = f= [f − f (x0 )] + f (x0 )
x0 x0 x0
Zx
= f (x0 )(x − x0 ) + [f − f (x0 )].
x0

Daraus folgt
Zx
F (x) − F (x0 ) 1
− f (x0 ) ≤ |f − f (x0 )| · ≤ ε,

x − x0 |x − x0 |
x0

da
|f − f (x0 )| ≤ ε für |x − x0 | ≤ δ
wegen der gleichmäßigen Stetigkeit.2
5.2. STAMMFUNKTIONEN 103

Beispiele:

1 x ∈ [−1, 0]
(1) f (x) =
−1 x ∈ (0, 1]
(2) Es existieren f+0 (a), f−0 (b).

Definition 1 Seien f, g : [a, b] −→ R stetig.


g heißt Stammfunktion von f :⇐⇒ g 0 (x) = f (x) für alle x ∈ (a, b).

Bemerkungen:
(1) Nach Satz 1 existiert Stammfunktion F (x).
(2) Die Stammfunktion ist bis auf eine additive Konstante eindeutig bestimmt, d.h. sind
g1 und g2 Stammfunktionen von f , so existiert ein c, so daß g1 (x) = g2 (x) + c für alle
x.

Satz 2 (Hauptsatz der Differential– und Integralrechnung) Es sei f : [a, b] −→ R


stetig, g sei Stammfunktion von f . Dann gilt:
Zb
f = g(b) − g(a).
a

Beweis: Satz 2 folgt unmittelbar aus Satz 1 und obiger Bemerkung. 2


Bemerkung: Sei ϕ(x) differenzierbar auf (a, b) und stetig auf [a, b], und sei f stetig auf
[a, ϕ(x)] für alle x. Dann gilt:
 ϕ(x) 0
Z
 f  = f (ϕ(x)) · ϕ0 (x).
a

Beweis: Sei g Stammfunktion. Dann folgt mit Hilfe der Kettenregel:


 ϕ(x) 0
Z  0
 f = g(ϕ(x)) − g(a) = f (ϕ(x)) · ϕ0 (x).

a

Bemerkung: Leibniz–Formalismus
dF
Sei F Stammfunktion von f . Wir setzen dF = f, dF = dx.
dx
Zb Zb Z
f dx = dF = F (b) − F (a), dF = F
a a

Integration als Umkehrung zur Differentiation.


104 KAPITEL 5. INTEGRALRECHNUNG

5.2.2 Grundintegrale
xα+1
Z
(1) xα dx = + c, α 6= −1 (Intervalle beachten!).
α+1
Z
(2) x−1 dx = log x auf (0, ∞).
Z
x−1 dx = − log(−x) auf (−∞, 0).
Z
(3) ex dx = ex .
Z
(4) sin x dx = − cos x.
Z
(5) cos x dx = sin x.
Z
1 π
(6) dx = tan x, x 6= kπ + .
cos2 x 2
Z
1
(7) dx = − cot x, x 6= kπ.
sin2 x
Z
1
(8) √ dx = arcsin x auf (−1, 1).
1 − x2
Z 
1 arctan x
(9) dx =
1+x 2 arccot x
Z
dx √
(10) √ = log(x + x2 + 1).
x2 + 1
Z
dx √
(11) √ = log |x + x2 − 1|, |x| > 1.
x2 − 1
Z
dx 1 1 + x
, |x| =
(12) = log 6 1.
1 − x2 2 1 − x

Bemerkungen:
(1) Die Grundintegrale (10) und (11) lassen sich auch wie folgt schreiben: Zunächst defi-
nieren wir zwei neue Funktionen.
ex + e−x
cosh x := Cosinus hyperbolicus
2
e − e−x
x
sinh x := Sinus hyperbolicus.
2
5.2. STAMMFUNKTIONEN 105

Für die Ableitungen gilt:

(cosh x)0 = sinh x und (sinh x)0 = cosh x.

Die Umkehrfunktionen sind

arcosh x : [1, ∞) −→ [0, ∞)


und arsinh x : [−∞, ∞) −→ [−∞, ∞).

Es gilt:
1
(arcosh x)0 = √ x ∈ [1, ∞),
x2 − 1
1
(arsinh x)0 = √
x2 + 1
Wir erhalten schließlich:
Z
dx
(10) √ = arsinh x.
x2 + 1
Z 
dx arcosh x auf [1, ∞)
(11) √ =
2
x −1 −arcosh (−x) auf (−∞, −1).

(2) Stammfunktionen lassen sich nicht immer durch elementare Funktionen beschreiben.
Z Z Z Z Z
−x2 cos x 2 sin x dx
Beispiele: e , dx, cos x dx, dx .
x x log x

5.2.3 Partielle Integration


Ist der Integrand ein Produkt, und wissen wir von einem der Faktoren die Stammfunktion,
so kann das Integral mit Hilfe der partiellen Integration vereinfacht werden.

Satz 3 (Partielle Integration) Seien u, u0 , v, v 0 stetig auf [a, b]. Dann gilt:
Z Z
u v dx = u · v − u · v 0 dx
0

Zb b Z b
u v dx = u · v − u · v 0 dx
0

bzw.
a
a a
Zb
= [u(b)v(b) − u(a)v(a)] − u · v 0 dx.
a
R R
Formal: du · v = u · v − udv.
106 KAPITEL 5. INTEGRALRECHNUNG

Beweis: Nach der Produktregel gilt:

(u · v)0 = u · v 0 + u0 · v

Daraus folgt: Z Z
0
u·v = u · v dx + u0 · v

2
Beispiel:

Z1 1 Z1
x
1 · log(1 + x) dx = x log(1 + x) − dx
|{z} | {z } 0 1+x
0 v0 u 0
 1 
Z Z1
dx 
= log 2 −  1 dx −
1+x
0 0
1

= log 2 − 1 + log(1 + x) = −1 + log 4
0
Z Z
log x = x log x − 1 dx = x log x − x.

Bemerkung: Partielle Integration führt zum Erfolg bei Integralen des Typs:
R
(1) P (x)ex dx, P (x) Polynom.
R
(2) P (x) log x dx.
R R
(3) cos ax ebx dx, sin ax ebx dx.
R R
(4) P (x) cos x dx, P (x) sin x dx.

sin x − cos x x
Z
Beispiel: sin xex dx = e .
2

Eine Anwendung der partiellen Integration ist der Taylorsche Satz mit Integralrestglied:

Satz 4 f sei (m + 1)mal stetig differenzierbar in (a, b), und seien x0 , x ∈ (a, b) mit x0 < x.
Dann gilt:
m Zx
X f (j) (x0 ) j 1
f (x) = (x − x0 ) + (x − t)m f (m+1) (t) dt.
j=0
j! m!
x0
5.2. STAMMFUNKTIONEN 107

Beweis: Wir führen den Beweis durch vollständige Induktion. Für m = 1 gilt nach dem
Hauptsatz der Differential– und Integralrechnung
Zx
f (x) − f (x0 ) = f 0 (t)dt.
x0

Sei nun
m−1 Zx
X f (j) (x0 ) 1
f (x) = (x − x0 )j + (x − t)m f (m) (t) dt.
j=0
j! (m − 1)!
x0

Nach dem Satz über die partielle Integration folgt


Zx x Zx
m−1 (m) (x − 1)m (m) (x − t)m (m+1)
(t − x) f (t) dt = − f (t) + f (t) dt
m! x0 m!
x0 x0
Zx
(x − x0 )m (m) 1
= f (x0 ) + (x − t)m f (m+1) (t) dt.
m! m!
x0

Damit ist der Satz bewiesen.2

Folgerung 1 (Restglied nach Lagrange) Es existiert ein ξ ∈ (x0 , x) mit


Zx
1 f (m+1) (ξ)
(x − t)m f (m+1) (t) dt = (x − x0 )m+1 .
m! (m + 1)!
x0
| {z }
Rm (x,x0 )

Beweis: Es gilt:
Zx Zx
(m+1) (x − t)m (x − t)m
inf f (t) dt ≤ Rm (x, x0 ) ≤ sup f (m+1) (t) dt.
[x0 ,x] m! [x0 ,x] m!
x0 x0

Da
Zx
(x − t)m (x − x0 )m+1
dt = ,
m! (m + 1)!
x0

folgt
Rm (x, x0 )(m + 1)!
inf f (m+1) (t) ≤ ≤ sup f (m+1) (t).
[x0 ,x] (x − x0 )m+1 [x0 ,x]

Wenden wir nun den Zwischenwertsatz auf f (m+1) (t) an, so folgt die Behauptung.2
108 KAPITEL 5. INTEGRALRECHNUNG

5.2.4 Substitution
Es sei F eine Stammfunktion von f und ϕ : [a, b] −→ [c, d] eine differenzierbare Funktion
mit R(ϕ) ⊂ D(f ). Mit der Kettenregel folgt:

[F (ϕ(t))]0 = f (ϕ(t))ϕ0 (t).

Daraus ergibt sich die Substitutionsregel


Z Z
0

f (ϕ(t))ϕ (t) = f (x) dx +c
x=ϕ(t)

Man kann auch folgenden Weg einschlagen: Es sei ϕ : [a, b] −→ [c, d] eineindeutig und sei
ϕ0 (t) 6= 0 auf (a, b). Dann existiert die Umkehrfunktion t = ϕ−1 (x). Außerdem sei G(t)
Stammfunktion von f (ϕ(t))ϕ0 (t). Dann gilt nach der Kettenregel:

G(t) = F (ϕ(t)) + c für t ∈ (a, b)


−1
bzw. G(ϕ (x)) = F (x) + c für x ∈ (c, d).

Wir erhalten Z Z
0

f (x) dx = f (ϕ(t))ϕ (t) dt +c
t=ϕ−1 (x)
Z Z
Formal gilt: f (x) dx = f (ϕ(t))ϕ0 (t) dt
dx
t = ϕ−1 (x), x = ϕ(t), = ϕ0 (t),
dt
und damit ist dx = ϕ0 (t)dt.

Satz 5 Sei f : [c, d] −→ R stetig und ϕ : [a, b] −→ [c, d] stetig und differenzierbar mit
ϕ(a) = c und ϕ(b) = d. Dann gilt:

Zd Zb
f (x) dx = f (ϕ(t))ϕ0 (t) dt.
c a

Bemerkung: Falls ϕ−1 existiert, gilt: b = ϕ−1 (d), c = ϕ−1 (a).


Beweis: Es sei F eine Stammfunktion von f auf [c, d] und G eine Stammfunktion von
f (ϕ(t))ϕ0 (t) auf [a, b]. Dann gilt:

[F (ϕ(t))]0 = f (ϕ(t))ϕ0 (t),

und damit ist


F (ϕ(t)) = G(t) + c.
5.2. STAMMFUNKTIONEN 109

Daraus folgt:

Zb Zd
0
f (ϕ(t))ϕ (t) dt = F (ϕ(b)) − F (ϕ(a)) = F (d) − F (c) = f (x) dx.
a c

Folgerung 2 Es gilt:
f 0 (x)
Z
dx = log |f (x)|.
f (x)

Beispiele:
dx
(1) Halbkreis mit Radius 1: Mit der Substitution x = sin t, t ∈ [− π2 , π2 ], so daß = cos t,
dt
gilt:
π π
Z1 √ Z2 p Z2
1 − x2 dx = 1 − sin2 t cos t dt = cos2 t dt
−1 − π2 − π2
π π
Z2 Z2
1 1
= 1 dt + cos 2t dt,
2 2
− π2 − π2

da
1 + cos 2t
cos2 t = ,
2
denn
cos 2t = cos(t + t) = cos2 t − sin2 t = 2 cos2 t − 1.
Wir erhalten
Z1 √   π2
π 1 1 π
1 − x2 dx = + sin 2t = .
2 2 2 −π 2
−1 2

Interpretation: „π = Fläche des Einheitskreises“.


Z
1
(2) f (αx + β) dx = F (αx + β) + c mit F 0 = f
α
Z
(3) Anwendung der Folgerung: cot(x) = log | sin x|
Z
tan x = − log | cos x|

Bemerkungen:
110 KAPITEL 5. INTEGRALRECHNUNG

Zb Z−a
(1) f (x) dx = f (−t) dt.
a −b

Za Za
(2) Ist f gerade, so gilt: f (x) dx = 2 f (x) dx.
−a 0

Za
Ist f ungerade, so gilt: f (x) dx = 0.
−a

a+2π
Z Zπ
(3) Ist f 2π–periodisch, so gilt: = f (x) dx.
a −π
Beweis: Es gilt:
a+2π
Z Z−π Zπ a+2π
Z Zπ
f= f+ f+ f (x) dx = f,
a a −π π −π

da
a+2π
Z Za
f (x) dx = f (x) dx
π −π

mit x = t + 2π.2

5.3 Integration rationaler Funktionen


5.3.1 Fundamentalsatz der Algebra
Beispiel: Q(x) = x2 + px +rq mit p, q ∈ R.
p p2
Es ist bekannt: x1 = − + − q,
2 r4
p p2
x2 = − − − q.
2 4
1.Fall: p2 − 4q > 0. Es gilt:
r ! r !
p p2 p p2
(x − x1 )(x − x2 ) = x+ − −q x+ + −q
2 4 2 4
= x2 − (x1 + x2 )x + x1 x2
= x2 + px + q.
5.3. INTEGRATION RATIONALER FUNKTIONEN 111

2.Fall: p2 − 4q = 0. Dann gilt:


 p 2
(x − x1 )2 = x + = x2 + px + q.
2
r
p p2
3.Fall: p2 − 4q < 0. Hier gilt x1,2 = − ± i q − und damit x2 = x1 .
2 4

(x − x1 )(x − x1 ) = x2 − (x1 + x1 ) + x1 x1
= x2 + px + q
 p p2
= x+ +q− .
2 | {z 4}
>0

Setzen wir x1 = α + iβ und x2 = α − iβ, dann folgt:

x2 + px + q = (x − α)2 + β 2 .

Definition 1 Seien c0 , . . . , cn ∈ C, z ∈ C, cn 6= 0.
(i) Q(z) := cn z n + . . . + c1 z + c0 heißt komplexes Polynom n–ten Grades.

(ii) z0 heißt Nullstelle :⇐⇒ Q(z0 ) = 0.

(iii) Die Nullstelle z0 hat die Vielfachheit m = 1, 2, . . . :⇐⇒

Q(z) = (z − z0 )m Q̃(z) mit Q̃(z0 ) 6= 0.

(m = 1 ∼ einfache Nullstelle, m = 2 ∼ doppelte Nullstelle)

Bemerkung: Wir ersetzen x durch z und fassen so reelle Polynome als komplexe Polynome
auf.

Definition 2 z ∈ C heißt n–te Einheitswurzel :⇐⇒ zn = 1 (n = 1, 2, . . .).

Lemma 1 Es gibt genau n verschiedene n–te Einheitswurzeln, nämlich



zk = ei n k mit k = 0, 1, . . . , n − 1.

Beweis: Es sei ϕ = arg z mit 0 ≤ ϕ < 2π. z n = 1 ist gleichbedeutend mit


 n

|z|e = 1 bzw. |z|n einϕ = 1.

Das heißt aber nichts anderes als

|z| = 1 und nϕ = 2kπ mit k ∈ Z, 0 ≤ ϕ < 2π,


112 KAPITEL 5. INTEGRALRECHNUNG

und wir erhalten



z = ei n k mit k = 0, 1, . . . , n − 1.
2
Bemerkung: P (z) = z n − 1 hat genau n Nullstellen in C. Frage: Wie sieht es für das
Polynom
P (z) = cn z n + . . . + c1 z + c0
aus? Antwort geben die folgenden Sätze.

Satz 1 (Fundamentalsatz) Sei P (z) ein Polynom n–ten Grades, n = 1, 2, . . .. Dann exi-
stiert ein z0 ∈ C mit P (z0 ) = 0.

Beweis: 1. Schritt: |P (z)| besitzt ein Minimum in der offenen Menge U = {z : |z| < r}: Es
gilt !
n−1
X
P (z) = z n cn + ck z k−n .
k=1

Aus der Dreiecksungleichung folgt


n−1
!
X
|P (z)| ≥ |z|n |cn | − |ck ||z|k−n ,
k=1

und damit ist


lim P (z) = ∞.
|z|→∞

Es sei α := inf |P (z)|. Dann existiert ein r > 0 mit


z∈C

|P (z)| > α + 1 für |z| ≥ r.

Die Menge
U = {z : |z| ≤ r}
ist kompakt, und
α = inf |P (z)|.
z∈U

Da |P (z)| auf U stetig ist, existiert nach Satz 3.1.3/4 ein z0 ∈ U mit

α = inf |P (z)| = |P (z0 )|.


z∈U

Da |P (z)| ≥ α + 1 für |z| = r, gilt sogar: z0 ∈ U .


2. Schritt: Wir zeigen nun: P (z0 ) = 0. Dazu nehmen wir an, |P (z0 )| > 0 und zeigen, es
existiert ein z1 ∈ U mit
|P (z1 )| < |P (z0 )|.
5.3. INTEGRATION RATIONALER FUNKTIONEN 113

Das ist dann der gesuchte Widerspruch. Wir suchen ein z1 der Form

z1 = z0 + εu mit |u| = 1 und 0 < ε < 1.

Dabei seien ε und u passend gewählt. Es sei


P (z0 + w)
Q(w) := d.h. Q(0) = 1.
P (z0 )
Q(w) hat folgende Gestalt:

Q(w) = 1 + bm wm + . . . + bn wn mit bm 6= 0, 1 ≤ m ≤ n.

Es gilt:

P (z0 + εu) = P (z0 )Q(εu)


= P (z0 )(1 + bm um εm + . . . + bn un εn ).
|bm |
bm um = −|bm |, falls um = bm
. Dies ist möglich nach Lemma 5.3.1/1. Also ist

|P (z1 )| = P (z0 )(1 − |bm |εm +bm+1 um+1 εm+1 + . . . + bn un εn )


| {z }
>0 für ε<ε0
n
X
≤ |P (z0 )|(1 − |bm |εm ) + |bk |εk
k=m+1
  n
X 
m k−m
= |P (z0 )| 1 − ε |bm | − |bk |ε
k=m+1
  n
X 
m
< |P (z0 )| 1 − ε |bm | − ε |bk | da εk−m ≤ ε
k=m+1
| {z }
> 0 für ε < ε1 < ε0 < 1
< P (z0 ).

Damit ist P (z0 ) = 0.2

Satz 2 (i) Es sei P (z) ein komplexes Polynom n–ten Grades. Dann besitzt P (z) ein-
schließlich der Vielfachheit genau n Nullstellen. Es gilt die Darstellung:

P (z) = cn (z − z1 )m1 · · · (z − zl )ml ,

wobei zj (zj 6= zk für j 6= k) und mj , (mj ∈ N, m1 + . . . + ml = n) eindeutig bestimmt


sind.
(ii) Sei P (z) = an z n + . . . + a1 z + a0 ein Polynom n–ten Grades mit reellen Koeffizienten.
Dann gilt zusätzlich: Ist z0 eine Nullstelle der Vielfachheit m0 , so ist auch z0 eine
Nullstelle der Vielfachheit m0 .
114 KAPITEL 5. INTEGRALRECHNUNG

Beweis: 1. Schritt: Nach Satz 1 existiert ein z1 ∈ C mit P (z1 ) = 0. Daraus folgt
n
X
P (z) = P (z) − P (z1 ) = cj (z j − z1j )
j=0
n
X
cj (z − z1 ) z j−1 + z j−2 z1 + . . . + zz1j−2 + z1j−1
 
=
j=0
= (z − z1 )Pn−1 (z)
= bn−1 z n−1 + . . . + b1 z + b0 mit bn−1 = cn 6= 0.

Durch Iteration erhalten wir

P (z) = cn (z − z1 )m1 · · · (z − zl )ml .

Wir nehmen an, P (z) hat mehr als n Nullstellen, d.h. es existiert ein z0 mit P (z0 ) = 0 und
z0 6= zj für alle j. Dann gilt:

0 = P (z0 ) = cn (z0 − z1 )m1 · · · (z0 − zl )ml

das heißt aber, es gibt ein j mit zj = zl .


2. Schritt: Seien aj reell. Ist P (z0 ) = 0, so gilt:

P (z0 ) = an z0 n + . . . + a1 z0 + a0 = P (z0 ) = 0.

Aus Teil (i) des Satzes folgt

P (z) = (z − z0 )m0 (z − z0 )m1 Q(z) mit Q(z0 ) 6= 0, Q(z0 ) 6= 0.

Dabei sind m0 und m1 eindeutig bestimmt. Setzen wir z ein, so erhalten wir die ebenfalls
eindeutige Darstellung
P (z) = (z − z0 )m0 (z − z0 )m1 Q(z)
Andererseits gilt:
P (z) = P (z) = (z − z0 )m0 (z − z0 )m1 Q(z).
Aus der Eindeutigkeit der Darstellung folgt: m0 = m1 .2

5.3.2 Partialbruchzerlegung
Z
P (x) P (x)
Gesucht ist dx mit R(x) = Q(x) rational und P, Q Polynome. O.B.d.A. sei Grad P
Q(x)
< Grad Q, sonst führen wir eine Polynomdivision durch, so daß
P P2
= P1 + mit Grad P2 < Grad Q.
Q Q
5.3. INTEGRATION RATIONALER FUNKTIONEN 115

Q(x) = xn + an−1 xn−1 + . . . + a1 x + a0 (an = 1).


Die Methode, die das gewünschte Ergebnis liefert, ist die Partialbruchzerlegung. Wir betrach-
ten ein Beispiel:
 
1 1 1 1 1 a b
= = − = +
x2 − 1 (x − 1)(x + 1) 2 x−1 x+1 x−1 x+1

Allgemein gilt nach dem Fundamentalsatz der Algebra (Grad Q = n):

Q(x) = (x − x1 )m1 · · · (x − xr )mr (x − z1 )l1 (x − z1 )l1 · . . . · (x − zs )ls (x − zs )ls

mit zj = αj + iβj , βj 6= 0 komplexe Nullstellen, m1 + . . . + mr + 2(l1 + . . . + ls ) = n. Wegen

(x − zj )(x − zj ) = x2 − zj x − zj x + zj zj
= x2 − 2αj x + αj2 + βj2
= (x − αj )2 + βj2

folgt daraus

Q(x) = (x − x1 )m1 · · · (x − xr )mr [(x − α1 )2 + β12 ]l1 · · · [(x − αs )2 + βs2 ]ls .

Lemma 2 Es seien P (z) und Q(z) komplexe Polynome mit Grad P < Grad Q. Es sei
Q(z) = (z − λ)m N (z), λ ∈ C Nullstelle der Vielfachheit m, N (λ) 6= 0.
(i) Es gilt für alle z, Q(z) 6= 0:

P (z) A M (z)
= m
+ . (5.1)
Q(z) (z − λ) (z − λ)m−1 N (z)

Dabei sind A ∈ C, M (z) Polynom eindeutig bestimmt und Grad M < Grad Q − 1.

(ii) Sind P, Q, λ reell, so sind A, M (x), N (x) (x ∈ R) reell.

Beweis: 1. Schritt: (5.1) gilt für alle z mit Q(z) 6= 0, falls

P (z) = AN (z) + M (z)(z − λ).

Setzen wir z = λ ein, so gilt


P (λ)
P (λ) = AN (λ) bzw. A = .
N (λ)
Daraus folgt
P (λ)
P (z) − N (λ)
N (z) P (z)N (λ) − P (λ)N (z) P̃ (z)
M (z) = = = .
z−λ (z − λ)N (λ) z−λ
116 KAPITEL 5. INTEGRALRECHNUNG

P̃ (z) ist ein Polynom in z, da P̃ (λ) = 0. Es gilt:

Grad M ≤ Grad P̃ − 1 ≤ Grad P − 1.

Damit sind A, M eindeutig bestimmt.


Seien A und M (z) wie oben. Dann gilt:
A M (z) P (λ) P (z)N (λ) − P (λ)N (z)
m
+ m−1
= m
+
(z − λ) (z − λ) N (z) N (λ)(z − λ) N (λ)(z − λ)m N (z)
P (λ)N (z) + P (z)N (λ) − P (λ)N (z)
=
N (λ)Q(z)
P (z)
= .
Q(z)

2. Schritt: Sind P, Q, λ reell, so ist N reell, und damit sind A und M ebenfalls reell.2

Satz 3 Seien P (z), Q(z) komplexe Polynome mit Grad P < Grad Q.

Q(z) = (z − z1 )m1 · · · (z − zl )ml , (zj ∈ C, zj 6= zk Nullstellen).

(i) Es existieren eindeutig bestimmte Konstanten Aj,k ∈ C, so daß gilt:


l mj
P (z) X X Aj,k
= ∀z 6= z1 , . . . zl (5.2)
Q(z) j=1 k=1
(z − zj )k

(ii) Seien P (z), Q(z) Polynome mit reellen Koeffizienten. Dann sind Aj,k , k = 1, . . . , mj
reell, falls zj reell ist.
Ar,k = As,k , k = 1, . . . , mr = ms , falls zr = zs .

Beweis: (5.2) folgt aus Lemma 2 durch Iteration. Damit sind die Konstanten Aj,k eindeutig
bestimmt. Haben P und Q reelle Koeffizienten, so gilt:
l mj l mj
P (z) P (z) (5.2) X X Aj,k X X Aj,k
= = k
= k
.
Q(z) Q(z) j=1 k=1
(z − zj ) j=1 k=1
(z − zj )

Da zj ∈ R, gilt zj = zj , und damit ist Aj,k = Aj,k ∈ R wegen der Eindeutigkeit der Aj,k . Aus
zr = zs folgt As,k = Ar,k ebenfalls wegen der Eindeutigkeit der Darstellung. (Satz 5.3.1/2).2

Lemma 3 Sei P (x) reell, Grad P ≤ 2m − 1, λ = α + iβ, β 6= 0. Dann gilt:


P (x) ax + b M (x)
m m
= m m
+ m−1
, (5.3)
(x − λ) (x − λ) (x − λ) (x − λ) (x − λ) (x − λ)m−1
wobei a, b reell, M (x) reelles Polynom, grad M ≤ grad P − 2, eindeutig bestimmt sind.
5.3. INTEGRATION RATIONALER FUNKTIONEN 117

Beweis: 1. Schritt: Wegen

P (x) = ax + b + P (x) − (ax + b)

gilt
P (x) ax + b P (x) − (ax + b)
= + .
(x − λ)m (x − λ)m (x − λ)m (x − λ)m (x − λ)m (x − λ)m
Dann ist
P (x) − (ax + b) = (x − λ)(x − λ)M (x)
mit M (x) Polynom, falls

P (λ) = aλ + b,
P (λ) = aλ + b.

Dieses Gleichungssystem ist eindeutig lösbar, da



λ 1
λ 1 = λ − λ = 2iβ 6= 0,

und a und b sind eindeutig bestimmt. Da P reell ist, sind a, b ebenfalls Lösung, also sind
a, b ∈ R, und M (x) ist reell. Außerdem gilt:

Grad M ≤ Grad P − 2.

2. Schritt: Es gelte (5.3). Dann ist

P (x) = ax + b + M (x)(x − λ)(x − λ) für x 6= λ, λ.

Für x −→ λ bzw. x −→ λ folgt

P (λ) = aλ + b
bzw. P (λ) = aλ + b.

Also sind a, b, M eindeutig bestimmt.2

Satz 4 Seien P (x), Q(x) reelle Polynome mit Grad P < Grad Q.

Q(x) = (x − x1 )m1 · · · (x − xr )mr [(x − α1 )2 + β12 ]l1 · · · [(x − αs )2 + βs2 ]ls

(zj = αj + iβj , βj 6= 0 komplexe Nullstellen, xj reelle Nullstellen).


Es existiert eine eindeutig bestimmte Darstellung
r mj s lj
P (x) X X Aj,k XX aj,k x + bj,k
= k
+ 2 + β 2 ]k
,
Q(x) j=1 k=1
(x − x j ) j=1 k=1
[(x − α j ) j

wobei Aj,k , aj,k , bj,k reelle Zahlen sind.


118 KAPITEL 5. INTEGRALRECHNUNG

Beweis: Nach Satz 3 und Satz 5.3.1/2 gilt:


r s X lj  
P (x) X X mj Aj,k X Cj,k Cj,k
= k=1 + +
Q(x) j=1
(x − xj )k j=1 k=1 (x − zj )k (x − zj )k
| {z }
P̃ (x)
= l
[(x−zj )(x−zj )] j

Dabei ist P̃ (x) = P̃ (x), also ist P̃ (x) reell, und Grad P̃ ≤ 2lj − 1. Wir wenden Lemma 2
nun iterativ (lj − 1)mal an und erhalten
lj
P̃ (x) X aj,k x + bj,k
l l
= 2 2 k
.
(x − zj ) j (x − zj ) j k=1
[(x − α j ) + βj ]

2
Beispiel:
2x2 + 3 A B1 B2 a1 x + b 1 a2 x + b 2
2 2 2
= + + 2
+ 2 + 2
(x − 2)(x + 1) (x + 1) x − 2 x + 1 (x + 1) x +1 (x + 1)2
A, B1 , B2 , a1 , a2 , b1 , b2 werden durch Koeffizientenvergleich ermittelt.

5.3.3 Integration der auftretenden Partialbrüche


Z
dx
(1) = log |x − x1 |.
x − x1
Z
dx 1 1
(2) k
= · k = 2, 3, . . ..
(x − x1 ) −k + 1 (x − x1 )k−1
Z
ax + b
(3) dx, β 6= 0. O.B.d.A. sei a = 1.
(x − α)2 + β 2
2(x − α)
Z Z Z
x+b 1 dx
2 2
dx = 2 2
dx + (α + b)
(x − α) + β 2 (x − α) + β (x − α)2 + β 2
Z
1 2 2 1 dx
= log[(x − α) + β ] + (α + b) · 2 2
2 β

x α
β
− β
+1
| {z }
=arctan( x−α
β )

(4) Sei k ∈ Z, k ≥ 2.
2(x − α)
Z Z Z
x+b 1 dx
2 2 k
dx = 2 2 k
dx + (α + b)
[(x − α) + β ] 2 [(x − α) + β ] [(x − α)2 + β 2 ]k
| {z }
Ik
1 1 1
= + Ik
2 −k + 1 [(x − α) + β 2 ]k−1
2
5.3. INTEGRATION RATIONALER FUNKTIONEN 119

Für k = 1, 2, . . . gilt:

(x − α)2 + β 2
Z
Ik = dx
[(x − α)2 + β 2 ]k+1
2(x − α)
Z
1
= (x − α) dx +β 2 Ik+1
2 [(x − α)2 + β 2 ]k+1
| {z }
partielle Integration u·v 0
  Z
1 1 1 1 dx
= (x − α) − 2 2 k
+ 2 2 k
+β 2 Ik+1
2 k [(x − α) + β ] 2k [(x − α) + β ]
| {z }
Ik

Daraus folgt:
2k − 1 1 x−α
β 2 Ik+1 = Ik +
2k 2k [(x − α)2 + β 2 ]k

I1 kennen wir bereits aus (3). Damit sind die Ik iterativ berechenbar.

Beispiel:

2x3 + x2 + x + 2
Z Z Z Z
dx dx x+1
dx = +2 + dx.
(x − 1)2 (x2 + x + 1) x−1 (x − 1)2 x2 +x+1

Wir berechnen das dritte Integral:


Z Z Z
x+1 1 2x + 1 1 dx
2
dx = 2
dx + 2
x +x+1 2 x +x+1 2 x + 12 + 34

1 2 3 2x + 1
= log(x + x + 1) + arctan √ ,
2 3 3

denn
Z Z √
1 dx 1 4 dx 2 3 2x + 1
= · = arctan √ .
1 2
2
2 3 2 3 3 2
 
x+ 2
+ 4
2x+1
√ +1 3
3

Zusammengefaßt erhalten wir



2x3 + x2 + x + 2
Z
1 3 2x + 1
dx = log |x − 1| − 2 · + arctan √ .
(x − 1)2 (x2 + x + 1) x−1 3 3
120 KAPITEL 5. INTEGRALRECHNUNG

5.4 Substitutionsregeln
5.4.1 Integration von Wurzelausdrücken
 q 
1. Integration von R x, n ax+b
cx+d

ax + b
Bemerkung: Es sei ad − bc 6= 0, sonst ist konstant, denn
cx + d
(ax + b)b (ax + b)b (ax + b)b (ax + b)b b
= = = = .
(cx + d)b bcx + bd adx + bd (ax + b)d d

1.Fall: c = 0, a 6= 0. Wir betrachten also R(x, n ax + b).

n
Substitution: t = ax + b.
Damit ist
tn − b dx n
x= und = tn−1 .
a dt a
Es folgt
√ tn − b
Z Z   Z
n n n−1
R(x, ax + b) dx = R ,t t dt = R̃(t) dt.
a a
2.Fall: a 6= 0, c 6= 0. Dann gilt:
! !
b b d
ax + b a x+ a a −a c
y= = d
= 1+ d
> 0,
cx + d c x+ c
c x+ c

b d
falls x im entsprechenden Intervall liegt (da a
− c
6= 0 nach Voraussetzung). Dort existiert
q
dann die Umkehrfunktion von n ax+b
cx+d
.
r
n ax + b
Substitution: t = . (Intervalle beachten!)
cx + d
Dann ist
ax + b dtn − b
tn = und x = ,
cx + d −ctn + a
und wir erhalten Z r ! Z
n ax + b
R x, dx = R̃(t) dt.
cx + d
Z r
1 3 x+1
Beispiel: Wir betrachten dx. Wegen
(x − 1)2 x−1
x+1 2 1 1
=1+ >0 ⇐⇒ ≥−
x−1 x−1 x−1 2
5.4. SUBSTITUTIONSREGELN 121

ergeben sich die beiden Intervalle (−∞, −1] und (1, ∞).
r
x+1
Substitution: t = 3 .
x−1
Es gilt:

t3 + 1
x = ,
t3 − 1
t3 + 1 − t3 + 1 2
x−1 = 3
= 3 ,
t −1 t −1
dx 3t2 (t3 − 1) − 3t2 (t3 + 1) 3t2 (t3 − 1 − t3 − 1) −6t2
= = = ,
dt (t3 − 1)2 (t3 − 1)2 (t3 − 1)2

und wir erhalten


r
(t3 − 1)2 −6t2
Z Z
1 3 x+1
dx = t· 3 dt
(x − 1)2 x−1 4 (t − 1)2
Z r !4
3 3 3 4 3 3 x+1
= − t d=− t =− .
2 8 8 x−1


2. Integration von R(x, x2 − 1)
Es gibt zwei Möglichkeiten:

(A) Rückführung auf 1.:


! !
√ √ √
r r
x−1 x−1
R(x, x2 − 1) = R(x, x − 1 x + 1) = R x, (x + 1) = R̃ x, .
x+1 x+1

(B) Vorbemerkung: Aus Abschnitt 5.2.2 kennen wir die hyperbolischen Funktionen.

et + e−t
cosh t := Cosinus hyperbolicus
2
e − e−t
t
sinh t := Sinus hyperbolicus
2
p
Es gilt: cosh2 t − sinh2 t = 1 und cosh t = 1 + sinh2 t.
Substitution: x = ± cosh t (x > 1 oder x < −1).
122 KAPITEL 5. INTEGRALRECHNUNG

Es ist
√ p
x2 − 1 = ± sinh t = ± cosh2 t − 1 (t > 0 bzw. t < 0),
dx = ± sinh t dt.

Wir erhalten Z √ Z
R(x, x2 − 1) dx = R̃(et ).

Zur Behandlung dieses Integraltyps siehe Abschnitt 5.4.2.


3. Integration von R(x, x2 + 1)
Es gibt wieder zwei Möglichkeiten:

(A) Substitution: t = x + x2 + 1.
x
Es gilt t0 = 1 + √ > 0, und es existiert die Umkehrfunktion auf R:
x2 + 1
t2 − 1
x= t ∈ (0, ∞).
2t
Wir erhalten:
0

 2
t2 − 1
 2
t −1 t −1
Z Z Z
2
R(x, x + 1) dx = R ,t − dt = R̃(t) dt.
2t 2t 2t

(B) Substitition: x = sinh t.


Es folgt:
Z √ Z Z
R(x, x2 + 1) dx = R(sinh t, cosh t) cosh t dt = R̃(et ).

Zur weiteren Behandlung siehe Abschnitt 5.4.2.


4. Integration von R(x, 1 − x2 )
Es sei |x| < 1.
(A) Rückführung auf 1. wie in 2.(A).
t ∈ − π2 , π2 .
 
(B) Substitution: x = sin t,
√ p
Es ist dx = cos t dt und 1 − x2 = 1 − sin2 t = cos t.
Wir erhalten: Z √ Z
R(x, 1− x2 ) dx = R(sin t, cos t) cos t dt.
5.4. SUBSTITUTIONSREGELN 123

5.4.2 Integration trigonometrischer Funktionen


1.Fall: Wir betrachten R(ex ).
Substitution: t = ex .
1
Dann ist x = log t und dx = dt, und wir erhalten:
t
Z Z Z
x 1
R(e ) dx = R(t) dt = R̃(t) dt.
t

2.Fall: Wir betrachten R(cos x, sin x). Da R(cos x, sin x) 2π–periodisch ist, können wir uns
auf das Intervall [− π2 , π2 ] einschränken und betrachten (a, b) ⊂ [− π2 , π2 ].
x
Substitution: t = tan .
2
2
Dann ist x = 2 arctan t und dx = dt.
1 + t2
Es gilt:

cos2 x
sin 2x = 2 sin x cos x = 2 tan x cos2 x = 2 tan x
sin2 x + cos2 x
1
= 2 tan x .
1 + tan2 x
x 1 2t
Somit ist sin x = 2 tan x = .
2 1 + tan2 2
1 + t2
2
Außerdem ist cos 2x = cos2 x − sin2 x = 2 cos2 x − 1 = −1
1 + tan2 x
2 2
und somit cos x = x −1= − 1.
1 + tan2 2
1 + t2

Wir erhalten also


b
tan
Zb Z 2   Zb̃
2 2t 2
R(cos x, sin x) dx = R 2
− 1, dt = R̃(t) dt.
1+t 1 + t2 1 + t2
a a ã
tan 2

3.Fall: Wir betrachten R(sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx) und verwenden die
Moivreschen Formeln:

(cos x + i sin x)k = cos kx + i sin kx.


124 KAPITEL 5. INTEGRALRECHNUNG

Es folgt:
cos kx = Re (cos x + i sin x)k = P1 (cos x, sin x)
sin kx = Im (cos x + i sin x)k = P2 (cos x, sin x).
Damit erhalten wir
R(sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx) = R̃(sin x, cos x).

5.5 Einfache Differentialgleichungen


5.5.1 Differentialgleichungen mit getrennten Variablen
bisher: gegeben: f (x) : (a, b) −→ R.
gesucht: y = y(x) = F (x) mit y 0 (x) = f (x).
Lösung: y = F (x) + c sämtliche Lösungen.
Es existiert genau eine Lösung mit y(x0 ) = y0 :
y = F (x) − F (x0 ) + y0 .

jetzt: gegeben: f (x) : (a, b) −→ R stetig,


g(y) : (c, d) −→ R stetig, g(y) 6= 0 auf (c, d),
x0 ∈ (a, b), y0 ∈ (c, d).
gesucht: y = y(x) mit y 0 = f (x)g(y), d.h.
y 0 (x) = f (x)g(y(x)) ∀ x ∈ (x0 − δ, x0 + δ),
y(x0 ) = y0 .

Eine solche Aufgabenstellung heißt „Anfangswertproblem“ für Differentialgleichungen 1. Ord-


nung mit getrennten Variablen.
Bemerkungen:
(1) f (x) ≡ 1. Dann ist y 0 = g(y).
z.B. y 0 = ay mit a 6= 0 („Wachstumsprozesse“)
Dann umfaßt
y(x) = ceax , c∈R
sämtliche Lösungen.
Es sei y eine Lösung. Dann gilt für alle x:
 y 0 y 0 eax − ayeax eax (y 0 − ay)
= = = 0.
eax e2ax e2ax
Also ist
y(x)
ax
= const bzw. y(x) = ceax .
e
5.5. EINFACHE DIFFERENTIALGLEICHUNGEN 125

Ist y(x0 ) = y0 , so folgt y = y0 eax .

(2) g(y0 ) = 0. Dann ist y(x) ≡ y0 Lösung („singuläre Lösung“).

(3) Wir nehmen an, y = ϕ(x) ist Lösung des Anfangswertproblems mit y(x0 ) = y0 und
ϕ : (α, β) ⊂ (a, b) −→ (c, d). Dann gilt für alle x ∈ (α, β):

ϕ0 (x)
ϕ0 (x) = f (x)g(ϕ(x)) bzw. = f (x).
g(ϕ(x))

Es folgt
Zx Zx
ϕ0 (t)
dt = f (t) dt
g(ϕ(t))
x0 x0

und

G(ϕ(x)) − G(ϕ(x0 )) = F (x) − F (x0 ),


G(ϕ(x)) = F (x) + G(y0 ) − F (x0 ) für alle x ∈ (α, β),
1
wobei G0 = 6= 0 und F 0 = f Stammfunktionen sind. Wir erhalten:
g

ϕ(x) = G−1 [F (x) + G(y0 ) − F (x0 )].

Umkehrung:
Wir betrachten alle (x, y) ∈ Q = (a, b) × (c, d) mit

G(y) = F (x) + G(y0 ) − F (x0 ) = F0 (x).

Damit ist (x0 , y0 ) ∈ Q. Da G streng monoton und stetig ist und auch F0 stetig ist, existiert
ein δ, so daß für alle x ∈ (α, β) := (x0 − δ, x0 + δ) ∩ (a, b) folgt:

F0 (x) ∈ R(G) = Intervall.

Also gilt für alle x ∈ (α, β):


y = G−1 (F0 (x)) =: ϕ(x).
Außerdem gilt: ϕ(x0 ) = y0 ,
ϕ0 (x) = f (x) · g(ϕ(x)).

Satz 1 Sei f : (a, b) −→ R stetig, g : (c, d) −→ R stetig und g(y) 6≡ 0 auf (c, d). Ist
x0 ∈ (a, b) und y0 ∈ (c, d), dann existiert ein Intervall (α, β) ⊂ (a, b) mit x0 ∈ (α, β) und
eine eindeutig bestimmte Funktion ϕ : (α, β) −→ (c, d) mit

(i) ϕ0 (x) = f (x)g(ϕ(x)) ∀x ∈ (α, β),


126 KAPITEL 5. INTEGRALRECHNUNG

(ii) ϕ(x0 ) = y0 .

(iii) Man erhält ϕ durch Auflösen der Gleichung

Zy Zx
du
u(y) = = f (t) dt = F0 (x).
g(u)
y0 x0

Bemerkung: Durch jeden Punkt (x0 , y0 ) ∈ Q = (a, b) × (c, d) geht genau eine Lösung
y = ϕ(x) des Anfangswertproblems

y 0 = f (x)g(y)
y(x0 ) = y0

Beispiel: y 0 = y 2 , y(1) = −1, (a, b) = R, (c, d) = (−∞, 0).

Zy y
du 1
=⇒ − = −1
u2 u −1
−1
1
=⇒ − =x
u
1
=⇒ y = − , x ∈ (0, ∞)
x

1
alle Lösungen: y = − .
x+c

5.5.2 Lineare Differentialgleichungen 1. Ordnung


Wir betrachten das AWP: y 0 = f (x)y + g(x) (5.4)
y(x0 ) = y0
mit g, f : (a, b) −→ R stetig, x0 ∈ (a, b), y0 ∈ R.
Bemerkung: L(y) = y 0 − f (x)y, L(y) = g
L : C 1 (a, b) −→ C linear (Analogon zu Linearer Algebra)
Lösungsmethode

(1) y 0 = f (x)y „homogene Gleichung“.


Es gilt:
y 0 (x)
= f (x).
y(x)
5.5. EINFACHE DIFFERENTIALGLEICHUNGEN 127

Aus Abschnitt 5.5.1 folgt durch Integrieren


Zx
log |y(x)| = f (x) dx + c1 = F (x) + c
x0

|y(x)| = eF (x) ec1


y(x) = ceF (x) , c ∈ R.

Damit sind sämtliche Lösungen

y(x) = ceF (x) , c ∈ R, definiert auf (a, b).

(2) y 0 = f (x)y + g(x).


Durch „Variation der Konstanten“ finden wir eine spezielle Lösung. Wir machen fol-
genden Ansatz:
ys (x) := c(x)eF (x) .
ys (x) ist Lösung

⇐⇒ c0 (x)eF (x) + c(x)f (x)eF (x) = f (x)c(x)eF (x) + g(x)


⇐⇒ c0 (x)eF (x) = g(x)
⇐⇒ c0 (x) = g(x)e−F (x)
Z
⇐⇒ c(x) = g(x)e−F (x) dx (Stammfunktion, existiert immer)

Daraus folgt: Z 
−F (x)
ys (x) = g(x)e dx eF (x)

ist eine spezielle Lösung der Differentialgleichung.

(3) y(x) = ceF (x) + ys (x) mit c ∈ R ist die allgemeine Lösung der Differentialgleichung
(sämtliche Lösungen).
Beweis: Aus y(x) = yh (x) + ys (x) folgt:

y 0 = yh0 + ys0 = f (x)yh + f (x)ys + g(x)


= f (x)(yh + ys ) + g = f (x)y + g.

Wir nehmen an ỹ ist Lösung. Dann gilt:

(ỹ − ys )0 = f (x)(ỹ − ys ).

Also existiert ein c mit

ỹ − ys = ceF (x) bzw. ỹ = ceF (x) + ys


128 KAPITEL 5. INTEGRALRECHNUNG

(4) Das Anfangswertproblem hat genau eine Lösung.


y(x0 ) = y0 ⇐⇒ ceF (x0 ) = y0
O.B.d.A. sei eF (x0 ) = 1, dann ist c = y0 − ys (x0 ), und c ist eindeutig bestimmt.

Wir können nun folgenden Satz formulieren:

Satz 2 (i) Das Anfangswertproblem (5.4) besitzt genau eine Lösung, diese ist auf dem
gesamten Intervall (a, b) definiert.
R
(ii) Es sei F (x) = f (x dx) eine Stammfunktion von f , und es sei ys eine spezielle Lö-
sung der Differentialgleichung. Dann sind sämtliche Lösungen der Differentialgleichung
durch
y(x) = ceF (x) + ys (x), c ∈ R
gegeben. ys (x) läßt sich durch den Ansatz ys (x) = c(x)eF (x) bestimmen (Variation der
Konstanten).

Beispiel: y 0 = y + x
yh = cex
c0 ex = x
c0 = xe−x
c = −xe−x + e−x = −xe−x − e−x .
R

Es folgt: ys = −(x + 1), und wir erhalten

y = cex − x − 1.

5.5.3 Lineare Differentialgleichungen 2. Ordnung


Wir betrachten: y 00 + p(x)y 0 + q(x)y = s(x)
y(x0 ) = y10 (5.5)
y 0 (x0 ) = y20
mit p, q, s : (a, b) −→ R stetig, x0 ∈ (a, b), y 0 = (y10 , y20 ) ∈ R2 .
Bemerkungen:

(1) Bewegungsgleichung, Schwingungsgleichung.

(2) L(y) := y 00 + p(x)y 0 + q(x)y,


L : C 2 (a, b) −→ C(a, b) linear,
L(y) = s(x), wobei s gegeben und y gesucht ist.

Satz 3 Das Anfangswertproblem (5.5) besitzt genau eine Lösung. Diese ist auf dem gesamten
Intervall (a, b) definiert.
5.5. EINFACHE DIFFERENTIALGLEICHUNGEN 129

Beispiele:  
y 00 = y  y 00 = y 
y(0) = 1 y = ex y(0) = −1 y = e−x
y 0 (0) = 1 y 0 (0) = 1
 
 
y 00 = −y  y 00 = −y 
y(0) = 0 y = sin x y(0) = 1 y = cos x
y 0 (0) = 1 y 0 (0) = 0
 

Lösungsmethode:

(1) Struktur der allgemeinen Lösung:


y = ϕ(x) + ψ(x) mit Lψ = s(x) spezielle Lösung und Lϕ = 0.

(2) Allgemeine Lösung der homogenen Gleichung L(y) = 0.


Wir betrachten L := {y = ϕ(x) : L(ϕ(x)) = 0 ∀ x ∈ (a, b)} (Lösungsraum).

Satz 4 Es existieren immer zwei linear unabhängige Lösungen. Jede Lösung läßt sich dar-
stellen als
ϕ(x) = c1 ϕ1 (x) + c2 ϕ2 (x),
wobei c1 , c2 ∈ R und {ϕ1 , ϕ2 } ⊂ L linear unabhängig sind. L ist ein 2–dimensionaler Vek-
torraum.

Beweis: Es seien ϕ(x) ∈ L, {ϕ1 , ϕ2 } ⊂ L linear unabhängig und x0 ∈ (a, b). Wir setzen

ϕ1 (x0 ) = u1 ϕ2 (x0 ) = v1 ϕ(x0 ) = y10


ϕ01 (x0 ) = u2 ϕ02 (x0 ) = v2 ϕ0 (x0 ) = y20 .

Damit sind {u, v} ⊂ R2 linear unabhängig: Wir nehmen an, u und v sind abhängig, d.h.
u = cv. Dann wäre aber ϕ1 = cϕ2 nach Satz 3. Also folgt

y 0 = c1 u + c2 v mit c1 , c2 ∈ R,

und
ϕ(x) = c1 ϕ1 (x) + c2 ϕ2 (x)
wiederum nach Satz 3.2

Definition 1 {ϕ1 , ϕ2 } ⊂ L heißt Fundamentalsystem :⇐⇒ {ϕ1 , ϕ2 } linear unabhängig.

Lemma 1 Seien ϕ1 , ϕ2 linear abhängig und ϕ1 , ϕ2 : (a, b) −→ R stetig. Dann gilt für alle
x ∈ (a, b):
ϕ1 (x) ϕ 2 (x)
0 0
= 0.
ϕ1 (x) ϕ2 (x)
130 KAPITEL 5. INTEGRALRECHNUNG

Beweis: Es existieren c1 , c2 mit c21 + c22 6= 0 und

c1 ϕ1 (x) + c2 ϕ2 (x) = 0 für alle x ∈ (a, b),


so daß c1 ϕ01 (x) + c2 ϕ02 (x) = 0

Daraus folgt
ϕ1 (x) ϕ2 (x)
0 = 0.
ϕ1 (x) ϕ02 (x)
2

Definition 2 Seien ϕ1 , ϕ2 ∈ L. Wir setzen


 
ϕ1 (x) ϕ2 (x)
Φ(x) := .
ϕ01 (x) ϕ02 (x)

W (x) = det Φ(x) heißt Wronski–Determinante.

Folgerung 1 Seien ϕ1 , ϕ2 ∈ L. Es existiere ein x0 ∈ (a, b) mit W (x0 ) 6= 0. Dann sind


{ϕ1 , ϕ2 } linear unabhängig und bilden ein Fundamentalsystem.
 
00 1 0 1
Beispiel: y (x) + y (x) + 1 − 2 y(x) = 0
x 4x
(Besselsche Differentialgleichung der Ordnung 12 ).
Wir erhalten:
sin x cos x
ϕ1 (x) = √ , ϕ2 (x) = √ sind Lösungen.
x x

sin
√x cos
√x


x x
= − 1 6= 0 auf (0, ∞) oder (−∞, 0).

W (x) =
cos
√x sin√x
x

x
− 2x x
− sin
√ x − cos
x
√x
2x x

Inhomogene Gleichung: s(x) = 15 + 4x2 . Wir erhalten (durch Erraten): ψ(x) = 4x2 .

Lemma 2 Seien ϕ1 , ϕ2 ∈ L, x0 ∈ (a, b), W (x) wie oben. Dann gilt:


Rx
− p(t) dt
W (x) = W (x0 )e x0
.

Beweis: Es gilt:
L(ϕ1 ) = 0 | · (−ϕ2 )
L(ϕ2 ) = 0 | · ϕ1

−ϕ001 ϕ2 − p(x)ϕ01 ϕ2 − q(x)ϕ1 ϕ2 = 0

ϕ1 ϕ002 + p(x)ϕ1 ϕ02 + q(x)ϕ1 ϕ2 = 0


5.5. EINFACHE DIFFERENTIALGLEICHUNGEN 131

Daraus folgt:
ϕ1 ϕ002 − ϕ001 ϕ2 +p(x) (ϕ1 ϕ02 − ϕ01 ϕ2 ) = 0,
| {z } | {z }
W 0 (x) W (x)

das heißt
W 0 (x)
W 0 (x) + p(x)W (x) = 0 bzw. = −p(x).
W (x)
Aus Abschnitt 5.5.2 folgt
x Zx

log |W (t)| = − p(t) dt
x0
x0

und damit
Rx
− p(t) dt
W (x) = W (x0 )e x0
.
2

Folgerung 2 Seien ϕ1 , ϕ2 ∈ L, W (x0 ) 6= 0. Dann ist W (x) 6= 0 für alle x ∈ (a, b).
R
Satz 5 Sei ϕ1 ∈ L mit ϕ1 (x) 6= 0 auf (a, b), und sei P (x) = p(x) dx. Dann gilt:

e−P (x)
Z
ϕ2 (x) := ϕ1 (x) dx ∈ L,
ϕ21 (x)

und {ϕ1 , ϕ2 } sind ein Fundamentalsystem.

Beweis: Es ist W (x) = e−P (x) 6= 0. Dann ist ϕ2 Lösung. 2


(3) Bestimmung einer speziellen Lösung von L(y) = s(x) durch Variation der Konstanten:
Ansatz:
ψ(x) = c1 (x)ϕ1 (x) + c2 (x)ϕ2 (x),
mit {ϕ1 , ϕ2 } Fundamentalsystem und det Φ(x) 6= 0 für alle x.

Satz 6
Z
ϕ2 (x)s(x)
Mit c1 (x) := − dx,
W (x)
Z
ϕ1 (x)s(x)
c2 (x) := dx
W (x)

ist ψ(x) eine Lösung der inhomogenen Gleichung.


132 KAPITEL 5. INTEGRALRECHNUNG

Beweis: Es sei c01 ϕ1 + c02 ϕ2 ≡ 0. Dann gilt:

ψ 0 (x) = c1 ϕ01 + c2 ϕ02


ψ 00 (x) = c01 ϕ01 + c02 ϕ02 + c1 ϕ001 + c2 ϕ002 ,

und es folgt
L(ψ) = c1 (Lϕ1 ) + c2 (Lϕ2 ) + c01 ϕ01 + c02 ϕ02 .
|{z} |{z}
=0 =0

Das ist gleichbedeutend mit


L(ψ) = s(x),
und das heißt nicht anderes als

c01 ϕ1 + c02 ϕ2 = 0
c01 ϕ01 + c02 ϕ02 = s(x)

bzw.
c01
   
0
Φ(x) =
c02 s(x)

Nach der Cramerschen Regel ist das äquivalent zu

ϕ2 (x)s(x) ϕ1 (x)s(x)
c01 = − und c02 = .
W (x) W (x)
2

5.5.4 Lineare Differentialgleichungen 2. Ordnung mit konstanten


Koeffizienten
Wir betrachten y 00 + py 0 + qy = s(x) p, q ∈ R
0 0 0
y(x0 ) = y1 , y (x0 ) = y2 .
(1) Homogene Gleichung — Fundamentalsystem

Ansatz: y(x) = eλx .


Aus L(y) = 0 folgt
λ2 + pλ + q = 0.
Wir bestimmen die Nullstellen dieses Polynoms.

(A) Reelle verschiedene Nullstellen: p2 − 4q > 0.


r
p p2
λ1,2 =− ± − q.
2 4
5.5. EINFACHE DIFFERENTIALGLEICHUNGEN 133

Es folgt:
ϕ1 (x) = eλ1 x , ϕ2 (x) = eλ2 x ∈ L,
und λx
e 1 eλ2 x = e(λ1 +λ2 )x 1 1

6= 0.
W (x) = λ1 x
λ1 e λ2 eλ2 x λ 1 λ2

Fundamentalsystem: {eλ1 x , eλ2 x }.


Lösung: ϕ(x) = c1 eλ1 x + c2 eλ2 x .

(B) Doppelte Nullstelle: p2 − 4q = 0.


p
λ1 = λ2 = − .
2
Damit ist ϕ1 (x) = eλ1 x . Aus Satz 5.5.3/5 folgt:

e−P (x) e−px


Z Z
ϕ2 (x) = ϕ1 (x) dx = eλ1 x = xeλ1 x .
ϕ1 2 (x) e−px

Die Wronski–Determinante ist


λx λx
e 1 xeλ1 x e 1 0
= e2λ1 x 6= 0.
W (x) = λ1 x
=
λ1 e e + xλ1 eλ1 x
λ1 x λ1 eλ1 x eλ1 x
p p
Fundamentalsystem: {e− 2 x , xe− 2 x }.
p p
Lösung: ϕ(x) = c1 e− 2 x + c2 xe− 2 x .

(C) Komplexe Nullstellen: p2 − 4q < 0.


r
p p2
λ1,2 =− ±i q− = α ± iβ.
2 4
Wir erhalten durch Einsetzen

ϕ1 (x) = eαx cos βx, ϕ2 (x) = eαx sin βx

(oder formal ϕ = Re ϕ +i Im ϕ).


|{z} |{z}
ϕ1 ϕ2

αx
e cos βx eαx sin βx 2αx cos βx sin βx
W (x) = αx +e = e2αx β 6= 0.
αe cos βx αeαx sin βx − sin βx · β cos βx · β
| {z }
=0

Fundamentalsystem: {eαx cos βx, eαx sin βx}.


Lösung: ϕ(x) = c1 eαx cos βx + c2 eαx sin βx.
134 KAPITEL 5. INTEGRALRECHNUNG

(2) Inhomogene Gleichung L(y) = s(x).


Spezielle Lösung: (A) Erraten
(B) Variation der Konstanten (wie in 5.5.3)
0
Φ(x)c0 = s(x)
ψ(x) = c1 (x)ϕ1 + c2 (x)ϕ2
(C) Spezielle Ansätze bei speziellem s(x).
zu (C): s(x) = (an xn + . . . + a0 )eax
1.Fall: a ist keine Nullstelle von λ2 + pλ + q.
ψ(x) = (bn xn + . . . + b0 )eax .
2.Fall: a ist Nullstell der Vielfachheit k (k = 1, 2).
ψ(x) = (bn xn + . . . + b0 )xk eax
und
s(x) = eax (c1 cos bx + c2 sin bx).
Es folgt
ψ(x) = eax (d1 cos bx + d2 sin bx),
falls a + ib keine Nullstelle ist,
ψ(x) = xeax (d1 cos bx + d2 sin bx),
falls a + ib Nullstelle ist.

Beispiel: y 00 + y = cos x.
L(y) = 0 ⇐⇒ y = c1 cos x + c2 sin x.
Ansatz: ψ(x) = x(d1 cos x + d2 sin x)
1
L(ψ) = cos x ⇐⇒ d1 = 0, d2 = .
2
x
ψ= sin x.
2
x
y = c1 cos x + c2 sin x + sin x.
2
y(0) = 0 ⇐⇒ c1 = 0.
y 0 (0) = 0 ⇐⇒ c2 = 0.
x
y = sin x (Resonanz).
2
Ein anderer Lösungsweg ist die Variation der Konstanten:
 
cos x sin x
Φ(x) = .
− sin x cos x
5.6. NUMERISCHE INTEGRATION 135

Also ist W (x) = 1.

c01 c01 = − cos x sin x


   
0
Φ(x) = ⇐⇒
c02 cos x c02 = cos2 x

nach der Cramerschen Regel. Daraus folgt

1
c1 = cos2 x,
2
1
c2 = (x + cos x sin x),
2
und wir erhalten
1 1 x
c1 (x) cos x + c2 (x) sin x = cos3 x + sin2 x cos x + sin x
2 2 2
1 x
= cos x + sin x.
2 2
Das stimmt offensichtlich mit dem vorherigen Ergebnis überein.

5.6 Numerische Integration


5.6.1 Approximation durch Integralsummen
Es sei Z = {I1 , . . . , In } eine Zerlegung und ξ = (ξ1 , . . . , ξn ) mit ξj ∈ Ij . Wir führen folgende
Bezeichnungen ein:
n
X
S(f, Z, ξ) := f (ξj )(xj − xj−1 ) heißt Riemannsche Zwischensumme.
j=1

d(Z) := max(xj − xj−1 ) heißt Feinheit der Zerlegung.


j

Es ist klar, daß gilt:


S(f, Z) ≤ S(f, Z, ξ) ≤ S(f, Z).

Lemma 1 Sei f : [a, b] −→ R Riemann–integrierbar. Für jedes ε > 0 existiert ein δ > 0,
so daß für alle Zerlegungen Z und alle Vektoren ξ mit d(Z) ≤ δ gilt:

Zb

S(f, Z, ξ) − f (x) dx ≤ ε.

a
136 KAPITEL 5. INTEGRALRECHNUNG

Beweis: Es sei ε > 0. Nach Lemma 5.1.1/1 existiert eine Zerlegung Z ∗ mit
ε
S(f, Z ∗ ) − S(f, Z ∗ ) ≤ .
3

Es sei Z = {I1 , . . . , In } eine beliebige Zerlegung von [a, b] mit Ij = [xj−1 , xj ]. Z̃ sei die
Verfeinerung von Z und Z ∗ , die entsteht, wenn man die Teilungspunkte von Z ∗ zu den
Teilungspunkten von Z hinzunimmt:

Z ∗ = {I1∗ , . . . , IN∗ } mit Ik∗ = [x∗k−1 , xk−1 ].

Z̃ ∼ {x0 , . . . , xn ; x∗1 , . . . , x∗N −1 }.


Das heißt, höchstens N Intervalle von Z werden verfeinert. Dann gilt:

S(Z) − S(Z) = S(Z) − S(Z̃) + [S(Z̃) − S(Z̃)] + [S(Z̃) − S(Z)]

Dabei ist
ε
[S(Z̃) − S(Z̃)] ≤ , da Z̃ eine Verfeinerung von Z ist.
3
Es sei
Ω := sup f (x) − inf f (x).
x∈[a,b] x∈[a,b]

Ω < ∞, da f beschränkt ist. Wir erhalten durch Betrachtung der einzelnen Teilintervalle

S(Z) − S(Z̃) ≤ N · Ω · d(Z),


S(Z̃) − S(Z) ≤ N · Ω · d(Z).
ε
Somit gilt für d(Z) ≤ =: δ(ε)
3N Ω
S(f, Z) − S(f, z) ≤ ε.

Es sei jetzt ξ = (ξ1 , . . . , ξn ) mit ξj ∈ Ij beliebig. Dann gilt:

S(f, Z) ≤ S(f, Z, ξ) ≤ S(f, Z).

Da außerdem
Zb
S(f, Z) ≤ f ≤ S(f, Z),
a

erhalten wir
Zb

S(f, Z, ξ) − f ≤ ε für d(Z) ≤ δ(ε).

a
2
5.6. NUMERISCHE INTEGRATION 137

Satz 1 (i) Sei f : [a, b] −→ R Riemann–integrierbar. Dann gilt:

Zb n   
b−aX b−a
f (x) = lim f a+j .
n→∞ n j=1 n
a

(ii) Ist f : [a, b] −→ R Lipschitz–stetig, d.h. existiert ein L > 0, so daß

|f (x) − f (y)| ≤ L|x − y|

für alle x, y ∈ [a, b], dann gilt:


b
Z n   
f − b−a b−a ≤ (b − a)2 L · 1
X
f a+j

n j=1 n
n
a

(Fehlerabschätzung).

Beweis:

(i) folgt aus obigem Lemma mit Zn = [I1 , . . . , In ], wobei

(j − 1)(b − a) j(b − a)
Ij = [a + ,a + ],
n n
 
n b−a
ξj = a + j ,
n
b−a
d(Zn ) = −→ 0.
n

(ii) Es gilt:
 
Zb n n Z n Z
f − b−a
X Z
X n 
X
... =
 f (x) − f (ξj ) ≤ L|x − ξjn |
n j=1 j=1 j=1
a Ij Ij Ij

n Z
b−a X (b − a)2
≤ L· 1=L .
n j=1 I
n
j

2
138 KAPITEL 5. INTEGRALRECHNUNG

5.6.2 Lagrange–Interpolation
Die Idee ist, die Funktion f durch ein Polynom anzunähern. Eine Interpolationsaufgabe
kann z.B. so aussehen:

gegeben: f : [a, b] −→ R,
a = x0 < x1 < . . . < xn = b,
yj = f (xj ) j = 0, . . . , n.
gesucht: Polynom n–ten Grades P (x) mit P (xj ) = f (xj ) = yj .

Aus dem Fundamentalsatz der Algebra folgt, daß höchstens ein Polynom mit dieser Eigen-
schaft existiert. Nehmen wir an, daß zwei verschiedene Polynome P, Q existieren, so folgt

(P − Q)(xj ) = 0 ∀ j = 0 . . . , n,

d.h. es gibt n + 1 Nullstellen, das ist aber ein Widerspruch.

Satz 2 (Lagrange–Interpolation) Es sei f wie oben.

(i) Dann ist das Lagrange–Polynom


n
X
L(x) = f (xj )Lj (x),
j=0

wobei
n
Y x − xk (x − x0 ) · · · (x − xj−1 )(x − xj+1 ) · · · (x − xn )
Lj (x) = = ,
k=0
xj − xk (xj − x0 ) · · · (xj − xj−1 )(xj − xj+1 ) · · · (xj − xn )
k6=j

die Lösung des Interpolationsproblems.

(ii) Ist f zusätzlich (n + 1)mal stetig differenzierbar mit

|f (n+1) (x)| ≤ M auf [a, b],

dann gilt:
n
M Y M
|f (x) − L(x)| ≤ (x − x j ) ≤ (b − a)n+1 .
(n + 1)! j=0
(n + 1)!

Beweis: 1.Schritt: L(x) ist Polynom n–ten Grades. Es gilt:



1 j=l
Lj (xl ) =
0 j 6= l.
5.6. NUMERISCHE INTEGRATION 139

Daraus folgt
L(xl ) = f (xl ) für l = 0, . . . , n.

2.Schritt: Wir setzen


n
Y
wn+1 (x) = (x − xj ) (Polynom (n + 1)ten Grades).
j=0

Für t ∈ [a, b] betrachten wir bei festem x mit x 6= xl :


f (x) − L(x)
rn (t) = f (t) − L(t) − .
wn+1 (x)
Dann ist rn (n + 1)mal stetig differenzierbar und hat n + 2 Nullstellen:
rn (xl ) = 0 l = 0, . . . , n
rn (x) = 0.
Nach dem Satz von Rolle folgt: rn0 (t) hat n − 1 Nullstellen,
..
.
(n+1)
rn (t) hat mindestens eine Nullstelle ξ ∈ (a, b).
Daraus ergibt sich
f (x) − L(x)
0 = rn(n+1) (ξ) = f (n+1) (ξ) − (n + 1)!,
wn+1 (x)
und
M
|f (x) − L(x)| ≤ |wn+1 (x)|.
(n + 1)!
2
Bemerkung: Die praktische Berechnung der Lj (x) ist sehr umständlich, daher wählen wir
besser folgenden Ansatz:
L(x) = α0 + α1 (x − x0 ) + α2 (x − x0 )(x − x1 ) + . . . + αn (x − x0 ) · · · (x − xn−1 ).
Wir erhalten durch sukzessive Berechnung:
f (x0 ) = α0
f (x1 ) = α0 + α1 (x1 − x0 )
..
.
f (xl ) = α0 + α1 (x − x0 ) + . . . + αl (xl − x0 ) · · · (xl − xl−1 )
f (b) − f (a)
n=1: L(x) = f (a) + (x − a) Lineare Interpolation.
b−a
a+b
n=2: x0 = a, x1 = , x2 = b, yj = f (xj ) Quadratische Interpolation.
2
140 KAPITEL 5. INTEGRALRECHNUNG

5.6.3 Trapezregel und Simpson–Formel


Es sei wie im vorangegangenen Abschnitt
n
X
L(x) = f (xj )Lj (x).
j=0

Dann gilt:
Zb n
X Zb
L= λj f (xj ) mit λj := Lj (x) dx.
a j=0 a

Bemerkung: Setzen wir L(x) = 1, so erhalten wir

n
X Zb
λ= 1 = b − a.
j=0 a

Fehlerabschätzung

Nach Satz 2 gilt:

Zb Zb Zb n+2
f − L ≤ M wn+1 (x) dx ≤ (b − a) M

(n + 1)! (5.6)
(n + 1)!
a a a

Satz 3 (Trapezregel) Sei f : [a, b] −→ R zweimal stetig differenzierbar, und es gelte


|f 00 (x)| ≤ M auf (a, b). Dann folgt:

Zb
f − b − a [f (a) + f (b)] ≤ M (b − a)3 .

2 12
a

Beweis: Es gilt:

Zb
f (b) − f (a) b − a 
L(x) = f (a)(b − a) + (b − a) = f (a) + f (b) .
2 1
a

Nach (5.6) mit n = 1 ist

Zb Zb Zb 3
(x − a)(x − b) dx = M (b − a) = M (b − a)3 ,
M
f − L ≤
2 2 6 12
a a a
5.6. NUMERISCHE INTEGRATION 141

wobei
Zb  b Zb Zb
(x − a)(x − b) dx = 1 (x − a)2 · (x − b) − 1 (x − a)2 dx = − 1 (x − a)2 dx .

2 2 2
a
a a a

Satz 4 (Simpson–Regel oder Keplersche Faßregel) Es sei f : [a, b] −→ R dreimal


stetig differenzierbar, und es gelte |f 000 (x)| ≤ M auf (a, b). Dann folgt:
b
Z    
f − b − a f (a) + 4f a + b f (b) ≤ M (b − a)4 .


6 2 72

a

a+b
Beweis: Es sei n = 2, x0 = a, x1 = , x2 = b. Wir setzen
2
b−a
h= .
2
Dann gilt:
(x − x1 )(x − x0 ) 1
L0 (x) = = 2 (x − x1 )(x − x1 − h),
(x0 − x1 )(x0 − x2 ) 2h
und mit der Substitution x = x1 + th folgt

Zb Z1
h3 h
λ0 = L0 (x) dx = 2 t(t − 1) dt = .
2h 3
a −1

Analog erhalten wir


h
λ2 = ,
3
und damit folgt
2 4
λ1 = b − a − h = h
3 3
und
Zb    
h a+b
L dx = f (a) + 4f + f (b)
3 2
a
   
b−a a+b
= f (a) + 4f + f (b) .
6 2
142 KAPITEL 5. INTEGRALRECHNUNG

Nach (5.6) erhalten wir wie im Beweis von Satz 3:


Zb Zb Zb

f − L ≤ M a + b
(x − a)(b − x) x − dx
3! 2
a a a | {z }
≤ b−a
2

M b − a (b − a)3
≤ · · .
6 2 6
2
Bemerkung: Unterteilt man (a, b) in äquidistante Teilintervalle und wendet auf jedes Teil-
intervall Satz 3 bzw. Satz 4 an, so werden noch bessere Ergebnisse erzielt.

5.7 Uneigentliche Integrale


5.7.1 Konvergenz und Divergenz
Definition 1 (i) Sei f : [a, b) −→ R Riemann–integrierbar auf jedem Intervall [a, b0 ] mit
b0 < b.
Zb Zb0
f (x) dx := lim
0
f (x) dx.
b ↑b
a a

(ii) Sei f : (a, b] −→ R Riemann–integrierbar auf jedem Intervall [a0 , b] mit a0 > a.
Zb Zb
f (x) dx := lim
0
f (x) dx.
a ↓a
a a0

(iii) Sei f : (a, b) −→ R Riemann–integrierbar auf jedem Intervall [a0 , b0 ] für alle a0 , b0 mit
a < a0 < b0 < b.
Zb Zc Zb
f (x) dx := f (x) dx + f (x) dx,
a a c

wobei a < c < b.

Z I eines der obigen Intervalle.


(iv) Sei Z
f heißt konvergent, falls f existiert.
I I
Z Z
f heißt absolut konvergent, falls |f | existiert.
I I

Beispiele:
5.7. UNEIGENTLICHE INTEGRALE 143

Z1
1
(1) dx < ∞ ⇐⇒ α < 1.

0

Z∞
1
(2) <∞ ⇐⇒ α > 1.

1

Z∞
sin x
(3) ist konvergent. Beweis: Es gilt:
x
0

Zb Zπ Z2π (k+1)π
Z Zb
sin x
= + +... + +
x
0 0 π kπ (k+1)π

Zπ Z2π (k+1)π Zb
| sin x| | sin x| | sin x| | sin x|
Z
= − + ... ± ∓
x x x x
0 π kπ (k+1)π

= I0 − (I1 − I2 ) − (I3 − I4 ) − . . . ± Ik ∓ I(b, k)


Zb
dx 1
mit |I(b, k)| ≤ ≤π· −→ 0 (b −→ ∞)
x b−π
(k+1)π

Also ist
Z∞ ∞
sin x X
= Ik (−1)k
x k=0
0
konvergent, da Ik+1 < Ik und lim Ik = 0:
k→∞
(k+2)π (k+1)π
| sin x| | sin x|
Z Z
Ik+1 = = < Ik .
x x+π
(k+1)π kπ

Z∞
| sin x|
(4) ist divergent. Beweis: Es gilt:
x
0

(k+1)π (k+1)π− 21
Z∞ ∞ ∞
| sin x| | sin x| X | sin x|
X Z Z
> >
x k=1
x k=1
x
0 kπ kπ+ 12

1X π−1
> sin = ∞.
2 k=1 (k + 1)π
144 KAPITEL 5. INTEGRALRECHNUNG

Satz 1 Seien I = [a, b), (a, b], (a, b) wie oben, f wie oben.
R R
(i) Existiert |f |, so existiert auch f .
I I

(ii) Majorantenkriterium: Es sei 0 ≤ f (x) ≤R g(x), f, g seien Riemann–integrierbar


R
auf jedem kompakten Teilintervall. Existiert g, so existiert auch f , und es gilt:
I I
Z Z
f≤ g.
I I
R R
Ist f = ∞, so ist auch g = ∞.
I I
R
(iii) Seien f, g stetig auf [a, b), g ≤ 0, es existiere g, und sei
I

f (x)
lim < ∞.
x↑b g(x)

R
Dann existiert auch |f |.
I
Analoge Aussagen gelten für die anderen Intervalle.
5.7. UNEIGENTLICHE INTEGRALE 145

Beweis:

(i) Es sei εj eine beliebige Folge mit εj −→ 0, I = (a, b] und a > −∞. Dann gilt nach dem
Cauchyschen Konvergenzkriterium:

Zb Zb a+εZ j Zb Zb


f− f ≤
|f (x)| dx =
|f | − |f | ≤ ε
a+εj a+εk a+εk a+εj a+εk

Zb
für j, k ≥ j0 (ε). Also existiert auch f nach dem Cauchyschen Konvergenzkriterium.
a

(ii) Wie eben gilt:


Zb Zb Zb Zb


f − f ≤
g − g ≤ ε.

a+εj a+εk a+εj a+εk


f (x)
(iii) Wegen lim < ∞ gilt für alle x ∈ [a, b):
g(x)

f (x)
g(x) ≤ c.

Daraus folgt:
Zb Zd Zb Z
|f | = |f | + |f | ≤ c1 + c |g| < ∞.
a a d

Beispiele:

Z∞ Z∞ Z
−x2 −|x| 2
(1) e dx ≤ 2 e + e−x dx < ∞ (|x| < x2 für |x| > 1).
−∞ 1 |x|<1

Z∞
3x2 − 5x + 1 |f (x)|
(2) √ dx < ∞, da 3 −→ c 6= 0.
17x3 x − 2x3 x− 2
1
146 KAPITEL 5. INTEGRALRECHNUNG

5.7.2 Integralkriterium für Reihen



X
Wir betrachten aj mit aj ≥ 0 und führen folgende Hilfsfunktionen ein:
j=1

a(x) := aj für x ∈ [j, j + 1).

Dann ist

X Z∞
aj = a(x) dx.
j=1 1

Kriterium

Es sei 0 ≤ f (x) ≤ a(x) ≤ g(x) für alle x ≥ x0 .

Z∞ ∞
X
(i) ∃ g(x) =⇒ ∃ aj .
x0 j=1

Zx ∞
X
(ii) f (x) = ∞ =⇒ aj = ∞.
x0 j=1

Satz 2 (i) Es sei α ∈ R. Dann gilt:



X 1
<∞ ⇐⇒ α > 1.
j=1

(ii) Es existiert eine Konstante C (Euler–Mascheronische Zahl), so daß

n
!
X 1
lim − log n = C.
n→∞
j=1
j

Beweis:

(i) Es gilt für alle x ∈ [j, j + 1], j ≥ 2:

1 1 1
≤ = a(x) ≤ .
xα jα (x − 1)α
5.7. UNEIGENTLICHE INTEGRALE 147

(ii) Es gilt:
n n Zn n n−1 Zj+1
X 1 X 1 1 X1 X 1
− log n = − dx = − dx
j=1
j j=1
j x j=1
j j=1 x
1 j
j+1
n−1 Z  
X 1 1 1 1 1
= − dx + ≤ 1 − + .
j=1 j
j x n n n
| {z }
≤ 1j − j+1
1

Es existiert
j+1
n−1 Z  
X 1 1
lim bn = lim − dx,
j=1
j x
j

da bn eine monoton wachsende und beschränkte Folge ist. Also


n
X 1
− log n −→ C (n −→ ∞).
j=1
j

2
Bemerkungen:
n
X 1
(1) C = 0.557215 . . . , ∼ log n.
j=1
j

Z∞ ∞
X 1 1
(2) ∼ dx = log log x = ∞.
j
j log j x log x 2
2

Z∞ ∞
X 1 1 1 1
(3) ∼ dx = · < ∞.
j
j(log j)β x(log x)β β−1
1 − β (log x) 2
2

5.7.3 Die Gammafunktion


Es sei x > 0. Wir betrachten
Z∞
e−t tx−1 dt
0
bei festem x. Es gilt:
Z1 Z1
(1) e−t tx−1 dt ≤ tx−1 dt < ∞ für −x + 1 < 1 ⇐⇒ x > 0.
0 0
148 KAPITEL 5. INTEGRALRECHNUNG

Z∞ Z∞
t t
(2) e−t tx−1 dt = e− 2 (e− 2 tx−1 ) dt < ∞,
| {z }
0 0 ≤c(x)
x−1
t
da lim t = 0.
t→∞ e− 2
Z∞
Definition 2 Γ(x) := e−t tx−1 dt, x > 0 heißt Gammafunktion.
0

Satz 3 (i) Es gilt: Γ(x + 1) = xΓ(x), insbesondere

Γ(n) = (n − 1)! für n = 1, 2, . . . .

Γ(x) −→ ∞ für x −→ ∞, Γ(x) −→ ∞ für x −→ 0.

(ii) Γ(x) ist auf (0, ∞) konvex und beliebig oft differenzierbar. Es gilt:
Z∞
(j)
Γ (x) = e−t tx−1 (log t)j dt. (5.7)
0

„Beweis“: Wir nehmen an, (5.7) sei gezeigt. Dann ist

Γ(2) (x) > 0,

also ist Γ konvex und Γ0 monoton wachsend. Für x0 ∈ (2, 3) gilt:

1 = Γ(3) − Γ(2) = Γ0 (x0 ).

Daraus folgt:
Γ0 (x) > Γ0 (x0 ) = 1 für x > x0 ,
und
Γ(x) − Γ(x0 ) = Γ0 (ξ)(x − x0 ) ≥ Γ0 (x0 )(x − x0 ).
Folglich ist
lim Γ(x) = ∞.
x→∞

Sei 0 < x < 1. Dann gilt:

Γ(x + 1) c
Γ(x) = ≥ −→ ∞ (x −→ 0).
x x
2
Kapitel 6

Differentiation von Funktionen mehrerer


Variabler

6.1 Partielle Ableitungen


6.1.1 Definitionen und Beispiele
Wir betrachten in diesem Abschnitt Funktionen
f : Rn −→ R, n = 2, 3, . . .
f = f (x1 , . . . , xn ), x = (x1 , . . . , xn ) ∈ Rn

Im Falle n = 2 schreiben wir auch, um Indizes zu vermeiden

f = f (x, y), (x, y) ∈ R2

Es sei nun (x0 , y0 ) ∈ R2 . Wir betrachten die Funktionen

ϕ(x) := f (x, y0 ), x∈R


ψ(y) := f (x0 , y), y ∈ R.

Das heißt also, man betrachtet die Funktionswerte von f auf Geraden durch den Punkt
(x0 , y0 ) parallel zur den beiden Koordinatenachsen in x- bzw. y- Richtung. Sind die Funk-
tionen φ in x0 und/oder ψ in y0 differenzierbar, so sagt man, daß die Funktion f im Punkt
(x0 , y0 ) partiell nach x bzw. y differenzierbar ist oder partielle Ableitungen besitzt. Man
nennt dann
∂f
∂x
(x0 , y0 ) := ϕ0 (x0 )
∂f
∂y
(x0 , y0 ) := ψ 0 (y0 )
partielle Ableitungen von von f nach x bzw. y im Punkt (x0 , y0 ). Anschaulich beschreiben
diese Ableitungen den Anstieg der die durch die Funktion f dargestellten Fläche im Raum
im Punkt (x0 , y0 , f (x0 , y0 )) in x- bzw. y- Richtung.
Im allgemeinen Fall (n Variable) geben wir folgende Definition.

149
150 6.1 Partielle Ableitungen

Definition 1 Es sei f : Rn −→ R, und es sei x0 = (x01 , . . . , x0n ) ∈ Rn . Wir setzen für


j ∈ {1, . . . , n}
ej := (0, . . . , 0, 1, 0, . . . , 0), (Einheitsvektor in xj -Richtung)
ϕj (t) := f (x0 + t ej ) = f (x01 , . . . , x0j−1 , t, x0j+1 , . . . , x0n ).

Ist die Funktion ϕj in x0j differenzierbar, so heißt die Funktion f in x0 partiell nach xj
differenzierbar, und
∂f 0
(x ) := ϕj 0 (x0j )
∂xj
heißt partielle Ableitung von f nach xj im Punkt x0 .
Bemerkungen:
(1) Partielle Ableitungen lassen sich als Grenzwerte von Differenzenquotienten darstellen.
Für n = 2 ergibt sich
∂f f (x, y0 ) − f (x0 , y0 )
(x0 , y0 ) := lim
∂x x→x0 x − x0
∂f f (x0 , y) − f (x0 , y0 )
(x0 , y0 ) := lim .
∂y y→y0 y − y0

(2) Bei der Berechnung partieller Ableitungen können die bekannten Differentiationsregeln
verwendet werden. Dabei hat man zum Beispiel bei der Berechnung der partiellen
Ableitung nach x die Variable y wie eine Konstante zu behandeln. Wir betrachten
folgendes Beispiel.
f (x, y) = (sin xy)2
∂f
= (2 sin xy)(cos xy) · y
∂x
∂f
= (2 sin xy)(cos xy) · x
∂y

(3) Die Existenz partieller Ableitungen erlaubt im Allgemeinen keine Aussage über die
Stetigkeit der Funktion in dem betreffenden Punkt. Als Beispiel betrachten wir die
Funktion  xy
x2 +y 2
(x, y) 6= (0, 0)
f (x, y) =
0 x=y=0
Die Funktion besitzt partielle Ableitungen nach x und y in jedem Punkt (x, y) ∈ R2 .
Wir haben für (x, y) 6= (0, 0)
∂f y 3 − x2 y
=
∂x (x2 + y 2 )2
∂f x3 − xy 2
=
∂y (x2 + y 2 )2
6.1.1 Definitionen und Beispiele 151

Außerdem ist
∂f ∂f
(0, 0) = (0, 0) = 0,
∂x ∂y
denn für alle x gilt f (x, 0) = 0, und für alle y gilt f (0, y) = 0. Die Funktion ist jedoch
im Nullpunkt unstetig, da einerseits

1 1
f (x, x) = −→ (x → 0)
2 2
andererseits aber f (x, 0) = 0 gilt für alle x ∈ R.

Analog zu partiellen Ableitungen in Richtung der Koordinatenachsen lassen sich Ableitungen


in eine beliebig vorgegebene Richtung definieren.

Definition 2 Es sei ν = (ν1 , . . . ; νn ) mit kνk = 1 ein sogenannter Richtungsvektor. Wir


setzen (x0 ∈ Rn )
h(t) := f (x0 + tν).
Dann heißt
∂f 0 f (x0 + tν) − f (x0 )
(x ) := h0 (0) = lim
∂ν t→0 t
Ableitung von f in Richtung ν im Punkt x0 .

Bemerkung: Auch die Existenz aller Richtungsableitungen ist nicht ausreichend für die
Stetigkeit einer Funktion. Dies zeigt das Beispiel der Funktion

1 0 < y < x2
f (x, y) =
0 sonst

Offensichtlich ist f unstetig im Nullpunkt. Es gilt jedoch für alle Richtungen ν

∂f
(0, 0) = 0.
∂ν

Im weiteren Verlauf wollen wir unter einer Umgebung eines Punktes x0 ∈ Rn eine Kugel

K(x0 , δ) = {x ∈ Rn : kx − x0 k < δ}

verstehen (δ > 0.

Satz 1 Es sei f : Rn −→ R, und es sei x0 = (x01 , . . . , x0n ) ∈ Rn . In einer Umgebung von x0


existieren alle partiellen Ableitungen von f . Alle partiellen Ableitungen von f seien stetig in
x0 . Dann ist auch die Funktion f selbst stetig in x0 .
152 6.1 Partielle Ableitungen

Beweis: Wir beschränken uns auf den Fall n = 2.


Aus dem Mittelwertsatz der Differentialrechnung folgt für Punkte (x, y) in einer Umgebung
von (x0 , y0 )

f (x, y) − f (x0 , y0 )
= f (x, y) − f (x0 , y) + f (x0 , y) − f (x0 , y0 )
∂f ∂f
= (ξ, y)(x − x0 ) + (x0 , η)(y − y0 ),
∂x ∂y

wobei ξ und η zwischen x0 und x bzw. y0 und y liegen. Der Grenzübergang (x, y) −→
(x0 , y0 ) liefert dann wegen der Stetigkeit der partiellen Ableitungen in (x0 , y0 ) das gewünschte
Ergebnis. 2

Definition 3 Es sei f : Rn −→ R, und es sei x0 = (x01 , . . . , x0n ) ∈ Rn .

(i)
∂f
(x0 )
 
∂x1

 · 

0 0
∇f (x ) := gradf (x ) = 
 · 

 · 
∂f
∂xn
(x0 )

heißt Gradient von f in x0 .

(ii) f heißt stetig differenzierbar in x0 ,falls ∇f in einer Umgebung von x0 existiert und
in x0 stetig ist, das heißt, falls alle partiellen Ableitungen in einer Umgebung von x0
existieren und diese in x0 stetig sind.

Satz 2 Es sei f stetig differenzierbar in x0 . Dann gilt in einer Umgebung von x0 :

(i)
f (x) = f (x0 ) + (∇f )(x0 ) · (x − x0 ) + r(x),
wobei
r(x)
lim0 = 0.
x→x kx − x0 k

(ii)
∂f
= ∇f · ν
∂ν
für eine beliebige Richtungsableitung.

Hierbei bezeichnet ”·” das Skalarprodukt im Rn .


6.1.1 Definitionen und Beispiele 153

Beweis: 1. Schritt. Wir zeigen (i). Wir beschränken uns wiederum auf den Fall n = 2. Wie
im Beweis von Satz 1 erhalten wir
f (x, y) − f (x0 , y0 ) = f (x, y) − f (x0 , y) + f (x0 , y) − f (x0 , y0 )
∂f ∂f
= (ξ, y)(x − x0 ) + (x0 , η)(y − y0 )
∂x ∂y
∂f ∂f
= (x0 , y0 )(x − x0 ) + (x0 , y0 )(y − y0 )
∂x ∂y
   
∂f ∂f ∂f ∂f
+ (ξ, y) − (x0 , y0 ) (x − x0 ) + (x0 , η) − (x0 , y0 ) (y − y0 )
∂x ∂x ∂y ∂y
 
x − x0
= (∇f )(x0 , y0 ) · + r(x)
y − y0
Aus der Stetigkeit der partiellen Ableitungen folgt nun

|r(x)| ∂f ∂f ∂f ∂f
≤ (ξ, y) − (x0 , y0 ) + (x0 , η) − (x0 , y0 ) −→ 0
kx − x0 k ∂x ∂x ∂y ∂y
für (x, y) −→ (x0 , y0 ).
2. Schritt. Wir zeigen (ii). Aus (i) folgt für x = x0 + tν und kleine |t|
f (x0 + tν) − f (x0 ) = t(∇f )(x0 ) · ν + r(x0 + tν).
Wir dividieren durch t und erhalten (ii) aus (i) für t → 0. 2
Bemerkung. Im Falle n = 2 ist durch
∂f ∂f
z = f (x0 , y0 ) + (x0 , y0 )(x − x0 ) + (x0 , y0 )(y − y0 )
∂x ∂y
die Gleichung einer Ebene im R3 durch den Punkt (x0 , y0 , f (x0 , y0 )) der durch die Funktion f
dargestellten Fläche gegeben. Für y = y0 ergibt sich die Tangente an die Kurve ”z = f (x, y0 )”,
für x = x0 die Tangente an die Kurve ”z = f (x0 , y)”. Dies legt unter Berücksichtigung von
Teil (i) des Satzes die folgende Definition nahe.
Definition 4 Es sei f : R2 −→ R in (x0 , y0 ) stetig differenzierbar. Die Ebene gegeben durch,
∂f ∂f
z = f (x0 , y0 ) + (x0 , y0 )(x − x0 ) + (x0 , y0 )(y − y0 )
∂x ∂y
heißt Tangentialebene an die durch die Funktion f (x, y) dargestellte Fläche im Punkt (x0 , y0 , f (x0 , y0 )).
Folgerung 1 Es sei f stetig differenzierbar in x0 ∈ Rn , und es sei ν, kνk = 1, ein Rich-
tungsvektor. Aus der Cauchy - Schwarz’schen Ungleichung für das Skalarprodukt und aus
Teil (ii) von Satz 2 folgt
∂f 0
−k∇f (x0 )k ≤ (x ) ≤ k∇f (x0 )k.
∂ν
154 6.1 Partielle Ableitungen

∇f (x0 )
Insbesondere erhalten wir für ν = k∇f (x0 )k
mit

∂f 0
(x ) = k∇f (x0 )k
∂ν
∇f (x ) 0
das Maximum aller Richtungsableitungen und für ν = − k∇f (x0 )k
mit

∂f 0
(x ) = −k∇f (x0 )k
∂ν
das Minimum aller Richtungsableitungen. Der Gradient einer Funktion zeigt also in Richtung
des gößten Anstieges an der durch die Funktion beschriebenen Fläche.

Beispiel: Es sei
1
f (x) = = (x21 + · · · + x2n )−1/2 , x ∈ Rn , x 6= 0.
kxk

Für j ∈ {1, . . . , n} gilt


∂f xj
=− ,
∂xj kxk3
und somit ergibt sich für den Gradienten
x
(∇f )(x) = − .
kxk3
6.1.2 Die Kettenregel 155

6.1.2 Die Kettenregel


Wir behandeln in diesem Unterabschnitt die Differentiation im Zusammenhang mit der Hin-
tereinanderausführung verschiedener Funktionen von mehreren Variablen. Es geht hierbei
um folgendes Poblem.
Es seien f : Rn −→ R und ϕ : R −→ Rn gegeben. Wir bilden die Komposition
h(t) := f (ϕ(t)) = f (ϕ1 (t), . . . , ϕn (t))
und fragen nach der Ableitung h0 (t) in Abhängigkeit von f und ϕ. Man ersetzt also formal
in der Funktion f die Variable xj durch ϕj (t).
Satz 3 Es sei f : Rn −→ R stetig differenzierbar in x0 ∈ Rn .
(i) Es sei ϕ : R −→ Rn , ϕ(t) = (ϕ1 (t), . . . , ϕn (t)), differenzierbar in t0 , und es sei ϕ(t0 ) =
x0 . Dann ist die Funktion h(t) := f (ϕ(t)) = f (ϕ1 (t), . . . , ϕn (t)) differenzierbar in t0 ,
und es gilt
n
0
X ∂f 0 0
h (t0 ) = (x )ϕj (t0 ).
j=1
∂x j

(ii) Es sei g : Rm −→ Rn ,  
g1 (u1 , . . . , um )

 · 

g(u) = 
 · 

 · 
gn (u1 , . . . , um ).
Die Funktionen gj seien stetig differenzierbar in u0 ∈ Rm , und es gelte g(u0 ) = x0 .
Dann ist die Funktion
h(u1 , . . . , um ) := f (g1 (u1 , . . . , um ), . . . , gn (u1 , . . . , um ))
stetig differenzierbar in u0 , und es gilt
n
∂h 0 X ∂f ∂gj 0
(u ) = (x0 ) (u )
∂uk j=1
∂x j ∂u k

für alle k ∈ {1, . . . , m}.


Beweis: Die Aussage (ii) folgt aus (i) indem man
ϕ(t) = g(u01 , . . . , u0k−1 , t, u0k+1 , . . . , u0m )
setzt. Um (i) zu zeigen beschränken wir uns auf den Fall n = 2 und betrachten die Funktion
h(t) = f (ϕ(t), ψ(t)). Für kleine t erhalten wir mit Hilfe des Mittelwertsatzes
h(t) − h(t0 ) = f (ϕ(t), ψ(t)) − f (ϕ(t0 ), ψ(t0 ))
= f (ϕ(t), ψ(t)) − f (ϕ(t0 ), ψ(t)) + f (ϕ(t0 ), ψ(t)) − f (ϕ(t0 ), ψ(t0 ))
∂f ∂f
= (ξ, ψ(t))[ϕ(t) − ϕ(t0 )] + (ϕ(t0 ), η)[ψ(t) − ψ(t0 )],
∂x ∂y
156 6.1 Partielle Ableitungen

wobei ξ und η zwischen ϕ(t) und ϕ(t0 ) bzw. ψ(t) und ψ(t0 ) liegen. Aus der Stetigkeit der
partiellen Ableitungen sowie der Differenzierbarkeit von ϕ und ψ in t0 folgt nach Division
durch t − t0 für t → t0 die Behauptung. 2
Beispiele:
(1) Höhenlinien einer Funktion f (x, y)
∂f
Wir betrachten die Kurve, dargestellt durch ∂x
(x0 , y0 )ϕ0 (t0 ) mit der Eigenschaft
f (ϕ(t), ψ(t)) = c = const
Man bezeichnet eine solche Kurve auch als Höhenlinie. Aus der Kettenregel folgt sofort,
daß
∂f ∂f
(x0 , y0 )ϕ0 (t0 ) + (x0 , y0 )ψ 0 (t0 ) = 0,
∂x ∂y
wobei (x0 , y0 ) = (ϕ(t0 ), ψ(t0 )) gesetzt wurde. Eine äquivalente Formulierung ist
 0 
ϕ (t0 )
(∇f )(x0 , y0 ) · = 0.
ψ 0 (t0 )
Das Skalarprodukt des Gradienten und des Tangentenvektors an die Höhenlinie ist
somit Null. Der Gradient steht also senkrecht auf der Höhenlinie und zeigt in die
Richtung des größten Anstiegs auf der Fläche, die durch f dargetsellt wird.
(2) Partielle Ableitungen und Polarkoordinaten
Es sei eine Funktion f (x, y) gegeben. Wir ersetzen die Koordinaten x und y durch
ebene Polarkoordinaten:
x = r cos ϕ
y = r sin ϕ
Durch Einsetzen erhält man eine Funktion
F (r, ϕ) = f (r cos ϕ, r sin ϕ) = f (x, y).
Die Aufgabe besteht darin, die partiellen Ableitungen ∂f∂x
und ∂f
∂y
mit Hilfe von Po-
larkoordinaten und der Funktion F zu beschreiben. Nach Anwendung der Kettenregel
erhalten wir das folgende lineare Gleichungssystem für ∂f
∂x
und ∂f
∂y

∂F ∂f ∂f
= cos ϕ + sin ϕ
∂r ∂x ∂y
∂F ∂f ∂f
= − r sin ϕ + r cos ϕ.
∂ϕ ∂x ∂y
Auflösung des Gleichungssystems führt zu den Formeln
∂f ∂F 1 ∂F
= cos ϕ − sin ϕ
∂x ∂r r ∂ϕ
∂f ∂F 1 ∂F
= sin ϕ + cos ϕ.
∂y ∂r r ∂ϕ
6.2. HÖHERE ABLEITUNGEN UND LOKALE EXTREMA 157

6.2 Höhere Ableitungen und lokale Extrema


6.2.1 Der Satz von Schwarz
Wir betrachten zunächst Funktionen f (x, y) von zwei Variablen und führen einige Bezeich-
nungen ein. Besitzt die Funktion in jedem Punkt ihres Definitionsgebietes partielle Ablei-
tungen, so schreiben wir für diese auch
∂f
fx :=
∂x
∂f
fy :=
∂y
Wir können nun fragen, ob diese Funktionen wiederum partielle Ableitungen nach x und/oder
y besitzen. Man nennt diese dann partielle Ableitungen 2. Ordnung. Es gibt folgende Mög-
lichkeiten und Bezeichnungen:
∂ ∂f ∂2f
fxx := (fx )x = ( )
∂x ∂x
=: ∂x2
∂ ∂f ∂2f
fyy := (fy )y = ( )
∂y ∂y
=: ∂y 2
∂ ∂f ∂2f
fxy := (fx )y = ( )
∂y ∂x
=: ∂x∂y
∂ ∂f ∂2f
fyx := (fy )x = ( )
∂x ∂y
=: ∂y∂x

Beispiele:
(1) Für x > 0 und y ∈ R betrachten wir die Funktion f (x, y) = xy := ey ln x . Sie besitzt die
folgenden partiellen Ableitungen 1. und 2. Ordnung.
fx = y xy−1
fy = xy ln x
fxx = y(y − 1)xy−2
fyy = xy (ln x)2
fxy = xy−1 + yxy−1 ln x = xy−1 (1 + y ln x)
fyx = yxy−1 ln x + xy x1 = xy−1 (1 + y ln x)
Man sieht insbesondere, daß die beiden gemischten partiellen Ableitungen fxy und fyx
übereinstimmen. Im nächsten Satz werden wir sehen, daß dies unter gewissen Voraus-
setzungen immer der Fall ist. Jedoch zeigen die nächsten Beispiele, daß die Gleichheit
im Allgemeinen nicht gilt.
(2) Wir untersuchen die Funktion f (x, y) := |x| auf partielle Ableitungen. Offensichtlich
ist in jedem Punkt
fy = 0 und damit auch fyx = 0
Andererseits existiert fx nur für Punkte die nicht auf der y− Achse liegen. Wir erhalten
fxy = 0 für alle Punkte (x, y) mit x 6= 0, während in allen Punkten (0, y) die partielle
Ableitung fxy nicht existiert.
158 6.2 Höhere Ableitungen und lokale Extrema

(3) Es sei
2 2
(
xy xx2 −y
+y 2
(x, y) 6= (0, 0)
f (x, y) =
0 x=y=0
Wir erhalten
fx (0, y) = −y , fy (x, 0) = x
fxy (0, 0) = −1 , fyx = 1
Das heißt, daß die gemischten Ableitungen in (0, 0) verschieden sind, obwohl beide
existieren.

Der folgende Satz klärt die Situation im Fall n = 2.

Satz 1 (Schwarz, ohne Beweis)


Es sei f : R2 −→ R. In einer Umgebung von (x0 , y0 ) seien alle die partiellen Ableitungen
fx , fy , fxy existent, und fxy sei stetig in (x0 , y0 ). Dann existiert auch fyx (x0 , y0 ), und es gilt

fyx (x0 , y0 ) = fxy (x0 , y0 ).

Bemerkung: Eine analoge Aussage gilt im allgemeinen Fall für Funktionen f : Rn −→ R


und für Ableitungen höherer Ordnung. Setzen wir also immer die Stetigkeit der betreffenden
Ableitungen voraus, ist es unerheblich in welcher Reihenfolge partielle Ableitungen gebildet
werden. Es ist lediglich wichtig, wie oft in jede Richtung abgeleitet wird.

Bezeichnungen: Es sei α = (α1 , . . . , αn ) ein n− Tupel nichtnegativer ganzer Zahlen. Wir


setzen |α| := α1 + · · · + αn und

∂ |α| f ∂ αn
  α1 
α ∂ f
D f= α1 := · · · .
∂x1 · · · ∂xαnn ∂xαnn ∂xα1 1

Hier wird also die Funktion f nach jeder Koordinatenrichtung xj insgesamt αj - mal abgelei-
tet, wobei αj = 0 für den Fall steht, daß keine Ableitungen nach xj gebildet werden. Man
nennt dann |α| die Ordnung der Ableitung Dα f .

Definition 1 Es sei G ⊂ Rn eine offene Menge, und es sei m eine natürliche Zahl. Eine
Funktion f : G −→ R heißt m− mal stetig differenzierbar (f ∈ C m (G)), falls alle partiellen
Ableitungen bis zur Ordnung m existieren und auf G stetig sind.
6.2.1 Der Satz von Schwarz 159

Beispiele und Bemerkungen:


1
(1) Wir betrachten auf R3 − {0} die Funktion u(x) = kxk
. Es gilt

xj
u xj = − = −xj (x21 + x22 + x23 )−3/2
kxk3

Nochmaliges Differenzieren nach xj ergibt

1 3x2j
uxj xj = − +
kxk3 kxk5

Durch Summation erhalten wir somit

4u := ux1 x1 + ux2 x2 + ux3 x3 = 0.


1
Die Funktion u(x) = kxk
ist also auf R3 − {0} eine Lösung der partiellen Differential-
gleichung 2.Ordnung
4u = 0.
Man nennt diese Gleichung die Laplace-Gleichung und bezeichnet 4 als den Laplce-
Operator.

(2) Partielle Differentialgleichungen, insbesondere solche 2. Ordnung, spielen eine funda-


mentale Rolle bei der mathematischen Modellbildung in den Naturwissenschaften. Als
Beispiele seien genannt:

• die Laplace-Poisson-Gleichung
−4u = f
Hier ist f gegeben und u = u(x) gesucht.
• die Wärmeleitungsgleichung
ut − 4u = f
Hier ist f gegeben und u = u(x, t) für x ∈ R3 und t > 0 gesucht.
• die Wellengleichung
utt − 4u = f
wobei wiederum f gegeben und u = u(x, t) für x ∈ R3 und t > 0 gesucht ist.
160 6.2 Höhere Ableitungen und lokale Extrema

6.2.2 Der Taylorsche Satz


Einer der wichtigsten Sätze der Differentialrechnung ist der Taylor’sche Satz. Er läßt sich auf
den mehrdimensionalen Fall verallgemeinern. Wir beschäftigen uns hier mit einem Spezialfall.

Satz 2 Es sei f : Rn −→ R in einer Umgebung eine Punktes x0 2-mal stetig differenzierbar.


Dann gilt für alle x in dieser Umgebung
n n n
0
X
0 1 XX
f (x) = f (x ) + fxj (x )(xj − x0j ) + fxj xk (x0 + ϑ(x − x0 ))(xj − x0j )(xk − x0k ),
j=1
2 j=1 k=1

wobei ϑ, 0 < ϑ < 1, eine von x und x0 abhängige Zahl ist.

Beweis: Wir betrachten die Hilfsfunktion

h(t) = f (x0 + t(x − x0 ))

in einer Umgebung (−1 − δ, 1 + δ) und wenden auf diese den für den eindimensionalen Fall
bereits bekannten Taylorschen Satz an. Es folgt
1
h(t) = h(0) + h0 (0)t + h00 (ϑt)t2 .
2
Mit Hilfe der Kettenregel berechnen wir die Ableitungen h0 (t) und h00 (t) und erhalten
n
X
h0 (t) = fxj (x0 + t(x − x0 ))(xj − x0j )
j=1
Xn Xn
h00 (t) = fxj xk (x0 + t(x − x0 ))(xj − x0j )(xk − x0k ).
j=1 k=1

Durch Einsetzen in obige Gleichung ergibt sich für t = 1 mit


n
X
f (x) = h(1) = f (x0 ) + fxj (x0 )(xj − x0j )
j=1
n n
1 XX
+ fxj xk (x0 + ϑ(x − x0 ))(xj − x0j )(xk − x0k )
2 j=1 k=1

die Behauptung des Satzes. 2


Bemerkung: Im zweidimensionalen Fall haben wir auch

f (x, y) = f (x0 , y0 ) + fx (x0 , y0 )(x − x0 ) + fy (x0 , y0 )(y − y0 )


1
fxx (ξ, η)(x − x0 )2 + 2fxy (ξ, η)(x − x0 )(y − y0 ) + fyy (ξ, η)(y − y0 )2 ,

+
2
6.2.2 Der Taylorsche Satz 161

wobei ξ und η zwischen x und x0 bzw. y und y0 liegen.

Durch Einführung der sogenannten Hesse-Matrix erhalten wir eine vektorielle Formulierung
obiger Formel.

Definition 2 Es sei f : Rn −→ R zweimal stetig differenzierbar. Die Matrix


 
fx1 x1 fx1 x2 · · · fx1 xn
 fx2 x1 fx2 x2 · · · fx2 xn 
 
 · · ··· · 
Hf (x) := 
 
 · · · · · · 

 · · ··· · 
fxn x1 fxn x2 · · · fxn xn

heißt Hesse-Matrix der Funktion f .

Bemerkung: Nach dem Satz von Schwarz (Satz 1) ist Hf eine symmetrische Matrix. Für
n = 2 ergibt sich  
fxx fxy
Hf =
fyx fyy

Folgerung: Bezeichnen wir mit ”·” wieder das Skalarprodukt im Rn , so können wir die
Formel aus Satz 2 auch schreiben als
1
f (x) = f (x0 ) + ∇f (x0 ) · (x − x0 ) + (Hf (ξ)(x − x0 )) · (x − x0 ),
2
mit ξ = x0 + ϑ(x − x0 ). Dabei bezeichnet (Hf )(x − x0 ) die Multiplikation der Matrix Hf
mit dem Spaltenvektor x − x0 . Ist (x − x0 )T der entsprechende Zeilenvektor kann man auch
schreiben
1
f (x) = f (x0 ) + (x − x0 )T ∇f (x0 )) + (x − x0 )T Hf (ξ)(x − x0 ).
2
Eine ander Formulierung ist
1
f (x) = f (x0 ) + (x − x0 )T ∇f (x0 ) + (x − x0 )T Hf (x0 )(x − x0 ) + r(x),
2
wobei gilt
r(x)
lim0 = 0.
x→x kx − x0 k2
162 6.2 Höhere Ableitungen und lokale Extrema

6.2.3 Lokale Extrema


Definition 3 Es sei f : Rn −→ R eine Funktion.

(i) f hat ein lokales Maximum in x0 ∈ Rn :⇐⇒


Es existiert eine Umgebung U von x0 , so daß für alle Punkte x, x 6= x0 , die Ungleichung
f (x) < f (x0 ) gilt.

(ii) f hat ein lokales Minimum in x0 ∈ Rn :⇐⇒


Es existiert eine Umgebung U von x0 , so daß für alle Punkte x, x 6= x0 , die Ungleichung
f (x) > f (x0 ) gilt.

Vorbetrachtungen: Ziel in diesem Unterabschnitt ist es, mit Hilfe der Differentialrechnung
notwendige und hinreichende Kriterien für die Existenz lokaler Extrema zu finden. Hierzu
benötigen wir einige Kenntnisse aus der linearen Algebra, die im Folgenden zusammengestellt
werden.
Es sei  
h11 · · · h1n

 · ··· · 

H= · ··· ·  = HT
 
 · ··· · 
hn1 · · · hnn
eine symmetrische Matrix reeller Zahlen.
H heißt positiv definit :⇐⇒ Für alle y, y 6= 0, gilt y T Hy = (Hy) · y > 0.
H heißt negativ definit :⇐⇒ Für alle y, y 6= 0, gilt y T Hy = (Hy) · y < 0.
H heißt indefinit :⇐⇒
Es existieren Vektoren u ∈ Rn und v ∈ Rn mit uT Hu < 0 und v T Hv > 0.
Es gelten folgende Aussagen:

(1) H ist positiv definit. ⇐⇒ Alle Eigenwerte von H sind positiv.


H ist negativ definit. ⇐⇒ Alle Eigenwerte von H sind negativ.

(2) H ist positiv definit. ⇐⇒ Für alle m ∈ {1, . . . , n} gilt


 
h11 · · · h1m
 · ··· · 
 
 ·
det  ··· ·  > 0.

 · ··· · 
hm1 · · · hmm

(3) H ist negativ definit. ⇐⇒ −H ist positiv definit.


6.2.3 Lokale Extrema 163

(4) Es sei n = 2. Dannn gilt:


H ist positiv definit. ⇐⇒ h11 > 0, und det H > 0
H ist negativ definit. ⇐⇒ h11 < 0, und det H > 0
H ist indefinit. ⇐⇒ h11 =6 0, und det H < 0

Betrachten wir nun stetig differenzierbare Funktionen f . Liegt im Punkt x0 ein lokales Maxi-
mum oder Minimum vor, so ist es klar, daß in diesem Punkt sämtliche Richtungsableitungen
verschwinden müssen. Eine notwendige Bedingung lautet also:
grad f (x0 ) = ∇f (x0 ) = 0.
Satz 3 Es sei f : Rn −→ R zweimal stetig differenzierbar in einer Umgebung eines Punktes
x0 . Dann gelten folgende Aussagen:
(i) ∇f (x0 ) = 0, (Hf )(x0 ) positiv definit =⇒
f hat lokales Minimum in x0 .
(ii) ∇f (x0 ) = 0, (Hf )(x0 ) negativ definit =⇒
f hat lokales Maximum in x0 .
(iii) ∇f (x0 ) = 0, (Hf )(x0 ) indefinit =⇒
f hat kein lokales Maximum oder Minimum in x0 .
Folgerung 1 Im Fall n = 2 ergeben sich folgende Bedingungen (f = f (x, y)):
 
fxx (x0 , y0 ) fxy (x0 , y0 )
(i) fxx (x0 , y0 ) > O, det > 0 =⇒
fyx (x0 , y0 ) fyy (x0 , y0 )
f hat lokales Minimum in (x0 , y0 ).
 
fxx (x0 , y0 ) fxy (x0 , y0 )
(ii) fxx (x0 , y0 ) < O, det >0 =⇒
fyx (x0 , y0 ) fyy (x0 , y0 )
f hat lokales Maximum in (x0 , y0 ).
 
fxx (x0 , y0 ) fxy (x0 , y0 )
(iii) fxx (x0 , y0 ) 6= O, det <0 =⇒
fyx (x0 , y0 ) fyy (x0 , y0 )
f hat kein lokales Maximum oder Minimum in (x0 , y0 ) (Sattelpunkt).
Bemerkung: Der Beweis des Satzes erfolgt unter Verwendung des Taylorschen Satzes. Es
folgt aus Satz 2, da ∇f (x0 ) = 0,
1
f (x) − f (x0 ) = (x − x0 )(Hf (x0 + ϑ(x − x0 )))(x − x0 )
2
0
mit 0 < ϑ < 1. Es sei Hf (x ) positiv definit. Man hat nun zu zeigen, daß die rechte Seite auch
noch in einer Umgebung von x0 positiv ist. Dann liegt ein lokales Minimum vor. Dies folgt
im Wesentlichen aus der Stetigkeit der partiellen Ableitungen 2. Ordnung. Wir verzichten
auf die Details.
164 6.3 Differenzierbare Abbildungen

6.3 Differenzierbare Abbildungen


6.3.1 Die Jacobische Matrix
Wir betrachten jetzt stetig differenzierbare Abbildungen der Form

g : Rn −→ Rm , m, n ∈ N.

Solche Abbildungen lassen sich schreiben als


 
g1 (x1 , . . . , xn )
 g2 (x1 , . . . , xn ) 
 
 ··· 
g = g(x) =  .

 ··· 

 ··· 
gm (x1 , . . . , xm )

Wir setzen voraus, daß alle Funktionen

gj : Rn −→ R

stetig differenzierbar sind. Eine Linearisierung einer solchen Abbildung wird durch folgende
Darstellung nahegelegt. In einer Umgebung eines Punktes x0 gilt nach Satz 6.1/2
n
∂g1
= g1 (x0 ) (x0 )(x − x0 ) + r1 (x)
P
g1 (x) + ∂xk
k=1
n
0 ∂g2
(x0 )(x − x0 ) + r2 (x)
P
g2 (x) = g2 (x ) + ∂xk
k=1
· ···
· ···
· ···
n
∂gm
gm (x) = gm (x0 ) + (x0 )(x − x0 ) + rm (x)
P
∂xk
k=1

In vektorieller Schreibweise erhalten wir

g(x) = g(x0 ) + Jg(x0 )(x − x0 ) + r(x)

mit der Matrix  


∂g1 ∂g1 ∂g1
∂x1 ∂x2
··· ∂xn
∂g2 ∂g2 ∂g2
···
 
 ∂x1 ∂x2 ∂xn 
 · · ··· ·
 
0
Jg(x ) := 

 · · ··· ·


 · · ··· ·
 

∂gm ∂gm ∂gm
∂x1 ∂x2
··· ∂xn
6.3.1 Die Jacobische Matrix 165

und dem Spaltenvektor  


r1 (x)

 r2 (x) 

 · 
r(x) :=  ,

 · 

 · 
rm (x)
wobei gilt
r(x)
lim0 = 0.
x→x kx − x0 k
Definition 1 Die Matrix Jg(x) heißt Jacobische Matrix (oder Funktionalmatrix) der Abbil-
dung g.

Bemerkungen:
(1) Näherungsweise ist lokal (d. h. in einer kleinen Umgebung von x0 )
g(x) ≈ g(x0 ) + Jf (x0 )(x − x0 ).
(”Linearisierung” von g). Man kann daher erwarten, daß das lokale Verhalten von g in
einer Umgebung von x0 maßgeblich durch die Matrix (die lineare Abbildung) Jf (x0 )
bestimmt wird.
(2) Für eine Funktion f : Rn −→ R ist
Jf (x) = (∇f (x))T
die Transponierte des Gradienten. Für eine stetig differenzierbare Kurve mit der Pa-
rameterdarstellung ϕ : R −→ Rn ist
(Jϕ)(t) = ϕ0 (t)
der Tangentenvektor.
(3) Es seien U, G ∈ Rn offene Mengen, und es sei g : U −→ G eine stetig differenzierbare
bijektive Abbildung. Wir interessieren uns für die inverse Abbildung g −1 . Nehmen
wir an, die inverse Abbildung sei ebenfalls stetig differenzierbar (auf G). Wir setzen
zeitweise y 0 = g(x0 ). Aus der Identität g −1 (g(x)) = x für alle x ∈ U folgt:
(g −1 )1 (g1 (x), . . . , gn (x)) = x1
(g −1 )2 (g1 (x), . . . , gn (x)) = x2
··· · ·
··· · ·
··· · ·
−1
(g )n (g1 (x), . . . , gn (x)) = xn
166 6.3 Differenzierbare Abbildungen

Wir differenzieren mit Hilfe der Kettenregel die j-te Gleichung partiell nach xl (für alle
j, l ∈ {1, . . . , n}) und erhalten
n
∂(gj−1 ) 0 ∂gk 0

X ∂xj 1 l=j
(y ) (x ) = =
∂yk ∂xl ∂xl 0 l 6= j
k=1

In Matrixschreibweise bedeutet dies

(Jg −1 )(y 0 )(Jg)(x0 ) = I

mit der Einheitsmatrix I. Insbesondere folgt, daß dann notwendigerweise

det(Jg)(x) 6= 0

für alle x ∈ U sein muss. Man kann zeigen, daß lokal auch die Umkehrung gilt. Wir
gehen darauf in dieser Vorlesung nicht näher ein, nehmen den Sachverhalt aber zum
Anlaß für die folgende wichtige Definition.

Definition 2 Es sei g : Rn −→ Rn eine stetig differenzierbare Abbildung. Wir setzen x =


g(u) mit u, x ∈ Rn . Dann heißt
 
∂g1 ∂g1 ∂g1
···
 ∂u1
∂g2
∂u2
∂g2
∂un
∂g2
 ∂u1 ∂u2 · · ·

∂un 
∂(x1 , . . . , xn ) ∂(g1 , . . . , gn )  ·

· ··· ·

:= := det Jg(u) = det 

∂(u1 , . . . , un ) ∂(u1 , . . . , un ) · · ··· ·

 
 · · ··· ·
 

∂gn ∂gn ∂gn
∂u1 ∂u2
··· ∂un

Jacobische Determinante oder Funktionaldeterminante von g.

Beispiel: Ebene Polarkoordinaten


Wir betrachten die Abbildung

x = r cos ϕ
y = r sin ϕ

für alle r ≥ 0 und alle ϕ ∈ R. Es gilt für die Jacobische Determinante


 
∂(x, y) cos ϕ −r sin ϕ
= det = r.
∂(r, ϕ) sin ϕ r cos ϕ

Interpretiert man r als den Abstand des Punktes (x, y) vom Nullpunkt und ϕ als den Winkel
zwischen der positiven x−Achse und dem Strahl vom Nullpunkt durch (x, y), erkennt man
leicht, daß zum Beispiel eine bijektive Abbildung des offenen Rechtecks (0, R)×(0, 2π) in der
6.3.1 Die Jacobische Matrix 167

”(r, ϕ)-Ebene” auf den entlang der positiven x-Achse aufgeschlitzen Kreis um den Nullpunkt
mit Radius R gegeben durch

{(x, y) : x2 + y 2 ≤ R2 } − {(x, 0) : x ≥ 0}

in der ”(x, y)-Ebene” beschrieben wird. Man nennt (r, ϕ) die Polarkoordinaten des Punktes
(x, y), wenn obige Beziehung besteht. Offensichtlich ist die Koordinate ϕ nicht eindeutig,
sondern nur bis auf Addition eines ganzzahligen Vielfachen von 2π (”modulo(2π)”) bestimmt.
168 6.3 Differenzierbare Abbildungen

6.3.2 Krummlinige Koordinaten


Wir verallgemeinern den Sachverhalt aus dem oben behandelten Beispiel der ebenen Polar-
koordinaten.
Es seien U ∈ Rn und G ∈ Rn offene Mengen, und es sei

g : U −→ G, (x = g(u), u ∈ U, x ∈ G)

eine stetig differenzierbare bijektive Abbildung. Wir setzen voraus, daß auf U die Funktio-
naldeterminante die Bedingung
 
∂g1 ∂g1 ∂g1
· · ·
 ∂u
∂g
1 ∂u2
∂g
∂un
∂g 
 ∂u21 ∂u22 · · · ∂un2 
∂(x1 , . . . , xn )  ·

· ··· · 

= det   6= 0
∂(u1 , . . . , un )  · · ··· · 
 · · ··· · 
 
∂gn ∂gn ∂gn
∂u1 ∂u2
· · · ∂un

erfüllt.
Mit Hilfe der Abbildung x = g(u) wird jeder Punkt x0 in eindeutiger Weise durch einen
Punkt u0 charakterisiert. Die Ersetzung von x ∈ G durch u ∈ U nennt man dann eine
Koordinatentransformation.
Die einfachste Koordinatentransformation ist linear und wird durch eine reguläre Matrix T
durch die Abbildung
x = Tu
beschrieben. Hier werden x und u als Spaltenvektoren aufgefaßt. Ist zum Beisspiel T eine
Drehung, so entspricht dieser Transformation eine Drehung des Koordinatensystems. Ist ej
der j−te Einheitsvektor im Rn (als Spaltenvektor aufgefaßt), so gilt

x = u1 T e1 + · · · + un T en .

Interpretiert man x als kartesische Koordinaten, bezogen auf die kanonische Basis {e1 , . . . , en },
so wird das neue Koordinatensytem erzeugt durch die Basis {T e1 , . . . , T en }, das heißt durch
die Spalten der Matrix T . Man erhält im Allgemeinen ein schiefwinkliges neues Koordina-
tensystem.
Für einen festen Punkt u ∈ U und ein j ∈ {1, . . . , n} betrachten wir nun die Kurve in G,
dargestellt durch
ϕj (t) = g(u1 , . . . , uj−1 , t, uj+1 , . . . , un ).
Diese Kurve wird als die j-te Koordinatenlinie bezeichnet. Betrachtet man hingegen (hier
sei n > 2 die j−te Koordinate uj als fest, so wird durch die Darstellung

fj (t1 , . . . , tj−1 , tj+1 , . . . , tn ) = g(t1 , . . . , tj−1 , uj , tj+1 , . . . , tn )


6.3.2 Krummlinige Koordinaten 169

die sogenannte j−te Koordinaten(hyper)fläche beschrieben. Der Punkt x kann dann als
Schnittpunkt aller Koodinatenlinien, aller Koordinatenflächen oder als Schnittpunkt der j-
ten Koordinatenlinie und der j−ten Koordinatenfläche charakterisiert werden. Im Fall der
linearen Koordinatentransformation sind die Koordinatenlinien Geraden und die Koordina-
tenflächen (Hyper)Ebenen.
Ist die Koordinatentransformation nicht linear, so spricht man von krummlinigen Koordina-
ten. Wir betrachten die folgenden, für die Anwendungen wichtigen, Beispiele.

Beispiele
(1) Ebene Polarkoordinaten (vgl. 6.3.1)
Wir betrachten die Abbildung

x = r cos ϕ
y = r sin ϕ

für alle r > 0 und alle ϕ ∈ (0, 2π). Es gilt für die Jacobische Determinante
 
∂(x, y) cos ϕ −r sin ϕ
= det = r.
∂(r, ϕ) sin ϕ r cos ϕ

Die Koordinatenlinien sind:

• Strahlen vom Nullpunkt ausgehend, falls ϕ = const.


• Konzentrische Kreise um den Nullpunkt, falls r = const.

Die Koordinatenlinien (d. h. die Tangentenvektoren an die Koordinatenlinien) stehen


senkrecht aufeinander.

(2) Zylinderkoordinaten im R3
Wir betrachten die Abbildung

x = ρ cos ϕ
y = ρ sin ϕ
z = z

für alle ρ > 0, alle ϕ ∈ (0, 2π) und alle z ∈ R. Es gilt für die Jacobische Determinante
 
cos ϕ −ρ sin ϕ 0
∂(x, y, z)
= det  sin ϕ ρ cos ϕ 0  = ρ.
∂(ρ, ϕ, z)
0 0 1

Die Koordinatenflächen sind:

• Mantelflächen von Zylindern konzentrisch um die z-Achse, falls ρ = const.


170 6.3 Differenzierbare Abbildungen

• Halbebenen, senkrecht zur (x, y)−Ebene, ausgehend von der z−Achse, falls ϕ =
const.
• Ebenen, parallel zur (x, y)−Ebene, falls z = const.

Die Koordinatenflächen (d. h. die Normalenvektoren an die Koordinatenflächen) stehen


senkrecht aufeinander.
Die Koordinatenlinien sind:

• Konzentrische Kreise um die z−Achse in einer Ebene, parallel zur (x, y)−Ebene,
falls ρ = const und z = const.
• Strahlen, parallel zur (x, y)−Ebene, ausgehend von der z-Achse, falls ϕ = const
und z = const.
• Geraden, parallel zur z-Achse, falls ϕ = const und ρ = const.

Die Koordinatenlinien stehen senkrecht aufeinander. Außerdem stehen einander ent-


sprechende Koordinatenlinien und -flächen senkrecht aufeinander.
Man interpretiert z als die Höhe des Punktes (x, y, z) über der (x, y)-Ebene, ρ als den
Abstand der Projektion (x, y, 0) vom Nullpunkt und ϕ als den Winkel zwischen positi-
ver x-Achse und dem Strahl ausgehend vom Nullpunkt durch die Projektion (x, y, 0).
Der Quader [0, a] × [0, 2π] × [0, h] im (ρ, ϕ, z)−Raum wird (nicht injektiv) auf den
Zylinder
{(x, y, z) : 0 ≤ x2 + y 2 ≤ a2 , 0 ≤ z ≤ h}
abgebildet.

(3) Kugelkoordinaten im R3
Wir betrachten die Abbildung

x = r sin ϑ cos ϕ
y = r sin ϑ sin ϕ
z = r cos ϑ

für alle r ≥ 0, alle ϑ ∈ [0, π] und alle ϕ ∈ [0, 2π]. Es gilt für die Jacobische Determinante
 
sin ϑ cos ϕ r cos ϑ cos ϕ −r sin ϑ sin ϕ
∂(x, y, z)
= det  sin ϑ sin ϕ r cos ϑ sin ϕ r sin ϑ cos ϕ  = r2 sin ϑ
∂(r, ϑ, ϕ)
cos ϑ −r sin ϑ 0

Die Koordinatenflächen sind:

• Konzentrische Kugeloberflächen um den Nullpunkt, falls r = const.


• Mantelflächen von Kreiskegeln um die z-Achse mit Spitze im Nullpunkt, falls
ϑ = const.
6.3.2 Krummlinige Koordinaten 171

• Halbebenen, senkrecht zur (x, y)−Ebene, ausgehend von der z−Achse, falls ϕ =
const.

Die Koordinatenflächen (d. h. die Normalenvektoren an die Koordinatenflächen) stehen


senkrecht aufeinander.
Die Koordinatenlinien sind

• Strahlen, vom Nullpunkt ausgehend, falls ϑ = const und ϕ = const.


• Halbkreise um den Nullpunkt, ausgehend vom Punkt 0, 0, r) zum Punkt (0, 0, −r),
falls r = const und ϕ = const (Längenkreis).
• Kreise um die z-Achse, parallel zur (x, y)-Ebene, falls r = const und ϑ = const
(Breitenkreise).

Die Koordinatenlinien stehen senkrecht aufeinander. Außerdem stehen einander ent-


sprechende Koordinatenlinien und -flächen senkrecht aufeinander.
Ist (x, y, z) ein fester Punkt im R3 , so betrachtet man die Kugeloberfläche durch die-
sen Punkt mit Mittelpunkt in Null. Die Koordinate r beschreibt den Abstand des
Punktes vom Nullpunkt. Die Koordinaten ϑ und ϕ lokalisieren den Punkt auf der Ku-
geloberfläche durch Angabe des Breitenkreises (Koordinate ϑ) und des Längenkreises
(Koordinate ϕ. Dabei wird hier die ”geographische Breite” vom ”Nordpol” (0, 0, r) be-
ginnend gemessen. Dem Äquator würde also ϑ = π/2 entsprechen.
Der Quader [0, R] × [0, π/2] × [0, 2π] im (r, ϑ, ϕ)−Raum wird (nicht injektiv) auf die
Kugel
{(x, y, z) : 0 ≤ x2 + y 2 + z 2 ≤ R2 }
abgebildet.

Das könnte Ihnen auch gefallen