Beruflich Dokumente
Kultur Dokumente
Analysis I
Friedrich–Schiller–Universität Jena
Fakultät für Mathematik und Informatik
Mathematisches Institut
Inhaltsverzeichnis
2
INHALTSVERZEICHNIS 3
4 Differentialrechnung 75
4.1 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.1 Definitionen und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.2 Differentiationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2 Sätze über differenzierbare Funktionen . . . . . . . . . . . . . . . . . . . . . 82
4.2.1 Mittelwertsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.2 Die l’Hospitalsche Regel . . . . . . . . . . . . . . . . . . . . . . . . 84
4.3 Höhere Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3.1 Satz von Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3.2 Konvexität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.3.3 Lokale Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5 Integralrechnung 93
5.1 Das Riemannsche Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.1.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.1.2 Existenz und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . 95
5.2 Stammfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2.1 Hauptsatz der Differential– und Integralrechnung . . . . . . . . . . . 101
5.2.2 Grundintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.2.3 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2.4 Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.3 Integration rationaler Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 110
5.3.1 Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . 110
5.3.2 Partialbruchzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3.3 Integration der auftretenden Partialbrüche . . . . . . . . . . . . . . . 118
5.4 Substitutionsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.4.1 Integration von Wurzelausdrücken . . . . . . . . . . . . . . . . . . . . 120
5.4.2 Integration trigonometrischer Funktionen . . . . . . . . . . . . . . . . 123
5.5 Einfache Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.5.1 Differentialgleichungen mit getrennten Variablen . . . . . . . . . . . . 124
5.5.2 Lineare Differentialgleichungen 1. Ordnung . . . . . . . . . . . . . . . 126
5.5.3 Lineare Differentialgleichungen 2. Ordnung . . . . . . . . . . . . . . . 128
5.5.4 Lineare Differentialgleichungen 2. Ordnung mit konstanten Koeffizienten132
4 INHALTSVERZEICHNIS
Rationale Zahlen: Q := {r = m
n : m ∈ Z, n ∈ N}
Potenzen: α ∈ R, j ∈ N
α0 := 1, α1 = α, αj = αj−1 · α (j = 2, 3, . . . )
1
α−j := j , (α 6= 0)
α
αj+k = αj αk .
5
6 1.1 Reelle Zahlen
Axiom: Für jedes n ∈ N sei A eine Aussage über die Zahl n. Ist A(1) richtig und folgt aus
der Richtigkeit von A(n) die Richtigkeit von A(n + 1), so ist A(n) für alle n ∈ N richtig.
Bemerkung:
Eine äquivalente Formulierung des Axioms lautet:
Es sei S ⊂ N mit
(1) 1 ∈ S, (2) n ∈ S ⇒ n + 1 ∈ S.
Dann ist S = N.
Als Beispiel betrachten wir den Beweis des Binomischen Satzes. Dazu führen wir noch zwei
Begriffe ein.
Fakultät: Es sei n ∈ N0 .
0! := 1
n+1
Q
(n + 1)! := n!(n + 1) = j = 1 · 2 · . . . · n · (n + 1)
j=1
Bemerkung:
Es gibt genau n! verschiedene bijektive Abbildungen A −→ A (vgl. Definition 3.1.1/1), wobei
A eine Menge mit n Elementen ist.
Binomialkoeffizienten: n, k ∈ N0
n
:= 1
0
n n! n(n − 1) · · · (n − k + 1)
:= =
k k!(n − k)! 1 · 2 · ... · k
Bemerkungen:
(1) Jede n–elementige Menge besitzt genau nk verschiedene k–elementige Teilmengen.
n n
X n n+1−k k
X n
= a b + an−k bk+1
k=0
k k=0
k
n n+1
X n X
n+1−k k n
= a b + an−(k−1) bk
k=0
k k=1
k−1
n
n n+1 X n n n+1−k k n n+1
= a + + a b + b
0 k=1
k k − 1 n
n
n + 1 n+1 X n + 1 n+1−k k n + 1 n+1
= a + a b + b
0 k=1
k n + 1
nach Bemerkung (2)
n+1
X n+1
= an+1−k bk
k=0
k
8 1.1 Reelle Zahlen
2
Folgerungen: Durch spezielle Wahl von a, b erhalten wir
(1)
n
n n
X n
2 = (1 + 1) = ,
k=0
k
(2)
n
n
X n n
0 = (1 − 1) = (−1) .
k=0
k
(2) Ist M eine Teilmenge von N, so ist M abzählbar unendlich oder endlich.
@ Z ...
n1 n2 n3 n4
N@@
m1 n1 m1
n2
m1
n3
m1
...
n1 n2 ..
m2 m2 m2 .
n1 ..
m3 m3 .
m4 ..
.
..
.
Betrag: Sei x ∈ R.
x x≥0
|x| := heißt Betrag von x.
−x x<0
Abstand: x, y ∈ R.
(ii) |x| ≤ a ⇐⇒ −a ≤ x ≤ a.
(iii) |x · y| = |x||y|.
Beweis: (i) |x| ≥ 0 folgt unmittelbar aus der Definition des Betrages. Ist x = 0, so ist auch
|x| = 0. Es sei |x| = 0. Wir nehmen an, es gelte x > 0 und erhalten |x| = x > 0. Das ist
aber ein Widerspruch zur Voraussetzung. Unter der Annahme x < 0 gelangen wir analog
zum Widerspruch |x| = −x > 0.
(ii) „=⇒“: Es sei |x| ≤ a. Wir machen eine Fallunterscheidung:
1.Fall: Ist x ≥ 0, so gilt |x| = x ≤ a.
2.Fall: Ist x < 0, so gilt |x| = −x ≤ a bzw. −a ≤ x.
Zusammengefaßt erhalten wir −a ≤ x ≤ a.
„⇐=“: Aus x ≤ a folgt |x| ≤ a, aus x ≥ −a folgt ebenfalls |x| ≤ a.
(iii) Wir führen wieder eine Fallunterscheidung durch.
1.Fall: x ≥ 0, y ≥ 0. Damit ist x · y ≥ 0 sowie |x| = x und |y| = y, und wir erhalten:
|x · y| = x · y = |x||y|.
−|y| ≤ y ≤ |y| .
1. |x| ≤ |x + y − y| ≤ |x + y| + |y|,
2. |y| ≤ |x + y − x| ≤ |x + y| + |x|.
2. 1.
Also gilt: −|x + y| ≤ |x| − |y| ≤ |x + y|, und wegen (ii) ergibt sich |x| − |y| ≤ |x + y|. 2
1.1.2 Häufungspunkte und Grenzwerte 11
Definition 2 Eine Menge M , M ⊂ R, heißt beschränkt, falls es eine reelle Zahl c > 0 gibt,
so daß für jedes x ∈ M gilt: |x| ≤ c.
(1) Dieses Axiom ist als Satz von Bolzano und Weierstraß bekannt.
a : N −→ R (j 7−→ aj )
(ii) Es sei M ∈ R eine unendliche Menge, x sei Häufungspunkt von M . Dann existiert
eine Folge {xj }∞
j=1 , xj ∈ M, xj 6= xk mit xj −→ x (j −→ ∞)
(Auswahl einer Folge aus M , die gegen x konvergiert)
Beweis:
(ii) Die kleinste obere (größte untere) Schranke von M heißt Supremum (Infimum) von M .
Bemerkungen: Es gilt:
(1) c = sup M ⇐⇒ (i) x ≤ c für alle x ∈ M
(ii) Für alle oberen Schranken C gilt: c ≤ C.
Lemma 3 Sei M ⊂ R.
Beweis:„=⇒“:
(i) ist klar, da c obere Schranke von M ist. Wir nehmen an, (ii) gilt nicht. Dann existiert ein
ε > 0, und für alle x ∈ M gilt:
x≤c−ε
Damit ist auch c − ε obere Schranke von M . Das ist aber ein Widerspruch, da c schon die
kleinste obere Schranke ist und c − ε < c.
„⇐=“:
Wegen (i) ist c obere Schranke. Wir nehmen an, c ist nicht die kleinste obere Schranke von
M . D.h. es existiert ein c0 < c mit x ≤ c0 für alle x ∈ M (∗). Wir wählen nun ein ε mit
c0 < c − ε < c. Wegen (ii) gibt es ein x ∈ M mit c − ε < x ≤ c. Das ist ein Widerspruch zur
Aussage (∗).2
Beispiele: · sup(0, 1) = sup[0, 1] = 1
· inf{ 1j : j ∈ N} = 0
Bemerkung: Es sei c = sup M kein Element der Menge M . Dann ist c ein Häufungspunkt
von M , und es existiert eine Folge {xj } von Elementen aus M , die gegen c konvergiert. Eine
analoge Aussage glt für das Infimum.
1.1.3 Supremum und Infimum 15
Satz 2 Jede nichtleere nach oben (nach unten) beschränkte Menge reeller Zahlen besitzt
genau ein Supremum (Infimum).
Beweis: Wegen Bemerkung (3) ist es ausreichend, die Aussage für das Supremum zu beweisen.
Es sei M ⊂ R, M 6= ∅ eine nach oben beschränkte Menge. c sei obere Schranke:
1.Fall: Es gibt ein y ∈ M mit x ≤ y für alle x ∈ M . Dann ist y Supremum von M :
y = sup M.
2.Fall: Es existiert kein größtes Element, d.h. M ist eine unendliche Menge. Es sei x0 ein Ele-
ment von M . Dann liegen unendlich viele Elemente von M in dem abgeschlossenen Intervall
[x0 , c]. Wir setzen
I0 := [x0 , c].
Nun halbieren wir I0 und setzen
rechtes Teilintervall, falls dort Elemente von M
I1 :=
linkes Teilintervall, sonst
..
.
rechte Hälfte von Ij−1 , falls dort Elemente aus M
Ij :=
linke Hälfte von Ij−1 , sonst
B := {βj : j = 0, 1, . . .}
ist beschränkt und unendlich. Nach dem Vollständigkeitsaxiom (OM) existiert mindestens
ein Häufungspunkt β von B. Es gilt:
I0 ⊃ I1 ⊃ I2 ⊃ . . . ⊃ Ij ⊃ Ij+1 ⊃ . . . ,
d.h.
β ∈ Ij für alle j.
c − x0
Die Intervallänge von Ij ist und wird beliebig klein für j −→ ∞. Außerdem liegen
2j
nur endlich viele βk außerhalb von Ij . Damit ist β einziger Häufungspunkt, und es gilt:
β = lim βj .
j→∞
β ist obere Schranke von M : Wir nehmen an, es existiere ein α ∈ M mit α > β. Dann gibt
es ein Intervall Ij mit α > γ für alle γ ∈ Ij . Das ist aber ein Widerspruch zur Konstruktion.
β ist kleinste obere Schranke: Wir nehmen an, es gibt eine obere Schranke β 0 , die kleiner
ist als β. Dann gibt es ein Ij mit β 0 6∈ Ij . Das ist ein Widerspruch, da es ein x gibt mit
x ∈ (M ∩ Ij ).2
Bemerkung: M sei beschränkt. Dann gilt: M ist nach oben und nach unten beschränkt,
und es existieren sup M und inf M .
16 1.1 Reelle Zahlen
4k 2 = 2q 2 bzw. 2k 2 = q 2
Also ist auch q 2 und damit q eine gerade Zahl: q = 2l. Das ist ein Widerspruch, da p und q
keine gemeinsamen Teiler haben.2
Definition 6 n ∈ N, a ∈ R a > 0.
Eine reelle Zahl x ≥ 0 heißt n–te Wurzel aus a, falls gilt: xn = a.
Bemerkungen:
(1) Die Definition ist sinnvoll, denn es existiert höchstens eine n–te Wurzel: Wir nehmen
an, x1 und x2 seien n–te Wurzeln aus a mit x1 < x2 . Also gilt
und somit wäre a < a;. Das ist aber ein Widerspruch.
(1 + ε)n < 1 + 3n ε
Beweis: Wir beweisen die Aussage durch vollständige Induktion. Die Behauptung ist für
n = 1 richtig:
1 + ε < 1 + 3ε
Es gelte:
(1 + ε)n < 1 + 3n ε
Daraus folgt
2
Bemerkung: Es gilt sogar (n ∈ N, 0 < ε < 1) :
falls
xn − a
ε<
3n a
n
Das ist aber ein Widerspruch. Also ist x = a.
2. Schritt: (ii) folgt aus
√ √ n
( n a · b)n = a · b
und der Eindeutigkeit.2
√
n
q
1 √ q
1
Bemerkung: Es gilt: 1 = 1= n
a· a
= n
a· n
a
Damit folgt: r
n 1 1
= √
a n
a
√ 1 1
Schreibweise: n
a = an , a− n = 1
1
an
1.2. KOMPLEXE ZAHLEN 19
Definition 1 (i) Es seien a, b ∈ R. Das geordnete Zahlenpaar (a, b) heißt komplexe Zahl.
C bezeichnet die Menge aller komplexen Zahlen.
(ii) z1 = (a1 , b1 ) und z2 = (a2 , b2 ) seien zwei komplexe Zahlen. Wir setzen
z1 + z2 := (a1 + a2 , b1 + b2 ) Addition
z1 z2 := (a1 a2 − b1 b2 , a1 b2 + a2 b1 ) Multiplikation
Bemerkung: Summe und Produkt zweier komplexer Zahlen sind wieder komplexe Zahlen:
z1 + z2 ∈ C, z1 · z2 ∈ C. Es gilt:
Beweis: Durch Anwenden der Definition für Addition und Multiplikation komplexer Zahlen
sowie der entsprechenden Gesetze aus dem Breich der reellen Zahlen ergeben sich leicht die
Kommutativgesetze und das Assoziativgesetz der Addition. Wir zeigen das Assoziativgesetz
20 1.2 Komplexe Zahlen
Bemerkung: Natürliche Potenzen komplexer Zahlen werden wie folgt definiert: Sei j ∈ N.
Dann setzen wir:
z j := z · z j−1 , z 0 := (1, 0)
Es gilt: z j+k = z j z k .
z1 + w = z2 ,
(ii) Es sei z = (a, b) 6= (0, 0). Dann existiert genau ein w ∈ C mit
z · w = (1, 0).
Es gilt:
1 1 1 a b
w= ·z = , 0 · (a, −b) = ,0 z = ,−
zz a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2
(iii) Es sei z1 6= (0, 0). Dann existiert genau eine Lösung w mit z1 · w = z2 . Es gilt:
1
w= , 0 z1 z2
a2 + b 2
Beweis:
a1 + x = a2 x = a2 − a1
bzw.
b1 + y = b2 y = b2 − b1
(a, −b) = z = z · z · w
= (a2 + b2 , 0) · (x, y)
= (a2 + b2 )x, (a2 + b2 )y .
Daraus folgt:
a b
(x, y) = , − .
a2 + b 2 a2 + b 2
Die obige Gleichungskette ergibt sich von rechts gelesen durch Anwendung der bereits
bekannten Rechenregeln der Multiplikation von komplexen Zahlen. Die Umkehrung
erhält man durch Einsetzen von w = (x, y) in die Gleichung z · w = (1, 0):
a2 b2
a b ab ab
(a, b) · ,− = + ,− + = (1, 0)
a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2 a2 + b 2
Daraus folgt
z1 · w = z2 · z1 · w1
w = w1 · z2
1
w = , 0 z1 z2 (nach (ii)).
a2 + b 2
Die Umkehrung erhalten wir wieder durch Einsetzen in die obige Gleichung.2
Vereinbarung:
(i) Es sei c ∈ R. Wir setzen c = (c, 0) ∈ C. In diesem Sinne ist R ⊂ C. Wir definieren
außerdem: c · z := (ca, cb)
(ii) Es gilt:
z · z = a2 + b 2
1 1 1
z 6= 0 = z −1 := 2 2
,0 z = ·z
z a +b zz
z2 z2 z 1 1
z1 6= 0 = = z2 z 1
z1 z1 z 1 z1 z 1
|{z}
reell
Bemerkung: Es gilt:
z1 z2 = z 1 z 2
z1 + z2 = z 1 + z 2
1 1
=
z z
1
(i) |z| = (z · z) 2
Beweis:
(i) (i)
(ii) |z1 z2 |2 = z1 z2 · z1 z2 = z1 z1 · z2 z2 = |z1 |2 |z2 |2 .
(iii) |z| ≥ 0 folgt aus der Definition. Ist |z| = 0, so ist a2 + b2 = 0. Damit ist a = 0 und
b = 0 und somit z = 0. Aus z = 0 = (0, 0) folgt unmittelbar |z| = 0.
Wir berechnen
und erhalten
|z1 + z2 |2 ≤ (|z1 | + |z2 |)2 .
Bemerkungen:
(2) Geometrische Deutung der Multiplikation: Es seien z1 und z2 zwei komplexe Zahlen
mit Abstand ri vom Ursprung und den Winkeln ϕi , i = 1, 2 mit der x–Achse. Dann
gilt:
Das heißt, bei der Multiplikation komplexer Zahlen wird das Produkt der Beträge
gebildet, und die Winkel mit der reellen Achse werden addiert.
Re z := a Realteil von z
Im z := b Imaginärteil von z
(i) z = Re z + i Im z
z+z z−z
(ii) Re z = , Im z =
2 2i
1
(iii) i2 = −1 , = −i
i
(iv) |z| ≤ |Re z| + |Im z|
|Re z| ≤ |z|
|Im z| ≤ |z|
Beweis: (i) Wir betrachten z = (a, b) ∈ C als Element der Gaußschen Zahlenebene. Mit
der Einheit 1 auf der reellen Achse und der Einheit i auf der imaginären Achse können wir
z wie einen Vektor des R2 zusammensetzen, und wir erhalten:
z = a + ib = Re z + iIm z
z+z a + ib + a − ib 2a
= = = a = Re z
2 2 2
z−z a + ib − a + ib 2ib
= = = b = Im z
2i 2 2i
1.2.3 Normaldarstellung, Betrag, Abstand 25
(iii) Nach Definition von i und der Multiplikation komplexer Zahlen gilt:
Weiterhin gilt:
1 1
= , 0 i = (1, 0)(0, −1) = (0, −1) = −i
i a2 + b 2
(iv) Aus der Dreiecksungleichung folgt:
(1 + 2i) · (3i)
a + ib = ∈ C, a, b = ?
5i − 3
(3i + 6i2 )(−5i − 3) −(3i − 6)(3 + 5i)
= 2
=
|5i − 3| 34
−(9i − 30i − 18 − 15) 33 + 21i
= =
34 34
Kapitel 2
(ii) z heißt Grenzwert (Limes) der Folge. Wir verwenden folgende Schreibweisen:
Bemerkungen:
(1) ε–Umgebung von z entspricht einem Kreis um z mit Radius ε. Außerhalb jeder ε–
Umgebung von z liegen nur endlich viele Glieder der Folge.
(2) {zj } konvergiert gegen z genau dann wenn {zj − z} gegen 0 konvergiert, das heißt
genau dann wenn {zj − z} eine Nullfolge ist. Um die Konvergenz nachzuweisen ist es
somit ausreichend, eine Nullfolge cj zu finden so daß für hinreichend große j ∈ N
|zj − z| ≤ cj
gilt.
(3) Es seien {xj } und {yj } reelle Folgen und z = x + iy. Wir setzen:
zj = Re zj + iIm zj = xj + iyj
26
2.1.1 Eigenschaften konvergenter Folgen 27
(4) Jede in C konvergent Folge ist auch beschränkt, d.h. es existiert ein c > 0, so daß
|zj | ≤ c für alle j ∈ N gilt.
Satz 1 Es gilt:
(i) lim zj = z ⇐⇒ Re zj −→ Re z (j −→ ∞)
j→∞
Im zj −→ Im z (j −→ ∞)
Beweis: Der Beweis des Satzes wird mit Hilfe der Bemerkung (3) und der Dreiecksungleichung
geführt.2
λzj + µwj −→ λz + µw (j −→ ∞)
zj wj −→ z · w
1
Beweis: 1.Schritt: Sei |z| < 1. Wir setzen |z| = 1+a mit einer reellen Zahl a > 0. Es ist nach
dem Binomischen Satz
(1 + a)j > aj,
und wir erhalten somit
1 1
|z j | = |z|j = j
< .
(1 + a) aj
Daraus folgt z j −→ 0.
2.Schritt: Sei |z| ≥ 1 und z 6= 1. Dann ist |z − 1| > 0. Wir nehmen an, es existiere ein z0 mit
z j −→ z0 . Wir wählen ein j0 (ε), so daß für alle j ≥ j0
1
|z j − z0 | ≤ ε := |z − 1|.
3
Dann gilt:
3ε = |z − 1| ≤ |z|j |z − 1| = |z j+1 − z j | ≤ |z j+1 − z0 | + |z j − z0 | ≤ 2ε.
Das ist aber ein Widerspruch. Damit ist z j divergent, und das Lemma ist bewiesen.2
Beispiele:
6j 3 − 4j 2 + 17 6 − 4j + 17
j3
(1) = −→ −3
3
−2j + 20j + 1 −2 + j 2 + j13
20
(2) √ √ √ √
p p ( j + 1 − j)( j + 1 + j) 1
j+1− j = √ √ =√ √ −→ 0,
j+1+ j j+1+ j
2
1 1 1 1
da √
√ ≤ √ ≤ ε,
falls j≥ .
j+1+ j 2 j 2ε
(3) Analog zeigt man
p p p 1
j( j + 1 − j) −→
2
(4) Folgende Aussagen erweisen sich ebenfalls als nützlich:
Ist {zj } eine Nullfolge (zj −→ 0), und ist {wj } beschränkt, so konvergiert auch das
Produkt der beiden Folgen zj · wj gegen 0:
|zj wj | ≤ |wj ||zj | ≤ c |zj | ≤ ε.
(5) Bei reellen Zahlen sprechen wir vom „Sandwich–Lemma“. Es lautet: Konvergieren die
Folgen {aj } und {cj } gegen eine Zahl a, und gilt für eine weitere Folge {bj } die Bezie-
hung
aj ≤ b j ≤ c j für alle j,
dann konvergiert auch {bj } gegen a:
|bj − a| = |bj − aj + aj − a| ≤ |cj − aj | + |aj − a|.
2.1.2 Das Cauchy–Konvergenz–Kriterium 29
Bemerkungen:
(3) Sei j ≥ j(ε) fest. Dann gilt für alle k ≥ j(ε) : |zk − zj | ≤ ε, wenn {zj } eine Cauchy–
Folge ist.
Beweis: Es sei zj = xj +iyj für j = 1, 2, . . .. Da {zj } beschränkt ist, sind auch die Folgen {xj }
und {yj } beschränkt. Aus Satz 1.1.2/1(OF) folgt, {xj } hat eine konvergente Teilfolge {xjk }
mit xjk −→ x für k −→ ∞. Ebenfalls aus Satz 1.1/1 (OF) folgt, daß {yjk } eine konvergente
Teilfolge {yjkl } besitzt mit yjkl −→ y. Wenden wir Satz 2.1/1 an, so folgt
zjkl −→ x + iy = z.
2
Bemerkung: Vergleiche mit Satz 1.1/1(OF).
{zj }∞
j=1 ⊂ C ist konvergent ⇐⇒ {zj }∞
j=1 ist Cauchy–Folge.
Beweis: Wegen Bemerkung (1) ist noch zu zeigen: Jede Cauchy–Folge ist konvergent. Es
sei {zj } eine Cauchy–Folge. Nach Bemerkung (2) ist {zj } beschränkt. Dann existiert nach
Satz 2.1/3 eine konvergente Teilfolge {zjl } mit zjl −→ z für l −→ ∞. Es sei ε > 0. Dann
existiert ein j(ε) ∈ N, so daß
ε
|zjl − z| ≤ für alle jl ≥ j(ε).
2
30 2.1 Folgen komplexer Zahlen
nk
(i) n −→ 0 für a > 1 (n−k an −→ ∞).
a
an
(ii) −→ 0 für a > 1 (n!a−n −→ ∞).
n!
√
(iii) n a −→ 1 (a > 0),
√
n
n −→ 1,
√
n
n! −→ ∞.
(i) Es sei a = 1 + x mit x > 0, und sei n ≥ 2. Dann gilt nach dem Binomischen Satz:
n n n 2 n(n − 1) 2
a = (1 + x) ≥ x = x.
2 2
Es folgt
n 2n 1 2 1
n
≤ · 2 ≤ · 2 −→ 0 für n −→ ∞,
(1 + x) n(n − 1) x n−1 x
a
(ii) Wir wählen k ∈ N (fest), so daß k+1
≤ 12 . Dann gilt
an ha a
ai a a
= · ··· ··· (2.1)
n! 1 2 k k+1 n
n−k
1
≤ ak · (2.2)
2
1
= (2a)k n −→ 0 (2.3)
2
32 2.2 Folgen reeller Zahlen
an ≤ n! für n ≥ n0 (a)
√
n
und damit a ≤ n!.
Demnach gilt √
n
n! −→ ∞.
sup an := sup{an : n ∈ N}
n
inf an := inf{an : n ∈ N}
n
Folgerung 1 Jede nach oben (unten) beschränkte Folge reeller Zahlen besitzt ein Supremum
(Infimum).
Definition 1 {an } ⊂ R heißt (streng) monoton wachsend, falls für alle n ∈ N gilt:
(ii) Sei {an } monoton fallend und nach unten beschränkt. Dann ist {an } konvergent und
lim an = inf an .
n→∞ n
Beweis: Sei {an } monoton wachsend und nach oben beschränkt. Nach Folgerung 2.2.1/1
besitzt {an } ein Supremum: sup an =: a. Für alle n gilt demnach: an ≤ a. Es sei ε > 0. Dann
existiert ein n0 (ε) = n0 mit
a − ε ≤ an0 ≤ a.
Wegen der Monotonie der Folge gilt dann für alle n ≥ n0 :
a − ε ≤ an ≤ a, und damit |a − an | ≤ ε ∀n ≥ n0 .
Der Beweis für monoton fallende, nach unten beschränkte Folgen wird analog geführt.2
Beispiel: Wurzelberechnung. Es sei 1 < a < ∞. Wir setzen
a(1 + xn )
x1 = a und xn+1 := .
a + xn
√
Dann gilt: xn −→ a (n −→ ∞).
Beweis: Die Folge ist nach unten beschränkt: xn > 0.
1.Schritt: Wir zeigen durch vollständige Induktion, daß {xn } streng monoton fallend ist, d.h.
xn+1 < xn . Für x1 und x2 ist die Aussage richtig:
a(1 + x1 ) a(1 + a) 1+a 2a
x2 = = = < = a = x1 .
a + x1 2a 2 2
Es gelte: xn < xn−1 (∗). Daraus folgt:
In der zweiten Zeile wurde dabei die aktive Null (−axn−1 + axn−1 ) eingefügt.
√
2.Schritt: Wir zeigen nun, daß xn gegen a konvergiert. Nach Satz 2.2.1/1 ist lim xn = x ≥ 0.
Da
a(1 + xn )
xn+1 = ,
a + xn
folgt für n −→ ∞:
a(1 + x)
x= .
a+x
√
Damit ist x2 = a und folglich x = a.2
(1 + x)n ≥ 1 + nx.
Beweis: Wir beweisen die Ungleichung durch vollständige Induktion. Die Aussage ist für
n = 1 richtig, denn (1 + x)1 = 1 + x. Es gelte
(1 + x)n ≥ 1 + nx.
Dann gilt:
Lemma 2 Es gilt:
n
1
(i) an = 1 + ist streng monoton wachsend.
n
n n
1 X 1 1
(ii) 2 ≤ 1+ < ≤ 3 − < 3.
n k=0
k! n
2.2.3 Die Zahl e 35
Satz 3 (i) Die in Lemma 2.2/2 definierte Folge ist konvergent. Es gilt:
n n
1 X 1
lim 1 + = lim =: e.
n→∞ n n→∞
k=0
k!
(ii) Es gilt:
n
X 1 2
e− ≤ .
k=0
k! (n + 1)!
Die Eulersche Zahl e ist irrational, und 2 < e < 3.
36 2.2 Folgen reeller Zahlen
Wir zeigen: e = s. Es sei ε > 0 eine beliebige reelle Zahl. Dann existiert ein n0 mit
n0
X 1
s−ε< ≤s
k=0
k!
Dann gilt:
1 1 1 1
Sn+m − Sn = + + ... +
n! n + 1 (n + 1)(n + 2) (n + 1) · . . . · (n + m)
1 1 1 1
≤ + + ... +
n! n + 1 (n + 1)(n + 2) (n + m − 1)(n + m)
1 1 1 1 1 1
= + − + ... + −
n! n + 1 n+1 n+2 n + m − 1) n + m
1 2 1 2
= − <
n! n + 1 n+m (n + 1)!
2.2.3 Die Zahl e 37
Wir erhalten:
2
e − Sn ≤ .
(n + 1)!
Daraus folgt
2 5
e ≤ S2 + = 2 + < 3.
3! 6
Wir zeigen jetzt, daß e irrational ist. Dazu nehmen wir an, e sei rational, d.h. es gibt zwei
m
ganze Zahlen (bzw. natürliche Zahlen, da 2 < e < 3) m und n mit e = . Dann gilt:
n
m 2
0< − Sn ≤ .
n (n + 1)!
Daraus folgt:
n
X 1 2
0 < m(n − 1)! − n! ≤ < 1.
k=0
k! n + 1
| {z }
∈N
Das ist aber ein Widerspruch, da es keine natürliche Zahl zwischen 0 und 1 gibt.2
38 2.3 Konvergenz von Reihen
∞
X ∞
X
(ii) zj heißt absolut konvergent :⇐⇒ |zj | ist konvergent.
j=0 j=0
P P
Schreibweise: Sei aj ≥ 0 und aj konvergent. Dann schreiben wir: aj < ∞.
X
S= zj :⇐⇒ S := lim SN .
N →∞
Bemerkung: Im letzten Abschnitt haben wir bereits die Konvergenz einer unendlichen
Reihe bewiesen. Es folgt nämlich aus Satz 2.2/3
∞
X 1
=e
k=0
k!
Bemerkung: Aus dem Cauchyschen Konvergenzkriterium (Satz 2.1.2/4) wissen wir, daß
die Partialsummenfolge (SN ) genau dann konvergent ist, wenn (SN ) eine Cauchy–Folge ist.
Das heißt aber nichts anderes als
|SN − SM | < ε für N, M ≥ M (ε). (2.5)
Das ist gleichbedeutend mit
|zM +1 + . . . + zN | < ε für N, M ≥ M (ε).
2.3.1 Konvergenz und Divergenz 39
P
Satz 1 (i) Ist zj konvergent, dann gilt (notwendige Bedingung): lim zj = 0.
j→∞
P P
(ii) Ist zj absolut konvergent, dann ist zj auch konvergent.
P P P
(iii) zj ist konvergent ⇐⇒ Re zj und Im zj sind konvergent.
Diese Äquivalenz gilt auch für absolute Konvergenz.
P P P
(iv) Es seien zj und wj konvergente Reihen und λ, µ ∈ C. Dann ist auch (λzj +µwj )
konvergent, und es gilt: X
(λzj + µwj ) = λz + µw.
(v) Sei aj reell und größer oder gleich Null. Dann gilt folgende Äquivalenz:
∞ N
!∞
X X
aj < ∞ ⇐⇒ aj beschränkt.
j=0 j=0 N =0
Beweis:
(i) Wegen (2.2) in der Bemerkung gilt:
(iii) Es gilt:
2
Bemerkung:
∞
X
∞
X
zj konvergent ⇐⇒ ∀ ε > 0 ∃ M (ε), so daß
zj
< ε.
j=0 j=M (ε)
∞
X
Lemma 1 Es sei z ∈ C und |z| < 1. Dann ist z j absolut konvergent, und es gilt:
j=0
∞
X 1
zj = .
j=0
1−z
Beweis: Es gilt:
N
X
zSN − SN = (z j+1 − z j ) = z N +1 − 1.
j=0
Daraus folgt:
1 − z n+1 1
SN = −→ .
1−z 1−z
2
Lemma 2 Es gilt:
∞
X 1
(i) ist divergent (Harmonische Reihe).
j=0
j
∞
X 1
(ii) ist konvergent für k = 2, 3, . . ..
j=0
jk
Beweis:
(i) Es gilt:
1 1 1 1 1 1
S2l −1 = 1+ + + + ... + + ... + + ... + l
2 3 4 7 2l−1 2 −1
| {z }
2l−1 Summanden
1 1 1 1 1 1
≥ 1+ + + + ... + + ... + + ... + l
4 4 8 8 2l 2
1 1 1 1 1 1
= 1+ + + + ... + 3 + ... + + ... + l
22 22 23 2 2l 2
2 l−1
2 2 2
= 1 + 2 + 3 + ... + l
2 2 2
1
= l · −→ ∞
2
Damit haben wir eine divergente Teilfolge gefunden.
2.3.2 Konvergenzkriterien 41
(ii) Es gilt:
N N N
X 1 X 1 X 1
< ≤
j k j 2 j=M +1 j(j − 1)
j=M +1 j=M +1
N
X 1 1 1 1
= − = − −→ 0
j=M +1
j − 1 j M N
2.3.2 Konvergenzkriterien
Wir betrachten Reihen mit nichtnegativen, reellen Summanden.
Beweis: Da
N
X N
X
aj ≤ bj ,
1 1
N
X
ist aj beschränkt und folglich konvergent. Für n −→ ∞ erhalten wir
1
∞
X ∞
X
aj ≤ bj = c.
1 1
42 2.3 Konvergenz von Reihen
P
Ist aj divergent, so gilt:
N
X N
X
bj ≥ aj ≥ k für N ≥ N (k).
1 1
P
Also ist bj nicht beschränkt und deshalb divergent.2
∞
X n! n! 2
Beispiele: (1) n
< ∞, da n < 2 für n > 3.
n=1
n n n
∞
X 1 1 1
(2) p = ∞, da √ √ > .
n=0 n(n + 1) n n+1 n+1
(i) Es gilt:
aj+1 ≤ qaj ≤ q 2 aj−1 ≤ q j a1 .
Die Konvergenz der Reihe folgt aus Satz 2 und Lemma 2.3.1/1 mit z = q.
√
(ii) Wegen j aj , gilt
aj ≤ q j .
Die Konvergenz folgt ebenfalls aus Satz 2 mit der geometrischen Reihe als konvergente
Majorante.
Beispiele:
∞
nk (n + 1)k an
X n+1 1 1
(1) < ∞ für a > 1, da · k = k· −→ < 1.
n=1
an an+1 n n a a
nk
Es folgt unmittelbar, daß −→ 0, d.h. wir haben einen anderen Beweis für Satz
an
2.2.3/3(i) gefunden.
∞ r
X an n an a
(2) n
< ∞, da = −→ 0.
n=1
n nn n
2.3.3 Umordnung von Reihen 43
P P P
Definition 2 aj heißt bedingt konvergent, falls aj konvergent und |aj | divergent ist.
1
(−1)j ist bedingt konvergent.
P
Beispiel:
j
44 2.3 Konvergenz von Reihen
P
Satz 5 (Riemann) (vgl. z.B. Blatter Bd. I, S.105/106) Es sei (aj ) ⊂ R, aj bedingt
konvergent und ξ eine beliebige reelle Zahl. Dann existiert eine Umordnung (bj ) von (aj ), so
daß gilt: X
bj = ξ.
j
∞
X
Satz 6 (Kleiner Umordnungssatz) Sei zj absolut konvergent, (zj ) ⊂ C und (wj ) eine
j=0
∞
X P P
Umordnung von (zj ). Dann ist wj absolut konvergent, und es gilt: zj = wj .
j=0
Beweis: Es sei wj = zϕ(j) , und sei N eine beliebige natürliche Zahl. Dann existiert ein
M = M (N ) mit M ≥ N und
{w1 , . . . , wN } ⊂ {z1 , . . . , zM },
und es gilt:
N
X M
X ∞
X
|wj | ≤ |zj | < |zj | = s < ∞.
j=0 j=0 j=0
P
Damit Pist wj absolut
P konvergent.
Es sei zj = z und wj = w. Dann gilt:
M ∞ N ∞
X X X X
|z − w| ≤ zj + zj − wj − wj
j=0 j=M +1 j=0 j=N +1
∞ ∞
M N
X X X X
≤ |zj | + |wj | + zj − wj (2.6)
j=M +1 j=N +1 j=0 j=0
Dann gilt:
XM N
X X X
zj − wj = wkl ≤ |wk | < ε.
j=0 j=0 k >N k>N
| l {z }
endliche Summe
Problem:
∞ ∞ ∞
! ∞
! ∞
?
X X X X X
z= zj , w = wk =⇒ z·w zj wk = zj wk
j=0 k=0 j=0 k=0 j,k=0
Bei der Anordnung der Summanden wählen wir die „diagonale Summierung“:
w0 w1 w2 w3 w4 ...
z0 z0 w0 z0 w1 z0 w2 z0 w3 z0 w4 ...
z1 z1 w0 z1 w1 z1 w2 z1 w3 z1 w4 ...
z2 z2 w0 z2 w1 z2 w2 z2 w3 . . . ...
z3 z3 w0 z3 w1 z3 w2 . . . ... ...
z4 z4 w0 ... ... ... ... ...
∞
X
Definition 3 Die Reihe vl mit
l=0
l
X
vl := zj wl−j = z0 w0 + z1 wl−1 + . . . + zl w0
j=0
P P
heißt Cauchy–Produkt von zj und wk .
∞
X ∞
X
Satz 7 Es seien zj = z, wk = w absolut konvergente Reihen. Dann ist die Produkt-
j=0 k=0
∞
X
reihe vl absolut konvergent, und es gilt:
l=0
∞
X
vl = z · w.
l=0
46 2.3 Konvergenz von Reihen
Beweis: Es gilt:
N N
! N
!
X X X X
vl − zj wk ≤ |zj ||wk |
l=0 j=0 k=0 j+k>N
0≤j,k≤N
N
X X N
X X
≤ |zj ||wk | + |zj ||wk |
N
2
<j≤N k=0 N
2
<k≤N j=0
∞
! ∞
!
X X X X
≤ |zj | |wk | + |wk | |zj |
N
<j≤N k=0 N
<k≤N j=0
2 2
| {z }| {z
=s1
} | {z }| {z }
≤ε ≤ε =s2
und damit !
N
X N
X X X X
|vl | ≤ |zj ||wk | −→ |zj | |wk |
l=0 l=0 j+k=l
Definition 4 Es sei z ∈ C.
∞
X zk
exp(z) := heißt Exponentialfunktion.
k=0
k!
(iii) Seien
mm, n ∈ N, n 6= 0.
1 m
exp = (em ) n =: e n , exp(1) = e.
n
(iv) | exp(z) − (1 + z)| ≤ |z|2 für |z| ≤ 21 .
z n
(v) exp(z) = lim 1 + .
n→∞ n
Daraus folgt:
1 = exp(z − z) = exp(z) exp(−z),
und damit sind (i) und (ii) gezeigt.
2.Schritt: Wir wissen
exp(1) = e.
Es sei m ∈ N. Dann gilt nach (i):
exp(m) = exp (1 + . . . + 1) = exp(1) · . . . · exp(1) = em ,
| {z } | {z }
m–mal m–mal
Es folgt:
z n
z n z n
exp(z) − 1 + = exp − 1+
n n n
z n−1
h z X
i z j z n−1−j
= exp − 1+ exp 1+ .
n n j=0 n n
|z|
Es sei n
≤ 12 . Dann folgt aus (iv):
n−1 j n−1−j
z n z 2 X |z| |z|
| exp(z) − 1 + | ≤ exp exp
n n j=0 n n
n−1
z 2 |z|
= n · exp
n n
z 2
≤ exp(|z|) ≤ ε für n ≥ n0 .
n
Lassen wir nun noch n gegen ∞ laufen, so folgt die Behauptung.2
Bemerkung: Ist z = x reell, so ist auch exp(z) reell. Ist z = ix mit x ∈ R, so gilt:
exp(ix) · exp(−ix) = 1
und damit | exp(ix)| = 1
3.1 Grenzwerte
3.1.1 Konvergenz im Rn
Wir wiederholen zunächst einige Begriffe aus der linearen Algebra.
Bemerkung 1 Rn ist ein reeller Vektorraum der Dimension n. Betrachtet man die kom-
plexen Zahlen als Vektorraum über dem Körper der reellen Zahlen, so ist er isomorph zum
R2 .
Definition 2 Es seien x, y ∈ Rn .
(i) (x, y) = x1 y1 + · · · + xn yn heißt Skalarprodukt.
(ii) kxk = (x, x)1/2 heißt euklidische Norm.
Eigenschaften:
Es seien x, y ∈ Rn , und λ sei eine reelle Zahl. Es gelten folgende Eigenschaften:
50
3.1.1 Konvergenz im Rn 51
Analog zu R und C können wir mit Hilfe eines Abstandsbegriffes (mit Hilfe einer Norm) die
Konvergenz von Folgen im Rn definieren. Wir bezeichnen mit
k ∞
x k=1 , wobei, xk = (xk1 , . . . , xkn ) ∈ Rn
Folgen im Rn .
∞
Definition 3 Es sei xk k=1 eine Folge im Rn , und es sei x ∈ Rn . Wir setzen:
Bemerkung 3 Alle Folgenglieder xk mit k > k() liegen in einer Kugel um x mit Radius .
∞
Satz 1 Es sei xk k=1 mit xk = (xk1 , . . . , xkn ), eine Folge im Rn , und es sei x = (x1 , . . . , xn ) ∈
Rn . Dann gilt:
Beweis. Der Beweis ergibt sich unmittelbar aus der Definition und den Ungleichungen
| xki − xi | ≤ k xk − x k (i = 1, . . . , n),
n
X
k
kx − xk ≤ | xki − xi |.
i=1
Mit Satz 1 lassen sich Eigenschaften von Grenzwerten aus Abschnitt 2.1 übertragen. Insbe-
sondere ist der Grenzwert einer Linearkombination von Folgen gleich der Linearkombination
der einzelnen Grenzwerte.
Eine Cauchyfolge im Rn ist analog zu Definition 2.1.2/2 erklärt, und es gilt der folgende
Satz.
Satz 2 xk eine Cauchyfolge im Rn , wenn jede Folge xki eine Cauchyfolge in R ist.
Eine Folge im Rn ist konvergent, genau dann wenn sie ein Cauchyfolge ist.
52 3.1 Grenzwerte
Wir nennen eine Folge xk in Rn beschränkt, wenn es eine positive Zahl c gibt, so daß für
alle k ∈ N gilt: kxk k ≤ c.
Beweis. Der Beweis wird analog zum Fall von Folgen komplexer Zahlen (vgl. Satz 2.1.2/3)
geführt.
Topologische Grundbegriffe
Definition 4 Wir führen einige topologische Grundbegriffe ein, die später benötigt werden.
(i) Es sei x ∈ Rn , und es sei > 0. Die Menge K(x, ) := {y ∈ Rn : ky − xk < } heißt
offene Kugel um x mit Radius .
(ii) Ω ⊂ Rn heißt offene Menge :⇐⇒ Für jedes x ∈ Ω existiert eine offene Kugel um x,
die ebenfalls in Ω enthalten ist.
(iii) A ⊂ Rn heißt abgeschlossen :⇐⇒ Jede konvergente Folge von Punkten aus A besitzt
einen Grenzwert in A.
(v) Ein Punkt x0 ∈ Rn heißt Häufungspunkt von M ⊂ Rn :⇐⇒ Für jedes > 0 existiert
ein Punkt x ∈ M, x 6= x0 , mit k x − x0 k < . Andernfalls heißt ein Punkt x0 , der
zusätzlich zu M gehört, singulärer Punkt von M .
(vi) Die Vereinigung von M und der Menge aller Häufungspunkte von M nennt man den
Abschluß von M und wird mit M bezeichnet.
(ii) Eine offene Kugel ist auch offen. Der Abschluß einer Menge ist auch abgeschlossen.
(v) Die Menge k1 : k ∈ N ⊂ R besteht nur aus singulären Punkten. 0 ist ihr einziger
Häufungspunkt.
(vi) Die Menge aller rationalen Zahlen ist weder offen noch abgeschlossen. Der Abschluß
der Menge aller rationalen Zahlen ist R.
fj (x) = fj (x1 , . . . , xn ), (j = 1, . . . , m)
Beweis: Der Beweis folgt unmittelbar aus der Definition der Umkehrfunktion.2
3.1.3 Grenzwerte
Definition 7 Es seien M ⊂ Rn , x0 ein Häufungspunkt von M und f : M −→ Rm eine
Funktion.
a ∈ Rm heißt Grenzwert von f (x) für x −→ x0 (a = lim0 f (x)) :⇐⇒ Für jede Folge xk
x→x
in M mit lim xk = x0 gilt lim f (xk ) = a.
k→∞ k→∞
Bemerkung 5 Es gilt
(ii) Die Regeln für Grenzwerte von Summe, Produkt und Quotient von Folgen (verglei-
che Satz 2.1.1/2) lassen sich unmittelbar auf den Fall von Funktionen f : Rn −→ R
übertragen.
(iii) Hilfreich bei der Berechnung von Grenzwerten von reellwertigen Funktionen ist folgende
Aussage: Es seien
Beispiele
x2 y 2
f (x, y) =
x2 + y 2
Dann gilt
x2 y 2 (x2 + y 2 )2
0≤ ≤ = x2 + y 2 −→ 0
x2 + y 2 x2 + y 2
für (x, y) → (0, 0).
.
3.1.3 Grenzwerte 55
Beispiele:
1
(i) Es ist lim = 0.
x→∞ x2
lim |P (x)| = ∞
x→∞
Bemerkung. Für jede Kugel V = K(a, ) ⊂ Rm muß also eine Kugel U = K(x0 , δ ⊂ Rn
existieren mit der Eigenschaft, daß f (U ) ⊂ V gilt.
3.2 Stetigkeit
3.2.1 Definition und Beispiele
Definition 1 Es sei M ⊂ Rn , und es sei f : M −→ Rm .
(i) f heißt stetig in x0 ∈ M :⇐⇒ ∀ ε > 0 ∃ δ = δ(x0 , ε), so daß ∀ x ∈ M mit kx−x0 k <
δ(x0 , ε) folgt: kf (x) − f (x0 )k < ε.
(ii) f heißt stetig auf U ⊂ M :⇐⇒ f ist stetig in jedem Punkt von U .
(i) Dann ist f stetig in x0 = (x01 , . . . , x0n ) genau dann wenn jede Funktion fj : Rn −→
R (j = 1, . . . m) stetig in x0 ist.
Bemerkung 1 Ist x0 ein Häufungspunkt von M und kein Element von M , dann heißt f
stetig fortsetzbar in x0 , falls lim0 f (x) =: f (x0 ) existiert.
x→x
Beispiele:
P (x)
(1) Polynome sind überall auf R stetige Funktionen. Rationale Funktionen R(x) = Q(x)
mit Polynomen P (x) und Q(x) sind stetig in allen Punkten x0 mit Q(x0 ) 6= 0.
(2) Die Funktion f (x) = kxk, definiert für jedes x ∈ Rn ist stetig auf Rn . Dies folgt aus
der Ungleichung
|kxk − kx0 k| ≤ kx − x0 k.
x sin x1 x 6= 0
(3) Die Funktion f (x) = ist stetig im Punkt 0.
0 x=0
3.2.1 Definition und Beispiele 57
(i) f (x0 + 0) := lim f (x) =: y0 :⇐⇒ ∀ ε > 0 ∃ δ(ε, x0 ), so daß ∀ x > x0 mit |x − x0 | ≤ δ
x↓x0
folgt: |f (x) − y0 | ≤ ε.
y0 heißt rechtsseitiger Grenzwert von f in x0 .
(ii) f (x0 − 0) := lim f (x) =: y0 :⇐⇒ ∀ ε > 0 ∃ δ(ε, x0 ), so daß ∀ x < x0 mit |x − x0 | ≤ δ
x↑x0
folgt: |f (x) − y0 | ≤ ε.
y0 heißt linksseitiger Grenzwert von f in x0 .
f (x) ≥ k (f (x ≤ −k)).
f (x) ≥ k (f (x ≤ −k)).
(iii) x0 heißt Polstelle :⇐⇒ ∃ f (x0 − 0), ∃ f (x0 + 0), und wenigstens ein Grenzwert ist
+∞ oder −∞.
(iv) x0 heißt wesentliche Unstetigkeitstelle :⇐⇒ mindestens ein einseitiger Grenzwert exi-
stiert nicht.
Außerdem gilt:
≤ |f (x) − f (x0 )| |g(x) − g(x0 )| + |f (x) − f (x0 )| |g(x0 )| + |g(x) − g(x0 )| |f (x0 )|
| {z }| {z } | {z } | {z }
≤ε ≤ε≤1 ≤ε ≤ε
0 0
≤ ε(1 + |g(x )| + |f (x )|).
2. Schritt: Es sei O.B.d.A. g(x0 ) > 0. Dann existiert ein δ0 = δ(x0 ) > 0, so daß g(x) ≥ g(x0 )/2
für alle x mit kx − x0 k ≤ δ0 . Das zeigen wir indirekt. Sei δ = 1j . Wir nehmen an, für jedes
j ∈ N existiert ein xj ∈ M , so daß für alle xj mit kxj − x0 k ≤ 1j gilt:
1
für |x − x0 | ≤ δ0 . Damit ist g(x) stetig in x0 , und aus dem 1. Schritt folgt, daß fg stetig in x0
ist.
4. Schritt: Aus x −→ x0 folgt, da f stetig ist, f (x) −→ f (x0 ). Daraus folgt, da g stetig ist,
g(f (x)) −→ g(f (x0 )). 2
Im 2. Schritt des Beweises haben wir folgende Aussage gezeigt.
Satz 2 Es sei U ⊂ M ⊂ Rn kompakt, und es sei f : M −→ Rm stetig auf U . Dann ist die
Menge f (U ) = {f (x) : x ∈ U } ebenfalls kompakt.
Beweis: 1. Schritt: Wir zeigen zunächst, daß f (U ) beschränkt ist. Nehmen wir an, f (U ) sei
unbeschränkt, d.h. für alle k ∈ N existiere ein y k ∈ f (U ) mit ky k k ≥ k. Dann existiert eine
beschränkte Folge {xk } ⊂ U mit f (xk ) = y k . O.B.d.A. konvergiere xk gegen x ∈ U (sonst
wählen wir eine Teilfolge aus), und da f stetig ist, gilt:
f (xk ) = y k −→ f (x).
Beweis: Nach Satz 2 ist f beschränkt auf U (f (U ) ist beschränkt). f (U ) ⊂ R. Daher existieren
sup f (U ) = y0 und inf f (U ) = y1 . Wir wählen eine Folge {yj } = {f (uj )} mit f (uj ) −→ y0 .
Das ist immer möglich. Die Folge {uj } ist eine Teilmenge von U , U ist kompakt, d.h. es
existiert eine Teilfolge {ujl } mit ujl −→ x0 ∈ U . Es folgt f (ujl ) −→ f (x0 ), da f stetig ist,
und damit ist f (x0 ) = y0 . Mit x1 verfahren wir analog. 2
Beweis: Nach Satz 2 ist W = f (U ) kompakt. Es sei w0 ∈ W . Wir nehmen an, f −1 ist nicht
stetig in w0 . D.h. es existiert eine Folge {wj } ⊂ W mit wj −→ w0 und f −1 (wj ) 6→ f −1 (w0 ).
Es sei uj := f −1 (wj ) und u0 := f −1 (w0 ). Da uj 6→ u0 , existiert eine Teilfolge {ujk } mit
k jk
u − u0 k ≥ ε. O.B.d.A. konvergiere ujk gegen v 0 ∈ U . Es ist klar, daß v 0 6= u0 . Da f stetig
ist, folgt
f (ujk ) −→ f (v 0 )
bzw. wjk −→ f (v 0 ).
Also ist w0 = f (v 0 ). Wenden wir darauf f −1 an, erhalten wir u0 = v 0 . Das ist aber ein
Widerspruch. √ 2
Beispiel: Es sei n ∈ N. f (x) := x ist stetig auf [0, ∞).
n
3.2.3 Zwischenwertsatz
Wir führen folgende Bezeichnungen ein: Es sei M ⊂ R.
f˜(ξ + 0) = f˜(ξ).
2
Bemerkung: Es kann ein konstruktiver Beweis gegeben werden, der auf einem Halbierungs-
verfahren (bzw. einer Intervallschachtelung) beruht.Hierzu halbiert man das Intervall [a0 , b0 ]
und wählt das Teilintervall [a1 , b1 ] ⊂ [a0 , b0 ], so daߘf (a1 ) < 0 und f˜(b1 ) > 0. Dieses Verfah-
ren setzt man fort und erhält zwei Folgen {aj } und {bj } mit lim aj = lim bj = ξ.
Beispiel: Jedes Polynom ungerader Ordnung hat mindestens eine reelle Nullstelle.
Beweis:
(ii) f heißt monoton fallend (oder monoton nicht wachsend) auf (a, b)
:⇐⇒ für alle x1 , x2 ∈ (a, b) mit x1 < x2 gilt: f (x1 ) ≥ f (x2 ).
f heißt streng monoton fallend auf (a, b)
:⇐⇒ für alle x1 , x2 ∈ (a, b) mit x1 < x2 gilt: f (x1 ) > f (x2 ).
Bemerkung: Ist die Funktion f streng monoton, dann ist f bijektiv, und es existiert die
Umkehrfunktion f −1 .
(ii) Es existiert f (a+0) ≥ −∞, und es existiert f (b−0) ≤ +∞, falls f monoton wachsend.
Es existiert f (a + 0) ≤ ∞, und es existiert f (b − 0) ≥ −∞, falls f monoton fallend.
Beweis: Sei f monoton wachsend und x0 ∈ (a, b). Wir betrachten {f (x) : x < x0 }. Diese
Menge ist nicht leer und wegen der Monotonie von f beschränkt (f (x) ≤ f (x0 ) für alle x).
Das heißt, es existiert ein
β := sup{f (x) : x < x0 }.
β − ε < f (xε ) ≤ β.
Für alle x ∈ (xε , x0 ) gilt wegen der Monotonie: β − f (x) < ε. Daraus folgt, es existiert
f (x0 − 0), und
f (x0 − 0) = sup f (x) < ∞.
x<x0
Satz 6 Sei f : (a, b) −→ R monoton (wachsend oder fallend). Dann ist f stetig bis auf
höchstens abzählbar viele Sprungstellen.
Wir setzen
J(x) := ηx ∈ f (x − 0), f (x + 0) , x ∈ A mit ηx rational.
Die Abbildung J : A −→ Q ist injektiv, d.h. J(A) ist abzählbar. Damit ist auch A, die
Menge der Sprungstellen, abzählbar.2
Satz 7 Sei f : (a, b) −→ R streng monoton (wachsend oder fallend) und stetig auf (a, b).
Dann ist R(f ) = (inf f, sup f ) ein Intervall, und f −1 ist stetig.
Für η ∈ (α, β) existiert nach dem Zwischenwertsatz (Satz 3.2.3/5) ein ξ ∈ (a, b) mit f (ξ) = η.
f ist stetig auf [a0 , b0 ] ⊂ (a, b) für alle a0 , b0 . Damit ist f −1 stetig nach Satz 3.2.2/4. 2
3.2.5 Gleichmäßige Stetigkeit 63
Bemerkung: Bei gleichmäßiger Stetigkeit kann δ unabhängig von der Lage von x und x0 in
U gewählt werden. Maßgebend ist lediglich ihr Abstand. f ist dann natürlich stetig in jedem
Punkt x ∈ U .
Beispiele:
(1) f (x) = x, f (x) = const, f (x) = |x| sind gleichmäßig stetig auf R.
Somit kann δ = ε2 gewählt werden und f ist gleichmäßig stetig auf [0, ∞).
Folgerung 3 Ist f Lipschitz–stetig auf U , oder ist f eine dort α−Hölder–stetige Funk-
tion, so ist f gleichmäßig stetig.
Wir betrachten nun Beispiele stetiger, aber nicht gleichmäßig stetiger Funktionen.
64 3.2 Stetigkeit
1
Lemma 3 Es existiere ein ε, und es existieren Folgen {uj } und {v j } aus U mit kuj −v j k ≤ j
und |f (uj ) − f (v j )| ≥ ε. Dann ist f nicht gleichmäßig stetig auf U .
Beweis: Wir nehmen an, f ist gleichmäßig stetig. Es sei ε wie im Lemma angegeben. Nach
Definition 5 existiert ein δ > 0, so daß |f (u) − f (v)| ≤ 2ε für kv − v 0 k ≤ δ. Wir wählen ein j
mit 1j ≤ δ. Es folgt, daß kuj − v j | ≤ δ und |f (uj ) − f (v j )| ≥ ε. Das ist aber ein Widerspruch.
2
Beispiele:
Die Ursache für die nicht gleichmäßige Stetigket ist „starkes Wachstum“für x −→ ∞.
(2) Ebenso ist f (x) = exp(x) nicht gleichmäßig stetig auf (1, ∞).
Es gilt:
1 1
exp j + − exp(j) = exp(j) exp − 1
j j
1 1
= exp(j) + + ...
j 2j 2
1 1 1
= exp(j) 1 + + . . . ≥ exp(j)
j 2j j
2
1 j j j
= +1+ + + ... ≥ −→ ∞.
j 2 3! 2
1
(3) Die Funktion f (x) = sin ist nicht gleichmäßig stetig auf (0, 1).
x
Wir wählen
1 1
xj = und x0j =
2πj 2πj + π2
Es gilt: |f (xj ) − f (x0j )| = 1 und
1 π 1
|xj − x0j | = π ≤ −→ 0
2πj(2πj + 2 ) 2 8πj 2
Die Ursache liegt hier in der „starken Oszillation “auf einem endlichen Intervall.
Beweis: Wir nehmen an, f ist nicht gleichmäßig stetig auf U . Dann existiert ein ε > 0, und
für alle δ = 1j existieren uj , v j mit
1
kuj − v j k ≤ und kf (uj ) − f (v j )k ≥ ε.
j
Da U kompakt ist, existiert eine Teilfolge {ujk } mit ujk −→ u ∈ U . Daraus folgt: v jk −→ u.
Wegen der Stetigkeit von f gilt
und damit
kf (ujk ) − f (v jk )k −→ 0.
Das ist aber ein Widerspruch. 2
66 3.3 Elementare Funktionen
∞
X zj z n
exp(z) := = lim 1+
j=0
j! n→∞ n
exp(z + w) = exp(z) exp(w)
m m m
exp = en, rational
n n
Außerdem ist exp(x) stetig auf R, wobei
| exp(x) − exp(x0 )| ≤ c| exp(x0 )||x − x0 | für |x − x0 | ≤ 1
Definition 1 Sei x ∈ R. ex := exp(x) heißt Exponentialfunktion.
Satz 1 ex ist streng monoton wachsend und stetig von R auf (0, ∞). Es gilt:
ex
x n −x
lim e = 0, lim x e = 0 lim =∞ n = 0, 1, . . .
x→−∞ x→∞ x→∞ xn
Beweis: Die Stetigkeit und Monotonie der Exponentialfunktion ist klar. Es gilt für alle x > 0
und für jedes feste n
xn+1
ex > .
(n + 1)!
Es folgt
ex x
n
> −→ ∞ für x −→ ∞
x (n + 1)!
und
1
lim ex = lim e−x = = 0.
x→−∞ x→+∞ lim ex
x→∞
Aus dem Zwischenwertsatz folgt:
ex : R −→ (0, ∞)
ist surjektiv.2
Bemerkung: Es gelten folgende Beziehungen:
ex+y = ex ey
(ex )α = eαx , α rational
1
e−x = x
e
3.3.1 Exponential– und Logarithmusfunktion 67
elog x = x, x>0
log ex = x, x∈R
Satz 2 (i) Die Funktion log : (0, ∞) −→ R ist streng monoton wachsend und stetig von
(0, ∞) auf R. Es gilt:
log xα = α log x
ax := ex log a .
68 3.3 Elementare Funktionen
Bemerkungen:
(1) Für a < 1 gilt: log a < 0 =⇒ ax streng monoton fallend.
Für a > 1 gilt: log a > 0 =⇒ ax streng monoton wachsend.
Für a = 1 gilt: ax ≡ 1.
Satz 3 (i) Die Funktionen ax und loga x sind stetig und streng monoton (fallend für a < 1,
wachsend für a > 1).
ax+y = ax ay x, y ∈ R
(ax )y = a x·y
x, y ∈ R
ax · b x = (a · b)x
x ∈ R, a, b > 0
log ax = x log a a > 0, x ∈ R
Beweis: Der Beweis folgt aus den Definitionen für ax und loga x sowie den Rechenregeln für
ex und log x.2
3.3.2 Potenzfunktionen
Definition 5 Sei x ≥ 0, α ∈ R. Wir setzen
0α := 0, falls α > 0,
α
1 1
α
lim x log x = lim log = − lim y −α log y = 0
x↓0 y→∞ y y y→∞
2
−α α
Bemerkung: Für große x gilt: x log x ≤ c und damit log x ≤ cx ∀ α.
Für kleine x gilt: |xα log x| ≤ c, also −xα log x ≤ c bzw. − log x ≤ cx−α .
Beweis:
70 3.3 Elementare Funktionen
(i) Es gilt:
x2 x4 x3 x5
ix
e = 1− + − ... + i x − + − ...
2! 4! 3! 5!
(ii) klar.
(iii)
1 i(x+y)
+ e−i(x+y)
cos(x + y) = e
2
1 ix iy
e e + e−ix e−iy
=
2
Beweis: Es gilt:
1 1 1 1 1
cos 1 = 1− + − + − +... > 0
2 4! 6! 8! 10!
| {z } | {z } | {z }
>0 >0 >0
22 24 26 28 210
cos 2 = 1 − + − + − + ...
2! 4! 6! 8! 10!
6
28
10
212
16 2 2
= 1−2+ − − + − +...
24 6! 8! 10! 12!
| {z } | {z }
>0 >0
1
= − − R mit R > 0
3
Sei x ∈ (0, 2).
x3 x5 x7
sin x = x − + − + ...
3! 2 5! 7!
x5 x2 x9 x2
x
= x 1− + 1− + 1− + ...
3! 5! 6·7 9! 10 · 11
> 0 fürx ∈ (0, 2)
3.3.3 Trigonometrische Funktionen 71
∞
X sk−1 + sk−2 t + . . . + stk−2 + tk−1
= (s − t) (−1)k+1
k=1
(2k)!
∞ 2l−2
+ . . . + t2l−2 s2l−1 + s2l−2 t + . . . + st2l−2 + t2l−1
X s
= (s − t)
(2(2l − 1))! −
| {z }
l=1 |
(2(2l))!
>0 {z }
al
(4l−2)!
Es gilt:
s2l−1 + s2l−2 t + . . . + st2l−2 + t2l−1 = s(al ) + t · t2l−2 ≤ (s + t)al ≤ 8al
Es folgt für jeden Summanden
h i al 8al
... ≥ − >0 l = 1, 2, . . . ,
(4l − 2)! (4l)!
und somit ist
cos u − cos v > 0.
Damit ist cos x streng monoton fallend auf [0, 2], und nach dem Zwischenwertsatz hat cos x
genau eine Nullstelle in (1, 2), da cos 1 > 0 und cos 2 < 0.2
π
Definition 7 Wir setzen 2
:= x0 , wobei x0 Nullstelle von cos x in (1, 2) ist.
Wertetabelle
cos 0 = 1 √ sin 0 = 0 √
cos π4 = 12 2 sin π4 = 12 2
cos π2 = 0 sin π2 = 1
cos π = −1 sin π = 0
cos 32 π = 0 sin 23 π = −1
cos 2π = 1 sin 2π = 0
72 3.3 Elementare Funktionen
(ii) cos ist eine streng monoton fallende Funktion von [0, π] auf [−1, 1].
sin ist eine streng monoton wachsende Funktion von [− π2 , π2 ] auf [−1, 1].
Beweis: Der Beweis erfolgt unter Anwendung der Additionstheoreme, der speziellen Werte
aus der Wertetabelle und des Lemmas.2
Definition 9
sin x π
tan x := , x ∈ R, x 6= 2kπ + , k∈Z
cos x 2
cos x
cot x := , x ∈ R, x 6= kπ, k ∈ Z
sin x
z = x + iy.
Bemerkungen:
(1) eiϕ = ei(ϕ+2kπ) , k ∈ Z (Periodizität)
Definition 11 Sei w ∈ C, w 6= 0, n ∈ N.
z ∈ C heißt n–te Wurzel aus w :⇐⇒ z n = w.
Satz 7 Es gibt genau n verschiedene n–te Wurzeln aus w = |w|eiψ , ψ ∈ [0, 2π):
p
zk = n |w|eiϕk mit nϕk = ψ + 2kπ k = 0, . . . , n − 1
Bemerkung: Einheitswurzeln:
2π
zn = 1 =⇒ zk = ei n k , k = 0, . . . , n − 1
Kapitel 4
Differentialrechnung
4.1 Differentiation
4.1.1 Definitionen und Beispiele
Wir betrachten f : (a, b) −→ R mit −∞ < a < b < ∞.
(iii) f : [a, b] −→ R
f (x0 + h) − f (x0 )
f+0 (x0 ) = lim , x0 ∈ [a, b), a > −∞ heißt rechsseitige Ableitung.
h↓0 h
f (x0 + h) − f (x0 )
f−0 (x0 ) = lim , x0 ∈ (a, b], b < ∞ heißt linksseitige Ableitung.
h↑0 h
f (x0 + h) − f (x0 ) f (x) − f (x0 )
Bemerkung: Es gilt: lim = lim .
h→0 h x→x0 x − x0
Geometrische Interpretation
Es sei γ = {(x, f (x) : x ∈ (a, b))} eine Kurve in R2 und f differenzierbar in (x0 ).
75
76 KAPITEL 4. DIFFERENTIALRECHNUNG
Daraus folgt
f (x) − f (x0 )
ε(x) = − f 0 (x0 ) −→ 0 (x −→ x0 ),
x − x0
und damit
f (x) − g(x)
x − x0 −→ 0. (4.1)
Lemma 1 Ist f differenzierbar in x0 , so ist g(x) die einzige Gerade durch (x0 , f (x0 )), so
daß (4.1) gilt.
Satz 2 Es gilt:
(i) f ist differenzierbar in x0 ∈ (a, b) ⇐⇒ ∃ f+0 (x0 ), f−0 (x0 ) und f+0 (x0 ) = f−0 (x0 ).
|f (x) − f (x0 )|
≤ c.
|x − x0 |
Beispiele:
(1) f (x) = xn , n ∈ N.
xn − xn0 = (x − x0 )(xn−1 + xn−2 x0 + . . . + xxn−2
0 + xn−1
0 )
xn − xn0
−→ xn−1
0 + xn−2
0 x0 + . . . + x0 x0n−2 + x0n−1 = nx0n−1 für x −→ x0
x − x0
(xn )0 = nxn−1
(2) (ex )0 = ex
Beweis: Aus Satz 2.3.5/8(iv) wissen wir
1
|ez − (1 + z)| ≤ |z|2 für |z| < .
2
Daraus folgt
z
e − ez0
z−z
z
z
e 0 − 1
z − z0 − e = |e | z − z0 − 1
0 0
1
= |ez0 | |ez−z0 − (1 + (z − z0 ))|
|z − z0 |
1
≤ |ez0 ||z − z0 | für |z − z0 | < .
2
Nach Satz 3.3.1/1 gilt:
ex − ex0 ex−x0
− ex0 = ex0 − 1 −→ 0 (x −→ x0 )
x − x0 x − x0
(4) f (x) = |x|. f 0 (0) existiert nicht, da f+0 = 1 und f−0 = −1.
78 KAPITEL 4. DIFFERENTIALRECHNUNG
4.1.2 Differentiationsregeln
Satz 3 Seien f, g differenzierbar in x0 .
(i) Für λ, µ ∈ R gilt: (λf + µg)0 (x0 ) = λf 0 (x0 ) + µg 0 (x0 ).
g(x
(iii) Für 0 ) 6= 0 gilt die Quotientenregel:
0
f f 0 (x0 )g(x0 ) − f (x0 )g 0 (x0 )
(x0 ) = .
g [g(x0 )]2
f g
(iv) Sei (a, b) −→ R(f ) ⊂ D(g) −→ R und y0 = f (x0 ). Es existieren f 0 (x0 ) und g 0 (y0 ).
Dann gilt die Kettenregel:
0
g(f ) (x0 ) = g 0 f (x0 ) · f 0 (x0 ).
Beweis:
(i) Diese Behauptung kann man einfach nachrechnen.
(ii) Es gilt:
f (x)g(x) − f (x0 )g(x0 ) f (x)g(x) − f (x0 )g(x) f (x0 )g(x) − f (x0 )g(x0 )
= +
x − x0 x − x0 x − x0
0
1
(iii) Wir berechnen g
:
1 1
g(x)
− g(x0 ) 1 g(x0 ) − g(x) −g 0 (x0 )
= −→
x − x0 g(x)g(x0 ) x − x0 [g(x0 )]2
Wenden wir nun noch die Produktregel an, so folgt die Behauptung.
(iv) Es sei h(x) := g(f (x)), y0 = f (x0 ), y = f (x). Da f stetig in x0 , gilt für x −→ x0 :
y −→ y0 . Daraus folgt:
h(x) − h(x0 ) − g 0 (y0 )f 0 (x0 )(x − x0 )
x − x0
g(y) − g(y0 ) − g 0 (y0 )(y − y0 ) (y − y0 ) g 0 (y0 )[(y − y0 ) − f 0 (x0 )(x − x0 )]
= · +
y − y0 (x − x0 ) x − x0
y y y
0
0 f (x0 ) 0
4.1. DIFFERENTIATION 79
1 π
(1) (tan x)0 = = 1 + tan2 x, x 6= + kπ, k ∈ Z.
cos2 x 2
Beweis: Es gilt:
0
sin2 x + cos2 x
sin x 1 2 1
= (cos x − (sin x)(− sin x)) = = = 1 + tan2 x
cos x cos2 x cos2 x cos2 x
| {z }
=1
1
(2) (cot x)0 = − , x 6= kπ.
sin2 x
Beweis: Es gilt analog:
cos x 0 1 1
2 2
= 2 (−(sin x) − cos x) = − = −(1 + cot2 x)
sin x sin x sin2 x
1
(f −1 )0 (y) = für alle y ∈ R(f ).
f 0 (f −1 (y))
80 KAPITEL 4. DIFFERENTIALRECHNUNG
Beweis: 1. Schritt: O.B.d.A. sei f 0 (x) > 0 auf (a, b). Wir nehmen an, f ist monoton fallend,
d.h. es existieren x1 , x2 ∈ (a, b) mit x1 < x2 und f (x1 ) ≥ f (x2 ). f ist stetig auf [x1 , x2 ]. Nach
dem Satz vom Maximum (Satz 3.1.3/4) existiert ein x0 ∈ [x1 , x2 ] mit f (x0 ) = max f (x).
x∈[x1 ,x2 ]
Außerdem gilt:
Das ist ein Widerspruch zur Maximalität von f (x0 ), und damit ist f streng monoton wach-
send, und es existiert f −1 und ist stetig.
2. Schritt: R(f ) = (c, d) ist ein offenes Intervall. Es sei y = f (x), y0 ∈ (c, d) mit y0 = f (x0 ).
Aus y −→ y0 folgt x −→ x0 , da f −1 stetig ist. Es gilt:
f −1 (y) − f −1 (y0 ) x − x0 1 1 1
= = −→ =
y − y0 f (x) − f (x0 ) f (x)−f (x0 ) f 0 (x 0) f 0 (f −1 (y 0 ))
x−x0
Beispiele:
(1) (log x)0 = x1 , x > 0.
Beweis: Wir betrachten f (x) = ex . Die Umkehrfunktion ist f −1 (y) = log y, und es gilt:
f 0 (x) > 0 auf R. Wir wenden nun Satz 4 an und erhalten
1 1 1
(log y)0 = (f −1 )0 (y) = x
= log y = .
e e y
4.1. DIFFERENTIATION 81
1
(4) (arcsin x)0 = √ , x ∈ (−1, 1)
1 − x2
1
(arccos x)0 = − √
1 − x2
Beweis: sin(arcsin x) = x. Daraus folgt:
1
(5) (arctan x)0 =
1 + x2
1
(arccot x)0 = −
1 + x2
Beweis: Sei y = tan x. Dann gilt:
1 1 1
(arctan y)0 = 0
= cos2 x = 2
= .
(tan x) 1 + tan x 1 + y2
Analog erhalten wir:
1 1
(arccot x)0 = 2
=− .
−(1 + cot x) 1 + y2
Bemerkung: Es gibt Funktionen, die stetig, aber nirgends differenzierbar sind. Ist f diffe-
renzierbar, so folgt daraus nicht, daß die Ableitung f 0 stetig ist.
82 KAPITEL 4. DIFFERENTIALRECHNUNG
Lemma 1 Sei f differenzierbar in x0 ∈ (a, b). Hat f ein lokales Maximum oder Minimum
in x0 , so gilt (notwendige Bedingung): f 0 (x0 ) = 0.
Satz 1 (Satz von Rolle) Es sei f stetig auf [a, b] sowie differenzierbar auf (a, b), wobei
−∞ < a < b < ∞, und es gelte: f (a) = f (b) = 0. Dann existiert ein x0 ∈ (a, b) mit
f 0 (x0 ) = 0.
Satz 2 (Mittelwertsätze) (i) f, g seien stetig auf [a, b], differenzierbar auf (a, b), und
sei g 0 (x) 6= 0 in (a, b). Dann existiert ein ξ ∈ (a, b) mit
(ii) Mittelwertsatz von Lagrange: Sei f stetig auf [a, b], differenzierbar auf (a, b).
Dann existiert ein ξ ∈ (a, b) mit
f (b) − f (a)
= f 0 (ξ).
b−a
4.2. SÄTZE ÜBER DIFFERENZIERBARE FUNKTIONEN 83
Beweis:
(i) g(b) − g(a) 6= 0, denn sonst gäbe es nach Satz 1 ein x0 ∈ (a, b) mit g 0 (x0 ) = 0. Wir
setzen
f (b) − f (a)
F (x) := f (x) − f (a) − [g(x) − g(a)] für x ∈ (a, b).
g(b) − g(a)
F ist stetig auf [a, b], differenzierbar auf (a, b) und F (a) = F (b) = 0. Aus Satz 1 folgt,
es existiert ein ξ ∈ (a, b) mit F 0 (ξ) = 0. Damit gilt:
f (b) − f (a) 0
F 0 (ξ) = f 0 (ξ) − g (ξ) = 0.
g(b) − g(a)
Bemerkung: Der Mittelwertsatz kann auch so formuliert werden: Seien x, x0 ∈ (a, b) und f
differenzierbar in (a, b). Dann gilt:
f (x) − f (x0 )
= f 0 (ξ) = f 0 (x0 + ϑ(x − x0 )) mit 0 < ϑ < 1
x − x0
und
f (x) = f (x0 ) + f 0 (x0 + ϑ(x − x0 ))(x − x0 ).
Folgerung 1 Sei f stetig auf [a, b], differenzierbar auf (a, b), und es gelte: f 0 (x) ≡ 0. Dann
ist f konstant.
f (x) − f (x0 )
= 0 für alle x ∈ (a, b),
x − x0
und damit ist
f (x) = f (x0 ) für alle x.
2
Beispiel: Wir betrachten f (x) = x2 . Es gilt:
x2 − x20 1
= x + x0 = 2 (x0 + (x − x0 )),
x − x0 | 2{z }
=ξ
f (x)
lim = k.
x↓a g(x)
Analoge Aussagen gelten für x ↑ b, x → x0 ∈ (a, b).
Beweis: Wir setzen f (a) := g(a) := 0. Damit sind f, g stetig auf [a, a + δ]. Aus dem Mittel-
wertsatz (Satz 4.2.1/2(i)) folgt
f (x) f (x) − f (a) f 0 (ξ)
= = 0 .
g(x) g(x) − g(a) g (ξ)
Für x −→ a folgt ξ −→ a, und es gilt
f (x)
−→ k.
g(x)
2
Beispiele:
xα − 1 αxα−1
(1) α ∈ R. lim = lim = α.
x→1 x − 1 x→1 1
sin x cos x
(2) lim = lim = 1.
x→0 x x→0 1
xh − 1 √ 1
(3) log x = lim bzw. log x = lim n( n x − 1) (h = ).
h→0 h n→∞ n
Beweis: Sei x > 0.
d
xh − 1 dh
(xh − 1) (log x)xh
lim = lim d
= lim = log x.
h→0 h h→0
dh
(h) h→0 1
Beweis: 1.Fall: k < ∞. Sei ε > 0 vorgegeben. Dann existiert ein δ > 0, so daß für alle
x ∈ (a, a + δ) 0
f (x)
g 0 (x) − k ≤ ε.
Wir setzen x0 := a + δ. Nach Satz 4.2.1/2(i) gilt für a < x < x0
f (x) − f (x0 ) f 0 (ξ)
= 0 mit x < ξ < x0 .
g(x) − g(x0 ) g (ξ)
Es folgt
f (x) − f (x0 )
g(x) − g(x0 ) − k ≤ ε für alle x ∈ (a, x0 ). (4.2)
2.Fall: k = ∞. Es gilt
g 0 (x)
−→ 0.
f 0 (x)
Aus dem 1. Schritt folgt
g(x) f (x)
−→ 0 und damit −→ ∞.
f (x) g(x)
2
Bemerkung: Die meisten Fälle können auf den ursprünglichen Fall zurückgeführt werden.
f (x) 0ı
(1) „0 · ∞“: f (x) · g(x) = 1 ∼
g(x)
„0
1 1
1 1 g(x)
− f (x) 0ı
(2) „∞ − ∞“: f (x) − g(x) = 1 − 1 = 1 ∼
f (x) g(x) f (x)g(x)
„0
86 KAPITEL 4. DIFFERENTIALRECHNUNG
Beispiele:
1
log x x 1
(1) lim = lim = lim = 0, ∀ α > 0.
x→∞ xα x→∞ αxα−1 x→∞ αxα
1
ln x x
(2) lim x ln x = lim 1 = lim = − lim x = 0.
x↓0 x↓0
x
x↓0 − x12 x↓0
Schreibweise: (1) log x = o (xα ) für x −→ ∞ und für alle α > 0 („klein o“).
Beweis: Wir führen den Beweis durch vollständige Induktion. Für n = 1 ist das die bekannte
Produktregel. Wir nehmen an, die Aussage ist für n richtig. Dann gilt:
n
!0
X n
(f · g)(n+1) (x) = f (n−j) g (j) (x)
j=0
j
n
X n
f (n+1−j) g (j) + f (n−j) g (j+1)
=
j=0
j
n n+1
X n (n+1−j) (j) X n
= f g + f (n+1−k) g (k)
j=0
j k=1
k + 1
n
X
(n+1) (0) n n
(n+1−j) (j)
= f g +
+ f g + f (0) g (n+1)
j=1 | j j−1
{z }
n+1
( j )
4.3. HÖHERE ABLEITUNGEN 87
in einer Umgebung von x0 mit ε(x) −→ 0 (x −→ x0 ). Wir wissen, dies ist richtig für n = 1,
falls f 0 (x0 ) existiert. Wir nehmen nun an, f sei n–mal differenzierbar in einer Umgebung von
x0 , und es gelte (4.3). Setzen wir
f (x) = an (x − x0 )n + . . . + a1 (x − x0 ) + a0 + ε(x)(x − x0 )n ,
so gilt:
f (x0 ) = a0 ,
und
Für x −→ x0 folgt
f 00 (x0 ) = 2 · 1 · a2
und schließlich
f (j) (x0 ) = j!aj j = 0, 1, . . . n.
Wir können also für f schreiben:
n
X f (j) (x0 )
f (x) = (x − x0 )j +ε(x)(x − x0 )n
j=0
j!
| {z }
Taylor–Polynom
Satz 1 (Satz von Taylor) Sei f (n + 1)mal differenzierbar in (x0 − δ, x0 + δ). Dann exi-
stiert für jedes x ∈ (x0 − δ, x0 + δ) ein ϑ = ϑ(x0 , x) mit 0 < ϑ < 1, so daß gilt:
und
f (n+1) (x0 ) = R(n+1) (x0 ).
Wir setzen
ϕ(x) := (x − x0 )n+1 .
Für ϕ gilt:
(j) 0 j = 0, . . . , n
ϕ (x0 ) = .
(n + 1)! j = n + 1
Wir verwenden den Mittelwertsatz 4.2.1/2 mit f (x) = R(j) (x) und g(x) = ϕ(j) (x) und
erhalten
R(x) R(x) − R(x0 ) R0 (x1 )
= = 0 mit x0 < x1 < x (o.B.d.A. x0 < x)
ϕ(x) ϕ(x) − ϕ(x0 ) ϕ (x1 )
R0 (x1 ) − R0 (x0 ) R00 (x2 )
= = mit x0 < x2 < x
ϕ0 (x1 ) − ϕ0 (x0 ) ϕ00 (x2 )
..
.
R(n) (xn ) − R(n) (x0 ) R(n+1) (xn+1 )
= = (n+1) mit x0 < xn+1 < x
ϕ(n) (xn ) − ϕ(n) (x0 ) ϕ (xn+1 )
f (n+1) (xn+1 )
=
(n + 1)!
2
ξ
e
Beispiel: f (x) = ex . Rn (x) = −→ 0.
(n + 1)!
Satz 2 f sei in (x0 −δ, x0 +δ) n–mal differenzierbar. Dann gibt es eine in x0 stetige Funktion
ε(x) mit lim ε(x) = 0 und
x→x0
n
X f (j) (x0 )
f (x) = (x − x0 )j +ε(x)(x − x0 )n ∀ x ∈ (x0 − δ, x0 + δ).
j=0
j!
| {z }
Qn (x)
ε1 (ξ)(ξ − x0 )
h(x) = (x − x0 )n−1
(n − 1)!
und schließlich
ε1 (ξ)
|h(x)| ≤ |x − x0 |n
(n − 1)!
| {z }
−→ 0 für x −→ x0 , da |ξ − x0 | < |x − x0 | 2.
Bemerkung: Es gilt:
f (x) = Qn (x) + o ((x − x0 )n ).
Denn setzen wir
r(x) := ε(x)(x − x0 )n ,
so folgt:
r(x)
−→ 0.
(x − x0 )n
4.3.2 Konvexität
Definition 2 (i) f heißt konvex (von unten) auf (a, b) :⇐⇒ Für alle x1 , x2 ∈ (a, b), für
alle α, β mit 0 < α, β < 1 und α + β = 1 gilt:
(ii) f heißt konkav (von unten) auf (a, b) :⇐⇒ Für alle x1 , x2 ∈ (a, b), für alle α, β mit
0 < α, β < 1 und α + β = 1 gilt:
(i) Ist f 00 (x) > 0 auf (a, b), so ist f auf (a, b) konvex.
(ii) Ist f 00 (x) < 0 auf (a, b), so ist f auf (a, b) konkav.
90 KAPITEL 4. DIFFERENTIALRECHNUNG
Beweis: f 00 (x) > 0 auf (a, b). Nach Satz 4.1.2/2 ist f 0 (x) dann streng monoton wachsend. Es
sei x = αx1 + βx2 mit 0 < α, β < 1, x1 < x2 und α + β = 1. Dann gilt:
x2 − x x − x1
α= und β = .
x2 − x1 x2 − x1
Es folgt
[f (x) − f (x1 )](x2 − x) < [f (x2 ) − f (x)](x − x1 ).
Daraus ergibt sich
Beispiele:
Satz 4 f : (a, b) −→ R sei n–mal differenzierbar in einer Umgebung von x0 ∈ (a, b). Es sei
n ≥ 2.
4.3. HÖHERE ABLEITUNGEN 91
(i) Es gelte
f 0 (x0 ) = f 00 (x0 ) = . . . = f (n−1) (x0 ) = 0, f (n) (x0 ) 6= 0.
Ist n eine gerade Zahl, so besitzt f in x0 ein lokales Maximum, falls gilt f (n) (x0 ) < 0,
und ein lokales Minimum, falls gilt f (n) (x0 ) > 0.
(ii) Es gelte
f 00 (x0 ) = . . . = f (n−1) (x0 ) = 0, f (n) (x0 ) 6= 0.
Ist n ungerade, so besitzt f in x0 einen Wendepunkt (einen horizontalen Wendepunkt,
falls zusätzlich f 0 (x0 ) = 0).
Beweis:
Daraus folgt
f (n) (x0 )
f (x) − f (x0 ) = + ε(x) (x − x0 )n .
n!
(x − x0 )n > 0, falls n gerade ist.
[. . .] > 0 für |x − x0 | < δ, falls f (n) (x0 ) > 0. Dann hat f ein Minimum.
[. . .] < 0 für |x − x0 | < δ, falls f (n) (x0 ) < 0. Dann hat f ein Maximum.
(ii) Sei n = 3, 5, . . . ungerade. Nach Satz 4.3.1/2, angewendet auf f 00 (x), gilt:
(n)
00 f (x0 )
f (x) = + ε(x) (x − x0 )n−2 mit ε(x) −→ 0 (x −→ x0 ).
n!
Wir erhalten
2
Bemerkung:
92 KAPITEL 4. DIFFERENTIALRECHNUNG
Integralrechnung
Es sei f (x) : [a, b] −→ R beschränkt, wobei a = x0 < x1 < x2 < . . . < xn = b. Wir setzen
Ij := [xj−1 , xj ], für j = 1, . . . n.
n
X
S(f, Z) := mj (xj − xj−1 ) heißt Untersumme.
j=1
Xn
S(f, Z) := Mj (xj − xj−1 ) heißt Obersumme.
j=1
Eigenschaften
(1) Untersummen und Obersummen sind beschränkt. Für alle Zerlegungen Z gilt:
m(b − a) ≤ S(f, Z) ≤ M (b − a),
93
94 KAPITEL 5. INTEGRALRECHNUNG
(2) Seien Z = {Ij } und Z 0 = {Il0 } Zerlegungen. Ist Z 0 eine Verfeinerung von Z, d.h. für
jedes Intervall Il0 ∈ Z 0 existiert ein Ij ∈ Z mit Il0 ⊂ Ij , so gilt:
S(f, Z) ≤ S(f, Z 0 ),
S(f, Z) ≤ S(f, Z ∗ ).
Bemerkungen:
Rb Rb
(1) später: f= f (x) dx
a a
(2) Die Definition ist wegen der Eigenschaft (1) der Unter– und Obersummen sinnvoll.
Rb
(5) f (x) = c = const =⇒ ∃ f = c(b − a).
a
Rb
c x = x0
f (x) = =⇒ ∃ f = 0.
0 sonst a
Zb
1 1 ε
Z , so daß S(f, Z ) − f ≤ ,
2
a
Zb
ε
Z 2, so daß − S(f, Z 2 ) + f ≤ .
2
a
a a
J − J ≤ S(f, Z) − S(f, Z) ≤ ε.
Rb Rb
(ii) Ist f (x) ≤ g(x) auf [a, b], so folgt: f (x) ≤ g(x).
a a
Beweis:
96 KAPITEL 5. INTEGRALRECHNUNG
Zb Zb
J(f + g) ≤ S(f, Z) + S(g, Z) ≤ f+ g+ε
a a
Zb Zb
f+ g ≤ ε + S(f, Z) + S(g, Z) ≤ ε + J(f + g)
a a
Daraus folgt
Zb
f ≤ S(g, Z) für alle Z.
a
Zb Zb
f (x) ≤ g(x).
a a
Zb Zb
f ≤ |f |.
a a
Beweis: Sei I ⊂ [a, b] ein beliebiges Intervall mit x, y ∈ I. Aus der Dreiecksungleichung folgt
und damit
|f (x)| ≤ c + |f (y)| für alle x, y ∈ I.
5.1. DAS RIEMANNSCHE INTEGRAL 97
Dann gilt
und damit
Zb Zb
f ≤ |f |.
a a
2
Satz 3 Sei f beschränkt auf [a, b] und c ∈ (a, b). Dann gilt:
Rb Rc Rb
Es existiert f ⇐⇒ es existieren f und f .
a a c
Rb Rc Rb
Dabei ist f= f+ f.
a a c
Beweis: 1. Schritt: Es sei ε > 0. Dann existiert nach Lemma 5.1.1/1 eine Zerlegung Z von
[a, b] mit
S(f, Z) − S(f, Z) ≤ ε.
Wir wählen eine Verfeinerung Z 0 von Z, die c als Zerlegungspunkt enthält. Dann gilt
S(f, Z 0 ) − S(f, Z 0 ) ≤ ε
und
Z 0 = Z 1 ∪ Z 2,
98 KAPITEL 5. INTEGRALRECHNUNG
wobei Z 1 eine Zerlegung von [a, c] und Z 2 eine Zerlegung von [c, b] ist. Daraus folgt:
[S(f, Z 1 ) − S(f, Z 1 )] + [S(f, Z 2 ) − S(f, Z 2 )] = S(f, Z 0 ) − S(f, Z 0 )
≤ S(f, Z) − S(f, Z) ≤ ε,
Zc Zb
und damit existieren nach Lemma 5.1.1/1 die Integrale f und f.
a c
1 2
2. Schritt: „ ⇐= ı. Sei ε > 0 und seien Z und Z Zerlegungen der Intervalle [a, c] bzw. [c, b]
mit
ε
S(f, Z i ) − S(f, Z i ) ≤ für i = 1, 2.
2
Dann ist Z = Z 1 ∪ Z 2 eine Zerlegung von [a, b], und es gilt:
S(f, Z) − S(f, Z) ≤ ε.
Zb
Die Existenz von f folgt wiederum aus Lemma 5.1.1/1.
a
3. Schritt: Es sei ε > 0 beliebig. Dann gilt für eine passende Zerlegung Z und eine Verfeine-
rung Z 0 von Z mit c als Zerlegungspunkt und Z 0 = Z 1 ∪ Z 2 :
Zb Zc Zb
f ≤ S(f, Z) + ε ≤ S(f, Z 0 ) + ε = S(f, Z 1 ) + S(f, Z 2 ) + ε ≤ f+ f +ε
a a c
Für ε −→ 0 folgt
Zb Zc Zb
f≤ f+ f.
a a c
Analog erhalten wir
Zc Zb Zb
1 2
f+ f ≤ S(f, Z ) + S(f, Z ) + ε = S(f, Z) + ε ≤ f + ε,
a c a
wobei Z 1 , Z 2 Zerlegungen von [a, c] und [c, b] mit Z = Z 1 ∪ Z 2 sind. Für ε −→ 0 folgt
Zc Zb Zb
f+ f≤ f.
a c a
Also gilt:
Zb Zc Zb
f= f+ f.
a a c
5.1. DAS RIEMANNSCHE INTEGRAL 99
2
Rc Ra
Bemerkung: Sei c < a. Wir setzen f := − f . Falls die Integrale existieren, gilt für alle
a c
c ∈ R:
Zb Zc Zb
f= f+ f.
a a c
Da
Zxi
g = 0,
xi−1
Zxi
ist noch zeigen, es existiert f˜. Da f˜ auf [xi−1 , xi ] stetig ist, ist f˜ gleichmäßig stetig auf
xi−1
[xi−1 , xi ] nach Satz 3.1.4/6. D.h. es existiert ein δ > 0, so daß für |x − y| ≤ δ
ε
f˜(x) − f˜(y) ≤ .
∆xi
100 KAPITEL 5. INTEGRALRECHNUNG
Zxi
Damit existiert f˜ nach Lemma 5.1.1/1.2
xi−1
Beweis: Es gilt:
Zb
(inf f )(b − a) ≤ f ≤ (sup f )(b − a).
[a,b] [a,b]
a
Nach dem Zwischenwertsatz (Satz 3.2.2/1) gibt es ein ξ ∈ (a, b) mit
Zb
1
f (ξ) = f.
b−a
a
2
5.2. STAMMFUNKTIONEN 101
5.2 Stammfunktionen
5.2.1 Hauptsatz der Differential– und Integralrechnung
Aus Kapitel 3 wissen wir:
• f : [a, b] −→ R ist Lipschitz–stetig :⇐⇒ ∃ L > 0, so daß für alle x, y ∈ [a, b] gilt:
Bemerkung: Ist f stetig auf [a, b], differenzierbar in (a, b) und |f 0 (x)| ≤ L, dann ist f
Lipschitz–stetig.
Beweis: Wir wenden den Mittelwertsatz der Differentialrechnung (Satz 4.2.1/2) an. O.B.d.A.
sei x < y. Dann folgt:
f (x) − f (y) 0
x − y = |f (ξ)| ≤ L, x < ξ < y.
(ii) Sei f : [a, b] −→ R stetig. Dann ist F (x) differenzierbar auf (a, b) mit F 0 (x) = f (x)
auf (a, b).
Zx2 Zx2
|F (x2 ) − F (x1 )| = f ≤ |f |,
x1 x1
nach Satz 5.1.2/1, da f auf [a, b] beschränkt ist. Also ist F (x) Lipschitz–stetig.
2. Schritt: Es gilt:
Zx Zx Zx
F (x) − F (x0 ) = f= [f − f (x0 )] + f (x0 )
x0 x0 x0
Zx
= f (x0 )(x − x0 ) + [f − f (x0 )].
x0
Daraus folgt
Zx
F (x) − F (x0 ) 1
− f (x0 ) ≤ |f − f (x0 )| · ≤ ε,
x − x0 |x − x0 |
x0
da
|f − f (x0 )| ≤ ε für |x − x0 | ≤ δ
wegen der gleichmäßigen Stetigkeit.2
5.2. STAMMFUNKTIONEN 103
Beispiele:
1 x ∈ [−1, 0]
(1) f (x) =
−1 x ∈ (0, 1]
(2) Es existieren f+0 (a), f−0 (b).
Bemerkungen:
(1) Nach Satz 1 existiert Stammfunktion F (x).
(2) Die Stammfunktion ist bis auf eine additive Konstante eindeutig bestimmt, d.h. sind
g1 und g2 Stammfunktionen von f , so existiert ein c, so daß g1 (x) = g2 (x) + c für alle
x.
Bemerkung: Leibniz–Formalismus
dF
Sei F Stammfunktion von f . Wir setzen dF = f, dF = dx.
dx
Zb Zb Z
f dx = dF = F (b) − F (a), dF = F
a a
5.2.2 Grundintegrale
xα+1
Z
(1) xα dx = + c, α 6= −1 (Intervalle beachten!).
α+1
Z
(2) x−1 dx = log x auf (0, ∞).
Z
x−1 dx = − log(−x) auf (−∞, 0).
Z
(3) ex dx = ex .
Z
(4) sin x dx = − cos x.
Z
(5) cos x dx = sin x.
Z
1 π
(6) dx = tan x, x 6= kπ + .
cos2 x 2
Z
1
(7) dx = − cot x, x 6= kπ.
sin2 x
Z
1
(8) √ dx = arcsin x auf (−1, 1).
1 − x2
Z
1 arctan x
(9) dx =
1+x 2 arccot x
Z
dx √
(10) √ = log(x + x2 + 1).
x2 + 1
Z
dx √
(11) √ = log |x + x2 − 1|, |x| > 1.
x2 − 1
Z
dx 1 1 + x
, |x| =
(12) = log 6 1.
1 − x2 2 1 − x
Bemerkungen:
(1) Die Grundintegrale (10) und (11) lassen sich auch wie folgt schreiben: Zunächst defi-
nieren wir zwei neue Funktionen.
ex + e−x
cosh x := Cosinus hyperbolicus
2
e − e−x
x
sinh x := Sinus hyperbolicus.
2
5.2. STAMMFUNKTIONEN 105
Es gilt:
1
(arcosh x)0 = √ x ∈ [1, ∞),
x2 − 1
1
(arsinh x)0 = √
x2 + 1
Wir erhalten schließlich:
Z
dx
(10) √ = arsinh x.
x2 + 1
Z
dx arcosh x auf [1, ∞)
(11) √ =
2
x −1 −arcosh (−x) auf (−∞, −1).
(2) Stammfunktionen lassen sich nicht immer durch elementare Funktionen beschreiben.
Z Z Z Z Z
−x2 cos x 2 sin x dx
Beispiele: e , dx, cos x dx, dx .
x x log x
Satz 3 (Partielle Integration) Seien u, u0 , v, v 0 stetig auf [a, b]. Dann gilt:
Z Z
u v dx = u · v − u · v 0 dx
0
Zb b Z b
u v dx = u · v − u · v 0 dx
0
bzw.
a
a a
Zb
= [u(b)v(b) − u(a)v(a)] − u · v 0 dx.
a
R R
Formal: du · v = u · v − udv.
106 KAPITEL 5. INTEGRALRECHNUNG
(u · v)0 = u · v 0 + u0 · v
Daraus folgt: Z Z
0
u·v = u · v dx + u0 · v
2
Beispiel:
Z1 1 Z1
x
1 · log(1 + x) dx = x log(1 + x) − dx
|{z} | {z } 0 1+x
0 v0 u 0
1
Z Z1
dx
= log 2 − 1 dx −
1+x
0 0
1
= log 2 − 1 + log(1 + x) = −1 + log 4
0
Z Z
log x = x log x − 1 dx = x log x − x.
Bemerkung: Partielle Integration führt zum Erfolg bei Integralen des Typs:
R
(1) P (x)ex dx, P (x) Polynom.
R
(2) P (x) log x dx.
R R
(3) cos ax ebx dx, sin ax ebx dx.
R R
(4) P (x) cos x dx, P (x) sin x dx.
sin x − cos x x
Z
Beispiel: sin xex dx = e .
2
Eine Anwendung der partiellen Integration ist der Taylorsche Satz mit Integralrestglied:
Satz 4 f sei (m + 1)mal stetig differenzierbar in (a, b), und seien x0 , x ∈ (a, b) mit x0 < x.
Dann gilt:
m Zx
X f (j) (x0 ) j 1
f (x) = (x − x0 ) + (x − t)m f (m+1) (t) dt.
j=0
j! m!
x0
5.2. STAMMFUNKTIONEN 107
Beweis: Wir führen den Beweis durch vollständige Induktion. Für m = 1 gilt nach dem
Hauptsatz der Differential– und Integralrechnung
Zx
f (x) − f (x0 ) = f 0 (t)dt.
x0
Sei nun
m−1 Zx
X f (j) (x0 ) 1
f (x) = (x − x0 )j + (x − t)m f (m) (t) dt.
j=0
j! (m − 1)!
x0
Beweis: Es gilt:
Zx Zx
(m+1) (x − t)m (x − t)m
inf f (t) dt ≤ Rm (x, x0 ) ≤ sup f (m+1) (t) dt.
[x0 ,x] m! [x0 ,x] m!
x0 x0
Da
Zx
(x − t)m (x − x0 )m+1
dt = ,
m! (m + 1)!
x0
folgt
Rm (x, x0 )(m + 1)!
inf f (m+1) (t) ≤ ≤ sup f (m+1) (t).
[x0 ,x] (x − x0 )m+1 [x0 ,x]
Wenden wir nun den Zwischenwertsatz auf f (m+1) (t) an, so folgt die Behauptung.2
108 KAPITEL 5. INTEGRALRECHNUNG
5.2.4 Substitution
Es sei F eine Stammfunktion von f und ϕ : [a, b] −→ [c, d] eine differenzierbare Funktion
mit R(ϕ) ⊂ D(f ). Mit der Kettenregel folgt:
Man kann auch folgenden Weg einschlagen: Es sei ϕ : [a, b] −→ [c, d] eineindeutig und sei
ϕ0 (t) 6= 0 auf (a, b). Dann existiert die Umkehrfunktion t = ϕ−1 (x). Außerdem sei G(t)
Stammfunktion von f (ϕ(t))ϕ0 (t). Dann gilt nach der Kettenregel:
Wir erhalten Z Z
0
f (x) dx = f (ϕ(t))ϕ (t) dt +c
t=ϕ−1 (x)
Z Z
Formal gilt: f (x) dx = f (ϕ(t))ϕ0 (t) dt
dx
t = ϕ−1 (x), x = ϕ(t), = ϕ0 (t),
dt
und damit ist dx = ϕ0 (t)dt.
Satz 5 Sei f : [c, d] −→ R stetig und ϕ : [a, b] −→ [c, d] stetig und differenzierbar mit
ϕ(a) = c und ϕ(b) = d. Dann gilt:
Zd Zb
f (x) dx = f (ϕ(t))ϕ0 (t) dt.
c a
Daraus folgt:
Zb Zd
0
f (ϕ(t))ϕ (t) dt = F (ϕ(b)) − F (ϕ(a)) = F (d) − F (c) = f (x) dx.
a c
Folgerung 2 Es gilt:
f 0 (x)
Z
dx = log |f (x)|.
f (x)
Beispiele:
dx
(1) Halbkreis mit Radius 1: Mit der Substitution x = sin t, t ∈ [− π2 , π2 ], so daß = cos t,
dt
gilt:
π π
Z1 √ Z2 p Z2
1 − x2 dx = 1 − sin2 t cos t dt = cos2 t dt
−1 − π2 − π2
π π
Z2 Z2
1 1
= 1 dt + cos 2t dt,
2 2
− π2 − π2
da
1 + cos 2t
cos2 t = ,
2
denn
cos 2t = cos(t + t) = cos2 t − sin2 t = 2 cos2 t − 1.
Wir erhalten
Z1 √ π2
π 1 1 π
1 − x2 dx = + sin 2t = .
2 2 2 −π 2
−1 2
Bemerkungen:
110 KAPITEL 5. INTEGRALRECHNUNG
Zb Z−a
(1) f (x) dx = f (−t) dt.
a −b
Za Za
(2) Ist f gerade, so gilt: f (x) dx = 2 f (x) dx.
−a 0
Za
Ist f ungerade, so gilt: f (x) dx = 0.
−a
a+2π
Z Zπ
(3) Ist f 2π–periodisch, so gilt: = f (x) dx.
a −π
Beweis: Es gilt:
a+2π
Z Z−π Zπ a+2π
Z Zπ
f= f+ f+ f (x) dx = f,
a a −π π −π
da
a+2π
Z Za
f (x) dx = f (x) dx
π −π
mit x = t + 2π.2
(x − x1 )(x − x1 ) = x2 − (x1 + x1 ) + x1 x1
= x2 + px + q
p p2
= x+ +q− .
2 | {z 4}
>0
x2 + px + q = (x − α)2 + β 2 .
Definition 1 Seien c0 , . . . , cn ∈ C, z ∈ C, cn 6= 0.
(i) Q(z) := cn z n + . . . + c1 z + c0 heißt komplexes Polynom n–ten Grades.
Bemerkung: Wir ersetzen x durch z und fassen so reelle Polynome als komplexe Polynome
auf.
Satz 1 (Fundamentalsatz) Sei P (z) ein Polynom n–ten Grades, n = 1, 2, . . .. Dann exi-
stiert ein z0 ∈ C mit P (z0 ) = 0.
Beweis: 1. Schritt: |P (z)| besitzt ein Minimum in der offenen Menge U = {z : |z| < r}: Es
gilt !
n−1
X
P (z) = z n cn + ck z k−n .
k=1
Die Menge
U = {z : |z| ≤ r}
ist kompakt, und
α = inf |P (z)|.
z∈U
Da |P (z)| auf U stetig ist, existiert nach Satz 3.1.3/4 ein z0 ∈ U mit
Das ist dann der gesuchte Widerspruch. Wir suchen ein z1 der Form
Q(w) = 1 + bm wm + . . . + bn wn mit bm 6= 0, 1 ≤ m ≤ n.
Es gilt:
Satz 2 (i) Es sei P (z) ein komplexes Polynom n–ten Grades. Dann besitzt P (z) ein-
schließlich der Vielfachheit genau n Nullstellen. Es gilt die Darstellung:
Beweis: 1. Schritt: Nach Satz 1 existiert ein z1 ∈ C mit P (z1 ) = 0. Daraus folgt
n
X
P (z) = P (z) − P (z1 ) = cj (z j − z1j )
j=0
n
X
cj (z − z1 ) z j−1 + z j−2 z1 + . . . + zz1j−2 + z1j−1
=
j=0
= (z − z1 )Pn−1 (z)
= bn−1 z n−1 + . . . + b1 z + b0 mit bn−1 = cn 6= 0.
Wir nehmen an, P (z) hat mehr als n Nullstellen, d.h. es existiert ein z0 mit P (z0 ) = 0 und
z0 6= zj für alle j. Dann gilt:
P (z0 ) = an z0 n + . . . + a1 z0 + a0 = P (z0 ) = 0.
Dabei sind m0 und m1 eindeutig bestimmt. Setzen wir z ein, so erhalten wir die ebenfalls
eindeutige Darstellung
P (z) = (z − z0 )m0 (z − z0 )m1 Q(z)
Andererseits gilt:
P (z) = P (z) = (z − z0 )m0 (z − z0 )m1 Q(z).
Aus der Eindeutigkeit der Darstellung folgt: m0 = m1 .2
5.3.2 Partialbruchzerlegung
Z
P (x) P (x)
Gesucht ist dx mit R(x) = Q(x) rational und P, Q Polynome. O.B.d.A. sei Grad P
Q(x)
< Grad Q, sonst führen wir eine Polynomdivision durch, so daß
P P2
= P1 + mit Grad P2 < Grad Q.
Q Q
5.3. INTEGRATION RATIONALER FUNKTIONEN 115
(x − zj )(x − zj ) = x2 − zj x − zj x + zj zj
= x2 − 2αj x + αj2 + βj2
= (x − αj )2 + βj2
folgt daraus
Lemma 2 Es seien P (z) und Q(z) komplexe Polynome mit Grad P < Grad Q. Es sei
Q(z) = (z − λ)m N (z), λ ∈ C Nullstelle der Vielfachheit m, N (λ) 6= 0.
(i) Es gilt für alle z, Q(z) 6= 0:
P (z) A M (z)
= m
+ . (5.1)
Q(z) (z − λ) (z − λ)m−1 N (z)
Dabei sind A ∈ C, M (z) Polynom eindeutig bestimmt und Grad M < Grad Q − 1.
2. Schritt: Sind P, Q, λ reell, so ist N reell, und damit sind A und M ebenfalls reell.2
Satz 3 Seien P (z), Q(z) komplexe Polynome mit Grad P < Grad Q.
(ii) Seien P (z), Q(z) Polynome mit reellen Koeffizienten. Dann sind Aj,k , k = 1, . . . , mj
reell, falls zj reell ist.
Ar,k = As,k , k = 1, . . . , mr = ms , falls zr = zs .
Beweis: (5.2) folgt aus Lemma 2 durch Iteration. Damit sind die Konstanten Aj,k eindeutig
bestimmt. Haben P und Q reelle Koeffizienten, so gilt:
l mj l mj
P (z) P (z) (5.2) X X Aj,k X X Aj,k
= = k
= k
.
Q(z) Q(z) j=1 k=1
(z − zj ) j=1 k=1
(z − zj )
Da zj ∈ R, gilt zj = zj , und damit ist Aj,k = Aj,k ∈ R wegen der Eindeutigkeit der Aj,k . Aus
zr = zs folgt As,k = Ar,k ebenfalls wegen der Eindeutigkeit der Darstellung. (Satz 5.3.1/2).2
gilt
P (x) ax + b P (x) − (ax + b)
= + .
(x − λ)m (x − λ)m (x − λ)m (x − λ)m (x − λ)m (x − λ)m
Dann ist
P (x) − (ax + b) = (x − λ)(x − λ)M (x)
mit M (x) Polynom, falls
P (λ) = aλ + b,
P (λ) = aλ + b.
und a und b sind eindeutig bestimmt. Da P reell ist, sind a, b ebenfalls Lösung, also sind
a, b ∈ R, und M (x) ist reell. Außerdem gilt:
Grad M ≤ Grad P − 2.
P (λ) = aλ + b
bzw. P (λ) = aλ + b.
Satz 4 Seien P (x), Q(x) reelle Polynome mit Grad P < Grad Q.
Dabei ist P̃ (x) = P̃ (x), also ist P̃ (x) reell, und Grad P̃ ≤ 2lj − 1. Wir wenden Lemma 2
nun iterativ (lj − 1)mal an und erhalten
lj
P̃ (x) X aj,k x + bj,k
l l
= 2 2 k
.
(x − zj ) j (x − zj ) j k=1
[(x − α j ) + βj ]
2
Beispiel:
2x2 + 3 A B1 B2 a1 x + b 1 a2 x + b 2
2 2 2
= + + 2
+ 2 + 2
(x − 2)(x + 1) (x + 1) x − 2 x + 1 (x + 1) x +1 (x + 1)2
A, B1 , B2 , a1 , a2 , b1 , b2 werden durch Koeffizientenvergleich ermittelt.
(4) Sei k ∈ Z, k ≥ 2.
2(x − α)
Z Z Z
x+b 1 dx
2 2 k
dx = 2 2 k
dx + (α + b)
[(x − α) + β ] 2 [(x − α) + β ] [(x − α)2 + β 2 ]k
| {z }
Ik
1 1 1
= + Ik
2 −k + 1 [(x − α) + β 2 ]k−1
2
5.3. INTEGRATION RATIONALER FUNKTIONEN 119
Für k = 1, 2, . . . gilt:
(x − α)2 + β 2
Z
Ik = dx
[(x − α)2 + β 2 ]k+1
2(x − α)
Z
1
= (x − α) dx +β 2 Ik+1
2 [(x − α)2 + β 2 ]k+1
| {z }
partielle Integration u·v 0
Z
1 1 1 1 dx
= (x − α) − 2 2 k
+ 2 2 k
+β 2 Ik+1
2 k [(x − α) + β ] 2k [(x − α) + β ]
| {z }
Ik
Daraus folgt:
2k − 1 1 x−α
β 2 Ik+1 = Ik +
2k 2k [(x − α)2 + β 2 ]k
I1 kennen wir bereits aus (3). Damit sind die Ik iterativ berechenbar.
Beispiel:
2x3 + x2 + x + 2
Z Z Z Z
dx dx x+1
dx = +2 + dx.
(x − 1)2 (x2 + x + 1) x−1 (x − 1)2 x2 +x+1
denn
Z Z √
1 dx 1 4 dx 2 3 2x + 1
= · = arctan √ .
1 2
2
2 3 2 3 3 2
x+ 2
+ 4
2x+1
√ +1 3
3
5.4 Substitutionsregeln
5.4.1 Integration von Wurzelausdrücken
q
1. Integration von R x, n ax+b
cx+d
ax + b
Bemerkung: Es sei ad − bc 6= 0, sonst ist konstant, denn
cx + d
(ax + b)b (ax + b)b (ax + b)b (ax + b)b b
= = = = .
(cx + d)b bcx + bd adx + bd (ax + b)d d
√
1.Fall: c = 0, a 6= 0. Wir betrachten also R(x, n ax + b).
√
n
Substitution: t = ax + b.
Damit ist
tn − b dx n
x= und = tn−1 .
a dt a
Es folgt
√ tn − b
Z Z Z
n n n−1
R(x, ax + b) dx = R ,t t dt = R̃(t) dt.
a a
2.Fall: a 6= 0, c 6= 0. Dann gilt:
! !
b b d
ax + b a x+ a a −a c
y= = d
= 1+ d
> 0,
cx + d c x+ c
c x+ c
b d
falls x im entsprechenden Intervall liegt (da a
− c
6= 0 nach Voraussetzung). Dort existiert
q
dann die Umkehrfunktion von n ax+b
cx+d
.
r
n ax + b
Substitution: t = . (Intervalle beachten!)
cx + d
Dann ist
ax + b dtn − b
tn = und x = ,
cx + d −ctn + a
und wir erhalten Z r ! Z
n ax + b
R x, dx = R̃(t) dt.
cx + d
Z r
1 3 x+1
Beispiel: Wir betrachten dx. Wegen
(x − 1)2 x−1
x+1 2 1 1
=1+ >0 ⇐⇒ ≥−
x−1 x−1 x−1 2
5.4. SUBSTITUTIONSREGELN 121
ergeben sich die beiden Intervalle (−∞, −1] und (1, ∞).
r
x+1
Substitution: t = 3 .
x−1
Es gilt:
t3 + 1
x = ,
t3 − 1
t3 + 1 − t3 + 1 2
x−1 = 3
= 3 ,
t −1 t −1
dx 3t2 (t3 − 1) − 3t2 (t3 + 1) 3t2 (t3 − 1 − t3 − 1) −6t2
= = = ,
dt (t3 − 1)2 (t3 − 1)2 (t3 − 1)2
√
2. Integration von R(x, x2 − 1)
Es gibt zwei Möglichkeiten:
(B) Vorbemerkung: Aus Abschnitt 5.2.2 kennen wir die hyperbolischen Funktionen.
et + e−t
cosh t := Cosinus hyperbolicus
2
e − e−t
t
sinh t := Sinus hyperbolicus
2
p
Es gilt: cosh2 t − sinh2 t = 1 und cosh t = 1 + sinh2 t.
Substitution: x = ± cosh t (x > 1 oder x < −1).
122 KAPITEL 5. INTEGRALRECHNUNG
Es ist
√ p
x2 − 1 = ± sinh t = ± cosh2 t − 1 (t > 0 bzw. t < 0),
dx = ± sinh t dt.
Wir erhalten Z √ Z
R(x, x2 − 1) dx = R̃(et ).
√
3. Integration von R(x, x2 + 1)
Es gibt wieder zwei Möglichkeiten:
√
(A) Substitution: t = x + x2 + 1.
x
Es gilt t0 = 1 + √ > 0, und es existiert die Umkehrfunktion auf R:
x2 + 1
t2 − 1
x= t ∈ (0, ∞).
2t
Wir erhalten:
0
√
2
t2 − 1
2
t −1 t −1
Z Z Z
2
R(x, x + 1) dx = R ,t − dt = R̃(t) dt.
2t 2t 2t
√
4. Integration von R(x, 1 − x2 )
Es sei |x| < 1.
(A) Rückführung auf 1. wie in 2.(A).
t ∈ − π2 , π2 .
(B) Substitution: x = sin t,
√ p
Es ist dx = cos t dt und 1 − x2 = 1 − sin2 t = cos t.
Wir erhalten: Z √ Z
R(x, 1− x2 ) dx = R(sin t, cos t) cos t dt.
5.4. SUBSTITUTIONSREGELN 123
2.Fall: Wir betrachten R(cos x, sin x). Da R(cos x, sin x) 2π–periodisch ist, können wir uns
auf das Intervall [− π2 , π2 ] einschränken und betrachten (a, b) ⊂ [− π2 , π2 ].
x
Substitution: t = tan .
2
2
Dann ist x = 2 arctan t und dx = dt.
1 + t2
Es gilt:
cos2 x
sin 2x = 2 sin x cos x = 2 tan x cos2 x = 2 tan x
sin2 x + cos2 x
1
= 2 tan x .
1 + tan2 x
x 1 2t
Somit ist sin x = 2 tan x = .
2 1 + tan2 2
1 + t2
2
Außerdem ist cos 2x = cos2 x − sin2 x = 2 cos2 x − 1 = −1
1 + tan2 x
2 2
und somit cos x = x −1= − 1.
1 + tan2 2
1 + t2
3.Fall: Wir betrachten R(sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx) und verwenden die
Moivreschen Formeln:
Es folgt:
cos kx = Re (cos x + i sin x)k = P1 (cos x, sin x)
sin kx = Im (cos x + i sin x)k = P2 (cos x, sin x).
Damit erhalten wir
R(sin x, cos x, sin 2x, cos 2x, . . . , sin mx, cos mx) = R̃(sin x, cos x).
(3) Wir nehmen an, y = ϕ(x) ist Lösung des Anfangswertproblems mit y(x0 ) = y0 und
ϕ : (α, β) ⊂ (a, b) −→ (c, d). Dann gilt für alle x ∈ (α, β):
ϕ0 (x)
ϕ0 (x) = f (x)g(ϕ(x)) bzw. = f (x).
g(ϕ(x))
Es folgt
Zx Zx
ϕ0 (t)
dt = f (t) dt
g(ϕ(t))
x0 x0
und
Umkehrung:
Wir betrachten alle (x, y) ∈ Q = (a, b) × (c, d) mit
Damit ist (x0 , y0 ) ∈ Q. Da G streng monoton und stetig ist und auch F0 stetig ist, existiert
ein δ, so daß für alle x ∈ (α, β) := (x0 − δ, x0 + δ) ∩ (a, b) folgt:
Satz 1 Sei f : (a, b) −→ R stetig, g : (c, d) −→ R stetig und g(y) 6≡ 0 auf (c, d). Ist
x0 ∈ (a, b) und y0 ∈ (c, d), dann existiert ein Intervall (α, β) ⊂ (a, b) mit x0 ∈ (α, β) und
eine eindeutig bestimmte Funktion ϕ : (α, β) −→ (c, d) mit
(ii) ϕ(x0 ) = y0 .
Zy Zx
du
u(y) = = f (t) dt = F0 (x).
g(u)
y0 x0
Bemerkung: Durch jeden Punkt (x0 , y0 ) ∈ Q = (a, b) × (c, d) geht genau eine Lösung
y = ϕ(x) des Anfangswertproblems
y 0 = f (x)g(y)
y(x0 ) = y0
Zy y
du 1
=⇒ − = −1
u2 u −1
−1
1
=⇒ − =x
u
1
=⇒ y = − , x ∈ (0, ∞)
x
1
alle Lösungen: y = − .
x+c
Daraus folgt: Z
−F (x)
ys (x) = g(x)e dx eF (x)
(3) y(x) = ceF (x) + ys (x) mit c ∈ R ist die allgemeine Lösung der Differentialgleichung
(sämtliche Lösungen).
Beweis: Aus y(x) = yh (x) + ys (x) folgt:
(ỹ − ys )0 = f (x)(ỹ − ys ).
Satz 2 (i) Das Anfangswertproblem (5.4) besitzt genau eine Lösung, diese ist auf dem
gesamten Intervall (a, b) definiert.
R
(ii) Es sei F (x) = f (x dx) eine Stammfunktion von f , und es sei ys eine spezielle Lö-
sung der Differentialgleichung. Dann sind sämtliche Lösungen der Differentialgleichung
durch
y(x) = ceF (x) + ys (x), c ∈ R
gegeben. ys (x) läßt sich durch den Ansatz ys (x) = c(x)eF (x) bestimmen (Variation der
Konstanten).
Beispiel: y 0 = y + x
yh = cex
c0 ex = x
c0 = xe−x
c = −xe−x + e−x = −xe−x − e−x .
R
y = cex − x − 1.
Satz 3 Das Anfangswertproblem (5.5) besitzt genau eine Lösung. Diese ist auf dem gesamten
Intervall (a, b) definiert.
5.5. EINFACHE DIFFERENTIALGLEICHUNGEN 129
Beispiele:
y 00 = y y 00 = y
y(0) = 1 y = ex y(0) = −1 y = e−x
y 0 (0) = 1 y 0 (0) = 1
y 00 = −y y 00 = −y
y(0) = 0 y = sin x y(0) = 1 y = cos x
y 0 (0) = 1 y 0 (0) = 0
Lösungsmethode:
Satz 4 Es existieren immer zwei linear unabhängige Lösungen. Jede Lösung läßt sich dar-
stellen als
ϕ(x) = c1 ϕ1 (x) + c2 ϕ2 (x),
wobei c1 , c2 ∈ R und {ϕ1 , ϕ2 } ⊂ L linear unabhängig sind. L ist ein 2–dimensionaler Vek-
torraum.
Beweis: Es seien ϕ(x) ∈ L, {ϕ1 , ϕ2 } ⊂ L linear unabhängig und x0 ∈ (a, b). Wir setzen
Damit sind {u, v} ⊂ R2 linear unabhängig: Wir nehmen an, u und v sind abhängig, d.h.
u = cv. Dann wäre aber ϕ1 = cϕ2 nach Satz 3. Also folgt
y 0 = c1 u + c2 v mit c1 , c2 ∈ R,
und
ϕ(x) = c1 ϕ1 (x) + c2 ϕ2 (x)
wiederum nach Satz 3.2
Lemma 1 Seien ϕ1 , ϕ2 linear abhängig und ϕ1 , ϕ2 : (a, b) −→ R stetig. Dann gilt für alle
x ∈ (a, b):
ϕ1 (x) ϕ 2 (x)
0 0
= 0.
ϕ1 (x) ϕ2 (x)
130 KAPITEL 5. INTEGRALRECHNUNG
Daraus folgt
ϕ1 (x) ϕ2 (x)
0 = 0.
ϕ1 (x) ϕ02 (x)
2
Inhomogene Gleichung: s(x) = 15 + 4x2 . Wir erhalten (durch Erraten): ψ(x) = 4x2 .
Beweis: Es gilt:
L(ϕ1 ) = 0 | · (−ϕ2 )
L(ϕ2 ) = 0 | · ϕ1
Daraus folgt:
ϕ1 ϕ002 − ϕ001 ϕ2 +p(x) (ϕ1 ϕ02 − ϕ01 ϕ2 ) = 0,
| {z } | {z }
W 0 (x) W (x)
das heißt
W 0 (x)
W 0 (x) + p(x)W (x) = 0 bzw. = −p(x).
W (x)
Aus Abschnitt 5.5.2 folgt
x Zx
log |W (t)| = − p(t) dt
x0
x0
und damit
Rx
− p(t) dt
W (x) = W (x0 )e x0
.
2
Folgerung 2 Seien ϕ1 , ϕ2 ∈ L, W (x0 ) 6= 0. Dann ist W (x) 6= 0 für alle x ∈ (a, b).
R
Satz 5 Sei ϕ1 ∈ L mit ϕ1 (x) 6= 0 auf (a, b), und sei P (x) = p(x) dx. Dann gilt:
e−P (x)
Z
ϕ2 (x) := ϕ1 (x) dx ∈ L,
ϕ21 (x)
Satz 6
Z
ϕ2 (x)s(x)
Mit c1 (x) := − dx,
W (x)
Z
ϕ1 (x)s(x)
c2 (x) := dx
W (x)
und es folgt
L(ψ) = c1 (Lϕ1 ) + c2 (Lϕ2 ) + c01 ϕ01 + c02 ϕ02 .
|{z} |{z}
=0 =0
c01 ϕ1 + c02 ϕ2 = 0
c01 ϕ01 + c02 ϕ02 = s(x)
bzw.
c01
0
Φ(x) =
c02 s(x)
ϕ2 (x)s(x) ϕ1 (x)s(x)
c01 = − und c02 = .
W (x) W (x)
2
Es folgt:
ϕ1 (x) = eλ1 x , ϕ2 (x) = eλ2 x ∈ L,
und λx
e 1 eλ2 x = e(λ1 +λ2 )x 1 1
6= 0.
W (x) = λ1 x
λ1 e λ2 eλ2 x λ 1 λ2
αx
e cos βx eαx sin βx 2αx cos βx sin βx
W (x) = αx +e = e2αx β 6= 0.
αe cos βx αeαx sin βx − sin βx · β cos βx · β
| {z }
=0
Beispiel: y 00 + y = cos x.
L(y) = 0 ⇐⇒ y = c1 cos x + c2 sin x.
Ansatz: ψ(x) = x(d1 cos x + d2 sin x)
1
L(ψ) = cos x ⇐⇒ d1 = 0, d2 = .
2
x
ψ= sin x.
2
x
y = c1 cos x + c2 sin x + sin x.
2
y(0) = 0 ⇐⇒ c1 = 0.
y 0 (0) = 0 ⇐⇒ c2 = 0.
x
y = sin x (Resonanz).
2
Ein anderer Lösungsweg ist die Variation der Konstanten:
cos x sin x
Φ(x) = .
− sin x cos x
5.6. NUMERISCHE INTEGRATION 135
1
c1 = cos2 x,
2
1
c2 = (x + cos x sin x),
2
und wir erhalten
1 1 x
c1 (x) cos x + c2 (x) sin x = cos3 x + sin2 x cos x + sin x
2 2 2
1 x
= cos x + sin x.
2 2
Das stimmt offensichtlich mit dem vorherigen Ergebnis überein.
Lemma 1 Sei f : [a, b] −→ R Riemann–integrierbar. Für jedes ε > 0 existiert ein δ > 0,
so daß für alle Zerlegungen Z und alle Vektoren ξ mit d(Z) ≤ δ gilt:
Zb
S(f, Z, ξ) − f (x) dx ≤ ε.
a
136 KAPITEL 5. INTEGRALRECHNUNG
Beweis: Es sei ε > 0. Nach Lemma 5.1.1/1 existiert eine Zerlegung Z ∗ mit
ε
S(f, Z ∗ ) − S(f, Z ∗ ) ≤ .
3
Es sei Z = {I1 , . . . , In } eine beliebige Zerlegung von [a, b] mit Ij = [xj−1 , xj ]. Z̃ sei die
Verfeinerung von Z und Z ∗ , die entsteht, wenn man die Teilungspunkte von Z ∗ zu den
Teilungspunkten von Z hinzunimmt:
Dabei ist
ε
[S(Z̃) − S(Z̃)] ≤ , da Z̃ eine Verfeinerung von Z ist.
3
Es sei
Ω := sup f (x) − inf f (x).
x∈[a,b] x∈[a,b]
Ω < ∞, da f beschränkt ist. Wir erhalten durch Betrachtung der einzelnen Teilintervalle
Da außerdem
Zb
S(f, Z) ≤ f ≤ S(f, Z),
a
erhalten wir
Zb
S(f, Z, ξ) − f ≤ ε für d(Z) ≤ δ(ε).
a
2
5.6. NUMERISCHE INTEGRATION 137
Zb n
b−aX b−a
f (x) = lim f a+j .
n→∞ n j=1 n
a
(Fehlerabschätzung).
Beweis:
(j − 1)(b − a) j(b − a)
Ij = [a + ,a + ],
n n
n b−a
ξj = a + j ,
n
b−a
d(Zn ) = −→ 0.
n
(ii) Es gilt:
Zb n n Z n Z
f − b−a
X Z
X n
X
... =
f (x) − f (ξj ) ≤ L|x − ξjn |
n j=1 j=1 j=1
a Ij Ij Ij
n Z
b−a X (b − a)2
≤ L· 1=L .
n j=1 I
n
j
2
138 KAPITEL 5. INTEGRALRECHNUNG
5.6.2 Lagrange–Interpolation
Die Idee ist, die Funktion f durch ein Polynom anzunähern. Eine Interpolationsaufgabe
kann z.B. so aussehen:
gegeben: f : [a, b] −→ R,
a = x0 < x1 < . . . < xn = b,
yj = f (xj ) j = 0, . . . , n.
gesucht: Polynom n–ten Grades P (x) mit P (xj ) = f (xj ) = yj .
Aus dem Fundamentalsatz der Algebra folgt, daß höchstens ein Polynom mit dieser Eigen-
schaft existiert. Nehmen wir an, daß zwei verschiedene Polynome P, Q existieren, so folgt
(P − Q)(xj ) = 0 ∀ j = 0 . . . , n,
wobei
n
Y x − xk (x − x0 ) · · · (x − xj−1 )(x − xj+1 ) · · · (x − xn )
Lj (x) = = ,
k=0
xj − xk (xj − x0 ) · · · (xj − xj−1 )(xj − xj+1 ) · · · (xj − xn )
k6=j
dann gilt:
n
M Y M
|f (x) − L(x)| ≤ (x − x j )≤ (b − a)n+1 .
(n + 1)! j=0
(n + 1)!
Daraus folgt
L(xl ) = f (xl ) für l = 0, . . . , n.
Dann gilt:
Zb n
X Zb
L= λj f (xj ) mit λj := Lj (x) dx.
a j=0 a
n
X Zb
λ= 1 = b − a.
j=0 a
Fehlerabschätzung
Zb Zb Zb n+2
f − L ≤ M wn+1 (x) dx ≤ (b − a) M
(n + 1)! (5.6)
(n + 1)!
a a a
Zb
f − b − a [f (a) + f (b)] ≤ M (b − a)3 .
2 12
a
Beweis: Es gilt:
Zb
f (b) − f (a) b − a
L(x) = f (a)(b − a) + (b − a) = f (a) + f (b) .
2 1
a
Zb Zb Zb 3
(x − a)(x − b) dx = M (b − a) = M (b − a)3 ,
M
f − L ≤
2 2 6 12
a a a
5.6. NUMERISCHE INTEGRATION 141
wobei
Zb b Zb Zb
(x − a)(x − b) dx = 1 (x − a)2 · (x − b) − 1 (x − a)2 dx = − 1 (x − a)2 dx.
2 2 2
a
a a a
a+b
Beweis: Es sei n = 2, x0 = a, x1 = , x2 = b. Wir setzen
2
b−a
h= .
2
Dann gilt:
(x − x1 )(x − x0 ) 1
L0 (x) = = 2 (x − x1 )(x − x1 − h),
(x0 − x1 )(x0 − x2 ) 2h
und mit der Substitution x = x1 + th folgt
Zb Z1
h3 h
λ0 = L0 (x) dx = 2 t(t − 1) dt = .
2h 3
a −1
M b − a (b − a)3
≤ · · .
6 2 6
2
Bemerkung: Unterteilt man (a, b) in äquidistante Teilintervalle und wendet auf jedes Teil-
intervall Satz 3 bzw. Satz 4 an, so werden noch bessere Ergebnisse erzielt.
(ii) Sei f : (a, b] −→ R Riemann–integrierbar auf jedem Intervall [a0 , b] mit a0 > a.
Zb Zb
f (x) dx := lim
0
f (x) dx.
a ↓a
a a0
(iii) Sei f : (a, b) −→ R Riemann–integrierbar auf jedem Intervall [a0 , b0 ] für alle a0 , b0 mit
a < a0 < b0 < b.
Zb Zc Zb
f (x) dx := f (x) dx + f (x) dx,
a a c
Beispiele:
5.7. UNEIGENTLICHE INTEGRALE 143
Z1
1
(1) dx < ∞ ⇐⇒ α < 1.
xα
0
Z∞
1
(2) <∞ ⇐⇒ α > 1.
xα
1
Z∞
sin x
(3) ist konvergent. Beweis: Es gilt:
x
0
Zb Zπ Z2π (k+1)π
Z Zb
sin x
= + +... + +
x
0 0 π kπ (k+1)π
Zπ Z2π (k+1)π Zb
| sin x| | sin x| | sin x| | sin x|
Z
= − + ... ± ∓
x x x x
0 π kπ (k+1)π
Also ist
Z∞ ∞
sin x X
= Ik (−1)k
x k=0
0
konvergent, da Ik+1 < Ik und lim Ik = 0:
k→∞
(k+2)π (k+1)π
| sin x| | sin x|
Z Z
Ik+1 = = < Ik .
x x+π
(k+1)π kπ
Z∞
| sin x|
(4) ist divergent. Beweis: Es gilt:
x
0
(k+1)π (k+1)π− 21
Z∞ ∞ ∞
| sin x| | sin x| X | sin x|
X Z Z
> >
x k=1
x k=1
x
0 kπ kπ+ 12
∞
1X π−1
> sin = ∞.
2 k=1 (k + 1)π
144 KAPITEL 5. INTEGRALRECHNUNG
Satz 1 Seien I = [a, b), (a, b], (a, b) wie oben, f wie oben.
R R
(i) Existiert |f |, so existiert auch f .
I I
R
Dann existiert auch |f |.
I
Analoge Aussagen gelten für die anderen Intervalle.
5.7. UNEIGENTLICHE INTEGRALE 145
Beweis:
(i) Es sei εj eine beliebige Folge mit εj −→ 0, I = (a, b] und a > −∞. Dann gilt nach dem
Cauchyschen Konvergenzkriterium:
Zb Zb a+εZ j Zb Zb
f− f ≤
|f (x)| dx =
|f | − |f | ≤ ε
a+εj a+εk a+εk a+εj a+εk
Zb
für j, k ≥ j0 (ε). Also existiert auch f nach dem Cauchyschen Konvergenzkriterium.
a
f (x)
(iii) Wegen lim < ∞ gilt für alle x ∈ [a, b):
g(x)
f (x)
g(x) ≤ c.
Daraus folgt:
Zb Zd Zb Z
|f | = |f | + |f | ≤ c1 + c |g| < ∞.
a a d
Beispiele:
Z∞ Z∞ Z
−x2 −|x| 2
(1) e dx ≤ 2 e + e−x dx < ∞ (|x| < x2 für |x| > 1).
−∞ 1 |x|<1
Z∞
3x2 − 5x + 1 |f (x)|
(2) √ dx < ∞, da 3 −→ c 6= 0.
17x3 x − 2x3 x− 2
1
146 KAPITEL 5. INTEGRALRECHNUNG
Dann ist
∞
X Z∞
aj = a(x) dx.
j=1 1
Kriterium
Z∞ ∞
X
(i) ∃ g(x) =⇒ ∃ aj .
x0 j=1
Zx ∞
X
(ii) f (x) = ∞ =⇒ aj = ∞.
x0 j=1
n
!
X 1
lim − log n = C.
n→∞
j=1
j
Beweis:
1 1 1
≤ = a(x) ≤ .
xα jα (x − 1)α
5.7. UNEIGENTLICHE INTEGRALE 147
(ii) Es gilt:
n n Zn n n−1 Zj+1
X 1 X 1 1 X1 X 1
− log n = − dx = − dx
j=1
j j=1
j x j=1
j j=1 x
1 j
j+1
n−1 Z
X 1 1 1 1 1
= − dx + ≤ 1 − + .
j=1 j
j x n n n
| {z }
≤ 1j − j+1
1
Es existiert
j+1
n−1 Z
X 1 1
lim bn = lim − dx,
j=1
j x
j
2
Bemerkungen:
n
X 1
(1) C = 0.557215 . . . , ∼ log n.
j=1
j
Z∞ ∞
X 1 1
(2) ∼ dx = log log x = ∞.
j
j log j x log x 2
2
Z∞ ∞
X 1 1 1 1
(3) ∼ dx = · < ∞.
j
j(log j)β x(log x)β β−1
1 − β (log x) 2
2
Z∞ Z∞
t t
(2) e−t tx−1 dt = e− 2 (e− 2 tx−1 ) dt < ∞,
| {z }
0 0 ≤c(x)
x−1
t
da lim t = 0.
t→∞ e− 2
Z∞
Definition 2 Γ(x) := e−t tx−1 dt, x > 0 heißt Gammafunktion.
0
(ii) Γ(x) ist auf (0, ∞) konvex und beliebig oft differenzierbar. Es gilt:
Z∞
(j)
Γ (x) = e−t tx−1 (log t)j dt. (5.7)
0
Daraus folgt:
Γ0 (x) > Γ0 (x0 ) = 1 für x > x0 ,
und
Γ(x) − Γ(x0 ) = Γ0 (ξ)(x − x0 ) ≥ Γ0 (x0 )(x − x0 ).
Folglich ist
lim Γ(x) = ∞.
x→∞
Γ(x + 1) c
Γ(x) = ≥ −→ ∞ (x −→ 0).
x x
2
Kapitel 6
Das heißt also, man betrachtet die Funktionswerte von f auf Geraden durch den Punkt
(x0 , y0 ) parallel zur den beiden Koordinatenachsen in x- bzw. y- Richtung. Sind die Funk-
tionen φ in x0 und/oder ψ in y0 differenzierbar, so sagt man, daß die Funktion f im Punkt
(x0 , y0 ) partiell nach x bzw. y differenzierbar ist oder partielle Ableitungen besitzt. Man
nennt dann
∂f
∂x
(x0 , y0 ) := ϕ0 (x0 )
∂f
∂y
(x0 , y0 ) := ψ 0 (y0 )
partielle Ableitungen von von f nach x bzw. y im Punkt (x0 , y0 ). Anschaulich beschreiben
diese Ableitungen den Anstieg der die durch die Funktion f dargestellten Fläche im Raum
im Punkt (x0 , y0 , f (x0 , y0 )) in x- bzw. y- Richtung.
Im allgemeinen Fall (n Variable) geben wir folgende Definition.
149
150 6.1 Partielle Ableitungen
Ist die Funktion ϕj in x0j differenzierbar, so heißt die Funktion f in x0 partiell nach xj
differenzierbar, und
∂f 0
(x ) := ϕj 0 (x0j )
∂xj
heißt partielle Ableitung von f nach xj im Punkt x0 .
Bemerkungen:
(1) Partielle Ableitungen lassen sich als Grenzwerte von Differenzenquotienten darstellen.
Für n = 2 ergibt sich
∂f f (x, y0 ) − f (x0 , y0 )
(x0 , y0 ) := lim
∂x x→x0 x − x0
∂f f (x0 , y) − f (x0 , y0 )
(x0 , y0 ) := lim .
∂y y→y0 y − y0
(2) Bei der Berechnung partieller Ableitungen können die bekannten Differentiationsregeln
verwendet werden. Dabei hat man zum Beispiel bei der Berechnung der partiellen
Ableitung nach x die Variable y wie eine Konstante zu behandeln. Wir betrachten
folgendes Beispiel.
f (x, y) = (sin xy)2
∂f
= (2 sin xy)(cos xy) · y
∂x
∂f
= (2 sin xy)(cos xy) · x
∂y
(3) Die Existenz partieller Ableitungen erlaubt im Allgemeinen keine Aussage über die
Stetigkeit der Funktion in dem betreffenden Punkt. Als Beispiel betrachten wir die
Funktion xy
x2 +y 2
(x, y) 6= (0, 0)
f (x, y) =
0 x=y=0
Die Funktion besitzt partielle Ableitungen nach x und y in jedem Punkt (x, y) ∈ R2 .
Wir haben für (x, y) 6= (0, 0)
∂f y 3 − x2 y
=
∂x (x2 + y 2 )2
∂f x3 − xy 2
=
∂y (x2 + y 2 )2
6.1.1 Definitionen und Beispiele 151
Außerdem ist
∂f ∂f
(0, 0) = (0, 0) = 0,
∂x ∂y
denn für alle x gilt f (x, 0) = 0, und für alle y gilt f (0, y) = 0. Die Funktion ist jedoch
im Nullpunkt unstetig, da einerseits
1 1
f (x, x) = −→ (x → 0)
2 2
andererseits aber f (x, 0) = 0 gilt für alle x ∈ R.
Bemerkung: Auch die Existenz aller Richtungsableitungen ist nicht ausreichend für die
Stetigkeit einer Funktion. Dies zeigt das Beispiel der Funktion
1 0 < y < x2
f (x, y) =
0 sonst
∂f
(0, 0) = 0.
∂ν
Im weiteren Verlauf wollen wir unter einer Umgebung eines Punktes x0 ∈ Rn eine Kugel
K(x0 , δ) = {x ∈ Rn : kx − x0 k < δ}
verstehen (δ > 0.
f (x, y) − f (x0 , y0 )
= f (x, y) − f (x0 , y) + f (x0 , y) − f (x0 , y0 )
∂f ∂f
= (ξ, y)(x − x0 ) + (x0 , η)(y − y0 ),
∂x ∂y
wobei ξ und η zwischen x0 und x bzw. y0 und y liegen. Der Grenzübergang (x, y) −→
(x0 , y0 ) liefert dann wegen der Stetigkeit der partiellen Ableitungen in (x0 , y0 ) das gewünschte
Ergebnis. 2
(i)
∂f
(x0 )
∂x1
·
0 0
∇f (x ) := gradf (x ) =
·
·
∂f
∂xn
(x0 )
(ii) f heißt stetig differenzierbar in x0 ,falls ∇f in einer Umgebung von x0 existiert und
in x0 stetig ist, das heißt, falls alle partiellen Ableitungen in einer Umgebung von x0
existieren und diese in x0 stetig sind.
(i)
f (x) = f (x0 ) + (∇f )(x0 ) · (x − x0 ) + r(x),
wobei
r(x)
lim0 = 0.
x→x kx − x0 k
(ii)
∂f
= ∇f · ν
∂ν
für eine beliebige Richtungsableitung.
Beweis: 1. Schritt. Wir zeigen (i). Wir beschränken uns wiederum auf den Fall n = 2. Wie
im Beweis von Satz 1 erhalten wir
f (x, y) − f (x0 , y0 ) = f (x, y) − f (x0 , y) + f (x0 , y) − f (x0 , y0 )
∂f ∂f
= (ξ, y)(x − x0 ) + (x0 , η)(y − y0 )
∂x ∂y
∂f ∂f
= (x0 , y0 )(x − x0 ) + (x0 , y0 )(y − y0 )
∂x ∂y
∂f ∂f ∂f ∂f
+ (ξ, y) − (x0 , y0 ) (x − x0 ) + (x0 , η) − (x0 , y0 ) (y − y0 )
∂x ∂x ∂y ∂y
x − x0
= (∇f )(x0 , y0 ) · + r(x)
y − y0
Aus der Stetigkeit der partiellen Ableitungen folgt nun
|r(x)| ∂f ∂f ∂f ∂f
≤ (ξ, y) − (x0 , y0 ) + (x0 , η) − (x0 , y0 ) −→ 0
kx − x0 k ∂x ∂x ∂y ∂y
für (x, y) −→ (x0 , y0 ).
2. Schritt. Wir zeigen (ii). Aus (i) folgt für x = x0 + tν und kleine |t|
f (x0 + tν) − f (x0 ) = t(∇f )(x0 ) · ν + r(x0 + tν).
Wir dividieren durch t und erhalten (ii) aus (i) für t → 0. 2
Bemerkung. Im Falle n = 2 ist durch
∂f ∂f
z = f (x0 , y0 ) + (x0 , y0 )(x − x0 ) + (x0 , y0 )(y − y0 )
∂x ∂y
die Gleichung einer Ebene im R3 durch den Punkt (x0 , y0 , f (x0 , y0 )) der durch die Funktion f
dargestellten Fläche gegeben. Für y = y0 ergibt sich die Tangente an die Kurve ”z = f (x, y0 )”,
für x = x0 die Tangente an die Kurve ”z = f (x0 , y)”. Dies legt unter Berücksichtigung von
Teil (i) des Satzes die folgende Definition nahe.
Definition 4 Es sei f : R2 −→ R in (x0 , y0 ) stetig differenzierbar. Die Ebene gegeben durch,
∂f ∂f
z = f (x0 , y0 ) + (x0 , y0 )(x − x0 ) + (x0 , y0 )(y − y0 )
∂x ∂y
heißt Tangentialebene an die durch die Funktion f (x, y) dargestellte Fläche im Punkt (x0 , y0 , f (x0 , y0 )).
Folgerung 1 Es sei f stetig differenzierbar in x0 ∈ Rn , und es sei ν, kνk = 1, ein Rich-
tungsvektor. Aus der Cauchy - Schwarz’schen Ungleichung für das Skalarprodukt und aus
Teil (ii) von Satz 2 folgt
∂f 0
−k∇f (x0 )k ≤ (x ) ≤ k∇f (x0 )k.
∂ν
154 6.1 Partielle Ableitungen
∇f (x0 )
Insbesondere erhalten wir für ν = k∇f (x0 )k
mit
∂f 0
(x ) = k∇f (x0 )k
∂ν
∇f (x ) 0
das Maximum aller Richtungsableitungen und für ν = − k∇f (x0 )k
mit
∂f 0
(x ) = −k∇f (x0 )k
∂ν
das Minimum aller Richtungsableitungen. Der Gradient einer Funktion zeigt also in Richtung
des gößten Anstieges an der durch die Funktion beschriebenen Fläche.
Beispiel: Es sei
1
f (x) = = (x21 + · · · + x2n )−1/2 , x ∈ Rn , x 6= 0.
kxk
(ii) Es sei g : Rm −→ Rn ,
g1 (u1 , . . . , um )
·
g(u) =
·
·
gn (u1 , . . . , um ).
Die Funktionen gj seien stetig differenzierbar in u0 ∈ Rm , und es gelte g(u0 ) = x0 .
Dann ist die Funktion
h(u1 , . . . , um ) := f (g1 (u1 , . . . , um ), . . . , gn (u1 , . . . , um ))
stetig differenzierbar in u0 , und es gilt
n
∂h 0 X ∂f ∂gj 0
(u ) = (x0 ) (u )
∂uk j=1
∂x j ∂u k
wobei ξ und η zwischen ϕ(t) und ϕ(t0 ) bzw. ψ(t) und ψ(t0 ) liegen. Aus der Stetigkeit der
partiellen Ableitungen sowie der Differenzierbarkeit von ϕ und ψ in t0 folgt nach Division
durch t − t0 für t → t0 die Behauptung. 2
Beispiele:
(1) Höhenlinien einer Funktion f (x, y)
∂f
Wir betrachten die Kurve, dargestellt durch ∂x
(x0 , y0 )ϕ0 (t0 ) mit der Eigenschaft
f (ϕ(t), ψ(t)) = c = const
Man bezeichnet eine solche Kurve auch als Höhenlinie. Aus der Kettenregel folgt sofort,
daß
∂f ∂f
(x0 , y0 )ϕ0 (t0 ) + (x0 , y0 )ψ 0 (t0 ) = 0,
∂x ∂y
wobei (x0 , y0 ) = (ϕ(t0 ), ψ(t0 )) gesetzt wurde. Eine äquivalente Formulierung ist
0
ϕ (t0 )
(∇f )(x0 , y0 ) · = 0.
ψ 0 (t0 )
Das Skalarprodukt des Gradienten und des Tangentenvektors an die Höhenlinie ist
somit Null. Der Gradient steht also senkrecht auf der Höhenlinie und zeigt in die
Richtung des größten Anstiegs auf der Fläche, die durch f dargetsellt wird.
(2) Partielle Ableitungen und Polarkoordinaten
Es sei eine Funktion f (x, y) gegeben. Wir ersetzen die Koordinaten x und y durch
ebene Polarkoordinaten:
x = r cos ϕ
y = r sin ϕ
Durch Einsetzen erhält man eine Funktion
F (r, ϕ) = f (r cos ϕ, r sin ϕ) = f (x, y).
Die Aufgabe besteht darin, die partiellen Ableitungen ∂f∂x
und ∂f
∂y
mit Hilfe von Po-
larkoordinaten und der Funktion F zu beschreiben. Nach Anwendung der Kettenregel
erhalten wir das folgende lineare Gleichungssystem für ∂f
∂x
und ∂f
∂y
∂F ∂f ∂f
= cos ϕ + sin ϕ
∂r ∂x ∂y
∂F ∂f ∂f
= − r sin ϕ + r cos ϕ.
∂ϕ ∂x ∂y
Auflösung des Gleichungssystems führt zu den Formeln
∂f ∂F 1 ∂F
= cos ϕ − sin ϕ
∂x ∂r r ∂ϕ
∂f ∂F 1 ∂F
= sin ϕ + cos ϕ.
∂y ∂r r ∂ϕ
6.2. HÖHERE ABLEITUNGEN UND LOKALE EXTREMA 157
Beispiele:
(1) Für x > 0 und y ∈ R betrachten wir die Funktion f (x, y) = xy := ey ln x . Sie besitzt die
folgenden partiellen Ableitungen 1. und 2. Ordnung.
fx = y xy−1
fy = xy ln x
fxx = y(y − 1)xy−2
fyy = xy (ln x)2
fxy = xy−1 + yxy−1 ln x = xy−1 (1 + y ln x)
fyx = yxy−1 ln x + xy x1 = xy−1 (1 + y ln x)
Man sieht insbesondere, daß die beiden gemischten partiellen Ableitungen fxy und fyx
übereinstimmen. Im nächsten Satz werden wir sehen, daß dies unter gewissen Voraus-
setzungen immer der Fall ist. Jedoch zeigen die nächsten Beispiele, daß die Gleichheit
im Allgemeinen nicht gilt.
(2) Wir untersuchen die Funktion f (x, y) := |x| auf partielle Ableitungen. Offensichtlich
ist in jedem Punkt
fy = 0 und damit auch fyx = 0
Andererseits existiert fx nur für Punkte die nicht auf der y− Achse liegen. Wir erhalten
fxy = 0 für alle Punkte (x, y) mit x 6= 0, während in allen Punkten (0, y) die partielle
Ableitung fxy nicht existiert.
158 6.2 Höhere Ableitungen und lokale Extrema
(3) Es sei
2 2
(
xy xx2 −y
+y 2
(x, y) 6= (0, 0)
f (x, y) =
0 x=y=0
Wir erhalten
fx (0, y) = −y , fy (x, 0) = x
fxy (0, 0) = −1 , fyx = 1
Das heißt, daß die gemischten Ableitungen in (0, 0) verschieden sind, obwohl beide
existieren.
∂ |α| f ∂ αn
α1
α ∂ f
D f= α1 := · · · .
∂x1 · · · ∂xαnn ∂xαnn ∂xα1 1
Hier wird also die Funktion f nach jeder Koordinatenrichtung xj insgesamt αj - mal abgelei-
tet, wobei αj = 0 für den Fall steht, daß keine Ableitungen nach xj gebildet werden. Man
nennt dann |α| die Ordnung der Ableitung Dα f .
Definition 1 Es sei G ⊂ Rn eine offene Menge, und es sei m eine natürliche Zahl. Eine
Funktion f : G −→ R heißt m− mal stetig differenzierbar (f ∈ C m (G)), falls alle partiellen
Ableitungen bis zur Ordnung m existieren und auf G stetig sind.
6.2.1 Der Satz von Schwarz 159
xj
u xj = − = −xj (x21 + x22 + x23 )−3/2
kxk3
1 3x2j
uxj xj = − +
kxk3 kxk5
• die Laplace-Poisson-Gleichung
−4u = f
Hier ist f gegeben und u = u(x) gesucht.
• die Wärmeleitungsgleichung
ut − 4u = f
Hier ist f gegeben und u = u(x, t) für x ∈ R3 und t > 0 gesucht.
• die Wellengleichung
utt − 4u = f
wobei wiederum f gegeben und u = u(x, t) für x ∈ R3 und t > 0 gesucht ist.
160 6.2 Höhere Ableitungen und lokale Extrema
in einer Umgebung (−1 − δ, 1 + δ) und wenden auf diese den für den eindimensionalen Fall
bereits bekannten Taylorschen Satz an. Es folgt
1
h(t) = h(0) + h0 (0)t + h00 (ϑt)t2 .
2
Mit Hilfe der Kettenregel berechnen wir die Ableitungen h0 (t) und h00 (t) und erhalten
n
X
h0 (t) = fxj (x0 + t(x − x0 ))(xj − x0j )
j=1
Xn Xn
h00 (t) = fxj xk (x0 + t(x − x0 ))(xj − x0j )(xk − x0k ).
j=1 k=1
Durch Einführung der sogenannten Hesse-Matrix erhalten wir eine vektorielle Formulierung
obiger Formel.
Bemerkung: Nach dem Satz von Schwarz (Satz 1) ist Hf eine symmetrische Matrix. Für
n = 2 ergibt sich
fxx fxy
Hf =
fyx fyy
Folgerung: Bezeichnen wir mit ”·” wieder das Skalarprodukt im Rn , so können wir die
Formel aus Satz 2 auch schreiben als
1
f (x) = f (x0 ) + ∇f (x0 ) · (x − x0 ) + (Hf (ξ)(x − x0 )) · (x − x0 ),
2
mit ξ = x0 + ϑ(x − x0 ). Dabei bezeichnet (Hf )(x − x0 ) die Multiplikation der Matrix Hf
mit dem Spaltenvektor x − x0 . Ist (x − x0 )T der entsprechende Zeilenvektor kann man auch
schreiben
1
f (x) = f (x0 ) + (x − x0 )T ∇f (x0 )) + (x − x0 )T Hf (ξ)(x − x0 ).
2
Eine ander Formulierung ist
1
f (x) = f (x0 ) + (x − x0 )T ∇f (x0 ) + (x − x0 )T Hf (x0 )(x − x0 ) + r(x),
2
wobei gilt
r(x)
lim0 = 0.
x→x kx − x0 k2
162 6.2 Höhere Ableitungen und lokale Extrema
Vorbetrachtungen: Ziel in diesem Unterabschnitt ist es, mit Hilfe der Differentialrechnung
notwendige und hinreichende Kriterien für die Existenz lokaler Extrema zu finden. Hierzu
benötigen wir einige Kenntnisse aus der linearen Algebra, die im Folgenden zusammengestellt
werden.
Es sei
h11 · · · h1n
· ··· ·
H= · ··· · = HT
· ··· ·
hn1 · · · hnn
eine symmetrische Matrix reeller Zahlen.
H heißt positiv definit :⇐⇒ Für alle y, y 6= 0, gilt y T Hy = (Hy) · y > 0.
H heißt negativ definit :⇐⇒ Für alle y, y 6= 0, gilt y T Hy = (Hy) · y < 0.
H heißt indefinit :⇐⇒
Es existieren Vektoren u ∈ Rn und v ∈ Rn mit uT Hu < 0 und v T Hv > 0.
Es gelten folgende Aussagen:
Betrachten wir nun stetig differenzierbare Funktionen f . Liegt im Punkt x0 ein lokales Maxi-
mum oder Minimum vor, so ist es klar, daß in diesem Punkt sämtliche Richtungsableitungen
verschwinden müssen. Eine notwendige Bedingung lautet also:
grad f (x0 ) = ∇f (x0 ) = 0.
Satz 3 Es sei f : Rn −→ R zweimal stetig differenzierbar in einer Umgebung eines Punktes
x0 . Dann gelten folgende Aussagen:
(i) ∇f (x0 ) = 0, (Hf )(x0 ) positiv definit =⇒
f hat lokales Minimum in x0 .
(ii) ∇f (x0 ) = 0, (Hf )(x0 ) negativ definit =⇒
f hat lokales Maximum in x0 .
(iii) ∇f (x0 ) = 0, (Hf )(x0 ) indefinit =⇒
f hat kein lokales Maximum oder Minimum in x0 .
Folgerung 1 Im Fall n = 2 ergeben sich folgende Bedingungen (f = f (x, y)):
fxx (x0 , y0 ) fxy (x0 , y0 )
(i) fxx (x0 , y0 ) > O, det > 0 =⇒
fyx (x0 , y0 ) fyy (x0 , y0 )
f hat lokales Minimum in (x0 , y0 ).
fxx (x0 , y0 ) fxy (x0 , y0 )
(ii) fxx (x0 , y0 ) < O, det >0 =⇒
fyx (x0 , y0 ) fyy (x0 , y0 )
f hat lokales Maximum in (x0 , y0 ).
fxx (x0 , y0 ) fxy (x0 , y0 )
(iii) fxx (x0 , y0 ) 6= O, det <0 =⇒
fyx (x0 , y0 ) fyy (x0 , y0 )
f hat kein lokales Maximum oder Minimum in (x0 , y0 ) (Sattelpunkt).
Bemerkung: Der Beweis des Satzes erfolgt unter Verwendung des Taylorschen Satzes. Es
folgt aus Satz 2, da ∇f (x0 ) = 0,
1
f (x) − f (x0 ) = (x − x0 )(Hf (x0 + ϑ(x − x0 )))(x − x0 )
2
0
mit 0 < ϑ < 1. Es sei Hf (x ) positiv definit. Man hat nun zu zeigen, daß die rechte Seite auch
noch in einer Umgebung von x0 positiv ist. Dann liegt ein lokales Minimum vor. Dies folgt
im Wesentlichen aus der Stetigkeit der partiellen Ableitungen 2. Ordnung. Wir verzichten
auf die Details.
164 6.3 Differenzierbare Abbildungen
g : Rn −→ Rm , m, n ∈ N.
gj : Rn −→ R
stetig differenzierbar sind. Eine Linearisierung einer solchen Abbildung wird durch folgende
Darstellung nahegelegt. In einer Umgebung eines Punktes x0 gilt nach Satz 6.1/2
n
∂g1
= g1 (x0 ) (x0 )(x − x0 ) + r1 (x)
P
g1 (x) + ∂xk
k=1
n
0 ∂g2
(x0 )(x − x0 ) + r2 (x)
P
g2 (x) = g2 (x ) + ∂xk
k=1
· ···
· ···
· ···
n
∂gm
gm (x) = gm (x0 ) + (x0 )(x − x0 ) + rm (x)
P
∂xk
k=1
Bemerkungen:
(1) Näherungsweise ist lokal (d. h. in einer kleinen Umgebung von x0 )
g(x) ≈ g(x0 ) + Jf (x0 )(x − x0 ).
(”Linearisierung” von g). Man kann daher erwarten, daß das lokale Verhalten von g in
einer Umgebung von x0 maßgeblich durch die Matrix (die lineare Abbildung) Jf (x0 )
bestimmt wird.
(2) Für eine Funktion f : Rn −→ R ist
Jf (x) = (∇f (x))T
die Transponierte des Gradienten. Für eine stetig differenzierbare Kurve mit der Pa-
rameterdarstellung ϕ : R −→ Rn ist
(Jϕ)(t) = ϕ0 (t)
der Tangentenvektor.
(3) Es seien U, G ∈ Rn offene Mengen, und es sei g : U −→ G eine stetig differenzierbare
bijektive Abbildung. Wir interessieren uns für die inverse Abbildung g −1 . Nehmen
wir an, die inverse Abbildung sei ebenfalls stetig differenzierbar (auf G). Wir setzen
zeitweise y 0 = g(x0 ). Aus der Identität g −1 (g(x)) = x für alle x ∈ U folgt:
(g −1 )1 (g1 (x), . . . , gn (x)) = x1
(g −1 )2 (g1 (x), . . . , gn (x)) = x2
··· · ·
··· · ·
··· · ·
−1
(g )n (g1 (x), . . . , gn (x)) = xn
166 6.3 Differenzierbare Abbildungen
Wir differenzieren mit Hilfe der Kettenregel die j-te Gleichung partiell nach xl (für alle
j, l ∈ {1, . . . , n}) und erhalten
n
∂(gj−1 ) 0 ∂gk 0
X ∂xj 1 l=j
(y ) (x ) = =
∂yk ∂xl ∂xl 0 l 6= j
k=1
det(Jg)(x) 6= 0
für alle x ∈ U sein muss. Man kann zeigen, daß lokal auch die Umkehrung gilt. Wir
gehen darauf in dieser Vorlesung nicht näher ein, nehmen den Sachverhalt aber zum
Anlaß für die folgende wichtige Definition.
x = r cos ϕ
y = r sin ϕ
Interpretiert man r als den Abstand des Punktes (x, y) vom Nullpunkt und ϕ als den Winkel
zwischen der positiven x−Achse und dem Strahl vom Nullpunkt durch (x, y), erkennt man
leicht, daß zum Beispiel eine bijektive Abbildung des offenen Rechtecks (0, R)×(0, 2π) in der
6.3.1 Die Jacobische Matrix 167
”(r, ϕ)-Ebene” auf den entlang der positiven x-Achse aufgeschlitzen Kreis um den Nullpunkt
mit Radius R gegeben durch
{(x, y) : x2 + y 2 ≤ R2 } − {(x, 0) : x ≥ 0}
in der ”(x, y)-Ebene” beschrieben wird. Man nennt (r, ϕ) die Polarkoordinaten des Punktes
(x, y), wenn obige Beziehung besteht. Offensichtlich ist die Koordinate ϕ nicht eindeutig,
sondern nur bis auf Addition eines ganzzahligen Vielfachen von 2π (”modulo(2π)”) bestimmt.
168 6.3 Differenzierbare Abbildungen
g : U −→ G, (x = g(u), u ∈ U, x ∈ G)
eine stetig differenzierbare bijektive Abbildung. Wir setzen voraus, daß auf U die Funktio-
naldeterminante die Bedingung
∂g1 ∂g1 ∂g1
· · ·
∂u
∂g
1 ∂u2
∂g
∂un
∂g
∂u21 ∂u22 · · · ∂un2
∂(x1 , . . . , xn ) ·
· ··· ·
= det 6= 0
∂(u1 , . . . , un ) · · ··· ·
· · ··· ·
∂gn ∂gn ∂gn
∂u1 ∂u2
· · · ∂un
erfüllt.
Mit Hilfe der Abbildung x = g(u) wird jeder Punkt x0 in eindeutiger Weise durch einen
Punkt u0 charakterisiert. Die Ersetzung von x ∈ G durch u ∈ U nennt man dann eine
Koordinatentransformation.
Die einfachste Koordinatentransformation ist linear und wird durch eine reguläre Matrix T
durch die Abbildung
x = Tu
beschrieben. Hier werden x und u als Spaltenvektoren aufgefaßt. Ist zum Beisspiel T eine
Drehung, so entspricht dieser Transformation eine Drehung des Koordinatensystems. Ist ej
der j−te Einheitsvektor im Rn (als Spaltenvektor aufgefaßt), so gilt
x = u1 T e1 + · · · + un T en .
Interpretiert man x als kartesische Koordinaten, bezogen auf die kanonische Basis {e1 , . . . , en },
so wird das neue Koordinatensytem erzeugt durch die Basis {T e1 , . . . , T en }, das heißt durch
die Spalten der Matrix T . Man erhält im Allgemeinen ein schiefwinkliges neues Koordina-
tensystem.
Für einen festen Punkt u ∈ U und ein j ∈ {1, . . . , n} betrachten wir nun die Kurve in G,
dargestellt durch
ϕj (t) = g(u1 , . . . , uj−1 , t, uj+1 , . . . , un ).
Diese Kurve wird als die j-te Koordinatenlinie bezeichnet. Betrachtet man hingegen (hier
sei n > 2 die j−te Koordinate uj als fest, so wird durch die Darstellung
die sogenannte j−te Koordinaten(hyper)fläche beschrieben. Der Punkt x kann dann als
Schnittpunkt aller Koodinatenlinien, aller Koordinatenflächen oder als Schnittpunkt der j-
ten Koordinatenlinie und der j−ten Koordinatenfläche charakterisiert werden. Im Fall der
linearen Koordinatentransformation sind die Koordinatenlinien Geraden und die Koordina-
tenflächen (Hyper)Ebenen.
Ist die Koordinatentransformation nicht linear, so spricht man von krummlinigen Koordina-
ten. Wir betrachten die folgenden, für die Anwendungen wichtigen, Beispiele.
Beispiele
(1) Ebene Polarkoordinaten (vgl. 6.3.1)
Wir betrachten die Abbildung
x = r cos ϕ
y = r sin ϕ
für alle r > 0 und alle ϕ ∈ (0, 2π). Es gilt für die Jacobische Determinante
∂(x, y) cos ϕ −r sin ϕ
= det = r.
∂(r, ϕ) sin ϕ r cos ϕ
(2) Zylinderkoordinaten im R3
Wir betrachten die Abbildung
x = ρ cos ϕ
y = ρ sin ϕ
z = z
für alle ρ > 0, alle ϕ ∈ (0, 2π) und alle z ∈ R. Es gilt für die Jacobische Determinante
cos ϕ −ρ sin ϕ 0
∂(x, y, z)
= det sin ϕ ρ cos ϕ 0 = ρ.
∂(ρ, ϕ, z)
0 0 1
• Halbebenen, senkrecht zur (x, y)−Ebene, ausgehend von der z−Achse, falls ϕ =
const.
• Ebenen, parallel zur (x, y)−Ebene, falls z = const.
• Konzentrische Kreise um die z−Achse in einer Ebene, parallel zur (x, y)−Ebene,
falls ρ = const und z = const.
• Strahlen, parallel zur (x, y)−Ebene, ausgehend von der z-Achse, falls ϕ = const
und z = const.
• Geraden, parallel zur z-Achse, falls ϕ = const und ρ = const.
(3) Kugelkoordinaten im R3
Wir betrachten die Abbildung
x = r sin ϑ cos ϕ
y = r sin ϑ sin ϕ
z = r cos ϑ
für alle r ≥ 0, alle ϑ ∈ [0, π] und alle ϕ ∈ [0, 2π]. Es gilt für die Jacobische Determinante
sin ϑ cos ϕ r cos ϑ cos ϕ −r sin ϑ sin ϕ
∂(x, y, z)
= det sin ϑ sin ϕ r cos ϑ sin ϕ r sin ϑ cos ϕ = r2 sin ϑ
∂(r, ϑ, ϕ)
cos ϑ −r sin ϑ 0
• Halbebenen, senkrecht zur (x, y)−Ebene, ausgehend von der z−Achse, falls ϕ =
const.