Sie sind auf Seite 1von 92

Technische Universität München

Analysis für Informatik


Wintersemester 2015/2016
Prof. Dr. Nina Gantert
Inhaltsverzeichnis
1 Reelle Zahlen und Vektoren 4

2 Folgen und Stetigkeit 9

3 Reihen 15

4 Komplexe Zahlen und trigonometrische Funktionen 22

5 Konsequenzen der Stetigkeit 25

6 Differentiation 29

7 Anwendungen der Ableitung 35

8 Das Integral 42

9 Potenzreihen und Taylor-Entwicklung 61

10 Differentialrechnung im Mehrdimensionalen 69

11 Differentialgleichungen 75

12 Asymptotik 82

13 Euler-Maclaurin’sche Summenformel und Beweis der Stirling-Formel 88

1
Organisatorisches und Literatur
Dozentin: Prof. Dr. Nina Gantert

Übungen: Dr. Jan Nagel

Adresse: Parkring 11, Hochbrück

Der Übungsbetrieb startet am 20.10.2015.


Anmeldung zu den Tutorübungen Donnerstag ab 19.00 Uhr.
Übungsblätter wird es wöchentlich auf Moodle geben.

Literatur:
F. Bornemann: Konkrete Analysis für Studierende der Informatik
Martin Brokate: Vorlesungsskript 2012/13 (auf Webseite verlinkt)
Konrad Königsberger: Analysis 1, Analysis 2

2
Warum Analysis für Informatik - Motivation
Diskrete Strukturen können sehr dicht (d.h. fast kontinuierlich) sein, z.B.: Pixel in einem Di-
gitalphoto. Endliche Graphen können sehr groß sein → Approximation mit stetigen Modellen.

Pn 3n

Beispiel 0.1. An = k=0 k , Bn = f4n (fn ist die n-te Fibonacci-Zahl)

Vergleich von An und Bn ?


An ist aufwendig, Bn einfach zu berechnen.

Für n = 2 : A2 = 22 > B2 = 21

n Ziffern von An Ziffern von Bn


1000 828 836
10 000 8292 8360
100 000 82928 83595

Wir werden sehen: r


3
An ∼ · (6.75)n
π·n
1
Bn ∼ √ · (6.854...)n
5
.
an
Wir schreiben an ∼ bn (an äquivalent zu bn ), falls der Quotient gegen eins geht: bn → 1 für
n → ∞.

Wir schließen, dass An < Bn ∀n ≥ n0 . (Tatsächlich: n0 = 3.)

Ein weiteres Beispiel, wo in der Beschreibung des Wachstums einer Folge von natürlichen Zahlen
irrationale Zahlen auftauchen, ist die berühmte Stirling-Formel (wird später hergeleitet):

n! ∼ 2πn · nn · e−n

3
1 Reelle Zahlen und Vektoren
Zur Erinnerung:
Natürliche Zahlen: N = {1, 2, 3, ...}, N0 = {0, 1, 2, 3, ...}
Ganze Zahlen: Z = {..., −4, −3, −2, −1, 0, 1, 2, 3, ...}
Rationale Zahlen: Q = { ml : l, m ∈ Z, m 6= 0}

Euklid zeigte, dass 2 keine rationale Zahl ist.
√ √
Beweis. Sei 2 ∈ Q ⇒ 2 = ml O.E.d.A. (ohne Einschränkung der Allgemeinheit) nehmen
2
wir an, dass l und m teilerfremd sind. Dann gilt: 2 = ml 2 , da l,m teilerfremd ⇒ l2 , m2
ebenfalls teilerfremd.

x = 2 ist jedoch Nullstelle des Polynoms p(x) = x2 − 2.
Definition 1.1. Die Zahl x ∈ R heißt algebraisch, falls es ein Polynom mit ganzzahligen
Koeffizienten gibt, welches x als Nullstelle hat.

Zahlen, die nicht algebraisch sind, heißen transzendent.

Beliebige reelle Zahlen haben eine Dezimaldarstellung,


z.B.: 2.7, 31 = 0.333..., π = 3.14159265...
Die allgemeine Form einer solchen Dezimaldarstellung ist ±d0 .d1 d2 d3 ...
mit d0 ∈ N0 (= ganzzahliger Anteil) und dk ∈ {0, 1, 2, ..., 9}, k ≥ 1.
Die Dezimaldarstellung ist nicht immer eindeutig, z.B.: 0.3 = 0.29999...
Definition 1.2. Eine Menge A ist abzählbar, falls es eine surjektive Abbildung f : N → A gibt.

Beispiel 1.3. Q ist abzählbar. (Übung: Geben Sie f an!) R ist nicht abzählbar.
Beweis. Wir nehmen an, es gibt eine Abzählung der Zahlen in [0,1] als Folge x1 , x2 , x3 , ... mit
x1 = 0.d11 d12 d13 ...
x2 = 0.d21 d22 d23 ...
x3 = 0.d31 d32 d33 ...
und definieren eine reelle Zahl x = 0.d1 d2 d3 ... wie folgt: wir setzen dk = 2 falls dkk = 1, dk = 1
sonst. Dann gilt: x 6= xk , ∀k

Wir schreiben A für die Menge der algebraischen Zahlen.


Behauptung. A ist abzählbar.

Beweis. Sei p(x) = c0 + c1 · x + c2 · x2 + c3 · x3 + ... + cn · xn ein Polynom vom Grad n (cn 6= 0).
Definiere die Höhe h(p) = n + |co | + |c1 | + ... + |cn |. Dann ist h(p) ∈ N. Zu einem vorgegebenen
h ∈ N gibt es nur endlich viele Polynome p mit ganzzahligen Koeffizienten und h(p) = h, welche
wiederum S nur endlich viele Nullstellen haben.
Also A = h∈N {a ∈ C : ∃ p mit h(p) = h und p(a) = 0}.

Insbesondere ist A ∩ R abzählbar ⇒ es gibt transzendente Zahlen.


Die Eulerkonstante e ist transzendent (C. Hermite 1873).
π ist transzendent (F. Lindemann 1882).

Ob eine vorgegebene Zahl transzendent ist oder nicht, kann im Einzelfall eine schwierige Frage
sein. Offen ist, ob π e , π + e, π · e transzendent oder irrational sind.

Definition 1.4. Eine relle Zahl x = ±d0 .d1 d2 d3 ... heißt berechenbar, falls es ein Programm
P gibt, das auf die Eingabe von n ∈ N0 die Ziffern ±d0 .d1 d2 d3 ...dn abliefert.

4
Schreibe B für die Menge der berechenbaren Zahlen.
Jede algebraische Zahl ist berechenbar: nehme ein Polynom p mit p(x) = 0 (mit ganzzahligem
Koeffizienten) und ein Programm, welches die Nullstellen von p mit beliebiger Genauigkeit
berechnet (das gibt es!).
Es gibt auch berechenbare Zahlen, die nicht algebraisch sind: e ∈ B, π ∈ B.

Gibt es reelle Zahlen, die nicht berechenbar sind? Ja, denn B ist abzählbar (ähnlich wie oben).
Es gilt also
N ⊂ Z ⊂ Q ⊂ (A ∩ R) ⊂ B ⊂ R
und alle Inklusionen sind echt.
Zwei Mengen haben dieselbe Kardinalität, falls es eine Bijektion zwischen den Mengen gibt:
f : A ↔ B.
Betrachte die geraden Zahlen: 2N = {2n : n ∈ N}. Diese haben dieselbe Kardinalität wie N:
f : N → 2N mit f (n) = 2n ist eine Bijektion.
Also haben N, Z, Q, A, B dieselbe Kardinalität, aber R hat eine größere.

R bildet bezüglich Addition und Multiplikation einen kommutativen Körper mit Einselement.
Die entsprechenden Rechenregeln, z.B. x(y + z) = xy + xz (Distributivgesetz) setzen wir als
bekannt voraus. Weiter ist R angeordnet, das heißt wir haben eine Ordnungsrelation für die
reellen Zahlen:
1. ∀x ∈ R gilt genau eine der folgenden drei Aussagen:

x > 0, x = 0, x < 0. (1.1)

2. ∀x, y ∈ R gilt:
x > 0, y > 0 ⇒ x + y > 0, x · y > 0. (1.2)

Wir definieren auf R x R vier Relationen:

x>y genau dann wenn x−y >0


x≥y genau dann wenn x > y oder x = y
x<y genau dann wenn x−y <0
x≤y genau dann wenn x < y oder x = y

(1.1) und (1.2) führen zu den üblichen Regeln für Ungleichungen, z.B.:

x < y, y < z ⇒ x < z


x ≤ y, y ≤ x ⇒ x = y
x 6= 0 ⇒ x2 > 0
1 1
0<x<y⇒0< <
y x
Notation für Intervalle: Wir schreiben:

[a, b] = {x ∈ R : a ≤ x ≤ b} (abgeschlossenes Intervall)


(a, b) = {x : x ∈ R, a < x < b} (offenes Intervall)

Analog bei halboffenen Intervallen: [a, b), (a, b] usw.


Definition 1.5 (Obere Schranke). Eine Zahl x ∈ R heißt obere Schranke einer Teilmenge
M von R, falls alle Elemente durch diese Schranke abgeschätzt werden können, also falls y ≤ x
gilt ∀y ∈ M . Die Menge M ⊆ R heißt nach oben beschränkt, falls es eine obere Schranke
von M gibt, andernfalls heißt M nach oben unbeschränkt.
Definition 1.6 (Maximum). Eine Zahl x ∈ R heißt Maximum einer Teilmenge M von R,
falls x ∈ M und y ≤ x, ∀y ∈ M .

5
Eine Menge kann nach oben beschränkt sein, aber kein Maximum haben, z.B. M = (a, b) mit
a, b, ∈ R, a < b.

Definition 1.7 (Supremum). Eine reelle Zahl s heißt Supremum einer Teilmenge M von R,
falls s eine obere Schranke von M ist und falls s ≤ x für jede obere Schranke x von M (d.h. das
Supremum ist die kleinste obere Schranke von M und als solche eindeutig).
Wir schreiben: sup(M).
Konvention: sup(∅) = −∞, sup(M) = ∞, falls M nach oben unbeschränkt ist.
Jede nicht leere nach oben beschränkte Teilmenge von R besitzt ein Supremum.
Diese Eigenschaft von R heißt auch Vollständigkeit.
Beachte: Dies ist nicht richtig für Teilmengen von Q: Das Supremum muss nicht in Q liegen.
Q ist dicht in R im folgenden Sinne: für x < y, x, y ∈ R gibt es ein z ∈ Q mit x < z < y.
Übung: Geben Sie ein solches z explizit als Funktion von x und y an!
Analog zu oberer Schranke, Maximum und Supremum definieren wir untere Schranke, Minimum
(nicht jede Teilmenge von R hat ein Minimum) und Infimum (wir schreiben inf(M)).
Konvention: inf(∅) = ∞ und inf(M) = −∞, falls M nicht nach unten beschränkt ist.

Rechenregeln für Suprema und Maxima


Die folgenden Rechenregeln für Suprema gelten auch für Maxima, falls diese existieren.
Satz 1.8. Seien A, B ⊆ R mit sup(A), sup(B) ∈ R (also nicht +∞).
Dann gilt sup(A + B) = sup(A) + sup(B) .
Dabei ist A + B = {a + b : a ∈ A, b ∈ B}.
Falls λ ≥ 0, so gilt sup(λ · A) = λ · sup(A). Dabei ist λ · A = {λ · a : a ∈ A}.
Sind A, B ⊆ [0, ∞) so gilt sup(A · B) = sup(A) · sup(B).
Dabei ist A · B = {a · b : a ∈ A, b ∈ B}
Falls A ⊆ B so gilt
sup(A) ≤ sup(B) (1.3)
Beweis. Übung.

Wegen
inf(A) = −sup(−A) (1.4)
wobei −A = {−a : a ∈ A}, gelten dieselben Regeln auch für das Infimum,
wobei statt (1.3) für A ⊆ B gilt
inf(A) ≥ inf(B). (1.5)

Nützliche Ungleichungen
Die Dreiecksungleichung
Für x ∈ R definieren wir: |x| = max({−x, x}), d.h.
(
x, x≥0
|x| =
−x, x < 0.

Für x, y ∈ R gilt: |x| ≥ 0, |x| = 0 ⇐⇒ x = 0


|x · y| = |x| · |y|. Dreiecksungleichung:

|x + y| ≤ |x| + |y|. (1.6)

In (1.6) gilt ”=” genau dann wenn x und y dasselbe Vorzeichen haben.
Umgekehrte Dreiecksungleichung:

|x − y| ≥ | |x| − |y| | . (1.7)

6
Bernoulli-Ungleichung
(1 + x)n ≥ 1 + n · x, ∀n ∈ N, ∀x ≥ −1. (1.8)
Beweis. Übung (mit vollständiger Induktion).

Ungleichung zwischen geometrischem und arithmetischem Mittel


Seien x, y ≥ 0. Dann gilt:
√ x+y
x·y ≤ (1.9)
2
(Links: geometrisches Mittel, rechts: arithmetisches Mittel)

Beweis. 0 ≤ (x − y)2 = x2 − 2xy + y 2 = x2 + 2xy + y 2 − 4xy = (x + y)2 − 4xy


Also: 4xy ≤ (x + y)2 und damit
 2
x+y
xy ≤ (1.10)
2
Wurzelziehen liefert (1.9). Gleichheit gilt genau dann wenn x = y.

Der Vektorraum Rn besteht aus Vektoren der Form x = (x1 , ..., xn )


mit xi ∈ R, 1 ≤ i ≤ n. (x war vorher eine Zahl, ist jetzt jedoch ein Vektor.)

Die Länge eines Vektors ist definiert als


q n
! 21
X
||x|| = x21 + ... + x2n = x2i
i=1
n
Das Skalarprodukt
Pn zweier Vektoren x, y ∈ R ist definiert als
hx, yi = i=1 xi · yi . Dann gilt p
||x|| = hx, xi.
Es gilt ||x|| ≥ 0 mit Gleichheit genau dann wenn x = (0, 0, ..., 0).

Cauchy-Schwarz-Ungleichung
|hx, yi| ≤ ||x|| · ||y|| ∀x, y ∈ Rn .
Gleichheit gilt genau dann, wenn es α, β ≥ 0 gibt, so dass nicht α = β = 0 mit
α · xk = β · yk , 1 ≤ k ≤ n.
Beweis. Wir wollen zeigen, dass
n
X
xk · yk ≤ sx · sy ,
k=1
pPn pPn
wobei sx = 2 2
k=1 xk , sy = k=1 yk . Falls einer der beiden Vektoren der Nullvektor ist,
so ist das richtig: falls x1 = ... = xn = 0 oder y1 = ... = yn = 0 so ist < x, y >= ||x|| · ||y||
und (α, β) = (1, 0) oder (α, β) = (0, 1). Wir können also annehmen, dass sx > 0, sy > 0.
Pn x2 +y 2
Wir versuchen k=1 xk · yk nach oben abzuschätzen: wegen (1.9) gilt xk · yk ≤ k 2 k . Wir
summieren über k:
n
X 1
xk · yk ≤ (s2x + s2y ) (1.11)
2
k=1

mit Gleichheit genau dann wenn xk = yk , ∀k. Wegen (1.9) gilt auch sx · sy ≤ 21 (s2x + s2y ),
deswegen ist (1.11) zu grob, es sei denn sx = sy . Also: betrachte xk = xsxk y k = ysyk , 1 ≤ k ≤ n
Pn
Pn sx = sy = 1 und (1.11) liefert k=1 xk · y k ≤ 1
Dann gilt:
Also: k=1 xk · yk ≤ 1 und Gleichheit gilt genau dann, wenn x̄k = ȳk , also α = sy , β =
sx α, β 6= 0.

7
Beweis der Dreieckungleichung mithilfe der Cauchy-Schwarz-Ungleichung
Zur Erinnerung: Die Dreiecksungleichung sagt, dass

||x + y|| ≤ ||x|| + ||y|| ∀x, y ∈ Rn (1.12)

n
X n
X
||x + y||2 = (xk + yk )2 = x2k + 2xk · yk + yk2
k=1 k=1
Xn n
X n
X
= x2k + 2 xk · yk + yk2
k=1 k=1 k=1
= ||x||2 + 2hx, yi + ||y||2
≤ ||x||2 + 2||x|| · ||y|| + ||y||2
= (||x|| + ||y||)2

Wurzelziehen ergibt (1.6).

Komplexe Zahlen
Eine komplexe Zahl z kann identifiziert werden mit einem Paar

z = (x, y), x, y ∈ R

z =x+i·y
, x = Re(z) y = Im(z). Wir definieren die Menge C der komplexen Zahlen als C = {z =
x + i · y : x, y ∈ R} x bezeichnet den Realteil von z, y den Imaginärteil.
Dabei gilt: i2 = −1.
Die Addition in C ist komponentenweise gegeben:
Falls z1 = (x1 , y1 ), d.h. z1 = x1 + i · y1 und z2 = (x2 , y2 ), d.h. z2 = x2 + i · y2 so ist
z1 + z2 = (x1 + x2 , y1 + y2 ) oder z1 + z2 = x1 + x2 + i · (y1 + y2 ).

Falls z1 = x1 + i · y1 , z2 = x2 + i · y2 so ist die Multiplikation in C definiert durch


z1 · z2 = x1 · x2 − y1 · y2 + i · (x1 · y2 + x2 · y1 ).
C ist wie R ein kommutativer Körper mit Einselement, aber nicht angeordnet. Denn i2 =
−1 < 0 steht dazu im Widerspruch. Man stellt sich C normalerweise als Zahlenebene vor, wir
kommen später darauf zurück.
Die zu z = x + i · y konjugiert komplexe Zahl z̄ ist definiert durch z̄ = x − i · y und es gelten

z̄¯ = z, z1 + z2 = z̄1 + z̄2 , z1 · z2 = z̄1 · z̄2 ∀z1 , z2 ∈ C

Beweis. Übung.
p
Der Betrag von z ist |z| = x2 + y 2 und es gilt |z|2 = z · z̄ ∀z ∈ C.

8
2 Folgen und Stetigkeit
Eine Folge mit Werten in M ist eine Abbildung N → M oder N0 → M (Aufzählung von
Elementen). Wir schreiben (xn ) = x1 , x2 , x3 , ... (oder x0 , x1 , x2 , ...). Eine Folge kann explizit
gegeben sein, z.B.
xn = 2n (2.1)
oder rekursiv, z.B. xn+1 = 2 · xn , x0 = 1, was ebenfalls (2.1) ergibt.
Definition 2.1 (Grenzwert einer Folge). Sei (xn )n∈N eine reelle Folge. Eine Zahl x ∈ R heißt
Grenzwert (oder Limes) von (xn )n∈N , falls es zu jedem ε > 0 ein N gibt, so dass
|xn − x| < ε ∀n ≥ N (2.2)
Man sagt: ”xn konvergiert gegen x”. Wir schreiben: xn −−−−→ x oder x = limn→∞ xn .
n→∞

1
Beispiel 2.2. Die Folge xn = n konvergiert gegen x = 0.
1 1 1
Wähle zu ε > 0, N so, dass N > ε, dann gilt für n ≥ N : |xn − 0| = xn = n ≤ N < ε und (2.2)
ist erfüllt.

Beispiel 2.3. Die Folge xn = (−1)n hat keinen Grenzwert.


Gibt man ε ≤ 1 vor, so gilt für jedes x ∈ R entweder |1 − x| ≥ ε oder |(−1) − x| ≥ ε, d.h. (2.2)
kann nicht erfüllt werden.
Satz 2.4. Jede reelle Folge (xn ) hat höchstens einen Grenzwert.
Beweis. Falls xn −−−−→ x und xn −−−−→ y, so gibt es zu jedem noch so kleinen ε > 0 ein
n→∞ n→∞
N ∈ N mit |x − y| ≤ |x − xn | + |xn − y| ≤ 2 · ε ∀n ≥ N ⇒ x = y

Beispiel 2.5. Sei x ∈ [0, 1] mit Dezimaldarstellung x = 0.d1 d2 d3 ... und xn = 0.d1 d2 ...dn
n = 1, 2, 3, ..., dann gilt, dass xn −−−−→ x, da |xn − x| ≤ 10−N für n ≥ N .
n→∞

Beispiel 2.6. (x1 , x2 , x3 , ...) = (1, 12 , 13 , 12 , 13 , 14 , 13 , 14 , 15 , 14 , 51 , 16 , ...). Dann gilt xn →n→∞ 0.


Beachte, dass |xn − 0| = xn nicht monoton fällt.
Lemma 2.7. (xn ) und (yn ) seien Folgen mit xn → x und yn → y.
Falls xn ≤ yn ∀n, so gilt x ≤ y.
Beweis. Übung.
Beispiel 2.8. xn = n12 , yn = n1 , n = 1, 2, ... Dann gilt: x = y = 0 ⇒ der Grenzwert zweier
Folgen xn und yn kann derselbe sein, auch wenn xn strikt kleiner ist als yn für jedes n.
Bemerkung. Die Frage, ob eine vorgegebene rekursiv definierte Folge (xn ) konvergiert, kann
schwierig sein. Ein berühmtes Beispiel dafür ist das Collatz-Problem (Lothar Collatz 1937):
Definiere (xn ) durch 
xn
2,
 xn gerade
xn+1 = 3xn + 1, xn ungerade, xn 6= 1

1, xn = 1

z.B. mit x1 = 100 x2 = 50 x3 = 25 x4 = 76 x5 = 38 x6 = 19


x7 = 58 x8 = 29 x9 = 88 x10 = 44 x11 = 22 x12 = 11 x13 = 34
x14 = 17 x15 = 52 x16 = 26 x17 = 13 x18 = 40 x19 = 20
x20 = 10 x21 = 5 x22 = 16 x23 = 8 x24 = 4 x25 = 2 x26 = 1

Collatz-Vermutung (wird auch unter anderen Namen gehandelt):


Für jedes x1 ∈ N konvergiert (xn ) gegen 1.

Die Vermutung ist offen!

9
Satz 2.9 (Einschließung). Seien (xn ) und (yn ) Folgen mit xn → x und yn → x und xn ≤
yn , ∀n.
Ist (wn ) eine weitere Folge mit xn ≤ wn ≤ yn , ∀n, so gilt auch wn → x.

Beweis. Übung.
Beispiel 2.10.
1
wn = 7
n + n log n + 13 · n17
7 1
Wir wissen: n log n + 13 · n17 ≥ 0 ∀n und 0 ≤ wn ≤ xn = n ⇒ wn →n→∞ 0

Einschließung ist sehr gebräuchlich, um zu zeigen dass eine Folge konvergiert.


Definition 2.11. Wir sagen, (xn ) geht gegen +∞, falls es zu jedem c > 0 ein N ∈ N gibt, mit

xn ≥ c ∀n ≥ N (2.3)

(xn ) geht gegen −∞, falls (−xn ) gegen +∞ geht.

Beispiel 2.12. Die Folge xn = 2n , n ∈ N geht gegen +∞.

Eine Folge heißt beschränkt, falls es ein K > 0 gibt, sodass die Folgenglieder alle beschränkt
sind durch K: |xn | ≤ K ∀n.
Eine Folge kann beschränkt sein (z.B. xn = (−1)n ) und trotzdem nicht konvergent.
Satz 2.13. Jede konvergente Folge ist beschränkt.
(”Konvergente Folge” heißt xn → x für ein x ∈ R, siehe Definition 2.1).

Beweis. Übung.
Eine Folge heißt monoton wachsend, falls xn ≤ xn+1 , ∀n.
Eine Folge heißt streng monoton wachsend, falls xn < xn+1 , ∀n.

Analog definiert man monoton fallende und streng monoton fallende Folgen.
Satz 2.14. Jede monoton wachsende und beschränkte Folge ist konvergent und es gilt:

lim xn = supn xn
n→∞

wobei supn xn := sup(M) mit M = {xn : n ∈ N}.


Beweis. Wir setzen s := supn xn . Für jedes ε > 0 gibt es N ∈ N, sodass s−ε < xN (andernfalls
wäre s nicht die kleinste obere Schranke, da s − ε eine obere Schranke von M wäre).
Für n ≥ N gilt s − ε < xN ≤ xn ≤ s, da die Folge monoton wachsend ist und s eine obere
Schranke ist.
Damit gilt xn → s.

Analog gilt, dass jede beschränkte monoton fallende Folge gegen ihr Infimum konvergiert.


Beispiel 2.15. x1 > 0, xn+1 = xn
Falls x1 ≥ 1 ist, so ist (xn ) monoton fallend.
Falls x1 < 1, so ist xn monoton wachsend.
In beiden Fällen gilt xn →n→∞ 1.

10
Satz 2.16 (Rechenregeln für Grenzwerte). Seien (xn ), (yn ) Folgen mit xn → a und yn → b, so
gilt
xn + yn → a + b
xn − yn → a − b
xn · yn → a · b
xn a
→ , falls b 6= 0
yn b

Beweis. Übung.
Beispiel 2.17.
log n
n2 − log n 1 − n2
xn = = −−−−→ 1,
2
n + 2n + 1 1 + n2 + n12 n→∞

da
log n 2 1
1− −−−−→ 1 und 1+ + −−−−→ 1
n2 n→∞ n n2 n→∞
Definition 2.18 (Stetige Funktionen). Eine reellwertige Funktion f mit Definitionsbereich
D ⊆ R (kurz: f : D → R) ist stetig in einem Punkt x ∈ D, falls für jede Folge (xn ) ⊆ D mit
xn → x gilt f (xn ) →n→∞ f (x).
f heißt stetig in D, falls f stetig ist in x, ∀x ∈ D.

Beispiel 2.19. (
x, x≤0
f (x) =
x + 1, x>0
f ist stetig in x, falls x 6= 0.
f ist nicht stetig in x = 0.

Wählt man D = (−∞, 0], so ist f stetig in D.


Wählt man D = [0, ∞) so ist f nach wie vor unstetig (nicht stetig) in x = 0.

Beispiel 2.20. f (x) = x1 , x > 0


f ist stetig in (0, ∞), kann jedoch nicht zu einer stetigen Funktion auf [0, ∞) fortgesetzt werden,
da f (xn ) gegen ∞ geht, falls xn → 0.
Satz 2.21. Seien f, g reellwertige Funktionen mit Definitionsbereich D. Sind f und g stetig in
x für ein x ∈ D, so sind auch f + g, f − g, f · g stetig in x und fg ist stetig in x, falls g(x) 6= 0.

Beweis. Einfach, mit Satz 2.16.

Pn k
Als Folgerung erhalten wir, dass Polynome p(x) = k=0 ak x , a0 , ..., an ∈ R und rationale
p(x)
Funktionen r(x) = q(x) , p, q Polynome , stetig sind auf ihren Definitionsbereichen.

Satz 2.22 (Komposition stetiger Funktionen). Seien f : Df → R und g : Dg → R mit


f (Df ) ⊆ Dg (dabei ist f (A) = {f (x) : x ∈ A}).

Ist f stetig in x und g stetig in f(x), so ist g ◦ f : Df → R stetig in x.

Wir schreiben g ◦ f für die Funktion (g ◦ f )(x) = g(f (x)).

11
f stetig in x g stetig in f(x)
Beweis. xn → x =⇒ f (xn ) → f (x) =⇒ g(f (xn )) → g(f (x)).
Definition 2.23. Sei f : D → R. Wir sagen, f hat im Punkt a ∈ D den linksseitigen
Grenzwert c, und schreiben limx→a− f (x) = c, falls f (xn ) → c für jede Folge (xn ) ⊆ D mit
xn → a und xn < a, ∀n ∈ N.

f heißt linksseitig stetig in a, falls limx→a− f (x) = f (a).

Analog wird der rechtsseitige Grenzwert limx→a+ f (x)definiert.

Beispiel 2.24. Für die Funktion


(
x, x≤0
f (x) =
x + 1, x>0

gilt limx→0− f (x) = 0 und limx→0+ f (x) = 1.

Da f (0) = 0 ist f in 0 linksseitig stetig, aber nicht rechtsseitig stetig.

Fixpunktiteration
Wir wollen für ein gegebenes f die Gleichung

x = f (x) (2.4)

lösen. Eine Lösung von (2.4) heißt Fixpunkt von f.


Wir setzen die Iteration
xn+1 = f (xn ) (2.5)
an und hoffen, dass für gegebenes x0 die Folge (xn ) gegen eine Lösung von (2.5) konvergiert.

Beispiel 2.25. f (x) = x

Wir hatten gesehen: ∀x0 > 0 konvergiert die Folge (xn ),, gegebn durch xn+1 = xn gegen 1
und es gilt 1 = f (1).

Beachte: Falls f stetig ist in D, f (D) ⊆ D, x0 ∈ D, so können wir schließen: falls die Iteration
von (2.5) konvergiert, so ist der Grenzwert eine Lösung von (2.4).
Denn: xn → x ⇒ f (xn ) → f (x) also xn+1 →n→∞ f (x).
Da Grenzwerte eindeutig bestimmt sind, folgt x = f (x).

Beispiel 2.26 (Bestimmung der Quadratwurzel einer reellen Zahl b > 0). Wir wollen x2 = b
lösen.
Äquivalent dazu ist: x2 = 21 x2 + 12 b oder x = 12 (x + xb ) = f (x).
f ist stetig in (0, ∞).
Wir setzen also xn+1 = f (xn ) = 12 (xn + xbn ) und nehmen x0 > 0.
Es gilt√xn > 0, ∀n (Beweis mit Induktion).
xn ≥ b ∀n ≥ 1 und (x1 , x2 , ...) monoton fallend (Siehe Übungen!).
2
Nach Satz 2.14 konvergiert (xn ) gegen inf n xn = x. Aus Lemma 2.7:
2
√ x ≥ 0 und x ≥ b > 0
also x > 0. Da f stetig ist, gilt x = f (x) ⇒ x = b also x = b. Die Konvergenz √ der
Fixpunktiteration ist in diesem Fall sehr schnell, z.B. für b = 2, x0 = 2 gilt (x4 − 2) ≤ 10−9
(8 Kommastellen sind richtig).
1
Beispiel 2.27 (Bildung von Inversen). Um für gegebenes a > 0 die Zahl a zu berechnen, kann
man wie folgt vorgehen:
1
x0 ∈ (0, ), xn+1 = f (xn ) = 2xn − ax2n = xn (2 − axn )
a

12
Behauptung. 0 < xn ≤ a1 , ∀n
Beweis. Mit Induktion nach n. Genauer: axn+1 = axn (2 − axn ) > 0, ∀n. Weiter gilt axn+1 =
axn · (2 − a · xn ) = −((axn )2 − 2axn + 1) + 1 = −(axn − 1)2 + 1 ≤ 1.
Behauptung. Die Folge (xn ) ist monoton wachsend.
Beweis. Wir zeigen xn+1 − xn ≥ 0, ∀n
xn+1 − xn = xn − ax2n = xn (1 − axn ) ≥ 0 da axn ≤ 1 also ist (xn ) ist wachsend.
⇒ (xn ) konvergiert gegen ein x und x ist Fixpunkt der Funktion x = f (x) = a1 .
Denn: x = f (x) = 2x − ax2 ⇒ x = ax2 ⇒ 1 = ax ⇒ x = a1 .

1 n

Beispiel 2.28 (Die Eulersche Zahl e). Sei xn = 1 + n , n ∈ N.
1
(1+ n+1 )n+1
(xn ) ist monoton wachsend: wir zeigen xxn+1 > 1. Es xn+1
gilt xn = (1+ 1 n
 n n n)
1
= 1 − (n+1) 2 · n+2
  n+1
n
≥ 1 − (n+1) 2 · n+2
n+1 (Bernoulli-Ungleichung)
1
=1+ (n+1)3 >1 ⇒ (xn ) ist monoton wachsend.

Behauptung. (xn ) ist beschränkt.


Pn  k
Beweis. xn = k=0 nk n1 (Binomischer Lehrsatz)
Wir
 schätzen zunächst dieSummanden ab:
n 1 1 1 2 k−1 1

k nk = k! 1 − n 1 − n ... 1 − n ≤ k! n, k ∈ N
k−1
und k! = 1 · 2 · 3 · ... · k ≥ 2 k ∈ N.
Also gilt:
n n
X 1 X 1
xn ≤ ≤1+ 2−(k−1) < 1 + 1 =3
k=0
k!
k=1
1 − 2
1
Allgemein gilt (hier in der letzten Ungleichung verwendet): 1 + a + a2 + ... + an < 1−a .
n
Damit konvergiert (xn ) und e := lim 1 + n1 existiert.
n→∞

Beschränkte Folgen, Limes superior und Limes inferior


Sei (xn ) eine beschränkte Folge reeller Zahlen.

Betrachte
xn = supk≥n xk , xn = inf k≥n xk
Dann ist (xn ) monoton fallend und (xn ) monoton wachsend.

Also existieren nach Satz 2.14 die beiden Grenzwerte

lim sup xn := lim xn und lim inf xn := lim xn


n→∞ n→∞ n→∞

die wir als Limes superior beziehungsweise Limes inferior von (xn ) bezeichnen.

Aus xn ≤ xn folgt:
lim inf xn ≤ lim sup xn
n→∞ n→∞

Wir werden sehen, dass genau dann Gleichheit gilt, wenn der Limes existiert.
Definition 2.29 (Häufungspunkt). Ist (xn ) reellwertige Folge und n1 < n2 < n3 < ..., nk ∈
N, ∀k, so heißt (xnk ) Teilfolge von (xn ). Weiter heißt x Häufungspunkt von (xn ), falls es
eine Teilfolge (xnk ) gibt mit
lim xnk = x
k→∞

13
Beispiel 2.30. xn = (−1)n n ∈ N

Die Häufungspunkte von (xn ) sind +1 und −1.


Satz 2.31 (Bolzano-Weierstrass). Gegeben sei eine beschränkte reellwertige Folge (xn ).
Dann sind Limes superior und Limes inferior maximaler beziehungsweise minimaler Häufungspunkt
der Folge.
Weiter gilt:
xn −−−−→ x ⇔ lim inf xn = lim sup xn = x (∗)
n→∞ n→∞ n→∞

Beweis. Wir müssen drei Dinge zeigen:


1. Limes superior und Limes inferior sind Häufungspunkte
2. Jeder Häufungspunkt x liegt in dem Intervall [lim inf n→∞ xn , lim supn→∞ xn ].
3. (*) gilt

Zu (1): Definiere für jedes k = 1, 2, 3, ... rekursiv n1 = 1 < n2 < n3 < ... so dass
1 1
xnk +1 − = sup xn − ≤ xnk+1 ≤ sup xn = xnk +1
k n>nk k n>nk

Lassen wir k → ∞ gehen, so erhalten wir (durch Einschließung):

lim xnk = lim xnk +1 = lim sup xn


k→∞ k→∞ n→∞

d.h. die so konstruierte Teilfolge (xnk ) konvergiert gegen den Limes superior von (xn ). Dieser
ist daher Häufungspunkt von (xn ).

Der Beweis, dass Limes Inferior ein Häufungspunkt von (xn ) ist, geht analog.

Zu (2): Für jede Teilfolge (xnk ) gilt

inf xn ≤ xnk ≤ sup xn


n≥nk n≥nk

Falls xnk →k→∞ x, d.h. falls die Teilfolge gegen den Häufungspunkt x konvergiert, so bekommt
man mit k → ∞
lim inf xn ≤ x ≤ lim sup xn
n→∞ n→∞

Zu (3): ”⇒” in (*) gilt, weil jede Teilfolge einer konvergenten Folge (xn ) mit xn → x gegen
denselben Grenzwert x konvergiert.
Für ”⇐” führen wir einen Widerspruchsbeweis:
Wir nehmen an, dass
lim sup xn = lim inf xn = x
n→∞ n→∞

aber dass (xn ) nicht gegen x konvergiert.


Dann gibt es für jedes ε0 > 0 eine Teilfolge (xnk ), sodass |x − xnk | > ε0 ∀k ∈ N.
Die Teilfolge (xnk ) ist wie (xn ) beschränkt und hat daher selber einen Häufungspukt x
e. Dieser
erfüllt nach Konstruktion |e x − x| > ε0 > 0, also x
e 6= x.
Also ist xe auch ein Häufungspunkt der ursprünglichen Folge (xn ) und nach (2) müsste

x = lim inf xn ≤ x
e ≤ lim sup xn = x
n→∞ n→∞

gelten.
x 6= x
da e

14
Beispiel 2.32. Wir betrachten die Folge (xn ) = (0, 21 , 1, 0, 14 , 12 , 34 , 1, 0, 18 , 14 , 38 , 12 , 58 , 34 , 78 , 1, 0, 16
1
, ...).
Die Menge der Häufungspunkte ist [0, 1].
Es gilt
lim inf xn = 0, lim sup xn = 1
n→∞ n→∞
Die Folge ist abzählbar, aber die Menge der Häufungspunkte ist nicht abzählbar.
Folgerung 2.33 (zu Satz 2.31). Jede beschränkte reelwertige Teilfolge hat eine konvergente
Teilfolge und damit auch einen Häufungspunkt.

3 Reihen
Definition
Pn 3.1. Einer Folge (an ) komplexer Zahlen ordnen wir die Folge sn = a0 + ... + an =
a
k=0 k zu und bezeichnen sie als unendliche Reihe, kurz Reihe mit den Gliedern an und
die Partialsummen sn .
Falls die Partialsummen sn konvergieren, d.h. sn →n→∞ s, so heißt die Reihe konvergent
und der Grenzwert heißt Summe oder Wert der Reihe. Wir schreiben

X
s = lim sn = ak
n→∞
k=0

Sind die Folgenglieder reell und geht die Folge (sn ) gegen +∞ (bzw. −∞) so schreiben wir auch

X
ak = +∞
k=0

und sagen: der Wert der unendlichen Reihe ist ∞, bzw.



X
ak = −∞
k=0

der Wert der unendlichen Reihe ist −∞.

Beispiele:
Beispiel 3.2 (Die geometrische Reihe). Für z ∈ C betrachten wir
n
X
sn = zk
k=0
0
Nach Konvention ist immer z = 1.
Es gilt:
1 − z n+1
sn =
1−z
Für |z| < 1 gilt
|z n+1 | →n→∞ 0
(da |z n+1 | = |z|n+1 ) und damit
1
sn → s =
1−z
Also gilt, falls |z| < 1

X 1
zk = (3.1)
1−z
k=0
Für z ∈ R, |z| ≥ 1 gilt

X
zk = ∞
k=0
(denn sn ≥ n + 1).

15
Beispiel 3.3 (Die Teleskopreihe). Sei
n
X 1
sn =
k · (k + 1)
k=1

1 1 1
Wegen k·(k+1) = k − k+1 gilt
n  
X 1 1 1
sn = − =1−
k k+1 n+1
k=1

Also: sn →n→∞ 1, also



X 1
=1
k · (k + 1)
k=1

Bemerkung. Für die Frage, ob eine Reihe konvergiert, Pn spielen die ersten n0 Glieder der
Folge keine Rolle: Für m ≥ n0 , m beliebig, gilt, dass k=n0 ak konvergiert, genau dann wenn
Pn
k=m ak konvergiert.
Für den Wert der Reihe spielen sie aber natürlich eine Rolle.
Beispiel 3.4 (Die harmonische Reihe). Sei
n
X 1
sn =
k
k=1

Wir sehen: Die Folgenglieder gehen gegen 0, aber langsamer als bei der Teleskopreihe.
Behauptung.

X 1
=∞
k
k=1

Beweis. Für N = 2 gilt sN = 1 + + + 14 + 15 + ... + 81 + ... + 2j−11 +1 + ... + 21j


j 1
2
1
3
Wir schätzen nun die Summanden in Blöcken nach unten ab: 13 + 14 ≥ 21 , 15 + ... + 1
8 ≥ 1
2,
1 1 1 j j
2j−1 +1 + ... + 2j ≥ 2 , also sn ≥ 1 + 2 für N = 2 . Damit geht (sn ) gegen +∞.

Rechenregeln
Falls

X ∞
X ∞
X
ak = a und bk = b so gilt ak + bk = a + b (3.2)
k=0 k=0 k=0

und

X ∞
X
c·a=c· ak = c · a ∀c ∈ R (3.3)
k=0 k=0

(3.2) und (3.3) ergeben sich aus den entsprechenden Aussagen für Grenzwerte von Folgen.
Falls eine Reihe konvergent ist, d.h. sn → s für ein s ∈ C, so gilt für die Glieder an =
sn − sn−1 = sn − s + s − sn−1 ⇒ |an | ≤ |sn − s| + |s − sn−1 | ⇒ an → 0. Wir haben also gezeigt:
Satz 3.5 (Notwendige Bedingung für die Konvergenz). Ist eine Reihe konvergent, so muss
gelten
lim an = 0
n→∞

Dies ist eine notwendige, aber keine hinreichende Bedingung.


Pn
Satz 3.6. Ist sn = k=0 ak eine reelle Reihe mit ak ≥ 0 ∀k ∈ N0 , so ist (sn ) konvergent
genau dann wenn (sn ) beschränkt ist.
Beweis. (sn ) ist monoton wachsend, und wir können Satz 2.14 anwenden.

16
Vergleichskriterien für Konvergenz
Pn
Definition
Pn 3.7 (Majorante). Sei sn = k=0 ak eine Reihe mit
PnWerten in C. Eine Reihe
k=0 b k (mit b k ∈ R ∀k) mit |ak | ≤ bk heißt Majorante von k=0 ak .
Pn
Satz 3.8 (Majorantenkriterium).
Pn Sei sn = k=0 ak eine Reihe mit Werten in C, welche eine
konvergente Majorante k=0 bk besitzt. Dann ist (sn ) konvergent und es gilt

X ∞
X ∞
X
| ak | ≤ |ak | ≤ bk
k=0 k=0 k=0

Beweis. Wir nehmen an, dass ak ∈ R, ∀k (komplexe Reihen werden getrennt nach Realteil
und Imaginärteil behandelt).
Wir möchten (*) anwenden. Wir haben
n
X n
X n
X ∞
X
| ak | ≤ |ak | ≤ bk ≤ bk < ∞ (∗∗)
k=0 k=0 k=0 k=1

d.h. (sn ) ist beschränkt.


Es gilt
m
X m
X ∞
X
0 ≤ sup ak − inf ak ≤ bk →n→∞ 0
m≥n m≥n
k=0 k=0 k=n+1

Also
n
X n
X
lim sup ak = lim inf ak
n→∞ n→∞
k=0 k=0
P∞
d.h. sn → k=0 ak .
Der zweite Teil folgt mit n → ∞ in (**).
Definition 3.9. Eine Reihe die nicht konvergiert, heißt divergent.
Beispiele
1.

X 1
≤2
k2
k=1
denn

X 1 1 1 1
2
= 1 + 2 + 2 + 2 + ...
k 2 3 4
k=1
1 1 1
≤1+ + + + ...
1·2 2·3 3·4
(Machen jeden Summanden größer, indem wir ihn durch etwas Kleineres teilen)

X 1
=1+ =2
k · (k + 1)
k=1

2.

X 1
p =∞
k=1
k · (k + 1)
denn
1 1
p > ∀k ∈ N
k · (k + 1) 2k
und wir wissen, dass

X 1
=∞
k
k=1

17
Das Argument des letzten Beispiels ist allgemein:

Folgerung
Pn 3.10 (Divergente Minorante). Seien
P n Pn
Pk=0 a k , 0 ≤ ak ≤ bk ∀k. Falls k=0 ak divergent ist, so ist auch
k=0 bk Reihen mit P
n n
Pk=0 bk divergent. Die Reihe k=0 ak heißt in diesem Fall divergente Minorante von
n
b
k=0 k .
Aus dem Vergleich mit der geometrischen Reihe erhalten wir das Quotientenkriterium.
Pn
Satz 3.11 (Quotientenkriterium). Sei k=0 ak eine Reihe mit Werten in C. Falls es ein q ∈ R
mit q < 1 und n0 ≥ 0 gibt, sodass

|ak+1 |
≤q ∀k ≥ n0
|ak |
Pn
so ist k=0 ak konvergent.
Beweis. Das dem Majorantenkriterium, da |ak | ≤ |an0 |q k−nP
Pn folgt aus k−n
0
für k ≥ n0 .
n
Die Reihe k=n0 |an0 |q 0
ist also eine konvergente Majorante von k=n0 ak .

|ak+1 |
Beachte dass es nicht genügt, dass |ak | < 1 gilt.
1
Beispiel 3.12. Für die harmonische Reihe mit ak = k gilt
1
|ak+1 | k+1 k
= 1 = <1
|ak | k
k+1

aber wir wissen, dass sie divergent ist.


k
Beispiel 3.13 (Exponentialreihe). Sei z ∈ C und ak = zk! .
Wegen
|ak+1 | |z|k+1 k! |z|
= · =
|ak | (k + 1)! |z|k k+1
gilt
|ak+1 | 1
≤ ∀k ≥ 2|z| − 1
|ak | 2
Also ist die Reihe konvergent, ∀z ∈ C.
Sie definiert die Exponentialfunktion:

X zk
exp(z) = (3.4)
k!
k=0

und es gilt exp : C → C.


Falls z ∈ R gilt exp(z) ∈ R, wir können also exp auf R einschränken.
Aus (3.4) folgt exp(0) = 1. Für z = 1 bekommt man die Eulersche Zahl:
Behauptung.
e = exp(1)
Beweis. Zu zeigen ist
 n ∞
1 X 1
lim 1+ =
n→∞ n k!
k=0

Siehe Übungen.
Wir werden sehen, dass
exp(x) = ex ∀x ∈ R

18
Pn
Definition 3.14 (Alternierende Reihen). Eine Reihe k=0 ak heißt alternierend, wenn die
Glieder abwechselnd positives und negatives Vorzeichen haben.
Wir schreiben a0 − a1 + a2 − a3 + a4 − ... und nehmen an a0 ≥ 0.

Pn Sei (an )n≥0 eine monoton fallende Folge in R mit an →n→∞ 0.


Satz 3.15 (Leibniz-Kriterium).
Dann konvergiert die Reihe k=0 (−1)k · ak und es gilt für alle n ∈ N

X ∞
X n
X
k k
| (−1) ak − sn | = | (−1) ak − (−1)k ak | ≤ an+1
k=0 k=0 k=0

Beweis. Für k ≥ 1 ist a2k − a2k−1 ≤ 0 und a2k − a2k+1 ≥ 0, also

s2k = s2k−2 − a2k−1 + a2k ≤ s2k−2


s2k+1 = s2k−1 + a2k − a2k+1 ≥ s2k−1

Also ist (s2k )k∈N monoton fallend und (s2k−1 )k∈N monoton wachsend.
Es gilt für alle k
s1 ≤ s2k−1 = s2k − a2k ≤ s2k ≤ s0
und für m ≥ k

s1 ≤ s2k−1 ≤ s2m−1 ≤ s2m ≤ s2k ≤ s0 (3.5)

Also sind beide Teilfolgen (s2k ) und (s2k−1 ) beschränkt und damit konvergent und für alle
k ∈ N gilt

s2k−1 ≤ lim s2m−1 ≤ s2k


m→∞
s2k−1 ≤ lim s2m ≤ s2k
m→∞

Aus (3.5) folgt


0 ≤ | lim s2m − lim s2m−1 | ≤ a2k ∀k
m→∞ m→∞

Also
lim s2m = lim s2m−1
m→∞ m→∞

da a2k → 0.
Sei b := limm→∞ s2m−1 . Da für alle n ∈ N entweder sn ≤ b ≤ sn+1 oder sn ≥ b ≥ sn+1 , folgt
0 ≤ |b − sn | ≤ |sn − sn+1 | = an+1 →n→∞ 0, also sn →n→∞ b.
Pn
Beispiel 3.16. Die alternierende harmonische Reihe k=1 (−1)k k1 ist nach dem Leibniz-Kriterium
konvergent:

X 1
(−1)k < ∞
k
k=1
Pn 1
P n 1
Pn 1
Die Reihe k=1 2k ist divergent, die Reihe k=1 2k−1 ebenfalls. ( k=1 2k ist divergente
Minorante).
Geben wir eine beliebige Zahl a ∈ R vor, so können wir durch Umordnen erreichen, dass die
ungeordnete Reihe gegen a konvergiert:
z.B. für a = 1:
1 1 1 1 1
1 − + + − + ...
2 3 5 4 7
(Wobei wir negative Glieder summieren, bis die Partialsumme ≤ 1 ist, dann positive Glieder
summieren bis die Partialsumme ≥ 1 ist, etc. ).
Pn
Definition 3.17 Pn(Absolute Konvergenz). Eine Reihe k=0 ak mit ak ∈ C heißt absolut kon-
vergent, falls k=0 |ak | konvergiert.

Eine bijektive Abbildung σ : N → N heißt auch Permutation von N.

19
Pn
Satz 3.18 (Umordnungssatz). Eine Reihe k=1 ak konvergiert genau dann absolut, wenn für
jede Permutation σ von N die umgeordnete Reihe gegen denselben Wert konvergiert:

X ∞
X
aσ(k) = ak
k=1 k=1

Eine Folgerung ist der Doppelreihensatz.


P∞ P∞
Satz 3.19 (Doppelreihensatz). Falls k=1 j=1 |ak,j | < ∞ so gilt
∞ X
X ∞ ∞ X
X ∞
ak,j = ak,j
k=1 j=1 j=1 k=1
P∞ P∞
Können wir das Produkt zweier konvergenter Reihen k=0 ak , , k=0 bk wieder als Reihe
schreiben?

Wir wollen also (cm ) finden, sodass



X ∞
X ∞
X
ak · bj = cm
k=0 j=0 m=0

Wir rechnen:
∞ ∞ ∞
∞ X ∞ ∞
X X X (∗) X X X
ak · bj = a k · bj = ak bj = cm
k=0 j=0 k=0 j=0 m=0 k,j:k+j=m m=0

mit dem Cauchy-Produkt


m
X
cm = ak bm−k
k=0

(*) gilt aber nur unter Voraussetzungen.


P∞ P∞
Satz 3.20. Seien k=0 ak und k=0 bk P konvergente Reihen, von denen mindestens
P∞ einePabsolut
∞ ∞
konvergiert. Dann konvergiert die Reihe m=0 cm der Cauchy-Produkte gegen k=0 ak k=0 bk .
Beispiel 3.21.

X zk
exp(z) =
k!
k=0

ist für jedes z ∈ C nach dem Quotientenkriterium absolut konvergent, denn


k+1
z
| (k+1)! | |z|
k = −−−−→ 0
| zk! | |k + 1| k→∞

Also dürfen wir das Cauchy-Produkt bilden und erhalten für alle z, w ∈ C:
∞ Xk ∞ k  
X z j wk−j X 1 X k j k−j
exp(z) exp(w) = = z w = exp(z + w) (3.6)
j=0
j!(k − j)! k! j=0 j
k=0 k=0

P∞ 1
Pk k

wobei k=0 k! j=0 j z j wk−j = (z + w)k .
Satz 3.22. Die Funktion exp : C → C hat folgende Eigenschaften:
1
1. exp(−z) = exp(z) ∀z ∈ C

2. exp(z) 6= 0 ∀z ∈ C (0 steht für (0, 0) ∈ C)


3. exp(x) > 0 ∀x ∈ R

20
4. exp(n) = en ∀n ∈ N (tatsächlich gilt exp(x) = ex ∀x ∈ R)

5. exp(z) = exp(z) ∀z ∈ C
6. Die reelle Exponentialfunktion exp : R → R ist monoton wachsend und für die komplexe
Funktion gilt | exp(z)| ≤ exp(|z|) ∀z ∈ C.
Beweis. Aus 1 = exp(0) = exp(z − z) = exp(z) exp(−z) folgen (1) und (2).
Aus der Definition der Exponentialfunktion folgt exp(x) ≥ 1 > 0 ∀x ∈ R, x ≥ 0, also auch
exp(−x) > 0 ∀x < 0 wegen (1).
(4) folgt wegen
n n
X (3.6) Y
exp(n) = exp( 1) = exp(1) = en
k=1 k=1

(5) folgt wegen


n n
X (z)k X zk
exp(z) = lim = lim = exp(z)
n→∞ k! n→∞ k!
k=0 k=0

Denn es gilt limn→∞ zn = limn→∞ zn , falls (zn ) konvergiert.


(6) Für 0 ≤ x ≤ y ∈ R gilt
∞ ∞
xk yk X xk X yk
≤ ∀k ⇒ exp(x) = ≤ = exp(y)
k! k! k! k!
k=0 k=0

Ist x ≤ y ≤ 0 so ist 0 ≤ −y ≤ −x und wir haben


1 1
= exp(−y) ≤ exp(−x) =
exp(y) exp(x)

schließlich gilt:
∞ ∞
X zk X |z|k
| exp(z)| = | |≤ = exp(|z|)
k! k!
k=0 k=0

Satz 3.23. Die Exponentialfunktion ist stetig auf C.


Das heißt, für jede Folge (zn ) mit Werten in C und |zn − z| →n→∞ 0 gilt

| exp(zn ) − exp(z)| −−−−→ 0


n→∞

Beweis. Wir betrachten zuerst z = 0. Für w ∈ C mit |w| ≤ 1 gilt



X wk
0 ≤ | exp(w) − 1| = | |
k!
k=1

X |w|k

k!
k=1

X |w|k−1
≤ |w|
(k − 1)!
k=1

X |w|k
= |w|
k!
k=0
= |w| exp(|w|)
≤ |w| exp(1)

Falls also zn → 0 (d.h. |zn | → 0), so folgt exp(zn ) → 1, d.h. exp ist stetig in z = 0.

21
Sei nun z ∈ C beliebig und (zn ) eine Folge mit zn →n→∞ z. Also

| exp(zn ) − exp(z)| = | exp(zn − z + z) − exp(z)|


= | exp(zn − z) − 1| · | exp(z)| −−−−→ 0
n→∞

Das heißt exp ist stetig in z.

4 Komplexe Zahlen und trigonometrische Funktionen


Wir betrachten den Einheitskreis {z : |z| = 1} in C und identifizieren ihn mit der Menge der
Winkel {x : 0 ≤ x < 2π}.
Dabei messen wir den Winkel im Bogenmaß.
Rechter Winkel: π2 , Halbkreis: π, Vollkreis: 2π

Wir definieren sin x, cos x durch z = (cos x, sin x) (4.1)

Dann gilt sin 0 = 0, cos 0 = 1 (4.2)

Für x ∈ R gilt sin(x + 2π) = sin x, cos(x + 2π) = cos x (4.3)

Das heißt Sinus und Cosinus sind periodisch mit Periode 2π. Außerdem gilt:

sin(−x) = − sin x (4.4)

cos(−x) = cos x (4.5)

π π
sin(x + ) = cos x cos(x + ) = − sin x (4.6)
2 2
Aus dem Satz von Pythagoras folgt

sin2 x + cos2 x = 1 (4.7)

(Wir schreiben sin2 x für (sin x)2 .

Zusammenhang mit der komplexen Exponentialfunktion


Sei x ∈ R und z = exp(ix) = eix .
Dann gilt
|eix | = eix · eix = eix eix = eix e−ix = e0 = 1
Das heißt für x ∈ R liegt eix auf dem Einheitskreis in der komplexen Ebene.
Es gilt die Eulerformel

eix = cos x + i sin x (4.8)

Insbesondere gilt:
π π π
ei 2 = cos + i sin = i,
2 2
eiπ = cos π + i sin π = −1
π π
(oder eiπ = ei 2 ei 2 = i · i = −1)
(4.8) impliziert

e−ix = cos(−x) + i sin(−x) = cos x − i sin x (4.9)

22
Aus (4.8) und (4.9) folgt
1 ix
(e + e−ix )
cos x =
2
1
sin x = (eix − e−ix )
2i
Mithilfe der Eulerformel bekommen wir die Additionssätze:

cos(x + y) = cos x cos y − sin x sin y (4.10)

sin(x + y) = sin x cos y + sin y cos x (4.11)

Beweis. [von (4.10) und (4.11)] Wir wissen, dass ei(x+y) = eix eiy . Also gilt mit Eulerformel:

cos(x + y) + i sin(x + y) = (cos x + i sin x)(cos y + i sin y)


= cos x cos y − sin x sin y + i(cos x sin y + sin x cos y)

Der Vergleich von Realteil und Imaginärteil liefert (4.10) und (4.11).
Weitere trigonometrische Funktionen sind Tangens und Cotangens, definiert durch:
sin x cos x 1
tan x = , cot x = = (4.12)
cos x sin x tan x
tan x und cot x sind periodisch mit Periode π, d.h. tan (x + π) = tan x, cot (x + π) = cot x,
tan π2 ist nicht definiert.

Reihendarstellung von Sinus und Cosinus


Wir wissen:
1 ix
sin x = (e − e−ix )
2i
∞ ∞
1 X (ix)k X (−ix)k
= ( − )
2i k! k!
k=0 k=0

1 X k xk
= i (1 − (−1)k )
2i k!
k=0
X xk
= ik−1
k!
k: k ungerade
∞ 2l+1
l x
X
= (−1)
(2l + 1)!
l=0
mit k = 2l + 1


X x2k+1
Also: sin x = (−1)k , x∈R
(2k + 1)!
k=0 (4.13)
x3 x5 x7
=x− + − + ...
3! 5! 7!
|x|2 |x|3 |x|4
Die Reihe ist absolut konvergent, da e|x| = 1 + |x| + 2! + 3! + 4! + ... eine konvergente

23
Majorante ist. Analog erhalten wir:
1 ix
cos x = (e + e−ix )
2

1 X (ix)k (−ix)k
= ( + )
2 k! k!
k=0
1 X (ix)k
=
2 k!
k: k gerade

X (−1)l x2l
=
(2l)!
l=0
mit k = 2l
Also:

X x2k
cos x = (−1)k , x∈R
(2k)!
k=0
x2 x4 x6 x8
=1− + − + − ...
2! 4! 6! 8!
und die Reihe ist absolut konvergent mit derselben konvergenten Majorante wie oben.
Aus der Reihendarstellung können wir Grenzwerte erhalten.
Beispiel 4.1.
sin x x2 x4 x6
=1− + − + ...
x 3! 5! 7!

X x2k+1
=1−x· (−1)k
(2k + 3)!
k=0
∞ 2k+1
x
(−1)k (2k+3)! ≤ e|x| , also folgt
P
Für den letzten Term gilt
k=0

sin x
lim = 1. (4.14)
x→0 x
Ebenso gilt:
Beispiel 4.2.
cos x − 1 x x3 x5
=− + − + ...
x 2! 4! 6!

X x2k
=x· (−1)k+1
(2k + 2)!
k=0
∞ 2k
x
(−1)k+1 (2k+2)! ≤ e|x| , also folgt
P
Für den letzten Term gilt
k=0

cos x − 1
lim = 0. (4.15)
x→0 x
Dabei benutzten wir folgendes Argument:
Lemma 4.3. Seien f, g : D → R mit D ⊆ Rd , a ∈ D und g sei beschränkt auf D und
lim f (x) = 0
x→a

Dann gilt auch


lim f (x)g(x) = 0
x→a
(Wir schreiben lim f (x) = b falls f (xn ) → b für jede Folge (xn ) mit xn → a.)
x→a

24
Beweis. | g(x)| ≤ K ∀x ∈ D
(xn ) Folge in D mit xn → a ⇒ |f (xn )g(xn )| ≤ K|f (xn )| −−−−→ 0
n→∞

Polarkoordinaten in der komplexen Ebene.


z
Für z ∈ C, z 6= 0 gilt z = |z| · |z| z
. Da | |z| | = |z| z
|z| = 1 gilt |z| = e

wobei ϕ der Winkel ist, den
z iϕ
|z| mit der reellen Achse bildet. Also: z = re mit r = |z|.
r und ϕ heißen auch Polarkoordinaten.
Die Multiplikation in C wird anschaulich in Polarkoordinaten:

z1 = r1 eiϕ1 , z2 = r2 eiϕ2
Also mit Eulerformel: z1 = r1 (cos ϕ1 + i sin ϕ2 ), z2 = r2 (cos ϕ2 + i sin ϕ2 )

z1 z2 = r1 r2 (cos ϕ1 cos ϕ2 − sin ϕ1 sin ϕ2 + i cos ϕ1 sin ϕ2 + i sin ϕ1 cos ϕ2


= r1 r2 (cos (ϕ1 + ϕ2 ) + i sin (ϕ1 + ϕ2 ))
= r1 r2 ei(ϕ1 +ϕ2 )

(Oder direkt mit (3.6) : r1 eiϕ1 · r2 eiϕ2 = r1 r2 ei(ϕ1 +ϕ2 ) ). Das heißt bei der Multiplikation in C
werden die Längen multipliziert und die Winkel addiert.

5 Konsequenzen der Stetigkeit


Der Zwischenwertsatz
Sei f : [a, b] → R mit f (a) < f (b). Gibt es zu y ∈ [f (a), f (b)] ein x mit f (x) = y?
Im allgemeinen nicht:
Beispiel 5.1. Setze (
f (a), a ≤ x ≤ a+b
2
f (x) = a+b
f (b), 2 <x≤b

Satz 5.2 (Zwischenwertsatz). Sei f : [a, b] → R stetig und entweder f (a) < y < f (b) oder
f (b) < y < f (a). Dann gibt es x ∈ (a, b) mit f (x) = y.
Beweis. Nehmen an f (a) < y < f (b).
Sei M = {z : z ∈ [a, b], f (z) ≤ y} und x := sup(M ). Dann gilt f (x) = y. Denn: Ist (zn ) eine
Folge in M mit zn ≤ x und zn → x so folgt f (zn ) ≤ y und da f stetig ist, gilt f (zn ) → f (x)
also f (x) ≤ y. Weiter gilt f (x) < f (b) also x < b. Da f (x + n1 ) > y, für alle n, gilt f (x) ≥ y,
da f stetig. Damit gilt f (x) = y.
Definition 5.3. Sei f : D → R mit D ⊆ R.
Ein x ∈ D heißt Maximum (bzw. Minimum) von f, falls f (x) ≥ f (z) ∀z ∈ D (bzw.
f (x) ≤ f (z) ∀z ∈ D).
Nicht jede Funktion hat ein Maximum oder Minimum.
Beispiel 5.4. f : R → R, f (x) = x hat weder Maximum noch Minimum auf R.
x
Beispiel 5.5. f : R → R, f (x) = x+1 für x ≥ 0 und f (x) = −f (−x) für x ≤ 0 hat weder
Maximum noch Minimum.
Beispiel 5.6. f : [0, 1] → R, f (0) = f (1) = 0, f (x) = x − 12 , 0 < x < 1 hat weder Maximum
noch Minimum auf [0, 1], da f in den Randpunkten nicht stetig ist.
Satz 5.7. Falls f : [a, b] → R stetig ist, so hat f ein Maximum und ein Minimum auf [a, b].

Beweis. Betrachte die Bildmenge

B := f ([a, b]) = {f (x) : x ∈ [a, b]}

25
B ist nach oben beschränkt, denn andernfalls gäbe es eine Folge (xn ) in [a, b] mit f (xn ) → ∞.
(xn ) hätte aber nach dem Satz von Bolzano-Weierstraß eine Teilfolge (xnk ) mit xnk → x ∈ [a, b]
und damit würde f (xnk ) → f (x) gelten.
Sei nun s := sup(B) und (zn ) eine Folge in [a, b], mit f (zn ) → s. Nach dem Satz von Bolzano-
Weierstraß gibt es eine konvergente Teilfolge (znk ): wir setzen z∗ = lim znk . Da f stetig ist, gilt
k→∞
f (znk ) → f (z∗ ) also s = f (z∗ ) und z∗ ist das gesuchte Maximum. Das Minimum konstruiert
man analog.
Für Satz 5.7 sind drei Dinge wesentlich:

ˆ f ist stetig

ˆ I = [a, b] ist beschränkt

ˆ die Randpunkte von I gehören zu I.

Ein ähnlicher Satz gilt auch in Rd . Dazu brauchen wir erst einige Definitionen.

Definition 5.8. Eine Menge D ⊆ Rd heißt beschränkt, falls es ein K ∈ R gibt, so dass
||x|| ≤ K ∀x ∈ D (x ∈ Rd !).
Eine Folge (xn ) ∈ Rd heißt beschränkt, falls {xn : n ∈ N} beschränkt ist. Wir schreiben
xn = (xn1 , xn2 , xn3 , ...) .
Definition 5.9. Eine Folge (xn ) in Rd konvergiert gegen ein x ∈ Rd falls lim ||xn − x|| = 0
n→∞
Wir schreiben xn −−−−→ x oder x = lim xn .
n→∞ n→∞

Satz 5.10. Eine Folge (xn ) in Rd konvergiert genau dann gegen x ∈ Rd , falls für 1 ≤ k ≤ d
die Komponentenfolgen (xnk )n=1,2,... für n → ∞ gegen xk konvergieren.

Beweis. Übung.

Satz 5.11 (Folgerung zum Satz von Bolzano-Weierstraß). Jede beschränkte Folge in Rd hat
eine konvergente Teilfolge und damit einen Häufungspunkt.
Definition 5.12 (Stetigkeit in Rd ). Eine Funktion f : D → Rm mit Definitionsbereich D ⊆ Rd
heißt stetig in x (für ein x ∈ D), falls für jede Folge (xn ) in D mit xn → x gilt:

lim f (xn ) = f (x) .


n→∞

f ist stetig in D, falls f stetig in x, ∀x ∈ D.

Definition 5.13. Eine Menge D ⊆ Rd heißt abgeschlossen, falls für jede Folge (xn ) in D
mit xn → x auch x ∈ D gilt.
Definition 5.14. Eine Teilmenge D von Rd heißt folgenkompakt oder kompakt, falls jede
Folge in D eine konvergente Teilfolge hat, deren Grenzwert ebenfalls in D liegt.

Satz 5.15. Eine Teilmenge von Rd ist genau dann kompakt, wenn sie abgeschlossen und
beschränkt ist.
Beweis. Ist D unbeschränkt, so gibt es eine Folge (xn ) in D mit ||xn || ≥ n; jede Teilfolge einer
solchen Folge ist unbeschränkt und kann daher nicht konvergieren. Ist D nicht abgeschlossen,
so gibt es eine Folge (xn ) in D, deren Grenzwert x nicht in D liegt; da jede Teilfolge ebenfalls
gegen x konvergiert und Grenzwerte eindeutig sind, kann D nicht kompakt sein. Ist anderseits
D beschränkt, so hat jede Folge (xn ) in D eine konvergente Teilfolge nach Satz 5.11; deren
Limes muss in D liegen, wenn D außerdem abgeschlossen ist.
Damit formulieren wir die mehrdimensionale Variante von Satz 5.7.

26
Satz 5.16. Sei D ⊆ Rd , D ist abgeschlossen und beschränkt und f : D → R stetig. Dann hat f
auf D ein Maximum und ein Minimum.
Das heißt es gibt x∗ , x∗ ∈ D so dass

f (x∗ ) ≤ f (x) ≤ f (x∗ ) ∀x ∈ D .

Wir schreiben x∗ = argmaxx∈D f (x), x∗ = argminx∈D f (x).


Lemma 5.17. Stetige Bilder kompakter Mengen sind kompakt.
Sei D ⊆ Rd kompakt und f : Rd → Rm , f stetig.
Dann ist f (D) kompakt. (Wie immer f (D) = {f (x) : x ∈ D}.)
Beweis. Zu zeigen: jede Folge f (xn ) aus f (D) hat einen Häufungspunkt in f (D). Aber: (xn )
ist Folge in D, also, da D kompakt, gibt es eine Teilfolge (xnk ) mit xnk → x ∈ D. Aus der
Stetigkeit von f folgt f (xnk ) → f (x) ∈ f (D), also ist f (x) der gesuchte Häufungspunkt.

Beweis. von Satz 5.16


Nach Lemma 5.17 ist f (D) ⊆ R kompakt. Also ist f (D) abgeschlossen und beschränkt und hat
damit ein Maximum und ein Minimum.
Beispiel 5.18. Betrachte das (n − 1)-dimensionale Standardsimplex:

D = {(x1 , . . . , xn ) : xk ≥ 0, ∀k, x1 + · · · + xn = 1} ⊆ Rn

(D ist kompakt) und darauf die stetige Funktion f, gegeben durch f (x1 , . . . , xn ) = (1+x1 ) . . . (1+
xn ).
Es gibt also eine Konstante m = max f (x) und (mindestens) ein x∗ ∈ D so dass f (x∗ ) = m.
n x∈D
Tatsächlich gilt m = 1 + n1 und x∗ = n1 , n1 , ..., n1 .


Dies folgt aus der allgemeinen AM-GM-Ungleichung (hierbei steht AM für das Arithmetische
Mittel und GM für das Geometrische Mittel).
Satz 5.19 (Allgemeine AM-GM-Ungleichung). Für a1 , . . . , an ≥ 0 und p1 , . . . , pn > 0
mit p1 + · · · + pn = 1 gilt

ap11 ap22 . . . apnn ≤ p1 a1 + p2 a2 + · · · + pn an . (5.1)

Gleichheit gilt genau dann wenn a1 = · · · = an .


Die linke Seite von (5.1) heißt das gewichtete geometrische Mittel der Zahlen ak zu den
Gewichten pk . Die rechte Seite von (5.1) heißt gewichtetes arithmetisches Mittel der
Zahlen ak zu den Gewichten pk .
Wir hatten den Spezialfall n = 2, p1 = p2 = 21 gesehen, siehe (1.9).
Beweis. → Buch von F. Bornemann.
Damit setzen wir
1
ak = 1 + xk , p1 = p2 = ... = pn =
n
und erhalten
1 1 1 1 + x1 + 1 + x2 + ... + 1 + xn
(1 + x1 ) n (1 + x2 ) n ... (1 + xn ) n ≤
n
also  P n  n
n+ xi 1
(1 + x1 )...(1 + xn ) ≤ = 1+
n n

27
Umkehrfunktionen
Definition 5.20. f : A → B sei eine Abbildung, die bijektiv ist, d.h. es gibt zu jedem y ∈ B
genau ein x ∈ A mit f (x) = y.
Die Umkehrabbildung f −1 ordnet y ∈ B dasjenige x ∈ A zu mit f (x) = y.
f −1 (y) = x und f −1 : B → A ist ebenfalls bijektiv.
Falls A, B ⊆ Rd sprechen wir von Umkehrfunktionen.

Beispiel 5.21. f : R → R, f (x) = x − 1 ist bijektiv und die Umkehrfunktion ist f −1 (y) =
y + 1, y ∈ R.
Beispiel 5.22. f : [0, ∞) → [0, ∞), f (x) = x2 ist ebenfalls bijektiv und die Umkehrfunktion ist

f −1 (y) = y, y ∈ [0, ∞), f −1 : [0, ∞) → [0, ∞).
Beachte: f : R → R, f (x) = x2 ist nicht bijektiv!

Bemerkung. Man erhält den Graphen von f −1 , indem man den Graphen von f an der Geraden
g(x) = x spiegelt.
Satz 5.23. Sei I Intervall, I ⊆ R, f : I → R stetig und streng monoton wachsend. Dann ist
f : I → f (I) bijektiv und die Umkehrfunktion f −1 : f (I) → I ist ebenfalls stetig und streng
monoton wachsend.
(ohne Beweis)
Beispiel 5.24. exp : R → (0, ∞) ist stetig und streng monoton wachsend. Nach Satz 5.23 hat
exp eine stetige und streng monoton wachsende Umkehrfunktion. Die Umkehrfunktion heißt
Logarithmus (genauer: natürlicher Logarithmus) und wir schreiben ln : (0, ∞) → R.
Wir haben also ln(exp(x)) = x, x ∈ R und exp(ln(x)) = x, x ∈ (0, ∞).

Die Rechenregeln für exp führen zu folgenden Rechenregeln für ln:

ln(1) = 0 .
ln(e) = 1 .

ln(x) + ln(y) = ln(x · y) . (5.2)

Beweis. (von (5.2))

exp(ln(x) + ln(y)) = exp(ln(x)) exp(ln(y)) = xy .

Nehme auf beiden Seiten den Logarithmus.

Weiter gilt
ln(xk ) = k · ln(x), x > 0, k ∈ Z . (5.3)
Beweis. (von (5.3))
exp(ln(xk )) = xk
exp(k ln(x)) = exp(ln(x))k = xk .

Damit können wir xa auch für a ∈ R definieren:

xa := exp(a · ln(x)), x > 0, a ∈ R (5.4)

Es gelten die üblichen Rechenregeln für Potenzen, z.B.:

xa+b = xa · xb (5.5)

28
Beweis. (von (5.5))

xa+b = exp((a + b) ln(x)) = exp(a ln(x)) exp(b ln(x)) = xa xb .

1 √
Für x n schreibt man auch n
x.

Beachte: (5.4) definiert x eindeutig als√Funktion von√[0, ∞) nach [0, ∞), die Gleichung
y = x2 hat jedoch (in R) die Lösungen y = x und y = − x.

Betrachten wir (statt ex )


bx = exp(x ln(b))
für ein b > 1 , so ist f (x) = bx streng monoton wachsend und stetig auf R.
Die Umkehrfunktion heißt Logarithmus zur Basis b, wir schreiben

logb (x).

Dann gilt logb (bx ) = x, (5.2) und (5.3) gelten weiterhin.

Umkehrfunktionen der trigonometrischen Funktionen


Tangens
tan : (− π2 , π2 ) → R ist stetig und streng monoton wachsend mit Bildmenge R.
Mit Satz 5.23 erhalten wir eine stetige und streng monoton wachsende Umkehrfunktion, sie
heißt Arcustangens.
π π
arctan : R → (− , )
2 2

Sinus
Da der Sinus stetig und streng monoton wachsend ist als Funktion sin : [− π2 , π2 ] → R mit
Bildmenge [−1, 1] gibt es eine stetige und streng monoton wachsende Umkehrfunktion, sie
heißt Arcussinus.
π π
arcsin : [−1, 1] → [− , ]
2 2

Cosinus
Ebenso ist der Arcuscosinus die Umkehrfunktion des Cosinus:

arccos : [−1, 1] → [0, π]

6 Differentiation
Wir führen erst die Landau-Symbole ein.
Definition 6.1 (Landau-Symbole). f und g seien Funktionen mit Werten in C, a ∈ R, oder
a = ∞ oder a = −∞. Dann sagen wir:

1. f (x) = O(g(x)) für x → a, falls es eine Konstante c > 0 gibt, so dass für jede Folge (xn )
mit xn → a gilt:
|f (xn )| ≤ c · |g(xn )|
für alle bis auf endlich viele n.

2. f (x) = o(g(x)) für x → a falls lim fg(x)


(x)
= 0. In Worten: f ist gegenüber g asymptotisch
x→a
vernachlässigbar für x → a.

29
Beispiel 6.2. f, g, h : R → R f (x) = x2 , g(x) = x2 + 2, h(x) = 17x. Dann gilt:
2
f (x) = O(g(x)) für x → ∞ (denn x2x+2 −−−−→ 1),
x→∞
17x
h(x) = o(g(x)) für x → ∞ (denn: 2 −
−−−→
x +2 x→∞ 0).

Definition 6.3. x0 ∈ D ⊆ R heißt innerer Punkt von D falls es ein ε > 0 gibt, so dass
(x0 − ε, x0 + ε) ⊆ D.
D ⊆ R heißt offen falls x ∈ D ⇒ x innerer Punkt von D (D ist also offen falls D nur innere
Punkte enthält).
Beispiel 6.4. D = (a, b) ist offen, D = [a, b) ist nicht offen, denn x0 = a ist kein innerer
Punkt.
Die Ableitung einer Funktion: f : D → R im Punkt x0 ∈ D ist eine Linearisierung der
Funktion f in einer Umgebung von x0 .
Definition 6.5. Eine Funktion f : D → R auf einem Definitionsbereich D ⊆ R heißt dif-
ferenzierbar in x0 , x0 innerer Punkt von D, wenn es eine Zahl f 0 (x0 ) gibt, so dass

f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) + o(x − x0 ) für x → x0 . (6.1)

Die Zahl f 0 (x0 ) ist dann die Steigung der Tangenten von f in x0 und heißt Ableitung von
f in x0 . Wenn wir o(x − x0 ) ausschreiben, bedeutet (6.1)

f (x) − f (x0 ) f (x0 + h) − f (x0 )


f 0 (x0 ) = lim = lim (6.2)
x→x0 x − x0 h→0 h
(h kann auch ≤ 0 sein!)

Definition 6.6. Sei D ⊆ R, D offen. f : D → R heißt differenzierbar in D, falls f differenzier-


bar in x, ∀x ∈ D.
Beispiel 6.7. f (x) = c ∀x ∈ R ist differenzierbar in R mit f 0 (x) = 0 ∀x ∈ R.
Beispiel 6.8. Seien a, b ∈ R, f (x) = ax+b, x ∈ R ist differenzierbar in x mit f 0 (x) = a, ∀x ∈ R .

Satz 6.9 (Differenzierbarkeit impliziert Stetigkeit). f : D → R sei differenzierbar in x0 ∈ D.


Dann ist f stetig in x0 .
Beweis. Dies folgt unmittelbar aus (6.2): für jede Folge (xn ) mit xn → x0 gilt f (xn ) →
f (x0 ).
Die Umkehrung gilt nicht.

Beispiel 6.10 (Betragsfunktion). f (x) = |x| ist stetig in x0 = 0 aber nicht differenzierbar in
x0 = 0. Denn
f (x0 + h) − f (x0 )
−−−−−−→ 1 .
h h→0,h>0

f (x0 + h) − f (x0 )
−−−−−−→ −1.
h h→0,h<0

f (x) = |x| ist differenzierbar in x, ∀x 6= 0 und


(
0 1, x>0
f (x) =
−1, x < 0.

Definition 6.11 (Rechtsseitige/linksseitige Ableitung). Die rechtsseitige Ableitung von f


in x0 ist definiert durch

0 f (x0 + h) − f (x0 )
f+ (x0 ) = lim
h→0,h>0 h

30
(falls der Limes existiert).
Die linksseitige Ableitung von f in x0 ist definiert durch

0 f (x0 + h) − f (x0 )
f− (x0 ) = lim
h→0,h<0 h

(falls der Limes existiert).


0 0
Beispiel 6.12. Für f (x) = |x| gilt f+ (0) = 1, f− (0) = −1.
df
Notation: Statt f 0 (x0 ) schreibt man häufig dx (x0 ) oder Df (x0 ).
Definition 6.13. Sei I offen. Betrachte die Menge aller Funktionen die in I differenzierbar
sind. Darauf definieren wir den Differentialoperator D durch Df = f 0 , das heißt einer
Funktion f wird eine andere Funktion f 0 zugeordnet, so dass f 0 (x) die Ableitung von f an der
Stelle x ist, ∀x ∈ I.
Beispiel 6.14. I = R, f (x) = ex
Wir haben:
ex+h − ex eh − 1
= ex −−−→ ex ,
h h h→0

denn es gilt
eh − 1
lim =1 (6.3)
h→0 h
Beweis. (von (6.3))

h2 h3 h4
eh − 1 = h + + + + ...
2! 3! 4!
eh − 1 h h2 h3
=1+ + + + ... −−−→ 1
h 2! 3! 4! h→0

Also gilt Dex = ex .


Beispiel 6.15. f (x) = sin(x), x ∈ R
Dann gilt
f 0 (x) = cos(x), ∀x ∈ R (6.4)
Beweis. (von (6.4))

f (x + h) − f (x) sin(x + h) − sin(x)


=
h h
sin(x) cos(h) + cos(x) sin(h) − sin(x)
=
h
cos(h) − 1 sin(h)
= sin(x) + cos(x)
h h
cos(h)−1 sin(h)
mit h −−−→ 0 und h −−−→ 1. Also folgt: sin0 (x) = cos(x), ∀x ∈ R.
h→0 h→0

Beispiel 6.16. f (x) = cos(x), x ∈ R


Dann f 0 (x) = − sin(x), ∀x ∈ R.
Beweis. Analog zu jenem von (6.4).

31
Ableitungsregeln
Seien f, g differenzierbar in x, a ∈ R. Dann sind a · f, f + g ebenfalls differenzierbar und

(af )0 (x) = a · f 0 (x)


(f + g)0 (x) = f 0 (x) + g 0 (x)

Also ist der Operator D linear.


Satz 6.17 (Produktregel). Seien f, g differenzierbar in x. Dann ist f · g differenzierbar in x
und
(f · g)0 (x) = f 0 (x)g(x) + f (x)g 0 (x).
Beweis.
(f · g)(x + h) − (f · g)(x) g(x + h) − g(x) f (x + h) − f (x)
= f (x + h) + g(x)
h h h
Mit h → 0 folgt
(f · g)0 (x) = f (x)g 0 (x) + g(x)f 0 (x)
da f (x + h) −−−→ f (x).
h→0

Beispiel 6.18 (Differentiation von Polynomen). Sei n ∈ N, f (x) = xn , x ∈ R


Behauptung: f 0 (x) = n · xn−1
Beweis. Induktion nach n.
Für n = 1 gilt f 0 (x) = 1.
Induktionsschritt n → n + 1:
f (x) = xn = x · xn−1
Also mit Produktregel

f 0 (x) = 1 · xn−1 + x(n − 1) · xn−2


= xn−1 (1 + n − 1) = nxn−1

Damit können wir alle Polynome differenzieren:


n n
ak xk = a0 + a1 x + . . . + an xn ⇒ p0 (x) = kak xk−1 = a1 + 2a2 x + . . . + nan xn−1 .
P P
p(x) =
k=0 k=1

Satz 6.19 (Quotientenregel). Seien f, g differenzierbar in x, g(x) 6= 0.


Dann ist fg differenzierbar in x und
 0
f f 0 (x)g(x) − f (x)g 0 (x)
(x) =
g g(x)2

Beweis. 1. f (x) = 1 ∀x ∈ R
 0 1 1
1 g(x+h) − g(x) g(x) − g(x + h) g 0 (x)
= lim = lim =− .
g h→0 h h→0 hg(x)g(x + h) g(x)2

Also  0
1 g 0 (x)
(x) = − . (6.5)
g g(x)2

32
 
f 1
2. g (x) = f (x) g(x)
Also mit Produktregel und (6.5)
 0  0
f 1 1
(x) = f 0 (x) + f (x) (x)
g g(x) g
f 0 (x) f (x)g 0 (x)
= −
g(x) g(x)2
f 0 (x)g(x) − f (x)g 0 (x)
= .
g(x)2

Beispiel 6.20.
sin(x) cos(x)ex − sin(x)ex cos(x) − sin(x)
h(x) = ,x ∈ R h0 (x) = =
ex e 2x ex
Satz 6.21. Es seien I, J ⊆ R, f : I → R, f (I) ⊆ J, g : J → R, x0 innerer Punkt von I
und f (x0 ) innerer Punkt von J. Ist f differenzierbar in x0 und g differenzierbar in f (x0 ), so ist
auch g ◦ f in x0 differenzierbar ((g ◦ f )(x) = g(f (x))) und es gilt

(g ◦ f )0 (x0 ) = g 0 (f (x0 ))f 0 (x0 ) . (6.6)

(Mit f 0 (x0 ) =”innere Ableitung”).


Beweis. Wir zerlegen den Differenzenquotienten von g ◦ f wie folgt:

ˆ Nehmen an f (x) 6= f (x0 )


g(f (x)) − g(f (x0 )) g(f (x)) − g(f (x0 )) f (x) − f (x0 )
= ·
x − x0 f (x) − f (x0 ) x − x0

ˆ Nehmen an f (x0 ) = f (x). Dann gilt:

g(f (x)) − g(f (x0 )) f (x) − f (x0 )


= g 0 (f (x0 ))
x − x0 x − x0
denn beide Seiten haben den Wert 0.

Also gilt (6.6) mit x → x0 .


Bemerkung. Die Kettenregel ist plausibel: Die Linearisierung der Hintereinanderausführung
zweier Funktionen ist die Hintereinanderausführung der Linearisierungen.
Beispiel 6.22. Sei a > 0 und h(x) = ax , x ∈ R. Dann ist h in jedem x ∈ R differenzierbar
und es gilt:
dax
= ax ln(a) (6.7)
dx
Beweis. (von 6.7)
Wir schreiben ax = ex ln(a) = g(f (x)) mit g(x) = ex , f (x) = x ln(a).
Dann gilt: g 0 (x) = ex , f 0 (x) = ln(a) also
dax
= ex ln(a) ln(a) = ax ln(a)
dx

Beispiel 6.23. cos(x) = sin(x + π2 ), x ∈ R


Also
cos0 (x) = − sin(x) (6.8)

33
Beweis. (von (6.8))
cos(x) = g(f (x)) mit g(x) = sin(x), f (x) = x + π2 .
Also g 0 (x) = cos(x), f 0 (x) = 1
Damit cos0 (x) = g 0 (f (x))f 0 (x) = cos(x + π2 ) = − sin(x)
2
Beispiel 6.24. h(x) = ex = g(f (x)), f (x) = x2 , g(x) = ex
2
Also h0 (x) = g 0 (f (x))f 0 (x) = ex 2x
Sei ϕ(x) = h0 (x)
2 2 2
Dann h00 (x) := ϕ0 (x) = (ex 2x) · 2x + ex · 2 = ex (4x2 + 2)
Als nächstes sollen Umkehrfunktionen abgeleitet werden.
Satz 6.25 (Ableitung von Umkehrfunktionen). Die Funktion f : [a, b] → [c, d] bilde das Inter-
vall [a, b] ⊆ R bijektiv auf das Intervall [c, d] ab und sei im Punkt y ∈ [a, b] differenzierbar mit
f 0 (y) 6= 0. Dann ist die Umkehrfunktion f −1 : [c, d] → [a, b] im Punkt x = f (y) differenzierbar
und es gilt
1
(f −1 )0 = 0 −1
f (f (y))
Beweis. Setzen g = f −1 . Wir haben g ◦ f = id (id : [a, b] → [a, b], id(x) = x).
Wir leiten beide Seiten ab und erhalten mit der Kettenregel

(g ◦ f )0 (x) = g 0 (f (x))f 0 (x) = 1

also
1
g 0 (f (x)) =
f 0 (x)
Setze y = f (x) ⇒ x = g(y). Damit
1
g 0 (y) =
f 0 (g(y))
das heißt
1
(f −1 )0 (y) =
f 0 (f −1 (y))

Beispiel 6.26. exp bildet R bijektiv auf (0, ∞) ab. Die Umkehrfunktion ist ln : (0, ∞) → R.
Also gilt wegen exp0 (x) = exp(x):
1 1
ln0 (x) = = , x ∈ (0, ∞).
exp(ln(x)) x

Beispiel 6.27. f (x) = arcsin(x) also


1
f 0 (x) =
cos(arcsin(x))

Aber cos2 (x) + sin2 (x) = 1, also


1 1
f 0 (x) = q =√ ≥0
1 − sin2 (arcsin(x)) 1 − x2

Differentiation von Reihen



P
Sei (fk ) eine Folge differenzierbarer Funktionen und die Reihe f (x) := fk (x) konvergiere.
k=0

Gilt dann f 0 (x) = fk0 (x)?
P
k=0
Im Allgemeinen nicht!

34

xk+1
P
Beispiel 6.28. fk (x) = k+1 . Dann konvergiert fk (x) für −1 ≤ x < 1.
k=0


X xk+1
f (x) = , f (−1) < ∞
k+1
k=0


Wir haben fk0 (x) = xk . Aber xk konvergiert nicht für x = −1.
P
k=0

Definition 6.29. Sei I ⊆ Rn . Konvegiert die aus einer Funktionenfolge fk : I → R gebildete



P
Reihe f (x) = fk (x) für alle x ∈ I, so spricht man von punktweiser Konvergenz der
k=0
Reihe gegen die Grenzfunktion f.

P
Gilt |fk (x)| ≤ ak , ∀x ∈ I und k ∈ N0 und ak < ∞, so spricht man von majorisierter
k=0

P
Konvergenz der Reihe fk (x).
k=0
(Majorisierte Konvergenz impliziert punktweise Konvergenz.)
Satz 6.30. Sei I ⊆ R, I offen. Wenn für die differenzierbaren Funktionen fk : I → R die Reihe
∞ ∞
fk0 (x) majorisiert konvergiert, ∀x ∈ I, so ist f in I differenzierbar
P P
fk (x) punktweise und
k=0 k=0

0
fk0 (x), ∀x
P
und es gilt f (x) = ∈ I.
k=0
(Ohne Beweis.)

1
xk =
P
Beispiel 6.31. 1−x = f (x) für x ∈ (−1, 1)
k=0
fk (x) = xk , fk0 (x) = kxk−1

fk0 (x) konvergiert majorisiert für |x| < 1 (warum?)
P
k=0

Damit f 0 (x) = 1
kxk−1 für x ∈ (−1, 1)
P
(1−x)2 =
k=1

∞ 2k+1 2k+1
x x
(−1)k (2k+1)! fk (x) = (−1)k (2k+1)!
P
Beispiel 6.32. sin(x) = ,
k=0

x2k
fk0 (x) (−1)k (2k)! fk0 (x) majorisiert (warum?).
P
= . Dann konvergiert
k=0
∞ 2k
Also sin0 (x) = x
(−1)k (2k)!
P
= cos(x), ∀x ∈ R.
k=0

7 Anwendungen der Ableitung


Definition 7.1 (Extrema einer Funktion). I = [a, b], sei f : I → R. Das Maximum und das
Minimum von f auf I bezeichnen wir - falls sie existieren - als globale Extrema. f hat in x0 ein
lokales Maximum, falls es ein ε > 0 gibt sodass für das offene Intervall U (x0 ) = (x0 −ε, x0 +ε)
gilt: f (x) ≤ f (x0 ) ∀x ∈ U (x0 ) ∩ I.
Falls f (x) < f (x0 ) ∀x ∈ U (x0 ) ∩ I, x 6= x0 , sprechen wir von einem strikten lokalen Maxi-
mum.
Lokale Minima und strikte lokale Minima sind analog definiert.
Beispiel 7.2.

35
Lemma 7.3. Die Funktion f : [a, b] → R sei im Punkt x0 ∈ (a, b) differenzierbar. Dann gilt:
f besitzt in x0 ein lokales Extremum ⇒ f 0 (x0 ) = 0.
Beweis. f habe eine lokales Maximum in x0 . Dann gilt für |h| klein genug f (x0 +h)−f (x0 ) ≤ 0.
Also ist (
f (x0 + h) − f (x0 ) ≤ 0 für h > 0, |h| klein genug
h ≥ 0 für h < 0, |h| klein genug
Lassen wir h gegen 0 gehen, so erhalten wir sowohl f 0 (x0 ) ≤ 0 als auch f 0 (x0 ) ≥ 0 und daher
f 0 (x0 ) = 0.
Bemerkung. Der Beweis benutzte, dass x0 innerer Punkt von [a, b] ist.
Beispiel 7.4. f (x) = x2 hat ein globales Minimum in x0 = 0 und es gilt f 0 (x) = 2x also
f 0 (x) = 0 ⇒ x = x0 = 0.
Beispiel 7.5. f (x) = x3 hat auf [−17, 17] ein lokales Minimum in x0 = −17 und ein lokales
Maximum in x1 = 17.
f 0 (x) = 0 ⇒ x = 0 (denn f 0 (x) = 3x2 ). Aber f hat kein lokales Extremum in x = 0.
Wenn wir die Extrema einer differenzierbaren Funktion f : [a, b] → R bestimmen wollen, können
wir vorgehen wie folgt:
1. Bestimme die Nullstellen von f 0 in (a, b).
2. Sortiere diejenigen aus, zu denen kein lokales Extremum gehört.
3. Untersuche das Verhalten von f in den Randpunkten a und b.
4. Das größte lokale Maximum ist das Maximum, das kleinste lokale Minimum ist das Mi-
nimum.
Beispiel 7.6. f (x) = x + x1 , x ∈ (0, ∞). Dann ist f differenzierbar in (0, ∞). Wir wissen
lim f (x) = ∞ und lim f (x) = ∞. Also besitzt f ein globales Minimum (warum?). Wir haben
x→0 x→∞
f 0 (x) = 1 − x12 . Also f 0 (x0 ) = 0 ⇒ x0 = 1 (denn x0 = −1 liegt nicht in (0, ∞)). Also gilt
f (x) ≥ f (x0 ) = 2, ∀x > 0.
Das heißt x + x1 ≥ 2, ∀x > 0. Dies folgt auch aus x2 + 1 ≥ 2x (denn x2 − 2x + 1 = (x − 1)2 ≥ 0).

36
Satz 7.7 (Satz von Rolle). Sei f : [a, b] → R stetig auf [a, b] und differenzierbar in (a, b).
Falls f (a) = f (b), so gibt es ein z ∈ (a, b) mit f 0 (z) = 0.

Beweis. 1. Wenn f konstant ist, so gilt f 0 (x) = 0 sogar für alle x ∈ (a, b).
2. Wenn f nicht konstant ist, muss entweder das Maximum oder das Minimum von f oder
beide (beide existieren, da f stetig) im Inneren (a, b) von [a, b] liegen. Es gibt also min-
destens eine Extremalstelle z ∈ (a, b), für die nach Lemma 7.3 f 0 (z) = 0 gelten muss.

Satz 7.8 (Mittelwertsatz). f, g : [a, b] → R seien stetig auf [a, b] und differenzierbar in (a, b)
und es gelte g 0 (x) 6= 0, ∀x ∈ (a, b).
Dann ist g(a) 6= g(b) und es gibt ein z ∈ (a, b)mit

f (b) − f (a) f 0 (z)


= 0 .
g(b) − g(a) g (z)

Insbesondere gilt mit g(x) = x: es gibt ein z ∈ (a, b), so dass

f (b) − f (a)
= f 0 (z).
b−a
Beweis. Wir führen den Satz auf den Spezialfall ”Satz von Rolle” zurück. Zunächst muss
g(a) 6= g(b) gelten, da der Satz von Rolle sonst ein z ∈ (a, b) liefern würde mit g 0 (z) = 0.
Die Funktion
f (b) − f (a)
F (x) = f (x) − (g(x) − g(a))
g(b) − g(a)
erfüllt die Voraussetzungen des Satzes von Rolle, insbesondere gilt nämlich F (a) = f (a) = F (b).
Also gibt es ein z ∈ (a, b) mit

f (b) − f (a) 0
0 = F 0 (z) = f 0 (z) − g (z)
g(b) − g(a)

und wir teilen durch g 0 (z) und erhalten

f 0 (z) f (b) − f (a)


= .
g 0 (z) g(b) − g(a)

Satz 7.9 (Monotonie und Ableitung). f : [a, b] → R sei differenzierbar in (a, b). Dann gilt:
1. f 0 > 0 in (a, b) ⇔ f in (a, b) streng monoton wachsend.
2. f 0 < 0 in (a, b) ⇔ f in (a, b) streng monoton fallend.
3. f 0 ≥ 0 in (a, b) ⇔ f in (a, b) monoton wachsend.

4. f 0 ≤ 0 in (a, b) ⇔ f in (a, b) monoton fallend.


Ist f in einem der Randpunkte a bzw. b stetig, so kann dieser für die rechts stehende Aussage
dazu genommen werden.
Insbesondere: Ist f 0 (x) = 0, ∀x ∈ (a, b), so ist f konstant auf (a, b).

Beweis. Die Implikationsrichtungen ”⇒” folgen aus dem Mittelwertsatz: zu x1 , x2 ∈ (a, b)


(bzw. [a, b) bzw. (a, b] im Falle des Zusatzes) gibt es z ∈ (x1 , x2 ), so dass

f (x2 ) − f (x1 ) = (x2 − x1 )f 0 (z).

Die Implikationsrichtungen ”⇐” folgen aus der Definition 6.2 der Ableitung als Limes von
Differenzenquotienten.

37
Beispiel 7.10. ln : (0, ∞) → R ist nach dem vorangehenden Satz streng monoton wachsend,
da seine Ableitung ln0 (x) = x1 > 0 ist für x > 0.
2 3
Wir haben 1 + x ≤ exp(x), denn exp(x) = 1 + x + x2 + x3! + ...
Also gilt ln(1 + x) ≤ x (für x > −1) mit ”=” genau dann wenn x = 0.
Wir haben gesehen, dass lokale Extrema einer differenzierbaren Funktion f : (a, b) → R, die in
(a, b) liegen, Nullstellen von f 0 sind. Umgekehrt brauchen nicht alle Nullstellen von f 0 lokale
Extrema zu sein.
Satz 7.11 (Kriterium für Extrema). f sei differenzierbar in (a, b) und f 0 (x0 ) = 0 für ein
x0 ∈ (a, b). Dann gilt:
f 0 ≥ 0 in (a, x0 ) und f 0 ≤ 0 in (x0 , b) ⇒ f nimmt das Maximum in x0 an.
f 0 ≤ 0 in (a, x0 ) und f 0 ≥ 0 in (x0 , b) ⇒ f nimmt das Minimum in x0 an.
Beweis. Folgt aus dem vorangehenden Satz.
Für lokale Extrema wendet man das Kriterium natürlich auf eine geeignete Umgebung von x0
an.

Berechnung von Grenzwerten


Wir hatten gesehen:

eh − 1
lim =1
h→0 h
sin(x)
lim =1
x→0 x
cos(x) − 1
lim =0
x→0 x
f (x)
Diese Grenzwerte sind von der Form lim mit f (a) = 0 = g(a)
x→a g(x)

Satz 7.12 (Regel von de l’Hospital). f, g : (a, b) → R seien differenzierbar mit g 0 (x) 6= 0, ∀x ∈
(a, b).
Sei x0 = a oder x0 = b (a = −∞, bzw. b = ∞ möglich). In jeder der beiden folgenden
Situationen
1. f (x) → 0 und g(x) → 0 für x → x0
2. f (x) → ∞ und g(x) → ∞ für x → x0
f 0 (x) f (x) f 0 (x)
gilt: existiert lim 0 , so ist lim = lim 0 .
x→x0 g (x) x→x0 g(x) x→x0 g (x)

Beweis. Für den Fall 1. und den Randpunkt x0 = a ∈ R. Wir wenden auf das Intervall
[x0 , x], x ∈ (a, b) den Mittelwertsatz an und erhalten ein z ∈ (x0 , x) mit fg(x)
(x)
= fg(x)−g(x
(x)−f (x0 )
0)
=
f 0 (z)
g 0 (z) . Da mit x → x0 auch z → x0 gilt, folgt die Behauptung.

eh −1 eh
Beispiel 7.13. ˆ lim h = lim = 1,
h→0 h→0 1

sin(x) cos(x)
ˆ lim x = lim 1 = 1,
x→0 x→0

cos(x)−1 − sin(x)
ˆ lim x = lim 1 = 0.
x→0 x→0

Beispiel 7.14.
1
ln(ln(x)) (∗) ln(z) (∗∗) z 2
lim p = lim √ = lim 1 = lim √ = 0.
x→∞ ln(x) z→∞ z z→∞ √
2 z
z→∞ z

wobei (∗) folgt mit z = ln(x).

38
Bemerkung. zu (∗∗) √
d z
Allgemein gilt: sei f (z) = z α , α ∈ R, z > 0. Dann f 0 (z) = αz α−1 (insbesondere dz = 1

2 z
).

Beweis. f (z) = eα ln(z) und mit der Kettenregel folgt f 0 (z) = eα ln(z) · α z1 = αz α−1 .
Beispiel 7.15.

1 1 x − sin(x)
lim ( − ) = lim
x→0 sin(x) x x→0 x sin(x)

l0 H 1 − cos(x)
= lim
x→0 sin(x) + x · cos(x)
0
lH sin(x)
= lim
x→0 cos(x) + cos(x) − x · sin(x)

sin(x)
= lim =0
x→0 2 cos(x) − x sin(x)

(Der Zähler geht gegen 0, der Nenner gegen 2).


Beispiel 7.16.

h(x) = x ln(x) ∀x > 0


lim h(x) = ∞
x→∞
ln(x)
lim x ln(x) = lim 1
x→0 x→0
x
1
= lim x1
x→0 − 2
x
= lim (−x)
x→0
=0

Also: h : [0, ∞] → R, h(0) = 0, h(x) −−−−→ ∞


x→∞
⇒ h hat ein Minimum auf [0, ∞)
h0 (x) = ln(x) + x x1 = ln(x) + 1
h0 (x) = 0 ⇒ ln(x) = −1 ⇒ x = 1e

Konvexität und die Jensensche Ungleichung


Definition 7.17. Wir sagen, f ist zweimal differenzierbar, falls f differenzierbar ist und
f 0 differenzierbar ist. f ist stetig differenzierbar, falls f differenzierbar ist und f 0 stetig ist.
f ist zweimal stetig differenzierbar, falls f zweimal differenzierbar ist und f 00 stetig ist.
(Wir schreiben f 00 für (f 0 )0 ).
Satz 7.18. f : (a, b) → R sei zweimal differenzierbar in (a, b). Dann sind die folgenden
Ungleichungen äquivalent.
(i) Für alle x0 , x1 ∈ (a, b) mit x0 6= x1 gilt

f ((1 − λ)x0 + λx1 ) ≤ (1 − λ)f (x0 ) + λf (x1 ) , ∀λ ∈ (0, 1) . (7.1)

(ii) Für alle x0 , x1 ∈ (a, b) mit x0 < x1 gilt

f (x1 ) − f (x0 )
f 0 (x0 ) ≤ ≤ f 0 (x1 ) . (7.2)
x1 − x0

(iii) Für alle x ∈ (a, b) gilt


0 ≤ f 00 (x) (7.3)

39
Falls in (7.3) ” < ” gilt, so auch in (7.1) und (7.2).
Der Beweis beruht auf dem Mittelwertsatz, wir lassen ihn aber weg.
Definition 7.19. Eine Funktion f : (a, b) → R, für welche (7.1) gilt, heißt konvex. Ist die
Ungleichung strikt, so heißt f streng konvex.
f heißt konkav (bzw. streng konkav) falls −f konvex (bzw. streng konvex) ist.
Beachte: (7.1) ist oft einfach zu überprüfen.
Folgerung 7.20. f : (a, b) → R sei konvex und differenzierbar in (a, b). Dann gilt für x0 , x1 ∈
(a, b)
f (x0 ) + f 0 (x0 )(x1 − x0 ) ≤ f (x1 ) (7.4)
Ist f streng konvex so gilt ” = ” genau dann wenn x0 = x1 .
Beweis. (7.4) folgt aus (ii):
f (x1 ) − f (x0 )
f 0 (x0 ) ≤ ≤ f 0 (x1 )
x1 − x0
f 0 (x0 )(x1 − x0 ) ≤ f (x1 ) − f (x0 ) ≤ f 0 (x1 )(x1 − x0 )

Beispiel 7.21. f (x) = exp(x) ist streng konvex auf R, da f 00 (x) = exp(x) > 0, ∀x ∈ R.
(denn f 0 (x) = exp(x), f 00 (x) = exp(x)). Also gilt mit x0 = 0 in (7.4)
1 + x1 ≤ exp(x1 ), ∀x1 ∈ R.
Beispiel 7.22. f (x) = x2 ist streng konvex auf R, da f 00 (x) = 2 > 0, ∀x ∈ R.
Beispiel 7.23. f (x) = x4 ist ebenfalls streng konvex auf R. Wir haben aber f 00 (x) = 12x2 ≥
0, ∀x ∈ R mit f 00 (0) = 0, denn f 0 (x) = 4x3 , f 00 (x) = 12x2 . Wir können also in diesem Fall mit
(7.3) nur folgern, dass die Funktion konvex ist - dass sie streng konvex ist, kann man direkt mit
(7.1) zeigen.
Satz 7.24 (Jensen’sche Ungleichung). f : (a, b) → R sei konvex, n ≥ 2, x1 , ..., xn ∈ (a, b) und
n
P
p1 , ..., pn > 0 mit pi = 1. Dann gilt
i=1

n
! n
X X
f pk xk ≤ pk f (xk ) (7.5)
k=1 k=1

Ist f streng konvex, so gilt ” = ” genau dann wenn x1 = x2 = ... = xn .


Beweis. Für n = 2 ist (7.5) die Definition der Konvexität.
f (p1 x1 + p2 x2 ) ≤ p1 f (x1 ) + p2 f (x2 ), siehe (7.1), (p2 = 1 − p1 )

Induktionsschritt n → n + 1.
p1 x1 + ... + pn xn
f (p1 x1 + p2 x2 + ... + pn+1 xn+1 ) = f ((p1 + ... + pn ) + pn+1 xn+1 )
p1 + ... + pn
f konvex p1 x1 + ... + pn xn
≤ (p1 + ... + pn ) · f ( ) + pn+1 f (xn+1 )
p1 + ... + pn
∼ ∼
= (p1 + ... + pn )f (p1 x1 + ...+ pn xn ) + pn+1 f (xn+1 )
Ungleichung gilt für n ∼ ∼
≤ (p1 + ... + pn )(p1 f (x1 ) + ...+ pn f (xn )) + pn+1 f (xn+1 )
= p1 f (x1 ) + p2 f (x2 ) + ... + pn+1 f (xn+1 ) .
dabei setzten wir
∼ pi
pi = , 1 ≤ i ≤ n.
p1 + ... + pn

40
Beispiel 7.25. f (x) = ln(x) ist streng konkav, denn f 00 (x) = − x12 < 0, ∀x > 0.
Denn (f 0 (x) = x1 , f 00 (x) = − x12 ).
n
P
Seien a1 , ..., an > 0 und p1 , ..., pn mit pi = 1. Dann liefert die Jensensche Ungleichung
i=1

n
! n
X X
ln pk ak ≥ pk ln(ak ) (7.6)
k=1 k=1

Beachte: Das ” ≤ ” in (7.5) wird für eine konkave Funktion zu ” ≥ ”. Dabei gilt ”=” genau
dann wenn a1 = ... = an .
Wir wenden auf beiden Seiten von (7.6) exp an und erhalten
p1 a1 + ... + pn an ≥ ap11 · ... · apnn
mit ” = ” genau dann wenn a1 = a2 = ... = an .
Damit haben wir die allgemeine AM-GM-Ungleichung gezeigt, siehe (5.1).

Extrema konvexer Funktionen


Lemma 7.26. I ⊆ R sei ein Intervall, f : I → R sei streng konvex. Dann besitzt f höchstens
eine Minimalstelle und kann das Maximum nur in den Randpunkten von I annehmen (falls I
Randpunkte hat).
Beweis. Wir nehmen an, es gäbe zwei verschiedene Stellen x0 , x1 ∈ (a, b) in denen f den
minimalen Wert m annimmt.
Dann folgt aus der strengen Konvexität
 
x0 + x1 1
f < (f (x0 ) + f (x1 )) = m
2 2
und dies ist ein Widerspruch, da f keine kleineren Werte als m annehmen kann.
Nehmen wir nun an, dass f sein Maximum m im Inneren des Intervalls I annimmt, nämlich in
x, x innerer Punkt von I. Dann können wir
x0 + x1
x= mit x0 , x1 ∈ I
2
schreiben. Aber dann wäre m = f (x) < 21 (f (x0 ) + f (x1 )) ≤ m.
Beispiel 7.27. f (x) = x + x1 ist streng konvex auf (0, ∞).
Denn: f 0 (x) = 1 − x12 , f 00 (x) = x23 > 0, ∀x > 0. Wir hatten gesehen: f hat eine einzige
Minimalstelle, nämlich x = 1 und kein Maximum auf (0, ∞).
Satz 7.28 (Kriterium für lokale Extrema). f sei zweimal stetig differenzierbar in (a, b) und
f 0 (x0 ) = 0 für ein x0 ∈ (a, b). Dann gilt:
f 00 (x0 ) > 0 ⇒ f hat ein striktes lokales Minimum in x0 .
f 00 (x0 ) < 0 ⇒ f hat ein striktes lokales Maximum in x0 .
(Wenn f 00 (x0 ) = 0 können wir keine Aussage machen).
Beweis. für den Fall f 00 (x0 ) > 0 (der Fall f 00 (x0 ) < 0 geht analog). Aus der Stetigkeit von f 00
folgt, dass es ein ε > 0 gibt mit f 00 (x) > 0 für alle x ∈ (x0 − ε, x0 + ε). Also ist f strikt konvex
auf (x0 − ε, x0 + ε). Aus
f (x) > f (x0 ) + f 0 (x0 ) · (x − x0 ) für x ∈ (x0 − ε, x0 + ε), x 6= x0
und aus der Voraussetzung f 0 (x0 ) = 0 folgt f (x) > f (x0 ) für alle x ∈ (x0 −ε, x0 +ε), x 6= x0 .
Bemerkung. Falls f 0 (x0 ) und f 00 (x0 ) ≥ 0, so können wir nicht schließen, dass f in x0 ein
lokales Minimum hat.
Beispiel 7.29. f (x) = x3 , dann ist f 0 (x) = 3x2 , f 00 (x) = 6x, also f 0 (0) = 0, f 00 (0) = 0. Aber
x = 0 ist keine Extremalstelle, sondern ein ”Wendepunkt”: f ist konvex auf (0, ∞) und f ist
konkav auf (−∞, 0).

41
8 Das Integral
Ziel:
Wir wollen für eine Funktion f : [a, b] → R das Integral
Zb
f (x)dx
a

definieren und untersuchen, mit der Vorstellung, dass das Integral für Funktionen f ≥ 0 gerade
die Fläche zwischen dem Graphen von f und der x-Achse liefern soll.

Wir gehen dabei schrittweise vor:

Konstante Funktionen
f (x) = c für alle x ∈ [a, b], in diesem Fall definieren wir
Zb
f (x)dx = c · (b − a).
a

Für c > 0 ist dies gerade der Flächeninhalt des Rechtecks unter dem Graphen, für c < 0 ist der
Wert negativ.

Treppenfunktionen
f sei stückweise konstant, d.h. es gibt eine Zerlegung Z von [a, b], Z = {x0 , x1 , ..., xn } mit
a = x0 < x1 < ... < xn = b und f (x) = ci , falls x ∈ (xi−1 , xi ). Der Wert von f in den Punkten
xi spielt für uns keine Rolle. Wir definieren
Zb n
X
f (x)dx = ci (xi − xi−1 ).
a i=1

Beispiel 8.1. 
1
 1≤x≤3
f (x) = 2 3<x≤4

−1 4<x≤5

R5
Dann ist f (x)dx = 1(3 − 1) + 2(4 − 3) + (−1)(5 − 4) = 3.
1

42
Beschränkte Funktionen
Idee: Approximiere f durch Treppenfunktionen.

Es sei Z eine Zerlegung von [a, b] und

mi = inf f (x)
x∈[xi−1 ,xi ]

Mi = sup f (x)
x∈[xi−1 ,xi ]

Wir definieren die Unter- und Obersumme von f zur Zerlegung Z durch

Zb
UZ (f ) = ϕ(x)dx, wobei ϕ(x) = mi für x ∈ (xi−1 , xi ),
a
Zb
OZ (f ) = ψ(x)dx, wobei ψ(x) = Mi für x ∈ (xi−1 , xi ).
a

Aus mi ≤ Mi folgt UZ (f ) ≤ OZ (f ). Das Integral von f sollte zwischen UZ (f ) und OZ (f )


liegen, wobei wir die Differenz OZ (f ) − UZ (f ) und damit den Fehler beim Approximieren
kleiner machen können, indem wir die Zerlegung Z verfeinern. Ist Z 0 eine feinere Zerlegung
von [a, b] als Z, d.h. Z ⊂ Z 0 so gilt

UZ (f ) ≤ UZ 0 (f ) ≤ OZ 0 (f ) ≤ OZ (f ).

Insbesondere gilt für die Zerlegungen Z1 , Z2 , dass es eine Verfeinerung Z 0 sowohl von Z1 als
auch von Z2 gibt und damit

UZ1 (f ) ≤ UZ 0 (f ) ≤ OZ 0 (f ) ≤ OZ2 (f ). (8.1)

Wir definieren das Unter- und Oberintegral von f durch:

U (f ) = sup{UZ (f ) : Z ist Zerlegung von [a, b]},


O(f ) = inf{OZ (f ) : Z ist Zerlegung von [a, b]}.

Aus (8.1) folgt U (f ) ≤ O(f ).

43
Definition 8.2 (Integral). Es sei f : [a, b] → R beschränkt. Falls U (f ) = O(f ), so heißt f
integrierbar und das Integral von f wird definiert durch

Zb
f (x)dx = U (f ) = O(f ).
a

Bemerkung. Diesen Integralbegriff bezeichnet man als Riemann-Integral.


Ist f integrierbar und (Z n ) eine Folge von Zerlegungen Z n = {xn0 , ..., xnn } mit

max |xni − xni−1 | −−−−→ 0,


1≤i≤n n→∞

so gilt
Zb
f (x)dx = lim UZ n (f ) = lim OZ n (f )
n→∞ n→∞
a

(d.h. der Fehler beim Approximieren geht gegen 0).


Satz 8.3. Jede stetige Funktion f : [a, b] → R ist integrierbar.

Wir lassen den Beweis weg.


Beispiel 8.4. Nicht jede beschränkte Funktion ist integrierbar!
f : [0, 1] → R sei definiert durch
(
1 x∈Q
f (x) =
0 x∈R\Q

Jedes Teilintervvall (x, y) von [0, 1] enthält rationale und irrationale Zahlen. Daher gilt für jede
Zerlegung Z von [0, 1]
UZ (f ) = 0, OZ (f ) = 1.
Insbesondere ist 0 = U (f ) 6= O(f ) = 1.
Satz 8.5 (Eigenschaften des Integrals). 1. Linearität: Sind f, g : [a, b] → R integrierbar
und α, β ∈ R, dann ist auch αf + βg integrierbar und

Zb Zb Zb
(αf (x) + βg(x)) dx = α f (x)dx + β g(x)dx.
a a a

2. Monotonie: Sind f, g : [a, b] → R integrierbar mit f (x) ≤ g(x) für alle x ∈ [a, b], so gilt

Zb Zb
f (x)dx ≤ g(x)dx.
a a

3. Zerlegbarkeit: Sei a < c < b. Dann ist f : [a, b] → R auf [a, b] integrierbar genau dann
wenn f auf [a, c] und auf [c, b] integrierbar ist und in diesem Fall gilt

Zb Zc Zb
f (x)dx = f (x)dx + f (x)dx.
a a c

Beweis. (Ohne Beweis)

44
Definition 8.6. f : [a, b] → R. Dann ist der Positivteil f + von f definiert durch

f + (x) = max{f (x), 0}

und der Negativteil f − von f durch

f − = (−f )+ = − min{f (x), 0}.

f + : [a, b] → [0, ∞), f − : [a, b] → [0, ∞).

Beispiel 8.7.

Dann gilt: f = f + − f − , |f |(x) = f + (x) + f − (x).

Ist f integrierbar, so sind auch f + und f − integrierbar und somit ist auch der Betrag integrierbar
und wegen f ≤ |f |, −f ≤ |f | gilt

Zb Zb
f (x)dx ≤ |f (x)|dx.
a a

Mit der Monotonie des Integrals erhalten wir

Zb
f (x)dx ≤ M (b − a)
a

falls |f (x)| ≤ M ∀x ∈ [a, b].

Definition 8.8. Sei a ≤ b. Dann definieren wir

Za Zb
f (x)dx = − f (x)dx.
b a

Damit gilt die Zerlegbarkeit:

Zc Zb Zc
f (x)dx = f (x)dx + f (x)dx
a a b

Ra
für alle a, b, c ∈ R und es gilt: f (x)dx = 0.
a

45
Satz 8.9 (Mittelwertsatz der Integralrechnung). Seien f : [a, b] → R stetig und g : [a, b] → R
integrierbar mit g ≥ 0 (d.h. g(x) ≥ 0 ∀x ∈ [a, b]).
Dann gibt es ein z ∈ [a, b] mit

Zb Zb
f (x)g(x)dx = f (z) g(x)dx. (8.2)
a a

Beweis. Sei m = min f (x), M = max f (x). Wegen g ≥ 0 gilt


x∈[a,b] x∈[a,b]

Zb Zb Zb
m g(x)dx ≤ f (x)g(x)dx ≤ M g(x)dx.
a a a

Wir setzen
Rb
f (x)g(x)dx
a
y= .
Rb
g(x)dx
a

Dann gilt m ≤ y ≤ M und es gibt nach dem Zwischenwertsatz ein z ∈ [a, b] so dass y = f (z).
Rb
Folgerung 8.10. Ist f : [a, b] → R stetig, so gibt es ein z ∈ [a, b] mit f (x)dx = (b − a)f (z).
a

Beweis. Wende Satz 8.9 an mit g(x) = 1 ∀x ∈ [a, b].


Satz 8.11 (Hauptsatz der Differential- und Integralrechnung). Sei f : [a, b] → R stetig. Wir
definieren
Zx
F (x) = f (t)dt. (8.3)
a

Dann ist F differenzierbar in jedem x ∈ (a, b) und F 0 = f .


Beweis. Sei h ∈ R, h > 0, h so klein, dass x + h ∈ [a, b]. Dann ist
 x+h 
Zx x+h
F (x + h) − F (x)
Z Z
1 1 1
= f (t)dt − f (t)dt = f (t)dt = · h · f (z)
h h h h
a a x

für ein z ∈ [x, x + h] nach der Folgerung. Mit h → 0 gilt z → x und da f stetig ist, folgt
f (z) → f (x). Also folgt
F (x + h) − F (x)
−−−−−−→ f (x).
h h>0,h→0

Analog zeigt man


F (x + h) − F (x)
−−−−−−→ f (x).
h h<0,h→0

Also ist F differenzierbar in x und es gilt F 0 = f .

46
Definition 8.12. f, F : (a, b) → R und F stetig auf [a, b] und differenzierbar in (a, b). Gilt
F 0 (x) = f (x) ∀x ∈ (a, b), so heißt F Stammfunktion von f .

Stammfunktionen sind bis auf eine additive Konstante eindeutig bestimmt: Ist F eine Stamm-
funktion von f und c ∈ R, so ist auch F + c eine Stammfunktion von f .
Umgekehrt seien F und G Stammfunktionen von f , so gilt

(F − G)0 = F 0 − G0 = f − f = 0.

Also muss (F − G) eine konstante Funktion sein.


Satz 8.13. Sei f : [a, b] → R stetig und F : [a, b] → R sei eine Stammfunktion von f . Dann
gilt
Zb
f (x)dx = F (b) − F (a). (8.4)
a

Rx
Beweis. Nach dem Hauptsatz wird durch Fa (x) = f (t)dt eine Stammfunktion von f definiert,
a
und es gilt
Zb
f (t)dt = Fa (b) = Fa (b) − Fa (a).
a

Da sich zwei Stammfunktionen nur durch eine additive Konstante unterscheiden, gilt

Zb
F (b) − Fa (b) = F (a) − Fa (a) also F (b) − F (a) = Fa (b) − Fa (a) = f (t)dt.
a

Man schreibt auch


Zb
f (x)dx = F (b) − F (a) = F |ba = F (x)|x=b
x=a .
a

Rb
Beispiel 8.14. f (x) = exp(x), F (x) = exp(x). Also gilt exp(t)dt = exp(b) − exp(a).
a

Rb
Beispiel 8.15. f (x) = 1
x, F (x) = ln(x), x ∈ (0, ∞) (Wir wissen F 0 = f ). Also ist 1
x dx =
a
ln(b) − ln(a), a, b > 0.

Statt “Stammfunktion” sagt man auch “unbestimmtes Integral” und schreibt


Z
F = f (x)dx.

Rb
f (x)dx ⇔ F 0 = f . Das Integral
R
Also gilt F = f (x)dx wird auch “bestimmtes Integral”
a
genannt.

Bemerkung. Eine Stammfunktion kann, genau wie bei den Umkehrfunktionen, nicht immer
explizit angegeben werden.
Rx 2
Beispiel 8.16. F (x) = e−t dt ist keine “bekannte” Funktion. Wir können jedoch ϕ(x) :=
−∞
Rx −t2
e dt definieren und die Eigenschaften von ϕ untersuchen.
−∞

47
Lemma 8.17 (Partielle Integration). f, g seien stetig differenzierbar. Dann gilt

Zb Zb
0
f (x)g (x)dx = f (x)g(x)|ba − f 0 (x)g(x)dx. (8.5)
a a

Beweis. Wir setzen F (x) = f (x)g(x). Mit der Produktregel gilt F 0 (x) = f 0 (x)g(x)+f (x)g 0 (x).
Aus dem Hauptsatz folgt nun

Zb Zb
0
f (x)g(x)dx + f (x)g 0 (x)dx = F (b) − F (a).
a a

Also gilt (8.5).


Rb Rb
Beispiel 8.18. ln(x)dx = ln(x) · 1dx, also hat es die Form der linken Seite von (8.5) mit
a a
f (x) = ln(x), g(x) = x.
Also
Zb Zb
ln(x)dx = x · ln(x)|ba − 1dx = (x · ln(x) − x)|ba .
a a

Also ist F (x) = x · ln(x) − x eine Stammfunktion von f (x) = ln(x).


Test: F 0 (x) = ln(x) + x1 · x − 1 = ln(x) = f (x) X

Rb
Beispiel 8.19. x exp(x)dx hat die Form der linken Seite von (8.5) mit f (x) = x, g(x) =
a
exp(x). Also gilt

Zb Zb
x exp(x)dx = x exp(x)|ba − exp(x)dx = (x − 1) exp(x)|ba
a a

Also ist F (x) = (x − 1) exp(x) eine Stammfunktion von f (x) = x exp(x).


Test: F 0 (x) = exp(x) + (x − 1) exp(x) = x exp(x) = f (x). X
Lemma 8.20 (Substitutionsregel). g : [a, b] → R sei stetig auf [a, b], differenzierbar in (a, b),
I = g([a, b]), und f : I → R sei stetig. Dann gilt

Zb g(b)
Z
0
f (g(t))g (t)dt = f (t)dt. (8.6)
a g(a)

Beweis. Sei F eine Stammfunktion von f auf I (wir können F durch (8.3) definieren). Mit
der Kettenregel bekommen wir (F ◦ g)0 (t) = F 0 (g(t))g 0 (t) = f (g(t))g 0 (t). Also gilt, mit dem
Hauptsatz,

Zb g(b)
Z
0
f (g(t))g (t)dt = (F ◦ g)(b) − (F ◦ g)(a) = F (g(b)) − F (g(a)) = f (t)dt.
a g(a)

Beispiel 8.21. Sei − π2 < a < b < π


2

Zb Zb Zb
sin(t)
tan(t)dt = dt = − f (g(t))g 0 (t)dt
cos(t)
a a a

48
mit f (t) = 1t , g(t) = cos(t). Also

Zb cos(b)
Z
1
tan(t)dt = − dt = − ln(cos(t))|ba = ln(cos(a)) − ln(cos(b)).
t
a cos(a)

Also ist log(cos(t)) Stammfunktion von tan(t) auf (a, b), − π2 < a < b < π
2.

Beispiel 8.22. a, b > e


Zb Zb
1
dx = f (g(t))g 0 (t)dt
x ln(x)
a a
1
wobei f (t) = t, g(t) = ln(t). Also

Zb ln(b)
Z
1 1
dt = dx = ln(ln(x))|ba .
t ln(t) x
a ln(a)

1
Also ist ln(ln(x)) eine Stammfunktion von x ln(x) .
0 1 1 1
Test: F (x) = ln(ln(x)), F (x) = ln(x) x = xln(x) X

Bemerkung. Algorithmen zum Finden bzw. Vereinfachen von Stammfunktionen sind ein
wichtiges und interessantes Thema, wir verweisen dazu auf das Buch von Folkmar Bornemann.
Aber: Achtung beim Integrieren mit Maple/Mathematica!

3
Beispiel 8.23. f (x) = 5−4 cos(x)

Als Stammfunktion liefert Maple F (x) = 2 arctan(3 tan( x2 )). Test: F 0 (x) = f (x), −π < x < π
(Die Rechnung lassen wir als Übung. Beachte dazu : arctan0 (x) = 1+x 1
2 , denn

sin0 (x) cos(x) − sin(x) cos0 (x) cos2 (x) + sin2 (x) 1
tan0 (x) = 2
= 2
= = 1 + tan2 (x). (8.7)
cos (x) cos (x) cos2 (x)

Also gilt mit der Kettenregel


1 1 1
arctan0 (x) = = = ).
tan0 (arctan(x)) 1 + tan(arctan(x2 )) 1 + x2

R
Allerdings hat F Sprungstellen: f (x)dx 6= F (2π) − F (0) = 0 . Der Hauptsatz (8.11) gilt hier
0
nur in [−π, π], da F auf R nicht differenzierbar ist.  
sin(x)
Die korrekte Stammfunktion wäre: Fe(x) = x + 2 arctan 2−cos(x) .
Test: Fe0 (x) = f (x).

49
Uneigentliche Integrale
Uneigentliche Integrale sind Integrale, die einen endlichen Wert haben, bei denen aber entweder
eine Integrationsgrenze im Unendlichen liegt, oder aber die Funktion an der Integrationsgrenze
eine Singularität hat.
Betrachten wir zuerst den ersten Fall.
Sei f : [a, ∞) eine Funktion, die auf jedem endlichen Intervall [a, M ] integrierbar ist. Wir
definieren
Z∞ ZM
f (x)dx = lim f (x)dx
M →∞
a a

falls der Limes existiert.


Analog definieren wir, für eine Funktion f : (−∞, a] → R die integrierbar ist auf jedem Intervall
(−M, a]:
Za Za
f (x)dx = lim f (x)dx
M →∞
−∞ −M

falls der Limes existiert.


R∞ 1
Beispiel 8.24. Sei α > 1. Dann existiert xα dx, denn
1

ZM
1 x1−α M 1
dx = | = (M 1−α − 1).
xα 1−α 1 1−α
1

Also
ZM
1 1
lim dx = .
M →∞ xα α−1
1

R∞ 1
Falls hingegen α < 1, so gilt, mit derselben Rechnung, M 1−α −−−−→ ∞, also existiert xα dx
M →∞ 1
RM 1 RM 1
nicht. Für α = 1 gilt x dx = ln(M ) −−−−→ ∞, also existiert
M →∞ x dx nicht.
1 1

50
R∞ ln(x)
Beispiel 8.25. x2 dx. Wir können sehen, dass das uneigentliche Integral existiert, denn
√ 1
ln(x) ≤ x. Also gilt für alle m ≥ 1

ZM ZM √ ZM
ln(x) x 1
≤ dx = dx
x2 x2 x3/2
1 1 1

RM
1
und lim 3/2 dx existiert (siehe Beispiel 8.24). In diesem Beispiel können wir das Integral
M →∞ 1 x
auch berechnen. Mit partieller Integration erhalten wir

ZM ZM
1 1 11 − ln(x) M 1 − ln(M ) 1
ln(x) dx = − ln(x) |M + dx = |1 − |M = − + 1 −−−−→ 1.
x2 x1 xx x x1 M M M →∞
1 1

Betrachten wir nun den zweiten Fall.


f : (a, b] → R sei integrierbar auf [a + ε, b] für jedes ε ∈ (0, b − a). Wir definieren

Zb Zb
f (x)dx = lim f (x)dx
ε→0
a a+ε

falls der Limes existiert.


R1 1
Beispiel 8.26. xα dx existiert für α < 1, denn
0

Z1
1 x1−α 1 1 − ε1−α 1
dx = |ε = −−−−−−→ .
xα 1−α 1 − α ε→0, ε>0 1 − α
ε

R1 1
Für α > 1 existiert xα dx nicht, denn mit derselben Rechnung wie vorher gilt
0

ε1−α −−−−−−→ ∞.
ε→0,ε>0

Für α = 1 gilt
Z1
1
dx = ln(x)|1ε = − ln(ε) −−−−−−→ ∞
x ε→0, ε>0
ε

R1 1
also existiert x dx nicht.
0

Falls f : R → R integrierbar ist auf [a, b], ∀a, b ∈ R so definieren wir


Z∞ Zc Z∞
f (x)dx = f (x)dx + f (x)dx (8.8)
−∞ −∞ c

falls für ein c ∈ R beide uneigentlichen Integrale existieren.


R∞
f (x)dx hängt dann von c nicht ab!
−∞

51
Beispiel 8.27.

Z∞ Z0 Z∞
1 1 1
dx = dx + dx
1 + x2 1 + x2 1 + x2
−∞ −∞ 0
Z0 ZM
1 1
= lim dx + lim dx
M →∞ 1 + x2 M →∞ 1 + x2
−M 0

= lim arctan(x)|0−M + lim arctan(x)|M


0
M →∞ M →∞
= lim (− arctan(−M )) + lim arctan(M )
M →∞ M →∞
π π
= + = π.
2 2
R∞ RM
Achtung: Für die Existenz von f (x)dx genügt es nicht, dass lim f (x)dx existiert.
−∞ M →∞ −M

Beispiel 8.28. f (x) = x.

RM
Dann gilt f (x)dx = 0, ∀M aber
−M

ZM
1
f (x)dx = (M 2 − c2 ) −−−−→ ∞ . (8.9)
2 M →∞
c

R∞
also existiert xdx nicht.
−∞

Vertauschung von Integration und Grenzwerten


Sei (fn ) eine Folge von Funktionen fn : [a, b] → R und f : [a, b] → R eine weitere Funktion.

Definition 8.29. (fn ) konvergiert punktweise gegen f falls

lim fn (x) = f, ∀x ∈ [a, b].


n→∞

(fn ) konvergiert gleichmäßig gegen f falls

lim sup |fn (x) − f (x)| −−−−→ 0.


n→∞ x∈[a,b] n→∞

Beispiel 8.30. a = 0, b = 1, fn (x) = xn , fn : [0, 1] → R.


(fn ) konvergiert punktweise gegen f ,
(
0 0≤x<1
f (x) =
1 x = 1.

52
Figure 1: Beispiele für fn

Beachte, dass fn stetig, ∀n, aber f nicht stetig in x = 1. Die Folge (fn ) konvergiert nicht
gleichmäßig gegen f , denn
sup |fn (x) − f (x)| = 1, ∀n.
x∈[0,1]

Für die Integrale gilt

Z1 Z1
1 1
fn (x)dx = xn+1 |10 = −−−−→ 0 = f (x)dx. (8.10)
n+1 n + 1 n→∞
0 0

Beispiel 8.31. fn : [0, 1] → R sei definiert durch



n x
 2
0 ≤ x ≤ n1
1 2
fn (x) = 2n − n2 x n <x≤ n
x > n2 .

0

Dann sind alle fn stetig und lim fn (x) = 0, ∀x, d.h. (fn ) konvergiert punktweise gegen f ,
n→∞
f (x) = 0, ∀x ∈ [0, 1].
R1 R1
Aber fn (x)dx = 1, ∀n und f (x)dx = 0.
0 0

(fn ) konvergiert nicht gleichmäßig, gegen f , denn fn ( n1 ) = n, also gilt


sup |fn (x) − f (x)| −−−−→ ∞.
x∈[0,1] n→∞

Satz 8.32. Falls fn : [a, b] → R stetig, ∀n und (fn ) auf [a, b] gleichmäßig gegen f konvergiert,
so ist f stetig und
Zb Zb
lim fn (x)dx = f (x)dx.
n→∞
a a

Beweis. 1. f ist stetig. Wir nehmen eine Folge (xk ) in [a, b] mit xk −−−−→ x. Wir müssen
k→∞
zeigen: f (xk ) −−−−→ f (x).
k→∞

53
Es gilt

|f (xk ) − f (x)| ≤ |f (xk ) − fn (xk )| + |fn (xk ) − fn (x)| + |fn (x) − f (x)|
≤ sup |f (z) − fn (z)| + |fn (xk ) − fn (x)| + sup |fn (z) − f (z)|.
z∈[a,b] z∈[a,b]

ε
Wir wählen zuerst n so groß, dass der erste und der letzte Term ≤ 3 und dann k so groß,
dass der mittlere Term ≤ 3ε ist (dies ist möglich, da fn stetig ist).
Rb Rb
2. Die Integrale fn (x)dx konvergieren gegen f (x)dx.
a a
Wir haben
Zb Zb Zb
fn (x)dx − f (x)dx = (fn (x) − f (x))dx
a a a
Zb
≤ |fn (x) − f (x)|dx
a
≤ (b − a) sup |fn (x) − f (x)| −−−−→ 0.
x∈[a,b] n→∞

Definition 8.33 (Partielle Ableitungen). Sei B ⊆ Rd , x innerer Punkt von B,


f : B → Rd . f heißt im Punkt x = (x1 , x2 , ..., xd ) nach der k-ten Komponente differenzierbar,
falls die Ableitung fk (z) = f (x1 , x2 , ..., xk−1 , z, xk+1 , ..., xd ) existiert. (Bei fk werden alle an-
deren Komponenten als feste Parameter aufgefasst).
∂f
Wir schreiben für diese Ableitung ∂x k
oder ∂k f (x).
Es gilt also
f (x1 , ..., xk−1 , xk+h , xk+1 , ..., xd ) − f (x1 , ..., xd )
∂k f (x) = lim
h→0 h
falls der Limes existiert.
Satz 8.34. Für jede stetige Funktion f : [a, b] × J → R mit einem Parameterintervall J ⊆ R
Rb
ist das Integral F (x) = a f (t, x)dt, x ∈ J, eine stetige Funktion F : J → R.
Zusätzlich gilt:
ˆ Wenn f (t, x) auf [a, b] × J eine stetige partielle Ableitung ∂x f besitzt, so ist F ebenfalls
Rb
stetig differenzierbar und die Ableitung ist gegeben durch F 0 (x) = ∂x f (t, x)dt, x ∈ J.
a
! !
Rd Rd Rb Rb Rd
ˆ Ist J = [c, d] kompakt, so gilt F (x)dx = f (t, x)dt dx = f (t, x)dx dt, d.h.
c c a a c
die Reihenfolge der Integrationen kann vertauscht werden.

Ohne Beweis.
Beispiel 8.35. f (t, x) = etx , J = [c, d]

Zb Zb (
etx t=b
tx x t=a x 6= 0
F (x) = f (t, x)dt = e dt =
b−a x = 0.
a a

Also (
ebx −eax
x x 6= 0
F (x) =
b−a x = 0.

54
Rb
Wir bekommen also F 0 (x) = tetx dt. Für x 6= 0 ist das, mit partieller Integration
a

Zb
et x t=b etx bebx − aeax ebx − eax
=t − dt = − .
x t=a x x x2
a

Rb b2 −a2
Für x = 0 gilt: F 0 (x) = tdt = 2 .
a
b2 −a2
Test: lim F 0 (x) = ... = F 0 (0) = 2 .
x→0
In diesem Beispiel berechnet man auch direkt

Rb
eth dt − (b − a)
F (h) − F (0) a
F 0 (0) = lim = lim
h→0 h h→0 h
ehb −eha
− (b − a)
h e − eha − h(b − a) hb
= lim = lim
h→0 h h→0 h2
bh ah
be − ae − (b − a) b e − a2 eah
2 bh
b2 − a2
= lim = lim = .
h→0 2h h→0 2 2
Beispiel 8.36 (Integralsinus). Die Funktion Si(x) ist definiert durch
Zx
sin(t)
Si(x) = dt .
t
0

sin(t) sin(t)
Wir wissen, dass lim t = 1, also ist t integrierbar auf [0, x], ∀x ≥ 0.
t→0

Wie verhält sich Si(x) für x → ∞?


Betrachte
Zx
e−st sin(t)
I(x, s) = dt.
t
0

Dann gilt I(x, 0) = Si(x). Nach Satz 8.34 ist I(x, s) nach s stetig partiell differenzierbar (d.h.
für festes x eine stetig differenzierbare Funktion von s) und es gilt:
Zx Zx
e−st sin(t) 1 e−sx (cos(x) + s · sin(x))
∂s I(x, s) = ∂s dt = − e−st sin(t)dt = − + .
t 1 + s2 1 + s2
0 0

(Die Stammfunktion findet man zum Beispiel mit Maple).


Also mit dem Hauptsatz
Zs Zs
e−tx (cos(x) + t sin(x))
I(x, s) = I(x, 0) + ∂t I(x, t)dt = Si(x) − arctan(s) + dt.
1 + t2
0 0

55
Also gilt, für x, s > 0:
Zx Zs
e−st sin(t) e−tx · (cos(x) + t sin(x))
Si(x) = arctan(s) + dt − dt.
t 1 + t2
0 0

Wir gewinnen damit Abschätzungen. Zunächst bemerken wir, dass

sin(t)
≤ 1 (Beweis: Übung) (8.11)
t
p √
cos(x) + t sin(x) Cauchy-Schwarz cos2 (x) + sin2 (x) 1 + t2 1
≤ =√ ≤1 (8.12)
1 + t2 1 + t2 1 + t2
Damit gilt also ∀x, s > 0:
Zx Zs
−st
|Si(x) − arctan(x)| ≤ e dt + e−tx dt
0 0
−sx
1−e 1 − e−sx
= +
s x
1 1
≤ +
s x
Wir lassen s → ∞ gehen und erhalten |Si(x) − π2 | ≤ x1 oder Si(x) = π2 + O( x1 ). Insbesondere
Rx
gilt lim sin(t) π
t dt = 2 und wir können die Konvergenzgeschwindigkeit abschätzen.
x→∞ 0

Integration von Reihen


Satz 8.37. Wenn die aus den integrierbaren Funktionen fk : [a, b] → R gebildete Reihe f (x) =
P∞
fk (x) majorisiert konvergiert, so ist f auf [a, b] integrierbar und wir können die Reihe
k=0
gliedweise integrieren:

Zb Zb X
∞ ∞ Z
X
b

f (x)dx = fk (x)dx = fk (x)dx


a a k=0 k=0 a

n
P
Beweis. f = lim gn wobei gn (x) = fk (x). Falls die Reihe majorisiert konvergiert, so gilt
n→∞ k=0


X ∞
X ∞
X
|f (x) − gn (x)| = fk (x) ≤ |fk (x)| ≤ ak −−−−→ 0.
n→∞
k=n+1 k=n+1 k=n+1

Also konvergiert (gn ) gleichmäßig gegen f , und mit Satz 8.32 gilt

56
Zb Zb
f (x)dx = lim gn (x)dx
n→∞
a a
Zb
= lim gn (x)dx
n→∞
a
Zb n
X
!
= lim fk (x) dx
n→∞
a k=0

n Z b
X
= lim fk (x)dx
n→∞
k=0 a

∞ Z b
X
= fk (x)dx.
k=0 a

Beispiel 8.38 (Geometrische Reihe).



1 X
= (−1)k xk
1+x
k=0

konvergiert für |x| ≤ q < 1 majorisiert, denn es gilt:



X ∞
X
|x|k ≤ q k < ∞.
k=0 k=0

Also gilt mit Satz 8.37 :


Zx ∞ Zx ∞
1 X X xk+1
dt = (−1)k tk dt = (−1)k .
1+t k+1
0 k=0 0 k=0

Rx 1
Wir wissen aber, dass 1+t dt = ln(1 + x) (für x > −1).
0
Also erhalten wir

X xk+1
ln(1 + x) = (−1)k (8.13)
k+1
k=0

für |x| < 1 (denn q ∈ (0, 1) war beliebig).


Definition 8.39. Eine Darstelllung

X
f (x) = ak xk für |x| < r (8.14)
k=0

heißt Entwicklung von f in eine Potenzreihe. Die größtmögliche Schranke für die (8.14)
gilt heißt Konvergenzradius der Potenzreihe.
Beispiel 8.40. Für k = 0, 1, 2, . . . sei fk gegeben durch

k x
 2
0 ≤ x ≤ k1
fk (x) = 2k − k 2 x k1 < x ≤ k2
x > k2 .

0

57
Visualisierung: Siehe Figure 1.
Dann gilt fk (x) −−−−→ 0, ∀x ∈ [0, 1] und sogar: ∀x ∈ [0, 1] ∃k0 = k0 (x), so dass
k→∞

fk (x) = 0 ∀k ≥ k0 .

P
Betrachte fk (x): diese Reihe konvergiert, ∀x ∈ [0, 1].
k=0
n
P
f ist jedoch nicht integrierbar auf [0, 1], denn f (x) ≥ fk (x), ∀n und
k=0

Z1 n
X
! n Z
X
1

fk (x) dx = fk (x)dx = n
0 k=0 k=0 0

R1 R1
(denn fk (x)dx = 1, k = 1, 2, . . .). Also existiert f (x)dx nicht.
0 0


1
(−1)k z k für |z| < 1, siehe (??). Wir setzen z = x2 und
P
Beispiel 8.41. Wir wissen: 1+z =
k=0
erhalten

1 X
2
= (−1)k x2k für |x| < 1.
1+x
k=0

Für |x| ≤ q < 1 können wir also gliedweise integrieren und erhalten
Zx ∞ Zx ∞
1 X X x2k+1
2
dt = (−1)k t2k dt = (−1)k .
1+t 2k + 1
0 k=0 0 k=0

Rx 1
Aber wir wissen, dass 1+t2 dt = arctan(x) und erhalten also
0


X x2k+1
arctan(x) = (−1)k (für |x| < 1).
2k + 1
k=0

Wir haben für |x| < 1:


n
X x2k+1 |x|2n+1
arctan(x) − (−1)k ≤ .
2k + 1 2n + 1
k=0

Lassen wir x → 1 gehen, so sehen wir, dass


n
X 1 1
arctan(1) − (−1)k ≤ .
2k + 1 2n + 1
k=0

Lassen wir jetzt n → ∞ gehen, so erhalten wir


X (−1)k ∞
π
= arctan(1) = .
4 2k + 1
k=0

Bemerkung. Analog erhält man



X (−1)k
ln(2) = , (8.15)
k+1
k=0

was wegen (8.13) plausibel ist.

58
Anwendungen des Integrals
Satz 8.42. Seien a, b ∈ Z mit a ≤ b und sei f : [a, b] → R monoton. Dann gilt:
b−1 Rb b
ˆ f monoton wachsend ⇒
P P
f (k) ≤ f (x)dx ≤ f (k).
k=a a k=a+1

b Rb b−1
ˆ f monoton fallend ⇒
P P
f (k) ≤ f (x)dx ≤ f (k).
k=a+1 a k=a

Beweis. vgl. H.8.4

n
k α für n → ∞? (z.B. Anzahl der Rechenschritte
P
Beispiel 8.43. Sei α > 0. Wie verhält sich
k=1
in einem Algorithmus.)
Nach Satz 8.42 gilt
Zn n
X
n+1
Z
α α
x dx ≤ k ≤ xα dx .
0 k=1 1
Also
n
nα+1 X (n + 1)α+1 − 1
≤ kα ≤ (8.16)
α+1 α+1
k=1
und man kann die linke Seite und die rechte Seite mit Rechner sofort auswerten. Also wissen
wir
n
X nα+1
kα ∼ .
α+1
k=1
an
(an ∼ bn heißt bn −
−−−→ 1), d.h.
n→∞
n
1 X 1
k α −−−−→ .
nα+1 n→∞ α+1
k=1
n
P n(n+1)
Beispiel 8.44. Für α = 1 wissen wir, dass k= 2 - man kann das mit vollständiger
k=1
Induktion beweisen - also ist (8.16) erfüllt.
Beispiel 8.45. Ein Sortieralgorithmus benötigt bei der Eingabe von n Elementen log2 (n!) Ver-
gleiche. Wir haben
1
log2 (n!) = ln(n!).
ln(2)
Eine erste Abschätzung für ln(n!) wäre
ln(n!) = ln(1) + ln(2) + ln(3) + . . . + ln(n) ≤ n ln(n), n ∈ N)
Da f (x) = ln(x) monoton wächst, bekommen wir mit Satz 8.42 eine genauere Abschätzung:
Zn n
X
n+1
Z
ln(x)dx ≤ ln(n!) = ln(k) ≤ ln(x)dx (8.17)
1 k=1 1

59
Nun benutzen wir, dass F (x) = x ln(x) − x eine Stammfunktion von f (x) = ln(x) ist, und
erhalten
n ln(n) − n + 1 ≤ ln(n!) ≤ (n + 1) ln(n + 1) − n. (8.18)
Daraus bekommen wir die Asymptotik

ln(n!) = n ln(n) − n + O(ln(n))

für n → ∞. Also gilt auch


n! = eln(n!) = nn e−n nO(1) .
Wir werden später sehen, dass

n! ∼ 2πn · nn e−n für n → ∞.

Abschätzung von Reihen


f : [1, ∞) → [0, ∞) sei monoton fallend. Dann liefert Satz 8.42:

n n+1 n+1
Z n
X X X
f (k) ≤ f (k) ≤ f (x)dx ≤ f (k). (8.19)
k=2 k=2 1 k=1

Also gilt:
n n+1
Z
X
0 ≤ an = f (k) − f (x)dx ≤ f (1). (8.20)
k=1 1

(an ) wächst monoton, denn mit a = n + 1 und b = n + 2 folgt aus Satz 8.42:
n+2
Z
an+1 = an + f (n + 1) − f (x)dx ≥ an . (8.21)
n+1

Also konvergiert (an ) und wir haben das folgende Kriterium gezeigt.
Satz 8.46 (Integralkriterium). Für monoton fallende Funktionen f : [1, ∞) → [0, ∞) existiert
der Grenzwert der Abweichung zwischen Summe und Integral und erfüllt:

n n+1
Z
X
0 ≤ lim ( f (k) − f (x)dx) ≤ f (1).
n→∞
k=1 1

Insbesondere gilt:

X Z∞
f (k) konvergiert ⇔ f (x)dx existiert.
k=1 1
n
1 1
P
Beispiel 8.47. Sei f (x) = x, x ∈ [1, ∞). Sei Hn = k. Hn heißt n-te harmonische Zahl.
k=1
Das Integralkriterium gibt uns den Vergleich von Hn mit ln(n + 1), nämlich

0 ≤ lim (Hn − ln(n + 1)) ≤ 1.


n→∞

Insbesondere folgt die Existenz der Euler-Mascheroni-Konstanten: γ = lim (Hn − ln(n + 1)),
n→∞
γ ≈ 0.5772 . . . (es ist offen, ob γ irrational oder sogar transzendent ist!). Wir wissen, dass
Hn − ln(n + 1) monoton wächst. Also gilt, ∀n ∈ N

ln(n + 1) ≤ Hn ≤ γ + ln(n + 1).

Insbesondere bekommen wir wegen ln(n) −−−−→ ∞ einen anderen Beweis für die Divergenz der
n→∞
harmonischen Reihe.

60
9 Potenzreihen und Taylor-Entwicklung
1
Wir hatten gesehen, dass die Funktionen 1+x , ln(1 + x), arctan(x), sin(x), cos(x) Darstellungen
also Potenzreihen haben:

X
f (x) = ak xk für |x| < r mit r ∈ (0, ∞]
k=0

(r ∈ (0, ∞] bedeutet r ∈ (0, ∞) oder r = ∞). Solche Darstellungen sind wichtig für
n
ˆ Numerik: Für gegebenes f , berechne (ak ) und approximiere f durch ak xk .
P
k=0

ˆ Kombinatorik: Für (ak ) gegeben, finde f und bestimme mit den Eigenschaften von f das
asymptotische Verhalten von ak .

Entwicklung von Funktionen in Potenzreihen


Falls f differenzierbar ist, so ist f 0 (a) die Steigung der bestmöglichen linearen Approximation
von f (x) in x = a + h ≈ a :

f (a + h) = f (a) + f 0 (a) · h + o(h) für h → 0.

Kann man mit einem Polynom höheren Grades besser approximieren? Zum Beispiel:

f (x) = f (a + h) = f (a) + f 0 (a) · h + a2 h2 + . . . + an hn + o(hn ) für h → 0.

Wie soll man die ak wählen?


Falls es eine Approximation gibt, so ist
f (a + h) − f (a) − f 0 (a) · h − a2 h2 − . . . − an−1 hn−1
an = lim .
h→0 hn
Wir wenden die Regel von de L’Hospital an und nehmen an, dass f n-mal differenzierbar ist.
Mit n Iterationsschritten erhalten wir
∂hn (f (a + h) − f (a) − f 0 (a)h − . . . − an−1 hn−1 ) f (n) (a)
an = lim = . (9.1)
h→0 ∂hn (hn ) n!

(Wir schreiben ∂hn für die n-fache Ableitung nach h, f (n) für die n-te Ableitung von f ).
Also gilt für ein n-fach differenzierbares f die Taylorformel:
n
X f (k) (a)
f (a + h) = hk + o(hn ) für h → 0.
k!
k=0

n
P f (k) (a) k
k! h heißt n-tes Taylorpolynom von f um den Entwicklungspunkt a.
k=0

Satz 9.1. Sei f : I → R eine auf dem offenem Intervall I (n + 1)-mal stetig differenzierbare
Funktion.
Dann gilt für x, a ∈ I
n
X f (k) (a)
f (x) = (x − a)k + Rn+1 (a, x)
k!
k=0
mit
Zx
1
Rn+1 (a, x) = (x − t)n f (n+1) (t)dt (Cauchy)
n!
a
(n+1)
f (z)
Rn+1 (a, x) = (x − a)n+1 für ein z zwischen a und x. (Lagrange)
(n + 1)!

61
Beweis. Wir setzen h = x − a.
Schritt 0:
Zx
f (x) = f (a) + f 0 (t)dt
a
nach dem Hauptsatz.
Wir schreiben
Zx Zx
0
f (t)dt = − ∂t (x − t)f 0 (t)dt
a a
und wenden partielle Integration an
Zx
0
= −(x − t)f (t)|t=x
t=a + (x − t)f 00 (t)dt
a

und iterieren. Im k-ten Schritt erhalten wir


Zx Zx 
(x − t)k−1 (k) (x − t)k

f (t)dt = − ∂t f (k) (t)dt
(k − 1)! k!
a a
Zx
(x − t)k (k) t=x (x − t)k (k+1)
=− f (t)|t=a + f (t)dt
k! k!
a
Zx
f (k) (a) k (x − t)k (k+1)
= h + f (t)dt
k! k!
a
k (k)
(mit − (x−t)
k! f
(k)
(t)|t=x
t=a =
f (a) k
k! h ). Nach dem n-ten Schritt haben wir die Taylorformel mit
dem Cauchy-Restglied. Da (x − t)n für t zwischen a und x ein festes Vorzeichen hat, können
Rx k
wir auf (x−t)k! f
(k+1)
(t)dt den Mittelwertsatz der Integralrechnung anwenden und erhalten,
a
für ein z zwischen a und x:
Zx Zx
1 n (n+1) (n+1) (x − t)n hn+1
(x − t) f (t)dt = f (z) dt = f (n+1) (z) , (9.2)
n! n! (n + 1)!
a a

mit h = (x − a). Damit ist auch die Lagrange’sche Form des Restgliedes gezeigt.
Beispiel 9.2. Für f (x) = ex gilt f (n) (x) = ex , ∀n und insbesondere f (n) (0) = 1.
Die Taylorentwicklung von f um a = 0 liefert mit dem Restglied von Lagrange,

x2 x3 xn xn+1
ex = 1 + x + + + ... + + ez (9.3)
2! 3! n! (n + 1)!
mit einem z zwischen 0 und x.
Für x = 1 erhalten wir mit 1 ≤ ez ≤ e1 ≤ 3 die Einschließung
n n
X 1 1 X 1 3
+ ≤e≤ + .
k! (n + 1)! k! (n + 1)!
k=0 k=0

Dies liefert eine gute Approximation der Eulerschen Zahl e. 


n
(Zur Erinnerung: wir hatten e definiert durch e = lim 1 + n1 ).
n→∞

zk
P
Das Restglied in (9.3) geht gegen 0 für n → ∞, denn wir hatten gezeigt, dass exp(z) = k!
k=0
konvergiert, ∀z ∈ R. Wir können also in (9.3) n gegen ∞ gehen lassen und erhalten:

X xk
ex = = exp(x).
k!
k=0

62
Das letzte Argument war allgemein und wir erhalten:
Satz 9.3. I sei offen und a ∈ I, f : I → R sei unendlich oft differenzierbar und lim Rn (a, x) =
n→∞
0. Dann gilt für alle x ∈ I

X f (k) (a)
f (x) = (x − a)k
k!
k=0
und diese Reihe heißt Taylorreihe von f um a.
Beachte, dass lim Rn (a, x) = 0 nicht für alle unendlich oft differenzierbaren Funktionen f
n→∞
gilt. Nicht jede unendlich of differenzierbare Funktion lässt sich in eine Potenzreihe entwickeln.
Beispiel 9.4. ( 2
e−(1/x )
x 6= 0
f (x) =
0 x = 0.

Dann ist f unendlich oft differenzierbar und es gilt f (n) (0) = 0, ∀n.
Beweis. Übung.

P f (k) (0) k
Also haben wir für x 6= 0, f (x) 6= k! x .
k=0

Beispiel 9.5. Sei α ∈ R. Betrachte die Funktion f (x) = (1 + x)α , f : (−1, ∞) → (0, ∞). (Zur
Erinnerung: (1 + x)α = exp(α ln(1 + x))). Dann ist f auf (−1, ∞) unendlich oft differenzierbar
und die Ableitungen sind gegeben durch
f (n) (x) = α(α − 1)(α − 2) . . . (α − n + 1)(1 + x)α−n .
Also gilt
f (k) (0)
 
α
= .
k! k
Der Binomialkoeffizient αk ist dabei definiert durch


 
α α(α − 1) . . . (α − k + 1)
= (mit α ∈ R, k ∈ N).
k k!
Falls α = n ∈ N, so gilt
  ( n!
n k≤n
= k!(n−k)!
k 0 k > n.
Die Taylorformel liefert also für x > −1 :
n  
X α k
(1 + x)α = x + Rn+1 (0, x).
k
k=0

Man kann zeigen, dass für x mit |x| < 1, Rn (0, x) −−−−→ 0. (Wir lassen die Rechnung weg).
n→∞
Wir bekommen damit die Binomialreihe
∞  
α
X α k
(1 + x) = x für |x| < 1.
k
k=0

63
Falls α = n ∈ N, so liefert dies den binomischen Lehrsatz
∞   n  
n
X n X
k n k
(1 + x) = x = x .
k k
k=0 k=0

Wir haben also den binomischen Lehrsatz für α ∈ R verallgemeinert.


Der Spezialfall α = − 12 ergibt die Potenzreihe
∞  1 ∞
− 2 k X (−1)k 2k k
 
1 X
√ = x = x . (9.4)
1 + x k=0 k 4k k
k=0

Beweis. [von (9.4)]

− 12 − 12 (− 12 − 1) . . . (− 21 − k + 1) (−1)k · 1 · 3 · 5 · ... · (2k − 1)


 
= =
k k! k!2k
 
(2k)! 1 2k
= (−1)k k k = (−1)k k .
2 k!2 k! 4 k

Also gilt, wenn wir x in (9.4) durch − x4 ersetzen,


∞  
X 2k 1
xk = √ (9.5)
k 1 − 4x
k=0

2k
für |x| < 14 , das heißt √ 1

1−4x
ist die erzeugende Funktion von (ak ), definiert durch ak = k .

Potenzreihen im Komplexen

ak z k eine Potenzreihe. Dann gibt es einen Konvergenzradius r ∈ [0, ∞]
P
Lemma 9.6. Sei
k=0
(d.h. r ∈ [0, ∞) oder r = ∞), so dass für alle z ∈ C gilt

ˆ |z| < r ⇒ ak z k konvergiert absolut.
P
k=0


ˆ |z| > r ⇒ ak z k divergiert.
P
k=0

Der Konvergenzradius r ist gegeben durch


1 p
= lim sup n |an |
r n→∞

1 1
(dabei setzen wir 0 = ∞ und ∞ = 0). Die Menge {z ∈ C : |z| < r} heißt Konvergenzkreis der
Potenzreihe.
Beweis. Der Beweis beruht auf einem Vergleich mit der geometrischen Reihe (siehe Buch von
F. Bornemann).
Definition 9.7. Eine Funktion f heißt in x = 0 analytisch, wenn sie sich mit positivem
Konvergenzradius r > 0 in eine Potenzreihe um x = 0 entwickeln lässt.

Ist eine reelle Funktion f in x = 0 analytisch, so besitzt sie nach dem Lemma eine analytische
Fortsetzung (nämlich ihre Potenzreihe) für komplexe z aus dem Konvergenzkreis.

64
Beispiel 9.8. Wir hatten gesehen:

X xk+1
ln(1 + x) = (−1)k
(k + 1)
k=0

für |x| < 1, siehe (8.13). Für x = −1 divergiert die Reihe:


∞ ∞
X 1 X 1
(−1)2k+1 =− = −∞.
k+1 k+1
k=0 k=0

Also gilt r = 1 und



X z k+1
f (z) = (−1)k
k+1
k=0

konvergiert absolut für z mit |z| < 1.


Also können wir ln(1 + z) definieren für alle z mit |z| < 1:

X z k+1
ln(1 + z) = (−1)k
k+1
k=0

für |z| < 1.


Für |z| = r können wir keine Aussage machen. Im obigen Beispiel hatten wir gesehen, dass die
Reihe divergiert für z = −1, und konvergiert für z = 1:

X 1
ln(2) = (−1)k ,
k+1
k=1

siehe (8.15).

Kalkül der Potenzreihen


f, g seien reelle Funktionen.
Satz 9.9. Die Funktionen f und g seien analytisch in x = 0, d.h. sie lassen sich mit positiven
Konvergenzradien rf > 0, rg > 0 in die Potenzreihen

X
f (x) = ak xk (|x| < rf ) (9.6)
k=0


X
g(x) = bk x k (|x| < rg ) (9.7)
k=0

entwickeln. Dann gilt

ˆ Differentiation f 0 ist in x = 0 analytisch und



X
f 0 (x) = (k + 1)ak+1 xk (|x| < rf ) (9.8)
k=0

d.h. die Reihe (9.6) darf gliedweise differenziert werden.

Beweis. Folgt aus Satz 9.1 und Lemma 9.6.

ˆ Eindeutigkeit der Koeffizienten

f (k) (0)
ak = (9.9)
k!

65
Beweis. Folgt aus der Taylorformel.

Rx
ˆ Integration F (x) = f (t)dt definiert eine Stammfunktion von f. Dann gilt
0


X ak−1
F (x) = xk (|x| < rf ) (9.10)
k
k=1

d.h. die Reihe (9.6) darf gliedweise integriert werden.

Beweis. Gliedweise Integration nach Satz 8.37.

ˆ Summe f + g ist in x = 0 analytisch und



X
(f + g)(x) = (ak + bk )xk (|x| < min(rf , rg )) (9.11)
k=0

Beweis. Folgt aus Satz 9.1.

ˆ Produkt f · g ist analytisch in x = 0 mit


 

X X k
(f · g)(x) =  aj bk−j  xk (|x| < min(rf , rg )) (9.12)
k=0 j=0

k
P
Die Koeffizientenfolge (ck ), gegeben durch ck = aj bk−j heißt Faltung der Folgen (ak )
j=0
und (bk ).

Beweis. Folgt aus Satz 3.20.


ˆ Quotient Falls g(0) = b0 6= 0, so ist f f
dk xk mit
P
g analytisch in x = 0 und g (x) =
k=0

k−1
1 X
dk = (ak − dj bk−j ) k = 0, 1, 2
b0 j=0

Beweis. Folgt mit ( fg ) · g = f aus dem Resultat über Produkte.

ˆ Komposition Falls |g(0)| = b0 < rf , so ist f ◦ g analytisch in x = 0.

Beweis. Folgt aus Satz 3.19 und Satz 9.1.

Gerade und ungerade Funktionen


I = (−r, r)
Definition 9.10. f : I → R heißt
ˆ gerade, falls f (−x) = f (x) ∀x ∈ I und

ˆ ungerade, falls f (−x) = −f (x) ∀x ∈ I.


Falls f analytisch in x = 0, so gilt

66

ˆ f gerade ⇔ f (x) = a2k x2k
P
∀x ∈ I
k=0

ˆ f ungerade ⇔ f (x) = a2k+1 x2k+1
P
∀x ∈ I
k=0

Dies folgt aus der eindeutigen Darstellung (9.9) der Koeffizienten, denn
ˆ f gerade ⇒ f (k) (0) = 0 für k = 1, 3, 5, . . .
ˆ f ungerade ⇒ f (k) (0) = 0 für k = 0, 2, 4, 6, . . .
Beispiel 9.11.

X (iy)k
eiy =
k!
k=0
∞ ∞
X (iy)2k X (iy)2k+1
= +
(2k)! (2k + 1)!
k=0 k=0
∞ 2k ∞
X y X y 2k+1
= (−1)k +i (−1)k
(2k)! (2k + 1)!
k=0 k=0
= cos(y) + i sin(y)
Dabei ist

X y 2k
cos(y) = (−1)k (9.13)
(2k)!
k=0
eine gerade Funktion und

X y 2k+1
sin(y) = (−1)k (9.14)
(2k + 1)!
k=0
eine ungerade Funktion. Beachte, dass (9.13) und (9.14) cos und sin zu analytischen Funktionen
auf C fortsetzen.

Erzeugende Funktionen von Zahlenfolgen



ak xk die erzeugende Funktion von (ak ).
P
Sei (ak ) eine Folge. Dann heißt f (x) =
k=0

Beispiel 9.12 (Geldwechselproblem). Wie viele Möglichkeiten ak gibt es einen Betrag von k
Cents in Münzen der Stückelung 1, 2, 5, 10, 20 und 50 Cents herauszugeben?
Beispiel:k = 10

10 = 10 · 1
=8·1+1·2
=6·1+2·2
=4·1+3·2
=2·1+4·2
=5·2
=5·1+1·5
=3·1+1·2+1·5
=1·1+2·2+1·5
=2·5
= 1 · 10

67
Also gibt es a10 = 11 Möglichkeiten.
Wie berechnet man ak für große k?

Wir müssen die Anzahl ak der 6-Tupel (j1 , . . . , j6 ) ∈ N60 bestimmen, für die

k = j1 · 1 + j2 · 2 + j3 · 5 + j4 · 10 + j5 · 20 + j6 · 50.

Für die erzeugende Funktion der (ak ) gilt also

∞ X
X ∞ X
∞ X
∞ X
∞ X

f (x) = xj1 ·1+j2 ·2+j3 ·5+j4 ·10+j5 ·20+j6 ·50
j1 =0 j2 =0 j3 =0 j4 =0 j5 =0 j6 =0
X∞ X∞ X∞ X∞ ∞
X ∞
X
j1 2j2 5j3
= x x x x10j4 x20j5 x50j6
j1 =0 j2 =0 j3 =0 j4 =0 j5 =0 j6 =0
1 1 1 1 1 1
=
1 − x 1 − x 1 − x 1 − x 1 − x 1 − x50
2 5 10 20

(die Potenzreihen konvergieren für |x| < 1).


Damit können wir die ak (theoretisch) bestimmen:

f (k) (0) 1 dk
 
1 1
ak = = · · · |x=0
k! k! dxk 1 − x 1 − x50
k
d
( dx k bezeichnet die k-fache Ableitung nach x).

Allerdings kann man die ak so nicht wirklich ausrechnen - der Rechenaufwand ist zu groß.
Stattdessen kann man den Kalkül der Potenzreihen verwenden: die Koeffizienten des Produktes
von Potenzreihen lassen sich rekursiv berechnen, siehe (9.12).

Maple liefert:

a100 = 4562
a1000 = 103119386
a10000 = 8518079396351.

Noch besser ist es, f statt als Produkt als Summe zu schreiben.
Dazu betrachten wir die sogenannte logarithmische Ableitung
f 0 (x)
Lf (x) =
f (x)
d
falls f (x) 6= 0. Lf (x) = dx log(f (x)) erklärt den Namen.
Es gilt
L(f · g)(x) = Lf (x) + Lg(x).
Hier gilt also:

f 0 (x) 1 2x 5x4 10x9 20x19 50x49


= + 2
+ 5
+ 10
+ 20
+
f (x) 1−x 1−x 1−x 1−x 1−x 1 − x50

X
= xk + 2x2k+1 + 5x5k+4 + 10x10k+9 + 20x20k+19 + 50x50k+49
k=0
X∞
= bk xk
k=0
X
mit bk = m · I{m|(k+1)}
m∈{1,2,5,10,20,50}

68
wobei
(
1 m Teiler von (k + 1)
I{m|(k+1)} = (k ∈ N0 )
0 sonst.
Wir haben also

X ∞
X
f (x) = ak xk ⇒ f 0 (x) = (k + 1)ak+1 xk
k=0 k=0

siehe (9.8).

X k
X
f 0 (x) = f (x) bk xk ⇒ (k + 1)ak+1 = aj bk−j
k=0 j=0

(Koeffizientenvergleich und (9.12)).


Damit haben wir die Rekursionsformel
k
1 X
ak+1 = aj bk−j
k + 1 j=0

(Startwert a0 = 1) und können die (ak ) effizient berechnen.

10 Differentialrechnung im Mehrdimensionalen
Ziel: Für Funktionen f : D → R mit D ⊂ Rd in mehreren Variablen wollen wir die Ableitung
definieren und f auf Extrema untersuchen.

Beispiel 10.1. f : R2 → R, f (x1 , x2 ) = x21 + x22

f hat offensichtlich ein Minimum bei (0, 0), für g : R2 → R, g(x1 , x2 ) = 3x1 − x21 − x22 − x1 x2
ist dies nicht mehr so einfach zu erkennen.

Wie im Eindimensionalen können wir Extrema durch Ableiten finden.

69
Definition 10.2. Sei D ⊂ Rd . x heißt innerer Punkt von D, falls es ein ε > 0 gibt mit
Bε (x) := {y ∈ Rd : ||x − y|| < ε} ⊂ D.
p
Hierbei ist ||x − y|| = (x1 − y1 )2 + . . . + (xd − yd )2 der Abstand im Rd , Bε (x) ist also die
Kugel um x mit Radius ε.
Ist jeder Punkt x ∈ D ein innerer Punkt, so heißt D offen.
Beispiel 10.3. ˆ D = R2 \ {(0, 0)} jeder Punkt aus D ist ein innerer Punkt, D ist offen.
ˆ D = [−1, ∞) × R, jeder Punkt mit x1 > −1 ist innerer Punkt.
ˆ Kr (x) := {y ∈ Rd : ||y − x|| ≤ r} (Kugel um x mit Radius r). Innere Punkte sind gerade
die Punkte in Br (x).
Definition 10.4 (partielle Ableitung, Vergleich Definition 8.33). Sei D ⊂ Rd , x = (x1 , . . . , xd )
innerer Punkt von D, f : D → R. f heißt in x partiell nach der k-ten Komponente
differenzierbar, falls der Limes
f (x1 , . . . , xk−1 , xk + h, xk+1 , . . . , xd ) − f (x1 , . . . , xd )
lim
h→0 h
existiert. Im Falle der Existenz schreiben wir
∂f
(x), ∂k f (x) oder ∂xk f (x).
∂xk
Existieren alle partiellen Ableitungen und sind sie stetig, so heißt f stetig differenzierbar.
Beispiel 10.5. f : R2 → R, f (x1 , x2 ) = x21 + x22 ist partiell differenzierbar, dabei wird beim
Ableiten bezüglich x1 (bzw. x2 ) die andere Variable x2 (beziehungsweise x1 ) als Konstante
betrachtet und nach bekannten Regeln abgeleitet.

∂f
(x1 , x2 ) = 2x1
∂x1
∂f
(x1 , x2 ) = 2x2
∂x2

Für g : R2 → R, g(x1 , x2 ) = 3x1 − x21 − x22 − x1 x2 folgt


∂g
(x1 , x2 ) = 3 − 2x1 − x2
∂x1
∂g
(x1 , x2 ) = −2x2 − x1
∂x2
Definition 10.6. Ist f : D → R partiell differenzierbar in x ∈ D, so heißt der Vektor der
partiellen Ableitungen  
∂1 f (x)
∇f (x) =  ... 
 

∂d f (x)
der Gradient von f an der Stelle x (auch als grad f(x) geschrieben)

70
Bemerkung. Ist f : D → Rd auf ganz D partiell differenzierbar, so definiert

∇f : D → Rd , x → ∇f (x)

eine Abbildung, welche jedem x ∈ D einen Vektor in Rd zuordnet. Man kann zeigen, dass
der Gradientenvektor stets in die Richtung des (lokal) steilsten Anstiegs zeigt, wobei die Länge
||∇f (x)|| die Stärke des Anstiegs angibt.
Beispiel 10.7. Etwa für f (x1 , x2 ) = x21 + x22
   
2x1 x
∇f (x1 , x2 ) = =2 1
2x2 x2

Definition 10.8 (Richtungsableitung). Sei D ⊂ Rd , x ∈ D innerer Punkt, f : D → R und


v ∈ Rd .
Die Richtungsableitung von f im Punkt x in Richtung v ist (im Falle der Existenz) der
Grenzwert
f (x + h · v) − f (x)
∂v f (x) := lim
h→0 h
Beispiel 10.9 (partielle Differenzierbarkeit
p impliziert nicht die Existenz von Richtungsableitun-
gen). Sei f : R2 → R, f (x1 , x2 ) = |x1 x2 |. f ist in (0, 0) partiell differenzierbar, denn

∂f f (h, 0) − f (0, 0) ∂f
(0, 0) = lim = 0 und analog (0, 0) = 0.
∂x1 h→0 h ∂x2
 
1
Die Ableitung in Richtung existiert aber nicht, denn der Limes von
1

(f (0, 0) + h · (1, 1)) − f (0, 0) f (h, h) − f (0, 0) |h|


= =
h h h
für h → 0 existiert nicht.
Satz 10.10. Ist f : D → R in x ∈ D stetig differenzierbar, so existieren in x alle Rich-
tungsableitungen und es gilt

∂v f (x) = h∇f (x), vi = ∂1 f (x) · v1 + . . . + ∂d f (x)vd .

71
Definition 10.11 (Zweite partielle Ableitungen). Sei D ⊂ Rd , x ∈ D innerer Punkt, f : D →
R. Die zweite partielle Ableitung

∂2f
∂i ∂j f (x) (oder ∂xi ∂xj f (x) oder (x))
∂xi ∂xj

ist (im Falle der Existenz) der Grenzwert

∂j f (x + h · ei ) − ∂j f (x)
∂i ∂j f (x) := lim
h→0 h
wobei ei = (0, . . . , 0, 1, 0, . . . , 0) der i-te Einheitsvektor ist.
Existieren alle partiellen zweiten Ableitungen und sind sie stetig, so heißt f zweimal stetig
differenzierbar.

Beispiel 10.12. Die zweiten partiellen Ableitungen von f (x1 , x2 ) = x21 x32 sind

(∂1 f (x1 , x2 ) = 2x1 x32 , ∂2 f (x1 , x2 ) = 3x21 x22


∂1 ∂1 f (x1 , x2 ) = 2x32 , ∂2 ∂1 f (x1 , x2 ) = 6x1 x22
∂1 ∂2 f (x1 , x2 ) = 6x1 x22 , ∂2 ∂2 f (x1 , x2 ) = 6x1 x22

Die Symmetrie ist kein Zufall.


Satz 10.13 (Satz von Schwarz). Ist f : D → R, D ⊂ Rd zweimal stetig differenzierbar, so gilt

∂i ∂j f (x) = ∂j ∂i f (x)

für alle i, j = 1, . . . , d.
Definition 10.14. Ist f : D → R, D ⊂ Rd zweimal stetig differenzierbar, so heißt die (sym-
metrische) Matrix der zweiten Ableitungen
 
∂1 ∂1 f (x) . . . ∂d ∂1 f (x)
∂1 ∂2 f (x) . . . ∂d ∂2 f (x)
Hf (x) = 
 
.. .. .. 
 . . . 
∂1 ∂d f (x) . . . ∂d ∂d f (x)

die Hesse-Matrix von f an der Stelle x.

Minima und Maxima von Funktionen in mehreren Variablen


Gegeben f : D → R, D ⊂ Rd zweimal stetig differenzierbar. Wir suchen ein lokales Minimum
von f , das heißt ein x ∈ D mit

f (x) ≤ f (y) ∀y ∈ D ∩ Br (x) für ein r > 0.

Nehmen wir an, x ist ein solches Minimum und ein innerer Punkt von D.

72
Für v ∈ Rd definieren wir
g(t) := f (x + t · v), t ∈ R.
Da x ein innerer Punkt von D ist, ist g wohldefiniert in einem gewissen Intervall I = (−r0 , r0 )
mit r0 > 0. Außerdem ist 0 ein Minimum von g, denn

g(0) = f (x) ≤ f (x + t · v) = g(t)

für t ∈ I, da f in x minimal ist. Die Ableitung von g ist gerade die Richtungsableitung von f
in Richtung v:

g(t + h) − g(t)
g 0 (t) = lim
h→0 h
f (x + (t + h) · v) − f (x + t · v)
= lim
h→0 h
f ((x + tv) + hv) − f (x + tv)
= lim
h→0 h
mit Satz 10.10 = h∇f (x + tv), vi .

Da g ein lokales Minimum in 0 hat, gilt g 0 (0) = 0, also h∇f (x), vi = 0. Dies muss für alle
v ∈ Rd gelten, also ist ∇f (x) = 0. Wir bilden die zweite Ableitung von g:

d
g 00 (t) = h∇f (x + tv), vi
dt
d
d X
= ∂i f (x + tv) · vi
dt i=1
d
X d
= vi ∂i f (x + tv)
i=1
dt
d
X
= vi · h∇∂i f (x + tv), vi
i=1
d
X d
X
= vi · ∂j ∂i f (x + tv) · vj
i=1 j=1
d
X
= vi ∂j ∂i f (x + tv)vj
i,j=1

= v T Hf (x + tv) · v.

Da g 00 (0) ≥ 0 gilt, muss auch gelten: v T Hf (x)v ≥ 0 für alle v ∈ Rd , das heißt Hf (x) ist positiv
semidefinit.
Ist x ein lokales Maximum von f , das heißt f (x) ≥ f (y) ∀y ∈ D ∩ Br (x) für ein r > 0, so
ergibt die analoge Argumentation

∇f (x) = 0 und v T Hf (x)v ≤ 0 für alle v ∈ Rd ,

das heißt Hf (x) ist negativ semidefinit.


Die umgekehrte Argumentation liefert:
Satz 10.15. Sei f : D → R zweimal stetig differenzierbar, x innerer Punkt von D.
1. Ist ∇f (x) = 0 und Hf (x) positiv definit, so ist x ein (striktes) lokales Minimum von f .

2. Ist ∇f (x) = 0 und Hf (x) negativ definit, so ist x ein (striktes) lokales Maxixum von f .

73
Bemerkung. Sei A eine symmetrische d × d-Matrix. Dann gilt:
A ist positiv definit
⇔ v T Av > 0 für alle v ∈ Rd , v 6= 0
⇔ alle Eigenwerte von A sind positiv
⇔ alle Hauptminoren det((Aij )1≤i,j≤k )
k = 1, . . . , d sind positiv (k × k Matrix ”links oben” in A.)
und A ist negativ definit
⇔ −A ist positiv definit
⇔ v T Av < 0 für alle v ∈ Rd , v 6= 0
⇔ alle Eigenwerte von A sind negativ
00
⇔ die Hauptminoren haben ein alternierendes Vorzeichen, beginnend mit −00 .
Beispiel 10.16. Wir betrachten wieder f (x1 , x2 ) = x21 + x22 .
   
2x1 0
∇f (x) = = ⇔ x1 = 0, x2 = 0
2x2 0

Einzige kritische Stelle ist also (0, 0). Da


 
2 0
Hf (0, 0) =
0 2

positiv definit ist, liegt bei (0, 0) ein Minimum.


Sei g(x1 , x2 ) = 3x1 − x21 − x1 x2 − x22 .
   
3 − 2x1 − x2 0
∇g(x) = = ⇔ x2 = −1, x1 = 2
−2x2 − x1 0

Kritische Stelle ist also (2, −1).


 
−2 −1
Hf (2, −1) =
−1 −2
 
−2 −1
ist negativ definit. (Hauptminorenkriterium: det(−2) = −2 < 0, det( ) = 3 > 0),
−1 −2
also liegt bei (2, −1) ein Maximum.
Sei h(x1 , x2 ) = x21 − x22 , dann ist
 
2x1
∇h(x1 , x2 ) =
−2x2

Einzige kritische Stelle ist (0, 0), die Hesse Matrix


 
2 0
Hh (0, 0) =
0 −2

ist weder positiv noch negativ definit. Tatsächlich liegt bei (0, 0) ein ”Sattelpunkt”.

Bei semidefiniten Hessematrizen kann man keine Aussage treffen.

74
11 Differentialgleichungen
Differentialgleichungen beschreiben eine Vielzahl von Phänomenen in Physik, Chemie und Bi-
ologie.
Wir geben zur Motivation ein Beispiel aus der Kombinatorik.
Beispiel 11.1 (Alternierende Permutationen). Betrachte diejenigen Permutationen von {1, . . . , n},
bei denen das erste Element kleiner ist als das zweite, das zweite größer als das dritte, das dritte
kleiner als das vierte und so weiter.
n sei ungerade: n = 2k + 1.
Beispiel mit n = 9: (4, 8, 6, 7, 5, 9, 1, 3, 2) (Man spricht auch von Zick-Zack-Permutationen)
Sei An die Anzahl der alternierenden Permutationen von n = 2k + 1 Elementen.
Wir stellen eine Bijektion der alternierenden Permutationen mit sogenannten vollen Max-Heaps
her, das sind monoton markierte volle Binärbäume. Die Bijektion bekommt man durch Parti-
tionierung an der Position des maximalen Elementes.

Jeder Knoten hat eine Marke, die größer als die Marke der beiden Nachfolger ist.
Diese Zuordnung ist eineindeutig, es gilt also: An = Anzahl voller Max-Heaps über der Menge
{1, . . . , n}. Dies führt uns auf eine Rekursionsformel für An :
2k  
X 2k
A1 = 1 und A2k+1 = Aj−1 A2k−2j+1 (k ∈ N). (11.1)
j=1
2j − 1

Denn: Das Maximum kommt an die Wurzel des Baumes, von den 2k restlichen Marken kommen
2j − 1, (j = 1, . . . , k) zum linken Teil-Heap, 2k − 2j + 1 zum rechten Teil-Heap. Also gilt
k
A2k+1 X A2j−1 A2k−2j+1
(2k + 1) = (k ∈ N). (11.2)
(2k + 1)! j=1 (2j − 1)! (2k − 2j + 1)!

A2k−1
Wir betrachten die erzeugende Funktion von (2k−1)! :


X A2k−1 2k−1
f (x) = x (11.3)
(2k − 1)!
k=1

Mit unserer Formel (9.8) für die Ableitung von Potenzreihen gilt
n
X A2k+1 2k
f 0 (x) = (2k + 1) x (11.4)
(2k + 1)!
k=0

und mit unserer Formel (9.12) für das Produkt von Potenzreihen gilt, mit (11.1)
∞ Xk
X A2j−1 A2k−2j+1
f (x)2 = x2k . (11.5)
j=1
(2j − 1)! (2k − 2j + 1)!
k=1

Also führt die Rekursionsformel (11.2) zusammen mit (11.4) und (11.5) zur Differential-
gleichung
f 0 (x) = 1 + f (x)2 (11.6)

75
f ist also auf ganz bestimmte Art mit f 0 verkoppelt. Legt diese Verkopplung f fest und können
wir f damit bestimmen?
Tatsächlich ist f durch (11.6) und den Anfangswert f (0) = 0 festgelegt. Damit wissen wir,
dass f (x) = tan(x), denn: tan0 (x) = 1 + tan2 (x), siehe (8.7). Die Potenzreihe von tan(x)
kann man beschreiben, siehe dazu das Buch von F. Bornemann. Die allgemeine Theorie (siehe
Flajolet, Sedgewick, “Analytic Combinatorics”) sagt, dass die Asymptotik einer Folge (ak )
unter recht allgemeinen Bedingungen durch die Singularitäten ihrer erzeugenden Funktion

ak xk auf dem Rand des komplexen Konvergenzkreises bestimmt wird. Für f (x) =
P
f (x) =
k=0
tan(x) liegen diese bei x = ± π2 . In ihrer Nähe verhält sich der Tangens wie eine rationale
Funktion:

X A2k−1 2k−1 8x π
x = tan(x) ∼ 2 für x → ± .
(2k − 1)! π − 4x2 2
k=1

Außerdem gilt
∞  2k
8x X 2
2 2
= 2 x2k−1 . (11.7)
π − 4x π
k=1

(Übung: Zeige
tan(x)
lim 8x = 1,
x→ π
2 π 2 −4x2

und zeige (11.7).) Also gilt


∞ ∞  2k
X A2k−1 2k−1 X 2 π
x ∼ 2 x2k−1 für x → ± .
(2k − 1)! π 2
k=1 k=1

Wir dürfen schließen, dass auch die Koeffizientenfolgen sich asymptotisch gleich verhalten. Also
gilt
 2k
A2k−1 2
∼2 für k → ∞. (11.8)
(2k − 1)! π
A2k−1
Beachte: (2k−1)! ist der Anteil der Permutationen von 2k − 1 Elementen, die alternierend
sind. Dieser geht also wegen (11.8) exponentiell schnell gegen 0 für k → ∞.

Anfangswertprobleme
Eine gewöhnliche Differentialgleichung beschreibt einen Zustandsvektor y(x) ∈ Rd in Abhängigkeit
der skalaren Größe x ∈ R (meist ist x die Zeit) durch eine Gleichung der Form

y 0 (x) = f (x, y(x)). (11.9)

Dabei ist f gegeben. Die Lösung der Differentialgleichung ist eine differenzierbare Funktion
y : [x0 , x1 ] → Rd welche (11.9) für alle x ∈ [x0 , x1 ] erfüllt. Der Definitionsbereich Ω ⊆ R×Rd von
f in (11.9) heißt erweiterter Phasenraum, er ist oft von der Form Ω = I ×Ω0 . Ω0 heißt dann
Phasenraum der Differentialgleichung. Wir werden sehen, dass unter milden Voraussetzungen
eine Lösung von (11.9) existiert und durch die Angabe eines Anfangswertes

y(x0 ) = y0

festgelegt ist.
Bemerkung. In Anwendungen (z.B. Chipdesign, Moleküldynamik) kann d sehr groß sein.
Beispiel 11.2. 1. Stammfunktionen
Falls d = 1, f stetig, f nur von x abhängig, so können wir sofort eine Lösung von

y 0 (x) = f (x), y(x0 ) = y0

76
angeben, nämlich
Zx Zx
0
y(x) = y0 + y (t)dt = y0 + f (t)dt x ∈ [x0 , x1 ].
x0 x0

Insbesondere ist die Lösung eindeutig.


2. Exponentialfunktion
Die Exponentialfunktion y(x) = ex erfüllt das Anfangswertproblem

y 0 (x) = y(x), y(0) = 1.

Tatsächlich ist ex die einzige Lösung, denn: Jede Lösung y(x) erfüllt y(x) > 0 für |x|
klein genug. Also
y 0 (x)
= 1.
y(x)
y 0 (x)
Aber ln(y(x)) hat als Ableitung y(x) , also gilt mit dem Hauptsatz 8.11

Zx
ln(y(x)) = ln(y(0)) + 1dt = x also y(x) = ex .
0

Trennung der Variablen


Die beiden Beispiele waren Spezialfälle eines Anfangswertproblems mit einer separierbaren
rechten Seite, das heißt von der folgenden Form:

y 0 (x) = f (x)g(y(x)) (11.10)

Betrachten (11.10) und nehmen an, dass f, g : R → R stetig sind. Gilt g(y0 ) 6= 0 so gilt wegen
Stetigkeit für jede Lösung y(x) auch g(y(x)) 6= 0 für x nahe genug bei x0 . Also kann man die
Variablen x und y trennen:
y 0 (x)
= f (x).
g(y(x))
Integration liefert
Zx Zx
y 0 (t)
dt = f (t)dt
g(y(t))
x0 x0

und wegen der Substitutionsregel gilt

Zx y(x)
y 0 (t)
Z
1
dt = ds.
g(y(t)) g(s)
x0 y0

Also gilt
y(x)
Z Zx
1
ds = f (t)dt.
g(s)
y0 x0

Mit den Stammfunktionen


Zy Zx
1
G(y) = ds, F (x) = f (t)dt
g(s)
y0 x0

erhalten wir daher für jede Lösung y(x) des Anfangswertproblems die Beziehung

G(y(x)) = F (x).

77
Falls nun die Umkehrfunktion G−1 existiert, so ist die Lösung eindeutig durch

y(x) = G−1 (F (x))

gegeben.
Beispiel 11.3. Die Differentialgleichung (11.6) für die erzeugende Funktion von An /n! in
Beispiel 11.1 lautet
y 0 (x) = 1 + y(x)2 , y(0) = 0.
Diese Gleichung ist separierbar, kann also mit Trennung der Variablen gelöst werden.

y 0 (x)
=1 Integration über x (und Substitution) ergibt:
1 + y(x)2
Zy Zx
1
ds = 1dt
1 + s2
0 0
arctan(y) = x
π π
Für 0 ≤ x < 2 existiert die Umkehrfunktion und wir bekommen y(x) = tan(x), 0 ≤ x < 2.

Existenz und Eindeutigkeit


Satz 11.4 (Satz von Picard und Lindelöf). Die rechte Seite des Anfangswertproblems

y 0 (x) = f (x, y(x)), y(x0 ) = y0

sei auf Ω = (x, x)) × Ω0 ⊆ R × Rd stetig, Ω0 sei offen und f sei stetig differenzierbar bezüglich
jeder Komponente von y. Dann hat das Anfangswertproblem eine in beiden Richtungen, das
heißt für x < x0 und x > x0 , bis an den Rand von Ω fortgesetzte Lösung. Diese ist eindeutig
festgelegt.
Ohne Beweis.

Was heißt ”bis an den Rand von Ω fortgesetzt”? Betrachten wir den Fall x > x0 . Der Satz
sagt, dass es ein x+ ∈ (x0 , x)] und eine eindeutige Lösung y : [x0 , x+ ) → Rd gibt, so dass einer
der drei folgenden Fälle eintritt.
(i) Die Lösung y(x) existiert ”bis zum Schluss”:

x+ = x.

(ii) Die Lösung ”explodiert vorzeitig”, das heißt

x+ < x, lim ||y(x)|| = ∞.


x→x+

(iii) Die Lösung ”kollabiert vorzeitig”. Für Ω0 = (y, y) heißt das, dass

x+ < x und lim y(x) = y oder lim y(x) = y.


x→x+ x→x+

Dabei nehmen wir −∞ < y < y < ∞ an. Entsprechende Aussagen gelten auch für ein x− < x.

Wir beweisen den Satz nicht, geben aber für jeden der drei Fälle ein Beispiel.
Beispiel 11.5. [Fall (i): Existenz bis zum Schluss]
Ω = (x, x) × Rd .
y 0 (x) = A(x)y(x) + b(x) (11.11)

78
Dabei ist A : (x, x) → Rd×d eine matrixwertige Abbildung und b : (x, x) → Rd eine vektorwertige
Abbildung und wir setzen voraus, dass A und b stetig sind. (Ay bezeichnet den Vektor mit
Pd
Komponenten (Ay )l = Akl yl . Dann existiert eine eindeutige Lösung
k=1

y : (x, x) → Rd
auf dem gesamten zur Verfügung stehenden Intervall (x, x) (siehe z. B. das Buch von Deufl-
hard und Bornemann, oder das Buch von Königsberger).
Beispiel 11.6. [Fall (ii): ”Blow Up” (vorzeitige Explosion).]
Ω = R × R.
y 0 (x) = y(x)2 , y(0) = 1 (11.12)
Trennung der Variablen
y 0 (x)
=1
y(x)2
Zx 0 Zx
y (t)
dt = 1dt
y(t)2
0 0
y(x)
Z
1
ds = x
s2
1
1
− +1=x
y(x)
1
=1−x
y(x)
1
y(x) =
1−x
für −∞ < x < 1. Also gilt x+ = 1, lim ||y(x)|| = ∞.
x→x+

Auf demselben Ω hat die Differentialgleichung


y 0 (x) = 1 + y(x)2 , y(0) = 0 (11.13)
für − π2 < x < π2 die Lösung y(x) = tan(x). Hier gibt es Blow up in beide Richtungen und wir
haben x− = − π2 und x+ = π2 .
Beispiel 11.7. [Fall (iii): Vorzeitiges Kollabieren.]
Ω = R × (0, ∞).
1
y 0 (x) = − p , y(0) = 1 (11.14)
y(x)
Trennung der Variablen:
p
y 0 (x) y(x) = −1
Zx p
y 0 (t) y(t)dt = −x
0
y(x)

Z
sds = −x
1
2 2
y(x)3/2 − = −x
3 3
3x
y(x)3/2 = 1 −
2
 2/3
3x
y(x) = 1 −
2

79
2
Wegen lim y(x) = 0 schließen wir, dass x+ = 3. Die Lösung ”kollabiert vorzeitig” in der
x→2/3
Singularität y = 0 der rechten Seite von (11.14).

Gleichungen höherer Ordnung


Eine Differentialgleichung n-ter Ordnung hat die Form

y (n) (x) = f (x, y(x), y 0 (x), . . . , y (n−1) (x)), (11.15)

y(x) ∈ Rd .
Wir können (11.15) auf eine Differentialgleichung erster Ordnung zurückführen. Sei
 
y(x)
 y 0 (x) 
w(x) =  ..
 

 . 
y (n−1) (x)

w ist Vektor der Dimension n · d.


 
w2 (x)
y 0 (x)
 
 .  
 w3 (x) 
w0 (x) =  ..  =   = g(x, w(x))

..
(n)
 . 
y (x)
f (x, w1 (x), . . . , wn (x))

w1 bezeichnet dabei die ersten d Komponenten von w, w2 die zweiten d Komponenten, etc.
Zur eindeutigen Lösbarkeit benötigen wir einen Anfangswert w(x0 ), das heißt (11.15) benötigt
die Anfangwerte y(x0 ), y 0 (x0 ), . . . , y (n−1) (x0 ). Damit lässt sich der Satz von Picard-Lindelöf
anwenden.
Beispiel 11.8. Die inhomogene Differentialgleichung n-ter Ordnung

y (n) (x) + cn−1 (x)y (n−1) (x) + . . . + c1 (x)y 0 (x) + c0 (x)y(x) = f (x)

mit stetigen Koeffizientenfunktionen ck : (x, x) → R und stetiger rechter Seite f : (x, x) → R


hat für jede Wahl der Anfangswerte

y(x0 ), y 0 (x0 ), . . . , y (n−1) (x0 ), x0 ∈ (x, x)

nach Beispiel 11.5 eine eindeutige Lösung y : (x, x) → R auf dem gesamten Intervall (x, x).
Denn: die zugehörige Differentialgleichung erster Ordnung ist ebenfalls linear und damit von
der Form (11.11).

Lineare Differentialgleichung n-ter Ordnung mit konstanten Koeffizien-


ten
Nach dem vorangehenden Beispiel hat die homogene lineare Differentialgleichung n-ter Ordnung
mit konstanten Koeffizienten, also

y (n) (x) + cn−1 y (n−1) (x) + . . . + c1 y 0 (x) + c0 y(x) = 0 (11.16)

für jede Wahl des Anfangspunktes x0 ∈ R und der Anfangswerte

y(x0 ), y 0 (x0 ), y 00 (x0 ), . . . , y (n−1) (x0 )

eine auf ganz R definierte Lösung y : R → R.


Wie lässt sich y berechnen?
Der Schlüssel ist der Ansatz y(x) = eλx mit λ ∈ R (später: λ ∈ C). Setzen wir diese Funktion
in die Differentialgleichung ein, so erhalten wir

(λn + cn−1 λn−1 + cn−2 λn−2 + . . . + c1 λ + c0 )eλx = 0 (11.17)

80
p(λ) = λn + cn−1 λn−1 + . . . + c1 λ + c0 heißt das charakteristische Polynom der Differen-
tialgleichung (11.16). Da eλx 6= 0, ∀λ muss p(λ) = 0 gelten. Nun sehen wir, dass wir besser
λ ∈ C annehmen, denn p(·) braucht keine reellen Nullstellen zu haben. (Zur Erinnerung:
eλx = exp(λx) ist definiert ∀λ ∈ C, x ∈ R). Zu jeder Nullstelle λ von p gehört also eine
(komplexwertige) Lösung y(x) = eλx von (11.16).
Wir suchen aber eine bestimmte Lösung, nämlich diejenige mit den vorgegebenen Anfangswerten.
Annahme: p(·) hat genau n verschiedene Nullstellen λ1 , . . . , λn .

Damit lautet, da die Differentialgleichung linear ist, die allgemeine Lösung


y(x) = a1 eλ1 x + a2 eλ2 x + . . . + an eλn x (11.18)
mit beliebigen Koeffizienten a1 , . . . , an ∈ C. Wir müssen also in (11.18) a1 , . . . , an so wählen,
dass die richtigen Anfangswerte angenommen werden. Dies führt auf ein eindeutig lösbares
lineares Gleichungssystem in den Unbekannten a1 , . . . , an .
Beispiel 11.9. Gegeben sei α > 0. Wir suchen die Lösung des Anfangswertproblems (AWP)
y 00 (x) + α2 y(x) = 0, y(0) = 0, y 0 (0) = 1. (11.19)
Das zugehörige charakteristische Polynom ist
p(λ) = λ2 + α2 .
Es hat die Nullstellen λ1 = iα und λ2 = −iα. Die allgemeine Lösung der Differentialgleichung
ist also
y(x) = a1 eiαx + a2 e−iαx . (11.20)
a1 und a2 sind Lösungen des linearen Gleichungssystems:
0 = y(0) = a1 + a2
1 = y 0 (0) = iα(a1 − a2 )
Als Lösungen bekommen wir
1 1
a1 =, a2 = − .
2iα 2iα
Damit erhalten wir die eindeutige Lösung des AWP (11.19):
eiαx − e−iαx sin(αx)
y(x) = = .
2iα α
Die komplexen Zahlen waren nur ein Hilfsmittel auf dem Wege zur Lösung: diese ist, wie wir
wegen dem Satz von Picard und Lindelöf wissen, reell.
Wir können natürlich überprüfen, dass y(x) = sin(αx)
α das AWP (11.19) löst.
y(0) = 0
y 0 (x) = cos(αx) ⇒ y 0 (0) = 1
y 00 (x) = −α sin(αx) ⇒ y 00 (x) + αy(x) = 0
(Wenn alle Nullstellen des charakteristischen Polynoms verschieden sind liefert dieser Ansatz
alle Lösungen. Allgemein gilt das nicht.)

Computergestützte Lösung von Differentialgleichungen: numerisch ver-


sus symbolisch
Wir hatten gesehen, dass das Lösen von AWP
y 0 (x) = f (x, y(x)), y(x0 ) = y0
die Berechnung von Stammfunktionen verallgemeinert. Zum Einen garantiert uns der Satz von
Picard und Lindelöf unter recht allgemeinen Bedingungen die eindeutige Lösbarkeit, er sagt uns
aber nicht, wie wir diese Lösung berechnen können. Zum Anderen stellt sich - genau wie bei
der computergestützten Integration - die Frage, in welcher Form wir die Lösung benötigen.

81
Numerisch
Für gegebene x wird y(x) per Computerprogramm innerhalb einer vorgegebenen Genauigkeit
berechnet. Wir verweisen auf das Buch von P. Deuflhard und F. Bornemann: ”Numerische
Mathematik II, Gewöhnliche Differentialgleichungen”.

Symbolisch
Hier verlangen wir eine geschlossene Formel in der Variablen x. Da dies bereits für Stamm-
funktionen nicht immer möglich ist wissen wir, dass es - im Allgemeinen - nicht klappt.

Beide Ansätze sind von Interesse und haben wichtige Anwendungen. Bei der Modellierung einer
Bevölkerung (siehe HA 12.2 für ein Beispiel mit expliziter Lösung) oder einer Epidemie ist die
numerische Lösung wichtiger.
Bei der Bestimmung der Anzahl der alternierenden Permutationen (Siehe Beispiel 11.1, Seite
75) hätte uns die numerische Lösung des AWP

y 0 (x) = 1 + y(x)2 , y(0) = 0


An
nicht geholfen, etwas über die Asymptotik von n! zu lernen.

12 Asymptotik
Wir haben eine ”komplizierte”(gemeint ist damit: nicht einfach zu berechnende) Zahlenfolge
(an ) und möchten ihr asymptotisches Verhalten bestimmen.
Beispiel 12.1.
n  
X 3n
an =
k
k=0

oder
an = n-te Primzahl.
Wir suchen eine ”einfache”(einfach zu berechnende) Zahlenfolge (bn ), so dass

an ∼ bn für n → ∞. (12.1)

Noch besser ist


ϕn
an = bn + O(ϕn ) für n → ∞, →0 (12.2)
bn
mit einer bekannten Folge (ϕn ), ϕn → ∞ für n → ∞. In (12.2) haben wir auch eine Ab-
schätzung des Fehlerterms.
Bemerkung. In der Informatik ist an häufig die Anzahl der benötigten Operationen in einem
Algorithmus bei einer Eingabe der Länge n.

Bemerkung. In (12.2) gibt es häufig einen ”Trade-Off” zwischen besserer Fehlerabschätzung


versus komplizierterer Form von (bn ).
Eine Technik zur Abschätzung hatten wir bereits kennengelernt. Falls an = f ( n1 ) für eine in 0
unendlich oft differenzierbare Funktion f (x), so haben wir für jedes feste k ∈ N die Entwicklung

f 0 (0) f 00 (0) f (3)


an = f (0) + + 2
+ + . . . + O(n−(k+1) ) für n → ∞.
n 2!n 3!n3
1
Dies folgt aus der Taylorformel an der Stelle x = n. Auf diese Art kann man zum Beispiel für
an = (1 + n1 )n die Asymptotik

e 11e 7e
an = e − + − + O(n−4 )
2n 24n2 16n3

82
finden. Dazu betrachten wir
 
ln(1 + x) 1
f (x) = exp = (1 + x) x .
x
Beachte, dass ( 1
(1 + x) x x 6= 0
f (x) =
e x=0
unendlich oft differenzierbar ist auf R. Die Ableitungen von f in x = 0 kann man direkt (mit
der Regel von de l’Hospital) oder aber mit Maple berechnen.

Bootstrapping
Wir möchten die Folge (xn ), gegeben durch
xn
n= (12.3)
ln(xn )
für n → ∞ untersuchen. Ein Grund, (12.3) zu betrachten, kommt von dem Interesse an der
Asymptotik der n-ten Primzahl. Es gilt nämlich
 
pn pn 2!pn (k − 1)!pn pn
n= + + + ... + +O . (12.4)
ln(pn ) ln(pn )2 ln(pn )3 ln(pn )k ln(pn )k+1
Dabei ist pn die n-te Primzahl. Wir erwarten also, dass sich xn wie pn verhält, denn (12.3)
betrachtet den Hauptterm von (12.4) auf der rechten Seite.
en < e mit xn → ∞
Als Erstes bemerken wir, dass (12.3) für n > e zwei Lösungen xn > e und x
en → 1 für n → ∞ besitzt.
und x

x
Betrachte f (x) = ln(x) , x > 1. Dann gilt

ln(x) − 1
f (x) −−−−→ ∞, f (x) −−−→ ∞, f 0 (x) = , f 0 (x) = 0 ⇔ x = e. (12.5)
x→∞ x&1 ln(x)2
Wir interessieren uns hier nur für (xn ). Wir schreiben (12.3) als Fixpunktgleichung x = g(x).

xn = n ln(xn ) (12.6)

Idee des Bootstrapping: (”Pulling oneself up by one’s own bootstraps”): Aus einer einfachen
Wachstumsabschätzung für (xn ) erhält man schrittweise eine bessere, indem man die jeweils
letzte Abschätzung für xn in die rechte Seite von (12.6) einsetzt.
Startschritt: Wir wollen ln(xn ) abschätzen. Wir nehmen Logarithmen in beiden Seiten von
(12.6):
ln(xn ) = ln(n) + ln ln(xn ). (12.7)
Also  
ln ln(xn )
ln(xn ) 1 − = ln(n).
ln(xn )
Wegen xn → ∞ gilt
ln ln(xn )
−−−−→ 0
ln(xn ) n→∞

83
ln(z)
(allgemein gilt z −−−→ 0). Also
z→∞

ln(n)
ln(xn ) = = ln(n)(1 + o(1)) für n → ∞. (12.8)
1 − o(1)
Das heißt: für eine Folge cn mit cn −−−−→ 0 gilt
n→∞
 
ln(n) cn
ln(xn ) = = ln(n) 1 + = ln(n)(1 + o(1)).
1 − cn 1 − cn
1. Einsetzungsschritt: Wir setzen (12.8) in die rechte Seite von (12.6) ein und erhalten
xn = n ln(n) + o(n ln(n)) für n → ∞ (12.9)
oder, äquivalent dazu,
xn ∼ n ln(n) für n → ∞.
2. Einsetzungsschritt: Wir setzen (12.9) in die rechte Seite von (12.6) ein und erhalten
xn = n ln(n ln(n)(1 + o(1)))
= n ln(n) + n ln ln(n) + n ln(1 + o(1))
= n ln(n) + n ln ln(n) + o(n) für n → ∞. (12.10)
3. Einsetzungsschritt: Wir setzen (12.10) in die rechte Seite von (12.6) ein. Damit erhalten
wir
xn = n ln(n ln(n) + n ln ln(n) + o(n))
   
ln ln(n) 1
= n ln n ln(n) 1 + +o
ln(n) ln(n)
 
ln ln(n) n
= n ln(n) + n ln ln(n) + n +o .
ln(n) ln(n)
Für die letzte Gleichung haben wir
ln(1 + h) = h + O(h2 ) für h → 0 (12.11)
und  2  
ln ln(n) 1
=o für n → ∞ (12.12)
ln(n) ln(n)
benutzt. (12.11) folgt aus der Taylorformel, (12.12) mit der Regel von de l’Hospital – oder man
sieht es direkt. Also
 
ln ln(n) n
xn = n ln(n) + n ln ln(n) + n +o für n → ∞. (12.13)
ln(n) ln(n)
Wir könnten nun weitermachen mit einem vierten Einsetzungssschritt, wollen es aber bei (12.13)
belassen.
Wenn man mit (12.4) arbeitet, erhält man - mit derselben Methode, aber einer aufwendigeren
Rechnung -
 
ln ln(n) n
pn = n ln(n) + n ln ln(n) − n + n +O für n → ∞. (12.14)
ln(n) ln(n)
Was bringt (12.14)? Ein Vergleich mit der bereits hergeleiteten Formel
ln(n!) = n ln(n) − n + O(ln(n))
ergibt pn ∼ ln(n!) für n → ∞ und auch pn > ln(n!) für alle bis auf endlich viele n. Für
n = 1010 genügt (12.14) zwar nicht, um
p1010 = 252097800623 (12.15)
zu bekommen, aber immerhin erhält man mit n = 1010
ln ln(n)
n ln(n) + n ln ln(n) − n + n = 2.52986 . . . × 1011 ,
ln(n)
das heißt man bekommt in (12.15) die richtige Größenordnung und die ersten 3 Ziffern.

84
Trading tails
n  
X 3n
An =
k
k=0
Wir möchten das asymptotische Verhalten von (An ) bestimmen. Damit kommen wir zurück
auf Beispiel 0.1.
3n

1. Schritt:  3n  Eine erste Vermutung: Für festes n ist k → k monoton wachsend für k =
0, 1, . . . , 2 .. An kann also durch den größten Summanden nach unten abgeschätzt werden:
 
3n
An ≥ .
n
Gibt das bereits die richtige Größenordnung?
Wir vermuten: ∃α > 0, so dass
 
3n
An ∼ α für n → ∞. (12.16)
n
2. Schritt: Reskalieren und Umordnen der Summe
n 3n n n n

An X n−k
X n!(2n)! X n(n − 1) · · · (n − k + 1) X
sn = 3n = 3n
 = = = bk,n .
n n
(n − k)!(2n + k)! (2n + 1)(2n + 2) · · · (2n + k)
k=0 k=0 k=0 k=0
(12.17)
Wir schätzen nun Zähler und Nenner von bk,n ab:
n(n − 1) · · · (n − k + 1) ≤ nk (12.18)
und
(2n + 1)(2n + 2) · · · (2n + k) ≥ (2n + 1)k ≥ (2n)k . (12.19)
Damit erhalten wir
nk 1
bk,n ≤ k
= . (12.20)
(2n) 2k
Also
n ∞
X 1 X 1
1 = b0,n ≤ sn ≤ ≤ = 2.
2k 2k
k=0 k=1
3. Schritt: Asymptotik der Summanden bk,n
   
1 k−1
n(n − 1) · · · (n − k + 1) = nk 1 − ··· 1 −
n n
 
k(k − 1)
≥ nk 1 − (12.21)
2n
Für die letzte Ungleichung benutzten wir folgende Verallgemeinerung der Bernoulli-Ungleichung:
Für a1 , . . . , an mit 0 < ai < 1, ∀i gilt
(1 − a1 ) · · · (1 − an ) > 1 − a1 − a2 − . . . − an .
(Beweis mit mit vollständiger Induktion.)

Mit der Ungleichung 1 + x ≤ ex erhalten wir


   
1 k
(2n + 1)(2n + 2) · · · (2n + k) = (2n)k 1 + ··· 1 +
2n 2n
 
1 k
≤ (2n)k exp + ... +
2n 2n
 
k(k + 1)
= (2n)k exp . (12.22)
4n

85
Da n gegen ∞ geht, können wir die in k quadratischen Terme in (12.21) und (12.22) vereinfachen
zu  2
k(k + 1) k k2
=O für →0
n n n
2
( kn → 0 bedeutet,
√ dass mit n → ∞ auch k → ∞ erlaubt ist, k aber nur so langsam wachsen
darf, dass k = o( n) gilt).
Mit der Taylorformel exp(h) = 1 + O(h) für h → 0 erhalten wir aus (12.21)
  2 
k k
n(n − 1) · · · (n − k + 1) ≥ n 1 + O
n

und aus (12.22)


  2 
k k
(2n + 1)(2n + 2) · · · (2n + k) ≤ (2n) 1 + O ,
n

also mit (12.18) und (12.19)

k2
  
k
n(n − 1) · · · (n − k + 1) = n 1 + O
n
 2 
k2

k
(2n + 1) · · · (2n + k) = (2n)k 1 + O für → 0.
n n

Damit gilt  2 
k2

1 k
bk,n = 1+O für → 0. (12.23)
2k n n
4. Schritt: Summation über √ den Gültigkeitsbereich der Asymptotik
Für kn = dlog2 ne gilt kn = o( n), also
kn kn   2 
X X 1 k
bk,n = k
1 + O
2 n
k=0 k=0
kn
!
(kn )2
  
X 1
= 1+O . (12.24)
2k n
k=0

Was machen wir aber mit dem Rest (”tail”)


n
X
bk,n ?
k=kn +1

5. Schritt: Trading tails


Wegen (12.20) gilt
n n ∞
X X 1 X 1 1 1
0≤ bk,n ≤ ≤ = kn ≤ 2− log2 n = , (12.25)
2k 2k 2 n
k=kn +1 k=kn +1 k=kn +1


P
das heißt der Rest bk,n ist kleiner als der Approximationsfehler des Anfangsstückes in
k=kn +1

1
P
(12.24). Dasselbe gilt für den Rest 2k
. Es spielt also keine Rolle, welchen Rest wir
k=kn+1
verwenden: wir können den einen gegen den anderen eintauschen (”trading tails”). Also gilt

86
für n → ∞
n
X kn
X n
X
sn = bk,n = bk,n + bkn
k=0 k=0 k=kn +1
kn n
ln(n)2
 
X 1 X
= + bk,n + O
2k n
k=0 k=kn +1
kn ∞
ln(n)2
   
X 1 X 1 1
= + +O +O
2k 2k n n
k=0 k=kn +1

ln(n)2
 
X 1
= + O . (12.26)
2k n
k=0

Zusammenfassung: (12.26) liefert sn → 2 für n → ∞, also gilt


n    
X 3n 3n
An = ∼2 für n → ∞. (12.27)
k n
k=0

Also ist (12.16) richtig mit α = 2.


Zu Beginn der Vorlesung war angekündigt, dass
r
3
An ∼ (6.75)n für n → ∞. (12.28)
πn
Um (12.28) aus (12.27) zu bekommen, benötigen wir die Stirling-Formel

n! ∼ 2πn · nn e−n für n → ∞. (12.29)

Mit (12.29) gilt



33n n3n e−3n 6πn
 
3n (3n)!
= ∼√ √
n n!(2n)! 2πn · nn e−n 4πn · 22n n2n e−2n
√  3 n
3 1 3
= √
2 πn 22
r  n
1 3 27
= für n → ∞.
2 πn 4
q
3
Also gilt An ∼ πn (6.75)n für n → ∞. Man kann zum Beispiel mit dem Wachstum von f4n
vergleichen. fn ist dabei die n-te Fibonacci-Zahl. Die Fibonacci-Zahlen sind gegeben durch

f1 = 1, f2 = 1, f3 = 2, f4 = 3, f5 = 5, . . . , fn+1 = fn−1 + fn .

Es gilt √
1 n n 1+ 5
fn = √ (γ − (1 − γ) ) mit γ = . (12.30)
5 2
(Man findet (12.30) zum Beispiel mit dem Exponentialansatz fn = a1 z1n + a2 z2n , indem man
a1 , a2 , z1 , z2 ausrechnet). Damit gilt
1 1
f4n ∼ √ γ n = √ (6.85410 . . .)n .
5 5
Also gilt An < Bn für alle bis auf endlich viele n.

87
13 Euler-Maclaurin’sche Summenformel und Beweis der
Stirling-Formel
Wir wissen bereits, dass sich für monotone f Summe und Integral vergleichen lassen. Für
monoton wachsende f gilt

b−1
X Zb b
X
f (x) ≤ f (x)dx ≤ f (k) (a, b ∈ Z, a ≤ b), (13.1)
k=a a k=a+1

siehe Satz 8.42.


Daraus hatten wir hergeleitet, dass für α > 0
n
X nα+1
kα ∼ für n → ∞, (13.2)
α+1
k=1

siehe Beispiel 8.43 und

ln(n!) = n ln(n) − n + O(ln(n)) für n → ∞, (13.3)

siehe Beispiel 8.45.


Nun verfeinern wir dies, indem wir die Abweichung

b
X Zb
f (k) − f (x)dx
k=a a

genauer betrachten.

Der Operatorkalkül von Lagrange


Sei C[x] die Menge aller Polynome in x mit komplexen Koeffizienten. Wir betrachten auf C[x]
den Ableitungsoperator D und den Differenzenoperator ∆, gegeben durch

(Df )(x) = f 0 (x), (13.4)


(∆f )(x) = f (x + 1) − f (x), (13.5)

sowie den Integraloperator ∫ und den Summenoperator Σ, gegeben durch


Zx
(∫ f )(x) = f (t)dt, (13.6)
a
x−1
X
(Σf )(x) = f (k) x ∈ Z, x ≥ a, (13.7)
k=a

Dabei ist a eine feste reele Zahl. Beachte: (13.7) ist für x ∈ Z definiert, aber die rechte Seite
ist ein Polynom in x, das sich für alle x ∈ R auswerten lässt.
Beispiel 13.1.

f (x) = x2
x−1
X
(Σf )(x) = k 2 = a2 + (a + 1)2 + . . . + (x − 1)2 .
k=a

Der Integraloperator ist in folgendem Sinne der inverse Operator des Ableitungsoperators

D(∫ f )(x) = f (x) (13.8)


∫ (Df )(x) = f (t)|t=x
t=a (13.9)

88
Genauso gilt

∆ (Σf ) (x) = f (x) (13.10)


Σ(∆f )(x) = f (t)|t=x
t=a (13.11)

Wir setzen D−1 = ∫ , ∆−1 = Σ. Der Einfachheit halber lassen wir die Klammern weg, zum
Beispiel schreiben wir D(∫ f )(x) statt D(∫ (f ))(x) in (13.8).

Operatorinterpretation der Taylorformel


Für ein Polynom f vom Grad m gilt

Dk f (x) = 0 ∀x für k > m.


f 00 (x) f (m) (x) f (m+1) (ξ)
f (x + 1) = f (x) + f 0 (x) + + ... + + für ein ξ ∈ [x, x + 1].
2! m! (m + 1)!

m
!
k
X 1 X D
Also f (x + 1) = Dk f (x) = (f )(x)).
k! k!
k=0 k=0

Wir schreiben f (x + 1) = (eD f )(x) und erhalten

∆f (x) = (eD − 1)f (x), f ∈ C[x]. (13.12)

Allgemein, falls g durch die Potenzreihe



X
g(z) = ak z k
k=0

gegeben ist, definieren wir


m
X m
X
g(D)f (x) = ak Dk f (x) = ak f (k) (x).
k=0 k=0

Bilden wir nun auf beiden Seiten von (13.12) die (rechtsseitige) Inverse und wenden dann D
von links an, so erhalten wir

X Bk
D∆−1 f (x) = D(eD − 1)−1 f (x) = Dk f (x) f ∈ C[x]. (13.13)
k!
k=0

Dabei sind (Bk )k=0,1,2,... die Bernoulli-Zahlen. Diese sind gegeben durch

z X Bk
= zk (|z| < rB ). (13.14)
ez − 1 k!
k=0

(Es gilt rB = 2π, siehe Buch von F. Bornemann). Genauer:



X zk z2 z3
ez = =1+z+ + + ...
k! 2! 3!
k=0
z
e −1 z z2 z3
⇒ =1+ + + + ... (z ∈ C).
z 2! 3! 4!
Da der Wert dieser analytischen Funktion für z = 0 von 0 verschieden ist, können wir den
Kehrwert bilden und bekommen (13.14).
Sei
z
g(z) = z .
e −1

89
Es gilt B0 = 1, denn g(0) = 1 und B1 = − 21 , denn

ez − 1 − zez
g 0 (z) = ,
(ez − 1)2
also
ez − ez − zez −ez − zez 1
g 0 (0) = lim z
= lim =− .
z→0 2(e − 1) z→0 2ez 2
Weiter gilt B2k+1 = 0 für k = 1, 2, 3, . . .. Dazu genügt es zu zeigen, dass
z
− B1 z
ez −1
eine gerade Funktion ist. In der Tat gilt
z z z ez + 1
+ = ·
ez − 1 2 2 ez − 1
z z
z e 2 + e− 2
= · z z
2 e 2 − e− 2
z −z
und z2 und e z22 +e− z22 sind beides ungerade Funktionen (ihr Produkt ist damit gerade). Also
e −e
bekommen wir aus (13.13)

1 X B2k
D∆−1 f (x) = (1 − D + D2k )f (x), f ∈ C[x].
2 (2k)!
k=1

Nun wenden wir ∫ von links an und erhalten wegen ∆−1 = Σ


x−1 Zx ∞
X 1 X B2k
f (k) = f (t)dt − f (t)|t=x
t=a + f (2k−1) (t)|t=x
t=a .
2 (2k)!
k=a a k=1

Wir addieren f (x) auf beiden Seiten:

x Zx 2 bmc
X f (a) + f (x) X B2k (2k−1) t=x
f (k) = f (t)dt + + f (t)|t=a f ∈ C[x]. (13.15)
2 (2k)!
k=a a k=1

Beispiel 13.2. Sei m ∈ N und f (x) = xm , a = 0, b = n. Dann gilt


jmk
f (2k−1) (t)(n) = m(m − 1) . . . (m − 2k + 2)nm−2k+1 (k ≤ ).
2
Außerdem f (0) = f 0 (0) = . . . = f (m−1) (0) = 0. Also erhalten wir

n Zn bmc
X
m m nm X 2
B2k
k = t dt + + m(m − 1) · · · (m − 2k + 2)nm−2k+1
2 (2k)!
k=1 0 k=1

bm
2 c
nm+1 nm

1 X m+1
= + + B2k · nm+1−2k .
m+1 2 m+1 2k
k=1

Dies folgt auch mit vollständiger Induktion. Insbesondere könnte man (13.15) zeigen, indem
man alle Polynome der Form f (x) = xm betrachtet, dann Linearkombinationen bildet etc.
Beispiel 13.3.
n
X n4 n3 n2 n2 (n + 1)2
k3 = + + =
4 2 4 4
k=1

Für allgemeine f gilt

90
Satz 13.4. Für das Restglied R2m (a, b) der Euler-Maclaurinschen Summenformel

b Zb m
X f (a) + f (b) X B2k (2k−1) t=b
f (k) = f (t)dt + + f (t)|t=a + R2m (a, b) (13.16)
2 (2k)!
k=a a k=1

gilt: Falls f : [a, b] → R eine (2m − 1)-fach stetig differenzierbare Funktion ist, so ist

Zb
B2m
|R2m (a, b)| ≤ |f (2m) (t)|dt.
(2m)!
a

Beweis. Ohne Beweis.


Beispiel 13.5.

f (x) = ln(x)
(k − 1)!
f (k) (x) = (−1)k−1 k = 1, 2, 3, . . . (13.17)
xk
n
P Rn
Wir haben ln(n!) = ln(k) und ln(t)dt = n ln(n) − n + 1. Mit (13.15) kann man zeigen: es
k=1 1
gibt eine Konstante σ > 0, so dass
m
1 X B2k
ln(n!) = n ln(n) − n + ln(n) + σ + + O(n−2m−1 ).
2 2k(2k − 1)n2k−1
k=1

Für mehr Information verweisen wir auf das Buch von F. Bornemann.
Beispiel 13.6. Für m = 4 bekommt man
1 1 1 1 1
ln(n!) = n ln(n) − n + ln(n) + σ + − + − + O(n−9 ).
2 12n 360n3 1260n5 1680n7
Insbesondere gilt also
√  n n
n! ∼ eσ n .
e
1
Bleibt zu zeigen: σ = 2 ln(2π). Auch dazu verweisen wir auf das Buch von F. Bornemann.

91

Das könnte Ihnen auch gefallen