Beruflich Dokumente
Kultur Dokumente
Skript Analysis 1
Skript Analysis 1
3 Reihen 15
6 Differentiation 29
8 Das Integral 42
10 Differentialrechnung im Mehrdimensionalen 69
11 Differentialgleichungen 75
12 Asymptotik 82
1
Organisatorisches und Literatur
Dozentin: Prof. Dr. Nina Gantert
Literatur:
F. Bornemann: Konkrete Analysis für Studierende der Informatik
Martin Brokate: Vorlesungsskript 2012/13 (auf Webseite verlinkt)
Konrad Königsberger: Analysis 1, Analysis 2
2
Warum Analysis für Informatik - Motivation
Diskrete Strukturen können sehr dicht (d.h. fast kontinuierlich) sein, z.B.: Pixel in einem Di-
gitalphoto. Endliche Graphen können sehr groß sein → Approximation mit stetigen Modellen.
Pn 3n
Beispiel 0.1. An = k=0 k , Bn = f4n (fn ist die n-te Fibonacci-Zahl)
Für n = 2 : A2 = 22 > B2 = 21
Ein weiteres Beispiel, wo in der Beschreibung des Wachstums einer Folge von natürlichen Zahlen
irrationale Zahlen auftauchen, ist die berühmte Stirling-Formel (wird später hergeleitet):
√
n! ∼ 2πn · nn · e−n
3
1 Reelle Zahlen und Vektoren
Zur Erinnerung:
Natürliche Zahlen: N = {1, 2, 3, ...}, N0 = {0, 1, 2, 3, ...}
Ganze Zahlen: Z = {..., −4, −3, −2, −1, 0, 1, 2, 3, ...}
Rationale Zahlen: Q = { ml : l, m ∈ Z, m 6= 0}
√
Euklid zeigte, dass 2 keine rationale Zahl ist.
√ √
Beweis. Sei 2 ∈ Q ⇒ 2 = ml O.E.d.A. (ohne Einschränkung der Allgemeinheit) nehmen
2
wir an, dass l und m teilerfremd sind. Dann gilt: 2 = ml 2 , da l,m teilerfremd ⇒ l2 , m2
ebenfalls teilerfremd.
√
x = 2 ist jedoch Nullstelle des Polynoms p(x) = x2 − 2.
Definition 1.1. Die Zahl x ∈ R heißt algebraisch, falls es ein Polynom mit ganzzahligen
Koeffizienten gibt, welches x als Nullstelle hat.
Beispiel 1.3. Q ist abzählbar. (Übung: Geben Sie f an!) R ist nicht abzählbar.
Beweis. Wir nehmen an, es gibt eine Abzählung der Zahlen in [0,1] als Folge x1 , x2 , x3 , ... mit
x1 = 0.d11 d12 d13 ...
x2 = 0.d21 d22 d23 ...
x3 = 0.d31 d32 d33 ...
und definieren eine reelle Zahl x = 0.d1 d2 d3 ... wie folgt: wir setzen dk = 2 falls dkk = 1, dk = 1
sonst. Dann gilt: x 6= xk , ∀k
Beweis. Sei p(x) = c0 + c1 · x + c2 · x2 + c3 · x3 + ... + cn · xn ein Polynom vom Grad n (cn 6= 0).
Definiere die Höhe h(p) = n + |co | + |c1 | + ... + |cn |. Dann ist h(p) ∈ N. Zu einem vorgegebenen
h ∈ N gibt es nur endlich viele Polynome p mit ganzzahligen Koeffizienten und h(p) = h, welche
wiederum S nur endlich viele Nullstellen haben.
Also A = h∈N {a ∈ C : ∃ p mit h(p) = h und p(a) = 0}.
Ob eine vorgegebene Zahl transzendent ist oder nicht, kann im Einzelfall eine schwierige Frage
sein. Offen ist, ob π e , π + e, π · e transzendent oder irrational sind.
Definition 1.4. Eine relle Zahl x = ±d0 .d1 d2 d3 ... heißt berechenbar, falls es ein Programm
P gibt, das auf die Eingabe von n ∈ N0 die Ziffern ±d0 .d1 d2 d3 ...dn abliefert.
4
Schreibe B für die Menge der berechenbaren Zahlen.
Jede algebraische Zahl ist berechenbar: nehme ein Polynom p mit p(x) = 0 (mit ganzzahligem
Koeffizienten) und ein Programm, welches die Nullstellen von p mit beliebiger Genauigkeit
berechnet (das gibt es!).
Es gibt auch berechenbare Zahlen, die nicht algebraisch sind: e ∈ B, π ∈ B.
Gibt es reelle Zahlen, die nicht berechenbar sind? Ja, denn B ist abzählbar (ähnlich wie oben).
Es gilt also
N ⊂ Z ⊂ Q ⊂ (A ∩ R) ⊂ B ⊂ R
und alle Inklusionen sind echt.
Zwei Mengen haben dieselbe Kardinalität, falls es eine Bijektion zwischen den Mengen gibt:
f : A ↔ B.
Betrachte die geraden Zahlen: 2N = {2n : n ∈ N}. Diese haben dieselbe Kardinalität wie N:
f : N → 2N mit f (n) = 2n ist eine Bijektion.
Also haben N, Z, Q, A, B dieselbe Kardinalität, aber R hat eine größere.
R bildet bezüglich Addition und Multiplikation einen kommutativen Körper mit Einselement.
Die entsprechenden Rechenregeln, z.B. x(y + z) = xy + xz (Distributivgesetz) setzen wir als
bekannt voraus. Weiter ist R angeordnet, das heißt wir haben eine Ordnungsrelation für die
reellen Zahlen:
1. ∀x ∈ R gilt genau eine der folgenden drei Aussagen:
2. ∀x, y ∈ R gilt:
x > 0, y > 0 ⇒ x + y > 0, x · y > 0. (1.2)
(1.1) und (1.2) führen zu den üblichen Regeln für Ungleichungen, z.B.:
5
Eine Menge kann nach oben beschränkt sein, aber kein Maximum haben, z.B. M = (a, b) mit
a, b, ∈ R, a < b.
Definition 1.7 (Supremum). Eine reelle Zahl s heißt Supremum einer Teilmenge M von R,
falls s eine obere Schranke von M ist und falls s ≤ x für jede obere Schranke x von M (d.h. das
Supremum ist die kleinste obere Schranke von M und als solche eindeutig).
Wir schreiben: sup(M).
Konvention: sup(∅) = −∞, sup(M) = ∞, falls M nach oben unbeschränkt ist.
Jede nicht leere nach oben beschränkte Teilmenge von R besitzt ein Supremum.
Diese Eigenschaft von R heißt auch Vollständigkeit.
Beachte: Dies ist nicht richtig für Teilmengen von Q: Das Supremum muss nicht in Q liegen.
Q ist dicht in R im folgenden Sinne: für x < y, x, y ∈ R gibt es ein z ∈ Q mit x < z < y.
Übung: Geben Sie ein solches z explizit als Funktion von x und y an!
Analog zu oberer Schranke, Maximum und Supremum definieren wir untere Schranke, Minimum
(nicht jede Teilmenge von R hat ein Minimum) und Infimum (wir schreiben inf(M)).
Konvention: inf(∅) = ∞ und inf(M) = −∞, falls M nicht nach unten beschränkt ist.
Wegen
inf(A) = −sup(−A) (1.4)
wobei −A = {−a : a ∈ A}, gelten dieselben Regeln auch für das Infimum,
wobei statt (1.3) für A ⊆ B gilt
inf(A) ≥ inf(B). (1.5)
Nützliche Ungleichungen
Die Dreiecksungleichung
Für x ∈ R definieren wir: |x| = max({−x, x}), d.h.
(
x, x≥0
|x| =
−x, x < 0.
In (1.6) gilt ”=” genau dann wenn x und y dasselbe Vorzeichen haben.
Umgekehrte Dreiecksungleichung:
6
Bernoulli-Ungleichung
(1 + x)n ≥ 1 + n · x, ∀n ∈ N, ∀x ≥ −1. (1.8)
Beweis. Übung (mit vollständiger Induktion).
Cauchy-Schwarz-Ungleichung
|hx, yi| ≤ ||x|| · ||y|| ∀x, y ∈ Rn .
Gleichheit gilt genau dann, wenn es α, β ≥ 0 gibt, so dass nicht α = β = 0 mit
α · xk = β · yk , 1 ≤ k ≤ n.
Beweis. Wir wollen zeigen, dass
n
X
xk · yk ≤ sx · sy ,
k=1
pPn pPn
wobei sx = 2 2
k=1 xk , sy = k=1 yk . Falls einer der beiden Vektoren der Nullvektor ist,
so ist das richtig: falls x1 = ... = xn = 0 oder y1 = ... = yn = 0 so ist < x, y >= ||x|| · ||y||
und (α, β) = (1, 0) oder (α, β) = (0, 1). Wir können also annehmen, dass sx > 0, sy > 0.
Pn x2 +y 2
Wir versuchen k=1 xk · yk nach oben abzuschätzen: wegen (1.9) gilt xk · yk ≤ k 2 k . Wir
summieren über k:
n
X 1
xk · yk ≤ (s2x + s2y ) (1.11)
2
k=1
mit Gleichheit genau dann wenn xk = yk , ∀k. Wegen (1.9) gilt auch sx · sy ≤ 21 (s2x + s2y ),
deswegen ist (1.11) zu grob, es sei denn sx = sy . Also: betrachte xk = xsxk y k = ysyk , 1 ≤ k ≤ n
Pn
Pn sx = sy = 1 und (1.11) liefert k=1 xk · y k ≤ 1
Dann gilt:
Also: k=1 xk · yk ≤ 1 und Gleichheit gilt genau dann, wenn x̄k = ȳk , also α = sy , β =
sx α, β 6= 0.
7
Beweis der Dreieckungleichung mithilfe der Cauchy-Schwarz-Ungleichung
Zur Erinnerung: Die Dreiecksungleichung sagt, dass
n
X n
X
||x + y||2 = (xk + yk )2 = x2k + 2xk · yk + yk2
k=1 k=1
Xn n
X n
X
= x2k + 2 xk · yk + yk2
k=1 k=1 k=1
= ||x||2 + 2hx, yi + ||y||2
≤ ||x||2 + 2||x|| · ||y|| + ||y||2
= (||x|| + ||y||)2
Komplexe Zahlen
Eine komplexe Zahl z kann identifiziert werden mit einem Paar
z = (x, y), x, y ∈ R
z =x+i·y
, x = Re(z) y = Im(z). Wir definieren die Menge C der komplexen Zahlen als C = {z =
x + i · y : x, y ∈ R} x bezeichnet den Realteil von z, y den Imaginärteil.
Dabei gilt: i2 = −1.
Die Addition in C ist komponentenweise gegeben:
Falls z1 = (x1 , y1 ), d.h. z1 = x1 + i · y1 und z2 = (x2 , y2 ), d.h. z2 = x2 + i · y2 so ist
z1 + z2 = (x1 + x2 , y1 + y2 ) oder z1 + z2 = x1 + x2 + i · (y1 + y2 ).
Beweis. Übung.
p
Der Betrag von z ist |z| = x2 + y 2 und es gilt |z|2 = z · z̄ ∀z ∈ C.
8
2 Folgen und Stetigkeit
Eine Folge mit Werten in M ist eine Abbildung N → M oder N0 → M (Aufzählung von
Elementen). Wir schreiben (xn ) = x1 , x2 , x3 , ... (oder x0 , x1 , x2 , ...). Eine Folge kann explizit
gegeben sein, z.B.
xn = 2n (2.1)
oder rekursiv, z.B. xn+1 = 2 · xn , x0 = 1, was ebenfalls (2.1) ergibt.
Definition 2.1 (Grenzwert einer Folge). Sei (xn )n∈N eine reelle Folge. Eine Zahl x ∈ R heißt
Grenzwert (oder Limes) von (xn )n∈N , falls es zu jedem ε > 0 ein N gibt, so dass
|xn − x| < ε ∀n ≥ N (2.2)
Man sagt: ”xn konvergiert gegen x”. Wir schreiben: xn −−−−→ x oder x = limn→∞ xn .
n→∞
1
Beispiel 2.2. Die Folge xn = n konvergiert gegen x = 0.
1 1 1
Wähle zu ε > 0, N so, dass N > ε, dann gilt für n ≥ N : |xn − 0| = xn = n ≤ N < ε und (2.2)
ist erfüllt.
Beispiel 2.5. Sei x ∈ [0, 1] mit Dezimaldarstellung x = 0.d1 d2 d3 ... und xn = 0.d1 d2 ...dn
n = 1, 2, 3, ..., dann gilt, dass xn −−−−→ x, da |xn − x| ≤ 10−N für n ≥ N .
n→∞
9
Satz 2.9 (Einschließung). Seien (xn ) und (yn ) Folgen mit xn → x und yn → x und xn ≤
yn , ∀n.
Ist (wn ) eine weitere Folge mit xn ≤ wn ≤ yn , ∀n, so gilt auch wn → x.
Beweis. Übung.
Beispiel 2.10.
1
wn = 7
n + n log n + 13 · n17
7 1
Wir wissen: n log n + 13 · n17 ≥ 0 ∀n und 0 ≤ wn ≤ xn = n ⇒ wn →n→∞ 0
xn ≥ c ∀n ≥ N (2.3)
Eine Folge heißt beschränkt, falls es ein K > 0 gibt, sodass die Folgenglieder alle beschränkt
sind durch K: |xn | ≤ K ∀n.
Eine Folge kann beschränkt sein (z.B. xn = (−1)n ) und trotzdem nicht konvergent.
Satz 2.13. Jede konvergente Folge ist beschränkt.
(”Konvergente Folge” heißt xn → x für ein x ∈ R, siehe Definition 2.1).
Beweis. Übung.
Eine Folge heißt monoton wachsend, falls xn ≤ xn+1 , ∀n.
Eine Folge heißt streng monoton wachsend, falls xn < xn+1 , ∀n.
Analog definiert man monoton fallende und streng monoton fallende Folgen.
Satz 2.14. Jede monoton wachsende und beschränkte Folge ist konvergent und es gilt:
lim xn = supn xn
n→∞
Analog gilt, dass jede beschränkte monoton fallende Folge gegen ihr Infimum konvergiert.
√
Beispiel 2.15. x1 > 0, xn+1 = xn
Falls x1 ≥ 1 ist, so ist (xn ) monoton fallend.
Falls x1 < 1, so ist xn monoton wachsend.
In beiden Fällen gilt xn →n→∞ 1.
10
Satz 2.16 (Rechenregeln für Grenzwerte). Seien (xn ), (yn ) Folgen mit xn → a und yn → b, so
gilt
xn + yn → a + b
xn − yn → a − b
xn · yn → a · b
xn a
→ , falls b 6= 0
yn b
Beweis. Übung.
Beispiel 2.17.
log n
n2 − log n 1 − n2
xn = = −−−−→ 1,
2
n + 2n + 1 1 + n2 + n12 n→∞
da
log n 2 1
1− −−−−→ 1 und 1+ + −−−−→ 1
n2 n→∞ n n2 n→∞
Definition 2.18 (Stetige Funktionen). Eine reellwertige Funktion f mit Definitionsbereich
D ⊆ R (kurz: f : D → R) ist stetig in einem Punkt x ∈ D, falls für jede Folge (xn ) ⊆ D mit
xn → x gilt f (xn ) →n→∞ f (x).
f heißt stetig in D, falls f stetig ist in x, ∀x ∈ D.
Beispiel 2.19. (
x, x≤0
f (x) =
x + 1, x>0
f ist stetig in x, falls x 6= 0.
f ist nicht stetig in x = 0.
Pn k
Als Folgerung erhalten wir, dass Polynome p(x) = k=0 ak x , a0 , ..., an ∈ R und rationale
p(x)
Funktionen r(x) = q(x) , p, q Polynome , stetig sind auf ihren Definitionsbereichen.
11
f stetig in x g stetig in f(x)
Beweis. xn → x =⇒ f (xn ) → f (x) =⇒ g(f (xn )) → g(f (x)).
Definition 2.23. Sei f : D → R. Wir sagen, f hat im Punkt a ∈ D den linksseitigen
Grenzwert c, und schreiben limx→a− f (x) = c, falls f (xn ) → c für jede Folge (xn ) ⊆ D mit
xn → a und xn < a, ∀n ∈ N.
Fixpunktiteration
Wir wollen für ein gegebenes f die Gleichung
x = f (x) (2.4)
Beachte: Falls f stetig ist in D, f (D) ⊆ D, x0 ∈ D, so können wir schließen: falls die Iteration
von (2.5) konvergiert, so ist der Grenzwert eine Lösung von (2.4).
Denn: xn → x ⇒ f (xn ) → f (x) also xn+1 →n→∞ f (x).
Da Grenzwerte eindeutig bestimmt sind, folgt x = f (x).
Beispiel 2.26 (Bestimmung der Quadratwurzel einer reellen Zahl b > 0). Wir wollen x2 = b
lösen.
Äquivalent dazu ist: x2 = 21 x2 + 12 b oder x = 12 (x + xb ) = f (x).
f ist stetig in (0, ∞).
Wir setzen also xn+1 = f (xn ) = 12 (xn + xbn ) und nehmen x0 > 0.
Es gilt√xn > 0, ∀n (Beweis mit Induktion).
xn ≥ b ∀n ≥ 1 und (x1 , x2 , ...) monoton fallend (Siehe Übungen!).
2
Nach Satz 2.14 konvergiert (xn ) gegen inf n xn = x. Aus Lemma 2.7:
2
√ x ≥ 0 und x ≥ b > 0
also x > 0. Da f stetig ist, gilt x = f (x) ⇒ x = b also x = b. Die Konvergenz √ der
Fixpunktiteration ist in diesem Fall sehr schnell, z.B. für b = 2, x0 = 2 gilt (x4 − 2) ≤ 10−9
(8 Kommastellen sind richtig).
1
Beispiel 2.27 (Bildung von Inversen). Um für gegebenes a > 0 die Zahl a zu berechnen, kann
man wie folgt vorgehen:
1
x0 ∈ (0, ), xn+1 = f (xn ) = 2xn − ax2n = xn (2 − axn )
a
12
Behauptung. 0 < xn ≤ a1 , ∀n
Beweis. Mit Induktion nach n. Genauer: axn+1 = axn (2 − axn ) > 0, ∀n. Weiter gilt axn+1 =
axn · (2 − a · xn ) = −((axn )2 − 2axn + 1) + 1 = −(axn − 1)2 + 1 ≤ 1.
Behauptung. Die Folge (xn ) ist monoton wachsend.
Beweis. Wir zeigen xn+1 − xn ≥ 0, ∀n
xn+1 − xn = xn − ax2n = xn (1 − axn ) ≥ 0 da axn ≤ 1 also ist (xn ) ist wachsend.
⇒ (xn ) konvergiert gegen ein x und x ist Fixpunkt der Funktion x = f (x) = a1 .
Denn: x = f (x) = 2x − ax2 ⇒ x = ax2 ⇒ 1 = ax ⇒ x = a1 .
1 n
Beispiel 2.28 (Die Eulersche Zahl e). Sei xn = 1 + n , n ∈ N.
1
(1+ n+1 )n+1
(xn ) ist monoton wachsend: wir zeigen xxn+1 > 1. Es xn+1
gilt xn = (1+ 1 n
n n n)
1
= 1 − (n+1) 2 · n+2
n+1
n
≥ 1 − (n+1) 2 · n+2
n+1 (Bernoulli-Ungleichung)
1
=1+ (n+1)3 >1 ⇒ (xn ) ist monoton wachsend.
Betrachte
xn = supk≥n xk , xn = inf k≥n xk
Dann ist (xn ) monoton fallend und (xn ) monoton wachsend.
die wir als Limes superior beziehungsweise Limes inferior von (xn ) bezeichnen.
Aus xn ≤ xn folgt:
lim inf xn ≤ lim sup xn
n→∞ n→∞
Wir werden sehen, dass genau dann Gleichheit gilt, wenn der Limes existiert.
Definition 2.29 (Häufungspunkt). Ist (xn ) reellwertige Folge und n1 < n2 < n3 < ..., nk ∈
N, ∀k, so heißt (xnk ) Teilfolge von (xn ). Weiter heißt x Häufungspunkt von (xn ), falls es
eine Teilfolge (xnk ) gibt mit
lim xnk = x
k→∞
13
Beispiel 2.30. xn = (−1)n n ∈ N
Zu (1): Definiere für jedes k = 1, 2, 3, ... rekursiv n1 = 1 < n2 < n3 < ... so dass
1 1
xnk +1 − = sup xn − ≤ xnk+1 ≤ sup xn = xnk +1
k n>nk k n>nk
d.h. die so konstruierte Teilfolge (xnk ) konvergiert gegen den Limes superior von (xn ). Dieser
ist daher Häufungspunkt von (xn ).
Der Beweis, dass Limes Inferior ein Häufungspunkt von (xn ) ist, geht analog.
Falls xnk →k→∞ x, d.h. falls die Teilfolge gegen den Häufungspunkt x konvergiert, so bekommt
man mit k → ∞
lim inf xn ≤ x ≤ lim sup xn
n→∞ n→∞
Zu (3): ”⇒” in (*) gilt, weil jede Teilfolge einer konvergenten Folge (xn ) mit xn → x gegen
denselben Grenzwert x konvergiert.
Für ”⇐” führen wir einen Widerspruchsbeweis:
Wir nehmen an, dass
lim sup xn = lim inf xn = x
n→∞ n→∞
x = lim inf xn ≤ x
e ≤ lim sup xn = x
n→∞ n→∞
gelten.
x 6= x
da e
14
Beispiel 2.32. Wir betrachten die Folge (xn ) = (0, 21 , 1, 0, 14 , 12 , 34 , 1, 0, 18 , 14 , 38 , 12 , 58 , 34 , 78 , 1, 0, 16
1
, ...).
Die Menge der Häufungspunkte ist [0, 1].
Es gilt
lim inf xn = 0, lim sup xn = 1
n→∞ n→∞
Die Folge ist abzählbar, aber die Menge der Häufungspunkte ist nicht abzählbar.
Folgerung 2.33 (zu Satz 2.31). Jede beschränkte reelwertige Teilfolge hat eine konvergente
Teilfolge und damit auch einen Häufungspunkt.
3 Reihen
Definition
Pn 3.1. Einer Folge (an ) komplexer Zahlen ordnen wir die Folge sn = a0 + ... + an =
a
k=0 k zu und bezeichnen sie als unendliche Reihe, kurz Reihe mit den Gliedern an und
die Partialsummen sn .
Falls die Partialsummen sn konvergieren, d.h. sn →n→∞ s, so heißt die Reihe konvergent
und der Grenzwert heißt Summe oder Wert der Reihe. Wir schreiben
∞
X
s = lim sn = ak
n→∞
k=0
Sind die Folgenglieder reell und geht die Folge (sn ) gegen +∞ (bzw. −∞) so schreiben wir auch
∞
X
ak = +∞
k=0
Beispiele:
Beispiel 3.2 (Die geometrische Reihe). Für z ∈ C betrachten wir
n
X
sn = zk
k=0
0
Nach Konvention ist immer z = 1.
Es gilt:
1 − z n+1
sn =
1−z
Für |z| < 1 gilt
|z n+1 | →n→∞ 0
(da |z n+1 | = |z|n+1 ) und damit
1
sn → s =
1−z
Also gilt, falls |z| < 1
∞
X 1
zk = (3.1)
1−z
k=0
Für z ∈ R, |z| ≥ 1 gilt
∞
X
zk = ∞
k=0
(denn sn ≥ n + 1).
15
Beispiel 3.3 (Die Teleskopreihe). Sei
n
X 1
sn =
k · (k + 1)
k=1
1 1 1
Wegen k·(k+1) = k − k+1 gilt
n
X 1 1 1
sn = − =1−
k k+1 n+1
k=1
Bemerkung. Für die Frage, ob eine Reihe konvergiert, Pn spielen die ersten n0 Glieder der
Folge keine Rolle: Für m ≥ n0 , m beliebig, gilt, dass k=n0 ak konvergiert, genau dann wenn
Pn
k=m ak konvergiert.
Für den Wert der Reihe spielen sie aber natürlich eine Rolle.
Beispiel 3.4 (Die harmonische Reihe). Sei
n
X 1
sn =
k
k=1
Wir sehen: Die Folgenglieder gehen gegen 0, aber langsamer als bei der Teleskopreihe.
Behauptung.
∞
X 1
=∞
k
k=1
Rechenregeln
Falls
∞
X ∞
X ∞
X
ak = a und bk = b so gilt ak + bk = a + b (3.2)
k=0 k=0 k=0
und
∞
X ∞
X
c·a=c· ak = c · a ∀c ∈ R (3.3)
k=0 k=0
(3.2) und (3.3) ergeben sich aus den entsprechenden Aussagen für Grenzwerte von Folgen.
Falls eine Reihe konvergent ist, d.h. sn → s für ein s ∈ C, so gilt für die Glieder an =
sn − sn−1 = sn − s + s − sn−1 ⇒ |an | ≤ |sn − s| + |s − sn−1 | ⇒ an → 0. Wir haben also gezeigt:
Satz 3.5 (Notwendige Bedingung für die Konvergenz). Ist eine Reihe konvergent, so muss
gelten
lim an = 0
n→∞
16
Vergleichskriterien für Konvergenz
Pn
Definition
Pn 3.7 (Majorante). Sei sn = k=0 ak eine Reihe mit
PnWerten in C. Eine Reihe
k=0 b k (mit b k ∈ R ∀k) mit |ak | ≤ bk heißt Majorante von k=0 ak .
Pn
Satz 3.8 (Majorantenkriterium).
Pn Sei sn = k=0 ak eine Reihe mit Werten in C, welche eine
konvergente Majorante k=0 bk besitzt. Dann ist (sn ) konvergent und es gilt
∞
X ∞
X ∞
X
| ak | ≤ |ak | ≤ bk
k=0 k=0 k=0
Beweis. Wir nehmen an, dass ak ∈ R, ∀k (komplexe Reihen werden getrennt nach Realteil
und Imaginärteil behandelt).
Wir möchten (*) anwenden. Wir haben
n
X n
X n
X ∞
X
| ak | ≤ |ak | ≤ bk ≤ bk < ∞ (∗∗)
k=0 k=0 k=0 k=1
Also
n
X n
X
lim sup ak = lim inf ak
n→∞ n→∞
k=0 k=0
P∞
d.h. sn → k=0 ak .
Der zweite Teil folgt mit n → ∞ in (**).
Definition 3.9. Eine Reihe die nicht konvergiert, heißt divergent.
Beispiele
1.
∞
X 1
≤2
k2
k=1
denn
∞
X 1 1 1 1
2
= 1 + 2 + 2 + 2 + ...
k 2 3 4
k=1
1 1 1
≤1+ + + + ...
1·2 2·3 3·4
(Machen jeden Summanden größer, indem wir ihn durch etwas Kleineres teilen)
∞
X 1
=1+ =2
k · (k + 1)
k=1
2.
∞
X 1
p =∞
k=1
k · (k + 1)
denn
1 1
p > ∀k ∈ N
k · (k + 1) 2k
und wir wissen, dass
∞
X 1
=∞
k
k=1
17
Das Argument des letzten Beispiels ist allgemein:
Folgerung
Pn 3.10 (Divergente Minorante). Seien
P n Pn
Pk=0 a k , 0 ≤ ak ≤ bk ∀k. Falls k=0 ak divergent ist, so ist auch
k=0 bk Reihen mit P
n n
Pk=0 bk divergent. Die Reihe k=0 ak heißt in diesem Fall divergente Minorante von
n
b
k=0 k .
Aus dem Vergleich mit der geometrischen Reihe erhalten wir das Quotientenkriterium.
Pn
Satz 3.11 (Quotientenkriterium). Sei k=0 ak eine Reihe mit Werten in C. Falls es ein q ∈ R
mit q < 1 und n0 ≥ 0 gibt, sodass
|ak+1 |
≤q ∀k ≥ n0
|ak |
Pn
so ist k=0 ak konvergent.
Beweis. Das dem Majorantenkriterium, da |ak | ≤ |an0 |q k−nP
Pn folgt aus k−n
0
für k ≥ n0 .
n
Die Reihe k=n0 |an0 |q 0
ist also eine konvergente Majorante von k=n0 ak .
|ak+1 |
Beachte dass es nicht genügt, dass |ak | < 1 gilt.
1
Beispiel 3.12. Für die harmonische Reihe mit ak = k gilt
1
|ak+1 | k+1 k
= 1 = <1
|ak | k
k+1
Siehe Übungen.
Wir werden sehen, dass
exp(x) = ex ∀x ∈ R
18
Pn
Definition 3.14 (Alternierende Reihen). Eine Reihe k=0 ak heißt alternierend, wenn die
Glieder abwechselnd positives und negatives Vorzeichen haben.
Wir schreiben a0 − a1 + a2 − a3 + a4 − ... und nehmen an a0 ≥ 0.
Also ist (s2k )k∈N monoton fallend und (s2k−1 )k∈N monoton wachsend.
Es gilt für alle k
s1 ≤ s2k−1 = s2k − a2k ≤ s2k ≤ s0
und für m ≥ k
Also sind beide Teilfolgen (s2k ) und (s2k−1 ) beschränkt und damit konvergent und für alle
k ∈ N gilt
Also
lim s2m = lim s2m−1
m→∞ m→∞
da a2k → 0.
Sei b := limm→∞ s2m−1 . Da für alle n ∈ N entweder sn ≤ b ≤ sn+1 oder sn ≥ b ≥ sn+1 , folgt
0 ≤ |b − sn | ≤ |sn − sn+1 | = an+1 →n→∞ 0, also sn →n→∞ b.
Pn
Beispiel 3.16. Die alternierende harmonische Reihe k=1 (−1)k k1 ist nach dem Leibniz-Kriterium
konvergent:
∞
X 1
(−1)k < ∞
k
k=1
Pn 1
P n 1
Pn 1
Die Reihe k=1 2k ist divergent, die Reihe k=1 2k−1 ebenfalls. ( k=1 2k ist divergente
Minorante).
Geben wir eine beliebige Zahl a ∈ R vor, so können wir durch Umordnen erreichen, dass die
ungeordnete Reihe gegen a konvergiert:
z.B. für a = 1:
1 1 1 1 1
1 − + + − + ...
2 3 5 4 7
(Wobei wir negative Glieder summieren, bis die Partialsumme ≤ 1 ist, dann positive Glieder
summieren bis die Partialsumme ≥ 1 ist, etc. ).
Pn
Definition 3.17 Pn(Absolute Konvergenz). Eine Reihe k=0 ak mit ak ∈ C heißt absolut kon-
vergent, falls k=0 |ak | konvergiert.
19
Pn
Satz 3.18 (Umordnungssatz). Eine Reihe k=1 ak konvergiert genau dann absolut, wenn für
jede Permutation σ von N die umgeordnete Reihe gegen denselben Wert konvergiert:
∞
X ∞
X
aσ(k) = ak
k=1 k=1
Wir rechnen:
∞ ∞ ∞
∞ X ∞ ∞
X X X (∗) X X X
ak · bj = a k · bj = ak bj = cm
k=0 j=0 k=0 j=0 m=0 k,j:k+j=m m=0
Also dürfen wir das Cauchy-Produkt bilden und erhalten für alle z, w ∈ C:
∞ Xk ∞ k
X z j wk−j X 1 X k j k−j
exp(z) exp(w) = = z w = exp(z + w) (3.6)
j=0
j!(k − j)! k! j=0 j
k=0 k=0
P∞ 1
Pk k
wobei k=0 k! j=0 j z j wk−j = (z + w)k .
Satz 3.22. Die Funktion exp : C → C hat folgende Eigenschaften:
1
1. exp(−z) = exp(z) ∀z ∈ C
20
4. exp(n) = en ∀n ∈ N (tatsächlich gilt exp(x) = ex ∀x ∈ R)
5. exp(z) = exp(z) ∀z ∈ C
6. Die reelle Exponentialfunktion exp : R → R ist monoton wachsend und für die komplexe
Funktion gilt | exp(z)| ≤ exp(|z|) ∀z ∈ C.
Beweis. Aus 1 = exp(0) = exp(z − z) = exp(z) exp(−z) folgen (1) und (2).
Aus der Definition der Exponentialfunktion folgt exp(x) ≥ 1 > 0 ∀x ∈ R, x ≥ 0, also auch
exp(−x) > 0 ∀x < 0 wegen (1).
(4) folgt wegen
n n
X (3.6) Y
exp(n) = exp( 1) = exp(1) = en
k=1 k=1
schließlich gilt:
∞ ∞
X zk X |z|k
| exp(z)| = | |≤ = exp(|z|)
k! k!
k=0 k=0
Falls also zn → 0 (d.h. |zn | → 0), so folgt exp(zn ) → 1, d.h. exp ist stetig in z = 0.
21
Sei nun z ∈ C beliebig und (zn ) eine Folge mit zn →n→∞ z. Also
Das heißt Sinus und Cosinus sind periodisch mit Periode 2π. Außerdem gilt:
π π
sin(x + ) = cos x cos(x + ) = − sin x (4.6)
2 2
Aus dem Satz von Pythagoras folgt
Insbesondere gilt:
π π π
ei 2 = cos + i sin = i,
2 2
eiπ = cos π + i sin π = −1
π π
(oder eiπ = ei 2 ei 2 = i · i = −1)
(4.8) impliziert
22
Aus (4.8) und (4.9) folgt
1 ix
(e + e−ix )
cos x =
2
1
sin x = (eix − e−ix )
2i
Mithilfe der Eulerformel bekommen wir die Additionssätze:
Beweis. [von (4.10) und (4.11)] Wir wissen, dass ei(x+y) = eix eiy . Also gilt mit Eulerformel:
Der Vergleich von Realteil und Imaginärteil liefert (4.10) und (4.11).
Weitere trigonometrische Funktionen sind Tangens und Cotangens, definiert durch:
sin x cos x 1
tan x = , cot x = = (4.12)
cos x sin x tan x
tan x und cot x sind periodisch mit Periode π, d.h. tan (x + π) = tan x, cot (x + π) = cot x,
tan π2 ist nicht definiert.
∞
X x2k+1
Also: sin x = (−1)k , x∈R
(2k + 1)!
k=0 (4.13)
x3 x5 x7
=x− + − + ...
3! 5! 7!
|x|2 |x|3 |x|4
Die Reihe ist absolut konvergent, da e|x| = 1 + |x| + 2! + 3! + 4! + ... eine konvergente
23
Majorante ist. Analog erhalten wir:
1 ix
cos x = (e + e−ix )
2
∞
1 X (ix)k (−ix)k
= ( + )
2 k! k!
k=0
1 X (ix)k
=
2 k!
k: k gerade
∞
X (−1)l x2l
=
(2l)!
l=0
mit k = 2l
Also:
∞
X x2k
cos x = (−1)k , x∈R
(2k)!
k=0
x2 x4 x6 x8
=1− + − + − ...
2! 4! 6! 8!
und die Reihe ist absolut konvergent mit derselben konvergenten Majorante wie oben.
Aus der Reihendarstellung können wir Grenzwerte erhalten.
Beispiel 4.1.
sin x x2 x4 x6
=1− + − + ...
x 3! 5! 7!
∞
X x2k+1
=1−x· (−1)k
(2k + 3)!
k=0
∞ 2k+1
x
(−1)k (2k+3)! ≤ e|x| , also folgt
P
Für den letzten Term gilt
k=0
sin x
lim = 1. (4.14)
x→0 x
Ebenso gilt:
Beispiel 4.2.
cos x − 1 x x3 x5
=− + − + ...
x 2! 4! 6!
∞
X x2k
=x· (−1)k+1
(2k + 2)!
k=0
∞ 2k
x
(−1)k+1 (2k+2)! ≤ e|x| , also folgt
P
Für den letzten Term gilt
k=0
cos x − 1
lim = 0. (4.15)
x→0 x
Dabei benutzten wir folgendes Argument:
Lemma 4.3. Seien f, g : D → R mit D ⊆ Rd , a ∈ D und g sei beschränkt auf D und
lim f (x) = 0
x→a
24
Beweis. | g(x)| ≤ K ∀x ∈ D
(xn ) Folge in D mit xn → a ⇒ |f (xn )g(xn )| ≤ K|f (xn )| −−−−→ 0
n→∞
z1 = r1 eiϕ1 , z2 = r2 eiϕ2
Also mit Eulerformel: z1 = r1 (cos ϕ1 + i sin ϕ2 ), z2 = r2 (cos ϕ2 + i sin ϕ2 )
(Oder direkt mit (3.6) : r1 eiϕ1 · r2 eiϕ2 = r1 r2 ei(ϕ1 +ϕ2 ) ). Das heißt bei der Multiplikation in C
werden die Längen multipliziert und die Winkel addiert.
Satz 5.2 (Zwischenwertsatz). Sei f : [a, b] → R stetig und entweder f (a) < y < f (b) oder
f (b) < y < f (a). Dann gibt es x ∈ (a, b) mit f (x) = y.
Beweis. Nehmen an f (a) < y < f (b).
Sei M = {z : z ∈ [a, b], f (z) ≤ y} und x := sup(M ). Dann gilt f (x) = y. Denn: Ist (zn ) eine
Folge in M mit zn ≤ x und zn → x so folgt f (zn ) ≤ y und da f stetig ist, gilt f (zn ) → f (x)
also f (x) ≤ y. Weiter gilt f (x) < f (b) also x < b. Da f (x + n1 ) > y, für alle n, gilt f (x) ≥ y,
da f stetig. Damit gilt f (x) = y.
Definition 5.3. Sei f : D → R mit D ⊆ R.
Ein x ∈ D heißt Maximum (bzw. Minimum) von f, falls f (x) ≥ f (z) ∀z ∈ D (bzw.
f (x) ≤ f (z) ∀z ∈ D).
Nicht jede Funktion hat ein Maximum oder Minimum.
Beispiel 5.4. f : R → R, f (x) = x hat weder Maximum noch Minimum auf R.
x
Beispiel 5.5. f : R → R, f (x) = x+1 für x ≥ 0 und f (x) = −f (−x) für x ≤ 0 hat weder
Maximum noch Minimum.
Beispiel 5.6. f : [0, 1] → R, f (0) = f (1) = 0, f (x) = x − 12 , 0 < x < 1 hat weder Maximum
noch Minimum auf [0, 1], da f in den Randpunkten nicht stetig ist.
Satz 5.7. Falls f : [a, b] → R stetig ist, so hat f ein Maximum und ein Minimum auf [a, b].
25
B ist nach oben beschränkt, denn andernfalls gäbe es eine Folge (xn ) in [a, b] mit f (xn ) → ∞.
(xn ) hätte aber nach dem Satz von Bolzano-Weierstraß eine Teilfolge (xnk ) mit xnk → x ∈ [a, b]
und damit würde f (xnk ) → f (x) gelten.
Sei nun s := sup(B) und (zn ) eine Folge in [a, b], mit f (zn ) → s. Nach dem Satz von Bolzano-
Weierstraß gibt es eine konvergente Teilfolge (znk ): wir setzen z∗ = lim znk . Da f stetig ist, gilt
k→∞
f (znk ) → f (z∗ ) also s = f (z∗ ) und z∗ ist das gesuchte Maximum. Das Minimum konstruiert
man analog.
Für Satz 5.7 sind drei Dinge wesentlich:
f ist stetig
Ein ähnlicher Satz gilt auch in Rd . Dazu brauchen wir erst einige Definitionen.
Definition 5.8. Eine Menge D ⊆ Rd heißt beschränkt, falls es ein K ∈ R gibt, so dass
||x|| ≤ K ∀x ∈ D (x ∈ Rd !).
Eine Folge (xn ) ∈ Rd heißt beschränkt, falls {xn : n ∈ N} beschränkt ist. Wir schreiben
xn = (xn1 , xn2 , xn3 , ...) .
Definition 5.9. Eine Folge (xn ) in Rd konvergiert gegen ein x ∈ Rd falls lim ||xn − x|| = 0
n→∞
Wir schreiben xn −−−−→ x oder x = lim xn .
n→∞ n→∞
Satz 5.10. Eine Folge (xn ) in Rd konvergiert genau dann gegen x ∈ Rd , falls für 1 ≤ k ≤ d
die Komponentenfolgen (xnk )n=1,2,... für n → ∞ gegen xk konvergieren.
Beweis. Übung.
Satz 5.11 (Folgerung zum Satz von Bolzano-Weierstraß). Jede beschränkte Folge in Rd hat
eine konvergente Teilfolge und damit einen Häufungspunkt.
Definition 5.12 (Stetigkeit in Rd ). Eine Funktion f : D → Rm mit Definitionsbereich D ⊆ Rd
heißt stetig in x (für ein x ∈ D), falls für jede Folge (xn ) in D mit xn → x gilt:
Definition 5.13. Eine Menge D ⊆ Rd heißt abgeschlossen, falls für jede Folge (xn ) in D
mit xn → x auch x ∈ D gilt.
Definition 5.14. Eine Teilmenge D von Rd heißt folgenkompakt oder kompakt, falls jede
Folge in D eine konvergente Teilfolge hat, deren Grenzwert ebenfalls in D liegt.
Satz 5.15. Eine Teilmenge von Rd ist genau dann kompakt, wenn sie abgeschlossen und
beschränkt ist.
Beweis. Ist D unbeschränkt, so gibt es eine Folge (xn ) in D mit ||xn || ≥ n; jede Teilfolge einer
solchen Folge ist unbeschränkt und kann daher nicht konvergieren. Ist D nicht abgeschlossen,
so gibt es eine Folge (xn ) in D, deren Grenzwert x nicht in D liegt; da jede Teilfolge ebenfalls
gegen x konvergiert und Grenzwerte eindeutig sind, kann D nicht kompakt sein. Ist anderseits
D beschränkt, so hat jede Folge (xn ) in D eine konvergente Teilfolge nach Satz 5.11; deren
Limes muss in D liegen, wenn D außerdem abgeschlossen ist.
Damit formulieren wir die mehrdimensionale Variante von Satz 5.7.
26
Satz 5.16. Sei D ⊆ Rd , D ist abgeschlossen und beschränkt und f : D → R stetig. Dann hat f
auf D ein Maximum und ein Minimum.
Das heißt es gibt x∗ , x∗ ∈ D so dass
D = {(x1 , . . . , xn ) : xk ≥ 0, ∀k, x1 + · · · + xn = 1} ⊆ Rn
(D ist kompakt) und darauf die stetige Funktion f, gegeben durch f (x1 , . . . , xn ) = (1+x1 ) . . . (1+
xn ).
Es gibt also eine Konstante m = max f (x) und (mindestens) ein x∗ ∈ D so dass f (x∗ ) = m.
n x∈D
Tatsächlich gilt m = 1 + n1 und x∗ = n1 , n1 , ..., n1 .
Dies folgt aus der allgemeinen AM-GM-Ungleichung (hierbei steht AM für das Arithmetische
Mittel und GM für das Geometrische Mittel).
Satz 5.19 (Allgemeine AM-GM-Ungleichung). Für a1 , . . . , an ≥ 0 und p1 , . . . , pn > 0
mit p1 + · · · + pn = 1 gilt
27
Umkehrfunktionen
Definition 5.20. f : A → B sei eine Abbildung, die bijektiv ist, d.h. es gibt zu jedem y ∈ B
genau ein x ∈ A mit f (x) = y.
Die Umkehrabbildung f −1 ordnet y ∈ B dasjenige x ∈ A zu mit f (x) = y.
f −1 (y) = x und f −1 : B → A ist ebenfalls bijektiv.
Falls A, B ⊆ Rd sprechen wir von Umkehrfunktionen.
Beispiel 5.21. f : R → R, f (x) = x − 1 ist bijektiv und die Umkehrfunktion ist f −1 (y) =
y + 1, y ∈ R.
Beispiel 5.22. f : [0, ∞) → [0, ∞), f (x) = x2 ist ebenfalls bijektiv und die Umkehrfunktion ist
√
f −1 (y) = y, y ∈ [0, ∞), f −1 : [0, ∞) → [0, ∞).
Beachte: f : R → R, f (x) = x2 ist nicht bijektiv!
Bemerkung. Man erhält den Graphen von f −1 , indem man den Graphen von f an der Geraden
g(x) = x spiegelt.
Satz 5.23. Sei I Intervall, I ⊆ R, f : I → R stetig und streng monoton wachsend. Dann ist
f : I → f (I) bijektiv und die Umkehrfunktion f −1 : f (I) → I ist ebenfalls stetig und streng
monoton wachsend.
(ohne Beweis)
Beispiel 5.24. exp : R → (0, ∞) ist stetig und streng monoton wachsend. Nach Satz 5.23 hat
exp eine stetige und streng monoton wachsende Umkehrfunktion. Die Umkehrfunktion heißt
Logarithmus (genauer: natürlicher Logarithmus) und wir schreiben ln : (0, ∞) → R.
Wir haben also ln(exp(x)) = x, x ∈ R und exp(ln(x)) = x, x ∈ (0, ∞).
ln(1) = 0 .
ln(e) = 1 .
Weiter gilt
ln(xk ) = k · ln(x), x > 0, k ∈ Z . (5.3)
Beweis. (von (5.3))
exp(ln(xk )) = xk
exp(k ln(x)) = exp(ln(x))k = xk .
xa+b = xa · xb (5.5)
28
Beweis. (von (5.5))
1 √
Für x n schreibt man auch n
x.
√
Beachte: (5.4) definiert x eindeutig als√Funktion von√[0, ∞) nach [0, ∞), die Gleichung
y = x2 hat jedoch (in R) die Lösungen y = x und y = − x.
logb (x).
Sinus
Da der Sinus stetig und streng monoton wachsend ist als Funktion sin : [− π2 , π2 ] → R mit
Bildmenge [−1, 1] gibt es eine stetige und streng monoton wachsende Umkehrfunktion, sie
heißt Arcussinus.
π π
arcsin : [−1, 1] → [− , ]
2 2
Cosinus
Ebenso ist der Arcuscosinus die Umkehrfunktion des Cosinus:
6 Differentiation
Wir führen erst die Landau-Symbole ein.
Definition 6.1 (Landau-Symbole). f und g seien Funktionen mit Werten in C, a ∈ R, oder
a = ∞ oder a = −∞. Dann sagen wir:
1. f (x) = O(g(x)) für x → a, falls es eine Konstante c > 0 gibt, so dass für jede Folge (xn )
mit xn → a gilt:
|f (xn )| ≤ c · |g(xn )|
für alle bis auf endlich viele n.
29
Beispiel 6.2. f, g, h : R → R f (x) = x2 , g(x) = x2 + 2, h(x) = 17x. Dann gilt:
2
f (x) = O(g(x)) für x → ∞ (denn x2x+2 −−−−→ 1),
x→∞
17x
h(x) = o(g(x)) für x → ∞ (denn: 2 −
−−−→
x +2 x→∞ 0).
Definition 6.3. x0 ∈ D ⊆ R heißt innerer Punkt von D falls es ein ε > 0 gibt, so dass
(x0 − ε, x0 + ε) ⊆ D.
D ⊆ R heißt offen falls x ∈ D ⇒ x innerer Punkt von D (D ist also offen falls D nur innere
Punkte enthält).
Beispiel 6.4. D = (a, b) ist offen, D = [a, b) ist nicht offen, denn x0 = a ist kein innerer
Punkt.
Die Ableitung einer Funktion: f : D → R im Punkt x0 ∈ D ist eine Linearisierung der
Funktion f in einer Umgebung von x0 .
Definition 6.5. Eine Funktion f : D → R auf einem Definitionsbereich D ⊆ R heißt dif-
ferenzierbar in x0 , x0 innerer Punkt von D, wenn es eine Zahl f 0 (x0 ) gibt, so dass
Die Zahl f 0 (x0 ) ist dann die Steigung der Tangenten von f in x0 und heißt Ableitung von
f in x0 . Wenn wir o(x − x0 ) ausschreiben, bedeutet (6.1)
Beispiel 6.10 (Betragsfunktion). f (x) = |x| ist stetig in x0 = 0 aber nicht differenzierbar in
x0 = 0. Denn
f (x0 + h) − f (x0 )
−−−−−−→ 1 .
h h→0,h>0
f (x0 + h) − f (x0 )
−−−−−−→ −1.
h h→0,h<0
0 f (x0 + h) − f (x0 )
f+ (x0 ) = lim
h→0,h>0 h
30
(falls der Limes existiert).
Die linksseitige Ableitung von f in x0 ist definiert durch
0 f (x0 + h) − f (x0 )
f− (x0 ) = lim
h→0,h<0 h
denn es gilt
eh − 1
lim =1 (6.3)
h→0 h
Beweis. (von (6.3))
h2 h3 h4
eh − 1 = h + + + + ...
2! 3! 4!
eh − 1 h h2 h3
=1+ + + + ... −−−→ 1
h 2! 3! 4! h→0
31
Ableitungsregeln
Seien f, g differenzierbar in x, a ∈ R. Dann sind a · f, f + g ebenfalls differenzierbar und
Beweis. 1. f (x) = 1 ∀x ∈ R
0 1 1
1 g(x+h) − g(x) g(x) − g(x + h) g 0 (x)
= lim = lim =− .
g h→0 h h→0 hg(x)g(x + h) g(x)2
Also 0
1 g 0 (x)
(x) = − . (6.5)
g g(x)2
32
f 1
2. g (x) = f (x) g(x)
Also mit Produktregel und (6.5)
0 0
f 1 1
(x) = f 0 (x) + f (x) (x)
g g(x) g
f 0 (x) f (x)g 0 (x)
= −
g(x) g(x)2
f 0 (x)g(x) − f (x)g 0 (x)
= .
g(x)2
Beispiel 6.20.
sin(x) cos(x)ex − sin(x)ex cos(x) − sin(x)
h(x) = ,x ∈ R h0 (x) = =
ex e 2x ex
Satz 6.21. Es seien I, J ⊆ R, f : I → R, f (I) ⊆ J, g : J → R, x0 innerer Punkt von I
und f (x0 ) innerer Punkt von J. Ist f differenzierbar in x0 und g differenzierbar in f (x0 ), so ist
auch g ◦ f in x0 differenzierbar ((g ◦ f )(x) = g(f (x))) und es gilt
33
Beweis. (von (6.8))
cos(x) = g(f (x)) mit g(x) = sin(x), f (x) = x + π2 .
Also g 0 (x) = cos(x), f 0 (x) = 1
Damit cos0 (x) = g 0 (f (x))f 0 (x) = cos(x + π2 ) = − sin(x)
2
Beispiel 6.24. h(x) = ex = g(f (x)), f (x) = x2 , g(x) = ex
2
Also h0 (x) = g 0 (f (x))f 0 (x) = ex 2x
Sei ϕ(x) = h0 (x)
2 2 2
Dann h00 (x) := ϕ0 (x) = (ex 2x) · 2x + ex · 2 = ex (4x2 + 2)
Als nächstes sollen Umkehrfunktionen abgeleitet werden.
Satz 6.25 (Ableitung von Umkehrfunktionen). Die Funktion f : [a, b] → [c, d] bilde das Inter-
vall [a, b] ⊆ R bijektiv auf das Intervall [c, d] ab und sei im Punkt y ∈ [a, b] differenzierbar mit
f 0 (y) 6= 0. Dann ist die Umkehrfunktion f −1 : [c, d] → [a, b] im Punkt x = f (y) differenzierbar
und es gilt
1
(f −1 )0 = 0 −1
f (f (y))
Beweis. Setzen g = f −1 . Wir haben g ◦ f = id (id : [a, b] → [a, b], id(x) = x).
Wir leiten beide Seiten ab und erhalten mit der Kettenregel
also
1
g 0 (f (x)) =
f 0 (x)
Setze y = f (x) ⇒ x = g(y). Damit
1
g 0 (y) =
f 0 (g(y))
das heißt
1
(f −1 )0 (y) =
f 0 (f −1 (y))
Beispiel 6.26. exp bildet R bijektiv auf (0, ∞) ab. Die Umkehrfunktion ist ln : (0, ∞) → R.
Also gilt wegen exp0 (x) = exp(x):
1 1
ln0 (x) = = , x ∈ (0, ∞).
exp(ln(x)) x
34
∞
xk+1
P
Beispiel 6.28. fk (x) = k+1 . Dann konvergiert fk (x) für −1 ≤ x < 1.
k=0
∞
X xk+1
f (x) = , f (−1) < ∞
k+1
k=0
∞
Wir haben fk0 (x) = xk . Aber xk konvergiert nicht für x = −1.
P
k=0
∞ 2k+1 2k+1
x x
(−1)k (2k+1)! fk (x) = (−1)k (2k+1)!
P
Beispiel 6.32. sin(x) = ,
k=0
∞
x2k
fk0 (x) (−1)k (2k)! fk0 (x) majorisiert (warum?).
P
= . Dann konvergiert
k=0
∞ 2k
Also sin0 (x) = x
(−1)k (2k)!
P
= cos(x), ∀x ∈ R.
k=0
35
Lemma 7.3. Die Funktion f : [a, b] → R sei im Punkt x0 ∈ (a, b) differenzierbar. Dann gilt:
f besitzt in x0 ein lokales Extremum ⇒ f 0 (x0 ) = 0.
Beweis. f habe eine lokales Maximum in x0 . Dann gilt für |h| klein genug f (x0 +h)−f (x0 ) ≤ 0.
Also ist (
f (x0 + h) − f (x0 ) ≤ 0 für h > 0, |h| klein genug
h ≥ 0 für h < 0, |h| klein genug
Lassen wir h gegen 0 gehen, so erhalten wir sowohl f 0 (x0 ) ≤ 0 als auch f 0 (x0 ) ≥ 0 und daher
f 0 (x0 ) = 0.
Bemerkung. Der Beweis benutzte, dass x0 innerer Punkt von [a, b] ist.
Beispiel 7.4. f (x) = x2 hat ein globales Minimum in x0 = 0 und es gilt f 0 (x) = 2x also
f 0 (x) = 0 ⇒ x = x0 = 0.
Beispiel 7.5. f (x) = x3 hat auf [−17, 17] ein lokales Minimum in x0 = −17 und ein lokales
Maximum in x1 = 17.
f 0 (x) = 0 ⇒ x = 0 (denn f 0 (x) = 3x2 ). Aber f hat kein lokales Extremum in x = 0.
Wenn wir die Extrema einer differenzierbaren Funktion f : [a, b] → R bestimmen wollen, können
wir vorgehen wie folgt:
1. Bestimme die Nullstellen von f 0 in (a, b).
2. Sortiere diejenigen aus, zu denen kein lokales Extremum gehört.
3. Untersuche das Verhalten von f in den Randpunkten a und b.
4. Das größte lokale Maximum ist das Maximum, das kleinste lokale Minimum ist das Mi-
nimum.
Beispiel 7.6. f (x) = x + x1 , x ∈ (0, ∞). Dann ist f differenzierbar in (0, ∞). Wir wissen
lim f (x) = ∞ und lim f (x) = ∞. Also besitzt f ein globales Minimum (warum?). Wir haben
x→0 x→∞
f 0 (x) = 1 − x12 . Also f 0 (x0 ) = 0 ⇒ x0 = 1 (denn x0 = −1 liegt nicht in (0, ∞)). Also gilt
f (x) ≥ f (x0 ) = 2, ∀x > 0.
Das heißt x + x1 ≥ 2, ∀x > 0. Dies folgt auch aus x2 + 1 ≥ 2x (denn x2 − 2x + 1 = (x − 1)2 ≥ 0).
36
Satz 7.7 (Satz von Rolle). Sei f : [a, b] → R stetig auf [a, b] und differenzierbar in (a, b).
Falls f (a) = f (b), so gibt es ein z ∈ (a, b) mit f 0 (z) = 0.
Beweis. 1. Wenn f konstant ist, so gilt f 0 (x) = 0 sogar für alle x ∈ (a, b).
2. Wenn f nicht konstant ist, muss entweder das Maximum oder das Minimum von f oder
beide (beide existieren, da f stetig) im Inneren (a, b) von [a, b] liegen. Es gibt also min-
destens eine Extremalstelle z ∈ (a, b), für die nach Lemma 7.3 f 0 (z) = 0 gelten muss.
Satz 7.8 (Mittelwertsatz). f, g : [a, b] → R seien stetig auf [a, b] und differenzierbar in (a, b)
und es gelte g 0 (x) 6= 0, ∀x ∈ (a, b).
Dann ist g(a) 6= g(b) und es gibt ein z ∈ (a, b)mit
f (b) − f (a)
= f 0 (z).
b−a
Beweis. Wir führen den Satz auf den Spezialfall ”Satz von Rolle” zurück. Zunächst muss
g(a) 6= g(b) gelten, da der Satz von Rolle sonst ein z ∈ (a, b) liefern würde mit g 0 (z) = 0.
Die Funktion
f (b) − f (a)
F (x) = f (x) − (g(x) − g(a))
g(b) − g(a)
erfüllt die Voraussetzungen des Satzes von Rolle, insbesondere gilt nämlich F (a) = f (a) = F (b).
Also gibt es ein z ∈ (a, b) mit
f (b) − f (a) 0
0 = F 0 (z) = f 0 (z) − g (z)
g(b) − g(a)
Satz 7.9 (Monotonie und Ableitung). f : [a, b] → R sei differenzierbar in (a, b). Dann gilt:
1. f 0 > 0 in (a, b) ⇔ f in (a, b) streng monoton wachsend.
2. f 0 < 0 in (a, b) ⇔ f in (a, b) streng monoton fallend.
3. f 0 ≥ 0 in (a, b) ⇔ f in (a, b) monoton wachsend.
Die Implikationsrichtungen ”⇐” folgen aus der Definition 6.2 der Ableitung als Limes von
Differenzenquotienten.
37
Beispiel 7.10. ln : (0, ∞) → R ist nach dem vorangehenden Satz streng monoton wachsend,
da seine Ableitung ln0 (x) = x1 > 0 ist für x > 0.
2 3
Wir haben 1 + x ≤ exp(x), denn exp(x) = 1 + x + x2 + x3! + ...
Also gilt ln(1 + x) ≤ x (für x > −1) mit ”=” genau dann wenn x = 0.
Wir haben gesehen, dass lokale Extrema einer differenzierbaren Funktion f : (a, b) → R, die in
(a, b) liegen, Nullstellen von f 0 sind. Umgekehrt brauchen nicht alle Nullstellen von f 0 lokale
Extrema zu sein.
Satz 7.11 (Kriterium für Extrema). f sei differenzierbar in (a, b) und f 0 (x0 ) = 0 für ein
x0 ∈ (a, b). Dann gilt:
f 0 ≥ 0 in (a, x0 ) und f 0 ≤ 0 in (x0 , b) ⇒ f nimmt das Maximum in x0 an.
f 0 ≤ 0 in (a, x0 ) und f 0 ≥ 0 in (x0 , b) ⇒ f nimmt das Minimum in x0 an.
Beweis. Folgt aus dem vorangehenden Satz.
Für lokale Extrema wendet man das Kriterium natürlich auf eine geeignete Umgebung von x0
an.
eh − 1
lim =1
h→0 h
sin(x)
lim =1
x→0 x
cos(x) − 1
lim =0
x→0 x
f (x)
Diese Grenzwerte sind von der Form lim mit f (a) = 0 = g(a)
x→a g(x)
Satz 7.12 (Regel von de l’Hospital). f, g : (a, b) → R seien differenzierbar mit g 0 (x) 6= 0, ∀x ∈
(a, b).
Sei x0 = a oder x0 = b (a = −∞, bzw. b = ∞ möglich). In jeder der beiden folgenden
Situationen
1. f (x) → 0 und g(x) → 0 für x → x0
2. f (x) → ∞ und g(x) → ∞ für x → x0
f 0 (x) f (x) f 0 (x)
gilt: existiert lim 0 , so ist lim = lim 0 .
x→x0 g (x) x→x0 g(x) x→x0 g (x)
Beweis. Für den Fall 1. und den Randpunkt x0 = a ∈ R. Wir wenden auf das Intervall
[x0 , x], x ∈ (a, b) den Mittelwertsatz an und erhalten ein z ∈ (x0 , x) mit fg(x)
(x)
= fg(x)−g(x
(x)−f (x0 )
0)
=
f 0 (z)
g 0 (z) . Da mit x → x0 auch z → x0 gilt, folgt die Behauptung.
eh −1 eh
Beispiel 7.13. lim h = lim = 1,
h→0 h→0 1
sin(x) cos(x)
lim x = lim 1 = 1,
x→0 x→0
cos(x)−1 − sin(x)
lim x = lim 1 = 0.
x→0 x→0
Beispiel 7.14.
1
ln(ln(x)) (∗) ln(z) (∗∗) z 2
lim p = lim √ = lim 1 = lim √ = 0.
x→∞ ln(x) z→∞ z z→∞ √
2 z
z→∞ z
38
Bemerkung. zu (∗∗) √
d z
Allgemein gilt: sei f (z) = z α , α ∈ R, z > 0. Dann f 0 (z) = αz α−1 (insbesondere dz = 1
√
2 z
).
Beweis. f (z) = eα ln(z) und mit der Kettenregel folgt f 0 (z) = eα ln(z) · α z1 = αz α−1 .
Beispiel 7.15.
1 1 x − sin(x)
lim ( − ) = lim
x→0 sin(x) x x→0 x sin(x)
l0 H 1 − cos(x)
= lim
x→0 sin(x) + x · cos(x)
0
lH sin(x)
= lim
x→0 cos(x) + cos(x) − x · sin(x)
sin(x)
= lim =0
x→0 2 cos(x) − x sin(x)
f (x1 ) − f (x0 )
f 0 (x0 ) ≤ ≤ f 0 (x1 ) . (7.2)
x1 − x0
39
Falls in (7.3) ” < ” gilt, so auch in (7.1) und (7.2).
Der Beweis beruht auf dem Mittelwertsatz, wir lassen ihn aber weg.
Definition 7.19. Eine Funktion f : (a, b) → R, für welche (7.1) gilt, heißt konvex. Ist die
Ungleichung strikt, so heißt f streng konvex.
f heißt konkav (bzw. streng konkav) falls −f konvex (bzw. streng konvex) ist.
Beachte: (7.1) ist oft einfach zu überprüfen.
Folgerung 7.20. f : (a, b) → R sei konvex und differenzierbar in (a, b). Dann gilt für x0 , x1 ∈
(a, b)
f (x0 ) + f 0 (x0 )(x1 − x0 ) ≤ f (x1 ) (7.4)
Ist f streng konvex so gilt ” = ” genau dann wenn x0 = x1 .
Beweis. (7.4) folgt aus (ii):
f (x1 ) − f (x0 )
f 0 (x0 ) ≤ ≤ f 0 (x1 )
x1 − x0
f 0 (x0 )(x1 − x0 ) ≤ f (x1 ) − f (x0 ) ≤ f 0 (x1 )(x1 − x0 )
Beispiel 7.21. f (x) = exp(x) ist streng konvex auf R, da f 00 (x) = exp(x) > 0, ∀x ∈ R.
(denn f 0 (x) = exp(x), f 00 (x) = exp(x)). Also gilt mit x0 = 0 in (7.4)
1 + x1 ≤ exp(x1 ), ∀x1 ∈ R.
Beispiel 7.22. f (x) = x2 ist streng konvex auf R, da f 00 (x) = 2 > 0, ∀x ∈ R.
Beispiel 7.23. f (x) = x4 ist ebenfalls streng konvex auf R. Wir haben aber f 00 (x) = 12x2 ≥
0, ∀x ∈ R mit f 00 (0) = 0, denn f 0 (x) = 4x3 , f 00 (x) = 12x2 . Wir können also in diesem Fall mit
(7.3) nur folgern, dass die Funktion konvex ist - dass sie streng konvex ist, kann man direkt mit
(7.1) zeigen.
Satz 7.24 (Jensen’sche Ungleichung). f : (a, b) → R sei konvex, n ≥ 2, x1 , ..., xn ∈ (a, b) und
n
P
p1 , ..., pn > 0 mit pi = 1. Dann gilt
i=1
n
! n
X X
f pk xk ≤ pk f (xk ) (7.5)
k=1 k=1
Induktionsschritt n → n + 1.
p1 x1 + ... + pn xn
f (p1 x1 + p2 x2 + ... + pn+1 xn+1 ) = f ((p1 + ... + pn ) + pn+1 xn+1 )
p1 + ... + pn
f konvex p1 x1 + ... + pn xn
≤ (p1 + ... + pn ) · f ( ) + pn+1 f (xn+1 )
p1 + ... + pn
∼ ∼
= (p1 + ... + pn )f (p1 x1 + ...+ pn xn ) + pn+1 f (xn+1 )
Ungleichung gilt für n ∼ ∼
≤ (p1 + ... + pn )(p1 f (x1 ) + ...+ pn f (xn )) + pn+1 f (xn+1 )
= p1 f (x1 ) + p2 f (x2 ) + ... + pn+1 f (xn+1 ) .
dabei setzten wir
∼ pi
pi = , 1 ≤ i ≤ n.
p1 + ... + pn
40
Beispiel 7.25. f (x) = ln(x) ist streng konkav, denn f 00 (x) = − x12 < 0, ∀x > 0.
Denn (f 0 (x) = x1 , f 00 (x) = − x12 ).
n
P
Seien a1 , ..., an > 0 und p1 , ..., pn mit pi = 1. Dann liefert die Jensensche Ungleichung
i=1
n
! n
X X
ln pk ak ≥ pk ln(ak ) (7.6)
k=1 k=1
Beachte: Das ” ≤ ” in (7.5) wird für eine konkave Funktion zu ” ≥ ”. Dabei gilt ”=” genau
dann wenn a1 = ... = an .
Wir wenden auf beiden Seiten von (7.6) exp an und erhalten
p1 a1 + ... + pn an ≥ ap11 · ... · apnn
mit ” = ” genau dann wenn a1 = a2 = ... = an .
Damit haben wir die allgemeine AM-GM-Ungleichung gezeigt, siehe (5.1).
41
8 Das Integral
Ziel:
Wir wollen für eine Funktion f : [a, b] → R das Integral
Zb
f (x)dx
a
definieren und untersuchen, mit der Vorstellung, dass das Integral für Funktionen f ≥ 0 gerade
die Fläche zwischen dem Graphen von f und der x-Achse liefern soll.
Konstante Funktionen
f (x) = c für alle x ∈ [a, b], in diesem Fall definieren wir
Zb
f (x)dx = c · (b − a).
a
Für c > 0 ist dies gerade der Flächeninhalt des Rechtecks unter dem Graphen, für c < 0 ist der
Wert negativ.
Treppenfunktionen
f sei stückweise konstant, d.h. es gibt eine Zerlegung Z von [a, b], Z = {x0 , x1 , ..., xn } mit
a = x0 < x1 < ... < xn = b und f (x) = ci , falls x ∈ (xi−1 , xi ). Der Wert von f in den Punkten
xi spielt für uns keine Rolle. Wir definieren
Zb n
X
f (x)dx = ci (xi − xi−1 ).
a i=1
Beispiel 8.1.
1
1≤x≤3
f (x) = 2 3<x≤4
−1 4<x≤5
R5
Dann ist f (x)dx = 1(3 − 1) + 2(4 − 3) + (−1)(5 − 4) = 3.
1
42
Beschränkte Funktionen
Idee: Approximiere f durch Treppenfunktionen.
mi = inf f (x)
x∈[xi−1 ,xi ]
Mi = sup f (x)
x∈[xi−1 ,xi ]
Wir definieren die Unter- und Obersumme von f zur Zerlegung Z durch
Zb
UZ (f ) = ϕ(x)dx, wobei ϕ(x) = mi für x ∈ (xi−1 , xi ),
a
Zb
OZ (f ) = ψ(x)dx, wobei ψ(x) = Mi für x ∈ (xi−1 , xi ).
a
UZ (f ) ≤ UZ 0 (f ) ≤ OZ 0 (f ) ≤ OZ (f ).
Insbesondere gilt für die Zerlegungen Z1 , Z2 , dass es eine Verfeinerung Z 0 sowohl von Z1 als
auch von Z2 gibt und damit
43
Definition 8.2 (Integral). Es sei f : [a, b] → R beschränkt. Falls U (f ) = O(f ), so heißt f
integrierbar und das Integral von f wird definiert durch
Zb
f (x)dx = U (f ) = O(f ).
a
so gilt
Zb
f (x)dx = lim UZ n (f ) = lim OZ n (f )
n→∞ n→∞
a
Jedes Teilintervvall (x, y) von [0, 1] enthält rationale und irrationale Zahlen. Daher gilt für jede
Zerlegung Z von [0, 1]
UZ (f ) = 0, OZ (f ) = 1.
Insbesondere ist 0 = U (f ) 6= O(f ) = 1.
Satz 8.5 (Eigenschaften des Integrals). 1. Linearität: Sind f, g : [a, b] → R integrierbar
und α, β ∈ R, dann ist auch αf + βg integrierbar und
Zb Zb Zb
(αf (x) + βg(x)) dx = α f (x)dx + β g(x)dx.
a a a
2. Monotonie: Sind f, g : [a, b] → R integrierbar mit f (x) ≤ g(x) für alle x ∈ [a, b], so gilt
Zb Zb
f (x)dx ≤ g(x)dx.
a a
3. Zerlegbarkeit: Sei a < c < b. Dann ist f : [a, b] → R auf [a, b] integrierbar genau dann
wenn f auf [a, c] und auf [c, b] integrierbar ist und in diesem Fall gilt
Zb Zc Zb
f (x)dx = f (x)dx + f (x)dx.
a a c
44
Definition 8.6. f : [a, b] → R. Dann ist der Positivteil f + von f definiert durch
Beispiel 8.7.
Ist f integrierbar, so sind auch f + und f − integrierbar und somit ist auch der Betrag integrierbar
und wegen f ≤ |f |, −f ≤ |f | gilt
Zb Zb
f (x)dx ≤ |f (x)|dx.
a a
Zb
f (x)dx ≤ M (b − a)
a
Za Zb
f (x)dx = − f (x)dx.
b a
Zc Zb Zc
f (x)dx = f (x)dx + f (x)dx
a a b
Ra
für alle a, b, c ∈ R und es gilt: f (x)dx = 0.
a
45
Satz 8.9 (Mittelwertsatz der Integralrechnung). Seien f : [a, b] → R stetig und g : [a, b] → R
integrierbar mit g ≥ 0 (d.h. g(x) ≥ 0 ∀x ∈ [a, b]).
Dann gibt es ein z ∈ [a, b] mit
Zb Zb
f (x)g(x)dx = f (z) g(x)dx. (8.2)
a a
Zb Zb Zb
m g(x)dx ≤ f (x)g(x)dx ≤ M g(x)dx.
a a a
Wir setzen
Rb
f (x)g(x)dx
a
y= .
Rb
g(x)dx
a
Dann gilt m ≤ y ≤ M und es gibt nach dem Zwischenwertsatz ein z ∈ [a, b] so dass y = f (z).
Rb
Folgerung 8.10. Ist f : [a, b] → R stetig, so gibt es ein z ∈ [a, b] mit f (x)dx = (b − a)f (z).
a
für ein z ∈ [x, x + h] nach der Folgerung. Mit h → 0 gilt z → x und da f stetig ist, folgt
f (z) → f (x). Also folgt
F (x + h) − F (x)
−−−−−−→ f (x).
h h>0,h→0
46
Definition 8.12. f, F : (a, b) → R und F stetig auf [a, b] und differenzierbar in (a, b). Gilt
F 0 (x) = f (x) ∀x ∈ (a, b), so heißt F Stammfunktion von f .
Stammfunktionen sind bis auf eine additive Konstante eindeutig bestimmt: Ist F eine Stamm-
funktion von f und c ∈ R, so ist auch F + c eine Stammfunktion von f .
Umgekehrt seien F und G Stammfunktionen von f , so gilt
(F − G)0 = F 0 − G0 = f − f = 0.
Rx
Beweis. Nach dem Hauptsatz wird durch Fa (x) = f (t)dt eine Stammfunktion von f definiert,
a
und es gilt
Zb
f (t)dt = Fa (b) = Fa (b) − Fa (a).
a
Da sich zwei Stammfunktionen nur durch eine additive Konstante unterscheiden, gilt
Zb
F (b) − Fa (b) = F (a) − Fa (a) also F (b) − F (a) = Fa (b) − Fa (a) = f (t)dt.
a
Rb
Beispiel 8.14. f (x) = exp(x), F (x) = exp(x). Also gilt exp(t)dt = exp(b) − exp(a).
a
Rb
Beispiel 8.15. f (x) = 1
x, F (x) = ln(x), x ∈ (0, ∞) (Wir wissen F 0 = f ). Also ist 1
x dx =
a
ln(b) − ln(a), a, b > 0.
Rb
f (x)dx ⇔ F 0 = f . Das Integral
R
Also gilt F = f (x)dx wird auch “bestimmtes Integral”
a
genannt.
Bemerkung. Eine Stammfunktion kann, genau wie bei den Umkehrfunktionen, nicht immer
explizit angegeben werden.
Rx 2
Beispiel 8.16. F (x) = e−t dt ist keine “bekannte” Funktion. Wir können jedoch ϕ(x) :=
−∞
Rx −t2
e dt definieren und die Eigenschaften von ϕ untersuchen.
−∞
47
Lemma 8.17 (Partielle Integration). f, g seien stetig differenzierbar. Dann gilt
Zb Zb
0
f (x)g (x)dx = f (x)g(x)|ba − f 0 (x)g(x)dx. (8.5)
a a
Beweis. Wir setzen F (x) = f (x)g(x). Mit der Produktregel gilt F 0 (x) = f 0 (x)g(x)+f (x)g 0 (x).
Aus dem Hauptsatz folgt nun
Zb Zb
0
f (x)g(x)dx + f (x)g 0 (x)dx = F (b) − F (a).
a a
Rb
Beispiel 8.19. x exp(x)dx hat die Form der linken Seite von (8.5) mit f (x) = x, g(x) =
a
exp(x). Also gilt
Zb Zb
x exp(x)dx = x exp(x)|ba − exp(x)dx = (x − 1) exp(x)|ba
a a
Zb g(b)
Z
0
f (g(t))g (t)dt = f (t)dt. (8.6)
a g(a)
Beweis. Sei F eine Stammfunktion von f auf I (wir können F durch (8.3) definieren). Mit
der Kettenregel bekommen wir (F ◦ g)0 (t) = F 0 (g(t))g 0 (t) = f (g(t))g 0 (t). Also gilt, mit dem
Hauptsatz,
Zb g(b)
Z
0
f (g(t))g (t)dt = (F ◦ g)(b) − (F ◦ g)(a) = F (g(b)) − F (g(a)) = f (t)dt.
a g(a)
Zb Zb Zb
sin(t)
tan(t)dt = dt = − f (g(t))g 0 (t)dt
cos(t)
a a a
48
mit f (t) = 1t , g(t) = cos(t). Also
Zb cos(b)
Z
1
tan(t)dt = − dt = − ln(cos(t))|ba = ln(cos(a)) − ln(cos(b)).
t
a cos(a)
Also ist log(cos(t)) Stammfunktion von tan(t) auf (a, b), − π2 < a < b < π
2.
Zb ln(b)
Z
1 1
dt = dx = ln(ln(x))|ba .
t ln(t) x
a ln(a)
1
Also ist ln(ln(x)) eine Stammfunktion von x ln(x) .
0 1 1 1
Test: F (x) = ln(ln(x)), F (x) = ln(x) x = xln(x) X
Bemerkung. Algorithmen zum Finden bzw. Vereinfachen von Stammfunktionen sind ein
wichtiges und interessantes Thema, wir verweisen dazu auf das Buch von Folkmar Bornemann.
Aber: Achtung beim Integrieren mit Maple/Mathematica!
3
Beispiel 8.23. f (x) = 5−4 cos(x)
Als Stammfunktion liefert Maple F (x) = 2 arctan(3 tan( x2 )). Test: F 0 (x) = f (x), −π < x < π
(Die Rechnung lassen wir als Übung. Beachte dazu : arctan0 (x) = 1+x 1
2 , denn
sin0 (x) cos(x) − sin(x) cos0 (x) cos2 (x) + sin2 (x) 1
tan0 (x) = 2
= 2
= = 1 + tan2 (x). (8.7)
cos (x) cos (x) cos2 (x)
49
Uneigentliche Integrale
Uneigentliche Integrale sind Integrale, die einen endlichen Wert haben, bei denen aber entweder
eine Integrationsgrenze im Unendlichen liegt, oder aber die Funktion an der Integrationsgrenze
eine Singularität hat.
Betrachten wir zuerst den ersten Fall.
Sei f : [a, ∞) eine Funktion, die auf jedem endlichen Intervall [a, M ] integrierbar ist. Wir
definieren
Z∞ ZM
f (x)dx = lim f (x)dx
M →∞
a a
ZM
1 x1−α M 1
dx = | = (M 1−α − 1).
xα 1−α 1 1−α
1
Also
ZM
1 1
lim dx = .
M →∞ xα α−1
1
R∞ 1
Falls hingegen α < 1, so gilt, mit derselben Rechnung, M 1−α −−−−→ ∞, also existiert xα dx
M →∞ 1
RM 1 RM 1
nicht. Für α = 1 gilt x dx = ln(M ) −−−−→ ∞, also existiert
M →∞ x dx nicht.
1 1
50
R∞ ln(x)
Beispiel 8.25. x2 dx. Wir können sehen, dass das uneigentliche Integral existiert, denn
√ 1
ln(x) ≤ x. Also gilt für alle m ≥ 1
ZM ZM √ ZM
ln(x) x 1
≤ dx = dx
x2 x2 x3/2
1 1 1
RM
1
und lim 3/2 dx existiert (siehe Beispiel 8.24). In diesem Beispiel können wir das Integral
M →∞ 1 x
auch berechnen. Mit partieller Integration erhalten wir
ZM ZM
1 1 11 − ln(x) M 1 − ln(M ) 1
ln(x) dx = − ln(x) |M + dx = |1 − |M = − + 1 −−−−→ 1.
x2 x1 xx x x1 M M M →∞
1 1
Zb Zb
f (x)dx = lim f (x)dx
ε→0
a a+ε
Z1
1 x1−α 1 1 − ε1−α 1
dx = |ε = −−−−−−→ .
xα 1−α 1 − α ε→0, ε>0 1 − α
ε
R1 1
Für α > 1 existiert xα dx nicht, denn mit derselben Rechnung wie vorher gilt
0
ε1−α −−−−−−→ ∞.
ε→0,ε>0
Für α = 1 gilt
Z1
1
dx = ln(x)|1ε = − ln(ε) −−−−−−→ ∞
x ε→0, ε>0
ε
R1 1
also existiert x dx nicht.
0
51
Beispiel 8.27.
Z∞ Z0 Z∞
1 1 1
dx = dx + dx
1 + x2 1 + x2 1 + x2
−∞ −∞ 0
Z0 ZM
1 1
= lim dx + lim dx
M →∞ 1 + x2 M →∞ 1 + x2
−M 0
RM
Dann gilt f (x)dx = 0, ∀M aber
−M
ZM
1
f (x)dx = (M 2 − c2 ) −−−−→ ∞ . (8.9)
2 M →∞
c
R∞
also existiert xdx nicht.
−∞
52
Figure 1: Beispiele für fn
Beachte, dass fn stetig, ∀n, aber f nicht stetig in x = 1. Die Folge (fn ) konvergiert nicht
gleichmäßig gegen f , denn
sup |fn (x) − f (x)| = 1, ∀n.
x∈[0,1]
Z1 Z1
1 1
fn (x)dx = xn+1 |10 = −−−−→ 0 = f (x)dx. (8.10)
n+1 n + 1 n→∞
0 0
Dann sind alle fn stetig und lim fn (x) = 0, ∀x, d.h. (fn ) konvergiert punktweise gegen f ,
n→∞
f (x) = 0, ∀x ∈ [0, 1].
R1 R1
Aber fn (x)dx = 1, ∀n und f (x)dx = 0.
0 0
Satz 8.32. Falls fn : [a, b] → R stetig, ∀n und (fn ) auf [a, b] gleichmäßig gegen f konvergiert,
so ist f stetig und
Zb Zb
lim fn (x)dx = f (x)dx.
n→∞
a a
Beweis. 1. f ist stetig. Wir nehmen eine Folge (xk ) in [a, b] mit xk −−−−→ x. Wir müssen
k→∞
zeigen: f (xk ) −−−−→ f (x).
k→∞
53
Es gilt
|f (xk ) − f (x)| ≤ |f (xk ) − fn (xk )| + |fn (xk ) − fn (x)| + |fn (x) − f (x)|
≤ sup |f (z) − fn (z)| + |fn (xk ) − fn (x)| + sup |fn (z) − f (z)|.
z∈[a,b] z∈[a,b]
ε
Wir wählen zuerst n so groß, dass der erste und der letzte Term ≤ 3 und dann k so groß,
dass der mittlere Term ≤ 3ε ist (dies ist möglich, da fn stetig ist).
Rb Rb
2. Die Integrale fn (x)dx konvergieren gegen f (x)dx.
a a
Wir haben
Zb Zb Zb
fn (x)dx − f (x)dx = (fn (x) − f (x))dx
a a a
Zb
≤ |fn (x) − f (x)|dx
a
≤ (b − a) sup |fn (x) − f (x)| −−−−→ 0.
x∈[a,b] n→∞
Ohne Beweis.
Beispiel 8.35. f (t, x) = etx , J = [c, d]
Zb Zb (
etx t=b
tx x t=a x 6= 0
F (x) = f (t, x)dt = e dt =
b−a x = 0.
a a
Also (
ebx −eax
x x 6= 0
F (x) =
b−a x = 0.
54
Rb
Wir bekommen also F 0 (x) = tetx dt. Für x 6= 0 ist das, mit partieller Integration
a
Zb
et x t=b etx bebx − aeax ebx − eax
=t − dt = − .
x t=a x x x2
a
Rb b2 −a2
Für x = 0 gilt: F 0 (x) = tdt = 2 .
a
b2 −a2
Test: lim F 0 (x) = ... = F 0 (0) = 2 .
x→0
In diesem Beispiel berechnet man auch direkt
Rb
eth dt − (b − a)
F (h) − F (0) a
F 0 (0) = lim = lim
h→0 h h→0 h
ehb −eha
− (b − a)
h e − eha − h(b − a) hb
= lim = lim
h→0 h h→0 h2
bh ah
be − ae − (b − a) b e − a2 eah
2 bh
b2 − a2
= lim = lim = .
h→0 2h h→0 2 2
Beispiel 8.36 (Integralsinus). Die Funktion Si(x) ist definiert durch
Zx
sin(t)
Si(x) = dt .
t
0
sin(t) sin(t)
Wir wissen, dass lim t = 1, also ist t integrierbar auf [0, x], ∀x ≥ 0.
t→0
Dann gilt I(x, 0) = Si(x). Nach Satz 8.34 ist I(x, s) nach s stetig partiell differenzierbar (d.h.
für festes x eine stetig differenzierbare Funktion von s) und es gilt:
Zx Zx
e−st sin(t) 1 e−sx (cos(x) + s · sin(x))
∂s I(x, s) = ∂s dt = − e−st sin(t)dt = − + .
t 1 + s2 1 + s2
0 0
55
Also gilt, für x, s > 0:
Zx Zs
e−st sin(t) e−tx · (cos(x) + t sin(x))
Si(x) = arctan(s) + dt − dt.
t 1 + t2
0 0
sin(t)
≤ 1 (Beweis: Übung) (8.11)
t
p √
cos(x) + t sin(x) Cauchy-Schwarz cos2 (x) + sin2 (x) 1 + t2 1
≤ =√ ≤1 (8.12)
1 + t2 1 + t2 1 + t2
Damit gilt also ∀x, s > 0:
Zx Zs
−st
|Si(x) − arctan(x)| ≤ e dt + e−tx dt
0 0
−sx
1−e 1 − e−sx
= +
s x
1 1
≤ +
s x
Wir lassen s → ∞ gehen und erhalten |Si(x) − π2 | ≤ x1 oder Si(x) = π2 + O( x1 ). Insbesondere
Rx
gilt lim sin(t) π
t dt = 2 und wir können die Konvergenzgeschwindigkeit abschätzen.
x→∞ 0
Zb Zb X
∞ ∞ Z
X
b
n
P
Beweis. f = lim gn wobei gn (x) = fk (x). Falls die Reihe majorisiert konvergiert, so gilt
n→∞ k=0
∞
X ∞
X ∞
X
|f (x) − gn (x)| = fk (x) ≤ |fk (x)| ≤ ak −−−−→ 0.
n→∞
k=n+1 k=n+1 k=n+1
Also konvergiert (gn ) gleichmäßig gegen f , und mit Satz 8.32 gilt
56
Zb Zb
f (x)dx = lim gn (x)dx
n→∞
a a
Zb
= lim gn (x)dx
n→∞
a
Zb n
X
!
= lim fk (x) dx
n→∞
a k=0
n Z b
X
= lim fk (x)dx
n→∞
k=0 a
∞ Z b
X
= fk (x)dx.
k=0 a
Rx 1
Wir wissen aber, dass 1+t dt = ln(1 + x) (für x > −1).
0
Also erhalten wir
∞
X xk+1
ln(1 + x) = (−1)k (8.13)
k+1
k=0
heißt Entwicklung von f in eine Potenzreihe. Die größtmögliche Schranke für die (8.14)
gilt heißt Konvergenzradius der Potenzreihe.
Beispiel 8.40. Für k = 0, 1, 2, . . . sei fk gegeben durch
k x
2
0 ≤ x ≤ k1
fk (x) = 2k − k 2 x k1 < x ≤ k2
x > k2 .
0
57
Visualisierung: Siehe Figure 1.
Dann gilt fk (x) −−−−→ 0, ∀x ∈ [0, 1] und sogar: ∀x ∈ [0, 1] ∃k0 = k0 (x), so dass
k→∞
fk (x) = 0 ∀k ≥ k0 .
∞
P
Betrachte fk (x): diese Reihe konvergiert, ∀x ∈ [0, 1].
k=0
n
P
f ist jedoch nicht integrierbar auf [0, 1], denn f (x) ≥ fk (x), ∀n und
k=0
Z1 n
X
! n Z
X
1
fk (x) dx = fk (x)dx = n
0 k=0 k=0 0
R1 R1
(denn fk (x)dx = 1, k = 1, 2, . . .). Also existiert f (x)dx nicht.
0 0
∞
1
(−1)k z k für |z| < 1, siehe (??). Wir setzen z = x2 und
P
Beispiel 8.41. Wir wissen: 1+z =
k=0
erhalten
∞
1 X
2
= (−1)k x2k für |x| < 1.
1+x
k=0
Für |x| ≤ q < 1 können wir also gliedweise integrieren und erhalten
Zx ∞ Zx ∞
1 X X x2k+1
2
dt = (−1)k t2k dt = (−1)k .
1+t 2k + 1
0 k=0 0 k=0
Rx 1
Aber wir wissen, dass 1+t2 dt = arctan(x) und erhalten also
0
∞
X x2k+1
arctan(x) = (−1)k (für |x| < 1).
2k + 1
k=0
58
Anwendungen des Integrals
Satz 8.42. Seien a, b ∈ Z mit a ≤ b und sei f : [a, b] → R monoton. Dann gilt:
b−1 Rb b
f monoton wachsend ⇒
P P
f (k) ≤ f (x)dx ≤ f (k).
k=a a k=a+1
b Rb b−1
f monoton fallend ⇒
P P
f (k) ≤ f (x)dx ≤ f (k).
k=a+1 a k=a
n
k α für n → ∞? (z.B. Anzahl der Rechenschritte
P
Beispiel 8.43. Sei α > 0. Wie verhält sich
k=1
in einem Algorithmus.)
Nach Satz 8.42 gilt
Zn n
X
n+1
Z
α α
x dx ≤ k ≤ xα dx .
0 k=1 1
Also
n
nα+1 X (n + 1)α+1 − 1
≤ kα ≤ (8.16)
α+1 α+1
k=1
und man kann die linke Seite und die rechte Seite mit Rechner sofort auswerten. Also wissen
wir
n
X nα+1
kα ∼ .
α+1
k=1
an
(an ∼ bn heißt bn −
−−−→ 1), d.h.
n→∞
n
1 X 1
k α −−−−→ .
nα+1 n→∞ α+1
k=1
n
P n(n+1)
Beispiel 8.44. Für α = 1 wissen wir, dass k= 2 - man kann das mit vollständiger
k=1
Induktion beweisen - also ist (8.16) erfüllt.
Beispiel 8.45. Ein Sortieralgorithmus benötigt bei der Eingabe von n Elementen log2 (n!) Ver-
gleiche. Wir haben
1
log2 (n!) = ln(n!).
ln(2)
Eine erste Abschätzung für ln(n!) wäre
ln(n!) = ln(1) + ln(2) + ln(3) + . . . + ln(n) ≤ n ln(n), n ∈ N)
Da f (x) = ln(x) monoton wächst, bekommen wir mit Satz 8.42 eine genauere Abschätzung:
Zn n
X
n+1
Z
ln(x)dx ≤ ln(n!) = ln(k) ≤ ln(x)dx (8.17)
1 k=1 1
59
Nun benutzen wir, dass F (x) = x ln(x) − x eine Stammfunktion von f (x) = ln(x) ist, und
erhalten
n ln(n) − n + 1 ≤ ln(n!) ≤ (n + 1) ln(n + 1) − n. (8.18)
Daraus bekommen wir die Asymptotik
n n+1 n+1
Z n
X X X
f (k) ≤ f (k) ≤ f (x)dx ≤ f (k). (8.19)
k=2 k=2 1 k=1
Also gilt:
n n+1
Z
X
0 ≤ an = f (k) − f (x)dx ≤ f (1). (8.20)
k=1 1
(an ) wächst monoton, denn mit a = n + 1 und b = n + 2 folgt aus Satz 8.42:
n+2
Z
an+1 = an + f (n + 1) − f (x)dx ≥ an . (8.21)
n+1
Also konvergiert (an ) und wir haben das folgende Kriterium gezeigt.
Satz 8.46 (Integralkriterium). Für monoton fallende Funktionen f : [1, ∞) → [0, ∞) existiert
der Grenzwert der Abweichung zwischen Summe und Integral und erfüllt:
n n+1
Z
X
0 ≤ lim ( f (k) − f (x)dx) ≤ f (1).
n→∞
k=1 1
Insbesondere gilt:
∞
X Z∞
f (k) konvergiert ⇔ f (x)dx existiert.
k=1 1
n
1 1
P
Beispiel 8.47. Sei f (x) = x, x ∈ [1, ∞). Sei Hn = k. Hn heißt n-te harmonische Zahl.
k=1
Das Integralkriterium gibt uns den Vergleich von Hn mit ln(n + 1), nämlich
Insbesondere folgt die Existenz der Euler-Mascheroni-Konstanten: γ = lim (Hn − ln(n + 1)),
n→∞
γ ≈ 0.5772 . . . (es ist offen, ob γ irrational oder sogar transzendent ist!). Wir wissen, dass
Hn − ln(n + 1) monoton wächst. Also gilt, ∀n ∈ N
Insbesondere bekommen wir wegen ln(n) −−−−→ ∞ einen anderen Beweis für die Divergenz der
n→∞
harmonischen Reihe.
60
9 Potenzreihen und Taylor-Entwicklung
1
Wir hatten gesehen, dass die Funktionen 1+x , ln(1 + x), arctan(x), sin(x), cos(x) Darstellungen
also Potenzreihen haben:
∞
X
f (x) = ak xk für |x| < r mit r ∈ (0, ∞]
k=0
(r ∈ (0, ∞] bedeutet r ∈ (0, ∞) oder r = ∞). Solche Darstellungen sind wichtig für
n
Numerik: Für gegebenes f , berechne (ak ) und approximiere f durch ak xk .
P
k=0
Kombinatorik: Für (ak ) gegeben, finde f und bestimme mit den Eigenschaften von f das
asymptotische Verhalten von ak .
Kann man mit einem Polynom höheren Grades besser approximieren? Zum Beispiel:
(Wir schreiben ∂hn für die n-fache Ableitung nach h, f (n) für die n-te Ableitung von f ).
Also gilt für ein n-fach differenzierbares f die Taylorformel:
n
X f (k) (a)
f (a + h) = hk + o(hn ) für h → 0.
k!
k=0
n
P f (k) (a) k
k! h heißt n-tes Taylorpolynom von f um den Entwicklungspunkt a.
k=0
Satz 9.1. Sei f : I → R eine auf dem offenem Intervall I (n + 1)-mal stetig differenzierbare
Funktion.
Dann gilt für x, a ∈ I
n
X f (k) (a)
f (x) = (x − a)k + Rn+1 (a, x)
k!
k=0
mit
Zx
1
Rn+1 (a, x) = (x − t)n f (n+1) (t)dt (Cauchy)
n!
a
(n+1)
f (z)
Rn+1 (a, x) = (x − a)n+1 für ein z zwischen a und x. (Lagrange)
(n + 1)!
61
Beweis. Wir setzen h = x − a.
Schritt 0:
Zx
f (x) = f (a) + f 0 (t)dt
a
nach dem Hauptsatz.
Wir schreiben
Zx Zx
0
f (t)dt = − ∂t (x − t)f 0 (t)dt
a a
und wenden partielle Integration an
Zx
0
= −(x − t)f (t)|t=x
t=a + (x − t)f 00 (t)dt
a
mit h = (x − a). Damit ist auch die Lagrange’sche Form des Restgliedes gezeigt.
Beispiel 9.2. Für f (x) = ex gilt f (n) (x) = ex , ∀n und insbesondere f (n) (0) = 1.
Die Taylorentwicklung von f um a = 0 liefert mit dem Restglied von Lagrange,
x2 x3 xn xn+1
ex = 1 + x + + + ... + + ez (9.3)
2! 3! n! (n + 1)!
mit einem z zwischen 0 und x.
Für x = 1 erhalten wir mit 1 ≤ ez ≤ e1 ≤ 3 die Einschließung
n n
X 1 1 X 1 3
+ ≤e≤ + .
k! (n + 1)! k! (n + 1)!
k=0 k=0
62
Das letzte Argument war allgemein und wir erhalten:
Satz 9.3. I sei offen und a ∈ I, f : I → R sei unendlich oft differenzierbar und lim Rn (a, x) =
n→∞
0. Dann gilt für alle x ∈ I
∞
X f (k) (a)
f (x) = (x − a)k
k!
k=0
und diese Reihe heißt Taylorreihe von f um a.
Beachte, dass lim Rn (a, x) = 0 nicht für alle unendlich oft differenzierbaren Funktionen f
n→∞
gilt. Nicht jede unendlich of differenzierbare Funktion lässt sich in eine Potenzreihe entwickeln.
Beispiel 9.4. ( 2
e−(1/x )
x 6= 0
f (x) =
0 x = 0.
Dann ist f unendlich oft differenzierbar und es gilt f (n) (0) = 0, ∀n.
Beweis. Übung.
∞
P f (k) (0) k
Also haben wir für x 6= 0, f (x) 6= k! x .
k=0
Beispiel 9.5. Sei α ∈ R. Betrachte die Funktion f (x) = (1 + x)α , f : (−1, ∞) → (0, ∞). (Zur
Erinnerung: (1 + x)α = exp(α ln(1 + x))). Dann ist f auf (−1, ∞) unendlich oft differenzierbar
und die Ableitungen sind gegeben durch
f (n) (x) = α(α − 1)(α − 2) . . . (α − n + 1)(1 + x)α−n .
Also gilt
f (k) (0)
α
= .
k! k
Der Binomialkoeffizient αk ist dabei definiert durch
α α(α − 1) . . . (α − k + 1)
= (mit α ∈ R, k ∈ N).
k k!
Falls α = n ∈ N, so gilt
( n!
n k≤n
= k!(n−k)!
k 0 k > n.
Die Taylorformel liefert also für x > −1 :
n
X α k
(1 + x)α = x + Rn+1 (0, x).
k
k=0
Man kann zeigen, dass für x mit |x| < 1, Rn (0, x) −−−−→ 0. (Wir lassen die Rechnung weg).
n→∞
Wir bekommen damit die Binomialreihe
∞
α
X α k
(1 + x) = x für |x| < 1.
k
k=0
63
Falls α = n ∈ N, so liefert dies den binomischen Lehrsatz
∞ n
n
X n X
k n k
(1 + x) = x = x .
k k
k=0 k=0
2k
für |x| < 14 , das heißt √ 1
1−4x
ist die erzeugende Funktion von (ak ), definiert durch ak = k .
Potenzreihen im Komplexen
∞
ak z k eine Potenzreihe. Dann gibt es einen Konvergenzradius r ∈ [0, ∞]
P
Lemma 9.6. Sei
k=0
(d.h. r ∈ [0, ∞) oder r = ∞), so dass für alle z ∈ C gilt
∞
|z| < r ⇒ ak z k konvergiert absolut.
P
k=0
∞
|z| > r ⇒ ak z k divergiert.
P
k=0
1 1
(dabei setzen wir 0 = ∞ und ∞ = 0). Die Menge {z ∈ C : |z| < r} heißt Konvergenzkreis der
Potenzreihe.
Beweis. Der Beweis beruht auf einem Vergleich mit der geometrischen Reihe (siehe Buch von
F. Bornemann).
Definition 9.7. Eine Funktion f heißt in x = 0 analytisch, wenn sie sich mit positivem
Konvergenzradius r > 0 in eine Potenzreihe um x = 0 entwickeln lässt.
Ist eine reelle Funktion f in x = 0 analytisch, so besitzt sie nach dem Lemma eine analytische
Fortsetzung (nämlich ihre Potenzreihe) für komplexe z aus dem Konvergenzkreis.
64
Beispiel 9.8. Wir hatten gesehen:
∞
X xk+1
ln(1 + x) = (−1)k
(k + 1)
k=0
siehe (8.15).
∞
X
g(x) = bk x k (|x| < rg ) (9.7)
k=0
f (k) (0)
ak = (9.9)
k!
65
Beweis. Folgt aus der Taylorformel.
Rx
Integration F (x) = f (t)dt definiert eine Stammfunktion von f. Dann gilt
0
∞
X ak−1
F (x) = xk (|x| < rf ) (9.10)
k
k=1
k
P
Die Koeffizientenfolge (ck ), gegeben durch ck = aj bk−j heißt Faltung der Folgen (ak )
j=0
und (bk ).
∞
Quotient Falls g(0) = b0 6= 0, so ist f f
dk xk mit
P
g analytisch in x = 0 und g (x) =
k=0
k−1
1 X
dk = (ak − dj bk−j ) k = 0, 1, 2
b0 j=0
66
∞
f gerade ⇔ f (x) = a2k x2k
P
∀x ∈ I
k=0
∞
f ungerade ⇔ f (x) = a2k+1 x2k+1
P
∀x ∈ I
k=0
Dies folgt aus der eindeutigen Darstellung (9.9) der Koeffizienten, denn
f gerade ⇒ f (k) (0) = 0 für k = 1, 3, 5, . . .
f ungerade ⇒ f (k) (0) = 0 für k = 0, 2, 4, 6, . . .
Beispiel 9.11.
∞
X (iy)k
eiy =
k!
k=0
∞ ∞
X (iy)2k X (iy)2k+1
= +
(2k)! (2k + 1)!
k=0 k=0
∞ 2k ∞
X y X y 2k+1
= (−1)k +i (−1)k
(2k)! (2k + 1)!
k=0 k=0
= cos(y) + i sin(y)
Dabei ist
∞
X y 2k
cos(y) = (−1)k (9.13)
(2k)!
k=0
eine gerade Funktion und
∞
X y 2k+1
sin(y) = (−1)k (9.14)
(2k + 1)!
k=0
eine ungerade Funktion. Beachte, dass (9.13) und (9.14) cos und sin zu analytischen Funktionen
auf C fortsetzen.
Beispiel 9.12 (Geldwechselproblem). Wie viele Möglichkeiten ak gibt es einen Betrag von k
Cents in Münzen der Stückelung 1, 2, 5, 10, 20 und 50 Cents herauszugeben?
Beispiel:k = 10
10 = 10 · 1
=8·1+1·2
=6·1+2·2
=4·1+3·2
=2·1+4·2
=5·2
=5·1+1·5
=3·1+1·2+1·5
=1·1+2·2+1·5
=2·5
= 1 · 10
67
Also gibt es a10 = 11 Möglichkeiten.
Wie berechnet man ak für große k?
Wir müssen die Anzahl ak der 6-Tupel (j1 , . . . , j6 ) ∈ N60 bestimmen, für die
k = j1 · 1 + j2 · 2 + j3 · 5 + j4 · 10 + j5 · 20 + j6 · 50.
∞ X
X ∞ X
∞ X
∞ X
∞ X
∞
f (x) = xj1 ·1+j2 ·2+j3 ·5+j4 ·10+j5 ·20+j6 ·50
j1 =0 j2 =0 j3 =0 j4 =0 j5 =0 j6 =0
X∞ X∞ X∞ X∞ ∞
X ∞
X
j1 2j2 5j3
= x x x x10j4 x20j5 x50j6
j1 =0 j2 =0 j3 =0 j4 =0 j5 =0 j6 =0
1 1 1 1 1 1
=
1 − x 1 − x 1 − x 1 − x 1 − x 1 − x50
2 5 10 20
f (k) (0) 1 dk
1 1
ak = = · · · |x=0
k! k! dxk 1 − x 1 − x50
k
d
( dx k bezeichnet die k-fache Ableitung nach x).
Allerdings kann man die ak so nicht wirklich ausrechnen - der Rechenaufwand ist zu groß.
Stattdessen kann man den Kalkül der Potenzreihen verwenden: die Koeffizienten des Produktes
von Potenzreihen lassen sich rekursiv berechnen, siehe (9.12).
Maple liefert:
a100 = 4562
a1000 = 103119386
a10000 = 8518079396351.
Noch besser ist es, f statt als Produkt als Summe zu schreiben.
Dazu betrachten wir die sogenannte logarithmische Ableitung
f 0 (x)
Lf (x) =
f (x)
d
falls f (x) 6= 0. Lf (x) = dx log(f (x)) erklärt den Namen.
Es gilt
L(f · g)(x) = Lf (x) + Lg(x).
Hier gilt also:
68
wobei
(
1 m Teiler von (k + 1)
I{m|(k+1)} = (k ∈ N0 )
0 sonst.
Wir haben also
∞
X ∞
X
f (x) = ak xk ⇒ f 0 (x) = (k + 1)ak+1 xk
k=0 k=0
siehe (9.8).
∞
X k
X
f 0 (x) = f (x) bk xk ⇒ (k + 1)ak+1 = aj bk−j
k=0 j=0
10 Differentialrechnung im Mehrdimensionalen
Ziel: Für Funktionen f : D → R mit D ⊂ Rd in mehreren Variablen wollen wir die Ableitung
definieren und f auf Extrema untersuchen.
f hat offensichtlich ein Minimum bei (0, 0), für g : R2 → R, g(x1 , x2 ) = 3x1 − x21 − x22 − x1 x2
ist dies nicht mehr so einfach zu erkennen.
69
Definition 10.2. Sei D ⊂ Rd . x heißt innerer Punkt von D, falls es ein ε > 0 gibt mit
Bε (x) := {y ∈ Rd : ||x − y|| < ε} ⊂ D.
p
Hierbei ist ||x − y|| = (x1 − y1 )2 + . . . + (xd − yd )2 der Abstand im Rd , Bε (x) ist also die
Kugel um x mit Radius ε.
Ist jeder Punkt x ∈ D ein innerer Punkt, so heißt D offen.
Beispiel 10.3. D = R2 \ {(0, 0)} jeder Punkt aus D ist ein innerer Punkt, D ist offen.
D = [−1, ∞) × R, jeder Punkt mit x1 > −1 ist innerer Punkt.
Kr (x) := {y ∈ Rd : ||y − x|| ≤ r} (Kugel um x mit Radius r). Innere Punkte sind gerade
die Punkte in Br (x).
Definition 10.4 (partielle Ableitung, Vergleich Definition 8.33). Sei D ⊂ Rd , x = (x1 , . . . , xd )
innerer Punkt von D, f : D → R. f heißt in x partiell nach der k-ten Komponente
differenzierbar, falls der Limes
f (x1 , . . . , xk−1 , xk + h, xk+1 , . . . , xd ) − f (x1 , . . . , xd )
lim
h→0 h
existiert. Im Falle der Existenz schreiben wir
∂f
(x), ∂k f (x) oder ∂xk f (x).
∂xk
Existieren alle partiellen Ableitungen und sind sie stetig, so heißt f stetig differenzierbar.
Beispiel 10.5. f : R2 → R, f (x1 , x2 ) = x21 + x22 ist partiell differenzierbar, dabei wird beim
Ableiten bezüglich x1 (bzw. x2 ) die andere Variable x2 (beziehungsweise x1 ) als Konstante
betrachtet und nach bekannten Regeln abgeleitet.
∂f
(x1 , x2 ) = 2x1
∂x1
∂f
(x1 , x2 ) = 2x2
∂x2
∂d f (x)
der Gradient von f an der Stelle x (auch als grad f(x) geschrieben)
70
Bemerkung. Ist f : D → Rd auf ganz D partiell differenzierbar, so definiert
∇f : D → Rd , x → ∇f (x)
eine Abbildung, welche jedem x ∈ D einen Vektor in Rd zuordnet. Man kann zeigen, dass
der Gradientenvektor stets in die Richtung des (lokal) steilsten Anstiegs zeigt, wobei die Länge
||∇f (x)|| die Stärke des Anstiegs angibt.
Beispiel 10.7. Etwa für f (x1 , x2 ) = x21 + x22
2x1 x
∇f (x1 , x2 ) = =2 1
2x2 x2
∂f f (h, 0) − f (0, 0) ∂f
(0, 0) = lim = 0 und analog (0, 0) = 0.
∂x1 h→0 h ∂x2
1
Die Ableitung in Richtung existiert aber nicht, denn der Limes von
1
71
Definition 10.11 (Zweite partielle Ableitungen). Sei D ⊂ Rd , x ∈ D innerer Punkt, f : D →
R. Die zweite partielle Ableitung
∂2f
∂i ∂j f (x) (oder ∂xi ∂xj f (x) oder (x))
∂xi ∂xj
∂j f (x + h · ei ) − ∂j f (x)
∂i ∂j f (x) := lim
h→0 h
wobei ei = (0, . . . , 0, 1, 0, . . . , 0) der i-te Einheitsvektor ist.
Existieren alle partiellen zweiten Ableitungen und sind sie stetig, so heißt f zweimal stetig
differenzierbar.
Beispiel 10.12. Die zweiten partiellen Ableitungen von f (x1 , x2 ) = x21 x32 sind
∂i ∂j f (x) = ∂j ∂i f (x)
für alle i, j = 1, . . . , d.
Definition 10.14. Ist f : D → R, D ⊂ Rd zweimal stetig differenzierbar, so heißt die (sym-
metrische) Matrix der zweiten Ableitungen
∂1 ∂1 f (x) . . . ∂d ∂1 f (x)
∂1 ∂2 f (x) . . . ∂d ∂2 f (x)
Hf (x) =
.. .. ..
. . .
∂1 ∂d f (x) . . . ∂d ∂d f (x)
Nehmen wir an, x ist ein solches Minimum und ein innerer Punkt von D.
72
Für v ∈ Rd definieren wir
g(t) := f (x + t · v), t ∈ R.
Da x ein innerer Punkt von D ist, ist g wohldefiniert in einem gewissen Intervall I = (−r0 , r0 )
mit r0 > 0. Außerdem ist 0 ein Minimum von g, denn
für t ∈ I, da f in x minimal ist. Die Ableitung von g ist gerade die Richtungsableitung von f
in Richtung v:
g(t + h) − g(t)
g 0 (t) = lim
h→0 h
f (x + (t + h) · v) − f (x + t · v)
= lim
h→0 h
f ((x + tv) + hv) − f (x + tv)
= lim
h→0 h
mit Satz 10.10 = h∇f (x + tv), vi .
Da g ein lokales Minimum in 0 hat, gilt g 0 (0) = 0, also h∇f (x), vi = 0. Dies muss für alle
v ∈ Rd gelten, also ist ∇f (x) = 0. Wir bilden die zweite Ableitung von g:
d
g 00 (t) = h∇f (x + tv), vi
dt
d
d X
= ∂i f (x + tv) · vi
dt i=1
d
X d
= vi ∂i f (x + tv)
i=1
dt
d
X
= vi · h∇∂i f (x + tv), vi
i=1
d
X d
X
= vi · ∂j ∂i f (x + tv) · vj
i=1 j=1
d
X
= vi ∂j ∂i f (x + tv)vj
i,j=1
= v T Hf (x + tv) · v.
Da g 00 (0) ≥ 0 gilt, muss auch gelten: v T Hf (x)v ≥ 0 für alle v ∈ Rd , das heißt Hf (x) ist positiv
semidefinit.
Ist x ein lokales Maximum von f , das heißt f (x) ≥ f (y) ∀y ∈ D ∩ Br (x) für ein r > 0, so
ergibt die analoge Argumentation
2. Ist ∇f (x) = 0 und Hf (x) negativ definit, so ist x ein (striktes) lokales Maxixum von f .
73
Bemerkung. Sei A eine symmetrische d × d-Matrix. Dann gilt:
A ist positiv definit
⇔ v T Av > 0 für alle v ∈ Rd , v 6= 0
⇔ alle Eigenwerte von A sind positiv
⇔ alle Hauptminoren det((Aij )1≤i,j≤k )
k = 1, . . . , d sind positiv (k × k Matrix ”links oben” in A.)
und A ist negativ definit
⇔ −A ist positiv definit
⇔ v T Av < 0 für alle v ∈ Rd , v 6= 0
⇔ alle Eigenwerte von A sind negativ
00
⇔ die Hauptminoren haben ein alternierendes Vorzeichen, beginnend mit −00 .
Beispiel 10.16. Wir betrachten wieder f (x1 , x2 ) = x21 + x22 .
2x1 0
∇f (x) = = ⇔ x1 = 0, x2 = 0
2x2 0
ist weder positiv noch negativ definit. Tatsächlich liegt bei (0, 0) ein ”Sattelpunkt”.
74
11 Differentialgleichungen
Differentialgleichungen beschreiben eine Vielzahl von Phänomenen in Physik, Chemie und Bi-
ologie.
Wir geben zur Motivation ein Beispiel aus der Kombinatorik.
Beispiel 11.1 (Alternierende Permutationen). Betrachte diejenigen Permutationen von {1, . . . , n},
bei denen das erste Element kleiner ist als das zweite, das zweite größer als das dritte, das dritte
kleiner als das vierte und so weiter.
n sei ungerade: n = 2k + 1.
Beispiel mit n = 9: (4, 8, 6, 7, 5, 9, 1, 3, 2) (Man spricht auch von Zick-Zack-Permutationen)
Sei An die Anzahl der alternierenden Permutationen von n = 2k + 1 Elementen.
Wir stellen eine Bijektion der alternierenden Permutationen mit sogenannten vollen Max-Heaps
her, das sind monoton markierte volle Binärbäume. Die Bijektion bekommt man durch Parti-
tionierung an der Position des maximalen Elementes.
Jeder Knoten hat eine Marke, die größer als die Marke der beiden Nachfolger ist.
Diese Zuordnung ist eineindeutig, es gilt also: An = Anzahl voller Max-Heaps über der Menge
{1, . . . , n}. Dies führt uns auf eine Rekursionsformel für An :
2k
X 2k
A1 = 1 und A2k+1 = Aj−1 A2k−2j+1 (k ∈ N). (11.1)
j=1
2j − 1
Denn: Das Maximum kommt an die Wurzel des Baumes, von den 2k restlichen Marken kommen
2j − 1, (j = 1, . . . , k) zum linken Teil-Heap, 2k − 2j + 1 zum rechten Teil-Heap. Also gilt
k
A2k+1 X A2j−1 A2k−2j+1
(2k + 1) = (k ∈ N). (11.2)
(2k + 1)! j=1 (2j − 1)! (2k − 2j + 1)!
A2k−1
Wir betrachten die erzeugende Funktion von (2k−1)! :
∞
X A2k−1 2k−1
f (x) = x (11.3)
(2k − 1)!
k=1
Mit unserer Formel (9.8) für die Ableitung von Potenzreihen gilt
n
X A2k+1 2k
f 0 (x) = (2k + 1) x (11.4)
(2k + 1)!
k=0
und mit unserer Formel (9.12) für das Produkt von Potenzreihen gilt, mit (11.1)
∞ Xk
X A2j−1 A2k−2j+1
f (x)2 = x2k . (11.5)
j=1
(2j − 1)! (2k − 2j + 1)!
k=1
Also führt die Rekursionsformel (11.2) zusammen mit (11.4) und (11.5) zur Differential-
gleichung
f 0 (x) = 1 + f (x)2 (11.6)
75
f ist also auf ganz bestimmte Art mit f 0 verkoppelt. Legt diese Verkopplung f fest und können
wir f damit bestimmen?
Tatsächlich ist f durch (11.6) und den Anfangswert f (0) = 0 festgelegt. Damit wissen wir,
dass f (x) = tan(x), denn: tan0 (x) = 1 + tan2 (x), siehe (8.7). Die Potenzreihe von tan(x)
kann man beschreiben, siehe dazu das Buch von F. Bornemann. Die allgemeine Theorie (siehe
Flajolet, Sedgewick, “Analytic Combinatorics”) sagt, dass die Asymptotik einer Folge (ak )
unter recht allgemeinen Bedingungen durch die Singularitäten ihrer erzeugenden Funktion
∞
ak xk auf dem Rand des komplexen Konvergenzkreises bestimmt wird. Für f (x) =
P
f (x) =
k=0
tan(x) liegen diese bei x = ± π2 . In ihrer Nähe verhält sich der Tangens wie eine rationale
Funktion:
∞
X A2k−1 2k−1 8x π
x = tan(x) ∼ 2 für x → ± .
(2k − 1)! π − 4x2 2
k=1
Außerdem gilt
∞ 2k
8x X 2
2 2
= 2 x2k−1 . (11.7)
π − 4x π
k=1
(Übung: Zeige
tan(x)
lim 8x = 1,
x→ π
2 π 2 −4x2
Wir dürfen schließen, dass auch die Koeffizientenfolgen sich asymptotisch gleich verhalten. Also
gilt
2k
A2k−1 2
∼2 für k → ∞. (11.8)
(2k − 1)! π
A2k−1
Beachte: (2k−1)! ist der Anteil der Permutationen von 2k − 1 Elementen, die alternierend
sind. Dieser geht also wegen (11.8) exponentiell schnell gegen 0 für k → ∞.
Anfangswertprobleme
Eine gewöhnliche Differentialgleichung beschreibt einen Zustandsvektor y(x) ∈ Rd in Abhängigkeit
der skalaren Größe x ∈ R (meist ist x die Zeit) durch eine Gleichung der Form
Dabei ist f gegeben. Die Lösung der Differentialgleichung ist eine differenzierbare Funktion
y : [x0 , x1 ] → Rd welche (11.9) für alle x ∈ [x0 , x1 ] erfüllt. Der Definitionsbereich Ω ⊆ R×Rd von
f in (11.9) heißt erweiterter Phasenraum, er ist oft von der Form Ω = I ×Ω0 . Ω0 heißt dann
Phasenraum der Differentialgleichung. Wir werden sehen, dass unter milden Voraussetzungen
eine Lösung von (11.9) existiert und durch die Angabe eines Anfangswertes
y(x0 ) = y0
festgelegt ist.
Bemerkung. In Anwendungen (z.B. Chipdesign, Moleküldynamik) kann d sehr groß sein.
Beispiel 11.2. 1. Stammfunktionen
Falls d = 1, f stetig, f nur von x abhängig, so können wir sofort eine Lösung von
76
angeben, nämlich
Zx Zx
0
y(x) = y0 + y (t)dt = y0 + f (t)dt x ∈ [x0 , x1 ].
x0 x0
Tatsächlich ist ex die einzige Lösung, denn: Jede Lösung y(x) erfüllt y(x) > 0 für |x|
klein genug. Also
y 0 (x)
= 1.
y(x)
y 0 (x)
Aber ln(y(x)) hat als Ableitung y(x) , also gilt mit dem Hauptsatz 8.11
Zx
ln(y(x)) = ln(y(0)) + 1dt = x also y(x) = ex .
0
Betrachten (11.10) und nehmen an, dass f, g : R → R stetig sind. Gilt g(y0 ) 6= 0 so gilt wegen
Stetigkeit für jede Lösung y(x) auch g(y(x)) 6= 0 für x nahe genug bei x0 . Also kann man die
Variablen x und y trennen:
y 0 (x)
= f (x).
g(y(x))
Integration liefert
Zx Zx
y 0 (t)
dt = f (t)dt
g(y(t))
x0 x0
Zx y(x)
y 0 (t)
Z
1
dt = ds.
g(y(t)) g(s)
x0 y0
Also gilt
y(x)
Z Zx
1
ds = f (t)dt.
g(s)
y0 x0
erhalten wir daher für jede Lösung y(x) des Anfangswertproblems die Beziehung
G(y(x)) = F (x).
77
Falls nun die Umkehrfunktion G−1 existiert, so ist die Lösung eindeutig durch
gegeben.
Beispiel 11.3. Die Differentialgleichung (11.6) für die erzeugende Funktion von An /n! in
Beispiel 11.1 lautet
y 0 (x) = 1 + y(x)2 , y(0) = 0.
Diese Gleichung ist separierbar, kann also mit Trennung der Variablen gelöst werden.
y 0 (x)
=1 Integration über x (und Substitution) ergibt:
1 + y(x)2
Zy Zx
1
ds = 1dt
1 + s2
0 0
arctan(y) = x
π π
Für 0 ≤ x < 2 existiert die Umkehrfunktion und wir bekommen y(x) = tan(x), 0 ≤ x < 2.
sei auf Ω = (x, x)) × Ω0 ⊆ R × Rd stetig, Ω0 sei offen und f sei stetig differenzierbar bezüglich
jeder Komponente von y. Dann hat das Anfangswertproblem eine in beiden Richtungen, das
heißt für x < x0 und x > x0 , bis an den Rand von Ω fortgesetzte Lösung. Diese ist eindeutig
festgelegt.
Ohne Beweis.
Was heißt ”bis an den Rand von Ω fortgesetzt”? Betrachten wir den Fall x > x0 . Der Satz
sagt, dass es ein x+ ∈ (x0 , x)] und eine eindeutige Lösung y : [x0 , x+ ) → Rd gibt, so dass einer
der drei folgenden Fälle eintritt.
(i) Die Lösung y(x) existiert ”bis zum Schluss”:
x+ = x.
(iii) Die Lösung ”kollabiert vorzeitig”. Für Ω0 = (y, y) heißt das, dass
Dabei nehmen wir −∞ < y < y < ∞ an. Entsprechende Aussagen gelten auch für ein x− < x.
Wir beweisen den Satz nicht, geben aber für jeden der drei Fälle ein Beispiel.
Beispiel 11.5. [Fall (i): Existenz bis zum Schluss]
Ω = (x, x) × Rd .
y 0 (x) = A(x)y(x) + b(x) (11.11)
78
Dabei ist A : (x, x) → Rd×d eine matrixwertige Abbildung und b : (x, x) → Rd eine vektorwertige
Abbildung und wir setzen voraus, dass A und b stetig sind. (Ay bezeichnet den Vektor mit
Pd
Komponenten (Ay )l = Akl yl . Dann existiert eine eindeutige Lösung
k=1
y : (x, x) → Rd
auf dem gesamten zur Verfügung stehenden Intervall (x, x) (siehe z. B. das Buch von Deufl-
hard und Bornemann, oder das Buch von Königsberger).
Beispiel 11.6. [Fall (ii): ”Blow Up” (vorzeitige Explosion).]
Ω = R × R.
y 0 (x) = y(x)2 , y(0) = 1 (11.12)
Trennung der Variablen
y 0 (x)
=1
y(x)2
Zx 0 Zx
y (t)
dt = 1dt
y(t)2
0 0
y(x)
Z
1
ds = x
s2
1
1
− +1=x
y(x)
1
=1−x
y(x)
1
y(x) =
1−x
für −∞ < x < 1. Also gilt x+ = 1, lim ||y(x)|| = ∞.
x→x+
79
2
Wegen lim y(x) = 0 schließen wir, dass x+ = 3. Die Lösung ”kollabiert vorzeitig” in der
x→2/3
Singularität y = 0 der rechten Seite von (11.14).
y(x) ∈ Rd .
Wir können (11.15) auf eine Differentialgleichung erster Ordnung zurückführen. Sei
y(x)
y 0 (x)
w(x) = ..
.
y (n−1) (x)
w1 bezeichnet dabei die ersten d Komponenten von w, w2 die zweiten d Komponenten, etc.
Zur eindeutigen Lösbarkeit benötigen wir einen Anfangswert w(x0 ), das heißt (11.15) benötigt
die Anfangwerte y(x0 ), y 0 (x0 ), . . . , y (n−1) (x0 ). Damit lässt sich der Satz von Picard-Lindelöf
anwenden.
Beispiel 11.8. Die inhomogene Differentialgleichung n-ter Ordnung
y (n) (x) + cn−1 (x)y (n−1) (x) + . . . + c1 (x)y 0 (x) + c0 (x)y(x) = f (x)
nach Beispiel 11.5 eine eindeutige Lösung y : (x, x) → R auf dem gesamten Intervall (x, x).
Denn: die zugehörige Differentialgleichung erster Ordnung ist ebenfalls linear und damit von
der Form (11.11).
80
p(λ) = λn + cn−1 λn−1 + . . . + c1 λ + c0 heißt das charakteristische Polynom der Differen-
tialgleichung (11.16). Da eλx 6= 0, ∀λ muss p(λ) = 0 gelten. Nun sehen wir, dass wir besser
λ ∈ C annehmen, denn p(·) braucht keine reellen Nullstellen zu haben. (Zur Erinnerung:
eλx = exp(λx) ist definiert ∀λ ∈ C, x ∈ R). Zu jeder Nullstelle λ von p gehört also eine
(komplexwertige) Lösung y(x) = eλx von (11.16).
Wir suchen aber eine bestimmte Lösung, nämlich diejenige mit den vorgegebenen Anfangswerten.
Annahme: p(·) hat genau n verschiedene Nullstellen λ1 , . . . , λn .
81
Numerisch
Für gegebene x wird y(x) per Computerprogramm innerhalb einer vorgegebenen Genauigkeit
berechnet. Wir verweisen auf das Buch von P. Deuflhard und F. Bornemann: ”Numerische
Mathematik II, Gewöhnliche Differentialgleichungen”.
Symbolisch
Hier verlangen wir eine geschlossene Formel in der Variablen x. Da dies bereits für Stamm-
funktionen nicht immer möglich ist wissen wir, dass es - im Allgemeinen - nicht klappt.
Beide Ansätze sind von Interesse und haben wichtige Anwendungen. Bei der Modellierung einer
Bevölkerung (siehe HA 12.2 für ein Beispiel mit expliziter Lösung) oder einer Epidemie ist die
numerische Lösung wichtiger.
Bei der Bestimmung der Anzahl der alternierenden Permutationen (Siehe Beispiel 11.1, Seite
75) hätte uns die numerische Lösung des AWP
12 Asymptotik
Wir haben eine ”komplizierte”(gemeint ist damit: nicht einfach zu berechnende) Zahlenfolge
(an ) und möchten ihr asymptotisches Verhalten bestimmen.
Beispiel 12.1.
n
X 3n
an =
k
k=0
oder
an = n-te Primzahl.
Wir suchen eine ”einfache”(einfach zu berechnende) Zahlenfolge (bn ), so dass
an ∼ bn für n → ∞. (12.1)
e 11e 7e
an = e − + − + O(n−4 )
2n 24n2 16n3
82
finden. Dazu betrachten wir
ln(1 + x) 1
f (x) = exp = (1 + x) x .
x
Beachte, dass ( 1
(1 + x) x x 6= 0
f (x) =
e x=0
unendlich oft differenzierbar ist auf R. Die Ableitungen von f in x = 0 kann man direkt (mit
der Regel von de l’Hospital) oder aber mit Maple berechnen.
Bootstrapping
Wir möchten die Folge (xn ), gegeben durch
xn
n= (12.3)
ln(xn )
für n → ∞ untersuchen. Ein Grund, (12.3) zu betrachten, kommt von dem Interesse an der
Asymptotik der n-ten Primzahl. Es gilt nämlich
pn pn 2!pn (k − 1)!pn pn
n= + + + ... + +O . (12.4)
ln(pn ) ln(pn )2 ln(pn )3 ln(pn )k ln(pn )k+1
Dabei ist pn die n-te Primzahl. Wir erwarten also, dass sich xn wie pn verhält, denn (12.3)
betrachtet den Hauptterm von (12.4) auf der rechten Seite.
en < e mit xn → ∞
Als Erstes bemerken wir, dass (12.3) für n > e zwei Lösungen xn > e und x
en → 1 für n → ∞ besitzt.
und x
x
Betrachte f (x) = ln(x) , x > 1. Dann gilt
ln(x) − 1
f (x) −−−−→ ∞, f (x) −−−→ ∞, f 0 (x) = , f 0 (x) = 0 ⇔ x = e. (12.5)
x→∞ x&1 ln(x)2
Wir interessieren uns hier nur für (xn ). Wir schreiben (12.3) als Fixpunktgleichung x = g(x).
xn = n ln(xn ) (12.6)
Idee des Bootstrapping: (”Pulling oneself up by one’s own bootstraps”): Aus einer einfachen
Wachstumsabschätzung für (xn ) erhält man schrittweise eine bessere, indem man die jeweils
letzte Abschätzung für xn in die rechte Seite von (12.6) einsetzt.
Startschritt: Wir wollen ln(xn ) abschätzen. Wir nehmen Logarithmen in beiden Seiten von
(12.6):
ln(xn ) = ln(n) + ln ln(xn ). (12.7)
Also
ln ln(xn )
ln(xn ) 1 − = ln(n).
ln(xn )
Wegen xn → ∞ gilt
ln ln(xn )
−−−−→ 0
ln(xn ) n→∞
83
ln(z)
(allgemein gilt z −−−→ 0). Also
z→∞
ln(n)
ln(xn ) = = ln(n)(1 + o(1)) für n → ∞. (12.8)
1 − o(1)
Das heißt: für eine Folge cn mit cn −−−−→ 0 gilt
n→∞
ln(n) cn
ln(xn ) = = ln(n) 1 + = ln(n)(1 + o(1)).
1 − cn 1 − cn
1. Einsetzungsschritt: Wir setzen (12.8) in die rechte Seite von (12.6) ein und erhalten
xn = n ln(n) + o(n ln(n)) für n → ∞ (12.9)
oder, äquivalent dazu,
xn ∼ n ln(n) für n → ∞.
2. Einsetzungsschritt: Wir setzen (12.9) in die rechte Seite von (12.6) ein und erhalten
xn = n ln(n ln(n)(1 + o(1)))
= n ln(n) + n ln ln(n) + n ln(1 + o(1))
= n ln(n) + n ln ln(n) + o(n) für n → ∞. (12.10)
3. Einsetzungsschritt: Wir setzen (12.10) in die rechte Seite von (12.6) ein. Damit erhalten
wir
xn = n ln(n ln(n) + n ln ln(n) + o(n))
ln ln(n) 1
= n ln n ln(n) 1 + +o
ln(n) ln(n)
ln ln(n) n
= n ln(n) + n ln ln(n) + n +o .
ln(n) ln(n)
Für die letzte Gleichung haben wir
ln(1 + h) = h + O(h2 ) für h → 0 (12.11)
und 2
ln ln(n) 1
=o für n → ∞ (12.12)
ln(n) ln(n)
benutzt. (12.11) folgt aus der Taylorformel, (12.12) mit der Regel von de l’Hospital – oder man
sieht es direkt. Also
ln ln(n) n
xn = n ln(n) + n ln ln(n) + n +o für n → ∞. (12.13)
ln(n) ln(n)
Wir könnten nun weitermachen mit einem vierten Einsetzungssschritt, wollen es aber bei (12.13)
belassen.
Wenn man mit (12.4) arbeitet, erhält man - mit derselben Methode, aber einer aufwendigeren
Rechnung -
ln ln(n) n
pn = n ln(n) + n ln ln(n) − n + n +O für n → ∞. (12.14)
ln(n) ln(n)
Was bringt (12.14)? Ein Vergleich mit der bereits hergeleiteten Formel
ln(n!) = n ln(n) − n + O(ln(n))
ergibt pn ∼ ln(n!) für n → ∞ und auch pn > ln(n!) für alle bis auf endlich viele n. Für
n = 1010 genügt (12.14) zwar nicht, um
p1010 = 252097800623 (12.15)
zu bekommen, aber immerhin erhält man mit n = 1010
ln ln(n)
n ln(n) + n ln ln(n) − n + n = 2.52986 . . . × 1011 ,
ln(n)
das heißt man bekommt in (12.15) die richtige Größenordnung und die ersten 3 Ziffern.
84
Trading tails
n
X 3n
An =
k
k=0
Wir möchten das asymptotische Verhalten von (An ) bestimmen. Damit kommen wir zurück
auf Beispiel 0.1.
3n
1. Schritt: 3n Eine erste Vermutung: Für festes n ist k → k monoton wachsend für k =
0, 1, . . . , 2 .. An kann also durch den größten Summanden nach unten abgeschätzt werden:
3n
An ≥ .
n
Gibt das bereits die richtige Größenordnung?
Wir vermuten: ∃α > 0, so dass
3n
An ∼ α für n → ∞. (12.16)
n
2. Schritt: Reskalieren und Umordnen der Summe
n 3n n n n
An X n−k
X n!(2n)! X n(n − 1) · · · (n − k + 1) X
sn = 3n = 3n
= = = bk,n .
n n
(n − k)!(2n + k)! (2n + 1)(2n + 2) · · · (2n + k)
k=0 k=0 k=0 k=0
(12.17)
Wir schätzen nun Zähler und Nenner von bk,n ab:
n(n − 1) · · · (n − k + 1) ≤ nk (12.18)
und
(2n + 1)(2n + 2) · · · (2n + k) ≥ (2n + 1)k ≥ (2n)k . (12.19)
Damit erhalten wir
nk 1
bk,n ≤ k
= . (12.20)
(2n) 2k
Also
n ∞
X 1 X 1
1 = b0,n ≤ sn ≤ ≤ = 2.
2k 2k
k=0 k=1
3. Schritt: Asymptotik der Summanden bk,n
1 k−1
n(n − 1) · · · (n − k + 1) = nk 1 − ··· 1 −
n n
k(k − 1)
≥ nk 1 − (12.21)
2n
Für die letzte Ungleichung benutzten wir folgende Verallgemeinerung der Bernoulli-Ungleichung:
Für a1 , . . . , an mit 0 < ai < 1, ∀i gilt
(1 − a1 ) · · · (1 − an ) > 1 − a1 − a2 − . . . − an .
(Beweis mit mit vollständiger Induktion.)
85
Da n gegen ∞ geht, können wir die in k quadratischen Terme in (12.21) und (12.22) vereinfachen
zu 2
k(k + 1) k k2
=O für →0
n n n
2
( kn → 0 bedeutet,
√ dass mit n → ∞ auch k → ∞ erlaubt ist, k aber nur so langsam wachsen
darf, dass k = o( n) gilt).
Mit der Taylorformel exp(h) = 1 + O(h) für h → 0 erhalten wir aus (12.21)
2
k k
n(n − 1) · · · (n − k + 1) ≥ n 1 + O
n
k2
k
n(n − 1) · · · (n − k + 1) = n 1 + O
n
2
k2
k
(2n + 1) · · · (2n + k) = (2n)k 1 + O für → 0.
n n
Damit gilt 2
k2
1 k
bk,n = 1+O für → 0. (12.23)
2k n n
4. Schritt: Summation über √ den Gültigkeitsbereich der Asymptotik
Für kn = dlog2 ne gilt kn = o( n), also
kn kn 2
X X 1 k
bk,n = k
1 + O
2 n
k=0 k=0
kn
!
(kn )2
X 1
= 1+O . (12.24)
2k n
k=0
∞
P
das heißt der Rest bk,n ist kleiner als der Approximationsfehler des Anfangsstückes in
k=kn +1
∞
1
P
(12.24). Dasselbe gilt für den Rest 2k
. Es spielt also keine Rolle, welchen Rest wir
k=kn+1
verwenden: wir können den einen gegen den anderen eintauschen (”trading tails”). Also gilt
86
für n → ∞
n
X kn
X n
X
sn = bk,n = bk,n + bkn
k=0 k=0 k=kn +1
kn n
ln(n)2
X 1 X
= + bk,n + O
2k n
k=0 k=kn +1
kn ∞
ln(n)2
X 1 X 1 1
= + +O +O
2k 2k n n
k=0 k=kn +1
∞
ln(n)2
X 1
= + O . (12.26)
2k n
k=0
f1 = 1, f2 = 1, f3 = 2, f4 = 3, f5 = 5, . . . , fn+1 = fn−1 + fn .
Es gilt √
1 n n 1+ 5
fn = √ (γ − (1 − γ) ) mit γ = . (12.30)
5 2
(Man findet (12.30) zum Beispiel mit dem Exponentialansatz fn = a1 z1n + a2 z2n , indem man
a1 , a2 , z1 , z2 ausrechnet). Damit gilt
1 1
f4n ∼ √ γ n = √ (6.85410 . . .)n .
5 5
Also gilt An < Bn für alle bis auf endlich viele n.
87
13 Euler-Maclaurin’sche Summenformel und Beweis der
Stirling-Formel
Wir wissen bereits, dass sich für monotone f Summe und Integral vergleichen lassen. Für
monoton wachsende f gilt
b−1
X Zb b
X
f (x) ≤ f (x)dx ≤ f (k) (a, b ∈ Z, a ≤ b), (13.1)
k=a a k=a+1
b
X Zb
f (k) − f (x)dx
k=a a
genauer betrachten.
Dabei ist a eine feste reele Zahl. Beachte: (13.7) ist für x ∈ Z definiert, aber die rechte Seite
ist ein Polynom in x, das sich für alle x ∈ R auswerten lässt.
Beispiel 13.1.
f (x) = x2
x−1
X
(Σf )(x) = k 2 = a2 + (a + 1)2 + . . . + (x − 1)2 .
k=a
Der Integraloperator ist in folgendem Sinne der inverse Operator des Ableitungsoperators
88
Genauso gilt
Wir setzen D−1 = ∫ , ∆−1 = Σ. Der Einfachheit halber lassen wir die Klammern weg, zum
Beispiel schreiben wir D(∫ f )(x) statt D(∫ (f ))(x) in (13.8).
Bilden wir nun auf beiden Seiten von (13.12) die (rechtsseitige) Inverse und wenden dann D
von links an, so erhalten wir
∞
X Bk
D∆−1 f (x) = D(eD − 1)−1 f (x) = Dk f (x) f ∈ C[x]. (13.13)
k!
k=0
Dabei sind (Bk )k=0,1,2,... die Bernoulli-Zahlen. Diese sind gegeben durch
∞
z X Bk
= zk (|z| < rB ). (13.14)
ez − 1 k!
k=0
89
Es gilt B0 = 1, denn g(0) = 1 und B1 = − 21 , denn
ez − 1 − zez
g 0 (z) = ,
(ez − 1)2
also
ez − ez − zez −ez − zez 1
g 0 (0) = lim z
= lim =− .
z→0 2(e − 1) z→0 2ez 2
Weiter gilt B2k+1 = 0 für k = 1, 2, 3, . . .. Dazu genügt es zu zeigen, dass
z
− B1 z
ez −1
eine gerade Funktion ist. In der Tat gilt
z z z ez + 1
+ = ·
ez − 1 2 2 ez − 1
z z
z e 2 + e− 2
= · z z
2 e 2 − e− 2
z −z
und z2 und e z22 +e− z22 sind beides ungerade Funktionen (ihr Produkt ist damit gerade). Also
e −e
bekommen wir aus (13.13)
∞
1 X B2k
D∆−1 f (x) = (1 − D + D2k )f (x), f ∈ C[x].
2 (2k)!
k=1
x Zx 2 bmc
X f (a) + f (x) X B2k (2k−1) t=x
f (k) = f (t)dt + + f (t)|t=a f ∈ C[x]. (13.15)
2 (2k)!
k=a a k=1
n Zn bmc
X
m m nm X 2
B2k
k = t dt + + m(m − 1) · · · (m − 2k + 2)nm−2k+1
2 (2k)!
k=1 0 k=1
bm
2 c
nm+1 nm
1 X m+1
= + + B2k · nm+1−2k .
m+1 2 m+1 2k
k=1
Dies folgt auch mit vollständiger Induktion. Insbesondere könnte man (13.15) zeigen, indem
man alle Polynome der Form f (x) = xm betrachtet, dann Linearkombinationen bildet etc.
Beispiel 13.3.
n
X n4 n3 n2 n2 (n + 1)2
k3 = + + =
4 2 4 4
k=1
90
Satz 13.4. Für das Restglied R2m (a, b) der Euler-Maclaurinschen Summenformel
b Zb m
X f (a) + f (b) X B2k (2k−1) t=b
f (k) = f (t)dt + + f (t)|t=a + R2m (a, b) (13.16)
2 (2k)!
k=a a k=1
gilt: Falls f : [a, b] → R eine (2m − 1)-fach stetig differenzierbare Funktion ist, so ist
Zb
B2m
|R2m (a, b)| ≤ |f (2m) (t)|dt.
(2m)!
a
f (x) = ln(x)
(k − 1)!
f (k) (x) = (−1)k−1 k = 1, 2, 3, . . . (13.17)
xk
n
P Rn
Wir haben ln(n!) = ln(k) und ln(t)dt = n ln(n) − n + 1. Mit (13.15) kann man zeigen: es
k=1 1
gibt eine Konstante σ > 0, so dass
m
1 X B2k
ln(n!) = n ln(n) − n + ln(n) + σ + + O(n−2m−1 ).
2 2k(2k − 1)n2k−1
k=1
Für mehr Information verweisen wir auf das Buch von F. Bornemann.
Beispiel 13.6. Für m = 4 bekommt man
1 1 1 1 1
ln(n!) = n ln(n) − n + ln(n) + σ + − + − + O(n−9 ).
2 12n 360n3 1260n5 1680n7
Insbesondere gilt also
√ n n
n! ∼ eσ n .
e
1
Bleibt zu zeigen: σ = 2 ln(2π). Auch dazu verweisen wir auf das Buch von F. Bornemann.
91