Beruflich Dokumente
Kultur Dokumente
Büro: C4P31
Email-Adresse: stefan.keppeleruni-tuebingen.de
Inhaltsverzei
hnis
1 Prolog: eiπ = −1 4
1.1 π . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Bemerkungen zur Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Vollständige Induktion 8
2.1 Geometris
he Summe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Kleiner Gauÿ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Prinzip der vollständigen Induktion . . . . . . . . . . . . . . . . . . . . . . 10
3 Binomis he Formel 12
5 Vektorre
hnung 53
5.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3 Lineare Glei
hungssysteme und allgemeiner Gauÿ-Algorithmus . . . . . . . 60
5.4 Unterräume, Dimension und Basis . . . . . . . . . . . . . . . . . . . . . . . 62
5.5 Skalarprodukt und Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3
5.6 Kreuzprodukt und Spatprodukt im R . . . . . . . . . . . . . . . . . . . . 70
5.7 Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.8 Kurven und Spezielle Koordinatensysteme . . . . . . . . . . . . . . . . . . 74
7 Komplexe Zahlen 87
7.1 Komplexe e-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.2 Cn , Cm×n und Verwandtes . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8 Integration 93
8.1 Uneigentli
he Integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.2 Integrationste
hniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
8.3 Riemanns
he Zwis
hensummen . . . . . . . . . . . . . . . . . . . . . . . . 104
2
11.4 Höhere Ableitungen und Satz von Taylor . . . . . . . . . . . . . . . . . . . 138
11.5 Lokale Minima und Maxima . . . . . . . . . . . . . . . . . . . . . . . . . . 142
11.6 Vektorwertige Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
11.7 Implizit denierte Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 146
11.8 Extremwerte unter Nebenbedingungen . . . . . . . . . . . . . . . . . . . . 150
12 Integration im Rn 156
12.1 Berei
hs- und iterierte Integrale . . . . . . . . . . . . . . . . . . . . . . . . 156
12.2 Oberä
henintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
12.3 Integralsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
3
1 Prolog: eiπ = −1
In diesem Vorspann werden wir zunä
hst no
h ni
ht mit der mathematis
hen Strenge,
iπ
die wir uns später zu eigen ma
hen wollen den Beweis der Glei
hung e = −1 skizzieren.
In der Zeit
vom 6. Juni 2007 (www.zeit.de/2007/24/N-Eulers
he-Zahl) wurde diese
iπ
Glei
hung, umgestellt zu e + 1 = 0, zur s
hönsten mathematis
hen Glei
hung s
hle
hthin
gekürt.
1.1 π
Deniert am Kreis dur
h
Umfang
π := ≈ 3,141 . . . (1.1)
Dur
hmesser
damit au
h
π = Halber Umfang des Einheitskreises (EK) ,
1.2 e
Wir verzinsen ein Guthaben, sagen wir 100 e, jährli
h mit einem Zinssatz z, z.B. z =
2,5% = 0,025.
Das Vermögen na
h einem Jahr erhalten wir dur
h Multiplikation mit dem Faktor 1 + z,
z.B. 100 e·1,025 = 102,50 e.
z
Bei halbjährli
her Verzinsung mit Zinssatz ist Faktor na
h einem Jahr
2
z z z 2 z 2
1+ 1+ = 1+ =1+z+ > 1+z, (1.2)
2 2 2 2
also attraktiver, wegen des Zinseszins'.
Ananalog:
z 12
z
• Monatli
he Verzinsung mit Zinssatz
12
, Faktor: 1+
12
z 365
z
• Tägli
he Verzinsung mit Zinssatz
365
, Faktor: 1+
365
• . . . wird immer mehr. Wie groÿ maximal?
z n
lim 1+ (1.3)
n→∞ n
4
Man zeigt (haben Sie in bereits der S
hule gesehen, analysieren wir aber au
h später
no
hmals genau)
n
z n 1
lim 1 + = exp(z) = ez und insbesondere lim 1 + = e ≈ 2,718 . . . (1.4)
n→∞ n n→∞ n
1.3 i
√
Wir denieren: i := −1.
√
Behauptung: (2,718 . . .)3,141... −1
= −1
1. Wie re
hnen wir mit i?
p
r : = x2 + y 2 (Abstand zum Ursprung)
und umgekehrt
x = r cos ϕ
(1.6)
y = r sin ϕ
No hmal Multiplikation,
2 Wir nennen r den Betrag und ϕ das Argument von z und s hreiben dafür: r = |z| und ϕ = arg(z).
5
Speziell r = 1: Multiplikation mit cos ϕ + i sin ϕ bewirkt Drehung um Winkel ϕ.
3. Kleine Winkel
n n
ϕ ϕ iϕ
cos ϕ + i sin ϕ = lim cos n
+ i sin n
= lim 1 + = eiϕ
n→∞ | {z } (∗) n→∞ n (1.10)
≈1+i ϕ
n
, wenn n groÿ
(∗)
Hier sind eine Näherung und ein Limes involviert, d.h. wir müssen genauer untersu
hen,
ob es erlaubt war, in der Klammer die Näherung zu verwenden. Dazu müssen wir zunä
hst
den bei der Näherung gema
hten Fehler abs
hätzen das wird später eine wi
htiges Thema.
6
1.4 Bemerkungen zur Notation
Zahlenmengen
http://xk d. om/179/
7
2 Vollständige Induktion
2.1 Geometris
he Summe
sn : = 1 + x + x2 + . . . + xn , x ∈ R (oder x ∈ C) (2.1)
Xn
= xk (x0 = 1) (2.2)
k=0
Behauptung: (n ∈ N0 )
xn+1 − 1
, x 6= 1
sn = x − 1 (2.3)
n+1 , x=1
n → n + 1:
(ii) Induktionss
hritt /
Behauptung sei für (ein festens) n bewiesen;
zu zeigen: Behauptung gilt au
h für n + 1
sn+1 = 1 + x + . . . + xn + xn+1
= sn + xn+1
xn+1 − 1
+ xn+1 , x 6= 1
= x − 1
I.V.
(2.6)
n+1+1 , x=1
xn+2 − 1
, x 6= 1
= x−1
n+2 , x=1
8
2. Beweis: (konstruktiv)
n
X
für x = 1: sn = 1=n+1
k=0
für x 6= 1:
sn = 1 + x + . . . + xn |·x (2.7)
xn+1 − 1
sn (x − 1) = xn+1 − 1 ⇐⇒ (2.9)
x6=1 x−1
n
X n
X n
X n
X n+1
X n
X
ν ν ν+1 ν ν
(x − 1)sn = xsn − sn = x x − x = x − x = x − xν
ν=0 ν=0
n n
! ν=0 ν=0 ν=1 ν=0
(2.10)
X X
= xn+1 + xν − x0 + xν = xn+1 − 1
ν=1 ν=1
sn : = 1 + 2 + . . . + n
n n
!
X X (2.11)
= k = k
k=1 k=0
Behauptung:
n(n + 1)
sn = (2.12)
2
1. Beweis: (konstruktiv)
sn = 1 + 2 + . . . + n
sn = n + (n − 1) + . . . + 1 (2.13)
2sn = n(n + 1)
n(n + 1)
⇒ sn =
2
9
2. Beweis: (dur
h vollständige Induktion)
(i) Induktionsanfang: n=1
1
X
s1 = k=1 (Denition) (2.14)
k=1
1·2
= =1 (Behauptung) (2.15)
2
(ii) n → n + 1:
n(n + 1) (n + 2)(n + 1)
sn+1 = sn + (n + 1) = + (n + 1) = (2.16)
2 2
n → n + 1:
Notation: Summenzei
hen
an ∈ R (oder ∈ C)
m
X
an + an+1 + . . . + am , m ≥ n
ak := (2.20)
0 , m<n
k=n
10
Indexvers
hiebung:
m
X m−n
X
ak = ak+n
k=n k=0
(2.21)
m+1
X
= al−1
l=n+1
Merke: Was man an den Grenzen abzieht, muss man am Index der Summanden addieren
(und umgekehrt).
Re henregeln:
n
X n
X n
X
ak + bl = (ak + bk ) (2.22)
k=0 l=0 k=0
n
X n
X
c ak = (cak ) (2.23)
k=0 k=0
n m
! m n
! m
n X
!
X X X X X
akl = akl =: akl (2.24)
k=0 l=0 l=0 k=0 k=0 l=0
Induktionsanfang:
Ein einfarbiges Pferd hat oensi
htli
h die glei
he Farbe (wie es selbst)
n → n + 1:
Wir betra
hten eine Menge von n+1 Pferden. Nehmen wir ein Pferd weg, so verbleiben n
Pferde. Na
h Induktionsvoraussetzung haben diese alle die glei
he Farbe. Nun nehmen wir
ein anderes Pferd weg und stellen das zuvor weggenommene wieder dazu. Wieder haben die
verbliebenen n Pferde na
h Induktionsvoraussetzung die glei
he Farbe. Den beiden jeweils
weggenommenen Pferden bleibt ni
hts anderes übrig, als au
h die glei
he Farbe zu haben.
(bzw. eben ni
ht!)
11
3 Binomis
he Formel
Ziel:
n
X
n
(a + b) = cnν aν bn−ν (3.1)
ν=0
Hintergrund: Ausmultiplizieren
m
Y
an · an+1 · · · am , m ≥ n
aν = (3.4)
1 , m<n
ν=n
Denition: (Binomialkoezient)
Für α∈R und k ∈ N sei
α α(α − 1) · · · (α − k + 1) α
:= sowie := 1 . (3.5)
k k! 0
Besser mit Produktzei
hen:
k−1
α 1 Y
= (α − ν) . (3.6)
k k! ν=0
12
(iii)
n n(n − 1) · · · (n − k + 1) (n − k)(n − k − 1) · · · 1
= ·
k k! (n − k)(n − k − 1) · · · 1
n!
= (3.10)
k!(n − k)!
n
=
n−k
(iv) Funktionalglei
hung
n n n+1
+ = (3.11)
k−1 k k
Beweis:
n n k n! n! (n − k + 1)
+ = +
k−1 k k (k − 1)!(n − k + 1)! k!(n − k)! (n − k + 1)
n!
= k + (n − k + 1)
k!(n − k + 1)! | {z }
=n+1 (3.12)
(n + 1)!
=
k!(n + 1 − k)!
n+1
=
k
Bemerkung: Aufbau des Pas als hen Dreie ks aus (i) und (iv).
Satz 1. (Binomi)
∀ a, b ∈ R (oder ∈ C) und ∀ n ∈ N0 gilt
n
X
n n
(a + b) = aν bn−ν . (3.13)
ν
ν=0
re
hts:
0
X
0 ν 0−ν 0
a b = a0 b0 = 1 · 1 · 1 = 1 (3.15)
ν 0
ν=0
. . .oder au
h n = 1:
linke Seite:
(a + b)1 = a + b (3.16)
13
re
hte Seite:
1
X
1 ν 1−ν 1 0 1−0 1 1 1−1
a b = a b + a b = b+a (3.17)
ν 0 1
ν=0
(ii) n → n + 1:
(a + b)n+1 = (a + b)(a + b)n
Xn
n ν n−ν
= (a + b) a b
I.V. ν
ν=0
X n n
n ν+1 n−ν X n ν n+1−ν
= a b + a b
ν ν
ν=0 ν=0
Xn+1 X n
n ν n−(ν−1) n ν n+1−ν
= a b + a b
ν−1 ν
ν=1 ν=0
Xn Xn
n n ν n+1−ν (3.18)
n+1 ν n+1−ν
=a + a b + a b + bn+1
ν −1 ν
ν=1 ν=1
Xn
n n
= an+1 + + aν bn+1−ν + bn+1
ν−1 ν
ν=1 | {z }
n + 1
=
ν
Xn+1
n + 1 ν n+1−ν
= a b
ν
ν=0
Beispiele:
1.
(a + b)2 = a2 + 2ab + b2 (3.19)
2.
(x − y)3 = x3 − 3x2 y + 3xy 2 − y 3 (3.20)
3.
n
X
n n n
(1 + 1) = 2 = (3.21)
ν
ν=0
n!
lim √ n = 1 (3.23)
n→∞ 2πn ne
14
Merke: Die Fakultät wä
hst also im Wesentli
hen wie nn .
(1 + x)n ≥ 1 + nx (3.24)
≥ 1 + (n + 1)x
15
4 Funktionen einer reellen Variablen
Intervalle I⊂R
abges
hlossenes Interval: I = [a, b] = {x ∈ R | a ≤ x ≤ b}
oenes Interval: I = (a, b) = {x ∈ R | a < x < b}
oder gemis
ht, z.B. 1 ∈ (0, 1] aber 0 ∈/ (0, 1].
Bemerkungen: R = (−∞, ∞) , R \ {0} = (−∞, 0) ∪ (0, ∞)
Funktionen
D⊆R (d.h. Teilmenge oder glei
h R, z.B. ein Intervall)
f :D→R
(4.1)
x 7→ f (x)
f :D→W ⊂R
x 7→ f (x)
(4.3)
g:W →R
y 7→ g(y)
Dann existiert au
h eine Abbildung
g◦f :D →R
(4.4)
x 7→ (g ◦ f )(x) := g(f (x))
Beispiele:
1.
x 7→ x5 + 1 x 7→ x3 − 2 (4.6)
16
Bemerkung: I.A. ist f ◦ g 6= g ◦ f (hier z.B. Ausre
hnen mit Binomi)
2.
f : R+ +
0 → R0 g:R→R (4.8)
√
x 7→ x x 7→ x2 − 1 (4.9)
√
R+
0 ∋ x 7→ g( x) = x − 1 (4.10)
4.1 Folgengrenzwerte
Eine (unendli
he) Folge (an ) reller (oder au
h komplexer) Zahlen ist eine Abbildung von
N (oder N0 ) na
h R, d.h. wir ordnen jedem n∈N ein an ∈ R (oder C) zu.
Denition: (Grenzwert)
Eine (unendli
he) Folge (an ) konvergiert gegen den Grenzwert α, wenn gilt:
Für jedes ǫ>0∃ ein N(ǫ), so dass |an − α| < ǫ ∀ n ≥ N(ǫ). Man s
hreibt dann
lim an = α . (4.11)
n→∞
an
N(ǫ) n
Beispiele:
1. (an ) = 1, 21 , 31 , . . . d.h. an = 1
n
, n∈N konvergiert gegen Null,
1
lim an = lim = 0. (4.12)
n→∞ n→∞ n
Bemerkung: Ist der Grenzwert 0, so spre
hen wir von einer Nullfolge.
17
2. Die Folge 1, −1, 1, −1, 1, . . ., d.h. an = (−1)n , n ∈ N0 konvergiert ni
ht.
3. Die Folge (an ) mit an = n2 konvergiert ni
ht (divergiert). Hier sagen wir die Folge strebt
na
h Unendli
h und s
hreiben
lim n2 = ∞ . (4.13)
n→∞
Re
henregeln: Sei lim an = α und lim bn = β ( 6= ∞, also konvergent) dann gilt:
n→∞ n→∞
1. lim (an + bn ) = α + β
n→∞
2. lim (an bn ) = αβ
n→∞
3.lim 1 = α1 falls α 6= 0
n→∞ an
Merke: Auseinanderziehen erlaubt, falls alles konvergent
4.2 Funktionsgrenzwerte
Denition: (Grenzwert)4
Eine Funktion f hat an der Stelle x0 den Grenzwert α, wenn gilt: Für jedes ǫ>0∃ ein
δ(ǫ) > 0, so dass |f (x) − α| < ǫ ∀ x ∈ D mit x 6= x0 und |x − x0 | < δ(ǫ). Man s
hreibt
dann
lim f (x) = α . (4.14)
x→x0
2δ f (x)
x0 x
18
Beispiele:
1. lim x2 = 4
x→2
1
2. lim = ∞, denn
x→0 x2
1 1 1
>K ⇔ x2 < ⇔ |x| < √ (4.15)
x2 K K
d.h. δ(K) = √1 tut's.
K
✘
x2 − 1 x2 − 1 ✘(x✘−✘1)(x + 1)
3. lim = 2, denn = ✘ (für x 6= 1)
x→1 x − 1 x−1 ✘x✘
−1
1
4. f (x) = besitzt bei x=0 keinen Grenzwert, denn
x
f (x) > 1 ∀ 0<x<1 und
(4.16)
f (x) < −1 ∀ −1 < x < 0.
Bemerkungen:
1. Gilt lim f (x) = lim f (x) so existiert der Grenzwert (und ist glei
h den Beiden).
x→x0 + x→x0 −
2. Man s hreibt au h
obwohl das eher wie ein links- bzw. re
htsseitiger Grenzwert aussieht.
Genauer:
Def.
lim f (x) = α ⇐⇒ für jedes ε > 0 ∃ K(ε) < ∞, so dass |f (x) − α| < ε ∀ x > K(ε).
x→∞
Beispiele:
1.
1 3x + 2
lim =0 oder lim =0 (Zählergrad kleiner Nennergrad) (4.20)
x→∞ x x→∞ 4x2
19
2.
x2 + 1 x2 + 1
lim =∞ oder lim = −∞ (Zählergrad gröÿer Nennergrad)
x→∞ x − 3 x→−∞ x − 3
(4.21)
3.
x+5 1 + 2x2 2
lim =1 oder lim = (Zählergrad glei
h Nennergrad)
x→∞ x − 4 x→∞ 2x + 3x2 3
(4.22)
Re
henregeln: Sei lim f (x) = α und lim g(x) = β (wobei |α|, |β| < ∞) dann gilt:
x→x0 x→x0
1. lim f (x) + g(x) = α + β ,
x→x0
2. lim f (x) g(x) = αβ ,
x→x0
3. lim 1 = 1
, falls α 6= 0.
x→x0 f (x) α
4.3 Stetigkeit
Denition: (Stetigkeit)
Eine Funktion f ist stetig an der Stelle x0 , wenn gilt: Für jedes ǫ>0∃ ein δ > 0, so dass
|f (x) − f (x0 )| < ǫ ∀ x 6= x0 mit |x − x0 | < δ .
Wir fordern also dreierlei:
1. f (x) ist an der Stelle x = x0 deniert.
2. Der Grenzwert an der Stelle x0 existiert.
3. Grenzwert und Funktionswert stimmen überein.
Weiter sagt man f ist stetig auf einem Intervall I ⊆ R wenn f in jedem Punkt x0 ∈ I
stetig ist.
Beispiele:
1. Monome & Polynome sind überall stetig, rationale Funktionen überall dort, wo der
Nenner ni
ht Null ist.
2.
1
f (x) = (4.23)
x2
Untersu
he Stetigkeit bei x0 = 0:
f (0) existiert ni
ht ⇒ 0 (Singularität, Polstelle)
ni
ht stetig in
3.
1 , x>0
f (x) = sgn(x) = 0 , x=0 (4.24)
−1 , x < 0
20
Untersu
he Stetigkeit bei x0 = 0:
f (0) = 0 existiert
lim f (x) existiert ni
ht, denn
x→0
⇒ ni
ht stetig in 0 (Sprungstelle)
4.
1 , x≤2
f (x) = (4.26)
x , x>2
Untersu
he Stetigkeit bei x0 = 2:
f (2) = 1 existiert,
lim f (x) = 1 = f (2),
x→2−
aber lim f (x) = 2
x→2+
⇒ ni
ht stetig in 2 (Sprungstelle)
Merke: Eine stetige Funktion kann man ohne Absetzen zei
hen.
5.
1 , x 6= 1
f (x) = (4.27)
3 , x=1
Untersu
he Stetigkeit bei x0 = 1:
f (1) = 3 existiert,
aber lim f (x) = 1
x→1
⇒ ni
ht stetig in 1
6.
x2 − 1
f (x) = , x 6= 1 (4.28)
x−1
Untersu
he Stetigkeit bei x0 = 1:
f (1) ist ni
ht deniert (0 dur
h 0 Denitionslü
ke), also au
h ni
ht stetig in 1.
Allerdings existiert lim f (x) = 2 (s.o.); deniere na
hträgli
h
x→1
f (1) := 2 , (4.29)
=x+1
7.
1 , x<1
f (x) = (4.31)
x , x≥1
Untersu
he Stetigkeit bei x0 = 1:
f (1) = 1, lim = 1 und lim = 1,
x→1+ x→1−
also stetig in 1
21
Analog zu den Re
henregeln für Grenzwerte gilt:
4.4 Asymptoten
Nähert si
h eine Funktion einer Geraden beliebig nahe an, so nennt man die Gerade eine
Asymptote der Funktion (bzw. des Funktionsgraphs).
5 Wir s
hreiben dafür au
h f (x) ∼ ax + b und meinen dann ni
ht nur lim f (x)
= 1 (vgl. Abs
hnitt 3,
x→±∞ ax+b
Stirlings
he Formel) sondern au
h f (x) − ax ∼ b, d.h. lim f (x)−ax
b = 1.
x→±∞
22
3x2 + 4
3. f (x) =
x−1
senkre
hte Asymptote x=1
s
hiefe Asymptote. . . Polynomdivision
7 (4.35)
3x2 + 4 : x − 1 = 3x + 3 +
x−1
− 3x2 + 3x
3x + 4
− 3x + 3
7
4.5 Dierentiation
Denition: Sei I ⊂ R oen, x ∈ I . Die Funktion f : I → R heiÿt dierenzierbar in x, falls
f (x + h) − f (x)
lim (4.36)
h→0 h
existiert. Wir nennen dann
d f (x + h) − f (x)
f ′ (x) := f (x) := lim (4.37)
dx h→0 h
die Ableitung von f an der Stelle x. Ist f ∀ x ∈ I dierenzierbar, so heiÿt f auf I
dierenzierbar.
Ans hauli h: f ′ (x) ist die Steigung der Tangente an f im Punkt (x, f (x)).
23
Analog für höhere Ableitungen:
2
′′ (2) d
f (x) = f (x) = f (x)
dx (4.38)
′′′ (3) d3 f
f =f = 3 et
.
dx
lim f (x + h) = f (x)
h→0
gelten. (Stetigkeit in x)
Beispiele:
1. f : x 7→ xn , n ∈ N0
n = 0: f (x) ≡ 1
⇒ f (x + h) − f (x) = 0 ∀h und ∀x
⇒ f ′ (x) ≡ 0
beliebige n ≥ 1:
n
!
n
(x + h) − x n
1 X n
lim = lim xn−ν hν − xn
h→0 h h→0 h ν
ν=0
n
X n−1
X
n n−ν nν−1
= lim x h = lim xn−ν−1 hν
h→0 ν h→0 ν+1
ν=1 ν=0
" # (4.39)
n−1
n n−1 X n
= lim x + xn−ν−1 hν
h→0 1 ν +1
|ν=1 {z }
−→ 0
h→0
n−1
= nx
′ 1 1 1
f (x) = lim −
h→0 h x+h x
1 x − (x + h)
= lim (4.40)
h→0 h x(x + h)
1 −✓h 1
= lim =− 2
h→0 ✓
h x(x + h) x
24
2.
x , x≥0
f (x) = |x| = (4.41)
−x , x < 0
′ 1 , x>0
f (x) = (4.42)
−1 , x < 0
f ′ (0) existiert ni
ht.
3. 1 ≤ k < n, f (x) = xn
Satz 3. (Dierentiationsregeln)
Seien f g in x dierenzierbar. Dann gilt
und
(iii) Kettenregel
Sei f dierenzierbar in g(x) ⇒ f ◦ g ist dierenzierbar in x mit
d
f (g(x)) = f ′ (g(x)) g ′(x) (4.46)
dx
Beweise folgen direkt aus Re henregeln für Grenzwerte (i); oder glei h mit Klein-o (i)(iii).
′ ′ ′
f 1 ′1 g f ′g − f g′
= f =f +f − 2 = (Quotientenregel) (4.48)
g g g g g2
Beispiele:
′ ′
1. (x2 + 1)5 + 7x = (x2 + 1)5 + 7 = 5(x2 + 1)4 (2x) + 7
(i) (iii)
25
√ 1
2. f (x) = n
x = xn, x>0 (n ∈ Z \ {0})
deniere g(x) = xn ⇒ g◦f existiert
1 n
g(f (x)) = x n = x , x>0 (4.49)
⇒ (g ◦ f )′ (x) = 1
n−1
= g ′(f (x)) f ′ (x) = n[f (x)]n−1 f ′ (x) = nx n f ′ (x)
(iii) (4.50)
1 1−n 1 1
⇒ f ′ (x) = x n = x n −1
n n
3.
1 2x
f (x) = , f ′ (x) = − (4.51)
x2 +1 (iii) (x2 + 1)2
|f (x)|
lim = 0. (4.54)
x→x0 |g(x)|
Beispiele:
1. x2 = o(x), x → 0
2. x3 = o(x), x → 0
3. x = o(x2 ), x → ∞
4. e−x = o(x−n ), x → ∞, ∀ n ∈ N (Beweis später)
5. x = o(1), x → 0
6. x o(x) = o(x2 ), x → 0
Was bedeutet diese Glei
hung eigentli
h?
Jedes Klein-o, das irgendwo auftau
ht, ist ein Platzhalter für eine Funktion, die wir
ni
ht genau kennen, oder die wir ni
ht genauer angeben wollen, für die wir aber etwas
über ihr Verhalten in einem bestimmten Limes wissen.
2
In Worten bedeutet x o(x) = o(x ), x → 0, also:
26
Wenn g(x) für x→0 s
hneller vers
hwindet als x,
dann vers
hwindet x g(x) für x→0 sogar s
hneller als x2 .
Und wie zeigt man das? Zum Beispiel so (hier alles für x → 0):
g(x) x g(x)
g(x) = o(x) ⇔ lim =0 ⇔ lim =0 ⇔ x g(x) = o(x2 )
x→0 x x→0 x2
Und na
hdem wir so etwas einmal gezeigt haben, merken wir uns, dass wir mit
diesem Argument beliebig Faktoren in das Argument des Klein-o hinein (oder aus
ihm heraus) ziehen dürfen.
7. Analog zeigt man au
h o(x) + o(x2 ) = o(x), x → 0 oder o(x) o(x) = o(x2 ) (siehe
Übungen). Zusammen können wir das dann z.B. wie folgt verwenden:
1 + x + o(x) 5 − x + o(x) = 5 + 4x + o(x), x → 0, denn
Beispiele:
27
2. l'Hospitals
he Regel.6 Wir su
hen
f (x) 0
lim = , (4.56)
x→x0 g(x) 0
✟ ✟0
✯
f (x) ✟0 ) + f ′ (x0 )(x − x0 ) + o(x − x0 )
f (x
lim = lim ✟
✯0 ′
✟
✟0✟
x→x0 g(x) x→x0
✟ ) + g (x0 )(x − x0 ) + o(x − x0 )
g(x
f ′ (x0 ) + o(1) (4.57)
= lim
x→x0 g ′(x0 ) + o(1)
f ′ (x0 )
= .
g ′ (x0 )
1
f (x) 0
vom Typ “ ”
g(x)
α := lim = lim 1
x→x0 g(x) x→x0
f (x)
0
g′ (x)
(g(x))2 (f (x))2 g ′ (x) g ′ (x)
= lim f ′ (x)
= lim 2 ′
= α2 lim ′
x→x0 x→x0 (g(x)) f (x) x→x0 f (x)
(f (x))2
f ′ (x)
⇒ α = lim (falls existent!)
x→x0 g ′ (x)
28
4.6 Die Exponentialfunktion
Eulers
he Zahl: n
1
an := 1+ (4.59)
n
Wir zeigen zunä
hst, dass an na
h oben und unten bes
hränkt ist:
n
1
1+ ≥1+1=2 (Bernoullis
he Unglei
hung, Satz 2) (4.60)
n
n X n ν
1 n 1
1+ = (Binomi, Satz 1)
n ν n
ν=0
Xn
n(n − 1) · · · (n − ν + 1) 1
= ν
ν=0 |
n
{z } ν!
≤1
Xn Xn (4.61)
1 1
≤ =1+
ν=0
ν! ν=1
ν!
n n−1 ν n
X 1 X 1 1 − 12
≤ 1+ = 1 + = 1 + 1 (geom. Summe)
(∗)
ν=1
2ν−1 ν=0
2 2
≤1+2=3
In (∗) haben wir verwendet, dass ν! ≥ 2ν−1 für ν ≥ 1.
Beweis dafür: (vollständige Induktion)
ν = 1: 1! = 1 = 20
ν → ν + 1: (ν + 1)! = (ν + 1) · ν! ≥ (ν + 1) · 2ν−1 ≥ 2ν .
I.V. ν≥1
an+1
Jetzt zeigen wir no
h, dass an monoton wa
hsend ist, d.h. z.z. ist an+1 ≥ an bzw.
an
≥ 1:
1
n+1
1+ n+1 (n + 1 + 1)n+1 nn+1 n + 1
n =
1 + n1 (n + 1)n+1 (n + 1)n+1 n
n+1
n + 1 (n + 1 + 1)(n+1 − 1)
=
n (n + 1)2 (4.63)
n+1 n+1
n + 1 (n + 1)2 − 1 n+1 1
= = 1−
n (n + 1)2 n (n + 1)2
n+1 1
≥ 1− =1 (Bernoullis
he Unglei
hung, Satz 2)
n n+1
29
Die Folge an wä
hst monoton und ist na
h oben bes
hränkt es bleibt ihr ni
hts anderes
übrig, als zu konvergieren. Den Grenzwert nennen wir e (Eulers
he Zahl), und wir wissen
bereits n
1
2 ≤ e = lim 1 + ≤3 (4.64)
n→∞ n
Numeris
h ndet man e = 2, 718281828459 . . .
Exponentialfunktion: Wir denieren
x n
exp(x) := lim 1+ , x ∈ R, (4.65)
n→∞ n
x
und s
hreiben später au
h exp(x) = e .
x
(Dass e eine bere
htige S
hreibweise ist, ist erst no
h zu zeigen vgl. Satz 5, (ii).)
Bemerkungen:
1. Analog zu oben zeigt man au
h hier, dass die Folge für alle x∈R monoton wä
hst
und bes
hränkt ist ⇒ Konvergenz. (Details ni
ht s
hwierig, nur unhübs
h)
8
3.
exp(x) ≥ 1 + x , (4.66)
8
n
x n X n x ν X n(n − 1) · · · (n − ν + 1) |x|ν
n
1+ ≤ =
n ν n n ν
ν=0 ν=0 | {z } ν!
≤1
n
X N
X −2 n
X
|x|ν |x| ν
|x|ν
≤ = +
ν! ν! ν!
ν=0 ν=0 ν=N −1
n−N +2
N
X −2
|x|ν Xn
|x|ν
N
X −2
|x|ν X+1 |x|ν+N −1
n−N N
X −2
|x|ν 1 − |x|
N
≤ + +1
= + = + |x|N −1
1 − |x|
ν! N ν−N ν! N ν ν!
(+) ν=0 ν=0 ν=0 ν=0
ν=N −1 N
N
X −2
|x|ν N
≤ + |x|N −1 , (+) : ν! ≥ N ν−N +1 für ν ≥ N − 1 (vollst. Ind.) ,
ν=0
ν! N − |x|
also na
h oben bes
hränkt, da Ergebnis ni
ht von n abhängt
(N wird allein dur
h x festgelegt, |x| < N ≤ n)
n+1
1+ x n+1 n+1
n+1 (n + 1 + x)n+1 nn n+x n2 + n + nx n+x x
x n
= = = 1− 2
1+ n
(n + x)n (n + 1)n+1 n n2 + nx + n + x n n + nx + n + x
n+1
n+x x n+x x
= 1− ≥ 1− =1
n (n + 1)(n + x) n (n + x)
(Bernoulli klappt wieder für |x| < n, also für hinrei
hend groÿe n.)
30
denn x n
1+ ≥ 1 + x , falls x > −n , (Bernoulli) (4.67)
n
d.h. falls n groÿ genug; ⇒ lim (1 + nx )n ≥ 1 + x.
n→∞
4.
exp(x) ≤ x exp(x) + 1 (4.68)
n
x n x n x n x2
1+ (1 − x) ≤ 1 + 1− = 1− 2 , (4.69)
n (∗) n n n
x2
0≤ 1− 2 ≤1 (4.70)
n
und damit au h die Potenz, und für n→∞ folgt die Behauptung.
5. x n
lim 1+ =1 (4.71)
n→∞ n2
Beweis:
n
x n X n x ν 1 n x ν
Xn
1+ 2 = =1+
n ν n2 nν ν n
ν=0 ν=1
n
1 X n x ν (4.72)
≤1+ −→ 1
n ν=1 ν n n→∞
| {z }
bes
hränkt dur
h exp(x)
x
n
Analog gilt lim 1 + n1+ǫ
= 1 ∀ ǫ > 0.
n→∞
(i) exp(0) = 1
(ii) Funktionalglei
hung exp(x) exp(y) = exp(x + y)
(iii) exp(x) > 0 ∀x ∈ R
(iv) exp ist streng monoton wa
hsend, d.h.
31
(vi) exp ist dibar ∀x∈R mit exp′ = exp
(vii) lim exp(x) = ∞ und lim exp(x) = 0
x→∞ x→−∞
exp(x)
(viii) ∀n ∈ N gilt lim xn
=∞ und lim |x|n exp(x) = 0
x→∞ x→−∞
Beweise:
(ii)
x n y n
1+ 1+ −→ exp(x) exp(y)
n n n→∞ !n
n n
x + y xy x+y xy
= 1+ + 2 = 1+ 1+
n n n n2 1 + x+y
n
| {z }
−→ 1 (Bem. 5)
n→∞
−→ exp(x + y)
n→∞
(4.74)
1
(iii) x ≥ 0: ex > 0 (lt. Def.) ⇒ e−x =
> 0, d.h. ex > 0 au
h für x < 0
ex
x
Bemerkung: Aus der Denition von exp (oder aus Bem. 3) folgt sogar e > 1 ∀ x > 0.
y−x
(iv) x < y: ey = ey+x−x = ex e|{z} > ex
>1
x+h x
(v) z.z.: lim e =e
h→0
1
+ h} ≤ eh ≤
1| {z , (4.76)
1 − h
| {z }
−→ 1
h→0 −→ 1
h→0
also au
h lim eh = 1.
h→0
(vi)
ex+h − ex eh − 1
= ex (4.77)
h h
d.h. ex dibar in x ⇔ ex dibar in Null.
32
Wieder lt. Bem. 3 und 4 gilt für h > 0:
1+h−1 eh − 1 heh + 1 − 1
≤ ≤
h h h
(4.78)
eh − 1
d.h. 1≤ ≤ eh −→ 1 ,
h h→0
eh −1
also lim h
=1 (und analog für h < 0).
h→0+
4.7 Umkehrfunktionen
Denition: f : A → B (z.B. A, B ⊆ R) heiÿt
surjektiv, falls jedes b ∈ B als Bild auftritt (b ∈ B ⇒ ∃a ∈ A mit f (a) = b),
injektiv, falls: a 6= ã ⇒ f (a) 6= f (ã) ∀ a, ã ∈ A,
bijektiv, falls f surjektiv und injektiv ist.
Bemerkungen:
f :R→R
(4.80)
x 7→ x2
f : R → R+0
(4.81)
x 7→ x2
surjektiv.
f : R → R+ 0
2 (4.82)
x 7→ x
33
ist ni
ht injektiv, denn (−1)2 = 12 aber −1 6= 1.
f1 : R+
0 → R0
+
, f2 : R−
0 → R0
+
(4.83)
x 7→ x2 x 7→ x2 (4.84)
f −1 : B → A
(4.85)
b = f (a) 7→ a
−1 1
genannt Umkehrfunktion von f . f 6=
f
4. f : A → B bijektiv
⇒ es existiert f −1 : B → A
−1
d.h. f ◦ f : A → A sowie f ◦ f −1 : B → B
−1
mit (f ◦ f )(x) = f −1 (f (x)) = x ∀ x ∈ A
−1
und (f ◦ f )(x) = f (f −1 (x)) = x ∀ x ∈ B
5. Der Graph von f −1 ist der Graph von f gespiegelt an der ersten Winkelhalbierenden.
1.
f1 : R+ +
0 → R0 , f1−1 : R+ +
0 → R0 (4.87)
2
√
x 7→ x x 7→ x
f2 : R− +
0 → R0 , f2−1 : R+
0 → R0
−
(4.88)
√
x 7→ x2 x 7→ − x
f2−1 ◦ f2 : R− −
0 → R0 , f2 ◦ f2−1 : R+ +
0 → R0 (4.89)
2. f : R → R, f (x) = x ⇒ f −1 = f
3. f : R → R, f (x) = x2 + x
1
f ′ (x) = 2x + 1 : f ′ (x) > 0 ∀ x > − (4.90)
2
1
f ′ (x) < 0 ∀ x < −
2
34
f (− 12 ) = − 41 , lim = ∞ , f stetig (4.91)
x→±∞
y = x2 + x ⇔ x2 + x − y = 0 (4.94)
√ q
−1 ± 1 + 4y
quadratis
he Glei
hung: x= = − 12 ± y+ 1
4
2
q
⇒ f1−1 (x) = − 12
+ x+ 1
4
q (4.95)
f2−1 (x) = − 21 − x + 1
4
′ 1
f −1 (x) = . (4.96)
f ′ (f −1 (x))
Beweis:
Man zeigt zunä
hst, dass f −1 dibar ist (ohne Beweis).
Dann wenden wir auf f (f −1 (x)) = x die Kettenregel an,
′
f ′ (f −1 (x)) · f −1 (x) = 1 . (4.97)
35
4.8 Der Logarithmus
Denition: Die Umkehrfunktion von exp : R → R+ heiÿt (natürli
her) Logarithmus,
log : R+ → R (4.98)
lim ex = 0, lim ex = ∞
x→−∞ x→∞
⇒ exp(R) = (0, ∞)
Beweis:
(i) e0 = 1 ⇒ log 1 = 0
e1 = e ⇒ log e = 1
(ii) elog x+log y = elog x elog y = xy = elog(xy)
x
Da e injektiv folgt Behauptung.
1 1 1
(log x)′ = = = . (4.99)
exp′ (log(x)) exp(log(x)) x
36
4.9 Weitere elementare Funktionen
Allgemeine Exponentialfunktion
R → R+
(4.100)
x 7→ ax := ex log a .
Es gilt dann
log(ax ) = log ex log a = x log a . (4.101)
loga : R+ → R
log x (4.102)
x 7→ loga x := .
log a
Denn, z.B.,
log(ax ) x log a
loga (ax ) = = = x. (4.103)
log a log a
Also:loge = log = ln.
Au
h gebräu
hli
h: lb := log2 , ld := log2 , lg := log10 .
R+ → R+
(4.104)
x 7→ xα := eα log x .
β β
xα = x(α ) , log xα = log(xα ) (4.106)
37
4.10 Trigonometris
he Funktionen
Einheitskreis (Kreis mit Radius 1)
Umfang 2π (Denition von π)
Spezielle Werte:
sin 0 = 0 , cos 0 = 1
π π (4.109)
sin = 1, cos =0
2 2
Translationen:
38
π
3. Für 0<x< 2
gilt (siehe Abbildung):
Additionstheoreme:
Beweis:
π
Laut Translationseigens
haften genügt es, die Additionstheoreme für x, y > 0, x + y < 2
zu beweisen.
PSfrag repla
ements
x y
b
a
A1 h
H A2
p q
h = a cos x , h = b cos y
p = a sin x , q = b sin y
ph ab sin x cos y qh ab cos x sin y
A1 = = , A2 = = (∗)
2 2 2 2
Hb ab sin(x + y)
A1 + A2 = = (+)
2 2
(∗) und (+) ⇒ Behauptung
cos(x + y) = sin(x + y + π2 )
= sin x cos(y + π2 ) + cos x sin(y + π2 ) (4.113)
Ableitungen:
(sin x)′ = cos x und (cos x)′ = − sin x (4.114)
39
Beweis: (für sin x; cos x folgt aus sin(x + π2 ) = cos x)
1 1 1
> >
sin x x tan x (4.116)
sin x
⇒ 1 > > cos x −→ 1
x x→0
und damit
sin h
lim =1 (analog für h → 0−) (4.117)
h→0+ h
arccot : R → (0, π)
40
Ableitungen (Hauptzweige): (mit Satz 6)
1 1
(arcsin x)′ = =√
cos(arcsin(x)) 1 − x2
1 1
(arccos x)′ = = −√
− sin(arccos(x)) 1 − x2
′
′ sin x cos2 x + sin2 x 1 (4.121)
(tan x) = = 2
=
cos x cos x cos2 x
= 1 + tan2 x
1 1
(arctan x)′ = 2 =
1 + tan (arctan x) 1 + x2
4.11 Potenzreihen
Beispiel: Die endli
he geometris
he Reihe war (x 6= 1)
n
X 1 − xn+1
xν = . (4.122)
ν=0
1−x
∞
X 1
xν = , (4.123)
ν=0
1−x
P
∞ P
n
wobei aν := lim aν , d.h. wir untersu
hen das Verhalten
ν=0 n→∞ ν=0
P
n
der Folge der Partialsummen, sn := aν für n → ∞.
ν=0
∞
X
Reihe: an (Summe mit Grenze ∞)
n=m
∞
X
(4.124)
Potenzreihe in x: an xn
n=m
∞
X
oder au
h an (x − x0 )n mit festem x0 ∈ R
n=m
Allgemeine Idee: Su
he Approximation für Funktion f in der Nähe von x0 (so oft dibar
wie nötig):
41
• f stetig in x0 ⇒ kann dort ni
ht springen einfa
hste Näherung: f (x) ≈ f (x0 ) für x
in der Nähe von x0
′′
• Näherung, g(x), soll au
h Änderung der Steigung (f ) berü
ksi
htigen Ansatz:
Oensi
htli
h gilt bereits f (x0 ) = g(x0 ) und f ′ (x0 ) = g ′ (x0 ). Bestimme c aus Forde-
rung
!
f ′′ (x0 ) = g ′′ (x0 ) (4.126)
′′
f (x0 )
g ′′(x) = 2c ⇒ c= . (4.127)
2
Höhere Näherungen: Ansatz,
n
X
Tf,n (x) = cν (x − x0 )ν (4.128)
ν=0
!
f (µ) (x0 ) = Tf,n (µ) (x0 ) , µ = 0, . . . , n (4.129)
n
X
(µ)
Tf,n (x) = ν(ν − 1) · · · (ν − µ + 1) cν (x − x0 )ν−µ
ν=µ (4.130)
42
d.h. wir erhalten
f (ν) (x0 )
cν = (4.131)
ν!
Wir nennen
n
X f (ν) (x0 )
Tf,n (x) = (x − x0 )ν (4.132)
ν=0
ν!
das n-te Taylor-Polynom von f und
∞
X f (ν) (x0 )
Tf (x) = (x − x0 )ν (4.133)
ν=0
ν!
• Ist Tf,n (x) eine gute Näherung für f (x) in der Nähe von x0 ?
• Konvergiert Tf (x)? (Und für wel
he x, und gegen wel
hen Wert?)
Vermutung: Nä hster Term der Entwi klung als Maÿ für den Fehler . . . ?
f (n+1) (ξ)
Rn (x) = (x − x0 )n+1 . (4.135)
(n + 1)!
Bemerkungen:
4. Falls lim |Rn (x)| > 0 (oder gar ni
ht existent), dann divergiert Tf (x) (meistens) oder
n→∞
konvergiert gegen eine andere Funktion (selten).
43
5. Sei |x1 − x0 | < |X − x0 | < |x2 − x0 |, dann gilt:
PSfrag repla
ements aus lim |Rn (X)| = 0 ⇒ lim |Rn (x1 )| = 0
n→∞ n→∞
(4.137)
aus lim |Rn (X)| > 0 ⇒ lim |Rn (x2 )| > 0
n→∞ n→∞
|X − x0 |
x′2 x′1 x0 x1 X x2
1. |x| < 1:
X ∞
1
= xν (s.o.) (4.139)
1 − x ν=0
Für |x| > 1 divergiert die Reihe (Summanden wa
hsen an).
|x| < K ∈ R+ :
(n+1)
f (ξ) ξ x · x··· x
|Rn (x)| = x = e
n+1
(n + 1)! 1 · 2 · · · (n + 1)
K x·x ··· x x · x ··· x
≤ e
K<N ≤n 1 · 2 · · · (N − 1) N · (N + 1) · · · (n + 1) (4.141)
N −1 n−N +2
K x
K
≤ e −→ 0
(N − 1)! N n→∞
| {z } | {z }
hängt ni
ht von n ab −→ 0, da K/N < 1
n→∞
Also
∞
X
x xν
e = ∀ x ∈ R. (4.142)
ν=0
ν!
44
3. f (x) = log(1 + x), |x| < 1
X X ∞ ∞
′ 1
f (x) = = (−x)ν = (−1)ν xν (4.143)
1 + x ν=0 ν=0
∞
X xν+1
Da (−1)ν +c gliedweise dierenziert f ′ (x) ergibt, vermuten wir
ν=0
ν+1
∞
X xν
log(1 + x) = c − (−1)ν , (4.144)
ν=1
ν
X∞
(−1)ν
sin x = x2ν+1 ∀x∈R (4.149)
ν=0
(2ν + 1)!
analog:
cos(2ν) (x) = (−1)ν cos x, cos(2ν+1) (x) = (−1)ν+1 sin x, also
∞
X (−1)ν
cos x = x2ν ∀x∈R (4.150)
ν=0
(2ν)!
45
6.
X ∞
1
′
(arctan x) = = (−1)ν x2ν , |x| < 1 (4.151)
1 + x2 ν=0
folgere
X∞
x2ν+1
arctan x = (−1)ν +c (4.152)
ν=0
2ν + 1
mit c=0 da arctan 0 = 0.
7.
∞ ∞
sin x 1 X (−1)ν X (−1)ν x2
= x2ν+1 = x2ν = 1 − + o(x2 ) (4.153)
x x ν=0 (2ν + 1)! ν=0
(2ν + 1)! 6
8. Anwendung: Grenzwerte bere
hnen
1 1 1 1 1
= = =− ·
1−x 1 − (x − 3) + 3 −2 − (x − 3) 2 1 + x−3
2
X∞ n X ∞ n+1 (4.155)
1 x−3 (−1)
=− − = n+1
(x − 3)n
2 n=0 2 n=0
2
x−3
für <1 ⇔ |x − 3| < 2
2
10.
∞
! ∞
!
ex X xν X
= xµ , für |x| < 1 (wg. geom. Reihe)
1−x ν=0
ν! µ=0
x2 (4.156)
= 1+x+ + o(x ) 1 + x + x2 + o(x2 )
2
2
5
= 1 + 2x + x2 + o(x2 ) , x → 0
2
46
allgemein (Cau
hy-Produkt):
! ! n := ν + µ
∞ ∞ ∞ X
∞
X X X n : 0 . . . ∞
aν xν bµ xµ = aν bµ xν+µ
ν: 0...n
ν=0 µ=0 ν=0 µ=0
µ = n − ν (4.157)
∞ X
X n
= aν bn−ν xn
n=0 ν=0
∞
! ∞
!
ex X xν X
= xµ , |x| < 1
1−x ν=0
ν! µ=0
X∞ X n
1 n (4.158)
= x
n=0 ν=0
ν!
1 1 1 1 1 1
= + + x+ + + x2 + o(x2 )
0! 0! 1! 0! 1! 2!
11. Weitere Anwendung: Lokale Extrema
Warum? Taylor!
f (n−1) (x0 ) f (n) (ξ)
f (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + . . . + (x − x0 )n−1 + (x − x0 )n
(n − 1)! n! | {z }
| {z } >0
=0
(4.159)
ξ liegt zwis
hen x0 und x, und
(n)
wenn f (x0 ) < 0 dann ist au
h f (n) (x) < 0 ∀ x in einer Umgebung von x0 ,
(n)
d.h. das VZ von f (ξ) wird dur
h das VZ von f (n) (x0 ) festgelegt.
47
Oft ist es allerdings besser, glei
h die Taylor-Reihe der fragli
hen Funktion zu be-
tra
hten, vgl. erstes Beispiel im nä
hsten Abs
hnitt. . .
4.12 Kurvendiskussion
• Denitionsberei
h
• Verhalten am Rand des Denitionsberei
hs
(Asymptoten, Denitionslü
ken, stetige Fortsetzbarkeit, . . . )
• Nullstellen
• Extrema
• Skizze
Beispiele:
1 − x4
1. f (x) = deniert ∀x∈R
1 + x4
Spiegelsymmetrie (Spiegelung an y-A
hse), denn f (−x) = f (x)
Verhalten am Rand des Denitionsberei
hs: lim f (x) = −1
x→±∞
4
Nullstellen: f (x) = 0 ⇔ x = 1 ⇔ x = ±1
Extrempunkte:
′ −4x3 (1 + x4 ) − (1 − x4 )4x3
f (x) =
(1 + x4 )2
(4.160)
−8x3 !
= 4 2
=0 ⇔ x=0
(1 + x )
f (x) = (1 − x4 ) 1 − x4 + |x8 − x{z
12
+ . .}. = 1 − 2x4 + o(x4 ) (4.161)
geom.R.
=o(x4 )
48
1.5
1 −x4
1 +x4
y = −1
1
0.5
−0.5
−1
−1.5
−5 −4 −3 −2 −1 0 1 2 3 4 5
x3 + 1
2. f (x) =
x2 − 1
Denitionsberei
h: R \ {−1, 1}
Zähler bei x = −1 au
h Null:
x3 + 1 : x + 1 = x2 − x + 1 (4.162)
− x3 − x2
− x2
x2 + x
x+1
−x−1
0
x2 − x + 1
f (x) = (4.163)
x−1
Pol (erster Ordung, also mit Vorzei
henwe
hsel) bei x = 1,
1
d.h. f (x) ∼ → ±∞ für x → 1±
x−1
Verhalten für groÿe |x|:
entweder dur
h Polynomdivision...
1 (4.164)
x2 − x + 1 : x − 1 = x +
x−1
− x2 + x
49
...oder dur
h Taylorentwi
klung
x − 1 + x1
f (x) =
1− 1
x
1 1 1
= x−1+ 1 + + 2 + ...
|x|>1 x x x (4.165)
1−1+1
= x + (1 − 1) + + ...
x
1
= x+ + ...
x
also f (x) ∼ x → ±∞ für x → ±∞
Nullstellen:
√
2 1± 1−4
f (x) = 0 ⇔ x −x+1=0 ⇔ x= ∈
/R (4.166)
2
keine (in R)
Ableitung:
(iii) Untersu he f ′′ :
50
um Null:
x2 − x + 1 −1 + x − x2
f (x) = =
x−1 1−x
= −1 + x − x2 1 + x + x2 + x3 + . . . (4.169)
2 2 2
= −1 + (−x + x) + (−x + x − x ) + . . .
= −1 − x2 + . . .
x2 − x + 1
f (x) =
x−1
(x − 2)2 + 4x − 4 + x + 1
=
x−2+1
2
(x − 2) + 3(x − 2) + 3
= (4.170)
1 + (x − 2)
= 3 + 3(x − 2) + (x − 2)2 1 − (x − 2) + (x − 2)2 − (x − 2)3 + . . .
= 3 + (3 − 3)(x − 2) + (3 − 3 + 1)(x − 2)2 + . . .
= 3 + (x − 2)2 + . . .
51
r
1
3. f : x 7→ x−
x
1 1
Denitionsberei
h: x 6= 0 und x − ≥0⇔x≥
x x
2
(i) für x > 0: x ≥ 1 ⇒ x ≥ 1
2
(ii) für x < 0: x ≤ 1 ⇒ x ≥ −1
also: Denitionsberei
h [−1, 0) ∪ [1, ∞)
Ableitung:
′ 1 + x12
f (x) = q >0 ∀x∈D (4.171)
2 x − x1
...am Rand des Denitionsberei
hs:
Skizze:
52
5 Vektorre
hnung
5.1 Vektorräume
im WS 21/22 ohne Gruppen und Körper Vektorräume immer über R, später au
h über C
Denition: (Gruppe)
Sei G 6= ∅ eine Menge und ◦ eine Verknüpfung ◦ : G × G → G.
(G, ◦) heiÿt Gruppe falls gilt:
(G1) aus a, b ∈ G ⇒ a ◦ b ∈ G (Abges
hlossenheit)
(folgt eigentli
h bereits aus ◦ : G × G → G, ist aber gut, das explizit festzuhalten)
(G2) (a ◦ b) ◦ c = a ◦ (b ◦ c) ∀ a, b, c ∈ G (Assoziativität)
(G3) ∃ e ∈ G mit a ◦ e = a = e ◦ a ∀ a ∈ G (neutrales Element)
−1
(G4) für jedes a ∈ G ∃ a ∈ G mit a ◦ a−1 = e = a−1 ◦ a (inverses Element)
(wobei e das neutrale Element aus (G3) ist)
⇔ ẽ ◦ e = e
(G4)
⇔ ẽ = e Widerspru
h
(G3)
⇔ (b ◦ a) ◦ a−1 = e ◦ a−1
⇔ b ◦ (a ◦ a−1 ) = e ◦ a−1 (5.2)
(G2)
−1
⇔ b◦e=e◦a
(G4)
⇔ b = a−1 Widerspru
h
(G3)
53
z◦a=b | ◦ a−1 von re
hts
⇔ z = b ◦ a−1 = y Widerspru h
Denition: (Körper)
Sei K 6= ∅ eine Menge mit zwei Verknüpfungen, + : K × K → K und · : K × K → K.
(K, +, ·) heiÿt Körper, falls gilt:
(K1) (K, +) ist eine abels
he Gruppe mit neutralem Element 0.
(K2) (K \ {0}, ·) ist ebenfalls eine abels
he Gruppe.
(K3) (a + b) · c = a · c + b · c ∀ a, b, c ∈ K (Distributivität)
Bemerkungen:
54
Beispiele
+ 0 1 2 · 0 1 2
0 0 1 2 0 0 0 0
(5.8)
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1
2. Aus (G1) für (V, +) und (V1) ⇒ λ~a + µ~b ∈ V ∀ λ, µ ∈ K und ∀ ~a, ~b ∈ V
Beispiele
1. R über R
55
2. Ebene R2 , Raum R3 über R
n
allgemein R mit komponentenweiser Vektor-Addition und skalarer Multiplikation
a1 b1
a2 b2
~b =
~a, ~b ∈ Rn : ~a = .. , .. (5.9)
. .
an bn
a1 + b1 λa1
a2 + b2 λa2
~a + ~b = .. , λ~a = .. (5.10)
. .
an + bn λan
3. Polynome (beliebigen Grads) über R
n
X m
X
P (x) = aν xν , Q(x) = bν xν , aν , bν , x ∈ R (5.11)
ν=0 ν=0
n max{n,m}
X X
ν
(λP )(x) = λP (x) = λaν x , (P +Q)(x) = P (x)+Q(x) = (aν +bν )xν ,
ν=0 ν=0
(5.12)
(wobei aν = 0 ∀ ν > n und bν = 0 ∀ ν > m)
übrigens ∞-dimensional (später)
n
X
3. ~a1 , ~a2 , . . . , ~an heiÿen l.u. ⇔ aus λj~aj = ~0 folgt λj = 0 ∀ j = 1, . . . , n
j=1
56
Bemerkungen:
n
X n
X
λj~aj = µj~aj ⇔ λj = µ j ∀ j = 1, . . . , n (5.13)
j=1 j=1
2. Sind ~a1 , ~a2 , . . . , ~an ∈ Rn l.u. so spannen sie den gesamten Rn auf, d.h. für jeden Vektor
~b ∈ Rn gibt es eindeutig bestimmte Koezienten λj , so dass
n
X
~b = λj~aj (5.14)
j=1
Beispiel:
1 1 0
~a1 = 0 ,
~a2 = 1 ,
~a3 = 1
(5.15)
1 0 1
Fragen:
λ1 + λ2 = 1
λ2 + λ3 = 2 (5.17)
λ1 + λ3 = 3
Umformen: erlaubte Operationen
• Vorsi
ht: Zu einer Zeile, die wir zu einer anderen Zeile addieren, im glei
hen S
hritt
ni
ht au
h etwas hinzuaddieren!
Gauÿ-Algorithmus:
• Rü kwärtselimination
57
kompakte S
hreibweise
!
1 1 0 | 1 −1
0 1 1 | 2
1 0 1 | 3 !←−+
1 1 0 | 1
0 1 1 | 2
0 −1 1 | 2! ←−+
1 1 0 | 1
0 1 1 | 2 (∗)
0 0 2 | 4! | · 1/2
(5.18)
1 1 0 | 1
0 1 1 | 2 ← −+
0 0 1 | 2! −1
1 1 0 | 1 ← −+
0 1 0 | 0 −1
0 0 1 | 2!
1 0 0 | 1
0 1 0 | 0
0 0 1 | 2
Die Lösung steht in der letzten Spalte:
λ1 = 1 , λ2 = 0 , λ3 = 2 . (5.19)
2λ3 = 4 ⇒ λ3 = 2
λ2 + λ3 = 2 ⇒ λ2 = 2 − λ3 = 0 (5.20)
λ1 + λ2 = 1 ⇒ λ1 = 1 − λ2 = 1
2
~a3 = 1 , (5.21)
1
58
also !
1 1 2 | 0 −1
0 1 1 | 0
1 0 1 | 0 !←−+
1 1 2 | 0
0 1 1 | 0
0 −1 −1 | 0! ←−+
(5.22)
1 1 2 | 0 ← −+
0 1 1 | 0 −1
0 0 0 | 0!
1 0 1 | 0
0 1 1 | 0
0 0 0 | 0
d.h.
λ3 = t , λ1 = λ2 = −t (5.23)
0 · λ1 + 0 · λ2 + 0 · λ3 = 4 Widerspru h! (5.25)
59
oben: eindeutige Lösung x1 = 1, x2 = 2, x3 = 3.
unten: wähle x3 = t ∈ R beliebig,x2 = 5 − t, x1 = t − 2, d.h. die allgemeine Lösung wäre
−2 1
~x = 5 + −1 t
zu viel!!! (5.27)
0 1
Erster S
hritt war verboten!
wobei
L: Rn → Rm
x1 Xn
.. (5.30)
~x = . 7→ L(~x) = xj~aj
xn j=1
60
Beweis:
(i) L(λ~xh1 + µ~xh2 ) = λL(~xh1 ) + µL(~xh2 ) = ~0 + ~0
(ii) ⇐: L(~y ) = L(~y p + ~x) = L(~y p ) + L(~x) = ~b + ~0 = ~b
x := ~y − ~y p, L(~x) = L(~y ) − L(~y p ) = ~b − ~b = ~0
⇒: ~
∗ ∗ ∗ ··· ∗ ··· ∗ b̃1
0 0 ∗ ··· ∗ ··· ∗ b̃2
0 0 0 ∗ ··· ∗ ··· ∗ b̃3 r Zeilen
. .. .. .. . . .
.. . . . .
.
.
.
.
.
(5.34)
0 0 ∗ · · · ∗ b̃r
0 0 · · · 0 b̃r+1
.
0 0 ··· 0 .
. m−r Zeilen
0 ··· 0 ··· 0 b̃m
1. sind Zahlen 6= 0.
2. ∗ sind irgendwel
he Zahlen.
1. Zeile der Form (0 · · · 0|b̃j ) mit b̃j 6= 0 bedeutet: LGS hat keine Lösung.
2. Spalten ohne entspre hen frei wählbaren Variablen (parametrisiere so die Lösung).
3. Variablen, die Spalten mit entspre
hen, sind dur
h die Zeile, in der steht, fest-
gelegt (von unten na
h oben arbeiten).
0 b̃m
Beispiele:
61
1.
1 2 1 1
0 0 2 4 (5.36)
0 0 0 2
hat keine Lösung.
2.
1 2 1 1
0 0 2 4 , (5.37)
0 0 0 0
x3 = 2, x2 = t ∈ R beliebig,x1 = 1 − x3 − 2t = −1 − 2t, bzw.
−1 −2
~x =
0 + 1 t, t ∈ R.
(5.38)
2 0
3.
1 2 1 1
0 1 2 4 , (5.39)
0 0 1 0
x3 = 0, x2 = 4 − 2x3 = 4, x1 = 1 − 2x2 − x3 = −7 (eindeutig).
62
⇒ Es gibt ni
httriviale Lösungen, d.h. die Vektoren sind l.a.
Also ist dim Rn < n + 1 und damit = n.
Denition: (Unterraum)
Sei V Vektorraum über K . U heiÿt Unterraum von V, falls gilt:
(i) U ⊆V
(ii) U ist ein Vektorraum (über K ).
Bemerkungen:
2. dim U ≤ dim V
Beispiele:
3. Sind die Vektoren ~a1 , . . . , ~an l.u. und bilden ein Erzeugendensystem von V , so heiÿen
sie Basis von V.
Bemerkungen:
63
1. Die Vektoren
1 ~b = 0 , 1
~a = , ~c = , (5.45)
0 1 1
spannen den R2 auf, sind aber keine Basis, da ~a + ~b = ~c
2. Die kanonis
hen Einheitsvektoren ~ej (s.o.), j = 1, . . . , n, mit Komponenten (~ej )k =
δjk , wobei
1 für j=k
δjk = (5.46)
0 sonst
das Krone ker-Symbol ist, bilden eine Basis des Rn (die kanonis he Basis).
3. Die Vektoren
1 1 0
~x1 = 1 , ~x2 = 0 , ~x3 = 1 , (5.47)
0 1 1
bilden eine Basis des R3 .
4. {1} ist eine Basis von C als VR über C, d.h. dim C = 1.
5. {1, i} ist eine Basis von C als VR über R, d.h. dim C = 2.
Satz 10.
Seien ~a1 , . . . , ~an ∈ Rm . Die Dimension von span (~a1 , . . . , ~an ) ist glei
h der Anzahl der in
der Zeilenstufenform von
~a1 ~a2 · · · ~an ~0 . (5.48)
64
5.5 Skalarprodukt und Norm
Wdh: Länge/Betrag eines Vektors aus Rn und Skalarprodukt zweier Vektoren. Das moti-
viert die folgenden Denitionen. . .
Denition: (Norm)
Sei V ein Vektorraum überR. Eine Abbildung k · k : V → R+
0 heiÿt Norm,
wenn ∀~ a, ~b ∈ V und ∀ λ ∈ R gilt:
ak = 0 ⇔ ~a = ~0
(N1) k~
(N2) kλ~ak = |λ|k~ak
a + ~bk ≤ k~ak + k~bk (Dreie
ksunglei
hung)
(N3) k~
Denition: (Skalarprodukt)
Sei V ein Vektorraum über R. Eine Abbildung h·, ·i : V × V → R heiÿt Skalarprodukt,
wenn ∀~a, ~b, ~c ∈ V und ∀ λ ∈ R gilt:
(S1) h~a, ~bi = h~b, ~ai (symmetris
h)9
(S2) h~a, λ~bi = λh~a, ~bi
h~a, ~b + ~ci = h~a, ~bi + h~a, ~ci (linear)
(S3) h~a, ~ai ≥ 0, wobei h~a, ~ai = 0 ⇔ ~a = ~0 (positiv denit)
Beweis:
(N1) folgt aus (S3). Zu (N2):
p p p p p
kλ~ak = hλ~a, λ~ai = λhλ~a, ~ai = λh~a, λ~ai = λ2 h~a, ~ai = |λ| h~a, ~ai = |λ|k~ak
(S2) (S1) (S2)
(5.50)
9 Später werden wir au
h Normen und Skalarprodukte für Vektorräume über den komplexen Zahlen C
betra
hten; dann muss ledigli
h (S1) modiziert werden.
65
h~a, ~bi
wähle λ= ,
k~bk2
2 2 2
h~a, ~bi
2 h~a, ~bi 2 h~a, ~bi
0 ≤ k~ak + −2 = k~ak −
k~bk2 k~bk2 k~bk2
(5.52)
2
⇔ h~a, ~bi ≤ k~ak2 k~bk2
Damit (N3):
v
uX
u n 2
|~a| := k~ak = t aj (5.56)
j=1
Interpretation:
.
a1 x1
66
• R3 zweimal Pythagoras (Raumdiagonale)
x2
a2
PSfrag repla
ements
d2 = a21 + a23
~a
|~a|2 = d2 + a22
= a21 + a22 + a23
.
x1
d a3
.
x3 a1
~a
3. Winkel zwis
hen ~a und ~b
• im R2 :
PSfrag repla
ements
~b ~b − ~a
h |~a| = p + q
φ p . q
~a
67
• im Rn : verlege Skizze in die Ebene, in der ~a und ~b liegen
|h~a,~bi|
• allgemein: (CS) stellt si
her, dass
k~akk~bk
≤ 1, d.h. wir können immer
~
arccos k~h~
a,bi
akk~bk
als Winkel zwis
hen den Vektoren ~ a, ~b betra
hten.
4. ~e heiÿt Einheitsvektor, falls k~ek = 1.
~a, ~e ∈ Rn , |~e| = 1:
~a · ~e ist die Projektion von ~a auf die Ri
htung von ~e, denn
~a
~a · ~e = |~a| cos φ
Allgemein für ~a, ~e ∈ V , k~ek = 1:
Nenne h~a, ~ei = k~ak cos φ die Projektion von ~a auf die Ri
htung von ~e.
Denition: (Orthogonalität)
Zwei Vektoren ~a, ~b ∈ V heiÿen orthogonal zueinander, falls h~a, ~bi = 0.
Bemerkungen:
Denition: (ON-Basis)
Eine Basis, deren Elemente paarweise orthogonal sind, heiÿt Orthogonal-Basis. Sind die
Vektoren zusätzli
h normiert, d.h. haben sie alle Norm 1, dann bilden sie eine Orthonormal-
Basis (ONB).
Kurz: {~aj }j=1,...,dim V ONB ⇔ h~aj , ~ak i = δjk ∀ j, k = 1, . . . , dim V
68
Beispiele: Betra
hteV = R2 mit dem kanonis
hen Skalarprodukt:
1 0 1 1 √1
1
1. ~
e1 = , ~
e2 = bilden eine ONB, 2. ~
a1 = √2 , ~
a2 = au
h.
0 1 1 2 −1
Basis-Entwi
klung eines Vektors:
gegeben: ~a ∈ V und ONB {~cj } von V
gesu
ht: ~a als LK der ~cj , d.h.
n
X
~a = λj~cj
j=1
3
Beispiel: ~b = mit Basen aus vorherigem Beispiel:
−1
~b = 3~e1 − e~2
√ √ (5.64)
~b = 2 ~a1 + 2 2 ~a2
~a1
~c1 = (5.65)
k~a1 k
~b2
~b2 = ~a2 − h~c1 , ~a2 i~c1 ~c2 = (5.66)
k~b2 k
~b3
~b3 = ~a3 − h~c1 , ~a3 i~c1 − h~c2 , ~a3 i~c2 ~c3 = (5.67)
k~b3 k
.
.. (5.68)
n−1
X ~bn
~bn = ~an − h~cj , ~an i~cj ~cn = (5.69)
j=1 k~bn k
Bemerkung: Sind die Start-Vektoren {~a1 , . . . , ~an } l.a. so ergibt si
h irgendwann der Null-
vektor ~0 (evt. mehrfa
h) weglassen! ⇒ Die ~cj 6= ~0 bilden eine ONB von span(~a1 , . . . , ~an ).
Beispiel:
1 1
~a1 = 1 , ~a2 = 2 , V = lineare Hülle der beiden (5.70)
0 0
69
ONB bezügli
h kanonis
hem Skalarprodukt:
1
1
~c1 =√ 1 ,
2 0
1 1 −1
~b2 3 1 1
= 2 − √ · √ 1 = 1 , (5.71)
2 2 2
0 0 0
−1
1
~c2 =√ 1.
2 0
a1 b1 a2 b3 − a3 b2
~a × ~b = a2 × b2 := a3 b1 − a1 b3 . (5.72)
a3 b3 a1 b2 − a2 b1
(vi) falls ~a × ~b 6= ~0, bilden ~a, ~b und ~a × ~b ein Re htssystem (re hte Hand-Regel)
70
F = |~a|h
PSfrag repla
ements
~b = |~a||~b| sin φ
h p (5.73)
= |~a||~b| 1 − cos2 φ
φ . q
= |~a|2 |~b|2 − |~a~b|2
~a
einerseits:
andererseits:
~a(~a × ~b) = a1 a2 b3 − a1 a3 b2 + a2 a3 b1 − a2 a1 b3 + a3 a1 b2 − a3 a2 b1 = 0
(5.76)
~b(~a × ~b) = −~b(~b × ~a) = 0
71
Denition: (Spatprodukt)
Die Abbildung |·, ·, ·| : R3 × R3 × R3 → R,
~
~a, b, ~c = (~a × ~b) · ~c (5.77)
heiÿt Spatprodukt.
Eigens
haften:
~ ~ ~
1. ~
a , b, ~c =
b, ~
c , ~
a = ~
c , ~
a , b
~ ~
2. b, ~a, ~c = − ~a,PSfrag
b, ~c repla
ements
~c
~ h
3. Der Betrag von ~ a, b, ~c ist
~b
glei
h dem Volumen des, von
den Vektoren aufgespannten, φ |~a × ~b|
Parallelepipeds bzw. Spats.
~a
Beweis:
(iii) speziell im R2
gegeben: Punkt ~p1 und Normalenri
htung ~n ~n⊥g )
(kurz:
g = ~x ∈ R2 | (~x − p~1 )~n = 0
(5.80)
= ~x ∈ R2 | ~x~n = α , α = ~p1~n .
• parameterfreie Darstellung
72
• Falls |~n| = 1, dann ist |α| der Abstand der Gerade vom Ursprung.
~n
~v
.
(0, 0)
Ebenen:
E = {~x ∈ Rn | ~x = ~p1 + ~v s + wt
~ , s, t ∈ R} (5.81)
(ii) gegeben: zwei Punkte p~1 , p~2 ∈ Rn und eine Ri htung ~v ∈ Rn mit p~2 − p~1 , ~v l.u.,
(iii) gegeben: drei Punkte p~1 , p~2 , p~3 ∈ Rn mit ~p2 − ~p1 , ~p3 − ~p1 l.u.,
(iv) speziell im R3
gegeben: Punkt ~p1 und ~n⊥E ,
E = ~x ∈ R3 | (~x − p~1 )~n = 0
(5.84)
= ~x ∈ R3 | ~x~n = α , α = p~1~n .
• parameterfreie Darstellung
• Falls |~n| = 1, dann ist |α| der Abstand der Ebene vom Ursprung.
• Darstellung heiÿt Hesses
he Normalform, falls |~n| = 1 und ~n so, dass α ≥ 0.
73
5.8 Kurven und Spezielle Koordinatensysteme
Polarkoordinaten im R2 :
~x = ( xy ) ∈ R2 lässt si
h au
h dur
h Radi-
us r ∈ [0, ∞) (Abstand zum Ursprung) und ~eφ
Winkel φ ∈ [0, 2π)
harakterisieren,
Umgekehrt: φ
x
x = r cos φ , y = r sin φ (5.87)
Denition: (Kurven im Rn )
Eine Abbildung
~x : R⊇I → Rn
x1 (t)
. (5.91)
t 7→ ~x(t) = ..
xn (t)
heiÿt Kurve im Rn .
Die (Momentan-)Ges
hwindigkeit (entlang der Kurve) ist die (komponentenweise) Ablei-
tung na
h t,
ẋ1
d .
~x˙ (t) = ~x(t) = .
. . (5.92)
dt
ẋn
Analog: Bes
hleunigung ~x¨(t) = d2
dt2
~x(t).
74
Beispiele:
1.
2.
1
~x(t) = ~at2 , ~a ∈ R3 fest
2 (5.94)
⇒ ˙~x(t) = ~at , ~x¨(t) = ~a
r(t) cos φ(t)
~x(t) = (5.95)
r(t) sin φ(t)
Ges hwindigkeit:
!
ṙ(t) cos φ(t) − r(t) sin φ(t) φ̇(t)
~x˙ (t) =
ṙ(t) sin φ(t) + r(t) cos φ(t) φ̇(t)
cos φ(t) − sin φ(t) (5.96)
= ṙ(t) + r(t) φ̇(t)
sin φ(t) cos φ(t)
75
Kugelkoordinaten im R3 : z
x
~x = yz ∈ R3 lässt si
h dur
h Radius
r = |~x| und zwei Winkel, θ und φ,
ha-
rakterisieren, ~x
x PSfrag
r sin θ cos φ repla
ements θ
~x = y = r sin θ sin φ , (5.98)
y
z r cos θ
φ r sin θ
r ∈ [0, ∞), θ ∈ [0, π], φ ∈ [0, 2π).
x
Umgekehrt:
p
r = x2 + y 2 + z 2 ,
φ = arctan xy (Zweig bea
hten!) , (5.99)
θ = arccos √ z (da
z
r
= cos θ).
x2 +y 2 +z 2
76
6 Matrizen und Determinanten
6.1 Matrizen
Denition: Eine m × n-Matrix A ist ein re
hte
kiges Zahlens
hema,
a11 a12 · · · a1n
a21 a22 · · · a2n
A = .. .
.
. ,
.
(6.1)
. . .
am1 am2 · · · amn
mit m Zeilen und n Spalten. Die aij ∈ R (oder ∈ C) heiÿen Elemente (oder Komponenten)
der Matrix. Wir s
hreiben
A = (aij ) (6.2)
2. Die Addition zweier Matrizen glei hen Typs denieren wir komponentenweise,
A = (aij ) , B = (bij )
(6.5)
C = A + B mit C = (cij ) , cij = aij + bij ,
z.B.
1 2 5 6 6 8
+ = . (6.6)
3 4 7 8 10 12
3. Ebenso die Multiplikation mit Skalaren,
A = (aij ) , λ ∈ R
(6.7)
D = λA mit D = (dij ) , dij = λaij ,
z.B.
1 2 2 4
2· = (6.8)
3 4 6 8
77
4. Damit wird Rm×n Vektorraum über R mit den übli
hen Re
henregeln und Dimension
m×n
dim R = mn.
Neutrales Element der Addition bzw. Nullvektor ist die Nullmatrix:
0 ··· 0
0 = ... . . . ... . (6.9)
0 ··· 0
Denition: Für zwei Matrizen A = (aij ) ∈ Rm×ℓ und B = (bij ) ∈ Rℓ×n denieren wir das
Matrixprodukt dur
h
ℓ
X
C = AB mit C = (cij ) , cij = aik bkj , (6.10)
k=1
Bemerkung: Ebenso wird für A ∈ Cm×ℓ und B ∈ Cℓ×n das Produkt AB ∈ Cm×n deniert.
Beispiel:
1 4 0 0
1 2 3
A= ∈ R2×3 , B = 0 5 1 0 ∈ R3×4
0 1 0
0 6 0 1 (6.11)
1 32 2 3
AB = ∈ R2×4
0 5 1 0
zum Re
hnen:
1 4 0 0
0 5 1 0
0 6 0 1
1 2 3 1 32 2 3 (6.12)
0 1 0 0 5 1 0
32 = 1 · 4 + 2 · 5 + 3 · 6
BA ist hier gar ni
ht deniert!
Bemerkungen:
1. Ist z.B. A ∈ R2×3 und B ∈ R3×2 so existieren zwar sowohl AB als au
h BA, haben
2×2 3×3
aber unters
hiedli
he Form: AB ∈ R , BA ∈ R .
78
3.
1 0··· 0
.. .
..
0 1 .
I = . .. ..
∈ Rn×n (6.14)
.. . . 0
0 ··· 0 1
heiÿt Einheitsmatrix, mit Elementen
1 für j=k
I = (δij ) , δjk = , (Krone
ker-δ ) (6.15)
0 sonst
AI = IA = A , (6.16)
Re henregeln:
1. (A1 + A2 )B = A1 B + A2 B
A(B1 + B2 ) = AB1 + AB2
2. λ(AB) = (λA)B = A(λB)
3. A(BC) = (AB)C
wobei λ ∈ R, alles andere Matrizen, Typen so, dass alle Produkte deniert.
Beweis: Na
hre
hnen.
Denition: Sei A = (aij ) ∈ Rm×n . Die Matrix AT = (aTij ) ∈ Rn×m mit Elementen
1. (A + B)T = AT + B T
2. (λA)T = λAT
3. (AT )T = A
79
4. (AB)T = B T AT , denn, mit C = AB
X X X
cTij = cji = ajk bki = aTkj bTik = bTik aTkj , (6.20)
k k k
also C T = B T AT .
Anwendung (Matrixprodukt): Lineare Glei
hungssysteme.
Spezialfall: A ∈ Rn×n , ~x, ~b ∈ Rn : quadratis hes LGS (n Glei hungen für n Unbekannte),
A~x = ~b (6.23)
Denition: Sei A ∈ Rn×n . Wir nennen A−1 die zu A inverse Matrix, falls gilt
Bemerkungen:
A2 = A
B |{z} Widerspru
h! (6.26)
=0
80
Bere
hnung: A ∈ Rn×n , betra
hte
AX = I (6.28)
!
AX = (A~x1 , . . . , A~xn ) = (~e1 , . . . , ~en ) (6.30)
d.h. wir lösen simultan die n LGSe A~xi = ~ei . Praktis h: Gauÿ-Algorithmus
A | I
.
. (6.31)
.
−1
I | A
Beispiel:
a b
A= (6.32)
c d
a b | 1 0 − ac | · 1/a
c d | 0 1 ← −+
1
1 b
a ac 0
0 ad−bc − 1 |· a
a a ad−bc
1 b 1
0 ← −+ (6.33)
a a
0 1 − c a − ab
ad−bc ad−bc
1 bc b
1 0 a + a(ad−bc) − ad−bc
c a
0 1 − ad−bc ad−bc
1 bc 1 ad − bc + bc d
+ = = (6.34)
a a(ad − bc) a ad − bc ad − bc
also
−1 1 d −b
A = , falls ad − bc 6= 0 . (6.35)
ad − bc −c a
81
6.2 Determinanten
a1 b1 0
a b
det 1 1 = a1 b2 − a2 b1 = a2 × b2 = 0
a2 b2
0 0 3
a1 b2 − a2 b1 3
ist also Flä he (mit Vorzei hen) des, von den Vektoren
a1 b
~a = , ~b = 1 ∈ R2
a2 b2
1 0
det = 1, det ~a, ~b = − det ~b, ~a .
0 1
die das Volumen des, von den Spaltenvektoren der Matrix aufgespannten Parallelepipeds
liefert (mit Orientierung, d.h. VZ) ⇒ Gewüns
hte Eigens
haften:
(ii) Normierung
det I = det (~e1 , . . . ~en ) = 1
(Volumen des n-dimensionalen Einheitswürfels: 1 · 1 · · · 1 = 1n = 1)
(iii) Alternierend, d.h. we
hselt das Vorzei
hen, wenn wir zwei Spalten vertaus
hen.
Folgerungen:
(i) ⇒
a11 · · · X n a1n
.. .
det A = det . . =
. Cj1 ...jn aj1 1 aj2 2 · · · ajn n
an1 · · · ann j1 ,...,jn =1
(ii) ⇒
det I = C1 2 3...n = 1 (6.38)
(iii) :
det(~ej1 , . . . , ~ejn ) = Cj1 ...jn (6.39)
82
vertaus
he zwei Spalten
Sind nun zwei der Indizes glei
h (also jl = jk , l 6= k ), dann ist das zugehörige C Null,
d.h. jeder Summand enthält jetzt genau ein Element aus jeder Spalte und jeder Zeile.
Weiter folgt mit jl 6= jk : Beträge aller Cj1 ...jn sind glei
h (= 1).
Damit sind alle C festgelegt!
Beispiele:
• n=3
C231 =1 et . (6.41)
C321 = −1
C312 =1
C132 = −1
a1 b2 − a2 b1 c3
| {z }
=~a×~b
1. det AT = det A
2. für (obere) Dreie
ksmatrizen: Produkt der Diagonalelemente
a11 ∗
..
det . = a11 a22 · · · ann (6.43)
0 ann
83
4. det ist linear in jeder Zeile und Spalte, vgl. Forderung (i), insbesondere
det ~a1 , . . . , ~aj + ~b, . . . , ~an = det (~a1 , . . . , ~aj , . . . , ~an ) + det ~a1 , . . . , ~b, . . . , ~an .
(6.44)
Ebenso für Zeilen.
5. Vielfa
hes einer Spalte (Zeile) zu einer anderen: det invariant, denn (4. mit ~
b = λ~ak ,
k 6= j )
1 1 5! ←−−− +
(6.46)
1 1 1
0 3 4
0 0 4
d.h. det A = 1 · 3 · 4 = 12.
6. det A 6= 0
⇔ Spalten von A sind l.u. (ebenso Zeilen)
⇔ A invertierbar
⇔ LGS A~x = ~b hat für jedes ~b eine eindeutige Lösung, nämli
h ~x = A−1~b
84
Satz 14. (Determinantenmultiplikationssatz)
Seien A, B ∈ Rn×n (oder ∈ Cn×n ). Dann gilt
Beweis:
b1j
det(AB) = det(A~b1 , . . . , A~bn ) , wobei B = (~b1 , . . . , ~bn ) = (bij ) , d.h. ~bj = :̇
bnj
n
P P
n
= det ~ai1 bi1 1 , . . . , ~ain bin n , wobei A = (~a1 , . . . , ~an )
i1 =1 in =1
n
X
= bi1 1 · · · bin n det (~ai1 , . . . , ~ain ) (6.48)
| {z }
i1 ,...,in =1
=Ci1 ...in det A
n
X
= det A bi1 1 · · · bin n Ci1 ...in
i1 ,...,in =1
| {z }
=det B
1
det A−1 = , (6.49)
det A
denn det A · det A−1 = det(AA−1 ) = det I = 1.
Satz 15. (Lapla
es
her Entwi
klungssatz)
Sei A = (aij ) ∈ Rn×n . Die Matrix Aij ∈ R(n−1)×(n−1) entstehe aus A dur
h Strei
hen der
i-ten Zeile und der j -ten Spalte. Es gilt:
n
X
det A = (−1)i+j aij det Aij (Entwi
klung na
h der j -ten Spalte)
i=1
n (6.50)
X
i+j
= (−1) aij det Aij (Entwi
klung na
h der i-ten Zeile)
j=1
Bemerkungen:
85
2. Vor allem sinnvoll, für Zeilen (Spalten) mit vielen Nullen.
Beispiel:
1 2 3
5 6 2 3 2 3
det 4 5 6 = 1 det − 4 det + 7 det
8 9 8 9 5 6
7 8 9
(Entwi
klung na
h der 1. Spalte)
(6.52)
2 3 1 3 1 2
= −4 det + 5 det − 6 det
8 9 7 9 7 8
(Entwi
klung na
h der 2. Zeile)
86
7 Komplexe Zahlen
Führe eine Zahl i ein, mit
i2 = −1 , (7.1)
√
bzw. au
h i= −1. Komplexe Zahlen
C = {z = x + iy | x, y ∈ R} (7.2)
z1 + z2 = x1 + iy1 + x2 + iy2
= (x1 + x2 ) + i(y1 + y2 )
z1 · z2 = (x1 + iy1 )(x2 + iy2 ) (7.3)
= x1 x2 + ix1 y2 + iy1 x2 + i2 y1 y2
= (x1 x2 − y1 y2 ) + i(x1 y2 + y1 x2 )
z1 z2 = z1 z2 , (7.4)
und insbesondere z n = z n (n ∈ N0 ).
(C, +, ·) ist ein Körper mit
Wir nennen x∈R Realteil und y∈R Imaginärteil von z = x + iy und s hreiben
Re z = x , Im z = y (7.6)
87
Im z
Ans
hauli
h: z = x + iy
Gauÿs
he Zahlenebene y
PSfrag repla
ements
|z|
φ
x
Re z
z = x − iy
√ p
r = |z| = zz = x2 + y 2
(7.8)
φ = arg z ∈ [0, 2π)
∞
X
z zn
e := , z∈C (7.9)
n=0
n!
∞ n n
X
iφ i φ
e =
n=0
n!
X∞ ∞
i2n 2n X i2n+1
= φ + φ2n+1
n=0
(2n)! n=0
(2n + 1)! (7.10)
X∞ ∞
X
(−1)n 2n (−1)n i 2n+1
= φ + φ
n=0
(2n)! n=0
(2n + 1)!
= cos φ + i sin φ .
88
Damit no
hmal Polardarstellung: z = reiφ = |z|ei arg z .
Denieren wir au
h sin z und cos z für z∈C dur
h die Reihen, so gilt au
h
1. Moivre-Formel
ei(z+w) − e−i(z+w)
=
2i
= sin(w + z) .
89
3. x ∈ R:
n
X n
X ei(n+1)x − 1
sin(νx) = Im eiνx = Im (x 6= 2πk, k ∈ Z)
ν=0 ν=0
eix − 1
n+1
n+1 n+1
ei 2 x ei 2 x − e−i 2 x 2i
= Im x x x
ei 2 ei 2 − e−i 2 2i
n+1
(7.14)
in x sin 2
x
= Im e 2
x
sin
| {z 2 }
reell
n+1
n
sin 2
x
= sin 2
x x
sin 2
Im z
2. Einheitswurzeln
3. Einheitswurzeln
i π4 4. Einheitswurzeln
e
g repla
ements 8. Einheitswurzeln
Re z
5π
ei 4
√ π
Beispiel i: i = ei 2
π π 5π
z0 = ei 4 und z1 = ei 4 +iπ = ei 4 erfüllen zj2 = i.
90
PSfrag repla
ements
Re z2
′
(S1) h~z , wi
~ = hw,
~ ~zi
erfüllen.
hλ~z, wi
~ = λh~z , wi
~ (7.20)
Beispiel: V = Cn über C
z1 w1
..
~z = . , ~ = ... ,
w zj , wj ∈ C (7.21)
zn wn
10 isomorph heiÿt hier: es gibt eine lineare bijektive Abbildung, z.B.
Re z1
z Im z1
C2 ∋ 1 7→ 4
Re z2 ∈ R , (7.18)
z2
Im z2
91
Kanonis
hes Skalarprodukt:
n
X
T
h~z, wi
~ = ~z w
~ := zj wj (7.22)
j=1
Beispiele:
D 1 3 E 3
i , 5 = (1, −i, 1 − i) 5
1+i 1+i 1+i (7.24)
= 3 − 5i + (1 − i)(1 + i) = 5 − 5i
| {z }
=2
1+i p √
= (1 − i)(1 + i) + 4 = 6 (7.25)
2
A = (ajk ) , AB = A B . (7.26)
2 + i 1 + 3i
det = 4 + 1 − (4i − 12) = 17 − 4i (7.27)
4i 2−i
92
8 Integration
Denition: Sei I⊆R ein oenes Intervall und f : I → R. Eine dibare Funktion F :I→
R heiÿt Stammfunktion von f , falls gilt F ′ (x) = f (x) ∀ x ∈ I .
Bemerkung: Ist F Stammfunktion von f , so au
h F̃ mit F̃ (x) = F (x) + c für jedes c ∈ R,
denn
F̃ ′ (x) = (F (x) + c)′ = F ′ (x) = f . (8.1)
Z b
f (x) dx
a
a b x
93
PSfrag repla
ements
Beweisidee: Z x+h
′ F (x + h) − F (x) 1
2. Einheitswurzeln F (x) = lim = lim f (t) dt . (8.6)
3. Einheitswurzeln
h→0 h h→0 h x
4. Einheitswurzeln
8. Einheitswurzeln
f (x)
Z x+h
f (t) dt
x
a x ξ x+h
Da f stetig, existiert si
her ein ξ ∈ [x, x + h], so dass
Z x+h
f (t) dt = h f (ξ) . (8.7)
x
Damit gilt
F ′ (x) = lim f (ξ) = f (lim ξ) = f (x) (8.8)
h→0 h→0
94
Beispiel: a∈R
Z π π
a cos(ax) a cos(π) cos(0) 2
sin(ax) dx = − = − − − = (8.11)
0 a 0 a a a
Beispiele:
Z
xn+1
1. xn dx = , n 6= −1 (8.13)
n+1
Z
dx
2. = log x (8.14)
x
Eigens
haften des Integrals: (f, g stü
kweise stetig und bes
hränkt, b > a)
(i) Linearität:
Z b Z b Z b
[λf (x) + µg(x)] dx = λ f (x) dx + µ g(x) dx , λ, µ ∈ R (8.15)
a a a
Zunä
hst nur für ni
ht-negative Integranden, d.h. f (x), g(x) ≥ 0 ∀ x ∈ [a, b] und
λ, µ ≥ 0, aber wenn wir Flä
hen unter der x-A
hse einen negativen Flä
heninhalt
zuordnen,
PSfrag repla
ements Z b Z b
[−f (x)] dx = − f (x) dx , (8.16)
a a
dann dürfen f, g sowie λ, µ beliebiges Vorzei
hen haben.
2. Einheitswurzeln
3. Einheitswurzeln
4. Einheitswurzeln
8. Einheitswurzeln
f (x)
+ +
a − b x
(ii) Stü
kweise integrieren: (dann ist uns au
h egal, ob f in c unstetig ist)
Z b Z c Z b
f (x) dx = f (x) dx + f (x) dx (8.17)
a a c
95
Zunä
hst nur für c ∈ [a, b], aber wenn wir festlegen, dass
Z a Z b
f (x) dx = − f (x) dx (8.18)
b a
dann können wir au
h c auÿerhalb [a, b] zulassen (falls beide Integrale auf der re
hten
Seite existieren).
Z b Z b
f (x) ≤ g(x) ∀ x ∈ [a, b] ⇒ f (x) dx ≤ g(x) dx . (8.20)
a a
Z b Z y
f (x) dx := lim f (x) dx (8.22)
a y→b− a
Beispiele
1. b
Z ∞ Z b
1 1 1 1
dx = lim dx = lim − = lim − + 1 = 1 (8.23)
1 x2 b→∞ 1 x2 b→∞ x 1 b→∞ b
| {z }
∞
1
= −
x 1
2.
Z Z 1
1
1 1 √ 1
√ dx = lim √ dx = 2 x = 2 − 0 = 2 (8.24)
0 x y→0+ y x 0
Bemerkung: Falls uneigentli
h an mehreren Stellen, müssen wir die Limites unabhängig
bilden dürfen, z.B.
Z 1 Z −y Z 1
dx dx dx
6= lim + (8.25)
−1 x y→0+ −1 x y x
96
Linke Seite existiert ni
ht,
Z 1 Z Z 1
b
dx dx dx
= lim + lim
−1 x b→0− −1 x a→0+ a x
h ib h i1
= lim log |x| + lim log x
b→0− −1 a→0+ a (8.26)
= − ∞ + ∞
wohingegen
Z −y Z 1 −y 1 !
dx dx
lim + = lim log |x| + log x
y→0+ −1 x y x y→0+
−1 y (8.27)
Beispiele:
1.
Z Z
x cos′ x dx = x sin x − 1 · sin x dx
g f g f g′ f (8.31)
= x sin x + cos x
97
2.
Z Z
log x dx = 1 · log x dx
Z
1 (8.32)
= x log x − x dx
x
= x log x − x
Analog:
Z Z
1
arcsin x dx = x arcsin x − x√ dx
1 − x2 (8.33)
√
= x arcsin x + 1 − x2
n
X Z x
f (ν) (x0 ) 1
ν
f (x) − (x − x0 ) = f (n+1) (t) (x − t)n dt , (8.35)
ν=0
ν! n! x0
98
n → n + 1:
n+1 (ν)
X f (x0 )
f (x) − (x − x0 )ν
ν=0
ν!
n
X f (ν) (x0 ) f (n+1) (x0 )
= f (x) − (x − x0 )ν − (x − x0 )n+1
ν=0
ν! (n + 1)!
Z x
1 f (n+1) (x0 )
= f (n+1) (t) (x − t)n dt − (x − x0 )n+1
I.V. n! x0 (n + 1)!
t=x Z
1 (n+1) (x − t)n+1 1 x (n+2) (x − t)n+1 f (n+1) (x0 )
= f (t) − − f (t) − dt− (x − x0 )n+1
p.I. n! n+1 t=x0 n! x0 n + 1 (n + 1)!
| {z }
f (n+1) (x0 )
=0+ (n+1)!
(x−x0 )n+1
Z x
1
= f (n+2) (t) (x − t)n+1 dt
(n + 1)! x0
(8.37)
Beweis: Sei F f,
Stammfunktion von
Z
g(b) g(b)
• f (x) dx = F (x) = F (g(b)) − F (g(a))
g(a) g(a)
d
• F (g(t)) = F ′ (g(t)) g ′(t) = f (g(t)) g ′(t)
dt
Z b b
f (g(t)) g (t) dt = F (g(t)) = F (g(b)) − F (g(a))
′
(8.39)
a a
Beispiele:
1.
Z
g ′ (t) 1
dt = log |g(t)| , mit f (x) = , F (x) = log |x| (8.40)
g(t) x
z.B.
Z Z
sin x
tan x dx = dx = − log | cos x| , mit g(x) = cos x ,
cos x
Z 10 (8.41)
10
dx
= log log x = log log 10 , mit g(x) = log x ,
e x log x e
99
2. n 6= −1:
Z
dt
sinn x cos x , dx sin x = t , cos x dx = dt = cos x
dx
Z (8.42)
tn+1 sinn+1 (x)
= tn dt = =
n+1 n+1
3.
Z π
sin2 x dx
0
dt dt dt
sin x = t , cos x dx = dt , dx = =p =√
cos x 2
1 − sin x 1 − t2 (8.43)
Zπ=0
sin
t2
6= √ dt = 0 ?
1 − t2
sin 0=0
2
Vorsi
ht: sinp x + cos2 x = 1 ∀x,
aber cos x = 1 − sin2 x nur dort, wo cos x ≥ 0,
π
z.B. ni
ht für
2
< x ≤ π.
Merke: Vorsi
ht beim Wurzelziehen!
Übrigens: Das Integral lösen wir z.B. mit partieller Integration, siehe Beispiel dort.
ψ(x)
Z
d
f (t) dt (8.44)
dx
φ(x)
100
Partialbru
hzerlegung
Idee:
Z Z
1 1 1
dx = − dx
(x − 1)(x − 2) x−2 x−1
= log |x − 2| − log |x − 1| (8.47)
x − 2
= log
x − 1
Wie nden wir die Zerlegung? (inkl. weiterer Beispiele)
Ziel: Bere
hne Z
P (x)
dx (8.48)
Q(x)
mit Polynomen, P , Q, mit reellen Koezienten o.B.d.A Zählergrad < Nennergrad (sonst
Polynomdivision). Sei Q von Grad n, d.h.
r
Y r
X
Q(x) = cn (x − xj )νj , νj = n , cn 6= 0 , (8.49)
j=1 j=1
denn mit
n
X
Q(x) = ck xk , cj ∈ R , (8.50)
k=0
Pn k
gilt: Aus Q(xj ) = k=0 ck xj =0 folgt
n
X n
X
0 = Q(xj ) = ck xkj = ck xj k = Q(xj ) . (8.51)
k=0 k=0
(1) (2) (ν )
P (x) a1 a1 a1 1
= + + ...+
Q(x) x − x1 (x − x1 )2 (x − x1 )ν1
(1) (ν )
a2 a2 2
+ + ...+
x − x2 (x − x2 )ν2 (8.52)
.
..
(1) (ν )
ar ar r
+ + ...+
x − xr (x − xr )νr
101
(k)
mit Koezienten aj ∈ C. (Beweis: Auf Hauptnenner bringen.)
Beispiele
1.
1 a b
= + (8.53)
(x − 1)(x − 2) x−1 x−2
1. Methode: Hauptnenner & Koeezientenverglei
h
!
a(x − 2) + b(x − 1) = (a + b)x − (2a + b) = 1
⇒ a +b = 0, 2a + b = −1 (LGS) (8.54)
⇒ b = −a , a = −1 ⇒ (b = 1)
1 a b
= + (x − 1) dana
h x=1 (8.55)
(x − 1)(x − 2) x−1 x−2
1
=a
−1
... (x − 2) dana
h x=2 (8.56)
1
=b
1
2.
x+1 a b
2
= + (x − 1)2 , x=1 (8.57)
(x − 1) x − 1 (x − 1)2
1+1=2=b
... (x − 1) , x→∞ (8.58)
x+1
lim =1=a
x→∞ x − 1
also
Z Z Z
x+1 1 2
dx = dx + dx
(x − 1)2 x−1 (x − 1)2
(8.59)
2
= log |x − 1| −
x−1
102
3.
x2 − 1 a b a b
2 2
= + 2
+ + (x − i)2 , x=i (8.60)
(x + 1) x − i (x − i) x + i (x + i)2
i2 − 1 1
= =b
(i + i)2 2
... (x − i) , x→∞ (8.61)
0=a+a ⇔ Re a = 0
... x = 0 (8.62)
1 1
−1 = ia − − ia − ⇔ Im a = 0
2 2
(8.63)
also
Z Z Z
x2 − 1 1 dx 1 dx
dx = +
(x2 + 1)2 2 (x − i)2 2 (x + i)2
(8.64)
1 1 1 x
=− + =− 2
(∗) 2 x−i x+i x +1
Da wir uns ni
ht si
her sind, ob (∗) o.k. war, ma
hen wir zumindest den Test:
′
x (x2 + 1) − x · 2x x2 − 1
− =− = o.k. (8.65)
x2 + 1 (x2 + 1)2 (x2 + 1)2
1 1 1 1
= −
(x − 1)(x − 2) 1 − x 2 1 − x2
X∞ ∞
ν 1 X ν −ν
= x − x 2 (8.66)
ν=0
2 ν=0
∞
X
= 1 − 2−(ν+1) xν
ν=0
Bisher hätten wir das mit dem Cau hy-Produkt gere hnet.
weiteres Beispiel Z ∞
7x + 1
dx (8.67)
3 (x2 − 1)(x − 2)
Nenner-Nullstellen: −1, 1, 2, d.h.
7x + 1 A B C
= + + , (8.68)
(x2 − 1)(x − 2) x+1 x−1 x−2
103
−7+1
|·(x + 1), x → −1: = A, d.h. A = −1.
(−1−1)(−1−2)
Analog: B = −4, C = 5. Damit
Z ∞ Z ∞
7x + 1 1 4 5
2
dx = − − + dx
3 (x − 1)(x − 2) x+1 x−1 x−2
h3 i∞
= − log(x + 1) − 4 log(x − 1) + 5 log(x − 2)
3 (8.69)
5
∞
(x − 2) 1
= log 4
= log 1 − log
(x + 1)(x − 1) 3 4 · 24
= 6 log 2
Wir nennen
n
X
Zn := f (ξj )(xj − xj−1 ) (8.72)
j=1
eine (Riemanns
he) Zwis
hensumme. Die Länge des gröÿten Teilintervalls heiÿt Feinheit
µn der Partition,
µn = max (xj − xj−1 ) . (8.73)
j
104
PSfrag repla
ements
2. Einheitswurzeln
3. Einheitswurzeln
4. Einheitswurzeln
8. Einheitswurzeln
ξ1 ξ2
ξ3 f (x)
a = x0 x1 x2 b = x3 x
Satz 19. Sei alles wie in obiger Denition, dann gilt: Für jede Folge von Partitionen und
Belegungen mit lim µn = 0 existiert lim Zn , der Grenzwert ist für alle sol
hen Folgen
n→∞ n→∞
glei
h, und wir s
hreiben
n
X Z b
lim Zn = lim f (ξj )(xj − xj−1 ) = f (x) dx . (8.74)
n→∞ n→∞ a
j=1
Einheitswurzeln
2. Stützstellen ξj müssen ni
ht äquvidistant gewählt werden (z.B. bei numeris
her
2. Einheitswurzeln
Approximation).
Einheitswurzeln 3. Einheitswurzeln
Einheitswurzeln 3. Funktionen f, für die Satz 19 gilt, heiÿt (Riemann-)integrierbar.
4. Einheitswurzeln
Einheitswurzeln 8. Einheitswurzeln
f (x) f (x)
a = x0 x1 x2 b = x3 x a = x0 x1 x2 b = x3 x
Beweisidee:
Bilde Ober- und Untersummen,
n
X n
X
SnO := max f (x) · (xj − xj−1 ) und SnU := min f (x) · (xj − xj−1 ) , (8.75)
j=1 x∈[xj−1 ,xj ] j=1 x∈[xj−1 ,xj ]
dann gilt
min f (x) · (b − a) ≤ SnU ≤ Zn ≤ SnO ≤ max f (x) · (b − a) . (8.76)
x∈[a,b] x∈[a,b]
105
SnUna
h oben bes
hränkt. Bilden wir das n + 1-te Folgenglied dur
h Teilen eines Teilinte-
U
Sn+1
valls, so ist ≥ SnU ⇒ Konvergenz. I.A. ist Konvergenz etwas aufwendiger. SnO analog.
Die beiden Limites sind glei
h (und damit au
h der von Zn ), da
f stü
kweise stetig ⇒ max f (x) − min f (x) −→ 0 für fast alle j. (8.77)
x∈[xj−1 ,xj ] x∈[xj−1 ,xj ] n→∞
106
9 Dierentialglei
hungen (DGLn)
9.1 DGLn erster Ordung mit getrennten Veränderli
hen
Beispiel:
y ′ (x) = x2 (1 + y 2 (x)) (9.1)
Idee:
dy
y′ = , (9.2)
dx
wir probieren mal. . .
dy
= x2 (1 + y 2)
dx
dy
= x2 dx (getrennte Veränderli
he)
1 + y2
Z Z
dy
= x2 dx (9.3)
1 + y2
x3
arctan y = + c, c∈R
3
x3
y = tan +c
12 3
Ist das gut gegangen? Test:
′ 2 x3
y (x) = 1 + tan +c x2 (9.4)
3
| {z }
=1+y 2
Allgemein:
y ′(x) = f (x) g(y) (9.5)
dy
= f (x) g(y)
dx
(9.6)
dy
= f (x) dx
g(y)
Deniere nun Z x Z y
dt
F (x) := f (t) dt , Φ(y) := . (9.7)
g(t)
12 Wdh:
sin x ′ cos2 x+sin2 x
(tan x)′ = cos x = cos2 x = 1 + tan2 x
107
DGL wird äquivalent zu
Φ(y) = F (x) , (9.8)
und
y = Φ−1 (F (x)) (9.9)
Deniere neu Z x Z y
dt
F (x) := f (t) dt , Φ(y) := , (9.11)
x0 y0 g(t)
falls g(t) > 0 ∀ t ∈ [y0 , y] (oder g(t) < 0 ∀ t ∈ [y0 , y]).
−1
Behauptung: y(x) = Φ (F (x)) löst AWP.
−1 −1
Beweis: y(x0 ) = φ (F (x0 )) = φ (0) = y0 , da Φ(y0 ) = 0.
′
y ′ (x) = Φ−1 (F (x)) f (x)
1 1
= ′ −1 f (x) , Φ′ (y) =
Φ ( Φ (F (x)) ) g(y) (9.12)
| {z }
=y
= g(y(x)) f (x) .
Beispiele:
1.
y′ = y2 , y(0) = 1 (9.13)
dy
⇔ = dx , y(0) = 1
y2
Z y Z x
dỹ
⇔ 2
= dx̃
1 ỹ 0
y
1
⇔ − =x
ỹ 1
1
⇔ − +1=x
y
1
⇔ y=
1−x
108
2. homogene lineare DGL (s.u.) ist au
h von diesem Typ
Bemerkungen: (Linearität)
ebenfalls Lösung der homogenen Glei hung; also ist die Lösungsmenge
Lh = {y | y ′ + f (x) y = 0} (9.18)
ein Vektorraum.
2. Sind y1 und y2 zwei Lösungen der inhomogenen Glei
hung, so ist y1 − y2 Lösung der
homogenen Glei
hung; also ist, mit einer Lösung yp der inhomogenen Glei
hung, die
Lösungungsmenge
Li = {y | y ′ + f (x) y = g(x)}
(9.19)
= {y |y = yp + yh , yh ∈ Lh } .
3. Auÿerdem Rx
− f (t) dt
Lh = y y(x) = ce , c ∈ R (oder C) (9.20)
Rx ′ Rx
da ce− f (t) dt = ce− f (t) dt (−f (x)). Dies sind au
h alle Lösungen (spä-
ter).
13
Z x
13 Die S
hreibweise = f (t) dt =: F (x) bezei
hnet eine Stammfunktion von f , d.h. F ′ (x) = f (x).
109
Beispiele: (c ∈R oder C, na
h Bedarf )
n Rx o
′ − (−1) dt x
1. y −y =0 ⇒ Lh = y y(x) = ce = ce
n R x 3 o
x4
2. y ′ − x3 y = 0 ⇒ Lh = y y(x) = ce t dt = ce 4
R x dt
y −
3. y′ + =0 ⇒ Lh = y y(x) = ce 2t = √c
2x |x|
Rx
sin x sin t
4.
′
y + y=0 ⇒ Lh = y y(x) = ce− t dt
x
Bemerkungen:
Lösung: Rx
− f (t) dt
y(x) = y0 e x0 (9.22)
R x0
− f (t) dt
denn y(x0 ) = y0 e x0 = y0 e0 = y0
Spezielle Lösung der inhomogenen Glei
hung: (Variation der Konstanten)
in DGL
c′ e−F − ce−F f + f ce−F = g ⇒ c′ = geF (9.26)
also Z x
c(x) = eF (t) g(t) dt (9.27)
und damit Z x
−F (x)
yp (x) = e eF (t) g(t) dt (9.28)
Lösungsmenge
Z x
Li = yp + Lh = y y(x) = e−F (x)
eF (t)
g(t) dt + ae −F (x)
,a∈R (oder a ∈ C) .
(9.29)
110
Will man das AWP mit y(x0 ) = y0 lösen, so ist Lösung eindeutig bestimmt,
Rx Z x Rt
− x0 f (t) dt f (τ ) dτ
y(x) = e y0 + e x0 g(t) dt (9.30)
x0
Beispiele:
1. y ′ − y = 3, Lh = {y | y(x) = cex }
Z x
x
yp = e e−t 3 dt = ex (−e−x ) 3 = −3 (9.31)
Allgemein:
y ′′ + a1 y ′ + a0 y = f (x) (9.36)
heiÿt inhomogene lineare DGL 2. Ordnung mit konstanten Koezienten, a0,1 ∈ R oder
∈ C; zugehörige homogene Glei
hung:
y ′′ + a1 y ′ + a0 y = 0 . (9.37)
111
Bemerkungen: (Linearität)
2. Sind y1 und y2 Lösungen der inhomogenen Glei
hung, so ist y1 − y2 Lösung der
homogenen Glei
hung, d.h.
Li = yp + Lh (9.39)
in DGL:
y ′′ + a1 y ′ + a0 y = y (λ2 + a1 λ + a0 ) . (9.42)
| {z }
χ(λ)=0
Funktioniert natürli
h au
h für lineare DGLn höherer Ordnung mit konstanten Koezien-
ten.
χ(x) = x2 + ω 2 (9.43)
Allgemein:
112
1. χ hat zwei vers
hiedene reelle Nullstellen, λ1 6= λ2 :
n o
Lreell
h = y y(x) = c 1 eλ1 x
+ c 2 eλ2 x
, c 1,2 ∈ C ∈ R (9.47)
1 λ1 x
y1 (x) = e + eλ2 x = eux cos(vx)
2 (9.49)
1 λ1 x
y2 (x) = e − eλ2 x = eux sin(vx)
2i
Federpendel: u = 0, v = ω
n o
reell
Lh = y y(x) = c1 eux sin(vx) + c2 eux cos(vx) , c1,2 ∈ R (9.50)
y ′ = eλx + λxeλx
(9.52)
y ′′ = λeλx + λeλx + λ2 xeλx
in DGL
denn
χ′ (λ) = 2λ + a1 = 0.
Bemerkungen:
113
allgemeine Lösung
s(t) = c1 eiωt + c2 e−iωt (9.56)
!
s(0) = c1 + c2 = 0 ⇒ c2 = −c1 (9.57)
!
ṡ(0) = iωc1 − iωc2 = 1 ⇒ 2iωc1 = 1 (9.58)
also
1 sin(ωt)
c1 = = −c2 ⇒ s(t) = . (9.59)
2iω ω
Lösung der inhomogenen DGL: Variation der Konstanten
y ′′ + a1 y ′ + a0 y = f (x) (9.60)
Seien y1 und y2 zwei l.u. Lösungen der homogenen DGL. Ansatz für partikuläre Lösung:
Ableiten:
Einsetzen:
f (x) = y ′′ + a1 y ′ + a0 y
f (x) = c1 y1′′ + a1 c1 y1′ + a0 c1 y1 + c2 y2′′ + a1 c2 y2′ + a0 c2 y2 +c′1 y1′ + c′2 y2′ + R′ + a1 R (9.63)
| {z } | {z }
=0 da y1 homogene Lös. =0 da y2 homogene Lös.
Falls R(x) ≡ 0 (und damit R′ ≡ 0): LGS für c′1 und c′2
c′1 y1 + c′2 y2 = 0 (R(x) = 0)
′ ′ ′ ′ (9.64)
c1 y1 + c2 y2 = f (x)
Lösung, z.B. dur
h Cramers
he Regel:
1 0 y2 y2 (x)f (x)
c′1 = det =−
W (x) f y2′ W (x)
(9.65)
1 y 0 y1 (x)f (x)
c′2 = det 1′ =
W (x) y1 f W (x)
mit der Wronski-Determinanten
y1 y2
W (x) = det ′ (9.66)
y1 y2′
Falls wir dur
h W teilen durften!
114
Lemma 20. (Wronski-Determinante)
Seien y1 und y2 Lösungen von
y ′′ + a1 y ′ + a0 y = 0
y1 y2
und W (x) = det ′ . Dann gilt:
y1 y2′
1. W ′ (x) = −a1 W (x) (und damit W (x) = W (x0 )e−a1 (x−x0 ) ).
2. W (x) besitzt keine Nullstelle ⇔ y1 und y2 sind l.u.
Beweis:
1.
Z x Z x
y2 (t)f (t) y1 (t)f (t)
yp (x) = −y1 (x) dt + y2 (x) dt (9.68)
W (t) W (t)
Beispiel:
y ′′ + 5y ′ + 6y = sin x (9.69)
e−2x e−3x
W (x) = det = −3e−5x + 2e−5x = −e−5x (9.71)
−2e−2x −3e−3x
115
Z x Z x −2t
−2x e−3t sin t −3x e sin t
yp = −e dt + e dt
(−e−5t ) (−e−5t )
Z x Z x (9.72)
−2x 2t −3x
=e e sin t dt − e e3t sin t dt
NR:
Z Z
αx αx
e sin x dx = −e eαx cos x dx
cos x + α
p.I.
Z
αx αx 2
= −e cos x + α e sin x − α eαx sin x dx (9.73)
p.I.
Z
eαx (α sin x − cos x)
⇒ eαx sin x dx =
1 + α2
. . .und damit:
116
Beweisskizze:
Ein gut lesbarer vollständiger Beweis ndet si
h z.B. in Burg, Haf und Wille: Höhere
Mathematik für Ingenieure, Band III, B.G. Teubner, Stuttgart, 1993, S. 17.
(ii) Deniere eine Folge von Näherungen yn (x) für die gesu
hte Funktion y(x).
(iii) Zeige, dass die Folge wohldeniert ist.
(iv) Zeige, dass die Folge gegen das gesu hte y(x) konvergiert.
ad (i):
Z x
′
y = f (x, y) , y(x0 ) = y0 ⇔ y(x) = y0 + f (t, y(t)) dt , (9.79)
x0
denn ⇒
Z x Z x
′
y(x) − y0 = y(x) − y(x0 ) = y (t) dt = f (t, y(t)) dt (9.80)
Anfangswert Hauptsatz x0 DGL x0
und ⇐
Z x
′ d
y (x) = 0+ f (t, y(t)) dt = f (x, y(x)) ,
Integralgln. dx x0 Di. na
h oberer Grenze
Z x0 (9.81)
y(x0 ) = y0 + f (t, y(t)) = y0 .
Integralgln. x0
ad (ii): Pi ard-Iteration
ad (iii):
z.z.: yn (x) bleibt im Denitionsberei
h von f falls x ∈ Uh (x0 ), d.h.
Vollständige Induktion:
n = 0:
|y0 (x) − y0 | = 0 ≤ b
117
n → n + 1:
Z x
|yn+1(x) − y0 | = f (t, yn (t)) dt ≤ M|x − x0 | < Mh ≤ b
x0 I.V.
• Zeige, dass die Folge konvergiert ähnli
he Abs
hätzungen wie zu (iii) nur etwas
∂f
aufwändiger, hier geht Stetigkeit von ein.
∂y
• So wie die Folge deniert war, muss sie dann gegen eine Lösung des AWPs konver-
gieren!
• Zeige Eindeutigkeit wieder ähnli
he Abs
hätzungen, verwende dabei no
hmals Ste-
∂f
tigkeit von .
∂y
10 Haupta
hsentransformation
Beispiel:
5 −1 1 4 1
= =4 (10.1)
−1 5 1 4 1
5 −1 1 6 1
= =6 (10.2)
−1 5 −1 −6 −1
Allgemein: Gegeben eine quadratis
he Matrix A.
Gibt es Vektoren ~x und Zahlen λ, so dass
(~
x 6= 0, sonst langweilig). Wie ndet man sie?
Inwiefern
harakterisieren sie A?
118
Jedes sol
he ~x ∈ Cn heiÿt zugehöriger Eigenvektor (EV).
χA (λ) := det(A − λI) heiÿt
harakteristis
hes Polynom von A.
Bemerkungen:
= (a11 − λ) · · · (ann − λ) + . . .
= (−1)n λn + . . .
2. Ist ~x Eigenvektor zum Eigenwert λ, so au
h µ~x ∀ µ 6= 0.
n×n
Lemma 22. Sei A∈C : λ ist Eigenwert von A ⇔ χA (λ) = 0
Beweis:
λ ist Eigenwert von A ⇔ A~x = λ~x für ein ~x 6= ~0
⇔ A~x − λ~x = ~0 für ein ~x 6= ~0
⇔ A~x − λI~x = ~0 für ein ~x 6= ~0
(10.6)
⇔ (A − λI)~x = ~0 für ein ~x 6= ~0
⇔ (A − λI)~x = ~0 hat ni
httriviale Lösung
Bemerkung:
Zu λ gehörende Eigenvektoren ndet man dur
h Lösen des homogenen LGS (A−λI)~x = ~0.
Beispiel:
5 −1
A= (10.7)
−1 5
5 − λ −1 !
χA (λ) = det = (5 − λ)2 − 1 = λ2 − 10λ + 24 = 0 (10.8)
−1 5 − λ
√
10 ± 100 − 96
λ1,2 = = 5±1 (10.9)
2
Eigenvektoren zu λ1 = 6:
5 − 6 −1 0
−1 5 − 6 0 1 1
⇒ ~x1 = √ und Vielfa
he (10.10)
−1 −1 0 2 −1
−1 −1 0
. . .zu λ2 = 4:
1 −1 0 1 1
⇒ ~x2 = √ und Vielfa
he (10.11)
−1 1 0 2 1
119
10.2 Einige Begrie
Denition: Sei A eine quadratis
he Matrix, A ∈ Cn×n .
T
(i) A heiÿt hermites
h, falls A = A.
(ii) A heiÿt symmetris
h, falls A reell, also A ∈ Rn×n , und AT = A.
T T
(iii) A heiÿt unitär, falls A A=I (d.h. A−1 = A ).
(iv) A heiÿt orthogonal, falls A reell, also A ∈ Rn×n , und AT A = I (d.h. A−1 = AT ).
Bemerkungen:
d.h.
T
kA~xk2 = k~xk2 ∀ ~x ∈ Cn ⇔ A A=I ⇔ A unitär . (10.15)
n×n n
5. A∈C hermites
h ⇔ h~x, A~y i = hA~x, ~y i ∀ x, y ∈ C , denn
T T T T
⇒ : h~x, A~y i = ~x A~y = ~x A ~y = A~x ~y = hA~x, ~y i
120
10.3 Diagonalisierbarkeit
Denition: A ∈ Cn×n heiÿt diagonalisierbar ⇔ ∃S regulär (d.h. invertierbar) mit
λ1 0
−1 ..
S AS = . . (10.17)
0 λn
Bemerkungen:
und mit
⇒ β~y = ~0
=⇒ β=0
y 6=~0
~
Beispiel:
1 1 1
A = 0 2 1 (10.20)
0 0 3
Bere
hne: EWe, EVen, S , S −1 , S −1 AS .
121
Satz 23. Ist A ∈ Cn×n hermites
h (oder symmetris
h), so folgt:
Beweis:
⇒ λ = λ, also λ ∈ R.
~
x=6 ~0
0 λn
wobei λj die Eigenwerte von A sind.
Bemerkung: Ist die Matrix ni
ht hermites
h, dann muss sie au
h ni
ht unbedingt diago-
nalisierbar sein. Beispiel: A = ( 10 11 ). χA hat 1 als doppelte Nullstelle, aber der zugehörige
Eigenraum ist nur eindimensional (( 1 0 ) und Vielfa
he).
Beweis: Für den Fall, dass alle Eigenwerte vers
hieden sind, bereits gezeigt.
Sei daher nun λ eine ν -fa
he Nullstelle von χA , d.h.
mit einem Polynom p. Sei {~x1 , . . . , ~xℓ } eine maximale Menge l.u. EVen zum EW λ, d.h.
122
T
Betra
hte B = U AU = (bjk ).
Wir zeigen: B hat die Form
λ 0
..
. 0 ℓ Zeilen
B =
0 λ
,
(10.26)
0 Ã
| {z }
ℓ Spalten
denn mit
T
bjk = ~uj A~uk = h~uj , A~uk i (10.27)
folgt
bjk = h~uj , λ~uk i = λδjk ∀ k = 1, . . . , ℓ , (10.28)
T T
χB (t) = det(B − tI) = det(U AU − tU U) = det(U T (A − tI)U)
= det(U T ) det(A − tI) det(U) = det(U T U) det(A − tI) = det(A − tI) (10.30)
= χA (t)
und andererseits
χB = (λ − t)ℓ det(Ã − tI) (10.31)
| {z }
=:q(t)
No
h zu zeigen: q(λ) 6= 0, ℓ = ν.
denn daraus folgt
Annahme (führen wir glei
h zum Widerspru
h): q(λ) = 0
⇒ ∃ ~x 6= ~0, das EV von à zum EW λ ist, d.h.
0
! 0
! 0
! 0
!
. . T . .
Ã~x = λx ⇔ B . =λ . ⇔ U AU . =λ .
. . . .
0 0 0 0
~
x ~
x ~
x x
~
! ! (10.32)
0 0
.. ..
⇔ AU . = λU .
0 0
x
~ x
~
0
! 0
!
.. ..
d.h. U . ist EV von A zum EW λ. Da aber U . eine Linearkombination von
0 0
x
~ ~
x
~uℓ+1 , . . . , ~un ist, ist das ein Widerspru
h dazu, dass span(~x1 , . . . , ~xℓ ) alle EVen zum EW λ
enthält.
123
10.3.1 Praktis
he Dur
hführung der HAT
Beispiel:
1 0 0
A = 0 56 25 (10.33)
0 52 95
χA (x) = det(A − xI)
= (1 − x) x2 − 15
5
54
x + 25 − 4
25
(10.34)
2
= (1 − x)(x − 3x + 2)
√
3± 9−8
λ1 = 1, λ3,2 = 2
, d.h. λ2 = 1 , λ3 = 2
Eigenvektor zu λ3 :
−1 0 0 0 0
1
0 − 45 52 0 ⇒ ~u3 = √ 1 (10.35)
2 5 2
0 5
− 15 0
Eigenvektoren zu λ1 = λ2 = 1 :
0 0 0 0 1 0
1
0 15 52 0 ⇒ ~u1 = 0 ,
~u2 = √ 2 (10.36)
0 5 −1
0 25 54 0
Und damit √
0 5 0 2 0 0
1 T
U = √ 1 0 2 ⇒ U AU = 0 1 0 (10.37)
5 2 0 −1 0 0 1
124
Anwendungen:
λ1 0
T
A hermites
h, U AU = D mit Diagonalmatrix D= .. der Eigenwerte.
.
0 λn
T n T T T T
An = UDU = UD |U{zU} DU · · · UDU = UD n U (10.38)
=I
∞
X
Ax xn
e = An (A0 = I)
n=0
n!
xn n
∞
X T
= UDU
n=0
n!
X∞
xn T
= UD n U
n=0
n!
∞
! (10.39)
X xn n T
=U D U
n=0
n!
T
= UeDx U
eλ1 x 0
.. T
=U . U
0 eλn x
. . .und falls alle λj 6= 0:
1
λ1
0
T ..
A−1 = UD −1 U mit D −1 = . (10.40)
1
0 λn
n
X n
X X
T
~x B~x = xj bjk xk = bjj x2j + bjk xj xk (10.41)
j,k=1 j=1 j6=k
Mit
1 bjk + bkj
A= B + BT d.h. ajk = , (10.42)
2 2
also A symmetris
h, gilt
~xT B~x = ~xT A~x . (10.43)
125
Im Folgenden interessieren uns daher nur symmetris
he Matrizen (oder analog hermites
he
Matrizen im Komplexen).
n
X
T
qA (~x) := ~x A~x = ajk xj xk (10.44)
j,k=1
λ1 0 Xn
D= . .. und damit qD (~ x) = λj x2j . (10.45)
0 λn j=1
Bemerkung: qA (~
x) = qB (~x) ∀ ~x ∈ Rn ⇔ A=B
Beweis:
⇐: klar
⇒:
qA (~ej + ~ek ) = (~ej + ~ek )T A(~ej + ~ek ) = ajj + ajk + akj + akk = ajj + 2akj + akk
= qB (~ej + ~ek ) = bjj + 2bkj + bkk
(10.47)
Speziell:
λ1 0
A= (10.49)
0 λ2
• λ1 , λ2 > 0 : Ellipse
(Kreis für λ1 = λ2 > 0 )
• λ1 · λ2 < 0 : Hyperbel
126
• λ1 · λ2 = 0 (λ1 6= λ2 ): Geraden
Lemma 25. Sei A ∈ Rn×n symmetris h und U = (~u1 , . . . , ~un ) orthogonal. Mit
n
X y1
~x = yj ~uj , ~y = .. , (10.50)
.
j=1 yn
gilt dann
qA (~x) = qB (~y ) , wobei B = U T AU . (10.51)
Beweis:
n
X
~x = yj ~uj = U~y ⇔ ~y = U T ~x (10.52)
j=1
0 λn
dann ist qB (~y ) in Diagonalform,
n
X
qB (~y ) = λj yj2 , (10.55)
j=1
127
Im Eingangsbeispiel von Seite 118: 0,5
5 −1
A= (10.57) y 0,3
−1 5
PSfrag repla
ements 0,1
Eigenwerte und (normierte) Eigenvektoren:
4. Einheitswurzeln
1 1
Ellipse mit Halba
hsen und √ ≈ 0,4.
2 8. Einheitswurzeln
6
-0,5
Denition: (Denitheit)
Sei A ∈ Rn×n symmetris
h, dann heiÿt A, beziehungsweise die quadratis
he Form qA ,
• positiv denit ⇔ qA (~x) > 0 ∀ ~x ∈ Rn \ {~0},
• positiv semidenit ⇔ qA (~x) ≥ 0 ∀ ~x ∈ Rn ,
• negativ denit ⇔ qA (~x) < 0 ∀ ~x ∈ Rn \ {~0},
• negativ semidenit ⇔ qA (~x) ≤ 0 ∀ ~x ∈ Rn ,
• indenit ⇔ ∃ ~x1 , ~x2 ∈ Rn mit qA (~x1 ) · qA (~x2 ) < 0
λ1 0
Satz 26. Sei A ∈ Rn×n symmetris
h, U orthogonal mit U T AU = ..
. ,
0 λn
dann sind äquivalent:
(ii) λj > 0 ∀ j = 1, . . . , n
a11 ··· a1ν
(iii) det ... ..
. > 0 ∀ ν = 1, . . . , n (Hauptunterdeterminanten > 0)
aν1 ··· aνν
Beweis:
(i) ⇔ (ii):
⇔ λj > 0 ∀ j = 1, . . . , n
128
(i) ⇔ (iii):
Zunä
hst n = 2,
a b
A= (10.60)
b c
qA (x, y) = ax2 + 2bxy + cy 2
b
= a x + 2 xy + cy 2
2
(falls a 6= 0)
a
" 2 #
b b2 2
= a x + y − 2 y + cy 2 (10.61)
a a
2
b ac − b2 2
= a x+ y + y
a | {za }
= a1 det A
nimmt für gegebenes y dur
h geeignete Wahl von x jeden beliebigen Wert an (positiv wie
negativ), also indenit. Damit für n=2 gezeigt.
0
T 0
λ1 0 b1
U . U . .
. . ..
A 7→ .
0 A .
0 = . .. =: B (10.63)
0 λn bn
0 ··· 0 1 0 ··· 0 1 b1 ··· bn c
und
qA positiv denit ⇔ qB positiv denit. (10.64)
n
X n
X
qB (~x) = λj x2j + 2bj xj xn+1 + cx2n+1
j=1 j=1
Xn 2
bj b2j 2
= λj xj + x
λj n+1
− x
λ2j n+1
+ cx2n+1
j=1 (10.65)
Pn
n
X 2 c · λ1 · · · λn − 2
j=1 bj
λ1 ···λn
bj λj
= λj xj + x
λj n+1
+ x2n+1
λ1 · · · λn
j=1 | {z }
det B
=
λ1 · · · λn
d.h. qB positiv denit ⇔ λ1 , . . . , λn > 0 und det B > 0.
Mit IV, (i) ⇔ (ii) und det A = det B folgt die Behauptung.
129
Beispiele:
1.
1 0 2 0
0 1 0 2
A=
2
(10.66)
0 8 2
0 2 2 9
ist positiv denit, denn
a11 = 1 > 0 ,
1 0
det = 1 > 0,
0 1
1 0 2
det 0 1 0 = 1(8 − 0) + 2(0 − 2) = 4 > 0 ,
2 0 8 (10.67)
1 0 2 0 2 0
det A = det 0 8 2 + 2 det 1 0 2
2 2 9 2 2 9
= 1(72 − 4) + 2(0 − 16) + 2(−2)(9 − 4)
= 68 − 32 − 20 = 16 > 0 .
2.
−1 0 0
B = 0 −1 1 (10.68)
0 1 −2
ist negativ denit, weil
1 0 0
−B = 0 1 −1 (10.69)
0 −1 2
positiv denit ist:
−b11 = 1 > 0 ,
1 0
det = 1 > 0,
0 1 (10.70)
1 −1
det(−B) = 1 det = 1 > 0.
−1 2
Übrigens:
b11 = −1 < 0
−1 0
det =1>0 (10.71)
0 −1
det B = (−1)(2 − 1) = −1 < 0
alternierende Hauptunterdeterminanten.
130
11 Dierentiation in mehreren Variablen
11.1 Punktmengen und Folgen im Rn
Wiederholung/Notation/Begrie
x1 n
X
n ..
~x ∈ R , ~x = . , xi ∈ R, d.h. ~x = xi~ei
xn i=1
r
P
n
k~xk = |~x| = x2i (Norm)
i=1
k~xk = 0 ⇔ ~x = ~0
Dreie
ksunglei
hung: k~x + ~y k ≤ k~xk + k~y k
Cau
hy-S
hwarzs
he Unglei
hung: |~x · ~y | ≤ k~xk · k~y k, wobei
Pn
~x · ~y = ~xT ~y = xi yi
i=1
Bemerkungen:
1. Die leere Menge ∅ ist sowohl oen als au
h abges
hlossen ebenso Rn .
2. Oene Mengen beinhalten ihre Randpunkte ni
ht.
S
3. Sind Mα ⊂ Rn oen, so au
h ist Mα oen.
α
1 1
Gilt aber i.A. ni
ht für Dur
hs
hnitte, z.B. In := (− , ),
n n
n ∈ N, oen,
T
∞
aber In = {0} (da 0 ∈ In ∀n ∈ N) abges
hlossen.
n=1
131
5. Uε (~x) ist abges
hlossen und bes
hränkt, also kompakt.
Denition:
Sei (~xk ) eine Folge, d.h.
(k)
x1
.. (k)
~xk = . , xi ∈R und (z.B.) k = 1, 2, . . . . (11.3)
(k)
xn
Für jedes ε > 0 ∃ N(ε) mit |~xk − ~a| < ǫ ∀ k ≥ N(ε) . (11.4)
stetig als Funktion einer der beiden Variablen, aber ni
ht stetig in Null als Fuktion
zweier Variabler, denn ( x ) −→ ~
x
0, aber
x→0
x2 1
f (x, x) = 2 2
= 6= 0 (11.6)
x +x 2
132
Satz 27. Sei M ⊂ Rn kompakt und f : M → R stetig, dann gilt: f nimmt auf M ein
Mininum und ein Maximum an, d.h. ∃ ~a, ~b ∈ M mit f (~a) ≤ f (~x) ≤ f (~b) ∀ ~x ∈ M .
∂f ∂f ∂f
= 2xy + y sin z , = x2 + x sin z , = xy cos z (11.8)
∂x ∂y ∂z
Partielle Ableitung na
h. . .: Behandle die anderen Variablen als Konstanten.
2 t4 1
lim f (t , t) = lim 4 = 6= 0 , (11.12)
t→0 t→0 t + t4 2
133
c
in ~
2 2
also ni
ht stetig 0. Ri
htungsableitungen: ~
v= , c + s = 1.
s
s2
∂f ~ f (h~v) h3 cs2 , c 6= 0
(0) = lim = lim 2 2 = c , (11.13)
∂~v h→0 h h→0 (h c + h4 s4 )h 0 , c=0
|f (x)|
lim = 0. (11.15)
x→x0 |g(x)|
Bemerkungen:
2. ans
hauli
h: f : R2 ⊇ M → R,
3
Flä
he über M : {(x, y, z) ∈ R | (x, y) ∈ M , z = f (x, y)} (Graph von f)
Tangentialebene im Punkt (x0 , y0 , f (x0 , y0 )):
{(x, y, z) ∈ R3 | (x, y) ∈ M , z = f (x0 , y0 ) + f ′ (x0 , y0 ) x−x
y−y0 }
0
134
(iii) Alle Ri
htungsableitungen existieren in ~x0 und es gilt (|~v| = 1)
∂f
(~x0 ) = (∇f )(~x0 ) · ~v . (11.18)
∂~v
Bemerkungen:
∂
1. Nabla-Operator: ∇ := , ∂ , . . . , ∂x∂n
∂x1 ∂x2
, bildet Skalarfeld f auf Vektorfeld ∇f ab
2. ∇f zeigt in die Ri
htung des steilsten Anstiegs der Funktion und steht senkre
ht auf
den Höhenlinien folgt aus Gln. (11.16).
g repla ements
inheitswurzeln
inheitswurzeln
inheitswurzeln
inheitswurzeln
∂f ∂f
hier: (x0 , y0 ) < 0, (x0 , y0 ) > 0
∂x ∂y
Beweis:
(i)
lim f (~x0 + ~h) = lim f (~x0 ) + f ′ (~x0 ) · ~h + o(|~h|) = f (~x0 ) (11.19)
|~h|→0 diffbar |~h|→0
(ii)
135
(iii)
Beweis:
∂f
+ (~x0 ) · h1 + o(h1 )
∂x1
Xn
∂f
= (~x0 ) + o(1) hj + o(hj )
part. Abl. stetig ∂xj
j=1
Xn
∂f
= (~x0 )hj + o(|~h|)
j=1
∂x j
Im obigen Beispiel,
xy 2
, (x, y) 6= (0, 0)
2 4
f (x, y) = x + y (11.23)
0 , x=y=0
136
existieren zwar die partiellen Ableitungen in ~
∂f
0 (s.o.), z.B. ∂x
(0, 0) = 0, sind dort aber ni
ht
stetig; z.B., für (x, y) 6= (0, 0),
∂f y 2(x2 + y 4 ) − xy 2 2x y 6 − x2 y 2
(x, y) = = , (11.24)
∂x (x2 + y 4 )2 x4 + 2x2 y 4 + y 8
∂f ∂f
lim (t, t) = −1 6= 0 = lim lim (x, y) (11.25)
t→0 ∂x x→0 y→0 ∂x
Also ist
∂f
ni
ht stetig in ~0.
∂x
Bemerkung: Hilfrei
h (und lei
ht zu zeigen) sind dann die folgenden Aussagen:
Xn
∂f
F (t0 ) = (∇f )(~x0 ) · ~x˙ (t0 ) =
′
(~x0 ) ẋj (t0 ) (11.26)
j=1
∂xj
Beweis:
Denition: (Kurvenintegral)
SeiM ⊆ Rn oen, f~ : M → Rn stetig (komponentenweise) und K : [a, b] ∋ t 7→ ~x(t) ∈ M
dibar auf (a, b), dann heiÿt
Z Z b
f~(~x) d~x := f~(~x(t)) ~x˙ (t) dt (11.28)
K a
137
Bemerkungen:
R
1. Ist f~ Kraftfeld, so ist
K
f~d~x die längs K geleistete Arbeit.
= F (~x(b)) − F (~x(a)) ,
hängt also nur von Anfangs- und Endpunkt ab, ni
ht vom Weg. Sol
h ein f~ heiÿt
konservativ. Später: Kriterium für Existenz von F.
Bei Kraftfeldern (Physik) heiÿt V = −F Potential.
n
3. f : R ⊇ M → R heiÿt Skalarfeld
f~ : Rn ⊇ M → Rn heiÿt Vektorfeld
Beispiel:
y cos t
f~(x, y, z) = x , K : ~x(t) = sin t , 0 ≤ t ≤ 2π (11.30)
2
z t
Z Z 2π sin t − sin t Z 2π
f~ d~x = cos t · cos t dt = (− sin2 t + cos2 t + t2 ) dt
K 0 t2 1 0
(11.31)
Z 2π 2π
2 sin(2t) t3 8π 3
= (cos(2t) + t ) dt = + =
0 2 3 0 3
Z
F = y dx = xy + h1 (y, z)
Z
= x dy = xy + h2 (x, z)
Z (11.32)
z3
= z 2 dz = + h3 (x, y)
3
z3
⇒ F = xy + tut's
3
Z
8π 3
f~ d~x = F (~x(2π)) − F (~x(0)) = F (1, 0, 2π) − F (1, 0, 0) = (11.33)
K 3
138
heiÿt partielle Ableitung 2. Ordnung von f im Punkt ~x0 , falls fxj in Uε (~x0 ) existiert und
partiell na
h xk dibar ist; analog für höhere Ableitungen.
Bemerkungen:
∂ ∂ ∂ ∂ ∂ ∂2
1. Beispiel im R3 : fxxzy = fxxz = fxx = f
∂y ∂y ∂z ∂y ∂z ∂x2
2. Es kommt auf die Reihenfolge an, d.h. fxxzy 6= fzxyx .
i.A.
xy
3. Beispiel: f (x, y) = e + x sin y
fx = yexy + sin y
fxx = y 2 exy , fxxxxx = y 5exy (11.35)
(ohne Beweis)
• f : Rn → R, f ∈ Ck (M)
h1
~ ..
• h = . ∈ Rn
hn
15 bzw. ein Potential f~ = −∇V , d.h V = −F
139
n
X
~ k
• (∇h) f (~x0 ) = fxj1 ···xjk (~x0 ) hj1 · · · hjk
j1 ,...,jk =1
~
• n = 1: (∇h) f (x0 ) = f (k) (x0 ) hk
k
• n beliebig, k = 0: (∇~h)0 f (~x0 ) = f (~x0 )
Xn
~ 1
k = 1: (∇h) f (~x0 ) = fxj (~x0 ) hj = (∇f )(~x0 ) · ~h
j=1
X n
~ 2
k = 2: (∇h) f (~x0 ) = fxi xj (~x0 ) hi hj
i,j=1
fx1 x1 . . . fx1 xn
′′
. .
mit f := fxi xj = .. . ,
.
fxn x1 . . . fxn xn
′′
d.h. f (~x0 ) ∈ Rn×n (Hesse-Matrix), gilt
(∇~h)2 f (~x0 ) = ~hT f ′′ (~x0 )~h.
Istf ∈ C 2 (M) ⇒ f ′′ ist symmetris
h, und damit
(∇~h)2 f (~x0 ) = qf ′′ (~x0 ) (~h).
wobei
k+1
(∇~h) f (~x0 + ϑ~h)
Rk = für ein ϑ ∈ (0, 1) . (11.38)
PSfrag repla
ements (k + 1)!
Bemerkung:
2. Einheitswurzeln
~x0 + ~h
3. Einheitswurzeln ~x0 + ~h
4. Einheitswurzeln
8. Einheitswurzeln
~x0 ~x0
M M
140
Beweis: φ(t) := f (~x0 + t~h), t ∈ R Taylorentwi
klung (1D) von φ (Satz 8):
k
X φ(κ) (0) φ(k+1) (ϑ)
φ(1) = + ϑ ∈ (0, 1) . (11.39)
κ=0
κ! (k + 1)!
κ
Bleibt z.z.: φ (t) = (∇h) f (~x0 + t~h)
(κ) ~
Induktion na
h κ:
κ = 0: klar
κ = 1: Dierentiation na
h Kurve:
′
f (~x(t)) = (∇f )(~x(t)) · ~x˙ (t) , hier ~x˙ (t) = ~h , (11.40)
also
φ′ (t) = (∇f )(~x0 + t~h) · ~h . (11.41)
κ → κ + 1:
d (κ)
φ(κ+1) (t) = φ (t)
dt
d κ
= (∇h) f (~x0 + t~h)
~
I.V. dt
n
d X (11.42)
= fx ···x (~x0 + t~h) hj1 · · · hjκ
dt j ,...,j =1 j1 jκ
1 κ
n
X n
X
= hj1 · · · hjκ fxj1 ···xjκ+1 (~x0 + t~h) hjκ+1
j1 ,...,jκ =1 jκ+1 =1
Spezialfälle:
1. n=1 bekannt
1 ~ T ′′
3. f ∈ C 2 (M): f (~x0 + ~h) = f (~x0 ) + (∇f )(~x0 ) · ~h + h f (~x0 + ϑ~h) ~h
|2 {z }
=o(|~h|), |~h|→0
Beispiele:
141
1. f (x, y) = exy + x sin(πy)
(∇f )(x, y) = yexy + sin(πy) , xexy + πx cos(πy) (11.43)
!
fxx fxy y 2exy (1 + xy)exy + π cos(πy)
f ′′ (x, y) = =
fyx fyy (1 + xy)exy + π cos(πy) x2 exy − π 2 x sin(πy)
(11.44)
Entwi
kle um ~x0 = ( xy00 )= ( 12 )
2 x−12 2
f (x, y) = e + (2e e + π)
y−2
1 4e2 3e2 + π x−1
+ (x − 1 y − 2) 2 2 + o |x − 1|2 + |y − 2|2
2 3e + π e y−2
(11.45)
2
2. Einfa
her oft mit bekannten Reihen, z.B. f (x, y) = ex+y um ~0:
∞
X n
(x + y 2)
f (x, y) =
n=0
n!
1
= 1 + (x + y 2 ) + (x + y 2 )2 + o (x + y 2)2 (11.46)
2
1 2
= 1+x+ x + y 2 + o(x2 + y 2 )
2
Daraus lesen wir ab:
′′ 1 0
(∇f )(0, 0) = (1 , 0) und f (0, 0) = (11.47)
0 2
142
(ii) hinrei
hende Bedingung:
f ∈ C (M) und gilt f (~x0 ) = ~0T , f ′′ (~x0 ) positiv
Ist
2 ′
denit (negativ denit)
⇒ ~x0 ist lokale Minimalstelle (Maximalstelle).
Bemerkung: Ist (∇f )(~x0 ) = ~0 so heiÿt ~x0 kritis
her Punkt von f.
Beweis:
Idee: Taylor
1
f (~x) = f (~x0 ) + f ′ (~x0 ) ·(~x − ~x0 ) + (~x − ~x0 )T f ′′ (~x0 )(~x − ~x0 ) + . . . (11.49)
| {z } |2 {z }
=~0T pos./neg. denit
1
f (~x) = f (~x0 ) + f ′ (~x0 ) · (~x − ~x0 ) + (~x − ~x0 )T f ′′ (~x0 + ϑ(~x − ~x0 )) (~x − ~x0 )
2 (11.50)
1 T ′′
= f (~x0 ) + (~x − ~x0 ) f (~x0 + ϑ(~x − ~x0 )) (~x − ~x0 )
2
(z.B. für Minimum:) f ′′ (~x0 ) pos. denit, auÿerdem f ′′ stetig, da f ∈ C 2 (M), d.h.
∃ Uε (~x0 ) mit f ′′ (~x0 + ϑ(~x − ~x0 )) pos. denit ∀ ~x ∈ Uε (~x0 )
⇒ f (~x) > f (~x0 ) ∀ ~x ∈ Uε (~x0 ) \ {~x0 }
(inkl. Skizzen)
Beispiel: f (x, y) = 2x2 + 4y 2 + 4xy − 4x + 4y + 10
!
(∇f )(x, y) = (4x + 4y − 4 , 8y + 4x + 4) = (0, 0) (11.51)
⇒ 4x + 4y − 4 = 0 ⇒ x + y = 1 in 2y + x + 1 = 0
(11.52)
also 2y + 1 − y + 1 = 0 ⇔ y = −2 und damit x = 3
3
ist einzige potentielle lokale Extremstelle.
−2
′′ 4 4
f (x, y) = = f ′′ (3, −2) (11.53)
4 8
4
Hauptunterdeterminanten: > 0, 32 − 16 = 16 > 0, also ist f ′′ pos. denit und f hat ein
3
lokales Minimum bei (sogar global).
−2
143
g repla
ements PSfrag repla
ements PSfrag repla
ements
Skizzen für typis
he Fälle, f : R2 → R, f ′ (0, 0) = 0, . . .
Maple -Code:
> plot3d(x^2+y^2,x=-1..1,y=-1..1,view=0..2,axes=boxed,orientation=[125,70℄);
> plot3d(-x^2-y^2,x=-1..1,y=-1..1,view=-2..0,axes=boxed,orientation=[125,70℄);
> plot3d(x^2-y^2,x=-1..1,y=-1..1,view=-1..1,axes=boxed,orientation=[125,70℄);
f~ : Rn → Rm
f1 (~x)
(11.54)
~x 7→ f~(~x) = ...
fm (~x)
d.h. m Funktionen fj : Rn → R.
Stetigkeit, Dibarkeit et
. komponentenweise.
Also: Sei M ⊆ Rn oen, ~x0 ∈ M . f~ : M → Rm heiÿt (total) dibar in ~x0 , falls es eine
Matrix A ∈ Rm×n gibt, mit
∂fi
Es gilt dannA = (aij ), aij = ∂x j
(~x0 ), i = 1, . . . , m, j = 1, . . . , n.
∂fi ∂ f~
A= (~x0 ) =: f~′ (~x0 ) =: (~x0 ) heiÿt Fundamental- oder Ja
obi-Matrix.
∂xj ∂~x
Spezialfälle:
′ ∂f ∂f
1. m = 1, n beliebig: Skalarfeld, f = ∇f = ,...,
∂x1 ∂xn
144
f1′
2. n = 1, m beliebig: Kurve, f ′ = ...
′
fm
3. n = m ≥ 2: Vektorfeld, f~′ ∈ Rn×n , also quadratis
h
Bemerkung: Matrizen. . .
• h′ (~x0 ) ∈ Rm×k
• f ′ (~y0 ) ∈ Rm×n
• g ′(~x0 ) ∈ Rn×k
Dimensionen passen also!
Beweis: (~
x → ~x0 )
Beispiele:
2. g : R → R , f : R4 → R3
2 4
sin x
x21 − x2 cos x
f (x1 , x2 , x3 , x4 ) = x2 , g(x, y) =
ey
(11.58)
x3 x4
xy
145
h := f ◦ g , h′ (π, 0) =?
cos x 0
2x1 −1 0 0 − sin x 0
f ′ (x1 , x2 , x3 , x4 ) = 0 1 0 0 , g ′ (x, y) =
0
(11.59)
ey
0 0 x4 x3
y x
Beispiele:
1. (n = m = 1)
sin2 x − y 3 + ex = 0 (11.64)
146
2. (n = m = 1)
sin2 x − y 2 + ex = 0 (11.65)
ex + 2 sin x cos x
f ′ (x) = − √ , (11.67)
2 ex + sin2 x
insbesondere an der Stelle x0 = 0: f ′ (0) = − 12 .
Geht aber au
h ohne explizites Auösen!
Leite F (x, f (x)) = 0 na
h x ab:
1 1
2 sin x cos x − 2f (x)f ′(x) + ex = 0 ⇒ f ′ (0) = =− (11.68)
2f (0) 2
3. (n = m = 1)
sin2 x − y cos(πy) + ex = 0 (11.69)
Löse in Umgebung von (x0 , y0 ) = (0, −1) na
h na
h y auf si
her ni
ht explizit, aber
′
viellei
ht f (0) =? Setze y = f (x) und leite na
h x ab:
2 sin x cos x − f ′ (x) cos(πf (x)) + f (x) sin(πf (x)) πf ′(x) + ex = 0 (11.70)
4. (n = 1, m = 2)
x3 + xey + sin z = 0
(11.72)
z 2 + y cos x = 0
In Umgebung von (0, 0, 0) na
h y und z auösbar, dh. deniert das dort Funktionen
y(x) und z(x)? Viellei
ht, aber wohl ni
ht explizit. Falls ja: Einsetzen und ableiten
(na
h x):
3x2 + ey(x) + xy ′(x)ey(x) + z ′ (x) cos(z(x)) = 0
(11.73)
2z(x)z ′ (x) + y ′(x) cos(x) − y(x) sin(x) = 0
An der Stelle x = 0: y(0) = z(0) = 0, d.h.
0 + 1 + 0 + z ′ (0) = 0
⇒ z ′ (0) = −1, y ′ (0) = 0 (11.74)
0 + y ′(0) − 0 =0
Falls sol
he Funktionen existieren!
147
Satz 35. (Implizite Funktionen)
Sei M ⊆ Rn+m oen, F : M → Rm .
x0 , ~y0 ) ∈ M mit ~x0 ∈ Rn und ~y0 ∈ Rm
Seien weiter (~ gegeben mit F (~x0 , ~y0 ) = 0.
1 ∂F
Ferner sei F ∈ C (M) und det ∂~ y
(~x0 , ~y0 ) 6= 0.
Dann existiert ein ε > 0, so dass es genau eine Funktion f : Rn ⊃ Uε (~x0 ) → Rm gibt mit
f (~x0 ) = ~y0 und
F (~x, f (~x)) = 0 ∀ ~x ∈ Uε (~x0 ) . (11.75)
−1
′ ∂F ∂F
f (~x) = − (~x, f (~x)) (~x, f (~x)) . (11.76)
∂~y ∂~x
∂F
(x, y) = − cos(πy) + y sin(πy) π
∂y
(11.77)
∂F
⇒ (0, −1) = − sin(−π) − sin(−π) π = 1 6= 0 ,
∂y
Beweisidee:
(Existenz und Dibarkeit von f ohne Bew., aber: Grund für Bedingung und Herleitung
148
der Formel für f ′)
! ∂F ∂F
0 = F (~x, ~y) = F (~x0 , ~y0 ) + (~x0 , ~y0 ) · (~x − ~x0 ) + (~x0 , ~y0 ) · (~y − ~y0 )
F dibar ∂~x ∂~y
p (11.81)
+o |~x − ~x0 |2 + |~y − ~y0 |2
h i−1
∂F
Auösen na
h ~y erfordert Multiplikation von links mit
∂~
y
(~x0 , ~y0) ,
∂F
daher Bedingung det ∂~
y
(~x0 , ~y0) 6= 0
Leite dann F (~x, f (~x)) = 0 na
h ~x ab (Kettenregel):
∂F ∂F ∂f
(~x, f (~x)) + (~x, f (~x)) (~x) = 0
∂~x ∂~y |∂~x{z }
f ′ (~
x) (11.82)
−1
∂F ∂F
⇒ f ′ (~x) = − (~x, f (~x)) (~x, f (~x)) ∀ ~x ∈ Uε (~x0 ) ,
∂~y ∂~x
Beweis:
Löse ~y = f (~x) na
h ~x = g(~y) auf, d.h.
löse F (~x, ~y ) = 0 mit
F (~x, ~y) := f (~x) − ~y (11.83)
Beispiel:
x1 − x22
f (x1 , x2 ) = (11.85)
2x2
′ 1 −2x2
det (f (x1 , x2 )) = det =2 (11.86)
0 2
149
also überall lokal umkehrbar, z.B. ~x0 = ( 12 )
−3
f (~x0 ) = f (1, 2) = = ~y0 (11.87)
4
−1
−1 ′ ′ −1 1 −4 1 2 4 1 2
f (−3, 4) = [f (1, 2)] = = = (11.88)
0 2 2 0 1 0 21
geht hier au
h explizit
x1 − x22 y
f (x1 , x2 ) = = 1 (11.89)
2x2 y2
(2. Komp.) x2 = 12 y2 , (in 1. Komp.) x1 − 14 y22 = y1 ⇒ x1 = y1 + 14 y22, also
−1 y1 + 14 y22
f (y1 , y2) = 1 (11.90)
y
2 2
und damit
1
−1 ′ 1 y
2 2 −1 ′ 1 2
f (y1 , y2 ) = 1 ⇒ f (−3, 4) = (11.91)
0 2
0 21
2 −(y−4)2
f (x, y) = e−(x−5) (11.92)
• Wurzeln
• Fallunters
heidungen
• Randpunkte
150
2. Idee: Geometris
h
x(t)
Angenommen wir haben NB parametrisiert, hier als Kurve K : ~x(t) = y(t) , d.h.
brau
hen wir ni
ht explizit hier geht's aber z.B. mit x = cos t, y = sin t, t ∈ [0, 2π]
Su
he Extremstelle von f (~x(t)), notwendige Bedingung:
d !
f (~x(t)) = (∇f )(~x(t)) · ~x˙ (t) = 0 (11.94)
dt
g repla ements
inheitswurzeln
inheitswurzeln
inheitswurzeln
inheitswurzeln
andererseits
g(~x(t)) = 0 ⇒ (∇g)(~x(t)) · ~x˙ (t) = 0 (11.95)
151
Su
he nun Extrema von
L(~x, λ) := f (~x) + λg(~x) , (11.97)
∂L
denn ∇L = 0 liefert obige Bedingung und
∂λ
=0 reproduziert NB.
Allgemein. . .
m
X
L(~x, ~λ) := f (~x) + λj gj (~x) (11.98)
j=1
∂L ∂L
(~x0 , ~λ0 ) = 0 und (~x0 , ~λ0 ) = 0 ∀ j = 1, . . . , m . (11.99)
∂~x ∂λj
2 2
f (x, y) = e−(x−5) −(y−4)
(11.100)
g(x, y) = x2 + y 2 − 1
2 −(y−4)2
L(x, y, λ) = e−(x−5) + λ(x2 + y 2 − 1) (11.101)
∂L 2 2 !
= −2(x − 5) e−(x−5) −(y−4) + 2λx = 0 (i)
∂x
∂L 2 2 !
= −2(y − 4) e−(x−5) −(y−4) + 2λy = 0 (ii)
∂y
∂L !
= x2 + y 2 − 1 = 0 (iii)
∂λ
Für x 6= 0 6= y bilde
✭
✭✭✭ ✭
✭✭✭
✭✭✭−(y−4) + 2 ✭✭✭−(y−4) = 0
2 2 2 2
e−(x−5)
(i) · y − (ii) · x : −2❆ y(x − 5) ✭ e−(x−5)
❆ x(y − 4) ✭
4
⇔ 5y = 4x ⇔ y= x
5
152
in (iii)
16 2 5
x2 + x =1 x = ±√
⇔ (11.102)
25 41
Also: Potentielle Extremstellen von f unter NB g = 0 sind
5 4 5 4
~x+ = √ , √ und ~x− = − √ , − √ . (11.103)
41 41 41 41
Bei x=0 oder y=0 nden wir keine weiteren Extrema.
Skizze zeigt, dass Maximum bei ~x+ und Minimum bei ~x− , . . . oder besser:
Wir sehen, dass
f (~x+ ) > f (~x− ) . (11.104)
Da f stetig ist und der Einheitskreis kompakt, nimmt die Funktion auf dem Einheitskreis
na
h Satz 27 Minimum und Maximum an, d.h. das Minimum wird bei ~x− und das Maximum
bei ~x+ angenommen.
153
9 Na
htrag: Dierentialglei
hungen (DGLn)
9.5 Existenz und Eindeutigkeit für Systeme und DGLn beliebiger
Ordnung
In Abs
hnitt 9.4 haben wir gezeigt, dass das AWP
Ersetzen wir nun y dur
h ~y : R → Rn und f dur
h f~ : Rn+1 → R, so erhalten wir ein
System aus n DGLn erster Ordnung und das AWP
Satz 21 und seinen Beweis kann man dann fast wörtli h übernehmen:
stetig und dort stetig partiell na
h y1 ,y2 , . . ., yn dierenzierbar. Weiter seien M und h
dur
h
M := max max |fj (x, ~y )| und h := min a, Mb (9.86)
j=1,...,n (x,~
y )∈D
154
auf
y1′ (x) y2 (x)
y ′ (x) y3 (x)
2
′ .. .
.
~y = . = . . (9.91)
′
yn−1 (x) yn (x)
′
yn (x) f (x, y1 (x), . . . , yn−1(x)
Um dann (unter gewissen Vorausseztungen) ein eindeutiges AWP zu erhalten, müssen wir
~y (x0 ) = ~y0 vorgeben, d.h. eine eindeutige Lösung der DGL
einen Anfangswert(-vektor)
n-ter Ordnung erhaltehn wir, wenn wir n Anfangswerte, y(x0 ), y ′(x0 ), . . ., y (n) (x0 ),
vorgeben (vgl. Abs
hnitt 9.3)
155
PSfrag repla
ements
2. Einheitswurzeln
g repla
ements
3. Einheitswurzeln
12 Integration im Rn 4. Einheitswurzeln
8. Einheitswurzeln
inheitswurzeln
inheitswurzeln 12.1 Berei
hs- und iterierte Integrale
inheitswurzeln
Beispiel:
inheitswurzeln
y y
φ2 (x)
d
ψ2 (y)
B B
ψ1 (y)
c
φ1 (x)
a b x x
Flä
heninhalt:
Z b
|B| = φ2 (x) − φ1 (x) dx
a
Z Z ! (12.1)
b φ2 (x)
= dy dx ,
a φ1 (x)
andererseits
Z d
|B| = ψ2 (y) − ψ1 (y) dy
c
Z Z ! (12.2)
d ψ2 (y)
= dx dy ,
c ψ1 (y)
Z b2 Z b1 Z b1 Z b2
f (x1 , x2 ) dx1 dx2 = f (x1 , x2 ) dx2 dx1 (12.3)
a2 a1 a1 a2
(ohne Beweis)
156
Verallgemeinerungen: Gilt au
h für
Z b1 Z bn
... f (x1 , . . . , xn ) dxn . . . dx1 (12.4)
a1 an
Beispiel:
ist Normalberei h.
und sei
x
x
K := y ∈ R3 ∈ B , ψ1 (x, y) ≤ z ≤ ψ2 (x, y) , (12.8)
y
z
sowie f stetig auf B und g stetig auf K . Dann heiÿt
Z ZZ Z b Z φ2 (x)
f dV := f dx dy := f (x, y) dy dx (12.9)
B B a φ1 (x)
bzw.
Z ZZZ Z bZ φ2 (x) Z ψ2 (x,y)
g dV := g dx dy dz := g(x, y, z) dz dy dx (12.10)
K K a φ1 (x) ψ1 (x,y)
157
Berei
hsintegral von
R f über B (von g über
R K analog für höhere Dimensionen). Speziell
heiÿen |B| = B
dV Flä
he von B und
K
dV Volumen von K .
Bemerkung:
Falls B oder K kein Normalberei
h: Versu
he, in Normalberei
he zu zers
hneiden.
Beispiele:
B = ~x ∈ R2 |~x|2 ≤ 1 (12.11)
PSfrag repla
ements
Z Z Z √
1 1−x2
|B| = dV = √
dy dx
B −1 − 1−x2
2. Einheitswurzeln
Z 1 √
3. Einheitswurzeln =2 1 − x2 dx , x = sin t
−1
4. Einheitswurzeln Z π
p Z π (12.12)
2 2
8. Einheitswurzeln 2 2
=2 1 − sin t cos t dt = 2 cos t dt
− π2 − π2
+ π2
t 1
=2 + sin(2t) =π
2 4 − π2
2. B = (x, y)T ∈ R2 |x| ≤ 1 , |y| ≤ 1 , f (x, y) = 2 − x2 − y 2
Z Z 1 Z 1
f dV = (2 − x2 − y 2) dx dy
B −1 −1
Z1 x=+1
x3 2
= 2x − −y x dy
−1 3 x=−1
Z 1
2 2 (12.13)
= 4 − − 2y dy
−1 3
+1
10 2 3
= y− y
3 3 −1
20 4 16
ans
hauli
h: Volumen zwis
hen = − =
z = f (x, y) und xy -Ebene 3 3 3
Bemerkung:
Damit haben wir das Berei
hsintegral als iteriertes Integral deniert.
Für weniger hübs
he Ränder komplizierter. . .
Die Konstruktion war angepasst an kartesis
he Koordinaten. Wie sollten wir für krumm-
Z dZ b
linige vorgehen? Dazu ahmen wir zunä
hst für f (x, y) dx dy die Konstruktion aus
c a
einer Dimension na
h:
158
1. Zerlege Re
hte
k in kleine Re
hte
ke
y
d
Bnm
(∆y)k Bjk
B12
B11 B21
c
(∆x)j
a b x
2. Bilde Ober- und Untersummen
n X
X m n X
X m
O U
Snm := max f (~x) · |Bjk | , Snm := min f (~x) · |Bjk | (12.14)
~
x∈Bjk ~
x∈Bjk
j=1 k=1 j=1 k=1
Analog:
Volumenelement in kartesis
hen Koordinaten: dxdydz inntesimaler Würfel/Quader,
n
bzw. im R : dx1 dx2 . . . dxn .
~x : Rn → Rn
(12.15)
~q 7→ ~x(~q)
159
8. Einheitswurzeln
x2
q2
(∆q2 )k
~xq2 Pjk
~xq1
(∆q1 )j q1
x1
1. Zerlege in kleine Parallelogramme Pjk , aufgespannt dur
h Tangentialvektoren an die
Koordinatenlinien.
n X
X m
O
Snm := max f (~x(~q)) · |Pjk | . (12.17)
q∈Pjk
~
j=1 k=1
dV = dx dy = det ~xq1 (~q), ~xq2 (~q) dq1 dq2 . (12.18)
160
Beispiele: (Siehe au
h Abs
hnitt 5.8, insbesondere Skizzen dort)
∂(x, y)
dV = dx dy = det dr dϕ
(r, ϕ)
(12.21)
cos ϕ −r sin ϕ
= det dr dϕ = r dr dϕ
sin ϕ r cos ϕ
(a) no
hmal Flä
he des Kreises, diesmal mit Radius R: K = ~ x ∈ R2 |~x| ≤ R
Z Z 2π Z R R
r2
dV = r dr dϕ = 2π = πR2 (12.22)
K 0 0 2 0
(b)
Z +∞
2
J := e−x dx =? (12.23)
−∞
Z +∞ 2 Z +∞ Z +∞ ZZ
2 −x2 −x2 −y 2 2 +y 2 )
J = e dx = e dx e dy = e−(x dx dy
−∞ −∞ −∞ R2
(12.24)
Polarkoordinaten. . .
Z Z " #∞
2π ∞ −r 2
2 e
J2 = e−r rdr dϕ = 2π = π, (12.25)
0 0 (−2)
0
√
und damit J= π, also
Z +∞ √
2
e−x dx = π (12.26)
−∞
x r sin ϑ cos ϕ 0≤r<∞
~x = y = r sin ϑ sin ϕ , 0≤ϑ≤π (12.27)
z r cos ϑ 0≤ϕ<2π
161
∂(x, y, z)
dV = dx dy dz = det dr dϑ dϕ
∂(r, ϑ, ϕ)
sin ϑ cos ϕ r cos ϑ cos ϕ −r sin ϑ sin ϕ
= det sin ϑ sin ϕ r cos ϑ sin ϕ r sin ϑ cos ϕ dr dϑ dϕ
cos ϑ −r sin ϑ 0
(12.28)
= r 2 sin ϑ cos ϑ(cos ϑ cos2 ϕ + cos ϑ sin2 ϕ)
2 2
+ sin ϑ (sin ϑ cos ϕ + sin ϑ sin ϕ) dr dϑ dϕ
= r 2 sin ϑ (cos2 ϑ + sin2 ϑ) dr dϑ dϕ
= r 2 sin ϑ dr dϑ dϕ (vgl. ÜA 45)
~xu × ~xv
(ii) Ist F regulär, so heiÿt ~n := Normale(-neinheitsvektor)
|~xu × ~xv |
(iii) Ist F Oberä
he eines Körpers K im R3 , so heiÿt ~ni innere Normale, falls ~ni Norma-
leneinheitsvektor ist und ins Innere von K zeigt, d.h. ~ ni = ±~n.
162
Beispiele:
3. Kegelmantel (h > 0)
v cos u
~x(u, v) = v sin u , 0 ≤ u < 2π , 0 ≤ v ≤ h (12.37)
v
− sin u cos u
~xu = v cos u , ~xv = sin u (12.38)
0 1
v cos u cos u
1
~xu × ~xv = v sin u , ~n = √ sin u (12.39)
−v 2 −1
regulär für v 6= 0
163
y
Oberä
he von F.
Beispiele:
164
g repla
ements
inheitswurzeln
inheitswurzeln
inheitswurzeln
inheitswurzeln
R
Bemerkung: Vorzei
hen von F
f~ dO
~ hängt von Parametrisierung ab.
= −a sin v dv du = −4πa .
|~
x(u,v)|=R 0 0
165
12.3 Integralsätze
Motivation: 1D Z b
f ′ (x) dx = f (b) − f (a) (12.46)
a
Mehrdimensional?
z.B. endli
her 2D Berei
h, B ⊂ R2 ,
mit Randkurve ∂B . . .
. . . oder 3D Berei
h, K ⊂ R3 ,
mit Oberä
he ∂K .
Satz 40. (Gauÿs
her Integralsatz)
Sei K ⊂ R3 ein Körper mit parametrisierter Oberä
he ∂K (stü
kweise glatt) und mit
innerer Normale ~ni , und ~ 3 3
sei f : R → R ein stetig dibares Vektorfeld. Dann gilt
ZZZ ZZ
divf~ dV = − ✝ ✆ f~ ~ni dO .
✞ ☎
(12.47)
K ∂K
| {z }
~
= dO
ZZ
✞ ☎
Notation ✝ ✆betont, dass es si
h um eine ges
hlossene Oberä
he handelt.
Beweisskizze:
Sei K Normalberei
h (falls ni
ht: zers
hneiden), d.h. insbesondere
x
x
K = y ∈ R3 ∈ B ⊂ R2 , ϕ1 (x, y) ≤ z ≤ ϕ2 (x, y)
y
z
(12.48)
x
x e ⊂ R2 , ψ1 (x, z) ≤ y ≤ ψ2 (x, z) ,
= y ∈ R3 ∈B
z
z
und damit
x x
x x
∂K = y ∈ R3 ∈ B , z = ϕ1 (x, y) ∪ y ∈ R3 ∈ B , z = ϕ2 (x, y) .
y y
z z
(12.49)
Stü
kweise
x −ϕj,x
~x = y ⇒ ~xx × ~xy = −ϕj,y (12.50)
ϕj (x, y) 1
166
Einheitswurzeln
d.h.
~ = ~ni dO = ±(~xx × ~xy ) dx dy .
dO (12.51)
f1
S
hreibe f~ = f2 und betra
hte
f3
ZZZ ZZ Z !
ϕ2 (x,y)
∂f3 ∂f3
dV = (x, y, z) dz dx dy
K ∂z B ϕ1 (x,y) ∂z
ZZ
(12.52)
= f3 (x, y, ϕ2(x, y)) − f3 (x, y, ϕ1 (x, y)) dx dy
ZBZ
✞☎
= − ✝ ✆ f3 (~ni )3 dO
∂K
167
PSfrag repla
ements
2. Einheitswurzeln
Beispiel: f~(~
3. Einheitswurzeln x) = ~x auf Kugel
Bemerkung: Ans
hauli
he Bedeutung von
4. Einheitswurzeln div
8. Einheitswurzeln
Satz 41. (Stokes's
her Integralsatz in der Ebene)
Sei B ⊂ R2 mit stü
kweise glatter, positiv orientierter, ges
hlossener Randkurve
∂B (d.h.
v
das Innere liegt links der v = 1 ein stetig dibares
Kurve), und ~ Vektorfeld, dann gilt
v2
ZZ I
∂v2 ∂v1
− dV = ~v d~x . (12.55)
B ∂x ∂y ∂B
Beweis:
v2
Betra
hte Gauÿs
hen Satz für K := B × [0, h] und f~ := −v1 .
0
Re
hte Seite:
oben/unten: ~ni = ∓~ez ⇒ jeweils~ni = 0; bleibt
f~ Integral über Mantelä
he.
x(t)
0≤t≤T
~x(t, z) = y(t) , 0≤z≤h
(12.57)
z
168
PSfrag repla
ements
2. Einheitswurzeln
3. Einheitswurzeln
ZZ Z Z Einheitswurzeln
h 4. T
f~ ~ni dO = ~
✞☎
✝✆ f · (~xz × ~xt ) dt dz
8. Einheitswurzeln
∂K 0 0
Z h Z 0T ẋ
= f~ · 0 × ẏ dt dz
0 0 1 0
Z hZ T v2 −ẏ
(12.58)
= −v1 · ẋ dt dz
0 0 0 0
Z T
v1 ẋ
= −h · dt
v 2 ẏ
I0
= −h ~v d~x
∂B
Zusammen mit (12.56) folgt die Behauptung.
(Beweisidee s.o.)
Bemerkungen:
v1
1. Ebener Stokes war Spezialfall mit F in xy -Ebene v = v2 ,
und ~
0
0
d.h. rot ~v = 0 .
∂v2 ∂v1
∂x
− ∂y
H
2. Weiterer Spezialfall: rot~v = ~0 ⇒ ∂F
~v d~x = 0 wegen Stokes.
Andererseits: rot~v = ~0 ⇒ ∃ U : R → R mit ~v = ∇U , und damit
3
I
~v d~x = U(Endpunkt) − U(Anfangspunkt) . (12.60)
∂F | {z H
}
=0 , da Endpkt. = Anfangspkt. für
169
13 Wahrs
heinli
hkeitsre
hnung & Statistik
13.1 Axiomatis
her Aufbau
Sei Ω im Folgenden stets eine ni
ht-leere Menge.
Beispiel: Ω = {1, 2, 3}
P(Ω) = ∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3} (13.1)
Denition: (σ -Algebra)
Eine Teilmenge A von P(Ω) mit
(i) Ω∈A
S
∞
(ii) (An )n∈N , Folge von Mengen aus A, d.h. An ∈ A ∀ n ∈ N ⇒ An ∈ A
n=1
(iii) A ∈ A ⇒ AC ∈ A
heiÿt σ -Algebra über Ω. Gilt (ii) nur für endli
he Vereinigungen, so heiÿt A Algebra.
Bemerkungen:
1. A oder B ( A vereinigt B )
A ∪ B := {ω ∈ Ω | ω ∈ A oder ω ∈ B} (13.2)
A ∩ B := {ω ∈ Ω | ω ∈ A und ω ∈ B} (13.3)
3. Komplementärereignis/-menge
AC := {ω ∈ Ω | ω ∈
/ A} (⇒ (AC )C = A) (13.4)
4. A ohne B / A minus B
A \ B := {ω ∈ Ω | ω ∈ A und ω∈
/ B}
(13.5)
C
=A∩B
5. Re
hne mit (∪, ∩) ähnli
h wie mit (+, ·), d.h. es gelten die übli
hen Assoziativ- und
Kommutativgesetze sowie zwei Distributivgesetze
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) ,
(13.6)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) .
170
6. De Morgans
he Regeln
(A ∪ B)C = AC ∩ B C ,
(13.7)
(A ∩ B)C = AC ∪ B C
Zum Beweis Bild
hen malen...
Beispiele:
(ii) A1 , . . . , An ∈ A ⇒ A1 ∪ . . . ∪ An ∈ A sowie A1 ∩ . . . ∩ An ∈ A
(iii) A, B ∈ A ⇒ A\B ∈A
(iv) (An ) Folge in A ⇒ ∃ Folge (Bn ) disjunkter Mengen in A mit
S
∞ S
∞
Bn ⊆ An ∀ n ∈ N und · Bn = An
n=1 n=1
Beweise:
∞ ∞
!C
\ [
(i) An = AC
n
n=1 n=1
∞
[
(ii) A1 ∪ . . . ∪ An = Aν mit Aν := ∅ ∀ ν > n
ν=1
\∞
A1 ∩ . . . ∩ An = Aν mit Aν := Ω ∀ ν > n
ν=1
C
(iii) A\B =A∩B
(iv) B1 := A1 , n ≥ 2: Bn := An \ (A1 ∪ . . . ∪ An−1 )
S
∞ S
∞
⇒ Bn ∈ A, paarweise disjunkt, Bn ⊆ An , Bn = An
n=1 n=1
(i) Ω 6= ∅
(ii) A ist σ -Algebra über Ω
(iii) P ist Wahrs
heinli
hkeitsmaÿ auf A, d.h. P :A→R mit
(a) P (A) ≥ 0 ∀ A ∈ A (Ni
htnegativität)
171
(
) Ist (An ) Folge disjunkter Mengen in A, d.h. Aj ∩ Ak = ∅ ∀ j 6= k , dann gilt
∞
! ∞
[ X
P · An = P (An ) (σ -Additivität). (13.8)
n=1 n=1
• A∈A Ereignis
|A|
Ω := {1, 2, 3, 4, 5, 6} , A := P(Ω) , P (A) := ∀A∈A (13.9)
6
|A| ist Anzahl der Elemente von A
Satz 44. Sei (Ω, A, P ) ein Wahrs heinli hkeitsraum, dann gilt
(i) P (∅) = 0
(ii) A, B ∈ A, A ⊇ B ⇒ P (A \ B) = P (A) − P (B)
(iii) A∈A ⇒ P (AC ) = 1 − P (A)
(iv) A, B ∈ A, A ⊆ B ⇒ P (A) ≤ P (B) (Monotonie)
P
n
(v) A1 , . . . , An paarweise disjunkt ⇒ P (A1 ∪ . . . ∪ An ) = P (Aν )
ν=1
(endli
he Additivität)
S
∞ P
∞
(vi) (An ) Folge in A ⇒ P An ≤ P (An ) (Subadditivität)
n=1 n=1
(iii)
P (A ∪ AC ) = P (Ω) = 1
(b)
⇒ P (AC ) = 1 − P (A)
(i)
P (∅) = 1 − P (Ω) = 0 (13.11)
(iii) (b)
172
(vii)
P (A ∪ B) = P (A ∪ (B \ A))
= P (A) + P (B \ A) +P (A ∩ B) − P (A ∩ B)
(c) (13.12)
= P (A) + P ((B \ A) ∪ (A ∩ B)) − P (A ∩ B)
| {z }
=B
P (A) := Wahrs heinli hkeit, dass zufällig aus I gewählte Zahl in A liegt. (13.13)
l(A)
Intuitiv liegt nahe: P (A) := , wobei l(I) = b − a Länge von I .
l(I)
Konstruiere Wahrs
heinli
hkeitsraum (Ω, A, P ):
• Ω := I
• A := eine σ -Albegra über Ω mit A ∈ A ∀ Intervalle A ⊂ I
l(A)
• P : A → [0, 1] mit P (A) := ∀ Intervalle A ⊂ I
l(I)
Man kann zeigen:
Sol
he A und P existieren, aber es ist A 6= P(Ω), wenn wir Translationsinvarianz verlangen,
d.h.
∀A∈A und ∀t∈R mit t+A∈A : P (t + A) = P (A) , (13.14)
wobei t + A = {ω ∈ Ω | ω − t ∈ A}.
Denition: (Erzeugung von σ -Algebren)
Sei Ω 6= ∅, M ⊂ P(Ω), dann heiÿt
\
Aσ (M, Ω) := B (13.15)
B⊃M
B: σ-Algebra über Ω
Man kann zeigen: Bn enthält alle oenen und abges hlossenen Teilmengen des Rn .
173
13.2 Kombinatorik
13.2.1 Lapla
es
he Wahrs
heinli
hkeitsräume
Beispiel: Beim idealen Würfeln sind alle Augenzahlen glei h wahrs heinli h.
Denition: Sei Ω eine endli he Ergebnismenge, dann heiÿt (Ω, P(Ω), P ) mit
|A|
P (A) = ∀A⊆Ω (13.17)
|Ω|
Lapla
es
her W-Raum.
Bemerkungen:
|A| Anzahl der günstigen Ausgänge
1. P (A) = =
|Ω| Anzahl der mögli
hen Ausgänge
2. In einem Lapla
es
hen W-Raum sind alle Elementarereignisse glei
h wahrs
heinli
h,
1
d.h ω ∈ Ω: P ({ω}) =
|Ω|
Beispiel:
Zweimaliges Werfen eines idealen Würfels.
A= Summe der Augenzahlen ist = 5 . P (A) = ?
A = {(ω1 , ω2 ) ∈ Ω | ω1 + ω2 = 5}
4 1 (13.19)
= {(1, 4), (2, 3), (3, 2), (4, 1)} ⇒ P (A) = =
36 9
13.2.2 Permutationen
n(n − 1) · · · 1 = n!
174
• Anzahl mögli
her Anordungen von n Objekten, die in j Gruppen mit jeweils k1 ,
k2 , . . . kj identis
hen Objekten vorkommen (k1 + k2 + . . . + kj = n):
n!
k1 ! k2 ! · · · kj !
n! mögli
he Anordnugen der n Objekte dividiert dur
h die Anzahl k1 ! der mögli
hen
Anordungen der Objekte vom Typ 1 innerhalb einer gegebenen Anordnung. . .
Beispiel: k1 = 2 rote Kugeln und k2 = 1 blaue Kugel, •••, lassen si
h auf 2!3!1! = 3
vers
hiedene Mögli
hkeiten anordnen:
(•••) (•••) (•••)
13.2.3 Urnenmodelle
• Ziehe k Kugeln
Anzahl der mögli hen Ergebnisse: (Beispiel: Urne mit n = 3 Kugeln, ziehe k = 2-mal)
Zum Ziehen mit Zurü klegen ohne Bea htung der Reihenfolge:
• Die
Pn Sti
hprobe enthält k Kugeln, davon sind jeweils kj vom Typ j , j = 1, . . . , n,
j=1 kj = k.
• Wir legen diese in n aufgereihte Eimer, jeweils die Kugeln vom Typ j in den j -ten
Eimer; z.B. so: ••• • •• für k=6, n=5.
• Die Sti
hprobe ist jetzt eindeutig dur
h die Angabe der Positionen der Zwis
henwän-
de
harakterisiert, d.h. wir müssen k Kugeln und n−1 Zwis
henwände anordnen;
Anzahl der Mögli
hkeiten (vgl. Abs
hnitt 13.2.2)
(k + n − 1)! n+k−1
=
k!(n − 1)! k
175
13.3 Bedingte Wahrs
heinli
hkeiten
Denition: (Bedingte Wahrs
heinli
hkeit)
Sei (Ω, A, P ) ein W-Raum, A, B ∈ A mit P (B) > 0, dann heiÿt
P (A ∩ B)
P (A|B) := (13.20)
P (B)
bedingte Wahrs
heinli
hkeit von A gegeben B.
Ω
A∩B
A
Bemerkungen:
P (A)
1. Mit AB := {A ∈ A | A ⊆ B} und PB (A) := für A ∈ AB ist
P (B)
(B, AB , PB ) ein W-Raum.
16
( 41 ) ( 28
9 ) 385
P (A1 ) = 32
=
( 10 ) 899
3
( )( ) 19 3
P (A2 |A1 ) = 1 22 9 =
( 10 ) 7 (13.22)
2
( )( ) 10 10
P (A3 |A1 ∩ A2 ) = 1 12 9 =
( 10 ) 33
50
P (A1 ∩ A2 ∩ A3 ) = P (A1 ) P (A2|A1 ) P (A3|A1 ∩ A2 ) = ≈ 5,6%
899
16 DaB nun die Ergebnismenge ist, muss au
h des Komplement bezügli
h B gebildet werden, d.h. wir
denieren AC := B \ A.
176
Denition: (Sto
hastis
he Unabhängigkeit)
Sei (Ω, A, P ) ein W-Raum.
(i) Zwei Ereignisse A und B heiÿen (sto hastis h) unabhängig, falls gilt
(ii) Endli
h oder abzählbar viele Ereignisse Ai ∈ A heiÿen (sto
hastis
h) unabhängig,
falls gilt
X
P (A) = P (A|Bk ) P (Bk ) ∀ A ∈ A , (13.25)
k
P (A|Bk ) P (Bk )
P (Bk |A) = P ∀k und ∀A∈A mit P (A) > 0 . (13.26)
j P (A|Bj ) P (Bj )
Beweis:
(i)
[
P (A) = P (A ∩ Ω) = P A ∩ Bk
k
[
=P (A ∩ Bk ) (13.27)
| {z }
k ⊆Bk und damit disjunkt
X X
= P (A ∩ Bk ) = P (A|Bk ) P (Bk )
k k
(ii)
P (Bk ∩ A) P (A|Bk ) P (Bk ) P (A|Bk ) P (Bk )
P (Bk |A) = = =P (13.28)
P (A) P (A) (i) j P (A|Bj ) P (Bj )
Beispiel: Gefangenenparadoxon
• In einem Gefängnis sitzen drei zum Tode verurteilte Gefangene: Anton, Brigitte und
Clemens.
177
• Genau einer von ihnen soll begnadigt werden. Dazu wird ein Los gezogen, das allen
die glei
he Chan
e gibt, begnadigt zu werden.
1
• Anton, der also eine Überlebenswahrs
heinli
hkeit von
3
hat, bittet den Wärter, der
das Ergebnis des Losents
heids kennt, ihm einen seiner Leidensgenossen, Brigitte
oder Clemens, zu nennen, der oder die sterben muss.
Ω = {A, B, C} × {B, C} = ω = (ω1 , ω2 ) | ω1 ∈ {A, B, C} , ω2 ∈ {A, B} (13.29)
analog Bb und Cb .
1
P (Ab) = P (Bb) = P (Cb) = 3
(13.33)
178
X(ω) = ω1 + ω2 , Augensumme aus beiden Würfen.
Wir s hreiben
1.2.Eine ZV X heiÿt diskret, falls die Wertemenge X(Ω) diskret, d.h. endli
h oder ab-
Einheitswurzeln
3.zählbar, ist.
Einheitswurzeln
2. Einheitswurzeln
2. Einheitswurzeln
2.4.Ist ein W-Raum (Ω, A,
Einheitswurzeln P ) diskret (d.h.
3. Einheitswurzeln Ω hö
hstens abzählbar), so ist jede ZV X :
3. Einheitswurzeln
8.Ω → R diskret.
Einheitswurzeln
4. Einheitswurzeln
4. Einheitswurzeln
Denition: Sei (Ω, A, P ) ein W-Raum und X:Ω→R eine ZV, dann heiÿt
FX : R → [0, 1]
(13.38)
x 7→ P (X ≤ x)
Verteilungsfunktion von X.
Beispiel: Zweifa
hes Würfeln (siehe oben).
X
FX (x) = P (X ≤ x) = P (X=k) (13.39)
k≤x
k 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
P (X=k) 36 36 36 36 36 36 36 36 36 36 36
Wird gerne so geplottet:
0.8
FX
0.6
0.4
0.2
0
0 2 4 6
x 8 10 12 14
179
Eigens
haften:
1. Binomialverteilung
Ein Zufallsexperiment habe 2 mögli
he Ausgänge: (E )rfolg oder (M )isserfolg, d.h.
e = Ωn = {ω = (ω1 , . . . , ωn ) | ωi ∈ Ω , i = 1, . . . , n}
Ω
(13.41)
Pe({ω}) = pk (1 − p)n−k , wobei k die Anzahl der ωi mit ωi = E ist,
Wir s
hreiben
X ∼ Bin(n, p) (13.46)
180
Beispiel:
X := # in 10 Würfen eines fairen Würfels ⇒ X ∼ Bin(10, 61 )
2. Poissonverteilung
Wir s
hreiben
X ∼ Pois(λ) (13.48)
und sagen X ist Poisson-verteilt mit Parameter λ, falls gilt X(Ω) = N0 und
λk −λ
P (X=k) = e , k ∈ N0 . (13.49)
k!
Verteilungsfunktion:
X λk
FX (x) = e−λ (13.50)
k!
k≤x
Normierung
∞
X
P (X=k) = lim FX (x)
x→∞
k=0
∞ (13.51)
X λk
= e−λ = e−λ eλ = 1
k!
k=0
Zx
FX (x) = fX (t) dt . (13.52)
−∞
Folgerungen:
3. Glei
hverteilung
Wir sagen X ist glei
hverteilt auf [a, b], wenn gilt
1
für x ∈ [a, b]
fX (x) = b−a . (13.53)
0 sonst
181
Verteilungsfunktion
0 , x≤a
x−a
FX (x) = b−a
, a≤x≤b (13.54)
1 , x≥b
4. Standardnormalverteilung
Wir s
hreiben X ∼ N (0, 1) und sagen X ist standardnormalverteilt, wenn gilt
PSfrag
PSfrag
PSfrag
repla
ements
PSfrag
repla
ements
PSfrag
repla
ements
PSfrag
repla
ements
repla
ements
repla
ements PSfrag PSfrag
repla
ements
repla
ements
1 x2
fX (x) = √ e− 2 (13.55)
2π
2. Einheitswurzeln
2. Einheitswurzeln
2. Einheitswurzeln
2. Einheitswurzeln
2. Einheitswurzeln
2. Einheitswurzeln 2. Einheitswurzeln
2. Einheitswurzeln
Normierung: Siehe Beispiel für Substitutionsregel.
3. Einheitswurzeln
3. Einheitswurzeln
3. Einheitswurzeln
3. Einheitswurzeln
3. Einheitswurzeln
3. Einheitswurzeln 3. Einheitswurzeln
3. Einheitswurzeln
Verteilungsfunktion bekommt eigenen Namen,
4. Einheitswurzeln
4. Einheitswurzeln
4. Einheitswurzeln
4. Einheitswurzeln
4. Einheitswurzeln
4. Einheitswurzeln 4. Einheitswurzeln
4. Einheitswurzeln
8. Einheitswurzeln
8. Einheitswurzeln
8. Einheitswurzeln
8. Einheitswurzeln
8. Einheitswurzeln
8. Einheitswurzeln Z8.
x Einheitswurzeln
8. Einheitswurzeln
1 2
− t2
Φ(x) := FX (x) = √ e dt (13.56)
2π
−∞
X
E(X) := xi P (X=xi ) (13.57)
xi ∈X(Ω)
Z +∞
E(X) := t fX (t) dt (13.58)
−∞
182
2. X ∼ Bin(n, p)
n
X
E(X) = k P (X=k)
k=0
Xn
n k
= k p (1 − p)n−k
k
k=1
Xn
n−1 k
= n p (1 − p)n−k
k−1 (13.60)
k=1
n−1
X
n − 1 k+1
=n p (1 − p)n−(k+1)
k
k=0
Xn−1
n−1 k
= np p (1 − p)n−1−k
k
|k=0 {z }
=1
3. X ∼ Pois(λ)
∞
X k ∞
X X∞
−λ λ −λ λk −λ λk
E(X) = ke =e =e λ =λ (13.61)
k=0
k! k=1
(k − 1)! k=0
k!
| {z }
=eλ
4. X ∼ N (0, 1)
Z +∞
1 x2
E(X) = √ x e− 2 dx = 0 (Symmetrie) (13.62)
2π −∞
1
5. X fX (t) =
Cau
hy-verteilt:
π(1 + t2 )
Z +∞
|t|
E(X) existiert ni
ht, da dt divergent
−∞ π(1 + t2 )
Z +∞
1 1
Bem: Aber normiert,
2
dt = arctan(∞) − arctan(−∞) = 1.
−∞ π(1 + t ) π
Satz 46. Sei X eine ZV auf (Ω, A, P ), für die E(X) existiert. Dann gilt ∀a, b ∈ R
183
(ii) µk := E(X k ), k ∈ N, k tes Moment von X, falls E(|X k |) existiert.
X
E(φ(X)) = φ(xi ) P (X = xi ) , falls X diskret,
xi ∈X(Ω)
Z +∞
(13.64)
Beispiele:
1
1. X diskret mit X(Ω) = {x1 , . . . , xn }, P (X=xi ) = n
∀ i = 1, . . . , n:
n
X
E(X) = xi P (X=xi )
i=1
n
1X
= xi =: µ ,
n i=1
n (13.65)
X
2
Var(X) = (xi − µ) P (X=xi )
i=1
n
1X
= (xi − µ)2 .
n i=1
7
2. Faires Würfeln: E(X) = 2
=: µ (s.o.)
6
X ( 52 )2 + ( 32 )2 + ( 21 )2 + ( 12 )2 + ( 32 )2 + ( 52 )2
Var(X) = (k − µ)2 P (X=k) =
k=1
6
(13.66)
2 25+9+1
4 35
= = ≈ 2,9
6 12
σX ≈ 1,7
1 (x−µ)2
fX (x) = √ e− 2σ2 . (13.67)
σ 2π
Dann gilt
E(X) = µ und Var(X) = σ 2 , (13.68)
184
x−µ dx
Denn mit z= σ
, dz = σ
, folgt
Z ∞ Z ∞
1 (x−µ)2 1 z2
√ e− 2σ2 dx = √ e− 2 dz = 1 (Normierung s.o.),
−∞ σ 2π −∞ 2π
Z ∞ Z ∞
x (x−µ)2 σz + µ − z2
E(X) = √ e− 2σ2 dx = √ e 2 dz = µ ,
−∞ σ 2π −∞ 2π
Z ∞ Z ∞ 2 2
(x − µ)2 − (x−µ) 2
σ z z2
Var(X) = √ e 2σ dx =
2 √ e− 2 dz
−∞ σ 2π −∞ 2π
∞ Z !
∞
(−1) − z2 (−1) − z2
= σ2 z· √ e 2 − √ e 2 dz = σ 2 .
p.I. 2π −∞ −∞ 2π
| {z } | {z }
=0 =1
(13.69)
Satz 47. Sei X eine ZV. Dann gilt falls die auftretenden Gröÿen existieren
(ii) E(X) =: µ
Var(X) = E (X − µ)2
= E X 2 − 2Xµ + µ2 )
= E(X 2 ) − 2µ E(X) +µ2 (13.71)
| {z }
=µ
2 2
= E(X ) − µ
σ2
P (|X − µ| ≥ a) ≤ ∀ a > 0. (13.72)
a2
185
Bemerkung: Mit a = λσ (alle positiv) gilt au
h
1 1
P (|X − µ| ≥ λσ) ≤ bzw. P (|X − µ| < λσ) ≥ 1 − , (13.73)
λ2 λ2
z.B.
1
P (|X − µ| ≥ 2σ) ≤ = 25% bzw. P (|X − µ| < 2σ) ≥ 75% und
4 (13.74)
1
P (|X − µ| ≥ 3σ) ≤ ≈ 11% bzw. P (|X − µ| < 3σ) ≥ 89% .
9
Groÿe Abwei
hungen vom Erwartungswert (gemessen in Einheiten der Standardabwei-
hung) sind also unwahrs
heinli
h. Daher ist die Varianz bzw. die Standardabwei
hung ein
Maÿ für die S
hwankungen einer ZV um ihren Erwartungswert.
Beweis:
1. X diskret:
X
σ 2 = E (X − µ)2 = (xi − µ)2 P (X=xi )
xi ∈X(Ω)
X
2
≥ (xi − µ) P (X=xi )
xi ∈X(Ω) (13.75)
|xi −µ|≥a
X
≥ a2 P (X=xi ) = a2 P (|X − µ|≥a)
xi ∈X(Ω)
|xi −µ|≥a
186
(i) E(Xi Xj ) = E(Xi ) E(Xj ) und
Beweis:
X X
E(Xi Xj ) = xk xl P (Xi =xk ) ∩ (Xj =xl )
xk ∈Xi (Ω) xl ∈Xj (Ω)
X X
= xk xl P (Xi =xk ) P (Xj =xl )
sto
h. unabh.
xk ∈Xi (Ω) xl ∈Xj (Ω) (13.77)
X X
= xk P (Xi =xk ) xl P (Xj =xl )
xk ∈Xi (Ω) xl ∈Xj (Ω)
| {z } | {z }
=E(Xi ) =E(Xj )
analog für stetige ZV allerdings müssen wir dazu zunä
hst das Konzept der ge-
meinsamen Di
hte für mehrere ZV einführen (analog zum Konzept der Di
hte für
eine ZV):
Z +∞ Z +∞
E(Xi Xj ) = xi xj fXi Xj (xi , xj ) dxi dxj
−∞ −∞
Z +∞ Z +∞
= xi xj fXi (xi ) fXj (xj ) dxi dxj
sto
h. unabh. −∞ −∞ (13.78)
Z +∞ Z +∞
= xi fXi (xi ) dxi xj fXj (xj ) dxj
| −∞ {z } | −∞
{z }
=E(Xi ) =E(Xj )
(ii) E(Xi ) =: µi
Var(Xi + Xj )
2
= E (Xi + Xj ) − (µi + µj )
= E (Xi − µi )2 + (Xj − µj )2 + 2(Xi − µi )(Xj − µj )
= E (Xi − µi )2 + E (Xj − µj )2 +2 E(Xi Xj ) −E(Xi )µj − µi E(Xj ) + µi µj
| {z } | {z } | {z }
=Var(Xi ) =Var(Xj ) = E(Xi )E(Xj )
(i)
| {z }
=0
(13.79)
187
Lemma 49. Seien X1 , . . . , Xn unabhängig normalverteilt
P mit E(Xj ) = µj und Var(Xj ) =
σj2 , d.h. Xj ∼ N (µj , σj2 ). Dann gilt für Y := nj=1 Xj :
Pn Pn
Y ∼ N( j=1 µj , j=1 σj2 ) (13.80)
1
Exponent: − 2
σ22 z 2 − 2σ1 σ2 zz1 + σ12 z12 + σ22 z12
2σ2
σ12 + σ22 σ22 2 σ1 σ2 z 2
=− z −2 2 z1 + z1
2σ22 σ12 + σ22 σ1 + σ22
2 !
σ12 + σ22 σ1 σ2 z σ12 σ22 σ 2
=− z1 − 2 − 2 z2 + 2 2 2 z2 (13.82)
2σ22 σ1 + σ22 (σ1 + σ22 )2 σ1 + σ2
| {z }
σ24 z2
= 2 +σ 2 )2
(σ1 2
2
σ2 + σ2 σ1 σ2 z σ22 z 2
=− 1 2 2 z1 − 2 −
2σ2 σ1 + σ22 2(σ12 + σ22 )
q 2 2πσ2
einsetzen, z1 -Integral ausführen liefert
σ12 +σ22
Z y−µ1 −µ2
s 2 2
σ2 1 2πσ22 − 2(σσ22+σ
z
2 t = σ2 z + µ1 + µ2
FY (y) = e 1 2 ) dz
−∞ 2π 2 2
σ1 + σ2 dz = σ12 dt
Z (13.83)
y (t−(µ1 +µ2 ))2
1 − 2 +σ 2 )
= p e 2(σ1 2 dt
−∞ 2π(σ12 + σ22 )
188
13.5 Exkurs: Bes
hreibende Statistik
Denition: Sei {x1 , . . . xn } eine Sti
hprobe (n Zahlen, kommen irgendwo her). Dann hei-
ÿen
n n
1X 1 X
x := xi und s2x := (xi − x)2 (13.84)
n i=1 n − 1 i=1
Mittelwert (arithmetis
hes Mittel) und empiris
he Varianz (Sti
hprobenvarianz) der Sti
h-
p
probe. Weiter heiÿt sx := s2x empiris
he Standardabwei
hung.
1
Warum der Vorfaktor ?
n−1
Betra
hte die xi als Werte, die von Zufallsvariablen Xi angenommen werden, wel
he alle
dur
h die glei
he Verteilung bes
hrieben werden.
Ziel: S
hätze eine Kenngröÿe oder einen Parameter ϑ der Verteilung (z.B. den Erwartungs-
2 n
wert µ, oder die Varianz σ ) aus der Sti
hprobe mithilfe einer S
hätzfunktion ϑ̂ : R → R
m
(oder → R ) dur
h ϑ ≈ ϑ̂(x1 , . . . , xn ). Das ist eigentli
h bereits s
hlieÿende Statistik. . .
Eine mögli
herweise wüns
henswerte Eigens
haft dieser S
hätzfunktion ist die Erwartungs-
treue.
Denition: Seien X1 , . . . , Xn unabhängige ZV, die alle die glei
he Verteilung haben,
kurz seienX1 , . . . , Xn iid (independent and identi
ally distributed). Eine S
hätzfunktion,
n
ϑ̂ : R → R für einen Parameter bzw. eine Kenngröÿe ϑ der Verteilung heiÿt erwartungs-
treu, falls gilt
E ϑ̂(X1 , . . . , Xn ) = ϑ . (13.85)
Beispiele:
n
!
1X
E µ̂(X1 , . . . , Xn ) = E Xi
n i=1
n
1X
= E(Xi ) (13.86)
n i=1
n
1X
= µ=µ Ja!
n i=1
2 2
2. Kenngröÿe: Varianz σ = E (Xi − µ) ∀ i = 1, . . . , n
2 2
S
hätzfunktion: σ̂ (x1 , . . . , xn ) = sx (empiris
he Varianz)
189
Erwartungstreu?
n
1 X
s2x = (xi − x)2
n − 1 i=1
n n
!2
1 X 1X
= xi − xj
n − 1 i=1 n j=1
n n n n
!
1 X 2X 1 XX
= x2i − xi xj + 2 xj xk
n − 1 i=1 n j=1 n j=1 k=1
n n n n n
!
1 X 2 XX 1 XX
= x2i − xi xj + xj xk
n−1 n i=1 j=1 n j=1
i=1 k=1 (13.87)
| {z }
n P
P n
1
=− n xi xj
i=1 j=1
n n
1 X X x2i xi xj
= −
n − 1 i=1 j=1 n n
Xn X n
1 x2i + x2j 2xi xj
= −
n(n − 1) i=1 j=1 2 2
XX n n
1
= (xi − xj )2
2n(n − 1) i=1 j=1
Xn Xn
2
1 2
E σ̂ (X1 , . . . , Xn ) = E (Xi − Xj )
2n(n − 1) i=1 j=1
Xn X n
1 2 2
= E(Xi ) + E(Xj ) − 2 E(Xi Xj )
2n(n − 1) i=1 j=1 | {z } | {z }
=2E(X 2 ) E(Xi )E(Xj ) i6=j
=
E(X 2 ) , i=j
1 2
= 2n2 E(X 2 ) − 2nE(X 2 ) − 2n(n − 1) E(X)
2n(n − 1)
= E(X 2 ) − [E(X)]2 = σ 2 Ja!
(13.88)
Bemerkung: Als S
hätzung für die Standardabwei
hung σ verwenden wir gerne die em-
piris
he Standardabwei
hung sx (aber ni
ht erwartungstreu).
190
13.6 Grenzwertsätze
Satz 50. (S
hwa
hes Gesetz der groÿen Zahlen)
Sei (Xk )k∈N eine Folge unabhängiger ZV, die alle die glei
he Verteilung
Pn haben (kurz: iid),
2 1
mit E(Xk ) = µ und Var(Xk ) = σ ∀ k . Dann gilt für Yn := k=1 Xk :
n
Beweis:
n
! n
1X 1X
E(Yn ) = E Xk= E(Xk ) = µ
n k=1 n k=1 | {z }
=µ
n
! n
(13.90)
1X 1 X σ2
Var(Yn ) = Var Xk = 2 Var(Xk ) =
n n | {z } n
k=1 k=1
=σ2
σ2
∀ε>0: P (|Yn − µ| ≥ ε) ≤ −→ 0 . (13.91)
nε2 n→∞
Yn√
−µ
Bemerkung: Die ZV Zn := σ/ n
ist standardisiert (d.h. E(Zn ) = 0 und Var(Zn ) = 1); es
gilt
√ n n
n 1X 1 X Xk − µ
Zn = (Xk − µ) = √ . (13.92)
σ n k=1 n k=1 σ
| {z }
=Yn −µ
Zn ∼ N (0, 1) .
n→∞
(ohne Beweis)
Bemerkung: Es gibt Varianten und Vers
härfungen. Für den Hausgebrau
h merken wir
uns grob: Sind X1 , X2 , . . . iid, so ist die Summe Sn := X1 + X2 + . .. + Xn für groÿe n
ungefähr normalverteilt, also näherungsweise Sn ∼ N E(Sn ), Var(Sn ) .
191
4. Einheitswurzeln
8. Einheitswurzeln
• eine Gröÿe betra
hten (Teststatistik), die si
h aus den Daten ermitteln läÿt, und
• zeigen, dass der beboa
htete Wert der Gröÿe sehr unwahrs
heinli
h ist, falls die An-
nahme stimmt.
Beispiel:
9P
10 P
100
17 denn ( 100 1 k 5 100−k
≈ 2,1% 4,3% und ( 100 1 k 5 100−k
≈ 2,2% 3,8%
k ) (6) (6) k ) (6) (6)
k=0 k=25 24
192
Bemerkungen:
3. Es gibt ein kritis
hes α zwis
hen 1% und 5%, an dem si
h die Testents
heidung für
die Beoba
htung X = 8 ändert; diese Zahl heiÿt p-Wert.
Genauer: Der p-Wert ist die Wahrs
heinli
hkeit dafür, unter H0 etwas zu beoba
h-
ten, was HA mindestens so stark unterstützt wie die tatsä
hli
he Beoba
htung.
Im Beispiel:
X8 k 100−k
100 1 5
p-Wert = 2 ≈ 1,9% (13.93)
k 6 6
k=0
Im Beispiel: X ∼ Bin(100, w)
H0 : w = w0 , HA : w 6= w0 .
Bedingungen:
193
13.7.1 Der t-Test
Fragestellung:
Sti
hprobe {x1 , . . . , xn }, betra
hte als Werte von Zufallsvariablen {X1 , . . . , Xn }, iid.
Testablauf
1. H0 : µ = µ 0
2. HA : µ 6= µ0
so beidseitig einseitig wäre µ > µ0 oder µ < µ0
x − µ0
3. Teststatistik: T = √
P sx / n Pn
wobei: x = n1 nj=1 xj und s2x = 1
n−1 j=1 (xj − x)2
4. Verteilung von T unter H0 :
x − µ0
Wäre die wahre Varianz bekannt, so könnten wir Z= √ bilden,
σ/ n
wobei Z ∼ N (0, 1) unter H0 (d.h. für µ = µ0 ).
Stattdessen: S
hätze Varianz aus Daten.
Folge: T hängt über x und sx von den Daten ab und ist nur für n → ∞ normalverteilt.
Man kann zeigen:
18 T folgt der sogenannten (Student's
hen) t-Verteilung mit d =
n−1 Freiheitsgraden; Di
hte:
0.4
d= 1
d= 2
0.35
d = 10
N (0, 1)
0.3
0.25
0.2
0.15
0.1
0.05
0
−5 −4 −3 −2 −1 0 1 2 3 4 5
194
Die Verteilungsfunktion FT ,d ist tabelliert (siehe z.B. http://de.wikipedia.org/
wiki/Students
he_t-Verteilung).
Denieren wir td;q dur
h FT ,d (td;q ) = q , so gilt z.B.
5. z.B. α = 5%
6. Verwerfungskriterium:
|T | > tn−1;0,975 (13.95)
sx sx sx sx
[x − tn−1;0,975 √ , x + tn−1;0,975 √ ] ≈ [x − 2 √ , x + 2 √ ] falls n hinrei
hend groÿ.
n n n n
(13.97)
195