Beruflich Dokumente
Kultur Dokumente
Mathematik II
Theresa Blümlein
2
11.2 Quadratische Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3
1 Normen und Metriken
1.1 Normen auf dem Rn
1.1.1 Denition einer Norm
|| · || : R → R heiÿt Norm, falls folgende Eigenschaften erfüllt sind:
r n
• 2-Norm: ||x||2 = (xi )2 (auch Euklid-Norm)
P
i=1
4
1.2 Konvergenz im Rn
Eine Folge (xn )n ∈ N im Rn heiÿt konvergent gegen x0 ∈ Rn , falls
∃ε > 0 : ∃n0 = n0 (ε) ∈ N0 ∀n ≥ no : ||xn − x0 || < ε
Ein Beispiel für eine Metrik ist die Abbildung d(~x, ~y) := ||~x − ~y || ~x, ~y ∈ Rn , die sich
einer Norm || · || als Operator bedient und den Abstand zwischen zwei Vektoren misst.
1.3.1 ε-Umgebungen
1. Die oene ε-Umgebung um den Punkt x0 mit einem festen ε > 0 ist wie folgt
deniert: Uε (x0 ) := {x ∈ X : d(x, x0 ) < ε}
2. Die abgeschlossene ε-Umgebung um den Punkt x0 ist wie folgt deniert:
Kε (x0 ) := {x ∈ X : d(x, x0 ) ≤ ε}
5
2 Stetige Funktionen
2.1 Sätze
2.1.1 Folgenstetigkeit = Stetigkeit
Seien A ⊆ Rn , B ⊆ Rm und f : A → B, ~x 7→ ~y = f (~x) eine Funktion von n reellen
Veränderlichen. f ist stetig im Punkt ~a ∈ A, falls für jede Folge (x~k )k∈N mit ~xk ∈ A, k ∈
N und lim x~k = ~a gilt: lim f (x~k ) = f (~a)
k→∞ k→∞
Stetigkeit kann durch günstige Wahl einer Folge mittels Folgenstetigkeit widerlegt und
durch das Sandwichtheorem bewiesen werden:
0 ≤ |f (xn , yn ) − f (x0 , y0 )| ≤ vereinfachte Folge → 0 (n → ∞),
also f (xn , yn ) → f (x0 , y0 ) (n → ∞)
3 Dierenzierbarkeit
3.1 Partielle Ableitungen
Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ ~y = f (~x).
Die Funktion f heiÿt im Punkt ~a ∈ A partiell dierenzierbar nach der Variablen xi
mit i = 1, ..., n, falls folgender Grenzwert existiert:
∂f f (a1 , ..., u, ..., an ) − f (~a)
f xi = (~a) := lim
∂xi u→ai ,u6=ai u − ai
Dabei ist die partielle Ableitung von f nach xi im Punkt ~a die gewöhnliche eindimen-
sionale Ableitung der Funktion pi f (u, ~a), ausgewertet an der Stelle u = ai , also
∂f
f xi = (~a) = (pi f )0 (u; ~a)
∂xi
6
3.1.1 Der Gradient
Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ ~y = f (~x) im Punkt ~a partiell dierenzierbar
nach allen Variablen. Dann beschreibt folgender Spaltenvektor den Gradienten mit:
∂f
∂x1
(~a)
..
∇f (~a) = grad(f )(~a) = .
∂f
∂xn
(~a)
Der Gradient kann in ~a auch existieren, obwohl die Funktion f dort nicht dierenzierbar
ist. Näheres hierzu folgt unter 3.3. Totale Dierenzierbarkeit.
3.2 Richtungsableitungen
e1
.
.. ∈ Rn heiÿt Richtungsvektor, falls ||~e||2 = 1.
Ein Vektor ~e =
en
Betrachtet man die Schnittfunktion R 3 t 7→ g(t) := f (~a + t · ~e), so ist die Richtungs-
ableitung von f im Punkt ~a in Richtung ~e wie folgt deniert:
∂f g(t) − g(0)
(~a) := g 0 (~0) = lim
∂~e t→0 t−0
Partielle Ableitungen: spezielle Richtungsableitungen entlang der Koordinatenachsen.
3.4 Sätze
1. Ist f partiell dierenzierbar nach allen Variablen xi in einer oenen δ -Umgebung
Uδ (~a) ⊆ A und sind alle partiellen Ableitungen stetig im Punkt ~a, so ist f total
dierenzierbar im Punkt ~a.
2. Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ ~y = f (~x) im Punkt ~a total dierenzier-
bar, so ist f im Punkt ~a stetig.
3. Ist f : A → Rn , ~x 7→ ~y = f (~x) im Punkt ~a nicht stetig, so ist f im Punkt ~a auch
nicht dierenzierbar.
4. Verkettungen von Funktionen, die alle im Punkt ~a ∈ Rn dierenzierbar sind, sind
als Komposition dierenzierbarer Funktionen wieder dierenzierbar in ~a.
7
3.5 Tangentialebenen
Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ z = f (~x) im Punkt ~a (total) dierenzierbar,
es existiere also die Ableitung
∂f ∂f
f 0 (~a) = ( (~a), ..., (~a))
∂x1 ∂xn
Die Tangentialhyperebene im Punkt (~a, f (~a)) an den Graphen der Funktion f im
Rn+1 lautet dann:
x 1 − a1
∂f ∂f ..
z = f (~a) + ( (~a), ..., (~a)) · .
∂x1 ∂xn
x n − an
Sind alle auftretenden partiellen erster und zweiter Ordnung stetig, so ist die obige n×n
Matrix symmetrisch. Daraus folgt die Unabhängigkeit der Dierentiationsreihenfolge.
Es gilt also: fxy = fyx
8
5 Kettenregel
5.1 Hintereinanderausführung von 2 dibaren Funktionen
f1 (~x)
Seien A ⊆ Rn oen und f : A → Rl , ~x 7→ ~y = f (~x) = .. im Punkt x0 ∈ A total
.
fl (~x)
dierenzierbar mit einer Ableitung f 0 (x0 ) ∈ Ml×n (R).
g1 (~y )
Weiter seien B ⊆ Rl oen und g : B → Rm , ~y 7→ ~z = g(~y ) = .. im Punkt
.
gm (~y )
y0 ∈ B total dierenzierbar mit einer Ableitung g 0 (y0 ) ∈ Mm×l (R).
Die Verkettung h := g ◦ f ist auch im Punkt x0 (total) dierenzierbar und die Ableitung
lautet:
∂g1 ∂g1 ∂f1 ∂f1
(y~ ) . . . .
∂y1 0 ∂yl
(y~0 ) ∂x1
(x~0 ) . . . . ∂xn
(x~0 )
h0 (x~0 ) = .. .. .. ..
. . · . . ∈ Mm×n
∂gm ∂gm ∂fl ∂fl
∂y1
(y~0 ) . . . . ∂yl (y~0 ) ∂x1
(x~0 ) . . . . ∂xn
(x~0 )
9
6 Dierenzierbare Funktionen
6.1 Eigenschaften des Gradienten
Seien A ⊆ Rn oen und f : A → R, ~x 7→ f (~x) im Punkt ~a ∈ A total dierenzierbar mit
der Ableitung f 0 (~a) = ∇f (~a). Auÿerdem besitzt f im Punkt ~a Richtungsableitungen in
alle Richtungen ~e und mit h·, ·i als Standardskalarprodukt gilt für die Richtungsablei-
tung im Punkt ~a: ∂f ∂~e
(~a) = h∇f (~a), ~ei.
Unter der Voraussetzung ∇f (~a) 6= ~0 gilt: Der Gradient ∇f (~a) gibt die Richtung
des steilsten Anstieges von f im Punkt ~a an.
Maximum: Der Punkt ~a ∈ A heiÿt lokales Maximum von f , falls es eine Umgebung
Uε (~a) ⊆ A von ~a gibt mit f (~x) ≤ f (~a) ∀~x ∈ Uε (~a).
Minimum: Der Punkt ~a ∈ A heiÿt lokales Minimum von f , falls es eine Umgebung
Uε (~a) ⊆ A von ~a gibt mit f (~x) ≥ f (~a) ∀~x ∈ Uε (~a).
Bei ∇f (~a) = ~0, also wenn alle Richtungsableitungen null betragen, handelt es sich
um stationäre Punkte von f , welche aus dem nichtlinearen Gleichungssystem mit
fx (x, y) = 0 und fy (x, y) = 0 ermittelt werden können.
! !
Die Menge M heiÿt konvex, falls gilt: S(a, b) ⊆ M ∀a, b, also falls auch alle Ver-
bindungsstrecken zwischen zwei beliebigen Vektoren aus M wieder in M liegen.
Es gilt auÿerdem: f ist konvex auf A ⇔ die Menge M ist eine konvexe Teilmenge
des Rn+1 mit M := {(x1 , ..., xn , y) ∈ Rn+1 : (x1 , ...xn ) ∈ A und y ≥ f (x1 , ..., xn )}
10
7 Reelle symmetrische Matrizen
Sei A = A0 ∈ Mn (R) eine reelle und symmetrische (n × n)-Matrix mit A = (αi,j ),
i, j = 1, ..., n und αi,j ∈ R, sodass αi,j = αj,i ∀i, j :
α1,1 . . . . α1,n
A = ... ... ..
.
αn,1 . . . . αn,n
7.1 Löwnerordnung
Es seien A, B ∈ Mn (R) zwei reelle, symmetrische (n × n)-Matrizen, für die mittels
folgender Äquivalenz eine Ordnungsrelation (reexiv, transitiv, antisymmetrisch), die
Löwnerordnung, auf der Menge aller reellen, symmetrischen Matrizen deniert ist:
A ≥ B ⇔ ∀~x ∈ R : qA−B (~x) = ~x0 · (A − B) · ~x ≥ 0
7.2 Denitheit
a b
Sei A = eine (2 × 2)-Matrix.
b c
11
8 Konvexe Funktionen und zweite Ableitung
Seien A ⊆ Rn oen und f : A → R, ~x 7→ f (~x) im Punkt ~a ∈ A zweimal partiell dieren-
zierbar nach allen Variablen mit der Ableitung f 0 (~a) = ( ∂x
∂f
1
∂f
(~x), ..., ∂x n
(~x))0 .
Die zweite Ableitung von f im Punkt (~a) heiÿt auch Hessenmatrix und ist symme-
trisch, falls die zweiten partiellen Ableitungen von f auf A stetig sind (vgl. Satz von
Schwarz):
∂2f ∂2f
∂x1 ∂x1
(~a) .... ∂x1 ∂xn
(~a)
.. ..
H(f ; ~a) = . .
∂2f ∂2f
∂xn ∂x1
(~a) . . . . ∂xn ∂xn (~a)
Spezialfälle
• T0 (~x, f, ~a) = f (~a)
• T1 (~x, f, ~a) = f (~a) + 1
1!
· f 0 (~a) · (~x − ~a) (Tangentialebene)
• T2 (~x, f, ~a) = f (~a) + f 0 (~a) · (~x − ~a) + 1
2!
· (~x − ~a)0 · H(f, ~a) · (~x − ~a)
12
10 Implizit denierte Funktionen
√
Abgrenzung: Während beispielsweise y = f (x) = 4 − x2 eine explizite Funktion ist,
bei der nach einer Variablen y aufgelöst wurde, ist folgende Funktion beispielsweise
implizit deniert, da sie innerhalb einer Gleichung auftritt: 0 = x2 + y 2 − 4.
10.2 Hauptsatz
Voraussetzungen
Seien ∅ 6= D1 , D2 ⊆ R mit D1 , D2 als oene Mengen und D = D1 × D2 ⊆ R2 .
1. Die Funktion G : D → R, (x, y) 7→ G(x, y) ist stetig dierenzierbar.
Dies bedeutet, dass alle partiellen Ableitungen existieren und stetig sind.
2. Für beliebige a ∈ D1 , b ∈ D2 gilt: G(a, b) = 0
3. wichtig! Es gilt: ∂G
∂y
(a, b) 6= 0
Graphisch bedeutet dies, dass keine senkrechte Tangente in (a, b) an die Höhenlinie
G(x, y) = 0 existieren darf.
Folgerungen
Unter den obigen Voraussetzungen besagt der Hauptsatz, dass zwei Umgebungen
U1 = U (a) ⊆ D1 und U2 = U (b) ⊆ D2 sowie eine eindeutig bestimmte, stetige und stetig
dierenzierbare Funktion f : U1 → U2 , x 7→ y = f (x) existieren mit
1. f (a) = b
2. G(x, f (x)) = 0 ∀x ∈ U1 = U (a)
∂G
3. f 0 (x) = − ∂G
(x,f (x))
∂x
(x,f (x))
∀x ∈ U1 = U (a)
∂y
13
Ableitungen
Die erste Ableitung f 0 (x) in (a, b) erhält man durch Dierenziation von G(x, f (x)) = 0
mithilfe der Kettenregel:
0 1
G (x, f (x)) = ∇G(x, f (x)) · T
0 = Gx (x, f (x)) + f 0 (x) · Gy (x, f (x)) = 0
f (x)
Die zweite Ableitung f 00 (x) in (a, b) erhält man durch erneute Dierenziation der Glei-
chung G0 (x, f (x)) = 0 mithilfe der Produkt- und Kettenregel:
00 1 00 0 1
G (x, f (x)) = (Gxx , Gxy ) · 0 + f (x) · Gy + f (x) · (Gyx , Gyy ) · 0
f (x) f (x)
• Bei ∇G(a, b) = ~0 handelt es sich zunächst um einen singulären Punkt der Kur-
vengleichung (vgl. Extremum).
Eine positiv denite Hessenmatrix H(F ; (a, b)) > 0 indiziert ein Maximum
und somit einen isolierten Punkt.
Eine negativ denite Hessenmatrix H(F ; (a, b)) < 0 indiziert ein Minimum
und somit einen isolierten Punkt.
Eine indenite Hessenmatrix H(F ; (a, b)) indiziert einen Doppelpunkt, also
einen Sattelpunkt von G.
14
11 Zusatz: Regression
Die Methode der kleinsten Quadrate hat das Ziel, den Fehlervektor ~ε zu minimieren,
um eine möglichst repräsentative Gerade durch die ermittelten Daten zu legen.
15