Sie sind auf Seite 1von 15

Zusammenfassung

Mathematik II

Theresa Blümlein

30. Juli 2015

Dozent zur Vorlesung: Dr. Martin Folkers

Institut für Stochastik

Karlsruher Institut für Technologie


Inhaltsverzeichnis
1 Normen und Metriken 3
1.1 Normen auf dem Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Konvergenz im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Metrische Räume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Stetige Funktionen 5
2.1 Sätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Partielle Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Dierenzierbarkeit 5
3.1 Partielle Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.2 Richtungsableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.3 Totale Dierenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.4 Sätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5 Tangentialebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4 Höhere partielle Ableitungen 7
4.1 Satz von Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.2 Die zweite Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
5 Kettenregel 8
5.1 Hintereinanderausführung von 2 dibaren Funktionen . . . . . . . . . . . 8
5.2 Anwendung Kettenregel auf Berechnung der Richtungsableitung . . . . . 8
6 Dierenzierbare Funktionen 9
6.1 Eigenschaften des Gradienten . . . . . . . . . . . . . . . . . . . . . . . . 9
6.2 Stationäre Punkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
6.3 Konvexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
7 Reelle symmetrische Matrizen 10
7.1 Löwnerordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
7.2 Denitheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
8 Konvexe Funktionen und zweite Ableitung 11
9 Taylorpolynome, Satz von Taylor 11
10 Implizit denierte Funktionen 12
10.1 Implizit denierte Funktionen in der Ebene . . . . . . . . . . . . . . . . . 12
10.2 Hauptsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
10.3 Ebene Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
11 Zusatz: Regression 14
11.1 Lineare Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2
11.2 Quadratische Regression . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3
1 Normen und Metriken
1.1 Normen auf dem Rn
1.1.1 Denition einer Norm
|| · || : R → R heiÿt Norm, falls folgende Eigenschaften erfüllt sind:

1. Denitheit : ||x|| > 0 ∀x ∈ R und falls ||x|| = 0 ⇔ x = 0

2. Homogenität : ||λ · x|| = |λ| · ||x|| ∀λ ∈ R, x ∈ Rn

3. Dreiecksungleichung : ||x + y|| ≤ ||x|| + ||y|| ∀x, y ∈ Rn

1.1.2 Beispiele für Normen


n
• 1-Norm: ||x||1 = |xi | (auch Spaltensumme)
P
i=1

r n
• 2-Norm: ||x||2 = (xi )2 (auch Euklid-Norm)
P
i=1

• ∞-Norm: ||x||∞ = maxi=1,...,n |xi |

4
1.2 Konvergenz im Rn
Eine Folge (xn )n ∈ N im Rn heiÿt konvergent gegen x0 ∈ Rn , falls
∃ε > 0 : ∃n0 = n0 (ε) ∈ N0 ∀n ≥ no : ||xn − x0 || < ε

Es gilt auÿerdem: xn → x0 (n → ∞) ⇔ ||xn − x0 || → 0 (n → ∞)

Konvergenz im Rn ⇔ komponentenweise Konvergenz

1.3 Metrische Räume


Ein metrischer Raum ist ein Paar (X, d) aus einer nichtleeren Menge X und der
Abbildung d : X × X → R, (x, y) 7→ d(x, y) mit folgenden Eigenschaften:
1. Denitheit : d(x, y) > 0 ∀x, y ∈ X und falls d(x, y) = 0 ⇔ x = y

2. Symmetrie : d(x, y) = d(y, x) ∀x, y ∈ X

3. Dreiecksungleichung : d(x, z) ≤ d(x, y) + d(y, z) ∀x, y, z ∈ X

Ein Beispiel für eine Metrik ist die Abbildung d(~x, ~y) := ||~x − ~y || ~x, ~y ∈ Rn , die sich
einer Norm || · || als Operator bedient und den Abstand zwischen zwei Vektoren misst.

1.3.1 ε-Umgebungen
1. Die oene ε-Umgebung um den Punkt x0 mit einem festen ε > 0 ist wie folgt
deniert: Uε (x0 ) := {x ∈ X : d(x, x0 ) < ε}
2. Die abgeschlossene ε-Umgebung um den Punkt x0 ist wie folgt deniert:
Kε (x0 ) := {x ∈ X : d(x, x0 ) ≤ ε}

1.3.2 Oene und abgeschlossene Mengen


1. Eine Teilmenge B ⊂ X heiÿt oen, wenn jeder Punkt x0 ein innerer Punkt von
B ist, also B̊ = B . Auÿerdem gibt es in oenen Mengen zu jedem x0 ∈ B ein
ε = ε(x0 ) > 0 mit Uε ⊆ B . Jeder Punkt, der in der ε-Umgebung von x0 liegt, ist
somit auch in B = B̊ enthalten.
2. Eine Teilmenge B ⊆ X heiÿt abgeschlossen, wenn das Komplement X \ B eine
oene Menge ist.

Eine Teilmenge M ⊆ Rn heiÿt folgenkompakt, wenn jede Folge mit Folgengliedern


xk ∈ M, k ∈ N eine konvergente Teilfolge besitzt, welche einen Grenzwert in M besitzt.
Eine Teilmenge M ⊆ Rn ist genau dann folgenkompakt, wenn sie abgeschlossen und
beschränkt ist (⇔).

5
2 Stetige Funktionen
2.1 Sätze
2.1.1 Folgenstetigkeit = Stetigkeit
Seien A ⊆ Rn , B ⊆ Rm und f : A → B, ~x 7→ ~y = f (~x) eine Funktion von n reellen
Veränderlichen. f ist stetig im Punkt ~a ∈ A, falls für jede Folge (x~k )k∈N mit ~xk ∈ A, k ∈
N und lim x~k = ~a gilt: lim f (x~k ) = f (~a)
k→∞ k→∞

2.1.2 Koordinatenstetigkeit = Stetigkeit


Seien A ⊆ Rn , B ⊆ Rm und f : A → B, ~x 7→ ~y = f (~x) eine Funktion von n re-
ellen Veränderlichen. f ist stetig im Punkt ~a ∈ A, falls alle Koordinatenfunktionen
f1 , ..., fm : A → R stetig im Punkt ~a sind.

Stetigkeit kann durch günstige Wahl einer Folge mittels Folgenstetigkeit widerlegt und
durch das Sandwichtheorem bewiesen werden:
0 ≤ |f (xn , yn ) − f (x0 , y0 )| ≤ vereinfachte Folge → 0 (n → ∞),
also f (xn , yn ) → f (x0 , y0 ) (n → ∞)

2.2 Partielle Stetigkeit


Die Funktionen pi f : Ai → R, x 7→ pi f (x) sind Funktionen mit nur einer reellen Verän-
derlichen und festgehaltenen Restkoordinaten,
z.B.: f : R2 → R, (x, y) 7→ f (x, y) mit p1 f (x, y0 ) und p2 f (x0 , y) als partielle Schnitt-
funktionen. Diese können in (x0 , y0 ) stetig sein, obwohl die Funktion f dort unstetig sein
kann.

3 Dierenzierbarkeit
3.1 Partielle Ableitungen
Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ ~y = f (~x).
Die Funktion f heiÿt im Punkt ~a ∈ A partiell dierenzierbar nach der Variablen xi
mit i = 1, ..., n, falls folgender Grenzwert existiert:
∂f f (a1 , ..., u, ..., an ) − f (~a)
f xi = (~a) := lim
∂xi u→ai ,u6=ai u − ai
Dabei ist die partielle Ableitung von f nach xi im Punkt ~a die gewöhnliche eindimen-
sionale Ableitung der Funktion pi f (u, ~a), ausgewertet an der Stelle u = ai , also
∂f
f xi = (~a) = (pi f )0 (u; ~a)
∂xi

6
3.1.1 Der Gradient
Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ ~y = f (~x) im Punkt ~a partiell dierenzierbar
nach allen Variablen. Dann beschreibt folgender Spaltenvektor den Gradienten mit:
∂f
 
∂x1
(~a)
..
∇f (~a) = grad(f )(~a) =  .
 

∂f
∂xn
(~a)

Der Gradient kann in ~a auch existieren, obwohl die Funktion f dort nicht dierenzierbar
ist. Näheres hierzu folgt unter 3.3. Totale Dierenzierbarkeit.

3.2 Richtungsableitungen
 
e1
. 
 ..  ∈ Rn heiÿt Richtungsvektor, falls ||~e||2 = 1.
Ein Vektor ~e = 
en
Betrachtet man die Schnittfunktion R 3 t 7→ g(t) := f (~a + t · ~e), so ist die Richtungs-
ableitung von f im Punkt ~a in Richtung ~e wie folgt deniert:
∂f g(t) − g(0)
(~a) := g 0 (~0) = lim
∂~e t→0 t−0
Partielle Ableitungen: spezielle Richtungsableitungen entlang der Koordinatenachsen.

3.3 Totale Dierenzierbarkeit


Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ ~y = f (~x) im Punkt ~a partiell dierenzierbar
nach allen Variablen (∃∇f (~x)). f heiÿt im Punkt ~a total dierenzierbar, falls gilt:
f (~x) − f (~a) − ∇f (~a)0 · (~x − ~a)
lim =0
x→a ||~x − ~a||2
In diesem Fall heiÿt der Gradient ∇f (~a) auch Ableitung von f in ~a.

3.4 Sätze
1. Ist f partiell dierenzierbar nach allen Variablen xi in einer oenen δ -Umgebung
Uδ (~a) ⊆ A und sind alle partiellen Ableitungen stetig im Punkt ~a, so ist f total
dierenzierbar im Punkt ~a.
2. Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ ~y = f (~x) im Punkt ~a total dierenzier-
bar, so ist f im Punkt ~a stetig.
3. Ist f : A → Rn , ~x 7→ ~y = f (~x) im Punkt ~a nicht stetig, so ist f im Punkt ~a auch
nicht dierenzierbar.
4. Verkettungen von Funktionen, die alle im Punkt ~a ∈ Rn dierenzierbar sind, sind
als Komposition dierenzierbarer Funktionen wieder dierenzierbar in ~a.

7
3.5 Tangentialebenen
Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ z = f (~x) im Punkt ~a (total) dierenzierbar,
es existiere also die Ableitung
∂f ∂f
f 0 (~a) = ( (~a), ..., (~a))
∂x1 ∂xn
Die Tangentialhyperebene im Punkt (~a, f (~a)) an den Graphen der Funktion f im
Rn+1 lautet dann:
 
x 1 − a1
∂f ∂f ..
z = f (~a) + ( (~a), ..., (~a)) ·  .
 
∂x1 ∂xn

x n − an

4 Höhere partielle Ableitungen


4.1 Satz von Schwarz
Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ z = f (~x) auf A partiell nach allen Variablen
dierenzierbar. Man erhält dann n Funktionen fxi , die möglicherweise wieder nach al-
len Variablen dierenzierbar sind, also höhere partielle Ableitungen. Sind die k-ten
partiellen Ableitungen von f in ~x stetig, so sind die partiellen Ableitungen von f an
der Stelle ~x bis einschlieÿlich zur Ordnung unabhängig von der Dierentiationsrei-
henfolge.

4.2 Die zweite Ableitung


Seien A ⊆ Rn oen und f : A → Rn , ~x 7→ y = f (~x) sowie f 0 : A → Rn , ~x 7→
∂f
( ∂x 1
∂f
(~x), ..., ∂xn
(~x)) auf A (total) dierenzierbar. Dann lautet die zweite Ableitung
 
fx1 x1 (~x) . . . . fx1 xn (~x)
f 00 (~x) =  .. ..
. .  ∈ Mn×n
 
fxn x1 (~x) . . . . fxn xn (~x)

Sind alle auftretenden partiellen erster und zweiter Ordnung stetig, so ist die obige n×n
Matrix symmetrisch. Daraus folgt die Unabhängigkeit der Dierentiationsreihenfolge.
Es gilt also: fxy = fyx

8
5 Kettenregel
5.1 Hintereinanderausführung von 2 dibaren Funktionen
 
f1 (~x)
Seien A ⊆ Rn oen und f : A → Rl , ~x 7→ ~y = f (~x) =  ..  im Punkt x0 ∈ A total
.


fl (~x)
dierenzierbar mit einer Ableitung f 0 (x0 ) ∈ Ml×n (R).  
g1 (~y )
Weiter seien B ⊆ Rl oen und g : B → Rm , ~y 7→ ~z = g(~y ) =  ..  im Punkt
.


gm (~y )
y0 ∈ B total dierenzierbar mit einer Ableitung g 0 (y0 ) ∈ Mm×l (R).
Die Verkettung h := g ◦ f ist auch im Punkt x0 (total) dierenzierbar und die Ableitung
lautet:
 ∂g1 ∂g1   ∂f1 ∂f1

(y~ ) . . . .
∂y1 0 ∂yl
(y~0 ) ∂x1
(x~0 ) . . . . ∂xn
(x~0 )
h0 (x~0 ) =  .. ..   .. ..
. . · . .  ∈ Mm×n
 
∂gm ∂gm ∂fl ∂fl
∂y1
(y~0 ) . . . . ∂yl (y~0 ) ∂x1
(x~0 ) . . . . ∂xn
(x~0 )

5.2 Anwendung Kettenregel auf Berechnung der


Richtungsableitung
Seien A ⊆ Rn oen, ||~e||2 = 1 und f : A → R, (x, y) 7→ f (x, y) im Punkt ~a ∈ A total
dierenzierbar mit der Ableitung f 0 (~a) = ∇f (~a). Bezeichnet h·, ·i das Standardskalar-
produkt, so gilt für die Richtungsableitung im Punkt ~a der Funktion f in Richtung
~e:
∂f
D~e f (~a) = (~a) = h∇f (~a), ~ei
∂~e

9
6 Dierenzierbare Funktionen
6.1 Eigenschaften des Gradienten
Seien A ⊆ Rn oen und f : A → R, ~x 7→ f (~x) im Punkt ~a ∈ A total dierenzierbar mit
der Ableitung f 0 (~a) = ∇f (~a). Auÿerdem besitzt f im Punkt ~a Richtungsableitungen in
alle Richtungen ~e und mit h·, ·i als Standardskalarprodukt gilt für die Richtungsablei-
tung im Punkt ~a: ∂f ∂~e
(~a) = h∇f (~a), ~ei.

Unter der Voraussetzung ∇f (~a) 6= ~0 gilt: Der Gradient ∇f (~a) gibt die Richtung
des steilsten Anstieges von f im Punkt ~a an.

6.2 Stationäre Punkte


Seien A ⊆ Rn oen und f : A → R, ~x 7→ f (~x) im Punkt ~a ∈ A partiell dierenzierbar
nach allen Variablen. Es gilt: Ist die Denitionsmenge A ⊆ Rn kompakt (also ab-
geschlossen und beschränkt) und ist die Funktion f : A → R, ~x 7→ f (~x) stetig
auf A, so nimmt sie dort ihr Minimum und ihr Maximum an (vgl. Zwischen-
wertsatz im 2-Dimensionalen).

Maximum: Der Punkt ~a ∈ A heiÿt lokales Maximum von f , falls es eine Umgebung
Uε (~a) ⊆ A von ~a gibt mit f (~x) ≤ f (~a) ∀~x ∈ Uε (~a).
Minimum: Der Punkt ~a ∈ A heiÿt lokales Minimum von f , falls es eine Umgebung
Uε (~a) ⊆ A von ~a gibt mit f (~x) ≥ f (~a) ∀~x ∈ Uε (~a).

Bei ∇f (~a) = ~0, also wenn alle Richtungsableitungen null betragen, handelt es sich
um stationäre Punkte von f , welche aus dem nichtlinearen Gleichungssystem mit
fx (x, y) = 0 und fy (x, y) = 0 ermittelt werden können.
! !

6.3 Konvexe Funktionen


Seien V ein R-Vektorraum, M ⊆ V und a, b ∈ V . Dann ist die Verbindungsstrecke
zwischen a und b gegeben durch S(a, b) := {x ∈ V : a + λ · (b − a), mit λ ∈ [0, 1]}.

Die Menge M heiÿt konvex, falls gilt: S(a, b) ⊆ M ∀a, b, also falls auch alle Ver-
bindungsstrecken zwischen zwei beliebigen Vektoren aus M wieder in M liegen.

Seien A ⊆ Rn eine konvexe Menge und f : A → R, ~x 7→ f (~x).


f ist konvex auf A, falls ∀a, b ∈ A, ∀λ ∈ [0, 1] gilt: f (λ~a + (1 − λ)~b) ≤ λf (~a) + (1 − λ)f (~b)
f heiÿt konkav auf A, falls ∀a, b ∈ A, ∀λ ∈ [0, 1] gilt: f (λ~a +(1−λ)~b) ≥ λf (~a)+(1−λ)f (~b)

Es gilt auÿerdem: f ist konvex auf A ⇔ die Menge M ist eine konvexe Teilmenge
des Rn+1 mit M := {(x1 , ..., xn , y) ∈ Rn+1 : (x1 , ...xn ) ∈ A und y ≥ f (x1 , ..., xn )}

10
7 Reelle symmetrische Matrizen
Sei A = A0 ∈ Mn (R) eine reelle und symmetrische (n × n)-Matrix mit A = (αi,j ),
i, j = 1, ..., n und αi,j ∈ R, sodass αi,j = αj,i ∀i, j :
 
α1,1 . . . . α1,n
A =  ... ... .. 
. 

αn,1 . . . . αn,n

7.1 Löwnerordnung
Es seien A, B ∈ Mn (R) zwei reelle, symmetrische (n × n)-Matrizen, für die mittels
folgender Äquivalenz eine Ordnungsrelation (reexiv, transitiv, antisymmetrisch), die
Löwnerordnung, auf der Menge aller reellen, symmetrischen Matrizen deniert ist:
A ≥ B ⇔ ∀~x ∈ R : qA−B (~x) = ~x0 · (A − B) · ~x ≥ 0

7.2 Denitheit
 
a b
Sei A = eine (2 × 2)-Matrix.
b c

• Sie heiÿt positiv denit, falls A > 0,


falls also ~x0 · A · ~x > 0 ∀~x ∈ Rn \{~0} : a > 0, c > 0 und ac − b2 > 0

• Sie heiÿt positiv semidenit, falls A ≥ 0,


falls also ~x0 · A · ~x ≥ 0 ∀~x ∈ Rn \{~0} : a ≥ 0, c ≥ 0 und ac − b2 ≥ 0

• Sie heiÿt negativ denit, falls A > 0,


falls also ~x0 · A · ~x > 0 ∀~x ∈ Rn \{~0} : a < 0, c < 0 und ac − b2 > 0

• Sie heiÿt negativ semidenit, falls A > 0,


falls also ~x0 · A · ~x > 0 ∀~x ∈ Rn \{~0} : a ≤ 0, c ≤ 0 und ac − b2 ≥ 0

• Eine Matrix A heiÿt in allen anderen Fällen indenit.

11
8 Konvexe Funktionen und zweite Ableitung
Seien A ⊆ Rn oen und f : A → R, ~x 7→ f (~x) im Punkt ~a ∈ A zweimal partiell dieren-
zierbar nach allen Variablen mit der Ableitung f 0 (~a) = ( ∂x
∂f
1
∂f
(~x), ..., ∂x n
(~x))0 .
Die zweite Ableitung von f im Punkt (~a) heiÿt auch Hessenmatrix und ist symme-
trisch, falls die zweiten partiellen Ableitungen von f auf A stetig sind (vgl. Satz von
Schwarz):
∂2f ∂2f
 
∂x1 ∂x1
(~a) .... ∂x1 ∂xn
(~a)
.. ..
H(f ; ~a) =  . .
 

∂2f ∂2f
∂xn ∂x1
(~a) . . . . ∂xn ∂xn (~a)

Seien A ⊆ Rn oen und konvex und f : A → R, ~x 7→ f (~x) im Punkt ~a ∈ A zweimal


partiell dierenzierbar nach allen Variablen. Dann gilt:
H(f ; ~x) ≥ 0 ∀~x ∈ A ⇔ f ist konvex auf A.
H(f ; ~x) > 0 ∀~x ∈ A ⇔ f ist streng konvex auf A.
H(f ; ~x) ≤ 0 ∀~x ∈ A ⇔ f ist konkav auf A.
H(f ; ~x) < 0 ∀~x ∈ A ⇔ f ist streng konkav auf A.

9 Taylorpolynome, Satz von Taylor


Voraussetzungen
Seien A ⊆ Rn oen, ~a ∈ Rn , f : A → R, ~x 7→ f (~x) eine stetig dierenzierbare Funktion
(alle partiellen Ableitungen existieren und sind stetig) und ~h ∈ Rn \{0}. Der Dieren-
tialoperator gibt die r-te Ableitung in Richtung ~h an und ist darüber hinaus bis zur
Ordnung r + 1, r ∈ N0 wie folgt deniert:
∂h1 ∂hn
(D~hr+1 f )(~x) := (( + ... + )f )(~x) = D~hr (h∇f (~x), ~hi)
∂x1 ∂xn

Als Taylorpolynom r-ten Grades von f mit Entwicklungspunkt ~a wird folgendes


bezeichnet:
r
X 1 j
Tr (~x; f, ~a) := f (~a) + · (D(~
x−~a) f )(~
a)
j=1
j!

Spezialfälle
• T0 (~x, f, ~a) = f (~a)
• T1 (~x, f, ~a) = f (~a) + 1
1!
· f 0 (~a) · (~x − ~a) (Tangentialebene)
• T2 (~x, f, ~a) = f (~a) + f 0 (~a) · (~x − ~a) + 1
2!
· (~x − ~a)0 · H(f, ~a) · (~x − ~a)

12
10 Implizit denierte Funktionen

Abgrenzung: Während beispielsweise y = f (x) = 4 − x2 eine explizite Funktion ist,
bei der nach einer Variablen y aufgelöst wurde, ist folgende Funktion beispielsweise
implizit deniert, da sie innerhalb einer Gleichung auftritt: 0 = x2 + y 2 − 4.

10.1 Implizit denierte Funktionen in der Ebene


Seien A ⊆ R, D ⊆ R2 und G : D → R, (x, y) 7→ G(x, y).

Die Gleichung G(x, y) = 0 deniert auf A implizit eine Funktion


f : A → R, x 7→ y = f (x), falls ∀x ∈ A genau ein ∃y ∈ R mit (x, y) ∈ D und G(x, y) = 0.

Die durch die Gleichung G(x, y) = 0 implizit denierte Funktion f lautet:


f : A → R, x 7→ y = f (x) mit G(x, y) = G(x, f (x)) = 0, x ∈ A

10.2 Hauptsatz
Voraussetzungen
Seien ∅ 6= D1 , D2 ⊆ R mit D1 , D2 als oene Mengen und D = D1 × D2 ⊆ R2 .
1. Die Funktion G : D → R, (x, y) 7→ G(x, y) ist stetig dierenzierbar.
Dies bedeutet, dass alle partiellen Ableitungen existieren und stetig sind.
2. Für beliebige a ∈ D1 , b ∈ D2 gilt: G(a, b) = 0
3. wichtig! Es gilt: ∂G
∂y
(a, b) 6= 0
Graphisch bedeutet dies, dass keine senkrechte Tangente in (a, b) an die Höhenlinie
G(x, y) = 0 existieren darf.

Folgerungen
Unter den obigen Voraussetzungen besagt der Hauptsatz, dass zwei Umgebungen
U1 = U (a) ⊆ D1 und U2 = U (b) ⊆ D2 sowie eine eindeutig bestimmte, stetige und stetig
dierenzierbare Funktion f : U1 → U2 , x 7→ y = f (x) existieren mit
1. f (a) = b
2. G(x, f (x)) = 0 ∀x ∈ U1 = U (a)
∂G
3. f 0 (x) = − ∂G
(x,f (x))
∂x
(x,f (x))
∀x ∈ U1 = U (a)
∂y

Dank Voraussetzung 3 ist sichergestellt, dass der Nenner ∂G


∂y
(a, b) 6= 0.

13
Ableitungen
Die erste Ableitung f 0 (x) in (a, b) erhält man durch Dierenziation von G(x, f (x)) = 0
mithilfe der Kettenregel:
 
0 1
G (x, f (x)) = ∇G(x, f (x)) · T
0 = Gx (x, f (x)) + f 0 (x) · Gy (x, f (x)) = 0
f (x)

und anschlieÿendes Umstellen nach f 0 (x) (vgl. Folgerung 3).

Die zweite Ableitung f 00 (x) in (a, b) erhält man durch erneute Dierenziation der Glei-
chung G0 (x, f (x)) = 0 mithilfe der Produkt- und Kettenregel:
   
00 1 00 0 1
G (x, f (x)) = (Gxx , Gxy ) · 0 + f (x) · Gy + f (x) · (Gyx , Gyy ) · 0
f (x) f (x)

und anschlieÿendes Umstellen nach f 00 (x), was folgende Formel ergibt:


   
1 0 1
(Gxx , Gxy ) · 0 + f (x) · (Gyx , Gyy ) · 0
00
f (x) f (x)
f (x) = −
Gy (x, f (x))

10.3 Ebene Kurven


Aus der Kurvengleichung G(x, y) = 0 ergibt sich eine zugehörige Kurve K als Höhenlinie
zum Niveau α = 0 der Funktion G mit K = {(x, y) ∈ R2 : G(x, y) = 0}. Sei nun ein
beliebiger Punkt (a, b) ∈ K ⊆ R2 gegeben, über den sich folgende Aussagen treen
lassen:
• Bei ∇G(a, b) 6= ~0 handelt es sich um einen regulären Punkt der Kurvengleichung.

• Bei ∇G(a, b) = ~0 handelt es sich zunächst um einen singulären Punkt der Kur-
vengleichung (vgl. Extremum).
 Eine positiv denite Hessenmatrix H(F ; (a, b)) > 0 indiziert ein Maximum
und somit einen isolierten Punkt.
 Eine negativ denite Hessenmatrix H(F ; (a, b)) < 0 indiziert ein Minimum
und somit einen isolierten Punkt.
 Eine indenite Hessenmatrix H(F ; (a, b)) indiziert einen Doppelpunkt, also
einen Sattelpunkt von G.

14
11 Zusatz: Regression
Die Methode der kleinsten Quadrate hat das Ziel, den Fehlervektor ~ε zu minimieren,
um eine möglichst repräsentative Gerade durch die ermittelten Daten zu legen.

11.1 Lineare Regression


Seien ~x, ~y ∈ Rn jeweils eindimensionale Stichproben vom Umfang n ∈ N mit dem arith-
metischen Mittel x̄, ȳ , der Stichprobenvarianz s2x , s2y sowie der Standardabweichung sx , sy .

Man erstelle eine Matrix X ∈ Mn×2 (R) mit


 
1 x1
X :=  ... ...  bzw. X 0 :=
 
  1 ··· 1
x1 · · · xn
1 xn

Die optimalen Parameter a∗ , b∗ der Regressionsgerade y = a + b · ~x können wie folgt


mittels des Gauÿ-Markov-Schätzers ermittelt werden:
 ∗
a
= (X 0 · X)−1 · X 0 · ~y
b∗
,
wobei die Matritzenmultiplikation von X 0 mit X folgende 2 × 2-Matrix ergibt, die später
noch invertiert werden muss:
 n
P

 n j=1
xj 
 n n

2
P P 
xj xj
j=1 j=1

11.2 Quadratische Regression


Die optimalen Parameter a∗ , b∗ , c∗ des Regressionsmodells y = a + b · x + c · x2 können
wie folgt mittels des Gauÿ-Markov-Schätzers ermittelt werden:
 ∗
a
 b∗  = (X 0 · X)−1 · X 0 · ~y
c∗
,
wobei die Matritzenmultiplikation von X 0 mit X eine 3 × 3-Matrix ergibt, die später
noch invertiert werden muss.

15

Das könnte Ihnen auch gefallen