Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
Vorlesungsmitschrift
5 Endomorphismus 4
5.1 diagonalisierbar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
5.2 Diagonalisierbarkeitskriterium . . . . . . . . . . . . . . . . . . . . . . . . . 4
5.3 Proposition (Summe der Eigenräume) . . . . . . . . . . . . . . . . . . . . 5
5.4 Verallgemeinerte Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 6
5.5 Existenz von Eigenwerten über C . . . . . . . . . . . . . . . . . . . . . . . . 7
5.6 Hauptsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
7 Jordansche Normalform 25
7.1 Blocktriagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
7.1.1 Zerlegungslemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
7.1.2 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
7.1.3 Invarianzlemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
7.2 Haupträume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.2.2 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3 Jordan -Blöcke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.4 JNF berechnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
7.4.1 Beispiel 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.4.2 Beispiel 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
I
8 Euklidische Vektorräume 36
8.1 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.2 Defintion Euklidischer VR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.2.1 Beipiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.3 Die Cauchy-Schwarz-Unleichung . . . . . . . . . . . . . . . . . . . . . . . . 38
8.4 orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
II
4 Eigenwerte und Eigenvektoren
Ziel: Verstehen von Endomorphismen
Beipiel: Wenn M eine Diagonalmatrix ist
Mei = 0 . . . 010 . . . 0 = λi ei
d.h ei wird um λi gestreckt. Die λi sind Eigenwerte von M.
4.1 Definition
Sei F ein Endomorphismus von V (V endlich dimensionaler VR über dem Körper K) λ ∈ K
ist ein Eigenwert von F wen es einen Vektor v ∈ V, v , 0 gibt, so daß F(v) = λ · v (v ist
immer , 0). Der Vektor v ist Eigenvektor von F zum EW λ.
4.2 Beispiele
1. V = K (1 - dim)
f : K → K linear, wenn
f (x + y) = f (x) + f (y)
f (λx) = λ f (x)
M Z mit SMT = Z
(Zeilenstufenform) Wahl von Basen A,B ür Urbild VR und Bild VR.
M und Z können verschiedene Eigenwerte haben. Bei Endomorphismen wollen wir
nur eine Basis.
nachrechen:
1
! ! !
x y x
M = =λ·
y 0 y
d.h.
y = λx
0 = λy
!
a
3. Spiegelung an < β >, β =
b
β ist EV zum EW 1
β⊥ ist ein EV zum EW -1
Bzgl. der Basis B = (β, β⊥ ) hat ie Spiegelung die darstellende Matrix
!
1 0
= Mβ (s) ???
0 -1
π
! den Spezialfall α =
nachrechnen für 2 (90◦ )
0 -1
M=
1 0
! ! !
x -y x
M = =λ·
y x y
d.h.
−y = λx
x = λy
⇒ −y = λ2 y ⇒ λ2 = −1
⇒ λ = 1 ∨ λ = −1
!
1
EV zum EW i ist
-i
!
1
EV zum EW -1 ist
i
! ! ! !
1 1 i 0
Darstellende Matrix zur Basis B = , ist
-i i 0 -i
2
Zu beachten ist hierbei, dass wir während unserer Rechnung den Körper von R nach
C gewechselt haben. Die Existenz von EWen hängt also vom zugrundeliegenden
Körper ab.
5. I ⊆ R betrachten V = C∞ (I)
D : C∞ → C∞
D( f ) = f 0 ist ein Endomrphismus
Jedes λ ∈ R ist EW, EV eλx
4.3.2 Beispiele
• {0}
• V
• Kern(F)
w ∈ U d.h. w = a1 v1 + . . . + ak vk
3
5 Endomorphismus
5.1 diagonalisierbar
Definition
λ1
λ2
..
.
λn
5.2 Diagonalisierbarkeitskriterium
Satz
Sei V ein VR, dim V = n, F ∈ Endo(V)
Wenn F n verschiedene EWs besitzt ⇒ F diagbar
Lemma
Sind λ1 , . . . , λk EWs eines Endo F und v1 , . . . , vk EVs zu diesen EWs ⇒ v1 , . . . , vk sind linear
unabhängig.
Beweis
Induktion über k
I.A.: k = 1, v1 , 0 weil EV ⇒ v1 linear unabhängig.
a1 v1 + a2 v2 + . . . + ak vk = 0 ?1
a1 λ1 v1 + a2 λ2 v2 + . . . + ak λk vk = F(0) = 0 ?2
a1 λk v1 + a2 λk v2 + . . . + ak λk vk = λk · 0 = 0 ?3
4
Differenz von ?2 und ?3 liefert
=0 laut I.V. =0 laut I.V. =0 laut I.V.
z }| { z }| { z }| {
a1 (λ1 − λk ) v1 + a2 (λ2 − λk ) v2 + . . . + ak−1 (λk−1 − λk ) vk−1 + ak (λk − λk ) vk = 0
| {z } | {z } | {z } | {z }
,0 weil λi ,0 weil λi ,0 weil λi =0
verschieden verschieden verschieden
v1 , . . . , vk−1 sind linear unabhängig
⇒ a1 = a2 = . . . = ak−1 = 0
einsetzen in ?1 liefert ak = 0
Also sind v1 , . . . vk linear unabhängig
Eigenschaften:
Hintergrund
V = U + W d.h. ∀v ∈ V ∃u ∈ U, w ∈ W so dass v = u + w
V = U ⊕ V d.h.: ∀v ∈ V ∃!u ∈ U ∃!w ∈ W mit v = u + w
Die Bedingung für V = U ⊕ W ist V = U + W und U ∩ W = {0}
5
Beweis
Seien B1 , . . . , Bk Basen der Eigenräume ⇒ die Vereinugung von B1 ∪ . . . ∪ Bk ist linear
unanhänging
Basisergänzung liefert Basis B on V.
B = b1 , . . . , b j1 , b1 , . . . , b j2 , . . . , b1 , . . . , b jk , b1 , . . . , bt
1 1 2 2 k k 0 0
| {z } | {z } | {z }
B1 B2 Bk
a11 b11 + . . . + a1j1 b1j1 + a21 b21 + . . . + a2jk b2jk + . . . + ak1 bk1 + . . . + akjk bkjk = δ ?1
| {z } | {z } | {z }
a1 v1 ∈Eig(F,λ1 ) a2 v2 ∈Eig(F,λ2 ) ak vk ∈Eig(F,λk )
k
ai vi = δ
P
i=1
Lemma: EVen zu verschiedenen EWen sinf linear abhänging.
λ1
..
.
λ1
λ2
. ..
λ2
..
.
λk
. ..
λk
(F − λ Id)k v = 0
Bemerkung:
• {v : (F − λ Id)k v = 0} ⊆ {v : (F − λ Id)k+1 v = 0}
6
verallgemeinerter EV zum EW 0
0 0 0 *1 0+
(M − 0 · Id)k = Mk mit M2 = 0 0 0 kern(M2 ) = 0 , 1
0 0 1 0 0
0
wenn wir den verallgemeinerten EV 1 dazunehmen, bekomen wir die Basis ⇒ fast
0
Diagonalgestalt:
Bemerkung:
Beweis:
Sei v ∈ V, v , 0
betrachte
v, F(v), F2 (v), . . . , Fn (v) (n+1 Stück)
linear abhängig ⇒ nicht trivial:
betrachte da Polynom
p(x) = a0 + a1 x + . . . + ak xk
p(x) = c(x − r1 )(x − r2 ) . . . (x − rk )p(F)v = 0 (so hatten wir p(x) gewonnen (s.o))
d.h.
c(F − r1 Id)(F − r2 Id) . . . (F − rk Id) · v = 0
daraus folgt
7
6 Das charakteristische Polynom
Sei F ∈ Endo(V), λ ∈ K Die zentrale Beobachtung:
Beweis
λ EW ⇔ ∃v , 0 mit F(v) = λv
⇔ F(v) − λv = 0
⇔ (F − λ Id)(v) = 0
⇔ kern(F − λ Id) , 0
⇔ Rang(F − λ Id) < dim(V)
⇔ det(F − λ Id) = 0
...
a11 − t a12
a21 a22 − t . . .
det(A − λ Id) = det ..
.
ann − t
Entwickelt man diese Determinante mit den üblichen Methoden so erhält man ein
Polynom in λ. Dieses Polynom ist das charakteristische Polynom von A.
Problem:
Wir haben eine Theorieder Determinante nur für Matrizen mit Einträgen in einem
Körper.
Auswege:
• Determinante für Matrizen mit Einträgen aus einem Ring definieren. Anwenden
auf den Ring K[t]
• Die Einträge als Elemente im Körper K(t) der rationalen Funktionen interpretieren
8
6.0.1 Eigenschaften von det(A − λIn )
Beobachtungen
• Jeder Summand in der Entwicklung ist Produkt von n Polynomen vom Grad 0 oder
1 ⇒ hat Grad ≤ n
• Das charPoly hat als Summe von Polynomen vom Grad ≤ n selbst Grad ≤ n.
αn = (−1)n
αn−1 = (−1)n−1 (a11 + a22 + . . . + ann ) = span(A)
X X
αn−2 = (−1)n−2 (−1) ai j a ji + aii a j j
1≤i≤j≤n 1≤i≤j≤n
..
.
n
X die -1 hängt von der Wahl des λ ab
α1 = (−1)det(Aii )
Aii entsteht durch streichen der i-ten Zeile und i-ten Spalte von A
i=1
α0 = det(A)
σ ∈ Sn entspricht einem Permutationsmuster. Auswahl von Zellen so, daß jede Zeile
und jede Spalte genau eine Zelle enthält.
!
1 2 3 4 5 6 7
σ:
4 6 2 5 7 3 1
Lemma
Ähnliche Matrizen haben das selbe charPoly
Beweis
A, B ∈ M(n, n), S ∈ Gl(n) so daß B = SAS−1
Rehnen mit λ wie mit einem Skalar
9
PB (λ) = det(B − λIn )
= det(S(A − λIn )S−1 )
det ist
multiplikatitv
= det(S) · det(A − λIn ) · det(S−1 )
| {z } | {z }
∈K[λ] ∈K
i) PA (λ) = PF (λ)
PF (λ) ist wohldefiniert weil für ähnliche Matrizen A,B gilt:PA (λ) = PB (λ)
6.1 Diagonalisierung
Satz: F ∈ Endo(V), dim(V) = n dann gilt:
1) F diagbar (d.h. es existiert eine Diagonalmatrix die F darstellt)
⇒ PF (x) = (−1)n (x − λ) (x − λ2 ) . . . (x − λn ) (PF (t) zerfällt in Linearfaktoren)
2) Wenn F n verschiedene EWe besitzt
PF (x) = (−1)n (x − λ) (x − λ2 ) . . . (x − λn ) und F ist diagbar
Beweis
1) F diagbar D darstellende Diagonalmatrix
λ1 − t
λ2 − t
⇒ PF (x) = PD (x) = det ..
.
λn − t
10
2) n verschiedene EWe b1 , . . . , bn EVen sind linear unabhängig also Basis. Darstellende
λ!
MAtrix bzgl. dieser Basis ist: D = ..
.
λn
allgemeine Endomorphismen
Es gilt:
Beweis
λi ist EW ⇒ ∃ EV ⇒ 1 ≤ dim(Eig(F, λi ))
Sei b1 , . . . , b j eine Basis on Eig(F, λi )
Basiserweiterung B = (b1 , . . . , b j , b j+1 , . . . , bn )
Betrachte darstellende Matrix von F bzgl. B
Die Spalten dieser Matrix sind die Koordinatenvektoren von F(b1 ), . . . , f (bn ) bzgl. B
λi
..
.
λi
A =
A’
PF (x) = PA (x)
= (λi − x) j PA0 (x)
PF (x) = (λi − x)n Q(x) wobei λi keine Nullstelle von Q(t) ist
⇒ j ≤ ri
11
Satz (Charackterisierung von Diagonalisierbarkeit)
1) F ist diagbar
3) V = Eig(F, λ)
L
λ EW von F
Beweis
1) ⇒ 2)
λ1
..
.
r1
λ1
λ
2
.
. r2
.
D =
λ2
.
.
.
λk
..
rk
.
λk
PF (x) = PD (x)
Yk
= (λi − t)ri ?1
i=1
d.h.: µ(F, λi ) = ri
In B sind ri EVen zum EW λi
⇒ dim(Eig(F, λi )) ≥ ri
⇒ dim(Eig(F, λi )) = µ(PF , λi ) ∀i
k
Aus ?1 folgt: grad(PF ) =
P
ri
i=1
2) ⇒ 3)
Sei Bi Basis von Eig(F, λi ) und ri = dim(Eig(F, λi ))
12
B1 ∪ B2 ∪ . . . ∪ Bk : sind linear unabhängig.
ri = n ⇒ B ist Basis
P
3) ⇒ 1)
Bi ist Basis von Eig(F, λi )
⇒ B1 ∪ . . . ∪ Bk ist Basis von V
6.2 Diagonalisierungsalgorythmus
Gegeben sei F ∈ Endo(V) Frage: Ist F diagbar?
6.2.1 Beispiel
3 1 1
A = −1 1 1
2 2 2
EVen:
0 −1 −1
EW = 0: 0 EW = 2: 1 EW = 4: 0
1 0 1
4 0 0
⇒ D = 0 2 0
0 0 0
13
A
R3 −−−−−→ R3
x −1 −1 0
⇒ T = 0
1 1
T−1
T
y
1 0 −1
R3 −−−−−→ R3
D
6.3 Triagonalisierung
zuletzt Diagonalisierung
für Diagonalgestallt 2 Beingungen:
T =
..
.
0 λn
Beobachtung:
6.3.1 Proposition
F ∈ Endo(V), dim(V) = n
F wird bzgl. der Basis B = (v1 , . . . , vn ) durch eine Dreiecksmatrix darestellt.
⇔ F(vk ) ∈ span(v1 , . . . , vk ) k = 1, . . . , n
Beweis
“⇒“
n
X
F(vk ) = tik vi ∈ span(v1 , . . . , vk )
i=1
“⇐“
Die k-te Spalte der Matrix MB (F) ist der Koordinatenvektor von F(vk ) bzgl. B, wenn
F(vk ) ∈ span(v1 , . . . , vk )
⇒ dieser Koorinatenvektor hat Einträge , 0 nur in den ersten Komponenten.
⇒ mB (F) ist obere Dreiecksmatrix
14
6.3.2 Proposition
F ∈ Endo(V), dim(V) = n, F ist triagonalisierbar ⇔ ∃ Teilräume Ui , i = 1, . . . , n mot
{0} ⊂ U1 ⊂ U1 ⊂ . . . ⊂ Un = V und F(Ui ) ⊆ Ui
| {z } | {z }
Fahne der Länge n F-invariant
Beweis
“⇒“
“⇐“
F(vk ) ∈ Uk ⊃ span(v1 , . . . , vk )
⇒ triagonalisierbar
Beweis
λ1 ∗
T =
..
mit uk = span(e1 , . . . , ek ), {0} ⊂ U1 ⊂ . . . ⊂ Un = Kn
.
λn
• (T − λk In )[Uk ]
(T − λk In ) =
λ1 − λk
λ2 − λk
...
λk−1 − λk
← e i-te Spalte der
i
0
λk+1 − λk
...
λn − λk
Matrix ∈ span(e1 . . . en )
15
• PT (T) = (−1)n (T − λ1 In )(T − λ2 In ) . . . (T − λn In )
PT (T)[v] = {0} d.h. PT (T) ist die Nullmatrix
6.5 Triagonalisierungssatz
A ∈ M(n, n) mit einem charPoly das in Linearfaktoren zerfällt ⇒ ∃S ∈ Gl(n) so dass SAS−1
obere Dreiecksmatrix ist.
Beweis
λ1
∗ ··· ∗
0
bzgl. B bekommen wir die Gestalt: A =
0
..
. A∗
0
∃T ∈ Gl(n) mit A0 = TAT−1
PA (x) = PA0 (x) = (λ1 − x)PA∗ (x), also zerfällt PA∗ (x) in Linearfaktoren.
Mit Induktion nach n:
Behauptung:
0 λ1
1 0 ··· ∗1 1 0 ··· 0
0 0 0
.. · . ..
·
. R .. A∗
. R−1
0 0 0
· · · 0 λ1
1 0 ∗2
0 0
= .. ...
·
. A∗ R−1
R
0 0
λ1
∗2
0
= ..
. ∗ −1
RA R
0
⇒ Mit
1 0 ··· 0 1 0 ··· 0
0 0
R̃ = ..
, R̃−1 = ..
. . R−1
R
0 0
16
Gilt
Beispiel
!
3 0
A= , PA (x) = (3 − x)(2 − x), λ1 = 2, λ2 = 3
2 2
!
0
EV zum EW 2:
1
( ! !)
0 1
Basiserweiterung: B = ,
1 0
! ! ! !
0 1 3 0 0 1 2 2
⇒A =0 =
1 0 2 2 1 0 0 3
mittelfristiges Ziel: eine Normalgestallt für Endomorphismen mit zerfallendem char-
Poly, die besser ist: Jordan Normalform
⇒ λ = 2 ist einziger EW
Eigenvektor:
−1 0 1 1
0 0 0 · x = 0 v1 = 0 ist bis auf Skallierung eindeutige Lösung
−1 1 1 1
1 0 0
Basisergänzung: B = , ,
0 1 0
1 0 1
1 0 0
T−1 = 0 1 0
1 0 1
17
1 0 0 1 0 1 1 0 0 2 0 1
TAT−1 = 0 1 0 0 2 0 0 1 0 = 0 = A0
2 0
−1 0 1 −1 1 3 1 0 1 0 1 2
!
2 0
= A∗
1 2
R ! ! R−1! !
0 1 2 0 0 1 2 1
=
1 0 1 2 1 0 0 2
2 1 0
R̃A0 R̃−1 = 0 2 1 ← Dreiecksgestallt.
was ist die zugehörige Basis?
0 0 2
Verallgemeinerung
definiere: P(a) := a0 a0 + a1 a + a1 a2 + . . . + an an
Beispiel
i) K = MK (n, n) : A ∈ K undP = x2 − x + λ
P(A) = A2 − A + λEn
Die Abbildung
ϕa : K[x] → K
p 7→ p(a) ist ein Algebren-Theorem („Einsetzungshomomorphismus“)
Beispiel:
MK (n, n) nicht kommutativ
ϕA : K[x] → K[A] (kommutativer Ring von MK (n, n))
a0 + a1 x + . . . + anx 7→ a0 En + a1 A + . . . + an An
18
wir hatten gesehen, dass unsere Polynome keine Funktionen/Abbildungen sind.
Beispiel
p = x2 + x ∈ Z2 [x]
p(0) = 0, p(1) = 0, also ist p Nullabbildung.
Exkurs
p = a0 + a1 x + . . . + an xn ∈ K[x]
Idik : K → K
α 7→ αi
K → K
α 7→ p(α)
p(Idk ) = a0 + a1 Idk + . . . + an Idnk (Polynom der Abbildungen)
Beispiel
x2 + x ∈ Z2 [x]
)
ϕ ist im allgemeinen nicht injektiv: → gleiche Abbildung
0 ∈ Z2 [x]
Überblick:
n
X α einsetzen n
X
p= ai xi −→ p(α) = a i αi
i=0 Einsetzungshomom. i=0
K[x] γ(K)
19
zurück zum Einsetzungshomomorphismus
Beispiel
!
1 1
A ∈ MR (2, 2) mit A =
0 2
p = x − 3x − +2 ∈ R[x]
2
Dann:
!2 ! !
1 1 1 1 1 0
p(A) = −3 +2
0 2 0 2 0 1
!
0 0
= ⇒ A ist Nullstelle von P
0 0
1) I , ∅
2) a, b ∈ I ⇒ a + b ∈ I
3) a ∈ I, p ∈ K[x] ⇒ p · a ∈ I
In der gr. Übung wurde gezeigt, dass jedes Ideal I in K[x] von einem Element g ∈ I
erzeugt wird, d.h.
I = g · K[x] ⇒ {g · h | h ∈ K[x]}
sind alle durch g teilbaren Polynome
Beispiel
6.7.1 Satz
Sei F ∈ EndoK (V), dim(V) = n < ∞
Dann gilt:
Es gibt in K[x] ein Polynom mF , 0, welches normiert ist mit folgenden Eigenschaften
i) mF (F) = 0
20
ii) ist p ein Polynom in K[x] mit PF (F) = 0 dann gilt mF |p
Beweis
Nach dem Satz aus der gr. Übung existiert ein g ∈ I mit I = g · k[x]. Falls g nicht
normiert ist, dann multipliziere g mit geeigneten k ∈ K, sodass g normiert ist. g ist das
gesuchte Minimalpolynom, denn:
i) g(F) = 0
ii) Ist p ein Polynom mit p(F) = 0, so ist
p ∈ I = g · K[x] = {g · h | h ∈ K[x]}
⇒ g|p
mF := g
wegen dim(V) = n ist dim(Endo((V)) = n2 (Endo(V) MK (n, n)). Also sind die n2 + 1
lineare Abbildungen
2
Id, F, F2 , . . . , Fn linear abängig
D.h. es existieren, ci ∈ K, nicht alle ci = 0, so dass
2
c0 Id +c1 F + . . . + cn2 Fn = 0
2
Dann ist das Polynom 0 , p = c0 + c1 x + . . . + cn2 xn ∈ I
⇒ I , {0}
Das Minimalpolynom mF ist ein Polynom kleinsten Grades, welches normiert ist und
welches F annuliert. Anders ausgedrückt:
1) mF (F) = 0 (Nullabbildung)
2) Ist p ∈ K[x] mit p(F) = 0
⇒ mF |p
21
6.8 Der Satz von Cayley-Hamilton
Sei dim(V) = n < ∞. V ein K-VR, F ∈ Endo(V)
Ferner sei pF das charPoly von F und mF das MinPoly von F. Dann gilt:
i) mF |pF
zu i)
weil dim(V) = n, sind die Vektoren 0,. . . , Fn (v) linear abhängig. Also existiert ein p < n, so
dass die Menge
S = {v, F(v), . . . , Fp−1 (v)}
linear unabhängig ist und die Menge
⇒< S > ist F-invariant, d.h. F(< S >) ⊆< S > und
p−1
X
F =
p
ai Fi (v)
i=0
für geeignete ai ∈ K
und
0 0 . . . . . . 0 a0
.
0 . . . . . . .. a1
1
. ..
1 . . . . . . .. .
0
A1 = . .. .. .. ..
..
0 . . . .
. .. .. .. .. ..
.
. . . . . .
0 . . . . . . 1 ap−1
0
22
Da pF (x) = pMB (F) (x) = pA1 (x) · pA3 (x)
Als Zusatzaufgabe werdet ihr zeigen
p−1
X
pA1 (x) = ai xi − xp
i=0
zu ii)
0 = mF (F)(0)
k
X
= i
bi F (v) ← bk := 1
i=0
k
X
= bi λi · v
i=0
= mF (λ) · v
v,0
⇒ mF (λ) = 0
Wie findet man das MinPoly?
Anmerkung:
Die Nullstellen des MinPoly unterscheiden sich von denen des charPoly höchstens in
ihrer Vielfachheit.
Beispiele:
! !
2 1 2−x 1
1) A = , pA = det = (2 − x)2 − 1 = x2 − 4x + 3
1 2 1 2−x
!
0 0
pA (A) = A − 4A + 3E2 =
2
0 0
x − 4x + 3 = (x − 3)(x − 1) = mA , da mA die selben Nulstellen wie pA hat
2
23
−1 1 1
2) A = 1 −2 1 , A0 und A sind linear unabhängig
1 1 −2
6 −3 −3
A2 = −3 6 −3
−3 −3 6
A2 = −3A ⇔ A2 + 3A = 0, d.h. mA = x2 + 3x
(kleineren Grades geht nicht, weil A0 , A linear unabhängig sind)
⇒ mA = xr xi
P
− r − 1αi
i=0
Satz
Sei V ein reeller VR, dim(V) = n < ∞ und I ∈ Endo(V). dann gilt:
i) Es gibt einen UR W von V mit dim(W) = 1 oder 2 und F(W) ⊆ W. (W ist F-invariant)
Beweis
zu i)
Sei mF das MinPoly von F und p ein irreduzibler Faktor von mF . In der gr. Übung
gzeigt: grad(p)= 1 oder 2
Sei mF = g · p. Dann ist g(F) , 0. Also existiert ein v ∈ V mit g(F)(v) , 0. Setze
w := g(F)(v)
24
Fallunterscheidung
1. Fall
p = x − a : also 0 = p(F)(v) = F(w) − a · Id(w)
⇔ F(w) = a · w
2. Fall
p = x2 + ax + b : also
0 = p(F)(w) = F2 (w) + aF(w) + b · Id(w)
⇒ F(F(w)) = −a · F(w) − b · w
7 Jordansche Normalform
7.1 Blocktriagonalisierung
Ziel: F ∈ Endo(V) mit zerfallendem charPoly
k
Y
pF (x) = ± (x − λi )ri
i=1
7.1.1 Zerlegungslemma
F ∈ Endo(V), f ∈ K[x] so dass f (x) = g(x) · h(x) mit ggT(g(x), h(x)) = 1 dann gilt:
kern( f (F)) = kern(g(F)) + kern(h(F))
25
Beweis
V =U⊕W
U,W sind UVR von V und U ∩ W = {0}, V = U + W
Beweis
Sei r ∈ kern(g(F)) d.h. g(F)(v) = 0
2) kern(g(F)) ∩ kern(h(F)) = 0
Beweis
Sei w aus dem Durchschnitt
Behauptung
(p(F)g(F)w) ∈ kern(g(F)) und (q(F)h(F)w) ∈ kern(g(F))
26
Beweis
h(F)(p(F)g(F)w) = (h(F)p(F)g(F))(w)
= p(F) ◦ (h(F) ◦ g(F)) (w)
= p(F)( f (F)W )
w∈kern( f (F))
= p(F)
= 0
7.1.2 Proposition
n
F ∈ Endo(V), q(x) = ± (x − λi )ri ⇔ kern(g(F)) = V mit q(F) = 0
Q
i=0
Beweis
Verwende Induktion nach k und Zerlegungslemma
k=1:
Cay.-Ham.
q(x) = (x − λ)r V = kern(q(F)) = kern(F − λ Id)n
Schritt:
q(λ) = g(x) · (x − λk )rk ggT(g(x), (x − λk )rk ) = 1
Zerlegungslemma:
Cay.-Ham.
V = kern(q(F)) = kern(g(F)) + kern [(F − λk )rk ]
| {z }
V1
fasse F als Endo von V auf und verwende Induktion. (V1 ist F-invariant)
7.1.3 Invarianzlemma
F ∈ Endo(V), p ∈ K[x] ⇒ kern(p(F)) ist F-invarianter UR von V.
Beweis
27
p(F)(F(v)) = (p(F) ◦ F)(v)
= (F ◦ p(F))(v)
= F(p(F)(v))
= F(0)
= 0
K[x] Polynomring
K[F] Unterring von F ∈ Endo(F) ist kommutativ weil homomorphes Bild eines kommu-
tativen Ringes.
(aFk )(F(v)) = aFk−1 v = aF(Fk v) = F(aFk (v))
Um die Überlegungen einfacher zu gestallten arbeiten wir mit A ∈ M(n, n) statt
F ∈ Endo(V) weiter, d.h. wir fixieren eine Basis/ ein Koordinatensystem.
Für Ui wollen wir eine Basis wählen so dass Triagonalgestalt λi ∗ im Block
..
.
0 λi
entsteht.
Frage: Bekommen wir wirklich nur λi als EW im i-ten Block?
Lemma
⇒ pBi zerfällt in Linearfaktoren der Art (x−λ j ). Angenommen in pBi kommt iin Faktorr
(x − λ j ) mit i , j vor.
⇒ Bi : Ui → Ui hat λi als EW also auch einen EV zu λ j , sei dies v , 0. vßUi = kern(A−λi In )n
28
andererseits ist v ∈ kern(a − λ j In ) ⊆ kern(A − λ j In )r j = U j also v ∈ Ui ∩ U j = {0} wegen
direkter Summe
alle Faktoren von pBi sind (xλi ) und alle solche n Fktoren aus pA müssen in pBi sein.
ri = grad(pBi ) = dim(Ui )
⇒ pBi (x) = ±(x − λi )ri
7.2 Haupträume
7.2.1 Definition
Der Hauptraum Hau(F, λ) von F ∈ Endo(V) zum EW λ besteht aus allen v ∈ V für die es
ein s gibt, so das
(F − λ Id)s v = 0
Lemma
Wenn Tk = Tk+1 ⇒ kern(Tk+l = kern(T)k + l + 1)
Beweis
E genügt z.z.: kern(Tk+l ) ⊇ kern(Tk+l+1 ) ∀l ≥ 0
v ∈ kern(Tk+l+1 ) d.h.
Tk+l+1 · v = 0 = Tk+1 (Tl (v))
also
Tl · v ∈ kern(Tk+1 ) = kern(Tk )
also ist
Tk (Tl (v)) = 0 = Tk+l v
also
v ∈ kern(Tk+l )
29
7.2.2 Proposition
T ∈ Endo(V), dim(V) = n ⇒ kern(Tn ) = kern(Tn+1 )
Beweis
Wenn in der Kette
{0} ⊆ kern(T) ⊆ kern(T2 ) ⊆ . . .
zwei Glieder gleich sind ⇒ alle weiteren sind gleich. Wenn sie ungleich sind ⇒ die
Dimension wächst obere Schranke an Dimension n = dim(V)
⇒ höchstens n Paare kern(Ti ) , kern(Ti+1 )
Lemma
F ∈ Endo(V), q ∈ K[x] jeder F-invarianter UR ist auch q(F)-invariant
Beweis
U F-invariant d.h. F(u) ∈ U ∀u ∈ U
q(λ) = a0 + a1 x + . . . + ak xk
p(F) = a0 Id +a1 F + . . . + ak Fk
v ∈ V : q(F)u = a0 Idu +a1 F(u) + . . . + ak Fk (u) ← Linearkombination von Elementen aus U ist in
|{z} |{z} |{z}
∈U ∈U ∈U
Satz
Hau(F, λ) = kern(F − λ Id)r wobei pF (x) = (x − λ)r · q(x) und ggT((x − λ)r , q(x)) = 1
Beweis
Zerlegungslemma: V = U ⊕ W wobei U = kern(F − λ Id)r (daraus folgt Beh.)
Angenommen ∃v ∈ kern(F − λ Id)r−1 \ kern(F − λ Id)r , r , u + w mit u ∈ U und w ∈ W
30
7.3 Jordan -Blöcke
Für Ui suchen wir eine geeignete Basis so dass
λi
∗
λ1
∗ .. ..
..
. .
s−1 = si =
.
..
i
. ∗ ← nur 0 und 1
λi
0
λi
= S−1 IS + S−1 NS
= λi S−1 S + S−1
= λi I + S−1 NS
bekommt. N ist Dreiecksmatrix mit 0 auf der Diagonale d.h. N ist nilpotent (∃K : Nk =
0 ⇔ kern(Nk ) = V)
Satz:
s.d.
B = (Nm1 v1 , Nm1 −1 v1 , . . . , Nv1 , v1 , Nm2 v2 , . . . , vk )
Basis ist von V und
(Nm1 v1 , Nm2 v2 , . . . , Nmk vk )
ist Basis von kern(N)
31
Aus dem Satz folgt: N hat bzgl. der Basis B die Gestallt
0 1
.. ..
. .
..
.
1
m1 + 1
0
..
.
Behauptung
B = (Nm1 v1 , . . . , Nv1 , v1 , . . . , vk ) sind linear unabhängig
32
Beweis
mi
k X
X
o= ai j N j vi
i=1 j=0
wende N an:
XX
o = ai j N j+1 vi
i j
XX
= ai j N j wi
i j
l X m0i
X
lasse alle Vektoren weg die 0 sind → = ai j N j wi
i=1 j=0
Es bleibt
l
X k
X
o, aimi Nmi vi + aimi vi ⇒ ?1
i=1 i=l+1
| {z } | {z }
∈Bild(N)∩kern(N) ∈W
l
X 0
direkte Summe (!) ⇒ aimi Nmi wi =0 ⇒ ?2
i=1
|{z}
Basis von Bild(N)∩kern(N) also sind diese aimi =0
?1 und ?2 ⇒ Basis von W ⇒ diese aimi sind 0
Behauptung
zählen:
l
X l
X
dim(Bild(N)) = (m0i + 1) = mi
i=0 i=0
dim(kern(N)) = k
33
7.4 JNF berechnen
1) Berechne pF (x) und seine Nullstellen λi mit Koeffizienten ri . (pF (x) muss zerfallen)
3) Für jeden Block berechne geeignete Basis, so dass ein Jordanblock entsteht:
λi
1
.. ..
. .
..
.
1
λi
..
.
λi
Beobachtungen
• Die Anzahl der Jordankästchen zum EW λi der Größe j ist gegeben durch:
34
7.4.1 Beispiel 1
1 1 0 1
0 2 0 0
A = pA (x) = ±(x − 2)4
−1 1 2 0
−1 0 0 3
1 1 0 1
0 0 0 0
(Ai − 2I4 ) = (A − 2I4 )2 = 0
−1 1 0 1
−1 1 0 1
7.4.2 Beispiel 2
Sei dim(V) = 6, F ∈ Endo(V)
pF (x) = (x − 2)2 (x − 3)4
mF (x) = (x − 2)2 (x − 3)3
Die Dimension der Haupträume zu 2 und 3 sind die Potenzen im harPoly, d.h. uns
fehlt ein Block zum EW 3.
2 1
2
3 1
⇒ JNF(F) =
3 1
3
3
35
8 Euklidische Vektorräume
Vektorräume über R mit Geometrie „Längen und Winkel“
8.1 Skalarprodukt
Definition
Sei V in VR über dem Körper R. Ein Skalarprodukt auf V ist eine Abbildung
V×V → R
(x, y) 7→ < x, y >
1) Bilinearität
2) Symmetrie
< x, y >=< y, x > ∀x, y ∈ V
3) positiv definit
< x, x >> 0 ∀x , 0
8.2.1 Beipiele
1) Das kanonische Skalarprodukt
V = Rn x = (x1 , . . . , xn ) y = (y1 , . . . , yn )
< x, y >:= x1 y1 + x2 y2 + . . . + xn yn
y1 X
n
< x, y >= x · y = (x1 , . . . , xn ) ... =
T
xi yi
yn i=1
36
positiv Definit:
n
X
< x, x >= x2i ← jeder Summand ≥ 0 und 0 nur wenn xi = 0
i=1
Z1
< f, g >= f (x) · g(x)dx
−1
3) V = R4 , A ∈ GlR (n)
|| · || : V → R+
√
x 7→ < x, x > mit < x, x >≥ 0 also ist die Wurzel immer definiert
Norm: || · || : V → R+
N1: ||x|| = 0 ⇒ x = 0
N2: ||λx|| = |λ| · ||c|| ∀λ ∈ R
N3: ||x + y|| ≤ ||x|| + ||y||
Metrik: d : V × V → R+
D1: d(x, y) = 0 ⇔ x = y
D2: d(x, y) = d(y, x)
D3: d(x, z) ≤ d(x, y) + d(y, z)
Proposition 1
|| · || Norm au fR-VR V ⇒ d(x, y) := ||x − y|| ist eine Metrik auf V
Beweis
N1
D1: 0 = d(x, y) = ||x − y|| ⇔ x − y = 0 ⇔ x = y
N2
D2: d(x, y) = ||x − y|| = | − 1| · ||y − x|| = ||y − x|| = d(y, x)
N3
D3: d(x, z) = ||x − z|| = ||(x − y) + (y − z)|| ≤ ||x − y|| + ||y − z|| = d(x, y) + d(y, z)
37
Proposition 2
√
< ·, · > Skalarprodukt auf R-VR V ⇒ ||x|| := < x, x > ist eine Norm.
Beweis
√ pos. def.
N1: ||x|| = 0 ⇔ < x, x > = 0 ⇔< x, x >= 0 ⇔ x=0
√ Bilin. p 2 √
N2: ||λx|| = < λx, λx > = λ < x, x > = |λ| < x, x > = |λ| · ||x||
N3: Dreiecksungleichung folgt aus Cauchy-Schwarz
Proposition 3
Wen eine Norm on einem Skalarpodukt kommt, dann kann das Skalarprodukt aus der
Norm zurückgewonnen werden.
1
< v, w >= (||v + w||2 − ||v − w||2 )
4
Beweis
Beweis
38
0 ≤ < x − λy, x − λy >
= < x, x > −λ < x, y > +λ2 < y, y >
= ||x||2 − 2λ < x, y > +λ2 ||y||2
<x,y>
Wir nehmen y , 0 an und setzen y = ||y||2
Aus der Symmetrie geht der Beweis für x , 0, wenn x = y = 0 gilt sowieso.
Beobachtung
Aus Cauchy-Schwarz folgt:
< x, y >
−1 ≤ ≤1
||x|| · ||y||
Das Intervall [−1, 1] ist das Bild des cos. Für Argumente im Bereich [0, π] ist cos bijek-
tiv auf [−1, 1]. UmKehrfunktion arccos existiert.
Deinition
< x, y >
(x, y) := arccos
||x|| ||y||
Eigenschaften von Winkeln
• (x, y) = (y, x)
39
Die zweite Eigenschaft erlaubt die Untersuchung auf Vektoren mit Norm 1 zu be-
schränken.
x y
x0 = y0 =
||x|| ||y||
x0 = (cosα, sinα)
y0 = (cosβ, sinβ)
Die Definition für können wir umschreiben ( hier kann sogar x, y = 0 zugelassen
werden ).
1
< x, y >= 0 und x, y , 0 ⇒ (x, y) =
2
8.4 orthogonal
Definition
L0 1-dim VR in R2
L0 = {λv0 : λ ∈ R} v0 , 0, B = (v0 ) Basis.
L = {v : < s, w >= b}
• L+ = {w : < s, w >≥ b}
• L− = {w : < s, w >≤ b}
40