Sie sind auf Seite 1von 44

Lineare Algebra 2

Vorlesungsmitschrift

Prof. Stefan Felsner


Technische Universität Berlin
SS 2008

LATEXed by Robert Rudow


12. August 2008
Inhaltsverzeichnis
4 Eigenwerte und Eigenvektoren 1
4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
4.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
4.3 invarianter Unterraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
4.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
4.3.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

5 Endomorphismus 4
5.1 diagonalisierbar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
5.2 Diagonalisierbarkeitskriterium . . . . . . . . . . . . . . . . . . . . . . . . . 4
5.3 Proposition (Summe der Eigenräume) . . . . . . . . . . . . . . . . . . . . 5
5.4 Verallgemeinerte Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 6
5.5 Existenz von Eigenwerten über C . . . . . . . . . . . . . . . . . . . . . . . . 7
5.6 Hauptsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

6 Das charakteristische Polynom 8


6.0.1 Eigenschaften von det(A − λIn ) . . . . . . . . . . . . . . . . . . . . . 9
6.1 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
6.2 Diagonalisierungsalgorythmus . . . . . . . . . . . . . . . . . . . . . . . . . 13
6.2.1 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6.3 Triagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.3.1 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.3.2 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6.4 Satz von Cayley Hamilton für Dreiecksmatrizen . . . . . . . . . . . . . . . 15
6.5 Triagonalisierungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.5.1 Beipiel für Triagonalisierung . . . . . . . . . . . . . . . . . . . . . . 17
6.6 Das Minimalpolynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.7 Ideal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.7.1 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.8 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . 22

7 Jordansche Normalform 25
7.1 Blocktriagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
7.1.1 Zerlegungslemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
7.1.2 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
7.1.3 Invarianzlemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
7.2 Haupträume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
7.2.2 Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
7.3 Jordan -Blöcke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
7.4 JNF berechnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
7.4.1 Beispiel 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.4.2 Beispiel 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

I
8 Euklidische Vektorräume 36
8.1 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.2 Defintion Euklidischer VR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.2.1 Beipiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.3 Die Cauchy-Schwarz-Unleichung . . . . . . . . . . . . . . . . . . . . . . . . 38
8.4 orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

II
4 Eigenwerte und Eigenvektoren
Ziel: Verstehen von Endomorphismen
Beipiel: Wenn M eine Diagonalmatrix ist

dann verstehen wir, wie M auf Kn wirkt.

Mei = 0 . . . 010 . . . 0 = λi ei
d.h ei wird um λi gestreckt. Die λi sind Eigenwerte von M.

4.1 Definition
Sei F ein Endomorphismus von V (V endlich dimensionaler VR über dem Körper K) λ ∈ K
ist ein Eigenwert von F wen es einen Vektor v ∈ V, v , 0 gibt, so daß F(v) = λ · v (v ist
immer , 0). Der Vektor v ist Eigenvektor von F zum EW λ.

4.2 Beispiele
1. V = K (1 - dim)
f : K → K linear, wenn
f (x + y) = f (x) + f (y)
f (λx) = λ f (x)

f hat die Gestalt f (x) = a · x, a∈K


f ist durch seinen einzigen EW a vollständig beschrieben.
!
0 1
2. M = als Abbildung K2 → K2
0 0
!
1
0 ist EW zum Vektor
0

Wenn v EV zum EW λ ist, dann ist mit µ , 0 auch µv EV zum EW λ.

M Z mit SMT = Z
(Zeilenstufenform) Wahl von Basen A,B ür Urbild VR und Bild VR.
M und Z können verschiedene Eigenwerte haben. Bei Endomorphismen wollen wir
nur eine Basis.

Beh. 0 ist einziger EW

nachrechen:

1
! ! !
x y x
M = =λ·
y 0 y
d.h.

y = λx
0 = λy

durch einsetzen folgt 0 = λ2 x ⇒ x = 0 ⇒ y = 0


⇒ 0 ist kein EV ⇒ kein weiterer EW

!
a
3. Spiegelung an < β >, β =
b
β ist EV zum EW 1
β⊥ ist ein EV zum EW -1
Bzgl. der Basis B = (β, β⊥ ) hat ie Spiegelung die darstellende Matrix
!
1 0
= Mβ (s) ???
0 -1

4. Rotation um den Winkel! α


cos α -sin
Matrix:
sin α cos α

Für α , kπ gibt es keine weiteren EWe (keine EVe)

π
! den Spezialfall α =
nachrechnen für 2 (90◦ )
0 -1
M=
1 0
! ! !
x -y x
M = =λ·
y x y

d.h.

−y = λx
x = λy

⇒ −y = λ2 y ⇒ λ2 = −1
⇒ λ = 1 ∨ λ = −1
!
1
EV zum EW i ist
-i
!
1
EV zum EW -1 ist
i
! ! ! !
1 1 i 0
Darstellende Matrix zur Basis B = , ist
-i i 0 -i

2
Zu beachten ist hierbei, dass wir während unserer Rechnung den Körper von R nach
C gewechselt haben. Die Existenz von EWen hängt also vom zugrundeliegenden
Körper ab.

5. I ⊆ R betrachten V = C∞ (I)
D : C∞ → C∞
D( f ) = f 0 ist ein Endomrphismus
Jedes λ ∈ R ist EW, EV eλx

Ist v EV von F dann gilt für <v> = U


Unterraum von U
F(U) = U

4.3 invarianter Unterraum


4.3.1 Definition
Ein Unterraum U von V heißt invariant (F ∈ Endo(V)) wenn F(U) ⊆ U

4.3.2 Beispiele
• {0}

• V

• v EV dann ist <v> F-invariant

• Kern(F)

• Bild(F): F(v) = Bild(F)


Bild(F) ⊆ V
⇒ F(Bild(F)) ⊆ F(V) = Bild(F)

• sind v1 , . . . , vk EV zu einem gemeinsamen EW λ dan ist U =< v1 , . . . , vk > F-invariant

w ∈ U d.h. w = a1 v1 + . . . + ak vk

F(w) = a1 F(v1 ) + . . . + ak F(vK )


= a1 λv1 + . . . + ak λvk
= λ(a1 v1 + . . . + ak vk )
= λw

3
5 Endomorphismus
5.1 diagonalisierbar
Definition

Ein Endomorphismus heißt diagonalisierbar, wenn er bzgl. einer geeigneten Basis(?)


durch eine Diagonalmatrix dargestellt wird.

 λ1
 

λ2
 
 
..
 
.
 
 
λn
 

F ∈ Endo ist diagonalisierbar ⇔ Basis bestehetnd aus EVen


Eine MAtrix A ∈ MK (n, n) heißt diagonalisierbar wenn es S ∈ GLK (n) gibt, so dasss SAS−1
Diagonalmatrix ist.

5.2 Diagonalisierbarkeitskriterium
Satz
Sei V ein VR, dim V = n, F ∈ Endo(V)
Wenn F n verschiedene EWs besitzt ⇒ F diagbar

z.z.: n verschiedene EWs ⇒ Basis aus EVs

Lemma

Sind λ1 , . . . , λk EWs eines Endo F und v1 , . . . , vk EVs zu diesen EWs ⇒ v1 , . . . , vk sind linear
unabhängig.

Beweis

Induktion über k
I.A.: k = 1, v1 , 0 weil EV ⇒ v1 linear unabhängig.

I.S. von k-1 nach k


Seien a1 , . . . , ak so dass

a1 v1 + a2 v2 + . . . + ak vk = 0 ?1

z.z.: alle ai sind 0.


F auf ?1 angewenden:

a1 λ1 v1 + a2 λ2 v2 + . . . + ak λk vk = F(0) = 0 ?2

Multiplikation von ?1 mit λk (→ vertauschen und umstellen liefert)

a1 λk v1 + a2 λk v2 + . . . + ak λk vk = λk · 0 = 0 ?3

4
Differenz von ?2 und ?3 liefert
=0 laut I.V. =0 laut I.V. =0 laut I.V.
z }| { z }| { z }| {
a1 (λ1 − λk ) v1 + a2 (λ2 − λk ) v2 + . . . + ak−1 (λk−1 − λk ) vk−1 + ak (λk − λk ) vk = 0
| {z } | {z } | {z } | {z }
,0 weil λi ,0 weil λi ,0 weil λi =0
verschieden verschieden verschieden
v1 , . . . , vk−1 sind linear unabhängig

⇒ a1 = a2 = . . . = ak−1 = 0

einsetzen in ?1 liefert ak = 0


Also sind v1 , . . . vk linear unabhängig

zum Satz: v1 , . . . , vk sind lin. unabh.. n Sück in einem n-dim VR ⇒ Basis

Die EVs zu einem (gemeinsamen) EW werden zusammengefast:

Eig(F, λ) = {x ∈ V : F(x) = λx} (Menge der EV und der Nullvektor)

das ist der Eigenraum von F zum EW λ

Eigenschaften:

• Ist λ der EW von F ⇒ Eig(F, λ) , {0}

• Eig(F, λ) = Kern(F − λ Id) (Eigenräume können als Kerne berechnet werden)

• λ1 , λ2 ⇒ Eig(F, λ1 ) ∪ Eig(F, λ2 ) = {0}

• Eig(F,Pλ) ist ein F-invarianter UR


(w = ai vi ) und F(vi ) = λi ∀i ∈ I ⇒ F(w) = λw)
i∈I

5.3 Proposition (Summe der Eigenräume)


Sind λ1 , . . . , λk verschiedene EW on F ∈ End(V) dann gilt

V = Eig(F, λ1 ) ⊕ Eig(F, λ2 ) ⊕ . . . ⊕ Eig(F, λk ) ⊕ U

Hintergrund
V = U + W d.h. ∀v ∈ V ∃u ∈ U, w ∈ W so dass v = u + w
V = U ⊕ V d.h.: ∀v ∈ V ∃!u ∈ U ∃!w ∈ W mit v = u + w
Die Bedingung für V = U ⊕ W ist V = U + W und U ∩ W = {0}

5
Beweis
Seien B1 , . . . , Bk Basen der Eigenräume ⇒ die Vereinugung von B1 ∪ . . . ∪ Bk ist linear
unanhänging
Basisergänzung liefert Basis B on V.
 
 
 
 
B = b1 , . . . , b j1 , b1 , . . . , b j2 , . . . , b1 , . . . , b jk , b1 , . . . , bt 
 1 1 2 2 k k 0 0
| {z } | {z } | {z } 
 
B1 B2 Bk

a11 b11 + . . . + a1j1 b1j1 + a21 b21 + . . . + a2jk b2jk + . . . + ak1 bk1 + . . . + akjk bkjk = δ ?1
| {z } | {z } | {z }
a1 v1 ∈Eig(F,λ1 ) a2 v2 ∈Eig(F,λ2 ) ak vk ∈Eig(F,λk )
k
ai vi = δ
P
i=1
Lemma: EVen zu verschiedenen EWen sinf linear abhänging.

⇒ a1 v1 = δ∀i ⇒ ai1 bi1 + · · · + aij bij = 0


i i
Bi ist Basis von Eig(F, λi )
⇒ a1j = 0 ∀ j = 1 . . . ji
d.h. alle Koeffitienten in ?1 sind 0.

Bemerkung: Wenn die EWe von F eine Zerlegung mit U = 0 erlaubt ⇒ F ist diagbar

λ1
 

 .. 

 . 


 λ1 

λ2
 
 
. ..
 
 
 
λ2
 
 
..
 
.
 
 
 
λk
 
 
. ..
 
 
 
λk
 

5.4 Verallgemeinerte Eigenvektoren


F ∈ Endo(V), λ EW on F. v ist verallgemeinerter EV von F zu λ wenn ∃k ∈ N so daß:

(F − λ Id)k v = 0

Bemerkung:

• {v : (F − λ Id)k v = 0} ⊆ {v : (F − λ Id)k+1 v = 0}

• EVs sind verallgemeinerte EVs (folgt aus der Def.)

6
verallgemeinerter EV zum EW 0
     
0 0 0 *1 0+
   
(M − 0 · Id)k = Mk mit M2 = 0 0 0 kern(M2 ) = 0 , 1
 
0 0 1 0 0
     
 
0
wenn wir den verallgemeinerten EV 1 dazunehmen, bekomen wir die Basis ⇒ fast
 
0
 
Diagonalgestalt:

Bemerkung:

nicht alle Endomorphismen haben Eigenwerte, z.B.: siehe Rotation

5.5 Existenz von Eigenwerten über C


Satz: Sei V ein n-dim. VR über C, F ∈ Endo(V) ⇒ F hat einen EW

Beweis:

Sei v ∈ V, v , 0
betrachte
v, F(v), F2 (v), . . . , Fn (v) (n+1 Stück)
linear abhängig ⇒ nicht trivial:

a0 v + a1 F(v) + . . . + ak Fk (v) = 0 mit aK , 0

betrachte da Polynom
p(x) = a0 + a1 x + . . . + ak xk

5.6 Hauptsatz der Algebra


∃ komplexe Zahlen c , 0, r so daß

p(x) = c(x − r1 )(x − r2 ) . . . (x − rk )p(F)v = 0 (so hatten wir p(x) gewonnen (s.o))

d.h.
c(F − r1 Id)(F − r2 Id) . . . (F − rk Id) · v = 0
daraus folgt

∃i : (F − ri Id)w = 0 w ist EV von F zum EW ri


wobei
w = (F − ri+1 Id) . . . (F − rk Id)v mit w , 0


7
6 Das charakteristische Polynom
Sei F ∈ Endo(V), λ ∈ K Die zentrale Beobachtung:

λ ist EW ⇔ det(F − λ Id) = 0

Beweis

λ EW ⇔ ∃v , 0 mit F(v) = λv
⇔ F(v) − λv = 0
⇔ (F − λ Id)(v) = 0
⇔ kern(F − λ Id) , 0
⇔ Rang(F − λ Id) < dim(V)
⇔ det(F − λ Id) = 0

EWe sind also Lösungen der Gleichung det(F − λ Id) = 0


wenn A ∈ M(n, n) gilt also:

...
 
a11 − t a12 
 a21 a22 − t . . .
 

det(A − λ Id) = det  ..

.

 
 
ann − t

Entwickelt man diese Determinante mit den üblichen Methoden so erhält man ein
Polynom in λ. Dieses Polynom ist das charakteristische Polynom von A.

Problem:
Wir haben eine Theorieder Determinante nur für Matrizen mit Einträgen in einem
Körper.
Auswege:

• Determinante für Matrizen mit Einträgen aus einem Ring definieren. Anwenden
auf den Ring K[t]

• Die Einträge als Elemente im Körper K(t) der rationalen Funktionen interpretieren

• Geben uns mit der formalen Zuordnung A 7→ PA (λ) zufrieden


(formale Entwicklung der Determinante von (A − λ Idn ) und verwenden künftig
nur dass) für jedes λ ∈ K gilt:
PA (λ) = det(A − λ Idn )

8
6.0.1 Eigenschaften von det(A − λIn )

a11 − t ... ∗ ... 


 
 . 
 .. a22 − t


 = sgn(σ) · aˆ11 · aˆ22 · . . . · anσ
 P
.. ˆ1
 
 ∗
 .  σ∈Sn
 ..
 

.

a −t
nn

Beobachtungen

• Jeder Summand in der Entwicklung ist Produkt von n Polynomen vom Grad 0 oder
1 ⇒ hat Grad ≤ n

• Das charPoly hat als Summe von Polynomen vom Grad ≤ n selbst Grad ≤ n.

• Der Grad ist n. Der einzige Summand mit Grad n ist


(a11 − t)(a12 − t) · . . . cot(ann − t)

Sei PA (λ) = det(A − λIn ) = αn λn + αn−1 λn−1 + . . . + α1 λ + α0

αn = (−1)n
αn−1 = (−1)n−1 (a11 + a22 + . . . + ann ) = span(A)
 
 X X 
αn−2 = (−1)n−2 (−1) ai j a ji + aii a j j 
 
 
1≤i≤j≤n 1≤i≤j≤n
..
.
n
X die -1 hängt von der Wahl des λ ab
α1 = (−1)det(Aii )
Aii entsteht durch streichen der i-ten Zeile und i-ten Spalte von A
i=1
α0 = det(A)

σ ∈ Sn entspricht einem Permutationsmuster. Auswahl von Zellen so, daß jede Zeile
und jede Spalte genau eine Zelle enthält.
!
1 2 3 4 5 6 7
σ:
4 6 2 5 7 3 1

Lemma
Ähnliche Matrizen haben das selbe charPoly

Beweis
A, B ∈ M(n, n), S ∈ Gl(n) so daß B = SAS−1
Rehnen mit λ wie mit einem Skalar

B − λIn = SAS−1 − SS−1 λIn


= SAS−1 − SλIn S−1
= S(A − λIn )S−1

9
PB (λ) = det(B − λIn )
= det(S(A − λIn )S−1 )
det ist
multiplikatitv
= det(S) · det(A − λIn ) · det(S−1 )
| {z } | {z }
∈K[λ] ∈K

= det(S)det(S ) det(A − λIn )


−1
| {z }
=1
= det(A − λIn )
= PA (λ)

Satz
Sei VK − VR, dim(V) = n, F ∈ Endo(V) dann gilt:
1) Für jede darstellende Matrix A von F gilt:

i) PA (λ) = PF (λ)
PF (λ) ist wohldefiniert weil für ähnliche Matrizen A,B gilt:PA (λ) = PB (λ)

ii) Die Spur von F ist durch spur(F) := spur(A) wohldefiniert


3) Der Grad PF (λ) = n
4) Die Nullstellen von PF (λ) sind gerade die EWe on F
5) Die Nullstelen von PF (λ) sind gerade die EWe von F
Beweis
2)-4) folgt aus den entsprechenden Aussagen für Matrizen und Teil 1) des Satzes

6.1 Diagonalisierung
Satz: F ∈ Endo(V), dim(V) = n dann gilt:
1) F diagbar (d.h. es existiert eine Diagonalmatrix die F darstellt)
⇒ PF (x) = (−1)n (x − λ) (x − λ2 ) . . . (x − λn ) (PF (t) zerfällt in Linearfaktoren)
2) Wenn F n verschiedene EWe besitzt
PF (x) = (−1)n (x − λ) (x − λ2 ) . . . (x − λn ) und F ist diagbar
Beweis
1) F diagbar D darstellende Diagonalmatrix
λ1 − t
 

λ2 − t
 
 
⇒ PF (x) = PD (x) = det  ..

.

 
λn − t
 

⇒ PF (x) = (λ1 − x) . . . (λn − x)

10
2) n verschiedene EWe b1 , . . . , bn EVen sind linear unabhängig also Basis. Darstellende
λ!
 

MAtrix bzgl. dieser Basis ist: D =  ..
.
 

 
λn


allgemeine Endomorphismen

PF (x) = (−1)n (x − λ1 )r1 . . . (x − λk )rk q(x)


wenn q(x) , 1 ⇒ q(t) ist Polynom vom Grad ≥ 2 ohne Nullstellen in K

Es gilt:

• λi i = 1, . . . , k sind sämtliche EWe von F

• Für jedes i gilt:


1 ≤ dim(Eig(F, λi )) ≤ ri =: µ(PF , λi )
| {z } | {z }
geom.Viel f achheit algebraische
des EWs λi Vielfachheit

Beweis

λi ist EW ⇒ ∃ EV ⇒ 1 ≤ dim(Eig(F, λi ))
Sei b1 , . . . , b j eine Basis on Eig(F, λi )
Basiserweiterung B = (b1 , . . . , b j , b j+1 , . . . , bn )
Betrachte darstellende Matrix von F bzgl. B

Die Spalten dieser Matrix sind die Koordinatenvektoren von F(b1 ), . . . , f (bn ) bzgl. B
 λi
 

 .. 

 . 

λi
 
A = 
 

 
 

 A’ 

 

PF (x) = PA (x)
= (λi − x) j PA0 (x)

PF (x) = (λi − x)n Q(x) wobei λi keine Nullstelle von Q(t) ist

⇒ j ≤ ri

11
Satz (Charackterisierung von Diagonalisierbarkeit)

Für F ∈ Endo(v), dim(V) = n ist äquivalent:

1) F ist diagbar

2) ∀ λ (EW von F) gilt:

i) dim(Eig(F, λ)) = µ(PF , λ)


µ(PF , λ) = n = grad(PF )
P
ii)
λ EW von F

3) V = Eig(F, λ)
L
λ EW von F

Beweis

1) ⇒ 2)

F diagbar ⇒ darstellbar durch Diagonalmatrix D bzgl. der Basis B = (b1 , . . . , bn )

λ1
  

..


 
.
 
r1
  
  

λ1
 
 

 

λ

 2
 

.
  
. r2

.
  
  
D = 
  

λ2

 
.

.

.
 
 
λk
  
  

..
  
rk

.
 
 
 

  
λk
  

PF (x) = PD (x)
Yk
= (λi − t)ri ?1
i=1

d.h.: µ(F, λi ) = ri
In B sind ri EVen zum EW λi
⇒ dim(Eig(F, λi )) ≥ ri
⇒ dim(Eig(F, λi )) = µ(PF , λi ) ∀i
k
Aus ?1 folgt: grad(PF ) =
P
ri
i=1

2) ⇒ 3)
Sei Bi Basis von Eig(F, λi ) und ri = dim(Eig(F, λi ))

12
B1 ∪ B2 ∪ . . . ∪ Bk : sind linear unabhängig.
ri = n ⇒ B ist Basis
P

3) ⇒ 1)
Bi ist Basis von Eig(F, λi )
⇒ B1 ∪ . . . ∪ Bk ist Basis von V

Darstellende Matrix von Fbbzgl. dieser Basis ist eine Diagonalmatrix.

6.2 Diagonalisierungsalgorythmus
Gegeben sei F ∈ Endo(V) Frage: Ist F diagbar?

1) Wähle Basis B und stelle F bzgl. B dar.


⇒ haben Matrix A, so dass PA (x) = PF (x)

2) Berechne die Nullstellen von PA (x) und ihre Vielfachheit ri


Falls Anzahl der Nullstellen mit Vielfachheit ri < n ⇒ nicht diagbar
P
Andernfalls PF (x) = (x − λ1 )ri . . . (x − λk )rk (−1)n

3) Berechne für jedes i eine Basis Bi von Eig(F, λi )


Falls ∃i so dass |BI | = dim(Eig(F, λi )) < ri = µ(F, λi )
⇒ nicht diagbar

Andernfalls B1 ∪ . . . ∪ Bk ist eine Basis aus EVen und F ist diagbar

6.2.1 Beispiel
 
 3 1 1
A = −1 1 1
 
2 2 2
 

det(A − λI3 ) = (λ3 − 6λ2 + 8λ)(−1)


= λ(λ2 − 6λ + 8)
= λ(λ − 2)(λ − 4)(−1)

EVen:

     
0 −1 −1
EW = 0: 0 EW = 2:  1  EW = 4:  0 
     
1 0 1
     

 
4 0 0
⇒ D = 0 2 0
 
0 0 0
 

13
A
R3 −−−−−→ R3  
 x −1 −1 0 
⇒ T =  0

1 1 
 
T−1  
T
y 

1 0 −1
 
R3 −−−−−→ R3
D

6.3 Triagonalisierung
zuletzt Diagonalisierung
für Diagonalgestallt 2 Beingungen:

1) das charPoly zerfällt in Linearfaktoren


2) Für jeden EW ind die algebraische und die geometrische Vielfachheit gleich

F ∈ Endo(V), dim(V) = n ist triagonaliierbar wenn er durch eine obere Dreiecksmatrix


dargestellt werden kann.
λ ∗ 
 

T = 
 .. 
 . 

0 λn
Beobachtung:

F triagonalisierbar ⇒ das charPoly zerfällt in Linearfaktoren:


PF (x) = PT (x) = (λ1 − x)() . . . (λn − x)

6.3.1 Proposition
F ∈ Endo(V), dim(V) = n
F wird bzgl. der Basis B = (v1 , . . . , vn ) durch eine Dreiecksmatrix darestellt.
⇔ F(vk ) ∈ span(v1 , . . . , vk ) k = 1, . . . , n
Beweis

“⇒“

TF (ti j ) Dreiecksmatrix, d.h. ti j = 0, i > j

n
X
F(vk ) = tik vi ∈ span(v1 , . . . , vk )
i=1

“⇐“

Die k-te Spalte der Matrix MB (F) ist der Koordinatenvektor von F(vk ) bzgl. B, wenn
F(vk ) ∈ span(v1 , . . . , vk )
⇒ dieser Koorinatenvektor hat Einträge , 0 nur in den ersten Komponenten.
⇒ mB (F) ist obere Dreiecksmatrix

14
6.3.2 Proposition
F ∈ Endo(V), dim(V) = n, F ist triagonalisierbar ⇔ ∃ Teilräume Ui , i = 1, . . . , n mot
{0} ⊂ U1 ⊂ U1 ⊂ . . . ⊂ Un = V und F(Ui ) ⊆ Ui
| {z } | {z }
Fahne der Länge n F-invariant

Anders gesagt: ∃ Fahne F-invarianter UR der Länge n.

Beweis

“⇒“

triagonalsierbar ⇒ ∃ Basis (v1 , . . . , vn ) mit F(vk ) ∈ span(v1 , . . . , vk )


setze Ui = span(v1 , . . . , vk ). Die Ui haben die Eigenschaften

“⇐“

Aus Uk ( Uk+1 ⇒ dim(Uk ) < dim(Uk+1 ) ⇒ dim(Uk ) = k für k = 1, . . . , n

Wahl von vk ∈ Uk \ Uk+1 liefert eine Basis v1 , . . . , vk so dass

F(vk ) ∈ Uk ⊃ span(v1 , . . . , vk )

⇒ triagonalisierbar

6.4 Satz von Cayley Hamilton für Dreiecksmatrizen


T ist Dreiecksmatrix ⇒ PT (T) = 0 ∈ M(n, n)

Beweis

λ1 ∗ 
 

T = 
 .. 
mit uk = span(e1 , . . . , ek ), {0} ⊂ U1 ⊂ . . . ⊂ Un = Kn
 . 

λn

• PT (x) = (−1)n (x − λ1 )(x − λ2 ) . . . (x − λn )

• (T − λk In )[Uk ]
(T − λk In ) =
λ1 − λk
 

λ2 − λk
 
 
...
 
 
λk−1 − λk
 
 
  ← e i-te Spalte der
i

 0 

λk+1 − λk
 
 
...
 
 
λn − λk
 

Matrix ∈ span(e1 . . . en )

15
• PT (T) = (−1)n (T − λ1 In )(T − λ2 In ) . . . (T − λn In )
PT (T)[v] = {0} d.h. PT (T) ist die Nullmatrix

6.5 Triagonalisierungssatz
A ∈ M(n, n) mit einem charPoly das in Linearfaktoren zerfällt ⇒ ∃S ∈ Gl(n) so dass SAS−1
obere Dreiecksmatrix ist.

Beweis

PA (x) = (x − λ1 ) . . . (x − λn )(−1)n sei b1 EV zu λ1 , B = (b1 , . . .) Basis (unendl.Basis???)

λ1
 
 ∗ ··· ∗ 
0
 
 
bzgl. B bekommen wir die Gestalt: A = 
0
..

. A∗

 
 
0
∃T ∈ Gl(n) mit A0 = TAT−1

∃T ∈ Gl(n) mit A0 = TAT−1

PA (x) = PA0 (x) = (λ1 − x)PA∗ (x), also zerfällt PA∗ (x) in Linearfaktoren.
Mit Induktion nach n:

∃R ∈ Gl(n − 1) so dass RA∗ R−1 eine obere Dreiecksmatrix ist.

Behauptung:

0   λ1
     
 1 0 ··· ∗1   1 0 ··· 0 
0   0 0
     
   
..  ·  . ..
  ·  

 . R   .. A∗
 
  . R−1


     
0 0 0
 
· · · 0   λ1
   
 1 0 ∗2 
0   0
   
 
=  ..   ...
 ·  
. A∗ R−1


 R   

0 0
 
λ1
 
 ∗2 
0
 
 
=  ..

. ∗ −1 

 RA R 

0
⇒ Mit    
 1 0 ··· 0   1 0 ··· 0 
0 0
   
   
R̃ =  ..
 , R̃−1 =  ..

. . R−1
 

 R 





0 0

16
Gilt

R̃TAT−1 R̃−1 ist Dreiecksmatrix,


=(
ˆ R̃T)A(R̃T)−1 mitR̃, T ∈ Gl(n) ⇒ R̃T ∈ Gl(n)

Bermerkung: Triagonalgestalt ist eine Normalform für Endomorphismen deren char-


Poly zerfällt. Nahteil: selbst wenn A diagbar ist, können wir viele Einträge , 0 bekommen.

Beispiel

!
3 0
A= , PA (x) = (3 − x)(2 − x), λ1 = 2, λ2 = 3
2 2
!
0
EV zum EW 2:
1
( ! !)
0 1
Basiserweiterung: B = ,
1 0
! ! ! !
0 1 3 0 0 1 2 2
⇒A =0 =
1 0 2 2 1 0 0 3
mittelfristiges Ziel: eine Normalgestallt für Endomorphismen mit zerfallendem char-
Poly, die besser ist: Jordan Normalform

6.5.1 Beipiel für Triagonalisierung


 
 1 0 1
A =  0 2 0 ∈ Endo(R3 )
 
−1 1 3
 
 
1 − x 0 1 
PA (x) = det  0 2−t 0  = (1 − x)(2 − x)(3 − x) + (2 − t) = (2 − x)3
 
−1 1 3−t
 

⇒ λ = 2 ist einziger EW

 Eigenvektor:   
−1 0 1 1
 0 0 0 · x = 0 v1 = 0 ist bis auf Skallierung eindeutige Lösung
   
   
−1 1 1 1
     
1 0 0
 
Basisergänzung: B =    ,   ,  

     
0 1 0


 1 0 1 
 
 
1 0 0
T−1 = 0 1 0
 
1 0 1
 

17
     
 1 0 0  1 0 1 1 0 0  2 0 1 
TAT−1 =  0 1 0  0 2 0 0 1 0 =  0  = A0
     
2 0 
−1 0 1 −1 1 3 1 0 1 0 1 2
    
!
2 0
= A∗
1 2

R ! ! R−1! !
0 1 2 0 0 1 2 1
=
1 0 1 2 1 0 0 2
 
2 1 0
R̃A0 R̃−1 = 0 2 1 ← Dreiecksgestallt.
 
was ist die zugehörige Basis?
0 0 2
 

Verallgemeinerung

Sei (K , +, · · · , K) ein K-Algebra


Für a ∈ K und P = a0 + a1 x + . . . + an xn ∈ K[x]

definiere: P(a) := a0 a0 + a1 a + a1 a2 + . . . + an an

Beispiel

i) K = MK (n, n) : A ∈ K undP = x2 − x + λ
P(A) = A2 − A + λEn

ii) K = Endo(V), f ∈ Endo(V), P = x2 − λ


P( f ) = f 2 − λ · · · Id ∈ Emdo(V)

Die Abbildung

ϕa : K[x] → K
p 7→ p(a) ist ein Algebren-Theorem („Einsetzungshomomorphismus“)

Da K[x] kommutativ (bzgl. ·) ist und

ϕa : K[x] → K[a] = {a0 a0 + a1 a + . . . + an an | n ∈ N, a ∈ K}


p 7→ p(a)

deswegen ist K[a] ei kommutativer Unterring von K → rechnen ist leichter!

Beispiel:
MK (n, n) nicht kommutativ
ϕA : K[x] → K[A] (kommutativer Ring von MK (n, n))
a0 + a1 x + . . . + anx 7→ a0 En + a1 A + . . . + an An

z.B.: A ·(A2 − a + E ) = A3 − A2 + A = (A2 − A + En )A


|{z} | {z }n
∈K[x] ∈K[A]

18
wir hatten gesehen, dass unsere Polynome keine Funktionen/Abbildungen sind.

Beispiel

p = x2 + x ∈ Z2 [x]
p(0) = 0, p(1) = 0, also ist p Nullabbildung.

Exkurs

Wie kann man Polynome als Abbildungen betrachten?

p = a0 + a1 x + . . . + an xn ∈ K[x]

p(α) = a0 + a1 α + . . . + an αn = a0 + a1 Idk (α) + . . . + an (IdK (α))n


= (a0 + a1 Idk + . . . + an Idnk )(α)

Idik : K → K
α 7→ αi

K → K
α 7→ p(α)
p(Idk ) = a0 + a1 Idk + . . . + an Idnk (Polynom der Abbildungen)

Sei P(K) die K-Algebra der Polynomeabbildungen über K. Dann ist

ϕ : K[x] → P(K) ist surjektiver Algebrenhomomorphismus


7→ p(IdK )

Beispiel

x2 + x ∈ Z2 [x]
)
ϕ ist im allgemeinen nicht injektiv: → gleiche Abbildung
0 ∈ Z2 [x]
Überblick:

n
X α einsetzen n
X
p= ai xi −→ p(α) = a i αi
i=0 Einsetzungshomom. i=0

Satz aus der Algebra: Ist K in unendlicher Körper, so gilt

K[x]  γ(K)

19
zurück zum Einsetzungshomomorphismus

Beispiel
!
1 1
A ∈ MR (2, 2) mit A =
0 2
p = x − 3x − +2 ∈ R[x]
2

Dann:

!2 ! !
1 1 1 1 1 0
p(A) = −3 +2
0 2 0 2 0 1
!
0 0
= ⇒ A ist Nullstelle von P
0 0

P hat A als Nullstelle bzw. p anulliert A

6.6 Das Minimalpolynom


6.7 Ideal
Definition

I ⊆ K[x] heißt Ideal falls

1) I , ∅

2) a, b ∈ I ⇒ a + b ∈ I

3) a ∈ I, p ∈ K[x] ⇒ p · a ∈ I

In der gr. Übung wurde gezeigt, dass jedes Ideal I in K[x] von einem Element g ∈ I
erzeugt wird, d.h.
I = g · K[x] ⇒ {g · h | h ∈ K[x]}
sind alle durch g teilbaren Polynome
Beispiel

I = {p ∈ K[x] | p(1) = 0} ist Ideal in K[x]


= (x − 1) · K[x]

6.7.1 Satz
Sei F ∈ EndoK (V), dim(V) = n < ∞
Dann gilt:
Es gibt in K[x] ein Polynom mF , 0, welches normiert ist mit folgenden Eigenschaften

i) mF (F) = 0

20
ii) ist p ein Polynom in K[x] mit PF (F) = 0 dann gilt mF |p

Wir nennen mF das Minimalpolynom von F

Beweis

Setze I = {p ∈ K[x] | p(F) = 0}

I ist Ideal weil:


1) I , ∅, weil das Nullpolynom enthalten ist.
2) Seien p, q ∈ I, dann ist
Einsetzungshomom.
(p + q)(F) = p(F) + q(F) = 0 + 0 = 0
⇒ p + q ∈ I und q ∈ K[x]:
Einsetzungshomom.
(p · q)(I) = q(F) · p(F) = 0
|{z}
=0

Nach dem Satz aus der gr. Übung existiert ein g ∈ I mit I = g · k[x]. Falls g nicht
normiert ist, dann multipliziere g mit geeigneten k ∈ K, sodass g normiert ist. g ist das
gesuchte Minimalpolynom, denn:

i) g(F) = 0
ii) Ist p ein Polynom mit p(F) = 0, so ist
p ∈ I = g · K[x] = {g · h | h ∈ K[x]}
⇒ g|p
mF := g

z.z. bleibt: I , {0}

wegen dim(V) = n ist dim(Endo((V)) = n2 (Endo(V)  MK (n, n)). Also sind die n2 + 1
lineare Abbildungen
2
Id, F, F2 , . . . , Fn linear abängig
D.h. es existieren, ci ∈ K, nicht alle ci = 0, so dass
2
c0 Id +c1 F + . . . + cn2 Fn = 0
2
Dann ist das Polynom 0 , p = c0 + c1 x + . . . + cn2 xn ∈ I

⇒ I , {0}


Das Minimalpolynom mF ist ein Polynom kleinsten Grades, welches normiert ist und
welches F annuliert. Anders ausgedrückt:

1) mF (F) = 0 (Nullabbildung)
2) Ist p ∈ K[x] mit p(F) = 0
⇒ mF |p

21
6.8 Der Satz von Cayley-Hamilton
Sei dim(V) = n < ∞. V ein K-VR, F ∈ Endo(V)
Ferner sei pF das charPoly von F und mF das MinPoly von F. Dann gilt:
i) mF |pF

ii) ist λ ein EW von F so ist mF (λ) = 0


Beweis

zu i)

Wir müssen zeigen, das pF (F) = 0 ist.


Um zu zeigen, das eine lineare Abbildung die Nullabbildung ist, muss man nur zeigen,
dass pF (F)(v) = 0 ∀v ∈ V
Sei v ∈ V \ {0} beliebig. Betrachte die Menge

{v, F(v), F2 (v), . . . , Fn (v)}


| {z }
n+1Vektoren

weil dim(V) = n, sind die Vektoren 0,. . . , Fn (v) linear abhängig. Also existiert ein p < n, so
dass die Menge
S = {v, F(v), . . . , Fp−1 (v)}
linear unabhängig ist und die Menge

{v, F(v), . . . , Fp−1 (v), Fp (v)}

linear abhängig ist.

⇒< S > ist F-invariant, d.h. F(< S >) ⊆< S > und
p−1
X
F =
p
ai Fi (v)
i=0

für geeignete ai ∈ K

Ergänze S zu einer Basis B von V. Dann ist


!
A1 A2 }p
MB (F) =
0 A3 }n − p

und
0 0 . . . . . . 0 a0 
 
.

0 . . . . . . .. a1 
 
1
. .. 

1 . . . . . . .. . 

0
A1 =  . .. .. .. .. 
 ..

 0 . . . . 
 . .. .. .. .. .. 
 .
 . . . . . . 
0 . . . . . . 1 ap−1
 
0

22
Da pF (x) = pMB (F) (x) = pA1 (x) · pA3 (x)
Als Zusatzaufgabe werdet ihr zeigen
p−1
X
pA1 (x) = ai xi − xp
i=0

Damit erhalten wir

pF (F)(v) = pMB (F)(F)(v)


= pA1 (F)(v) · pA3 (F)(v)
 p−1 
X 
=  ai Fi (v) − Fp (v) · pA3 (F)(v)
 
 
i=0
= 0 · PA3 (F)(v) = {0}

zu ii)

Sei F(v) = λv für ein v


neq0 und
mF = b0 + b1 x + . . . + bk−1 xk−1 + xk
Dann folgt:

0 = mF (F)(0)
 k 
X 
=  i
bi F  (v) ← bk := 1
i=0
 k 
X 
=  bi λi  · v
i=0
= mF (λ) · v
v,0
⇒ mF (λ) = 0
Wie findet man das MinPoly?

Anmerkung:
Die Nullstellen des MinPoly unterscheiden sich von denen des charPoly höchstens in
ihrer Vielfachheit.

Beispiele:

! !
2 1 2−x 1
1) A = , pA = det = (2 − x)2 − 1 = x2 − 4x + 3
1 2 1 2−x
!
0 0
pA (A) = A − 4A + 3E2 =
2
0 0
x − 4x + 3 = (x − 3)(x − 1) = mA , da mA die selben Nulstellen wie pA hat
2

23
 
−1 1 1 
2) A =  1 −2 1 , A0 und A sind linear unabhängig
 
1 1 −2
 
 
 6 −3 −3
A2 = −3 6 −3
 
−3 −3 6
 
A2 = −3A ⇔ A2 + 3A = 0, d.h. mA = x2 + 3x
(kleineren Grades geht nicht, weil A0 , A linear unabhängig sind)

Allgemein: wie findet man mA ?


Sind A0 = En , A, A2 , . . . , Ar−1 linear unabhängig und A, A2 , . . . , Ar−1 , Ar linear abhängig
r−1
dann existieren α0 , α1 , . . . , αr−1 ∈ K mit Ar = αi Ai
P
i=0

⇒ mA = xr xi
P
− r − 1αi
i=0

Anwendung des MinPoly


Wir zeigen, dass sich jeder Endomorphismus eines reellen VRs „beinahe“ triagonalisieren
läßt.

Satz
Sei V ein reeller VR, dim(V) = n < ∞ und I ∈ Endo(V). dann gilt:

i) Es gibt einen UR W von V mit dim(W) = 1 oder 2 und F(W) ⊆ W. (W ist F-invariant)

ii) bzgl. einer geeigneten Basis von V ist


 A11
 

A22 ∗ 
 

 
M(F) =  
..

.
 
 
 
Akk

Aii sind vom Typ (1,1) oder (2,2)

Beweis

zu i)

Sei mF das MinPoly von F und p ein irreduzibler Faktor von mF . In der gr. Übung
gzeigt: grad(p)= 1 oder 2

Sei mF = g · p. Dann ist g(F) , 0. Also existiert ein v ∈ V mit g(F)(v) , 0. Setze
w := g(F)(v)

Es ist p(F)(w) = p(F)(g(F)(v)) = mF (F)(v) = 0

24
Fallunterscheidung

1. Fall
p = x − a : also 0 = p(F)(v) = F(w) − a · Id(w)

⇔ F(w) = a · w

Setze nun: w =< w >


(F(w) ⊆ W)

2. Fall
p = x2 + ax + b : also
0 = p(F)(w) = F2 (w) + aF(w) + b · Id(w)
⇒ F(F(w)) = −a · F(w) − b · w

Setze: w =< F(w), w >

Dann gilt jeweils: F(w) ⊆ W und dim(W) = 1 oder 2

zu ii) folgt aus i) durch Induktion

7 Jordansche Normalform
7.1 Blocktriagonalisierung
Ziel: F ∈ Endo(V) mit zerfallendem charPoly
k
Y
pF (x) = ± (x − λi )ri
i=1

⇒ F hat eine darstellende Matrix der Gestallt


 λ1
 
∗ 

 . ..


 
λ1
 0 
 
λ2


 

.

..
 
 
 
λ2

0
 

..
 
.
 
 

λk

∗ 


..
 
.
 
 
λk
 
0

7.1.1 Zerlegungslemma
F ∈ Endo(V), f ∈ K[x] so dass f (x) = g(x) · h(x) mit ggT(g(x), h(x)) = 1 dann gilt:
kern( f (F)) = kern(g(F)) + kern(h(F))

25
Beweis

Wir wenden den erwieterten Euklidischen Algo für Polynome:

ggt(g, h) = 1 ⇒ ∃p, q ∈ K[x], so dassp(x) · g(x) + q(x) · h(x) = 1

V =U⊕W
U,W sind UVR von V und U ∩ W = {0}, V = U + W

1) Es gilt kern(g(F)) ⊆ kern( f (F))

Beweis
Sei r ∈ kern(g(F)) d.h. g(F)(v) = 0

f (F)v = (g(F) ◦ h(F))(v)


= (h(F) ◦ g(F))(v)
= h(F)(g(F)(v))
= h(F)(v)
= 0

also ist r ∈ kern( f (F))


ebenso kern(h(F)) ⊆ kern( f (F))

2) kern(g(F)) ∩ kern(h(F)) = 0

Beweis
Sei w aus dem Durchschnitt

w = IdW = [p(F)g(F) + q(F)h(F)]w


= p(F)g(F)w + g(F)h(F)w
| {z } | {z }
=0 weil w∈kern g(F) =0 weil w∈kern h(F)

3) w ∈ kern( f (F)) kann geschrieben werden als

w = IdW = p(F)g(F)w + q(F)h(F)w

Behauptung
(p(F)g(F)w) ∈ kern(g(F)) und (q(F)h(F)w) ∈ kern(g(F))

26
Beweis

h(F)(p(F)g(F)w) = (h(F)p(F)g(F))(w)
 
= p(F) ◦ (h(F) ◦ g(F)) (w)
= p(F)( f (F)W )
w∈kern( f (F))
= p(F)
= 0

7.1.2 Proposition
n
F ∈ Endo(V), q(x) = ± (x − λi )ri ⇔ kern(g(F)) = V mit q(F) = 0
Q
i=0

⇒ V = kern ((F − λ1 Id)r1 ) ⊕ . . . kern ((F − λk Id)rk )

Beweis
Verwende Induktion nach k und Zerlegungslemma

k=1:
Cay.-Ham.
q(x) = (x − λ)r V = kern(q(F)) = kern(F − λ Id)n

Schritt:
q(λ) = g(x) · (x − λk )rk ggT(g(x), (x − λk )rk ) = 1

Zerlegungslemma:
Cay.-Ham.
V = kern(q(F)) = kern(g(F)) + kern [(F − λk )rk ]
| {z }
V1

fasse F als Endo von V auf und verwende Induktion. (V1 ist F-invariant)

g(F) = 0V1 weil v1 = kern(g(F))




7.1.3 Invarianzlemma
F ∈ Endo(V), p ∈ K[x] ⇒ kern(p(F)) ist F-invarianter UR von V.

Beweis

Kerne sind Unterräume


z.z.: F(kern(p(F))) ⊆ kern(p(F))

Sei v ∈ kern(p(F)) d.h. p(F)(v) = 0

27
p(F)(F(v)) = (p(F) ◦ F)(v)
= (F ◦ p(F))(v)
= F(p(F)(v))
= F(0)
= 0

also ist F(v) ∈ kern(p(F))

K[x] Polynomring
K[F] Unterring von F ∈ Endo(F) ist kommutativ weil homomorphes Bild eines kommu-
tativen Ringes.
 
(aFk )(F(v)) = aFk−1 v = aF(Fk v) = F(aFk (v))
Um die Überlegungen einfacher zu gestallten arbeiten wir mit A ∈ M(n, n) statt
F ∈ Endo(V) weiter, d.h. wir fixieren eine Basis/ ein Koordinatensystem.

Zerlegungslemme impliziert, dass Basen für

V = kern(a − λi Idn )ri

zu einer Basis von Kn zusammengesetzt werden können.


Die Darstellung bzgl. der so gewonnen Basis:
 
 B1 0
0

 0 B2
 

S AS = 
−1 
 . ..
 Die 0-Blöcke folgen aus der invarianz der Ui


0

Bk
 

Für Ui wollen wir eine Basis wählen so dass Triagonalgestalt λi ∗  im Block
 
.. 
.

 
 
0 λi
entsteht.
Frage: Bekommen wir wirklich nur λi als EW im i-ten Block?

Lemma

pBi (x) = ±(x − λi )ri


Beweis
k k
pA (x) = pBi (x) andererseits pA (x) = (x − λi )ri
Q Q
i=1 i=1

⇒ pBi zerfällt in Linearfaktoren der Art (x−λ j ). Angenommen in pBi kommt iin Faktorr
(x − λ j ) mit i , j vor.
⇒ Bi : Ui → Ui hat λi als EW also auch einen EV zu λ j , sei dies v , 0. vßUi = kern(A−λi In )n

28
andererseits ist v ∈ kern(a − λ j In ) ⊆ kern(A − λ j In )r j = U j also v ∈ Ui ∩ U j = {0} wegen
direkter Summe

alle Faktoren von pBi sind (xλi ) und alle solche n Fktoren aus pA müssen in pBi sein.

ri = grad(pBi ) = dim(Ui )
⇒ pBi (x) = ±(x − λi )ri

Wenn wir Bi : Ui → Ui Triagonalisieren, d.h. eine entsprechnede Basis für Ui berech-


nen ⇒ Blocktriagonalgestallt

7.2 Haupträume
7.2.1 Definition
Der Hauptraum Hau(F, λ) von F ∈ Endo(V) zum EW λ besteht aus allen v ∈ V für die es
ein s gibt, so das
(F − λ Id)s v = 0

Ziel: Hau(F, λ) = kern(F − Id)rλ ← algebraische Vielfachheit


Es genügt sogar der Exponent tA = Vielfachheit der Nullstelle im MinPoly

Sei T ∈ Endo(V). Es gilt:

{0} ⊆ kern(T) ⊆ kern(T2 ) ⊆ . . .

Lemma
Wenn Tk = Tk+1 ⇒ kern(Tk+l = kern(T)k + l + 1)

Beweis
E genügt z.z.: kern(Tk+l ) ⊇ kern(Tk+l+1 ) ∀l ≥ 0

v ∈ kern(Tk+l+1 ) d.h.
Tk+l+1 · v = 0 = Tk+1 (Tl (v))
also
Tl · v ∈ kern(Tk+1 ) = kern(Tk )
also ist
Tk (Tl (v)) = 0 = Tk+l v
also
v ∈ kern(Tk+l )


29
7.2.2 Proposition
T ∈ Endo(V), dim(V) = n ⇒ kern(Tn ) = kern(Tn+1 )

Beweis
Wenn in der Kette
{0} ⊆ kern(T) ⊆ kern(T2 ) ⊆ . . .
zwei Glieder gleich sind ⇒ alle weiteren sind gleich. Wenn sie ungleich sind ⇒ die
Dimension wächst obere Schranke an Dimension n = dim(V)
⇒ höchstens n Paare kern(Ti ) , kern(Ti+1 )

Lemma
F ∈ Endo(V), q ∈ K[x] jeder F-invarianter UR ist auch q(F)-invariant

Beweis
U F-invariant d.h. F(u) ∈ U ∀u ∈ U

q(λ) = a0 + a1 x + . . . + ak xk
p(F) = a0 Id +a1 F + . . . + ak Fk

v ∈ V : q(F)u = a0 Idu +a1 F(u) + . . . + ak Fk (u) ← Linearkombination von Elementen aus U ist in
|{z} |{z} |{z}
∈U ∈U ∈U

Satz
Hau(F, λ) = kern(F − λ Id)r wobei pF (x) = (x − λ)r · q(x) und ggT((x − λ)r , q(x)) = 1

Beweis
Zerlegungslemma: V = U ⊕ W wobei U = kern(F − λ Id)r (daraus folgt Beh.)
Angenommen ∃v ∈ kern(F − λ Id)r−1 \ kern(F − λ Id)r , r , u + w mit u ∈ U und w ∈ W

(F − λ Id)s v = (F − λ Id)s u + (F − λ Id)s w ∀s ∈ W


s=r: ,0 =0 ⇒ (F − λ Id)r w , 0
s=r+1: ,0 =0 = 0 Also ist (F − λ Id)w ∈ kern(F − λ Id)r
| {z }
=U
w ∈ W ⇒ (F − λ Id)w ∈ W
)
wegen (F − λ Id)w , 0 ist das ein Widerspruch ( ) zur
haben auch (F − λ Id)w ∈ U
direkten Summe

30
7.3 Jordan -Blöcke
Für Ui suchen wir eine geeignete Basis so dass

λi
 

λ1

∗  .. ..
   
..
 . . 
s−1 =  si = 
 
.
 
..

i

. ∗  ← nur 0 und 1
  
λi

0
 
λi
 

Sei Ti der Block in Tiagonalgestallt zum EW λi

Ti = λi · Iri + N Diagonale bleibt bei jeder Veränderung invariant


S Ti S = S (λi I + N)S
−1 −1

= S−1 IS + S−1 NS
= λi S−1 S + S−1
= λi I + S−1 NS

Also genügt es eine Basis zu finden bzgl. der N die Gestallt


 
0 ∗ 
 . ..
..


 . 
..
 
. ∗  ← nur 0 und 1
 


0

bekommt. N ist Dreiecksmatrix mit 0 auf der Diagonale d.h. N ist nilpotent (∃K : Nk =
0 ⇔ kern(Nk ) = V)

Satz:

N ∈ Endo(V) nilpotent, dim(V) = n


⇒ ∃ Vektoren v1 , . . . , vk und Zahlen m1 , . . . , mk mit
k
X
(mi + 1) = n
i=1

s.d.
B = (Nm1 v1 , Nm1 −1 v1 , . . . , Nv1 , v1 , Nm2 v2 , . . . , vk )
Basis ist von V und
(Nm1 v1 , Nm2 v2 , . . . , Nmk vk )
ist Basis von kern(N)

31
Aus dem Satz folgt: N hat bzgl. der Basis B die Gestallt

 0 1
 

 .. .. 
 
 . . 

..

  
.


1

  
 
m1 + 1 

  



 0 


  

  
..
  

 . 

 

Beweis: Induktion nach der Dimension von V

• dim(V) = n, N ist Nullabbildung

• Sei U = Bildn Es gilt


dim(V) < dim(V)
U ist N-invariant
N ∈ Endo(U)
N ist nilpotent

Induktionsannahme: ∃wi , m0i so das


0 0
B0 = Nmi w1 , Nmi −1 w1 , . . . , Nw1 , w1 , . . . , Nwl , wl

Basis von U ist.


0 0
(Nmi w1 , . . . , Nmi wi ) Basis von kern(N) ∩ Bild(U)
l
X
m0i = dim(U) = Bild(N)
i=1

Wegen wi ∈ Bild(N) ∃v mit Nvi = wi , setze mi = mi + 1

Sei W ein UR von kern(N) so dass

kern(N) = (Bild(N) ∩ kern(N)) ⊕ W

(W bekommt man durch Basisergänzung ausgehend von Basis von (Bild(N))∩kern(N))

Sei vl+1 , . . . , vk Basis von W. Setze wi = 0 für i = l + 1, . . . , k

Behauptung
B = (Nm1 v1 , . . . , Nv1 , v1 , . . . , vk ) sind linear unabhängig

32
Beweis
mi
k X
X
o= ai j N j vi
i=1 j=0

wende N an:

XX
o = ai j N j+1 vi
i j
XX
= ai j N j wi
i j

l X m0i
X
lasse alle Vektoren weg die 0 sind → = ai j N j wi
i=1 j=0

alle verbleibenden Vektoren sind in B0 Basis von U


⇒ ai j = 0∀i = 1, . . . , l j = 0, . . . , m0i

Es bleibt
l
X k
X
o, aimi Nmi vi + aimi vi ⇒ ?1
i=1 i=l+1
| {z } | {z }
∈Bild(N)∩kern(N) ∈W
l
X 0
direkte Summe (!) ⇒ aimi Nmi wi =0 ⇒ ?2
i=1
|{z}
Basis von Bild(N)∩kern(N) also sind diese aimi =0
?1 und ?2 ⇒ Basis von W ⇒ diese aimi sind 0

Behauptung

zählen:
l
X l
X
dim(Bild(N)) = (m0i + 1) = mi
i=0 i=0

dim(kern(N)) = k

dim(V) = dim(Bild(N)) + dim(kern(N))


Xl Xk
= mi + 1
i=1 i=1
k
X
= (mi + 1)
i=1

Das ist genau ie Anzahl der Vektorenin B → B ist Basis

33
7.4 JNF berechnen
1) Berechne pF (x) und seine Nullstellen λi mit Koeffizienten ri . (pF (x) muss zerfallen)

2) Berechnen Haupträume Hau(F, λi ) = kern((F − λi Id)ri )


 
B1
bekommen Blockgestalt 

 0

B2

 
. ..
 
 
 
0
Bk
 

3) Für jeden Block berechne geeignete Basis, so dass ein Jordanblock entsteht:

 λi
 
1 
 .. .. 

 . . 

..
 
.
 
 1 
λi
 
 
..
 
.
 
 
 
λi
 

Die geeignete Basis:


N ∈ Endo(V) N nilpotent, k = dim(kern(N))
⇒ ∃v1 , . . . , vk so dass B0{W j vi : j ≥ 0, i = 1, . . . , k} \ {0} eine Basis von V ist.
Wende das auf (F − λi Id) eingeschränkt auf Hau(F, λi ) an.

Beobachtungen

• k ist die Anzahl der Jordankästchen zum EW λi , ; K = dim(kern(F − λi Id))

• Die Anzahl der Jordankästchen zum EW λi der Größe j ist gegeben durch:

dim(kern(N j )) − dim(kern(N j−1 )) mit N = (F − λi Id)

• Das größte Jordankästchen von λi bestimmt ie Potenz si von (λi − x) im MinPoly


mF (x)

wir wissen MQF (F) = 0


wenn mF (x) = ± (λi − x)si

⇒ (F − λi Id)si [Ui ] = 0 (Hau(F, λi ) = kern(F − λ Id)n )

Dafür ist (J − λi Id)si = 0 für jedes Jordanjästchen zu λi nötig.

Folgerung: F ∈ Endo(V) ist diagbar


⇔ jeder Linearfaktor (x − λi ) kommt im MinPoly mF (x) nur einfach vor.

34
7.4.1 Beispiel 1
 
 1 1 0 1
 0 2 0 0
 
A =   pA (x) = ±(x − 2)4
−1 1 2 0
−1 0 0 3
 
 
 1 1 0 1
0 0 0 0
 
(Ai − 2I4 ) =   (A − 2I4 )2 = 0
−1 1 0 1
−1 1 0 1
 

⇒ in der JNF(A) kommen keine Kästchen der Größe ≥ 3 vor.


!
Nur Kästchen (2), 2 1 ← Hiervon gibt es eines, weil (A−2I4 ) , 0 also ist mF (x) , ±(x−2)
2
Anzahl der Jordankästchen ist

dim(kern(A − 2I4 )) = 4 − dim(Bild(A − 2I4 )) = 3


| {z }
=1
 
2 1 
 2 
JNF(A) = 


 2 

2

7.4.2 Beispiel 2
Sei dim(V) = 6, F ∈ Endo(V)
pF (x) = (x − 2)2 (x − 3)4
mF (x) = (x − 2)2 (x − 3)3

Die Potenz im MinPoly implizieren Blöcke


 
! 3 1 
2 1  
 3 1

2  
3

Die Dimension der Haupträume zu 2 und 3 sind die Potenzen im harPoly, d.h. uns
fehlt ein Block zum EW 3.
 
 2 1 
2
 
 
 
3 1
⇒ JNF(F) = 
 

 3 1 



 3 

3

35
8 Euklidische Vektorräume
Vektorräume über R mit Geometrie „Längen und Winkel“

8.1 Skalarprodukt
Definition
Sei V in VR über dem Körper R. Ein Skalarprodukt auf V ist eine Abbildung

V×V → R
(x, y) 7→ < x, y >

mit den Eigenschaften:

1) Bilinearität

< ·, x >: V→R ist linear ∀x ∈ V


y 7→< y, x >

< y, · >: V→R ist linear ∀y ∈ V


y 7→< y, x >

2) Symmetrie
< x, y >=< y, x > ∀x, y ∈ V

3) positiv definit
< x, x >> 0 ∀x , 0

8.2 Defintion Euklidischer VR


Ein euklidischer VR ist ein R-VR mit einem Skalarprodukt V, < ·, · >

8.2.1 Beipiele
1) Das kanonische Skalarprodukt
V = Rn x = (x1 , . . . , xn ) y = (y1 , . . . , yn )
< x, y >:= x1 y1 + x2 y2 + . . . + xn yn

Das Skalarprodukt kann geschrieben werden als

 y1  X
 
n
< x, y >= x · y = (x1 , . . . , xn )  ...  =
T
 
xi yi
 
yn i=1

Bilinearität folgt weil y 7→ x · yT lineare Abbildung ist.


Symmetrie folgt aus der Kommutativität auf R

36
positiv Definit:
n
X
< x, x >= x2i ← jeder Summand ≥ 0 und 0 nur wenn xi = 0
i=1

2) V Vr der stetigen Funktionen über [−1, 1]

Z1
< f, g >= f (x) · g(x)dx
−1

3) V = R4 , A ∈ GlR (n)

< x, y >:=< Ax, Ay >kanonische Skalarprodukt

Ein Skalarprodukt inuziert eine Norm

|| · || : V → R+

x 7→ < x, x > mit < x, x >≥ 0 also ist die Wurzel immer definiert

Norm: || · || : V → R+

N1: ||x|| = 0 ⇒ x = 0
N2: ||λx|| = |λ| · ||c|| ∀λ ∈ R
N3: ||x + y|| ≤ ||x|| + ||y||

Metrik: d : V × V → R+

D1: d(x, y) = 0 ⇔ x = y
D2: d(x, y) = d(y, x)
D3: d(x, z) ≤ d(x, y) + d(y, z)

Proposition 1
|| · || Norm au fR-VR V ⇒ d(x, y) := ||x − y|| ist eine Metrik auf V

Beweis
N1
D1: 0 = d(x, y) = ||x − y|| ⇔ x − y = 0 ⇔ x = y
N2
D2: d(x, y) = ||x − y|| = | − 1| · ||y − x|| = ||y − x|| = d(y, x)
N3
D3: d(x, z) = ||x − z|| = ||(x − y) + (y − z)|| ≤ ||x − y|| + ||y − z|| = d(x, y) + d(y, z)

37
Proposition 2

< ·, · > Skalarprodukt auf R-VR V ⇒ ||x|| := < x, x > ist eine Norm.

Beweis
√ pos. def.
N1: ||x|| = 0 ⇔ < x, x > = 0 ⇔< x, x >= 0 ⇔ x=0
√ Bilin. p 2 √
N2: ||λx|| = < λx, λx > = λ < x, x > = |λ| < x, x > = |λ| · ||x||
N3: Dreiecksungleichung folgt aus Cauchy-Schwarz

Proposition 3
Wen eine Norm on einem Skalarpodukt kommt, dann kann das Skalarprodukt aus der
Norm zurückgewonnen werden.

1
< v, w >= (||v + w||2 − ||v − w||2 )
4
Beweis

||v + w||2 − ||v − w||2 = < v + w, v + w > − < v − w, v − w >


= < v, v > +2 < v, w > + < w, w > −(< v, v > −2 < v, w > + < w, w >)
= 2 < v, v > +2 < w, w >
= 2||v||2 + 2||w||2

Ein Vorzeichenwechsel im Beweis von Porposition 3 liefert Parallelogrammgleichung


für Normen die von einem Skalarprodukt kommen

2||v||2 + 2||w||2 = ||v + w||2 + ||v − w||2

Verallgemeinerung von Pythagoras


Normen sind beschrieben durch Einheitskugeln

8.3 Die Cauchy-Schwarz-Unleichung


Satz: In einem Euklidischen VR gilt:

| < x, y > | ≤ ||x|| · ||y|| ∀x, y ∈ V

Beweis

38
0 ≤ < x − λy, x − λy >
= < x, x > −λ < x, y > +λ2 < y, y >
= ||x||2 − 2λ < x, y > +λ2 ||y||2

<x,y>
Wir nehmen y , 0 an und setzen y = ||y||2

< x, y > < y, y >2 ||y||2


= ||x||2 − 2 +
||y||2 ||y||2 · ||y||2
< x, y >2
= ||x||2 −
||y||2

⇒ 0 ≤ ||x||2 + ||y||2 − < x, y >2


⇒ < x, y >2 ≤ ||x||2 · ||y||2
(wurzel ziehen) ⇒ | < x, y > | ≤ ||x|| · ||y||

Aus der Symmetrie geht der Beweis für x , 0, wenn x = y = 0 gilt sowieso.

||x + y||2 = < x + y, x + y >


= < x, x > +2 < x, y > + < y, y >
≤ ||x||2 + 2||x|| · ||y|| + ||y2 ||
= (||x|| + ||y||)2

⇒ ||x + y|| ≤ ||x|| + ||y||

Skalarprodukt und Wurzel

Beobachtung
Aus Cauchy-Schwarz folgt:
< x, y >
−1 ≤ ≤1
||x|| · ||y||
Das Intervall [−1, 1] ist das Bild des cos. Für Argumente im Bereich [0, π] ist cos bijek-
tiv auf [−1, 1]. UmKehrfunktion arccos existiert.

Deinition
< x, y >
(x, y) := arccos
||x|| ||y||
Eigenschaften von Winkeln

• (x, y) = (y, x)

• (λx, y) = (x, y) = (x, λy) für λ > 0

39
Die zweite Eigenschaft erlaubt die Untersuchung auf Vektoren mit Norm 1 zu be-
schränken.
x y
x0 = y0 =
||x|| ||y||
x0 = (cosα, sinα)
y0 = (cosβ, sinβ)

< x0 , y0 >= cosαcosβ + sinαsinβ = cos(β − α)


(x0 , y0 ) = β − α so wie wir es von Winkeln erwarten.

Die Definition für  können wir umschreiben ( hier kann sogar x, y = 0 zugelassen
werden ).
1
< x, y >= 0 und x, y , 0 ⇒ (x, y) =
2

8.4 orthogonal
Definition

x, yßR heißen orthogonal ⇒< x, y >= (hier ist x, y = 0 erlaubt)

Darstellung von affinen Geraden:

L0 1-dim VR in R2
L0 = {λv0 : λ ∈ R} v0 , 0, B = (v0 ) Basis.

Sei s⊥v0 , dann gilt:


s⊥L0 (d.hs⊥w ∀w ∈ L0 )
und sogar
L0 = {w : s⊥w} = {w :< s, w >= 0}

Sei L affine Gerade.


L = L0 + x L0 1-dim VR. Sei s⊥L0 , dann gilt:

∀v ∈ L ist < s, v > = s, λv0 + x


= λ < s, v0 > + < s, x >
= < s, w >= b (unabh. von v)

L = {v : < s, w >= b}

Die beiden durch L definerten Halbräume sind:

• L+ = {w : < s, w >≥ b}

• L− = {w : < s, w >≤ b}

40

Das könnte Ihnen auch gefallen