Sie sind auf Seite 1von 44

Christopher und

Mareike

Skript zur Linearen Algebra II

Allgemeines:
Ab Donnerstag findet die Vorlesung im NW2 statt (C0290)
Plenum ab heute im NW2 (A0242)
Mail vom Prof.:

emf@math.uni-bremen.de

Website zur Vorlesung:


http://www.math.uni-bremen.de/emf
Teaching this term LinAI I
Informationen gibts nur auf StudIP

bung :
bis Donnerstag (10 Tage spter) um 14 Uhr in die Postfcher der Tutoren
60% der Maximalpunktzahl muss erreicht sein und die letzten drei bungsbltter
nochmal min. 50% um fr die Klausur zugelassen zu sein
Abgabe zu zweit, maximal

Klausur :
Termin:

Christopher und
Mareike

Skript zur Linearen Algebra II

Inhaltsverzeichnis

1 lineare Gleichungssysteme
1.1
1.2
1.3
1.4

Matrixschreibweise . . . . . . . . . . . . . . . . . . . . . . . . . . . .
In der Sprache der linearen Algebra . . . . . . . . . . . . . . . . . .
Lsung linearer Gleichungssysteme mittels Gauscher-Elimination
Transformationsmatrizen - Basiswechsel . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

2 Determinante
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
2.13
2.14
2.15
2.16
2.17
2.18
2.19
2.20

10

Definition . . . . . . . . . . . . . . . . . . .
Definition . . . . . . . . . . . . . . . . . . .
Preposition . . . . . . . . . . . . . . . . . . .
Preposition . . . . . . . . . . . . . . . . . . .
Bemerkung . . . . . . . . . . . . . . . . . . .
Exkurs: Elementarmatrizen . . . . . . . .
Satz bzgl. Determinante einer Matrix . . .
Satz bzgl. Determinante und Transponierte
korollar . . . . . . . . . . . . . . . . . . . . .
Bemerkungen . . . . . . . . . . . . . . . . .
Beispiel . . . . . . . . . . . . . . . . . . . . .
Definition und Notation . . . . . . . . . . .
Satz zur Entwicklung nach k-ter Spalte . .
Satz . . . . . . . . . . . . . . . . . . . . . . .
Satz: Entwicklung nach i-ter Zeile . . . . .
Proposition . . . . . . . . . . . . . . . . . . .
Satz: Eindeutigkeit der Determinante . . .
Satz Existenz der Determinante . . . . . .
Explizite Determinantenformel . . . . . . .
quivalenz von Matrizen . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

. . . . . . . . . . . . . . . . . . . . . .
Endomorphismus - diagonalisierbar
. . . . . . . . . . . . . . . . . . . . . .
verschiedene Eigenwerte . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

3 Eigenwerte, Eigenvektoren, Diagonalisierbarkeit


3.1
3.2
3.3
3.4

Definition .
Definition:
Beispiel . . .
Proposition:

10
10
10
11
12
12
13
13
14
14
14
15
15
15
15
16
16
17
18
19

20

4 Eigenwert
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
4.14
4.15
4.16

4
5
6
7

20
20
20
21

22

Wiederholung . . . . . . . . . . . . . . . . . . . . . . . . . . .
Satz: Diagonalisierbarkeit bzgl. verschiedener Eigenwerte
Definition: Eigenraum . . . . . . . . . . . . . . . . . . . . .
Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Satz: Diagonalisierbarkeit Endomorphismus . . . . . . . .
Definition: charakteristisches Polynom . . . . . . . . . . . .
Beispiel und Bemerkung . . . . . . . . . . . . . . . . . . . . .
Satz:
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Satz Spur . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Defintion algebraisches Vielfachheit . . . . . . . . . . . . .
Proposition Eigenwert . . . . . . . . . . . . . . . . . . . . .
Satz diagonalisierbar . . . . . . . . . . . . . . . . . . . . . .
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

22
22
23
23
23
23
23
24
24
24
25
25
26
26
27
28

Christopher und
Mareike
4.17
4.18
4.19
4.20
4.21
4.22
4.23
4.24
4.25
4.26
4.27
4.28

Skript zur Linearen Algebra II

Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Abspaltungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Definition: Nilpotenzordnung . . . . . . . . . . . . . . . . . . . . . . .
Proposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Zusammenfassung: Jordansche Normalform fr nilpotente Matrizen
Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Satz: Jordansche Normalform fr allgemeinerte Matrizen . . . . . . .
Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

5 Verktorrume mit Skalarprodukt


5.1

5.2

5.3

28
28
29
29
30
30
31
32
33
33
34
34

35

Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Definition: Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.3 Definition: darstellene Matrix . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.4 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.5 Satz: Tranformationsformel fr Bilinearformen . . . . . . . . . . . . . . .
5.1.6 Definition: Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.7 Bemerkung und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Orthogonalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Definition: Orthogonal, orthogonales Komplement, Orthonormal(basis)
5.2.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.3 Satz: Gram-Schmidt - Orthonormalisierungsverfahren . . . . . . . . . .
5.2.4 Folgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.5 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Orthogonale und unitre Endomorphismen . . . . . . . . . . . . . . . . . . . . .
5.3.1 Definition: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.2 Bemerkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.3 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.4 Definition: Matrix heit orthogonal/unitr . . . . . . . . . . . . . . . . .
5.3.5 Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35
35
36
36
36
37
38
38
38
38
39
39
40
40
41
41
42
42
43
43

Christopher und
Mareike

Skript zur Linearen Algebra II

Lineare Algebra II
1 lineare Gleichungssysteme

a11 x1 + a12 x2 + ... + a1n xn = b1

a21 x1 + ... + a2n xn = b2


..

am1 x1 + amn xn = bm

(G)

mit aij N; 1 i m; 1 j n
bi N; 1 i m
Finde x1 , ..., xn N, sodass (G) erfllt ist. Beschreibe die Lsungsmenge.

1.1 Matrixschreibweise
Ax = b
A = ( aij ) 1im

Koeffizientenmatrix

1 j n

Notation:

Ai

Spalte
Zeile

A Nmxn = Mat(m, n)
n
#
#
A #
x = b = aij x j
j =1

Lsungsmenge:

L A,B := { x N| Ax = b}

b=

A1 x
A2 x

..
.

Am x
Vektor aus Matrixprodukten

xj Aj

j =1

Linearkombinationen aus Spalten von A.

Christopher und
Mareike

Skript zur Linearen Algebra II

1.2 In der Sprache der linearen Algebra


A Nmxn definiert eine lineare Abbildung:
Beachte:

f A : Nn Nm , mit f A ( x ) = A x.

Die Spalten von A sind die Bilder der Standardbasisvektoren e1 , ..., en unter
  (
1
e
f A,
=
j
0

0
..
.

0

f A ( ei ) = A
1 =
0

..
.

j=i
sonst

a1i
a2i

.. = ai .
.
ami

0
Ist b=0, so heist (G) homogen und L( A,0) = ker ( f A ) = ker ( A). Insbesondere ist L( A,0) linearer
Unterraum des Nn .
Ist b 6= 0, so heit (G) inhomogen und L( A,b) = c + L( A,0) , wobei c Nn eine spezielle Lsung
von (G) ist. Insbesondere ist L( A,b) affiner Unterraum des Nn .
affiner Unterraum:
Eine Teilmenge U eines Vektorraums V heit affiner Unterraum, wenn
es einen Vektor v aus V und einen Untervektorraum W von V gibt, so dass U = v + W =
{v + w|w W } gilt. Ein eindimensionaler affiner Unterraum heit affine Gerade. Ein zweidimensionaler affiner Unterraum heit affine Ebene. Wenn V die Dimension n hat, dann nennt
man allgemein den affinen Unterraum der Dimension n-1 affine Hyperebene. Da auch v = 0
gewhlt werden kann, ist jeder Untervektorraum gleichzeitig affiner Unterraum. Ein affiner
Unterraum ist genau dann ein Untervektorraum, wenn er den Nullvektor enthlt. Der Lsungsraum eines inhomogenen linearen Gleichungssystems in n Variablen ber dem Krper
K ist ein affiner Unterraum von K n . Jeder affine Unterraum kann durch ein solches Gleichungssystem beschrieben werden. Alternativ kann ein affiner Unterraum auch als affine Hlle von
Vektoren oder, wie direkt aus der Definition folgt, mit Hilfe eines Sttzvektors und einer Basis
des Untervektorraums angegeben werden. [Quelle: Wikipedia]
ker ( f A ) = { x Nn | f A ( x ) = 0} = L( A,0) .
Im( f A ) = {b Nm | A x = b fr ein x Nn } =


A0 , ..., An
|
{z
}

Erzeugnis von A1 ,...,Am

und b = Ax= Spaltenraum


(A)

1
m
Rang A:= dim A , ..., A

Christopher und
Mareike

Skript zur Linearen Algebra II

Satz 1:
Es sei ein lineares Gleichungssystem Ax=b gegeben, A Nmxn , b Nn . Das System ist lsbar genau dann, wenn Rang( A) = Rang
( A|b)
| {z }
erweiterte Koe f f izientenmatrix

Beweis
ist lsbar
b Im f A = A1 , ..., An

1 Satzn1:

(G)

A , ..., A = A1 , ..., An , b
RangA = Rang( A|b)

Ist dim U=dim V und

UV
| {z }

, dann ist U=V

linearer Unterraum

1.3 Lsung linearer Gleichungssysteme mittels Gauscher-Elimination




1 3 2
0 0 1

4
2

x3 = 2;

x1 + 3x2 + 4 = 4 x1 = 3x2

Setze t = x2 N, dann ist L( L,b) = {(0, 0, 2) + (3, 1, 0)t|t N}

Elementare Zeilenumformung:
Typ I)
Typ II)
Typ III)

Multiplikation einer Zeile Ai mit 6= 0


Addieren des -fachen der Zeile Ai zur Zeile A j
Vertauschen von Zeilen

Merke:
Elementare Zeilenumformungen an erweiterten Koeffizientenmatrizen ndern die
Lsungsmenge des linearen Gleichungssystems nicht.

Gausche Elimination
Durch Anwendung der Umformungen I-III lsst sich jede Matrix A Nmxn auf eine Matrix
i-Zeilenstufenform bringen.
Einheitsmatrix, jede Spalte mit einer 1 wird als ik indiziert und diese {i1 , ..., ik } werden als
Pivotelemente bezeichnet.

Christopher und
Mareike

Skript zur Linearen Algebra II

Gausche Elimination

elem.Zeilenum f ormung

A Rnxm

C=

1
0 1
0
0


A j1 , ..., A jr bilden eine Basis fr A1 , ..., An = Im( A).

Merke:


dim A j1 , ..., A jr = r

mxr

A j1

...

A jr

 wie oben

0 1

...

0
{z

Insbesondere ist A j1 ,...,A jr Basis f uer Im( A).

Satz 2:
Es sei ein lineares Gleichungssystem Ax=b gegeben mit A Rmxn , b Rm . Man
bringe A durch elementare Zeilenumformungen a(A|b) auf Zeilenstufenform (C |b ).
Das System ist lsbar genau dann, wenn bi = 0 fr i>r wobei r=Rang(C).

Beweis Satz 2:
(G) ist lsbar Ranr(A)=Rang(A|b) (Spaltenrang!)
1
Zeilenrang(A) = Zeilenrang(A|b)
Zeilenrang(C)=Zeilenrang(C |b )
b1 = 0 fr 1>r

1.4 Transformationsmatrizen - Basiswechsel


S V k-Vektorraum, A = { a1 , ..., an } Basis von V. Jedes v V lsst sich eindeutig schreiben
n

als: v = i ai
i =1

mit 1 , ..., n k

k A (v) = (1 , ..., n ) heien die A-koordinaten von v.


Beachte:
k A V kn ist die Umkehrabbildung des Isomorphismus
n
1 k V, ei ai , i = 1, ..., n

Beispiel:

V = R2 ,

A={

   
 
 
 
 
2
1
5
5
2
1
,
}, k A
= (2, 1)
=2
+1
1
2
4
4
1
2

Ist B = {b1 , ..., bn } weitere Basis von V, so heit

TBA = k B ( a1 )

k B ( an ) knxm

die Transformationsmatrix von A nach B.


1 Spaltenrang=Zeilenrang

Christopher und
Mareike

Skript zur Linearen Algebra II

Fr v V gilt: k B (v) = TBA k A (v)


> Grafik einfgen <-

Sei k A (v) = (1 , ..., n )t und a j 0 ncij bi

Beweis:

i =1

fr i=1, ..., n und geeignete cij k, d.h. k b ( a j ) = (c1j , ..., cnj )t


n

i =1

i =1

cij j

Dann ist: V = j a j = n j ( cij bi ) = (


j =1

j =1

) bi

i =1

| {z }

Bkoordinatevonv

also:

c1j j

c11 . . . c1m
1
=1

.
.
.
..
.. ...
k b (v) =
= ..

cn1 . . . c1m
n
cnj j
{z
} | {z }
|
j =1

(k B ( a1 )|...|k b ( an )

k A (v)

Beispiel:
V = R2
a1 = (2, 1)t , a2 = (1, 2)t , b1 = (1, 0)t , b2 = (1, 1)t
B.koordinaten von a1 : (1, 1)
b1 + b2 = a1
B-koordinaten von a2 : (1, 2) b1 + 2b2 = a2

also:

TBA

1 1
1 2

Finde B-koordinaten von a1 , ..., an durch lsen der linearen Gleichungssysteme

b1

bn x = a j fr j=1,...,n

Merke:
1. TBA = MBA (id), wobei MBA (id) die Matrix der identischen Abbildung auf V bzgl. A bzw.
B ist.
2. Transformationsmatrizen sind invertierbar, insb. gilt ( TBA )1 = TAB .
3. Fr Basen A, B, C von V gilt: TCA = TCB TBA .
Sei f:V W lineare Abbildung, V =
kn , W =
km
Seien A=ai mit i=1,...,n Basis von V
C=ci Basis von W

Christopher und
Mareike

Skript zur Linearen Algebra II

MCA ( f ) die Matrix von f bzgl. A und C.


->Grafik einfgen <-

d.h. k C ( f (v)) = MCA ( f ) k A (v)


Sei B eine weitere Basis von V und D eine weitere Basis von W,
B ( f ))
Frage: Wie komme ich von B nach D? (MD
> Grafik einfgen! <-

B ( f ) = T C M A ( f ) ( T A ) 1
MD
B
C
D

Spezialfall:
f : V V Endomorphismus
A, B sind Basen von V
(vgl. oben V=W, A=C, B=D)
Mb ( f ) = TBA M A ( f ) ( TBA )1
Satz:

Fr A Mat(mxn; k ) gilt Zeilenrang A = Spaltenrang A.


| {z }
|
{z
}
=dimh A1 ,...,Am i

=dimh A1 ,...,An i

Sei f A : kn km diedurch A 
definierte lineare Abbildung. Whle Basen A von kn
0
Er
und B von km , sodass MBA ( f ) =
0
0
Beweis:

D.h. es existieren geeignete Matrizen S M(mxm; k), T M (nxn; k ), beide invertierbar, sodass:
B = SAT
Fr B ist Zeilenrang B = Spaltenrang B = r.

Zu zeigen:
(I) Spaltenrang SAT = Spaltenrang A
(II) Zeilenrang SAT = Zeilenrang A

ad I:
Da S, T Isomorphismen sind, ist die dim(Im(A)) = dim(Im(SAT)).

ad II:
Zeilenrang A = Spaltenrang At = Spaltenrang T t At St = Spaltenrang (SAT )t = Zeilenrang(SAT).

Christopher und
Mareike

Skript zur Linearen Algebra II

2 Determinante

explizit

vs.
n

axiometrisch

det A = sgn a(i),i

det : knxn k alternierende n-Form mit det( En )=1

Sn : Gruppe der Permutationen

f alls Produkt von gerade


1
sgn =
vielen Transpositionen

1 sonst

Existenz?

Sn

i =1

Eindeutigkeit?

2.1 Denition
S V k-Vektorraum, dim V=n, und V m = Vx...xV
| {z } das n-fache kartesische Produkt von V
n f ach

(1)
Eine Abbildung f : V n k heit multilinear oder n-Form falls sie in jeder komponente
linear ist.
f (v1 , ..., vi + vi0 , ..., vn ) = f (v1 , ..., vi , ...vn ) + f (v1 , ..., vi0 , ..., vn )
i = 1, ...n mit v j V, , k.

Beispiel:
V=R2 , n=2 g(x,y)=x1 y1 + x2 y2 h(x,y)=x1 y2 x2 y1
f ( x, y) = x1 ist nicht linear in y, damit nicht mulitlinear.

(2)

Eine Abbildung f : vn k heit alternierend, wenn gilt:

f(v1 , ..., vn )=0

falls vi = v j fr ein Paar i 6= j.

Beispiel: s.o.: h ist alternierend, g aber nicht.

2.2 Denition
Sei n 1
Sei alternierende n-Form d: Mat(nxn, k) k mit d(En )=1 heit Determinante.
Schreibweise: d(A)=det( A).

2.3 Preposition
Die Determinante verhlt sich unter elementaren Spaltenoperationen wie folgt:
Typ I: det( A1 |...|An )= det( A1 |...| An )
Typ II: det( A1 |...| Ai + A j |...| A j |...| An ) = det A

10

Christopher und
Mareike
Typ III;

Skript zur Linearen Algebra II

( A1 |...| |{z}
A j |...| |{z}
Ai |...| An ) = det A
i te Stelle

Beweis:
Typ I:
Typ II:

jte Stelle

Multilinearitt
det( A1 |...| Ai + A j |...| A j |...| An ) = det( A1 |...Ai ...A j ....An ) + det( A1 ...Ai ...A j ...An ) =
|
{z
}
=0

det A
Typ III:

i j
0 = det(... |Ai {z
+ A}j ... |A{z
A} ...)
i teStelle

jteStelle

= det(...Ai ...Ai + A j ...) + det(...A j ...Ai + A j ...)


= det(...Ai ...Ai ....) + det A + det(...A j ...Ai ...) + det(...A j ...A j ...)
|
{z
}
|
{z
}
=0

=0

2.4 Preposition

d1

i =1
dn

n
= bi
...
i =1
bn

= di

...

a) det

b1

b) det
0
c) Fr A

knxn
|{z}

gilt: Rang A=n det A 6= 0

Mat(nxn;k )

Beweis:

d1

0
...

a) det
0

= d1 d2 ...dn det e1
|
dn

e2

...
{z
En

n

en = di
} i =1

b) Angenommen
b
i 6 = 0 i = 1, ..., n

b1

b1
0
elem.Spaltenum f ormung TypI I

...
...
B=
=
0
bn
0
bn

b1
0
a) n

=
...
Damit ist det B = det
bi
i =1
0
bn
Angenommen bi = 0 und i minimal mit dieser Eigenschaft.
>

Matrizen einfgen! <


b1
0

Ele.Spaltu.TypI I
.
.
.

=
0
0
det B = 0

11

Christopher und
Mareike

Skript zur Linearen Algebra II

c) Rang A=n A lsst sich durch Spaltenumformungen auf Diagonalform mit Eintrgen
6= 0 bringen det A 6= 0

2.5 Bemerkung
zu 4. b) ist Berechnungsmethode:

1 0
1 1 1
1 0 0

1 0 = det 2 3 2 = det 2 3
det 2
1 2 2
1 1 3
1 1

0
0 = 13

11
3

11
3

= 11

Ziel: det( AB) = det A det B


det( At ) = det A

2.6 Exkurs: Elementarmatrizen


Zeilenumformungen Typ I bis III Multiplikation mit Elementarmatrizen von links
Spaltenumforungen Multiplikation mit Elementarmatrizen von rechts.
A

Ai

Typ I:

i te Zeile
0

{z

A1
Ai

}|

{z

, k

0
= Si ( )
1

A1
= Ai

Sp :

Si ( )

Ai

{z

Ai

Typ II:
Ai
Ai + A j , k, i < j

1
0
1 0 . . . 0 = Q j ()
i
0
1
Sp :

Aj

Ai + A j

Typ III:
Ai A j

1 ...
j

0 1 = Pi
1 0
Sp :

fr

i<j

A j Ai

12

Christopher und
Mareike

Skript zur Linearen Algebra II

Jede invertierbare Matrix A Mat(nxm, k ) ist endliches Produkt von Elementarma-

Merke:
trizen.

2.7 Satz bzgl. Determinante einer Matrix


Fr alle A, B Mat(mxn, k ) gilt det( AB) = det( A) det( B)
Beweis
Ist Rang(B) < n, so ist auch Rang(AB) < n.
Also ist det( AB) = det( B) = 0
Ist Rang(B)=n so schreibe B als Produkt von Elementarmatrizen

B=C1 . . . Ct

Es gengt zu zeigen, dass det( AC ) = det( A) det(C ) fr die Elementarmatrix C.


det(C )
det(Si ()) =
j
det( Qi ()) = 1
j
det( Pi ) = 1

det( A Si ()) = det( A) = det(Si ()) ( A)


j

det( A Qi ()) = det( A) = det( Qi ()) det( A)


j

det( A Pi ) = det( A) = det( Pi ) det( A)

2.8 Satz bzgl. Determinante und Transponierte


At = det( A)
Beweis: Ist rang(A)<n, so auch Rang(At )=det( At )=0
Ist Rang(A)=n, so gibt es Elementarmatrizen R1 , ..., Rt mit
Rt , Rt1 , ..., R1 , A = En

(1)

Beachte: Fr Elementarmatrizen gilt: det( Rt ) = det( R)

1
0
Si ( ) t = Si ( ) , Q j ( ) t =
, det( Q j ())t = 1, ( Ptj )t = Pi

j
i
i
... 1
Mit En = At R1t ... Rtt gilt (07):
1 = det( At ) det( R1t ) ... det( Rtt )
= det( At ) det( R1 ) ... Rt
Wegen (1) ist auch det( Rt ) det( Rt1 ) ... det( R1 ) det( A) = 1
Es folgt det( At ) = det( A)

13

Christopher und
Mareike

Skript zur Linearen Algebra II

2.9 korollar
Ist A invertierbar, so ist det( A1 ) =
Beweis:

1
det( A)
07

1 = det( En ) = det( AA1 ) = det( A) det( A1 )

2.10 Bemerkungen
i.a.

1. AB 6= BA, aber det( AB) = det( BA) wegen 0.7


2. Ist B=PAP1 (d.h. AB sind hnliche Matrizen, sie beschreiben den selben Endomorphismus bzgl. verschiedener Basen) so gilt:
07

det( B) = det P det( A) det( P1 )


09

= det( P) det( A) det( P)1


= det( A)
GLn (k )
| {z }

3.

= { A kmxn | A invertierbar }

General linear Group

det( GLn (K )) k {0}(= k ) ist Homomorphismus (det( AB) = det( A) det( B))
SLn (K )
| {z }

4.

= ker det = { A GLn (K )| det( A) = 1}

Special linear Group

2.11 Beispiel
A \ k3x3 , A = ( aij )

a11 a12 a13


det a21 a22 a23 = det( a11 e1 + a21 e2 + a31 e3 , A2 , A3 )
a31 a32 a33
Multilinearitaet

a11 det(e1 , A2 , A3 ) + a21 det(e2 , A2 , A3 ) + a31 det(e3 , A2 , A3 )

1
a12 a1 3
a22 a23 = a22 a33 a23 a32
det 0
0
a32 a33

1
a22 a23
0 a12 a13
a12 a13 = ( a12 a33 a13 a32 )
det 1 a22 a23 = det 0
0 a32 a33
0
a32 a33

1
0 a12 a13

det 0 a22 a23 = det 0


1 a32 a33
0

a32 a3 3
a22 a23 = a12 a23 a13 a32
a12 a13

det( A) = a11 ( a22 a33 a23 a32 ) a21 ( a12 a33 a13 a32 ) + a31 ( a12 a23 a13 a32 )
|
{z
} |
{z
} |
{z
}
a11 det A11

a21 det A21

a31 det A31

14

Christopher und
Mareike

Skript zur Linearen Algebra II

Sarrus-Regel arbeitet nach diesem Prinzip.

Beachte:

2.12 Denition und Notation


Fr Ai K nxn und i, k {1, ..., n}
>Matrix mit gestrichender Zeile und Spalte einfgen <
Ain entsteht aus A durch Streichen der i-ten Zeile und der k-ten Spalte.

2.13 Satz zur Entwicklung nach k-ter Spalte


Fr A K nxn und k {1, ..., n} gilt:
n

det( A) = (1)i+k aik det( Aik )


i =1

2.14 Satz
n

A knxn ,

n {1, ..., n} det A = aik det Aik


i =1

Ak

Mit Aik =
A
A
n

det A = det ( A1 a2 ... aik ei ...An )

Beweis:

i =1

Multilinearitaet n

aik det ( A1 A2 ...ei ...An )

i =1

Spaltenvertauschung n

aik (1)k1

i =1

det (ei A1 A2 ...An )

n
Zeilenvertauschung
0
=
aik (1)i1 det ..
.
i =1

a11

a12
Aik

0
n

aik det Aik

i =1

2.15 Satz: Entwicklung nach i-ter Zeile


A knxn ,

i {1, ..., n}.


n

det A = (1)i+k aik det Aik


k=q

15

... aik1 aik+1 ...an

Christopher und
Mareike
Beweis:

Skript zur Linearen Algebra II


n

k =1

k =1

det A = det At =(2 ) (1)k+i atki det Atki = (1)k+i aik det Ai k

2.16 Proposition
Es sei Altn (k ) Menge der alternierenden n-Formen auf knxn .

1. Altn (k) ist k-Vektorraum.


2. d Altn (k ) verhlt sich unter elementaren Spaltenoperationen am Urbild A wie fr die
Determinante in 2.3 beschrieben.
3. Fr d Altn (k ) ist d(A)=0 falls Rang(A) < n.
4. Ist d Altn (k) mit d( En ) = 0, so folgt d=0 (als Funktion)
Beweis:
1. Es gitl sogar: Altn (k ) ist Unterraum von Abb.(knxn ; k)
(Operationen in Abb(knxn , k ). f + g( A) = f ( A) + g( A)

( f )( A) = f ( A)

In Altn (k ) gilt: f + g Altn (k ) und f Altn (k ) fr f , g Altn (k ),

k.

2. Siehe Beweis zu 2.3


n

Sei An = i Ai mit i k

3. O.B.d.A.
n

i =2

d( A) = i d( A | A2 |...| An ) = 0
|
{z
}
i =2
=0,da d alternierend

4. Wegen 3) knnen wir annehmen, dass Rang(A)=n. A lsst sich durch elementare Spaltenumformungen auf En bringen und d(A)= d( En ) fr ein geeignetes k. Mit d(En )=0
folgt d=0.

2.17 Satz: Eindeutigkeit der Determinante


Die Determinante ist als alternierende n-Form mit det(En )=1 eindeutig bestimmt.
Beweis: Sei d Altn (k ) mit d( En ) = 1
Setze = d det Dann ist alternierende n-Form wegen 1)
( En ) = d( En ) det( En ) = 0 und mit 2.16 4) folgt d=det.

2 Entwicklung

nach i-ten Spalte

16

und

Christopher und
Mareike

Skript zur Linearen Algebra II

2.18 Satz Existenz der Determinante


Fr jedes n N existiert die Funktion det knxn k mit den in
schaften.

2.2

beschriebenen Eigen-

Beweis: (Induktion ber n)


n=1 det k k, k k
n 2 Wir nehmen an, dass det k(n1)x(n1) k existiert und definieren:
Idee: Entwicklung nach der 1. Zeile
f :

knxn (1)1+ j a1j det A1j


j =1

Wir zeigen, dass f multilinear und alternierend ist und f ( En ) = 1


1. Sei B = ( A1 | A2 |...| r| {zA}k |...| An )
kte Spalte

rAk

B = ...

Es ist B1k = A1k und B1j fr j 6= k unterscheidet sich von A1j in der ehemals k-ten Spalte
um den Skalarfaktor r, insbesondere ist det B1j = r A1j
Es gilt:
n

f ( B) = (1)1+k r a1k Aik + a1j r det A1j = r f ( A)


|
{z
} j =1
Summand f uer j=k

2. B = ( A1 | A2 |...| Ak + A k |...| An )
A = ( A1 | A2 |...| Ak |...| An )
A0 = ( A1 | A2 |...| A k |...| An )
zu zeigen: f(B)=f(A)+f(A)

0 und B ,
Es ist B1k = A1k = A1k
j 6= k, ist in seiner ehemals k-ten Spalte die Summe
1j
k
k
0 .

der Eintrge aus A und A , insbesondere ist det B1j = det A1j + det A1j

Es gilt:

0 )
f ( B) = (1)1+k ( a1k + a 1k ) det A1k + (1)1+ j a1j (det A1j + det A1j
j =1

= f ( A) + f ( A0 )
3. Zeige f ist alternierend
Wir nehmen an, dass Ak = Al fr ein Indexpaar k=l.
n

f ( A) = (1)1+ j a1j det A1j +(1)1+k a1k A1k + (1)1+l a1l det A1l
|{z}
j =1

= 0, da det alternierender Funktionen nach Induktion


a1k = a1l

a1k ((1)k det A1k + (1)l det A1l

> Matrix einfgen <


Behauptung:
A1k lsst sich durch l k 1 Spaltenvertauschungen in A1l berfhren.
> fehlt was, bitte einfgen <-

17

Christopher und
Mareike

Skript zur Linearen Algebra II

= a1k det A1k ((1)k + (1)2l k1 )


|
{z
}
=0

=0

4. f ( En ) = (1)1+1 1 det( En1 ) + n(1)1+ j 0 det( En )1 j = det( En1 ) = 1


|
{z
} j =2
j =1

2.19 Explizite Determinantenformel


n

j =1

j =1

det A = det( A1 |...| An ) = det( a j1 e j |...| a j1 e j )

= ai1 ... ain det(e11 |...|e1n )


(i + j, ..., in) 1( ir n alle Eintrge verschieden
((1), ..., (n)
le f trightarrow
f uer Sn
Symmetrische Gruppe
= det(e(1) |...|e(n) ) a(1),1 ... a(n),n
{z
}
Sn |
sgn

sgn a(i),1 .

Sn

i =1

1. 
Sn Gruppe
 der Permutationen, dh der bijektiven Abbildungen : {1, ..., i } {1, ..., n}
1 2 3
= (23) (13) |Sn | = n!
2 3 1
2. sgn Sn {1}
= Z2 ;
Signumfunktion

det(e(1) |...|e(n) )

Behauptung:
sgn ist ein Gruppenhomomorphismus
Behauptung:
Betrachte (e(1) , ..., e(n) )(e (1) , ..., e (n) ) fr , Sn

i-te Spalte = (e(1) , ..., e(n) ) e (i) = e( (i))


> Matrix einfgen <

also ist (e(1) , ..., e(n) )(e (1) , ..., e (n) ) = (e (1) , ..., e (n) )
sgn = det(e (1) , ..., e (n) ) = det(e(1) , ..., e(n) ) det(e (1) , ..., e (n) ) = sgn sgn

sgnSn {1}
Imsgn = {1}
kersgn = { Sn |sgn = 1} =: An
heit alternierende Gruppe,
Merke: | An | =

n0
2.

18

Christopher und
Mareike

Skript zur Linearen Algebra II

2.20 quivalenz von Matrizen


Matrizen A, B Mat(mxn, k ) heien quivalent, wenn es Matrizen S Gl (m, k ) und T
Gl (n, k ) gibt, mit B = S A T 1 , d.h. wenn sie bezglich verschiedener Paare von Basen
dieselbe lineare Abbildung beschreiben.
Lemma:

Jede Matrix A Math(mxn, k) ist quivalent zu

Er
0

0
0


mit r = Rang( A).

Matrizen A, B Mat(nxn, k ) heien hnlich, wenn es ein S Gl (n, k ) gibt, mit B = S A S1 ,


d.h. wenn sie bezglich verschiedener Basen den selben Endomorphismus beschreiben.
Normalformproblem:
finde fr jeden Endomorphismus f : V V eine Basis B von V, die eine besonders schne
Matrixdarstellung MB ( f ) erlaubt.
schne
Darstellung

1
0
0 2
0

..
.. ;
..
.
. .
0
|

Beispiel:

n
{z

nicht immer moeglich

> Matrix einfgen mit doppelter Diagonalen, Notiz: immer mglich <

19

Christopher und
Mareike

Skript zur Linearen Algebra II

3 Eigenwerte, Eigenvektoren, Diagonalisierbarkeit

k Vektorraum, dimV = n, End(V ) = { f :

V V| f

linear } Endomorphismenring.

3.1 Denition
Sei f End(V )
1. k heit Eigenwert von f, falls ein v V, v 6= 0 existiert mit f (v) = v.
2. v V, v 6= 0, heit Eigenvektor von f, falls ein k existiert mit f (v) = v. Man sagt
v ist Eigenvektor zum Eigenwert .

3.2 Denition:

Endomorphismus - diagonalisierbar

Ein Endomorphismus heit Diagonalisierbar, wenn eine Basis B aus Eigenvektoren von f existiert, d.h.:

1
0

MB ( f ) = .
..

0
2

...
0
..
.

...

quivalent hierzu:
Eine Matrix A Mat(nxn, k ) heit diagonalisierbar, falls eine Matrix S Gln (k) existiert,
sodass:

SAS1

1
..
= .

0
..
.

...

...

fr 1 , ..., n k.

3.3 Beispiel
1. V = R2 ,

f Drehung umden Winkel ,


cos sin
ME ( f ) =
.
sin cos

0 < < 2
(E = Standardbasis)

> Skizze der Vektoren einfgen <


Fr 6= besitzt f keine Eigenwerte.
Fr = ist f (e1 ) = e1 f (e2 ) = e2 ,
d.h. -1 ist Eigenwert mit Eigenvektoren
e1 , e2


1 0
Insbesonders:
ME ( f ) =
.
0 1

20

Christopher und
Mareike
2. V =

Skript zur Linearen Algebra II




R2

g mit ME ( g ) =

cos sin
sin cos

Spiegelung an Winkelgerade H/2


> Zeichnung einfgen <v1 ist Eigenvektor zum Eigenwert 1
v2 ist Eigenvektor

zum Eigenwert -1
1 0
Mv1 ,v2 =
0 1

{Eigenvektoren zu k} {0} bilden lineare Unterrume.




1 0
3. V = R2
f : ( x1 , x2 ) ( x1 , x1 + x2 )
ME ( f ) =
1 1
(
(
x1 (1 )
=0
x1
= x1

f ( x1 , x2 ) = ( x1 , x2 )
x1 + x2 = x2
x2 (1 ) + x1 = 0
Beobachtung:

= 1, x1 = 0, x2 beliebig aber 6= 0

Vektoren der Form (0, y)y6=0 sind Eigenvektoren zum Eigenwert 1. f ist nicht diagonalisierbar, da 1 einziger Eigenwert und es keine zwei linear unabhngigen Eigenvektoren
zu 1 gibt.
Normalform:
M{e2 ,e1 } ( f ) = -> Matrix einfgen!

3.4 Proposition: verschiedene Eigenwerte


Sei f End(V ) und sei v1 , ..., vk Eigenvektoren von f zu verschiedenen Eigenwerten 1 , ..., n .
Dann sind v1 , ..., vk linearunabhngig. Insbesondere is
k
n = dim V
|{z}
moeglicher Eigenwert

Beweis:

Angenommen v1 , ..., vk sind linear abhngig, und es sei si vi = 0

(*)

nicht-triviale Line-

i =1

arkombination der Null mit minimaler Anzahl nicht-trivialer Koeffizienten. Dann gibt es i1 , i2
mit 1 i1 , i2 k und S11 , S12 6= 0
k

i =1

i =1

Mit (*) gilt: 0 = f (0) = si f (v1 ) = si i vi


k

0 = s i i1 v i

und

i =1

Subtraktion liefert:
k

0 = s i ( i i1 ) v i
i =1

Die ist nicht-triviale Linearkombination der Null (S12 6= 0, 12 6= i1 ) mit weniger nichttrivialen koeffizienten als (*)
Widerspruch.

21

Christopher und
Mareike

Skript zur Linearen Algebra II

4 Eigenwert

4.1 Wiederholung
f End(V )
{z
}
|

finde Basis B von V, sodass: MB ( f ) = > Matrix einfgen <

lin.

f :V V

A K nxn

finde S Gln (K ), sodass

SAS1 = .... Normal f orm

K wird als Eigenwert bezeichnet, wenn:


Eigenvektor
> Zeichnung einfgen <

v 6= 0, v V

mit

A knxn heit diagonalisierbar, falls ein S Gln (K ) existiert mit

f (v) = v

SAS1 =

4.2 Satz: Diagonalisierbarkeit bzgl. verschiedener Eigenwerte


Ist f End(v), dimV=n, und hat g genau n verschiedene Eigenwerte, dann ist f diagonalisierbar.

Beweis:
Jedes System von Eigenvektoren v1 , ..., vn zu den Eigenwerten 1 , ..., n ist geeignete Basis nach
3.4.

Beachte:
Auch Endomorphismen mit weniger als n Eigenwerte knnen diagonalisierbar sein.

Beispiel:
Spiegelung an Hyperebene3 in Rn , n s.
->Zeichnung einfgen<

Beobachtung:
Jedes v H ist Eigenvektor zum Eigenwert 1
Jedes w H ist Eigenvektor zum Eigenwert -1
Matrixdarstellung:

1
0
..

.
0

1
0
1
Ist Basis fr H; erz. Vektor fr H
3 linearer

Unterraum der Codimension 1, d.h. dim(n-1) im Vektorraum der Dimension n.

22

Christopher und
Mareike

Skript zur Linearen Algebra II

4.3 Denition: Eigenraum


Sei f End(v), und Eigenwert zu f. Dann heit E() = {v V | f (v) = v} der Eigenraum
von f zu , n() = dim E() heit geometrische Vielfachheit von .

4.4 Bemerkung
1. E() = ker( f idv ), also ist E() linearer Unterraum von V, per Definition ist E() 6=
{0}
Fr A knxn und Eigenwert von A ist E() Lsungsraum des linearen Gleichungssystems: ( A En ) x = 0

1 0

..
2. Fr einen diagonalisierbaren Endomorphismus mit Matrixdarstellung:

.
0

Sind 1 , ..., n Eigenwerte und m(i ) = #{ j| j = i }


Beobachtung:
k

Ist f diag. mit Eigenwerte 1 , ..., n dann gilt m(i ) = n.


i =1

4.5 Proposition
Sei f End(V ) die Summe von Eigenrumen zu verschiedenen Eigenwerten ist direkt.
Beweis:
Es sei 1 , ..., k die verschiedenen Eigenwerte, und v E(1 ) + ... + E(k ) mit zwei Darstellungen v = v1 + ... + vn = w1 + ... + wk mit vi , wi E(i ) fr i = 1, ..., k
k

Dann ist 0 = vi wi ,
i =1

Merke: vi wi ist Element von E(i ). Nach 3.4 ist v1 = w1 fr

i = 1, ..., k und E(i ) ist direkt.

4.6 Satz:

Diagonalisierbarkeit Endomorphismus

Ein Endomorphismus f von V, dimV=n, ist diagonalisierbar genau dann, wenn fr die verschiedenen Eigenwerte 1 , ..., k gilt:

n = m ( i )
i =1

Beweis:
f diagonalisierbar

V = ik=1 E(i ) dimV = m()


i =1

Beispiel:
vgl. Spiegelung an H wie oben, Rn = H H = E(1) E(1)
m(1) = n 1; m(1) = 1

4.7 Denition: charakteristisches Polynom


Sei f End(V ) und M = MB ( f ) knxn , wobei B beliebige Basis von V, dann heit
f ( x ) = det( x En M ) k [ x ] das charakterische Polynom von f

23

Christopher und
Mareike

Skript zur Linearen Algebra II

4.8 Beispiel und Bemerkung



1. Me ( f ) =

1 6
1 4




f ( x ) = det( x E2 M) = det

x + 1 6
1
x4

= ( x + 1)( x 4) + 6 = x2 3x + 2 =

( x 1)( x 2)
0

2. f ist unabhngig von der Wahl der Basis B. Sei B weitere Basis und T=TBB , dann ist
M B 0 ( f ) = T 1 M B ( f ) T
und det( xEn MB0 ( f )) = det( xEn T 1 MB ( f ) T ) = det( xEn MB ( f ))
|
{z
}
=det( T 1 ( xEn MB ( f )) T

{z

det( T 1 ) det( xEn MB ( f )) det( T )

4.9 Satz:
Die Eigenwerte von f End(v) sind die Nullstellen des charakteristischen Polynoms f
Beweis:
Eigenwert von f
( id x f )(v) = 0 fr ein v 6= 0 ker( id x f ) 6= {0} det(En MB ( f )) = 0
fr jede Basis B von V f () = 0

4.10 Beispiel



1 6
MB ( f ) =
f ( x ) = ( x 1)( x 2) Eigenwert lambda=1 und =2, nach 4.2 ist f
1 4
diagonalisierbar.
Wiederholung:
f End(V ), mit Eigenwert
E() = {v V | f (v) = v} Eigenraum
ker / f idv )
m() = dim( E( x )) geometrische Vielfachheit
f ( x ) = det( x En MB ( f )) B bildet Basis
Bsp: (1.11.1 oder
 1.13) 
1 6
M = ME ( f ) =
1 4
f ( x ) = ( x 1)( x 2)

Eigenwerte 1 = 1, 2 = 2


1 0
Mit geeigneter Basis B ist MB ( f ) =
0 2
Whle
B: E(1) Lsungsraum
von ( M 1 E2 )v = 0

 
2 6
3
v=0
lsg
1 3
1

E(2): Lsungsraum:

( M 2E2 )v = 0


3 6
v=0
1 2

m(1) = 1, m(2) = 1

24

 
2
lsg
1

Christopher und
Mareike

Skript zur Linearen Algebra II

   
3
2
Whle B=
,
1
1
TBE

Probe:

ME ( f )

|{z}

|{z}
3 2

1 1

( TEB )1

4.11 Satz

TEB

1 0
0 2

Spur

Fr f End(V ) ist f ( x ) ein Polynom der Form X n Sp( f ) X n1 + ... + (1)n det( f ) mit
n

Sp( f ) = mk fr M = (k ij ) = M( f )
i =1

Sp(f) heit Spur von f.

Beweis:
Konstanter Term von f f (0) = det( MB ( f )) = (1)m det( MB ( f ))
B sei weitere Basis von V, dann gilt: MB0 ( f ) = SMB ( f )S1 fr geeignetes S Gln (k )
det( MB ( f )) = det(SMB ( f )) det(S1 ) = det( MB ( f ))
| {z }
(det(S))1

(
Mit Sij =

1
0

i=j
sonst

Kronecker Symbol

ist ( xEn MB ( f )) = ( xij mij )ij


n

und f ( x ) = sgn() ( x( j),j m( j),j )


Sn

()

j =1

Summand in () liefert Betrag zum koeffizienten von X n falls ( j) = j j = 1, ..., n also :


= id
Summand in () liefert Betrag zum Koeffizienten an X n1 falls ( j) = j j = 1, ..., n also :
= id
n

Die Koeffizienten von X n mX n1 in (*) sind gleich den Koeffizienten von X n , X n1 in ( x m ji ) =


j =1
!
xn

m ji

x n 1

j =1

d.h. f ( x ) = x n

Terme
n

+...
|{z}
niedriger Ordnung
!

m jj

x n1 + ...

j =1

4.12 Dention algebraisches Vielfachheit


Sei f End(V ) und Eigenwert von f. Die Vielfachheit der Nullstelle von f ( x ) heit die
algebraische Vielfachheit von . Notation ()

25

Christopher und
Mareike

Skript zur Linearen Algebra II

4.13 Proposition Eigenwert


Fr einen Eigenwert von f End(v) gilt stets: m() ().

Beweis:
Man ergnzt eine Basis
Basis B von V.
von E() zu einer

..

.

Dann ist: MB ( f ) =

0
A
Mit A Mat((n m()) x (n m()), K )

Es gilt:
id

f (x) =

id|k m() ( x ) A ( x )
|
{z
}

Einheitsmatrix ( x )
Eingeschachtelt auf K m()

> Matrix einfgen <-

Und weiter
f ( x ) = ( X )m() A ( x )
Damit ist mindestens n() f ache Nullstelle von f ( x ), d.h. m() ().

4.14 Satz

diagonalisierbar

Sei f End(v). Dann ist f diagonalisierbar gilt


1. f ( x ) zerfllt vollstndig in Linearfaktoren:
2. m(i ) = (i )

f ( x ) = ( x i ) ( i )
j =1

i = 1, ..., k

Beweis:
f diagonalisierbar heit: B = ( B1 , ..., Bn ),

Bi Basis von E(i )

1 E(1 )

> Matrix einfgen ( MB ( f D )) =

<

p E( p )
k

f ( x ) = ( x i )m(i und m(i ) = (i )


i =1

26

Christopher und
Mareike

Skript zur Linearen Algebra II

i =1

i =1

1)

dim(V ) = grad f ( x ) = 1 = m(i )


Nach 4.6 folgt die Diagonalisierbarkeit von f.
Ausblick:
f ( x ) in Linearfaktoren zerfllt
k

i =1

i =1

f ( x ) = ( x i ) ( i ) , ( i ) = n

Ziel:
-

konstruiere lineare Unterrume F (i ), sodass dim( F (i )... -> Rest einfgen.. <

M diagonalisierbar,

1
0

.
..

0
1

M
..

t
0

m ( 1 )
0

..

.
t

m(t ) geometrische Vielfachheit

Anmerkung:
t

n ( x ) = ( x i ) ( i )
i =1

(i ) = algebraischeViel f achheit

Ziel:

.
..

0
1

..

t
0

..

.
t

definieren F (i ) mit dim( F (i )) = (i ) und nebenstehender Matrixdarstellung fr f bzw. M


=ker( Mi E)

= Im( Mi E)2

z }| {
E ( i )

z }| {
F2 (i )

=ker( Mi E)r

...

z }| {
= Fr+1 (i ) V
Fr (i )
|
{z
}
Nil potent

4.15 Beispiel

Es sei f End(K n ) beschrieben durch: M =


n

27

1
..
.

0
..

. > Block der Ordnung


1

Christopher und
Mareike

Skript zur Linearen Algebra II

M ( x ) = ( x )n , d.h. ist einziger


Eigenwert

mit () = n
0 1
0

E() = ker( M En ) = ker . . . . . . = hei i


0

Auf E = {e1 , ..., ei } operiert wie folt:


= 2, ..., n
f ( ei ) = ei
f (e j ) = e j + e j1 f urj

also gilt fr f = f id
f (e1 ) = 0, f (e j ) = e j1

i = 2, ..., n

Behauptung
Fr ()(= ker f r ) = he1 , ..., er i insbesonders: dim( Fr ()) = r
n

j =1

j =r +1

v = t j e j f r (v) = t jr also ist f r (v) = 0 t j = 0


Zusammengefasst:

f ur

j = r + 1, ..., n

EW, m() = 1, () = n, E() = he1 i , F () = kn

4.16 Denition
Fr f End(v) mit Eigenwert , setze Gr () := Im( f r ) fr r = 0, 1, ... und f := f
idv

4.17 Proposition
1. Gr+1 () Gr ()
2. f ( Gr ()) Gr ()
Die Gr () bilden eine absteigende Folge von f-invarianten Untervektorrumen von V
Beweis:
1. Sei w = f r+1 (v) Gr+1 () dann ist w = f r ( f (v)), d.h. w Gr ()

2. Sei w = f r (v) Gr () so ist f (w) = f ( f r (v)) = f r ( f (v)) Gr ()

4.18 Proposition
Falls Fr+1 () = Fr (), so ist Fr () Gr () = {0}
Beweis
Sei w f r (v) fr ein v V und 0 = f r (w) = f 2r (v)
Also: v F2r () = Fr (), w = f r (v) = 0

28

* f f = f f

Christopher und
Mareike

Skript zur Linearen Algebra II

4.19 Abspaltungssatz
Sei f End(v) mit Eigenwert .
Sei F () verallgemeinerter Eigenraum mit Nilpotenzordnung r.
Dann gilt: V = F () Gr ()
Beachte
F ()undGr () sind f.invariant. Man whle Basen B1 von F () und B2 von Gr (), dann gilt:

M( B1 ,B2 ) ( f ) =

M1
0

0
M2

Mit M1 = MB1 ( f | F() )


M2 = MB2 ( f |Gr () )
Beweis
Fr jeden Endomorphismus : V V gilt:
dim(V ) = dim(ker()) + dim( Im()) insbesonders also fr f r
dim(V ) = dim( F ()) + dim( Gr ())

4.20 Beispiel

2
0

0
0

1 0
2 0
0 1
0 2

0
0

1
4

1 1
0 1
1 = 3: F (3) = F1 (3) = E(3) = ker
0
0
G1 (3) = Im( A 3En ) = he1 , e2 , e3 + e4 i

0
0
= he3 + 2en i
1 1
2 1

2 = 2:
F1 (2) = he1 , e3 + e4 i
p

f End(V ),

f ( x ) = ( x j )( j )
j =1

V = F (1 ) ... F ( p ) verallgem. Eigenrume: dim F ( j ) = ( j )


es gilt eine Basis B = ( B1 , ..., B p ) sodass:

..

..
.

0
1
2

2

Idee =
MB ( f ) =

.
.

...

..

.
2
..

.
p
..

.
p

29

Christopher und
Mareike

0
..

..

..

..

Skript zur Linearen Algebra II

4.21 Denition: Nilpotenzordnung


Ein Endomorphismus f : V V heit Nilpotent, falls ein r > 0 existiert, sodass f r = 0. Das
kleinste r > 0 mit f r = 0 heit Nilpotenzordnung von f.
Notation:
r( f )

Beispiele
1. En ist nicht nilpotent, gleiches gilt fr Isomorphismen von Vektorrumen

0 1 2
0 0 1
2. A = 0 0 1 ist nilpotent, A2 = 0 0 0, A3 = 0, r ( A) = 3
0 0 0
0 0 0
3. Matrizen
der

Form:
0

..

.
0
0
mit n-Zeilen sind nilpotent, mit Nilpotenzindex n

4.22 Proposition
Es sei f End(V ), dim(V ) = n Dann gilt f ist nilpotent
einziger Eigenwert von f mit algebraischer Vielfachheit n)

f ( x ) = x n (d.h. = 0 ist

Beweis:
f = f 0 idv = f 0
f nilpotent

ein r > 0
f r = 0 f ur

F (0) = V

f r = 0 F (0) = V:
f 0r = 0, also V = ker ( f 0r ) F (0) V
f r = 0 F (0) = V:
r (0)

d.h. f 0

F (0) = V

= 0 = f r (0)
??

f (x) = xn :

f | f (0) = ( x 0 ) ( 0 )

und

dim( F (0)) = (0)

30

??

f (x) = xn

Christopher und
Mareike

Skript zur Linearen Algebra II

Merke:
Die Nilpotenzordnung von f, r(f) wie in 4.21 stimmt berein mit der Nilpotenzordnung des
Eigenwerts = 0 von f, r(0).

4.23 Satz
p

p
L

j =1

j =1

Es sei f End(V ), f ( x ) = ( x j )( j) und V =

F ( j )

Zerlegung in die verallgemeinerten Eigenrume zu Eigenwerten 1 , ..., p . Definiere Endomorphismen f D , f N End(V ) durch:
v F ( j ), f o diagonalisierbarer Anteil
f D (v) = j v
f ur
v F ( j ) f N : nilpotenter Anteil.
f N (v) = f (v) j v
f ur

Ist B = ( B1 , ..., B p ) Basis von V wie in ?? dann ist


MB ( f D ) = ..
und
MB ( FN ) = ...
Es gilt:
1. f D ist diagonalisierbar, f N ist nilpotent, und f = f D + f N und f D f N = f N f D
2. ist g diagonalisierbar und h nilpotent in End(v) und f = g + h und g h = h g, dann
g = fD, h = fN
Beweis:
1. Die f ( j ) sind invariant unter f D und f N , also knnen wir summandenweise schlieen:
f D | F( j ) = j id F( j ) , also ist f D | F( j ) diagonalisierbar, damit auch f D .
f N | F( j ) = f j id F( j ) = f f D | F( j ) , d.h. f = f D + f N und f D f N = f N f D
r ( j )

( f N | F( j ) )r( j ) = ( f j id)r( j ) | F( j ) = 0 wegen ker ( f j


| {z }

= F ( j )

fj

dann ist f Nn = 0 auf V fr n = dim(V ).


2. Wir betrachten V =

p
L
j =1

F ( j )

V hat auch eine Zerlegung in Eigenrume von g


V=

q
L
j =1

F (j ),

Wobei E(j ) Eigenraum zum Eigenwert j von g ist.


(i)
Die E(j ) sind f-invariant. Sei v E(j ) dann ist g( f (v)) = f ( g(v)) = f (j v) =
j f (v), d.h. f (v) E(j )
(ii)

E(j ) = F (j ) fr alle j = 1, ..., q, und q = p: Setze f j := f | E(j ) .

31

Christopher und
Mareike

Skript zur Linearen Algebra II

f j v j id| E(j ) = f g| E(j ) = h| E(j ) . Da h nilpotent ist, existiert ein r > 0 mit 0 = hr =
( f j id)r auf E(j ).
E(j )
| {z }

Also ist

Eigenraum von g
q
L

Mit V =

j =1

E(j ) =

q
L
j =1

F (j )
| {z }

, insbesondere ist j Eigenwert von f.

verallgem. Eigenraum von f

F (j ) folgt:

{1 , ..., p } = {1 , ..., p }, insbesondere p = q und E(j ) = F (j ) fr j=1,...,q.


Damit ist g = f D und h = f g = f f D = f N

Wiederholung
Sei f End(v)
f = fD + fN
1. Normalform fr nilpotente Matrizen
2. Normalform fr allgemeine Matrizen

4.24 Zusammenfassung: Jordansche Normalform fr nilpotente Matrizen


Zu jeder nilpotenten Matrix A Mat(n n, k ) existiert P Gl (n, k), sodass P1 AP Diagonalblockmatrix aus O-Blcken und die Matrix bis auf die Reihenfolge der Blcke eindeutig
bestimmt ist.


> n-Blcke, mit erster Spalte = 0 <
A
Anzahl der Blcke entspricht der Dimension des Eigenraums ( E(0)).
Weiter ist dim Fs+1 (0) dim Fs (0) = q(k )
k>s

Sei f End(v) und f ( x ) zerfalle in -Linearfaktoren.


p

f ( x ) = ( x j )( j )
j =1

V=

p
L
j =1

F ( j )

Sei Eigenwert von f, dann ist f = f idv nilpotent auf F (). Zu jedem v F (), v 6= 0
existiert ein k > 0 mit f v (v) = 0
k := index f (v)
Heit Index der verallgemeinerten Eigenvektoren v.

32

Christopher und
Mareike

Skript zur Linearen Algebra II

4.25 Lemma
Sei f End(v), Eigenwert und v F () mit index f ( x ) k
Dann gilt:
1. Sv = {v, f (v), f 2 (v), ...., f v1 (v)}
ist linear unabhngig
2. Uv = hSv i
ist f-invarrianter Unterraum

1
0

.. ..

.
.

3. M ( f |Uv ) =

.
Sv
.

. 1

Beweis
1. folgt aus ?? (1), da f -nilpotent auf F ()
2. Uv = hSv i ist f -invarriant, nach ?? (2)
f = idv + f idv = idv + f
Also ist Uv auch f-invarriant
3. f ( f r (v)) = f r (v) + f r+1 (v)
f ( f k1 ) = f k1 (v) + f k (v) .
| {z }

(2-te Spalte)

=0

4.26 Satz
Sei f End(v), Eigenwert
1. Es gilt verallgemeinerte Eigenvektoren vi F (), k j = index f (vi ), sodass die Mengen
S j = {vi , f (v1 ), ..., f k1 (vi )
fr i = 1, ..., m() eine Basis:

B = (S1 , ..., Sm() )


von F () bilden.
2. MB ( f | F() ) ist Diagonalblockmatrix aus -Blcken.
3. Fr q(k ) = Anzahl der Blcke der Ordnung k in MB ( f | F() ) gilt:
dim FS+1 () dim FS () = q(k)
k>S

insbesondere fr S > 0 :

dim E() = q(k ) =


k >0

Anzahl der Blcke. (!!! deshalb oben i = 1, ..., m() = dim E())

33

Christopher und
Mareike

Skript zur Linearen Algebra II

4.27 Satz: Jordansche Normalform fr allgemeinerte Matrizen


p

Sei A Mat(nxn, k ) und A ( x ) = ( x j )( j ) Dann existiert ein P Gl (n, k ) sodass


j =1

P1 AP Diagonalblockmatrix aus j Blcke ist, und die Matrix bis auf Reihenfolge der Blcke
eindeutig bestimmt ist.

Merke
Die hnlichkeitsklasse einer Matrix A Mat(nxn, k ) mit zerfallenden charakteristischen Polynom A ( x ) ist eindeutig bestimmt durch:
1. Nullstellen 1 , ..., p von A ( x )
2. die allgebraischen Vielfachheiten (1 ), ..., ( p ).
3. die r ( j )Tupel (q j (1), ..., q j (r ( j ))) Nr( j ) mit q j (t) = Anzahl der j Blcke der
Ordnung t.

4.28 Beispiel

5 3 3
A = 7 5 4
1 1 0
A ( x ) = ( x + 1)2 ( x 2)
1 = 1 ( 1 ) = 2
2 = 2 ( 2 ) = 1
2 = 2 : F (2) = E(2), dim E(2) = 1
1 2-Blcke der Ordnung 1

0
2
1 = 1 : F (1) = 2
(

entweder 2(1) Bl ocke


der Ordnung1( f alls E(1) = F (1), Adiagbar )

oder
1(1) Block der Ordnung2( f alls E(1) F (1))

5 3 3
dim E(1) = 3 rk( A + E) = 3 7 5 4 = 1
| {z }
1 1 0
=ker ( A+ E)
also E(1) F (1), dim F (1) = 2

1 1
0
0
JNF ( A) = 0 1
0
0
2
Jordan Basis


1
Eigenvektor zu 2 v = 1 .
0

34

Christopher und
Mareike

Skript zur Linearen Algebra II

( A 2E)v = 0
verallgemeinerte Eigenvektor w von 1 mit index f 1 (w) = 2
d.h.

( f + id)(w) = 0

( f + id)2 (w) = 0

1. Eigenvektor w0 von 1 Lsung von ( A + E) x = 0


0
2. w ist Lsungvon
( A + E)w = w
1
5
etwa w0 = 1 ( A + E)w0 = 7
0
1

1
5 3
w = 1 ( A + E ) w = 7 5
1
1 1


3 3
1
5 4 1 = 0
1 0
0

3
1
1
4 1 = 1
0
1
0


0
1
1

also: B = 1 , 1 , 1

1
1
0
|
{z
} | {z }
F (1)

F (2)

JNF ( A) = P1 AP

0 1 1
mitP = 1 1 1
1 1 0

5 Verktorrume mit Skalarprodukt

5.1 Skalarprodukte
5.1.1 Denition: Skalarprodukt
Sei V ein Vektorraum ber R. Eine Abbildung :

V V R heit Skalarprodukt falls gilt:

1. ist bilinear, d.h. ( ax + by, z) = a ( x, z) + b(y, z)


( x, ay + bz) = a( x, y) + b( x, z)

fr x, y, z V, a, b R

2. ist symmetrisch, d.h.


( x, y) = (y, x ) x, y V
3. ist positiv definiert, d.h.:

( x, x ) > 0

x 6= 0 V

4. Bezeichnung ist auch positiv definite, symmetrische Bilinearform. V mit Skalarprodukt heit euklidischer Vektorraum.

35

Christopher und
Mareike

Skript zur Linearen Algebra II

5.1.2 Beispiele
1. V = Rn
n

h..., ...i V V R mit h x, yi := x t y = xi


i =1

|{z}

yi

Matrixmultiplikation

harmonisches Skalarprodukt, wenn eine nx1 Matrix mit einer 1xn Matrix multipliziert wird.

h x, x i = in=1 xi2 > 0 auer xi = 0 fr i = 1, ..., n)

(positiv definiert?:

[0, 1] R|f stetig}

2. V := { f :
( f , g) =

R1

f ( x ) g( x )dx. Vektorraum mit Skalarprodukt.

5.1.3 Denition: darstellene Matrix


Sei V endlich dimensional, und eine Bilinearform (..Bezeichnung fr Abbildung..) auf V. Fr
eine Basis
B = {v1 , ..., vn
} von V heit:
MB () = (vi , v j ) Mat(nxn, R)

die darstellende Matrix von bzgl. B.

i,j

5.1.4 Bemerkung
n

i =1

i =1

1. Fr v, w V mit B-koordinate x, y Rn (d.h. v = xi vi , w = yi vi ) und einer Bilinearform mit Matrix A = MB () gilt:

(v, w) = x t Ay
Nebenrechnung
1xn Matrix nxn Matrix nx1 Matrix = Skalar
!
(v, w) =

i =1

j =1

xi vi , y j v j

= xi y j ( vi , v j )
i,j=1

= xi
i =1

y j ( vi , v j )

j =1

= ( x1 , ..., xn )

( vi , v j ) y j

i =1
n

..
.

(v i, v j )y j )

i =1

y1

= x t ((vi , v j ))i,j . . . = x t A y.
yn

36

... ...

.. ..
. .

Christopher und
Mareike

Skript zur Linearen Algebra II

2. Die Bilinearform ist symmetrisch dann und nur dann, wenn die darstellende Matrix
symmetrisch ist.
Nebenrechnung, kleiner Beweis..

angenommen A ist symmetrisch, dann:


n

(v, w) = ... = xi y j (vi , v j )


i,j=1

= xi y j (v j , vi ) = yt A x = (w, v))

A symmetrisch

i,j=1

5.1.5 Satz: Tranformationsformel fr Bilinearformen


Sei V endlich-dimensional mit Basen A und B und TAB die Transformationsmatrix fr den Basiswechsel von B nach A. Fr jede Biliniearform auf V gilt dann:
Mb () = ( TAB )t M A () TAB
(fr Endomorphismen f :
TAB .)

V V vgl.

MB ( f ) = TBA M A ( f ), TAB = ( TAB )1 M A ( f )

Beweis:
Seien v, v0 V mit A-koordinaten
und x 0 = TAB y0 , setze T := TAB .

x, x 0 Rn und B-koordinaten y, y0 Rn , also x = TAB y

Sei A = M A (), B = MB () Dann gilt:


yt B y0 = (v, v0 = x t A x 0 = ( Ty )t A Ty0 = yt T t A T y0 = yt ( T t A T )
y0
Durch Auswertung auf der Standardbasis {e1 , ..., en } folgt B = T t A T.
Setze y0 = e j und y = e0 i
eingesetzt:
eit B e j

0 ... 0 1 0 ... 0
{z
}
i te Spalte


0
..


.
b1j
0

 .

1 0 ... 0 .. = bij
1 = |0 ... 0 {z
}
0
bij

i te Spalte
..
.
0
| {z }
jte Zeile

37

Christopher und
Mareike

Skript zur Linearen Algebra II

5.1.6 Denition: Skalarprodukt


Sei V Vektorraum ber C. Eine Abbildung :
gilt:
1. ist linear im ersten Argument:
( ax + by, z) = a( x, z) + b(y, z)
2. iost hermitesch, d.h. ( x, y) =

V V C heit Skalarprodukt, falls

x, y, z V, a, b C
c + id = c id

(y, x )
| {z }

x, y V.

komplexe Konjugation

3. ist positiv definiert, d.h. ( x, x ) > 0

x 6= 0 V.

V mit Skalarprodukt heit unitrer Vektorraum.

5.1.7 Bemerkung und Beispiele


1. ist semilinear im 2. Argument:
( x, ay + bz) = a( x, y) + b( x, z)


(2)

(1)

( x, ay + bz) = ( ay + bz, x ) = a (y, x ) + b (z, x ) = a (y, x ) + b (z, x ) = a ( x, y) + b ( x, z)


2. ( x, x )R, da ( x, x ) = ( x, x ) nach (2) in ??. Also ist ( x, x ) > 0 eine berprfbare
Aussage > Graph einfgen <
3. V = Cn

h x, yiC = x t y = xi yi
i =1

y1

y = ...
yn

5.2 Orthogonalbasen
5.2.1 Denition: Orthogonal, orthogonales Komplement, Orthonormal(basis)
Sei V euklidischer bzw. unitrer VR.
1. v, w V heien orthogonal, falls hv, wi = 0
Notation:
v
2. Zwei UVR UW, V heien orthogonal falls u w
3. Fr einen UVR U V heit U := {v V |v u
zu U

u U, w W

u U } das orthogonale Komplement

4. Eine Familie von Vektoren v1 , ..., vn heit orthogonal, falls v j v j

i 6= j und orthonormal,
(


1 i=j
falls zustzlich ||vi || = 1 i. Fr eine solche Familie gilt:
vi , v j = ij =
0 i 6= j

5. Eine Basis von V aus orthonormalen Vektoren heit Orthonormalbasis (ONB).

38

Christopher und
Mareike

Skript zur Linearen Algebra II

Abbildung 1: Beispiel zu 5.2.1 - v u

5.2.2 Bemerkung
n

1. Familien orthonormaler Vektoren sind linear unabhngig. (Sei i vi = 0, {v1 , ..., vn }


i =1


n
n


)
orthonormal, dann ist i vi , v j = i vi , v j = j 1 Also j = 0 j
i =1

i =1

2. Sei A Mat(mxn, R) so lsst sich das homogene lineare Gleichungssystem Ax = 0


schreiben in der Form h Ai , x is 4 = 0 i
U = h A1 , ..., Am i
s ist die Lsungsmenge des Systems.
n

3. Ist N = {v1 , ..., vn } Orthonormalbasis von V, so gilt fr jedes v V: v = hv, vi i


i =1


n
n


vi (denn mit v = i vi gibt Skalarmultiplikation mit v j : v, v j =
i vi , v j =
n

i =1

i =1

i vi , v j = j )

i =1

5.2.3 Satz: Gram-Schmidt - Orthonormalisierungsverfahren


Sei V ein endlich dimensionaler euklidischer oder unitrer Vektorraum und W V ein Untervektorraum mit Orthonormalbasis {w1 , ..., wm } . Dann gibt es eine Ergnzung zu einer Orthonormalbasis {w1 , ..., wm , wm+1 , ..., wn } von V.

Beweis
Sei W V Untervektorraum mit Orthonormalbasis {w1 , ..., wm }. Sei ohne Einschrnkungen
w 6= v. Dann gibt es einen Vektor v V \ W. Betrachte v = hv, w1 i w1 + ... + hv, wm i wm =
m

hv, wi i wi

i =1

(v ist die senkrechte Projektion von v auf den Untervektorraum W). Dann ist w := v

4 s:

Standartskalarprodukt

39

Christopher und
Mareike

Skript zur Linearen Algebra II


*

wi i = hv, wi i hv,
wi i = hv, wi i
v wi i denn: hw,

v, w j w j , wi

j =1

= hv, wi i


v, w j wi , w j = hv, wi i hv, wi i = 0
| {z }
j =1

= j

Setze nun wm+1 := ||1ww


|| damit ist { w1 , ..., wm+1 } Orthonormalbasis vom spann { w1 , ..., wm+1 }.
Setze Verfahren fest bis # {wi } = dim V

5.2.4 Folgerung
Jeder endlich dimensionale euklidische oder unitre Vektorraum besitzt eine Orthonormalbasis.
Benutze Satz 5.2.3 mit W = {0}.

5.2.5 Beispiel

1
1
1
2

0 0 1 1

Gegeben sei das System 0 , 1 , 1 , 0 R5 .

0 0 0 2

0
0
2
3
Bestimme die Orthonormalbasis des von dem System erzeugten Untervektorraums.
1. Schritt

1
0

V1 :=
0
0
0
v1 = 0
2. Schritt
w1 = v1 v1 =
1
v
1
0

w1

w1 = ||w || =
0
1
0
0
Wegen v V \ W whle einen weiteren Vektor aus dem System. (Da sie von vornherein linear
unabhngig sind)


1
1
0
0


v2 =
1 ; v2 = hv2 , w1 i w1 = 0
0
0
0
0

40

Christopher und
Skript zur Linearen Algebra II
Mareike

0
0

w2 = v2 v2 =
1
0
0

0
0

2
1

w2 = ||w
=
w
=
2

w2 ||
0
0


1
1
0
1
1
0 0 0


v3 =
1 , v3 = hv3 , w1 i w1 + hv3 , w2 i w2 = 0 + 1 = 1
0
0 0 0
2
0
0
0


0
0
0
0


1

w3 = v3 v3 =
1 ; w3 = 5 1
0
0
2
2


2
10
1
7


7
1

v4 =
0 ; v4 = 2w1 + 0w2 + 5 w3 = 5 0
2
0
3
14


0
0
2
2
5
5
5

w4 = v4 v4 =
0 ; w4 = 105 0
2
2
1
5

1
5

5.3 Orthogonale und unitre Endomorphismen


5.3.1 Denition:
Sei V ein euklidischer bzw. unitrer Vektorraum mit f End(V ). f heit orthogonal bzw.
unitr, falls gilt: h f (v), f (w)i = hv, wi v, w V
Notiz:

f heit dann auch Isometrie.


h,i

V V K( R, C)
h,i

(f,f)

V VV V V VV V K( R, C)
f orth.

(v, w) 7 hv, wi)( = h f (v), f (w)i)


(v, w) 7 ( f (v), f (w)) 7 h f (v), f (w)i
f ist orthogonal bzw. unitr, wenn obiges Diagramm kommutiert.

41

Christopher und
Mareike

Skript zur Linearen Algebra II

5.3.2 Bemerkung
Fr orthogonale bzw. unitre Endomorphismen f End(V ) gilt:

v V

1. || f (v)|| = ||v||
2. v w

f (v) f (w)

3. f ist Isomorphismus
4. Ist K(= R, C) Eigenwert von f, so ist || = 1

Beweis
1. || f (v)|| =
2. v w

h f (v), f (v)i =

hv, vi = ||v||

0 = hv, wi = h f (v), f (w)i

f (v) f (w)

3. Aus (1): f injektiv, denn 0 = f (v) 0 = || f (v)|| = ||v||

v=0

4. Sei v Eigenvektor von f zum Eigenwert Mit (1) folgt:


||v|| = || f (v)|| = ||v|| = || ||v|| Da v 6= 0, ist || = 1

Beispiele
a) id: V V, v 7 v ist orthogonal bzw unitr
b) Sei V = R2 , f :
v, w R2 ,

R2 R2 , e1 7 e2 , e2 7 e1

v = v 1 e1 + v 2 e1 ,

w = w1 e1 + w2 e2

f ( v ) = v 1 e2 v 2 e1
f ( v ) = w1 e2 w2 e1

h f (v), f (w)i = v1 w1 + v2 w2 = ||v, w||

f ist orthogonal.

5.3.3 Lemma
Ist f End(V ) mit || f (v)|| = ||v||

v V, so ist f orthogonal bzw. unitr.

Beweis
Wegen || f (v)|| = ||v|| gilt stets h f (v), f (v)i = hv, vi
Die Behauptung folgt im reellen Fall aus
hv, wi = 12 (hv + w, v + wi hv, vi hw, wi)
ber C gilt:
hv, wi = 41 (hv + w, v + wi hv w, v wi + i hv + iw, v + iwi i hv iw, v iwi)
Sei V = Kn mit Standardskalarprodukt (Ms (h, i) = En ).
Sei A Mat(n n, K) und A sei orthogonal bzw. unitr als lineare Abbildung. D.h. x, y Kn
t x y = Ax, Ay =t ( Ax ) ( Ay ) =t x t AAy
h
i
Also:

tA

A = En (Auswertung fr x, y {e1 , ..., en })

42

Christopher und
Mareike

Skript zur Linearen Algebra II

t A = En, also A1 =t A

5.3.4 Denition: Matrix heit orthogonal/unitr


Eine Matrix A Gln (R) heit orthogonal, falls A1 =t A. Eine Matrix A Gln (C) heit
unitr, falls A1 =t A

5.3.5 Bemerkungen
1. Ist A Gln (C) unitr, so gilt:
|det A|2 = det A det A = det A det A = det A t det A = det( A t A) = det En = 1
Also: |det A| = 1
Analog fr A Gln (R)

|det A| = 1 also det A = 1.

2. Fr A Mat(n n, K) sind quivalent:


i) A ist orthogonal bzw. unitr
ii) die Spalten von A bilden eine Orthonormalbasis des Kn
iii) die Zeilen von A bilden eine Orthonormalbasis des Kn
zu (ii) t A A = En
zu (iii) A t A = En
3. Die Mengen O(n) = On (R) =

=t A}
A Gln (R)| |A1{z

A orth

(Menge aller orthogonalen


n nMatrizen)

und

1
t
U (n) = Un (C) = A Gln (C)| A = A
(Menge aller unitrern n nMatrizen) bilden jeweils eine Gruppe.

Dazu
En On (R)
A On ( R ) A 1 = t A
( A 1 ) 1 = A = t ( A 1 ) A 1 On ( R )
A, B On (R)
( AB)1 = B1 A1 =t Bt A =t ( AB)

AB On (R)

Die orthogonalen oder unitren Matrizen mit Determinante 1 bilden eine Untergruppe.
SO(n) = SOn (R) = { A On (R)| det A = 1}
SU (n) = SUn (C) = { A Un (C)| det A = 1}
On (R) heit orthogonale Gruppe (in n Dimensionen)
SOn (C) heit spezielle orthogonale Gruppe.
Un (C) heit unitre Gruppe
SUn (C) heit spezielle unitre Gruppe

43

Christopher und
Mareike

Skript zur Linearen Algebra II

Erinnerung
Eine Gruppe G ist eine Menge mit einer Verknpfung G G G, ( g, h) 7 gh sodass
gilt:
Es gibt ein neutrales Element e, d.h. ge = g = eg

g G

Verknfoung ist assoziativ


( gn)k = g(nk)
Existenz des Inversen: Fr jedes g G
Notation: h g = g1

44

h g G mit g h g = e = h g g