Sie sind auf Seite 1von 89

Kapitel 1

Lineare Gleichungssysteme und


Matrizen
1.1 Lineare Gleichungssysteme und Matrizen
Denition 1.1.1. Seien m, n N.
Eine reelle m-mal-n-Matrix A = (a
ij
)
1im
1jn
= (a
ij
) ist eine Familie reeller
Zahlen a
11
, a
12
, . . . , a
1n
, a
21
, a
22
, . . . , a
2n
, . . . , a
m1
, . . . , a
mn
R.
Die Menge aller reellen m-mal-n-Matrizen bezeichnen wir mit
m
R
n
.
Wir wollen uns eine m-mal-n-Matrix stets als ein rechteckiges Zahlenschema
vorstellen:
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
Klarstellung: Wir wissen nicht so genau, was eine Familie ist. Es soll aber (im
Gegensatz zur Gleichheit von Mengen von Zahlen) jedenfalls folgendes gelten:
Zwei Matrizen A = (a
ij
)
m
R
n
und B = (b
ij
)
p
R
q
sind genau dann gleich,
wenn sie das gleiche Format, und Stelle f ur Stelle dieselben Eintrage haben, also
genau dann wenn gilt m = p und n = q und 1 i m1 j n[a
ij
= b
ij
].
Spezialfalle: Die Elemente von
m
R :=
m
R
1
heien Spaltenvektoren der Lange
m. Wir schreiben nat urlich nur einen Index an die Koezienten, etwa a =
_
_
_
_
_
a
1
a
2
.
.
.
a
m
_
_
_
_
_

m
R.
Die Elemente von R
n
:=
1
R
n
heien Zeilenvektoren der Lange n, etwa a =
(a
1
a
2
. . . a
n
) = (a
1
, a
2
, . . . , a
n
) R
n
.
1
2 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Ein typisches Lineares Gleichungssystem sieht so aus:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
.
Die drei verschiedenen Sorten Groen hierin haben die Gestalt einer m-mal-n-
Matrix A
m
R
n
von Koezienten, eines Spaltenvektors b
m
R der Lange m,
und (am wenigsten einleuchtend, weil die xe ja nebeneinander liegen) eines Spal-
tenvektors x
n
R von Unbekannten. Die Multiplikation von Matrizen wird (aus
der Luft gegrien!) so deniert, da sich diese m Gleichungen f ur n Unbekannte,
die jeweils als b
i
=
n

j=1
a
ij
x
j
daherkommen, in der Kurzform Ax = b schreiben
lassen.
Denition 1.1.2. Seien m, n, p N, A = (a
ij
)
m
R
n
und B = (b
ij
)
n
R
p
.
Wir denieren eine neue Matrix AB
m
R
p
, das Produkt von A und B, wie
folgt: AB := (c
ij
)
m
R
p
, wobei wir f ur 1 i m und 1 j n denieren:
c
ij
:=
n

k=1
a
ik
b
kj
Beispiele und Erlauterungen 1.1.3. Zunachst beobachtet man, da im Falle
p = 1, also B =: x =
_
_
_
x
1
.
.
.
x
n
_
_
_

n
R, tatsachlich erreicht ist, da das Produkt Ax
die Koezienten
n

k=1
a
ik
x
k
hat.
Die das Produkt denierende Formel ist noch f ur die einfachsten Beispiele
zum

von Hand Rechnen unbrauchbar. Man

mu sich das folgende Schema


(das man eigentlich nur mit wildem Armerudern erklaren kann) vorstellen, um
etwas rechnen zu konnen: AB = C

geht so:
_
_
_
b
11
. . . b
1j
. . . b
1p
.
.
.
.
.
.

.
.
.
.
.
.
b
n1
. . . b
nj
. . . b
np
_
_
_
_
_
_
_
_
_
_
a
11
. . . a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
in
.
.
.
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
c
11
. . . . . . c
1p
.
.
.
.
.
.

.
.
.
.
.
.
c
ij
.
.
.
.
.
.
.
.
.
.
.
.
c
m1
. . . . . . c
mp
_
_
_
_
_
_
_
1.1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN 3
Schreibt man also die drei Matrizen (die zwei Faktoren und das Produkt) wie
angedeutet neben- und ubereinander, dann wird ein Koezient im Produkt C
aus der Zeile in A und der Spalte in B gebildet, die sich in diesem Koezienten

treen oder

schneiden. Was an diese Stelle genau kommt: Die Summe der


Produkte von einem Eintrag aus A und einem aus B, wobei die Spaltennummer
in A gleich der Zeilennummer in B ist.
Ein beliebiges Beispiel:
_
_
_
_
1 2
2 1
0 1
2 2
_
_
_
_
_
2 3 1
1 0 2
_
=
_
_
_
_
0 3 3
3 6 0
1 0 2
6 6 6
_
_
_
_
Ein besonders gemeines Beispiel:
_
1 2 3
_
_
_
4
5
6
_
_
= 32 R =:
1
R
1
, aber
_
_
4
5
6
_
_
_
1 2 3
_
=
_
_
3 6 9
4 8 12
5 10 15
_
_

3
R
3
.
Klarstellung: Wenn die Spaltenzahl von A nicht mit der Zeilenzahl von B uber-
einstimmt, dann ist das Produkt AB nicht deniert, man kann auch beim besten
Willen keine vern unftige Denition geben. Zum Beispiel ist also
_
1 2 3
_
_
4
5
_
nicht deniert, wahrend
_
4
5
_
_
1 2 3
_
=
_
3 6 9
4 8 12
_

2
R
3
.
In den Beispielen kam schon der folgende Spezialfall vor: Ist A =
_
a
1
a
2
. . . a
n
_

R
n
ein Zeilenvektor, und B =
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_

n
R ein Spaltenvektor, dann ist das Pro-
dukt AB eine Zahl, namlich AB =
n

i=1
a
i
b
i
, die Summe der paarweisen Produkte
eines Eintrags aus A mit dem Eintrag aus B zu demselben Index.
Seien nun A = (a
ij
)
m
R
n
und B = (b
ij
)
n
R
p
.
Die Zeilenvektoren z
1
, . . . , z
m
R
n
mit z
i
=
_
a
i1
a
i2
. . . a
in
_
nennen wir
die Zeilen von A, und schreiben auch A =
_
_
_
_
_
z
1
z
2
.
.
.
z
m
_
_
_
_
_
.
Die Spaltenvektoren s
1
, . . . , s
p

n
R mit s
j
=
_
_
_
_
_
b
1j
b
2j
.
.
.
b
nj
_
_
_
_
_
nennen wir die Spalten
4 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
von B, und schreiben auch B =
_
s
1
s
2
. . . s
p
_
.
Damit ergeben sich die folgenden Beobachtungen f ur das Produkt AB:
AB =
_
_
_
_
_
z
1
s
1
z
1
s
2
. . . z
1
s
p
z
2
s
1
z
2
s
2
. . . z
2
s
p
.
.
.
.
.
.
.
.
.
.
.
.
z
m
s
1
z
m
s
2
. . . z
m
s
p
_
_
_
_
_
=
_
As
1
As
2
. . . As
p
_
=
_
_
_
_
_
z
1
B
z
2
B
.
.
.
z
m
B
_
_
_
_
_
Satz 1.1.4. Seien m, n, p, q N, A
m
R
n
, B
n
R
p
und C
p
R
q
. Dann gilt
A(BC) = (AB)C.
Beweis. (Hauptarbeit des Beweises ist es, Bezeichnungen f ur alle Beteiligten ein-
zuf uhren.)
Sei A = (a
ij
), B = (b
ij
), C = (c
ij
). Wir schreiben AB = (x
ij
)
m
R
p
,
BC = (y
ij
)
n
R
q
, (AB)C = (r
ij
)
m
R
q
und A(BC) = (s
ij
)
m
R
q
. Wir wollen
zeigen: r
ij
= s
ij
f ur alle i, j.
Denitionsgema gelten
1 i m1 k p: x
ik
=
n

j=1
a
ij
b
jk
1 j n1 q : y
j
=
p

k=1
b
jk
c
k
also weiter, 1 i m1 q
r
i
=
p

k=1
x
ik
c
k
=
p

k=1
_
n

j=1
a
ij
b
jk
_
c
k
=
p

k=1
n

j=1
a
ij
b
jk
c
k
s
i
=
n

j=1
a
ij
y
j
=
n

j=1
a
ij
_
p

k=1
b
jk
c
k
_
=
n

j=1
p

k=1
a
ij
b
jk
c
k
.
Die jeweils letzte Umformung macht dabei vom Distributivgesetz f ur reelle Zahlen
Gebrauch. Die beiden Endergebnisse sind gleich, weil es auf die Reihenfolge der
Summanden nicht ankommt.
Denition und Satz 1.1.5. Sei n N. Die n-mal-n-Einheitsmatrix E
n

n
R
n
ist deniert durch
E
n
= (
ij
)
1in
1jn

n
R
n
, mit
ij
:=
_
1 falls i = j
0 sonst,
also
E
n
=
_
_
_
_
_
_
_
1 0 . . . . . . 0
0 1 0 . . . 0
.
.
. 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 0
0 . . . . . . 0 1
_
_
_
_
_
_
_
1.1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN 5
(mit Einsen auf der Diagonalen, Nullen uberall sonst).

ij
wird in dieser Bedeutung auch als Kronecker-Symbol bezeichnet.
Es gilt f ur alle m, n N und A
m
R
n
:
AE
n
= A = E
m
A.
Beweis. Wieder sei A = (a
ij
), und AE
n
= (b
ij
). Es gilt
b
ij
=
n

k=1
a
ik

kj
= a
ij
,
denn wegen der Denition des Kronecker-Symbols sind alle Summanden gleich
Null, auer dem einen, f ur den der Summationsindex k gerade den Wert j an-
nimmt. Dieser Summand ist (weil
jj
= 1) aber eben a
ij
. Der Beweis der anderen
Formel geht ganz analog.
Denition 1.1.6. Seien m, n N.
F ur A = (a
ij
)
m
R
n
, B = (b
ij
)
m
R
n
und R denieren wir
A +B := (a
ij
+b
ij
)
1im
1jn
A := (a
ij
)
1im
1jn
A := (1)A = (a
ij
)
A B := A + (1)B = (a
ij
b
ij
)
Weiter denieren wir 0
m
R
n
als die Matrix, deren Koezienten samtlich gleich
Null sind.
Satz 1.1.7. Seien m, n N, A, B, C
m
R
n
und , R.
Dann gelten:
A +B = B +A
A + (B +C) = (A +B) +C
A + 0 = A
A A = 0
0 A = 0
(A +B) = A +B
( +)A = A +A
()A = (A)
1 A = A
Beweis. Klar!
6 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Satz 1.1.8. Seien m, n, p, q N, A
m
R
n
, B, C
n
R
p
, D
p
R
q
und R.
Dann gelten
A(B +C) = AB +AC
(B +C)D = BD +CD
(A)B = (AB) = A(B)
A 0 = 0 = 0 A
Beweis. Seien A = (a
ij
), B = (b
ij
), C = (c
ij
), AB = (x
ij
), AC = (y
ij
), B +C =
(z
ij
), A(B +C) = (r
ij
) und AB +AC = (s
ij
). Dann ist
r
ij
=
n

k=1
a
ik
z
kj
=
n

k=1
a
ik
(b
kj
+c
kj
) =
n

k=1
(a
ik
b
kj
+a
ik
c
kj
)
=
n

k=1
a
ik
b
kj
+
n

k=1
a
ik
c
kj
= x
ij
+y
ij
= s
ij
f ur alle 1 i m und 1 j p.
Das beweist A(B +C) = AB +AC. Die zweite Formel beweist man genauso.
Mit (AB) = (r
ij
) und A(B) = (s
ij
) ist
r
ij
=
n

k=1
a
ik
b
kj
=
n

k=1
a
ik
(b
kj
) = s
ij
also (AB) = A(B). Die Gleichung (AB) = (A)B beweist man genauso. Die
letzte Gleichung ist banal.
Denition 1.1.9. Ein lineares Gleichungssystem ist die folgende Aufgabe: Ge-
geben sind eine m-mal-n-Matrix A
m
R
n
(genannt Koezientenmatrix) und ein
Spaltenvektor b
m
R der Lange m (genannt rechte Seite).
Gesucht sind alle x
n
R mit Ax = b.
Wir nennen L(A, b) := {x
n
R|Ax = b} den Losungsraum des LGS.
Falls b = 0, nennen wir das LGS homogen, anderenfalls inhomogen. Das LGS
Ax = 0 heit das zu Ax = b gehorige homogene LGS.
Ein homogenes lineares Gleichungssystem hat stets mindestens eine Losung,
namlich x = 0. Diese nennen wir die triviale Losung.
Folgerung 1.1.10. Seien m, n N, A
m
R
n
und b
m
R.
(1) x, y L(A, 0) R[x +y L(A, 0) x L(A, 0)].
(2) Falls x
0
L(A, b), ist L(A, b) = x
0
+L(A, 0) := {x
0
+x|x L(A, 0)}.
Die letzte Aussage lautet in Worten: Wenn eine Losung des inhomogenen Sy-
stems Ax = b bekannt ist, dann erhalt man jede Losung, indem man zu dieser
sogenannten partikularen Losung eine beliebige Losung des homogenen Systems
addiert.
1.2. ZUSAMMENGEW

URFELTE BEISPIELE 7
Beweis. Zu (1): Ax = 0Ay = 0 A(x+y) = Ax+Ay = 0, A(x) = (Ax) = 0.
Zu (2): Um die Gleichheit von Mengen zu beweisen, zeigen wir, da beide
Mengen dieselben Elemente haben.
Sei also y L(A, b). Wir setzen x := y x
0
, so da also y = x
0
+ x. Weil
Ax = A(y x
0
) = Ay Ax
0
= b b = 0, ist x L(A, 0).
Sei umgekehrt y x
0
+ L(A, 0), etwa y = x
0
+ x mit x L(A, 0). Dann ist
Ay = A(x
0
+x) = Ax
0
+Ax = b + 0 = b, also y L(A, b).
1.2 Zusammengew urfelte Beispiele
Vorbemerkung: Dank dem Assoziativgesetz f ur die Matrizenmultiplikation sind
f ur A
n
R
n
die Potenzen A
k
, k N, erklart. Die meisten Beispiele in diesem
Abschnitt zeigen, wie solche Potenzen

im wirklichen Leben auftreten.


Denition 1.2.1. Ein gerichteter Graph ist ein Paar G = (V, E) von Mengen,
wobei jedes Element von E ein Paar von Elementen von V ist.
[Klarstellung am Rande: Ein Paar (x, y) soll ein Konstrukt sein mit der Ei-
genschaft (x, y) = (a, b) x = a y = b.]
Die Elemente von V heien die Ecken (engl. vertices) des Graphen, die Ele-
mente von E heien die Kanten (engl. edges). F ur (v, v

) E sagen wir auch: In


dem Graphen gibt es einen Pfeil, oder eine Kante, von v nach v

.
Beispielsweise ist
1
GG

3
GG
4
yy
der Graph mit V = {1, 2, 3, 4}, E = {(1, 2), (1, 3), (2, 3), (3, 4), (4, 2)}.
Die Adjazenzmatrix eines Graphen G = (V, E) mit V = {1, . . . , n} ist die
Matrix A = (a
ij
)
n
R
n
mit
a
ij
=
_
1 falls (i, j) E
0 sonst.
Im obigen Beispiel also A =
_
_
_
_
0 1 1 0
0 0 1 0
0 0 0 1
0 1 0 0
_
_
_
_
.
Ein Weg in G von v
0
nach v

der Lange ist eine Abfolge von Ecken (v


0
, . . . , v

)
mit (v
i
, v
i+1
) E f ur i = 0, . . . , 1. Im obigen Beispiel ist etwa (1, 2, 3, 4, 2) ein
Weg von 1 nach 2 der Lange 4.
8 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Satz 1.2.2. Sei G = (V, E) ein Graph mit Eckenmenge V = {1, . . . , n} und
Adjazenzmatrix A = (a
ij
). Bezeichne a
()
ij
die Anzahl der Wege von i nach j der
Lange . Dann gilt f ur alle N:
A

= (a
()
ij
)
1in
1jn
Beweis. Wir beweisen die Behauptung durch vollstandige Induktion uber .
Der Fall = 1 ist die Denition der Adjazenzmatrix.
Sei die Behauptung f ur Wege der Lange schon bekannt. Wir zahlen Wege
der Lange + 1 von i nach k wie folgt:
F ur jede Ecke j zahlen wir die Wege der Lange von i nach j. Das sind a
()
ij
St uck.
Alle Wege der Lange +1 ergeben sich aus einem Weg der Lange , gefolgt
von einer letzten Kante. Wir m ussen also die Anzahlen aller in i startenden
Wege der Lange aufsummieren, aber nur derjenigen, deren letzte Ecke
weiter nach k verbunden werden kann.
a
(+1)
ik
=

j mit
(j,k)E
a
()
ij
=
n

j=1
a
()
ij
a
jk
Wir erkennen die Formel f ur ein Produkt von Matrizen. Da a
()
ij
die Koe-
zienten von A

sind, sind a
(+1)
ik
also die Koezienten von A
+1
.
Beispiel 1.2.3. (Unsterbliche Hasen...)
Wir betrachten folgendes Modell der Entwicklung einer Hasenpopulation: Im
ersten Lebensjahr sind Hasen noch nicht erwachsen. Wenn sie ab dem zweiten
Lebensjahr erwachsen sind, dann wirft jedes Hasenpaar jedes Jahr ein Paar Junge.
Hasen sterben nie!
Wie entwickelt sich die Hasenpopulation im Lauf der Jahre?
Wir bezeichnen mit a
(1)
n
die Anzahl der Hasenpaare im ersten Lebensjahr, und
mit a
(2)
n
die Anzahl der erwachsenen Hasenpaare, jeweils im Jahr Nummer n.
Es gelten die Rekursionsformeln a
(1)
n+1
= a
(2)
n
(es gibt f ur jedes im Jahr n
erwachsene Hasenpaar ein Paar Junge im nachsten Jahr), und a
(2)
n+1
= a
(2)
n
+a
(1)
n
(denn zu den schon im Jahr n erwachsenen Hasenpaaren kommen im folgenden
Jahr noch die erwachsen gewordenen Junghasen des Jahres n hinzu).
In Matrixform ist also
_
a
(1)
n+1
a
(2)
n+1
_
= A
_
a
(1)
n
a
(2)
n
_
mit A =
_
0 1
1 1
_
.
1.2. ZUSAMMENGEW

URFELTE BEISPIELE 9
Die Hasenpopulation im Jahr n wird damit durch
_
a
(1)
n
a
(2)
n
_
= A
n1
_
a
(1)
1
a
(2)
1
_
beschrieben.

Weil die Hasen in unserem Modell nicht sterben, ist es einfach, die Ent-
wicklung auf andere Art zu beschreiben: Wir f uhren hier nur Buch uber die
Gesamtzahl a
n
der Hasenpaare im Jahr n. Die Zahl der im Jahr n erwachsenen
Hasen ist einfach die Gesamtzahl der Hasen, die schon im Jahr zuvor da waren.
Damit ergibt sich die Formel a
n+2
= a
n+1
+ a
n
, denn im Jahr n + 2 kommen zu
den a
n+1
Hasenpaaren des Vorjahres noch die von den erwachsenen, also schon
im Jahr n vorhandenen Hasenpaaren geborenen Junghasen hinzu.
Die Folge a
1
, a
2
, a
3
, a
4
, . . . ist vollstandig durch die Rekursionsformel und die
Angabe von a
1
, a
2
festgelegt. Die Rekursionsformel lat sich auch als
_
a
n+1
a
n+2
_
= A
_
a
n
a
n+1
_
schreiben, zufallig mit derselben Matrix A wie oben.
Der Spezialfall a
1
= a
2
= 1 heit auch Fibonacci-Folge. Die Folge startet so:
1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, . . .
Es ist oensichtlich, da es sich nicht um einen exponentiellen Anstieg han-
delt (wo man doch sagen w urde, da sich Hasen sicher exponentiell vermehren...),
sondern um etwas ausgesprochen un ubersichtliches. Die Frage nach der Entwick-
lung der Population ist wieder die Frage nach den Potenzen von A. (Hierzu gibt
es ein Computerexperiment und eine

Ubungsaufgabe!)
Denition 1.2.4. Ein stochastischer Vektor ist ein (Spalten)vektor x = (x
i
)
n
R mit
n

i=1
x
i
= 1 und 1 i n[0 x
i
] (damit ist nat urlich automatisch
x
i
1).
Insbesondere sind die kanonischen Einheitsvektoren Wahrscheinlichkeitsvek-
toren.
Deutung: Die Indizes 1 {1, . . . , n} numerieren die moglichen Zustande eines
Systems; ein Wahrscheinlichkeitsvektor listet die Wahrscheinlichkeiten auf, da
sich das System in dem jeweiligen Zustand bendet. Die kanonischen Einheits-
vektoren stellen ein System dar, das mit Sicherheit in einem bestimmten Zustand
ist.
Beispiel 1.2.5. Beispielsweise n = 3, x
1
die Wahrscheinlichkeit, da es am
24.12.2001 in M unchen schneit, x
2
die Wahrscheinlichkeit, da es nicht schneit,
10 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
aber schon Schnee liegt, x
3
die Wahrscheinlichkeit, da es weder schneit, noch
Schnee liegt. (Das ist ein schlechtes Beispiel, da man Einzelereignissen nicht so
ohne weiteres eine Wahrscheinlichkeit zuschreiben kann, aber wir lassen mal f unfe
gerade sein...)
F ur das Wetter in den letzten Jahren im Dezember mogen folgende rein hypo-
thetischen Beobachtungen vorliegen: Wenn es an einem gegebenen Tag schneit,
dann ist das mit 20-prozentiger Wahrscheinlichkeit auch noch am folgenden Tag
so, mit 70-prozentiger Wahrscheinlichkeit schneit es dann nicht mehr, aber es liegt
Schnee, mit 10-prozentiger Wahrscheinlichkeit ist kein Schnee am Boden und in
der Luft. Wenn es an einem gegebenen Tag nicht schneit, aber Schnee liegt, dann
ist es am folgenden Tag mit 80-prozentiger Wahrscheinlichkeit immer noch so,
mit je 10-prozentiger Wahrscheinlichkeit schneit es, oder es ist alles getaut, und
es schneit nicht. Schneit es schlielich an einem gegebenen Tag nicht, und liegt
auch kein Schnee, dann liegt am folgenden Tag sicher kein Schnee, ohne da es
schneit. Immerhin besteht aber eine Chance von 20 Prozent, da es dann schneit.
Das lat sich so ausdr ucken: Ist x
3
R der Wahrscheinlichkeitsvektor, der die
Wahrscheinlichkeiten f ur die drei moglichen

Schneelagen an einem gegebenen


Tag ausdr uckt, dann ist Ax, mit A =
_
_
0, 2 0, 1 0, 2
0, 7 0, 8 0
0, 1 0, 1 0, 8
_
_
, die Wahrscheinlichkeits-
verteilung f ur den folgenden Tag.
Denition 1.2.6. Eine Matrix A
n
R
n
heit stochastische Matrix, wenn die
Spalten von A Wahrscheinlichkeitsvektoren sind.
Sei A
n
R
n
eine stochastische Matrix, und x
n
R ein Wahrscheinlichkeits-
vektor. Dann heit die Folge der Wahrscheinlichkeitsvektoren A
k
x, k = 1, 2, . . . ,
ein Markov-Proze.
Deutung: Eine stochastische Matrix beschreibt die Entwicklung des betrach-
teten Systems in einer Zeiteinheit, die Potenzen der Matrix beschreiben die Ent-
wicklung nach Ablauf mehrerer Zeiteinheiten. Der Koezient in der i-ten Zeile
und j-ten Spalte ist die bedingte Wahrscheinlichkeit, da sich das System, falls es
sich zu einem Zeitpunkt im Zustand j befunden hat, sich nach Ablauf einer Zeit-
einheit im Zustand i bendet. Nach den (uns formal nat urlich nicht bekannten)
Rechenregeln f ur bedingte Wahrscheinlichkeiten ist dann die Wahrscheinlichkeit,
nach einem Zeitschritt im Zustand i anzukommen, tatsachlich durch
n

j=1
a
ij
x
j
gegeben, wenn die x = (x
i
) die zuvor gegebene Wahrscheinlichkeitsverteilung
war. Der j-te Summand ist die Wahrscheinlichkeit f ur

erst j, und dann i.


An dem Schneebeispiel haben wir mit Maple-Hilfe den folgenden Satz

be-
obachtet, den zu beweisen aber bei weitem unsere Moglichkeiten sprengt (mal
abgesehen davon, da wir nicht wissen, was ein Limes ist):
1.2. ZUSAMMENGEW

URFELTE BEISPIELE 11
Satz 1.2.7. Sei A
n
R
n
eine stochastische Matrix, so da ein N existiert so
da alle Koezienten von A

von Null verschieden sind.


Dann gibt es einen Wahrscheinlichkeitsvektor s
n
R so da
lim
k
A
k
= (s, s, . . . , s)
die Matrix ist, deren Spalten alle = s sind.
Weiter ist s der eindeutig bestimmte Wahrscheinlichkeitsvektor, der die Glei-
chung As = s lost.
Beispiel 1.2.8 (Input-Output-Matrizen). Wir betrachten eine Anzahl von
G utern (Waren, Dienstleistungen), durchnumeriert von 1 bis n. Einen Vektor
x = (x
i
)
n
R deuten wir als Mengenangaben f ur diese G uter.
Durch eine Matrix A = (a
ij
)
n
R
n
beschreiben wir, wieviel von den jeweiligen
G utern benotigt wird, um ein gewisses dieser G uter herzustellen. Der Koezient
a
ij
gibt an, wieviel von Gut Nummer i bei der Produktion von einer Einheit von
Gut Nummer j verbraucht wird.
Beispielsweise betrachten wir die Produktion von Stahl. Zur Produktion ei-
ner Tonne Stahl mogen drei Tonnen Steinkohle benotigt werden, zur Forderung
von einer Tonne Steinkohle wiederum 100 kg Stahl (in Form des Verbrauchs
von Geraten). Wir numerieren in der Reihenfolge 1. Kohle, 2. Stahl. Die Ma-
trix A =
_
0 3
0, 1 0
_
beschreibt den zur Produktion notigen Verbrauch: Um x zu
produzieren, wird Ax verbraucht. Matrizen wie
_
0, 1 3
0, 1 0, 1
_
sind qualitativ plau-
sibler (schlielich wird auch bei der Stahlproduktion wieder Stahl verbraucht...).
In der

Okonomie sind Modelle mit weitaus mehr G utern gebrauchlich, verwandte
Matrizen werden f ur ganze Volkswirtschaften erstellt (mit einigen hundert Zeilen
und Spalten).
Eine Fragestellung f ur das obige Modell: Wieviel mu produziert werden, wenn
1000t Stahl verkauft werden sollen? Im einfachsten Beispiel oben m ussen dazu
3000t Steinkohle bereitgestellt werden, f ur deren Forderung wiederum 300t Stahl
verbraucht werden, zu dessen Produktion 900t Steinkohle notig waren, zu de-
ren Forderung 90t Stahl gebraucht werden, zu dessen Produktion 270t Steinkoh-
le....Insgesamt sind wir soweit schon bei 1390t Stahl und 4170t Steinkohle, und es
ist klar, da sich die Rechnung im Prinzip beliebig fortsetzt, allerdings absehbar
mit immer kleineren, am Ende bedeutungslosen Mengen.
Etwas formaler: Um b
n
R zu verkaufen mu nat urlich b produziert werden,
aber zusatzlich wird Ab benotigt, zur Produktion von Ab wiederum A
2
b, zur
Produktion von A
2
b zusatzlich A
3
b, und so weiter, insgesamt
x := b +Ab +A
2
b + =

k=0
A
k
b
12 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
(was immer das formal heien mag.)
[Mit ein bichen Maple haben wir dazu ein paar Zahlenbeispiele angeschaut,
auch ein Beispiel, A =
_
0, 2 4
0, 2 0, 2
_
, bei dem die Potenzen von A immer groer
werden, und im Endeekt nichts verkauft werden kann].
Die exakte Bestimmung von x (ohne Grenzwert) lauft so: Wir betrachten
(informell!!)
x = b +Ab +A
2
b +A
3
b +. . .
Ax = Ab +A
2
b +A
3
b +. . .
x Ax = b +0 +0 +0 +. . .
und schlieen daraus, da die gesuchte notige Gesamtproduktion x
n
R sich als
Losung des LGS (E
n
A)x = b ergibt.
1.3 Das Gausche Eliminationsverfahren
Denition 1.3.1. Eine m-mal-n-Matrix A
m
R
n
hat Zeilenstufenform, mit r
Stufen an den Stellen j
1
, . . . , j
r
{1, . . . , n}, mit j
1
< j
2
< < j
r
, wenn gelten:
i {1, . . . , r}[a
i,j
i
= 0] und
i {1, . . . , m}j {1, . . . , n}[a
ij
= 0 i k j j
i
]
Wir wollen vereinbaren, da auch A = 0 eine Zeilenstufenmatrix (mit Null Stufen)
ist.
Denition 1.3.2. Seien A
m
R
n
und b
m
R. Die Matrix (A, b)
m
R
n
heit
die erweiterte Matrix des LGS Ax = b.
Satz 1.3.3. Seien A
m
R
n
und b
m
R. Wir nehmen an, da die erweiterte
Matrix (A, b) Zeilenstufenform mit r Stufen an den Stellen j
1
, . . . , j
r
hat.
(1) Wenn r = 0 und j
r
= n + 1, dann hat Ax = b keine Losung.
(2) Wenn r = 0, dann erf ullt jedes x
n
R das LGS Ax = b.
(3) Sei r = 0 und j
r
n. Sei d := n r, und sei {1, . . . , n} \ {j
1
, . . . , j
r
} =
{k
1
, . . . , k
d
} mit k
1
< k
2
< < k
d
. Dann gibt es f ur jede Wahl von
t
1
, . . . , t
d
R genau eine Losung x = (x
i
)
n
R von Ax = b mit der
Eigenschaft
1 i d[x
k
i
= t
i
].
Die Koezienten von x konnen in absteigender Reihenfolge x
n
, x
n1
, . . . , x
1
wie folgt berechnet werden: F ur jedes j {1, . . . , n} ist nach unseren Be-
nennungen entweder j = k
i
f ur ein eindeutig bestimmtes i {1, . . . , d},
1.3. DAS GAUSSSCHE ELIMINATIONSVERFAHREN 13
oder j = j
i
f ur ein eindeutig bestimmtes i {1, . . . , r}. Nun setzen wir
x
j
:=
_
t
i
falls j = k
i
1
a
i,j
i
_
b
i

n
=j
i
+1
a
i
x

_
falls j = j
i
Beweis. Zu (1): Die r-te Gleichung des Systems lautet 0 = b
r
, und es ist b
r
= 0
nach Voraussetzung. (2) ist banal.
Nun zu (3). Wir wahlen t
1
, . . . , t
d
aus. Es sind Existenz und Eindeutigkeit der
Losung zu beweisen.
Zur Existenz: Wir denieren den Vektor x wie angegeben. Die r + 1-te bis
m-te Gleichung des LGS lauten 0 = 0 und sind also erf ullt. F ur 1 i r ist
n

=1
a
i
x

= a
i,j
i
x
j
i
+
n

=j
i
+1
a
i
x

= a
i,j
i
1
a
i,j
i
_
b
i

=j
i
+1
a
i
x

_
+
n

=j
i
+1
a
i
x

= b
i
also ist Ax = b. Auerdem gilt x
k
i
= t
i
nach Denition.
Zur Eindeutigkeit: Sei auch x

= (x

j
) eine Losung mit x

k
i
= z
i
f ur alle i
{1, . . . , d}. Angenommen x

= x. Dann gibt es einen groten Index j {1, . . . , n}


mit x

j
= x
j
. Zwangslaug ist j {k
1
, . . . , k
d
}. Also gibt es i {1, . . . , r} mit
j = j
i
. Aus
b
i
=
n

=1
a
i
x

t
= a
i,j
i
x
j
i
+
n

=j
i
+1
a
i
x

folgt
x

j
i
=
1
a
i,j
i
_
b
i

=j
i
+1
a
i
x

_
=
1
a
i,j
i
_
b
i

=j
i
+1
a
i
x

_
= x
j
i
,
ein Widerspruch.
Wir fahren nochmal fort in den Bezeichnungen des vorhergehenden Satzes.
Zusatzlich nehmen wir d = 0 an.
Sei T =
_
_
_
e
k
1
.
.
.
e
k
d
_
_
_

d
R
n
, wobei hier e
k
1
, . . . , e
k
d
R
n
kanonische Einheitszei-
lenvektoren sind. Dann ist f ur x = (x
i
)
n
R Tx = (x
k
i
)
1id
, also sagt der
Satz: F ur jedes t
d
R existiert genau ein x L(A, 0) mit Tx = t. Insbeson-
dere gibt es x
(1)
, . . . , x
(d)
L(A, 0) so da Tx
(i)
= e
i

d
R f ur 1 i d. Wir
setzen L = (x
(1)
, . . . , x
(d)
)
n
R
d
. Dann gilt AL = (Ax
(1)
, . . . , Ax
(d)
) = 0 und
TL = (Tx
(1)
, . . . , Tx
(d)
) = (e
1
, . . . , e
d
) = E
d
. Ist also t
d
R, dann ist die ein-
deutig bestimmte Losung x L(A, 0) mit Tx = t gegeben durch x = Lt, denn
ALt = 0, und TLt = E
d
t = t. Weil f ur t = (t
i
)
d
R gilt t =

d
i=1
t
i
e
i
, folgt
Lt = L(

t
i
e
i
) =

t
i
Le
i
=

t
i
x
(i)
. Sind andererseits auch
1
, . . . ,
d
R mit
14 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Lt =

i
x
(i)
, dann folgt (t
i
)
1id
= t = TLt = T(

i
x
(i)
) =

i
Tx
(i)
=

i
e
i
= (
i
)
1id
, und es folgt
i
= t
i
f ur alle i. Wir haben damit den Fall d = 0
des folgenden Satzes bewiesen, der Fall d = 0 ist trivial, wenn man ihn richtig
liest.
Satz 1.3.4. Sei A
m
R
n
eine Zeilenstufenmatrix mit r Stufen an den Stellen
j
1
, . . . , j
r
, d = n r. Dann gibt es Vektoren x
(1)
, . . . , x
(d)
L(A, 0) dergestalt,
da sich jedes x L(A, 0) in der Form x =

d
i=1

i
x
(i)
f ur eindeutig bestimmte

1
, . . . ,
d
R schreiben lat.
Sind noch b
m
R und x
(0)
eine partikulare Losung des Gleichungssystems
Ax = b, dann lat sich jede andere Losung x

in der Form x

= x
(0)
+

d
i=1

i
x
(i)
f ur eindeutig bestimmte
1
, . . . ,
d
R schreiben.
Denition 1.3.5. Eine elementare Zeilenumformung ist eine der folgenden Ma-
nipulationen an einer Matrix A
m
R
n
:
(1) Addieren des -fachen der i-ten Zeile zur j-ten Zeile, mit i, j {1, . . . , m},
i = j, und R.
(2) Multiplizieren der i-ten Zeile mit R \ {0}.
(3) Vertauschen zweier Zeilen von A.
Sind z
1
, . . . , z
m
R
n
die Zeilen von A, ersetzen also die elementaren Zeilenum-
formungen A durch, respektive
_
_
_
_
_
_
_
z
1
.
.
.
z
j
+z
i
j
.
.
.
z
m
_
_
_
_
_
_
_
_
_
_
_
_
_
_
z
1
.
.
.
z
i
i
.
.
.
z
m
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
z
1
.
.
.
z
j
i
.
.
.
z
i
j
.
.
.
z
m
_
_
_
_
_
_
_
_
_
_
_
_
(wobei f ur die letzte Umformung die Zeilen i und j mit i < j vertauscht werden).
Zwei Matrizen A, A


m
R
n
heien zeilenaquivalent, wir schreiben auch A
A

, wenn es Matrizen A
0
, . . . , A
k
mit A = A
0
, A
k
= A

gibt, so da jeweils A
+1
aus A

durch eine elementare Zeilenumformung hervorgeht.


Man beobachtet sogleich, da jede elementare Zeilenumformung durch eine
elementare Zeilenumformung r uckgangig gemacht werden kann; das gleiche gilt
dann nat urlich auch f ur hintereinander ausgef uhrte Zeilenumformungen, so da
A A

A.
Satz 1.3.6. Seien A, A


m
R
n
und b, b


m
R so da (A, b) (A

, b

). Dann ist
L(A, b) = L(A

, b

).
1.3. DAS GAUSSSCHE ELIMINATIONSVERFAHREN 15
Beweis. Es gen ugt, den Fall zu betrachten, da (A

, b

) durch eine einzige ele-


mentare Zeilenumformung aus (A, b) hervorgeht. Auerdem gen ugt es, L(A, b)
L(A

, b

) zu zeigen.
Wir nennen die Zeilen von A wieder z
1
, . . . , z
m
, und schreiben b = (b
i
). Das
LGS Ax = b lautet etwas expliziter 1 i m[z
i
x = b
i
]. Sei x L(A, b). Weiter
bezeichnen wir die Zeilen von A

mit z

i
, die Koezienten von b

mit b

i
, so da
A

x = b

genauer 1 i m[z

i
x = b

i
] bedeutet.
Werden bei der Umformung zwei Zeilen vertauscht, andert sich nur die Rei-
henfolge der Gleichungen. Wird die i-te Zeile mit R \ {0} multipliziert, so
andert sich lediglich die i-te Gleichung, mit z

i
= z
i
und b

i
= b
i
ist z

i
x =
(z
i
)x = z
i
x = b
i
= b

i
. Wird das -fache der i-ten zur j-ten Zeile addiert,
andert sich nur die j-te Gleichung. Mit z

j
= z
j
+z
i
und b

j
= b
j
+b
i
ist
z

j
x = (z
j
+z
i
)x = z
j
x +z
i
x = b
j
+b
i
= b

j
In jedem Fall haben wir x L(A

, b

) gepr uft.
Satz 1.3.7. Sei A
m
R
n
. Dann gibt es eine Zeilenstufenmatrix A


m
R
n
mit
A A

.
Beweis. (Gausches Eliminationsverfahren). Wir beweisen die Behauptung durch
Induktion uber m + n. Der Fall m + n = 2, also m = n = 1 ist oensichtlich.
Seien nun m, n, und A vorgegeben; wir nehmen an, da die Behauptung f ur alle
kleineren Matrizen schon bewiesen ist.
Falls A = 0, ist nichts zu zeigen, ebenso falls A nur eine Zeile hat. Sei also ab
jetzt A = 0 und m 2.
Falls die erste Spalte von A verschwindet, ist n 2 und A = (0, B) mit 0
m
R
und B
m
R
n1
. Nach Voraussetzung ist B B

mit einer Zeilenstufenmatrix


B


m
R
n1
. Dann ist aber auch A (0, B

), und letzteres ist eine Zeilenstufen-


matrix (wenn B

r Stufen an den Stellen j


1
, . . . , j
r
hat, dann hat (0, B

) r Stufen
an den Stellen j
1
+ 1, . . . , j
r
+ 1).
Falls die erste Spalte von A nicht verschwindet, gibt es einen Index k mit
a
k1
= 0. Ist i = 1, so konnen wir die erste mit der k-ten Zeile vertauschen; dadurch
erhalten wir eine Matrix (a

ij
) = A

A mit a

11
= 0. Also konnen wir ebensogut
a
11
= 0 annehmen. Jetzt f uhren wir m1 elementare Zeilenumformungen durch,
indem wir jeweils das
a
k1
a
11
-fache der ersten Zeile zur k-ten addieren, f ur alle
k {2, . . . , m}. Die entstehende Matrix sei A

= (a

ij
). Nach Konstruktion ist f ur
k {2, . . . , m}
a

k1
= a
k1

a
k1
a
11
a
11
= 0.
Falls n = 1, ist also A

=
_
_
_
_
_
a
11
0
.
.
.
0
_
_
_
_
_
eine Zeilenstufenmatrix. Falls n > 1, ist
16 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
A

=
_
a
11

0 B
_
mit B
m1
R
n1
. Nach Voraussetzung ist B B

f ur eine
Zeilenstufenmatrix B


m1
R
n1
, und damit folgt A A


_
a
11

0 B

_
, und
letzteres hat Zeilenstufenform (wenn B

r 1 Stufen an den Stellen j


2
, . . . , j
r
hat,
dann hat die Matrix
_
a
11

0 B

_
r Stufen an den Stellen 1, j
2
+1, j
3
+1, . . . , j
r
+
1).
Bemerkung 1.3.8. Man kann das Verfahren fortsetzen, bis man zu einer Zei-
lenstufenmatrix A mit derselben Anzahl von Stufen an denselben Stellen kommt,
aber so da zusatzlich f ur alle 1 i r gelten Eigenschaften a
ij
i
= 1 und a
j
i
= 0
f ur < i.
Das so zu Ende gef uhrte Verfahren wird auch als Gau-Jordan-Verfahren ge-
nannt.
Folgerung 1.3.9. Ein LGS Ax = b kann man also wie folgt losen. Man betrachtet
die erweiterte Koezientenmatrix (A, b), bringt sie durch elementare Zeilenum-
formungen auf Zeilenstufenform (A

, b

) (das kann man, mu man aber nicht so


machen, wie der Beweis von Satz 1.3.7 angibt!), und liest dann die Losungen ab,
wie es Satz 1.3.3 angibt; insbesondere kann man auch wie in Satz 1.3.4 Vektoren
x
(1)
, . . . , x
(d)
angeben, so da jede Losung von Ax = b eindeutig die Form

i
x
(i)
hat.
Solche Vektoren nennt man auch eine Basis des Losungsraumes, und die Zahl
d heit die Dimension des Losungsraumes L(A, 0). Es wird noch unbedingt zu
beweisen sein, da die Zahl d nicht von dem gewahlten Rechenweg abhangt! (da
also die Dimension eine wohldenierte Zahl ist).
Denition und Satz 1.3.10. Sei A
m
R
n
. Die Anzahl der Stufen in einer zu
A zeilenaquivalenten Zeilenstufenmatrix heit der Rang von A, rang(A).
Diese Denition ist tatsachlich sinnvoll, weil zwei zueinander zeilenaquivalen-
te Zeilenstufenmatrizen immer gleich viele Stufen haben.
Aus Platzgr unden gilt nat urlich rang(A) min(m, n).
Beweis. Seien A A

zwei Zeilenstufenmatrizen mit r und r

Stufen. OBdA sei


r r

.
Falls r = n, ist L(A, 0) = {0}, also auch L(A

, 0) = {0}, also r

= n.
Nun sei r < n. Indem man aus A und A

diejenigen Spalten streicht, in denen


A keine Stufe hat, erhalt man Matrizen B, B


m
R
r
, wobei B Zeilenstufen-
form mit r Stufen hat, und B

nur r

von Null verschiedene Zeilen hat. Damit ist


B

B f ur eine Zeilenstufenmatrix B hochstens r

Stufen (das Gau-Verfahren


zum Beispiel erzeugt keine von Null verschiedenen Zeilen aus den zuvor verschwin-
denden). Nach dem zunachst abgehandelten Fall

Stufenzahl gleich Spaltenzahl


folgt r = r

.
1.4. ELEMENTARMATRIZEN 17
Folgerung 1.3.11. F ur A
m
R
n
gilt:
(1) rang(A) min{m, n}.
(2) F ur b
m
R hat das Gleichungssystem Ax = b genau dann eine Losung,
wenn rang(A, b) = rang(A). Wenn das so ist, lassen sich Losungen mit
d = mrang(A) freien Parametern angeben.
(3) L(A, 0) hat eine Basis der Lange d = mrang(A).
(4) rang(A) = n gilt genau dann, wenn das Gleichungssystem Ax = 0 nur die
triviale Losung hat, und genau dann wenn jedes losbare Gleichungssystem
Ax = b eindeutig losbar ist.
(5) rang(A) = m gilt genau dann, wenn jedes Gleichungssystem Ax = b eine
Losung hat.
(6) Falls m = n = rang(A), hat jedes Gleichungssystem Ax = b genau eine
Losung.
(7) Ist n > m, dann hat jedes LGS Ax = 0 eine nichttriviale Losung.
Beweis. Alle Aussagen auer einen lassen sich trivial auf die Beobachtungen aus
1.3.3 zur uckf uhren. Beispielsweise (2): Man betrachte (A

, b

) (A, b), so da
(A

, b

) Zeilenstufenform hat. genau dann ist A

x = b

und damit Ax = b losbar,


wenn in b

unterhalb der rang(A)-ten Zeile nichts mehr steht, also genau dann
wenn rang(A

, b

) = rang(A

), und rang(A

, b

) = rang(A, b) sowie rang(A

) =
rang(A).
Einzig etwas spannender ist eine der beiden Implikationen in (5), namlich die,
da aus der Losbarkeit jedes Gleichungssystems Ax = b schon rang(A) = m folgt.
Sei A

A so da A

Zeilenstufenform hat. Angenommen rang(A

) = rang(A) <
m. Dann gibt es oenbar b

so da A

x = b

nicht losbar ist. Durch Umkehren der


Umformungen, die von A auf A

f uhren, ndet man b mit (A, b) (A

, b

). Dann
ist auch Ax = b nicht losbar.
1.4 Elementarmatrizen
Denition 1.4.1. Seien m, n N, i {1, . . . , m} und j {1, . . . , n}. Die
Matrixeinheit E
ij

m
R
n
hat eine Eins als Koezienten in der i-ten Zeile und
j-ten Spalte, und Nullen uberall sonst. Es ist also E
ij
= (
ik

j
)
1km
1n
, oder
E
ij
=
_
0 . . . 0 e
i
0 . . . 0
_
, mit dem i-ten kanonischen Einheitsspaltenvek-
18 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
tor in der j-ten Spalte, oder E
ij
=
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
e
j
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
mit dem j-ten kanonischen Einheitszei-
lenvektor in der i-ten Zeile.
Satz 1.4.2. Seien m, n, p N.
(1) F ur jedes A = (a
ij
)
m
R
n
gibt es eindeutig bestimmte
ij
R f ur i
{1, . . . , m}, j {1, . . . , n} mit A =
m

i=1
n

j=1

ij
E
ij
, namlich
ij
= a
ij
.
Speziell notieren wir
n
R
n
E
n
=

n
i=1
E
ii
.
(2) Es gelten die Rechenregeln E
ij
E
k
=
jk
E
i
. Dabei darf E
ij

m
R
n
und
E
k

n
R
p
f ur p N verstanden werden, was zu E
i
=
m
R
p
f uhrt.
(3) Ist A
n
R
p
mit den Zeilen z
1
, . . . , z
n
gilt E
ij
A =
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
z
j
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
, mit der j-ten Zeile
von A in der i-ten Zeile von E
ij
A
m
R
p
.
Beweis. (1) ist fast klar. (2) ergibt sich am leichtesten aus
E
ij
E
k
=
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
e
j
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_

_
0 . . . 0 e
k
0 . . . 0
_
.
(3) F ur A = (a
k
) ist
E
ij
A = E
ij
(

k,
a
k
E
k
) =

k,
a
k
E
ij
E
k
=

k,
a
k

jk
E
i
=

a
j
E
i
also hat E
ij
A in der i-ten Zeile die Koezienten aus der j-ten Zeile von A.
1.4. ELEMENTARMATRIZEN 19
Denition 1.4.3. Elementarmatrizen sind die folgenden Typen von Matrizen in
n
R
n
:
(1) T(i, j; ) := E
n
+E
ij
f ur i, j {1, . . . , n} mit i = j,
(2) T(i, j) := E
n
E
ii
E
jj
+E
ij
+E
ji
f ur i, j {1, . . . , n},
(3) T(i; ) := E
n
+ ( 1)E
ii
f ur i {1, . . . , n} und = 0.
Satz 1.4.4. Sei A
n
R
p
.
(1) T(i, j; )A geht aus A durch Addition des -fachen der j-ten zur i-ten Zeile
hervor.
(2) T(i, j)A geht aus A durch Vertauschen der i-ten und j-ten Zeile hervor.
(3) T(i; )A geht aus A durch Multiplikation der i-ten Zeile mit hervor.
Beweis. Sind z
1
, . . . , z
n
die Zeilen von A. Weil E
ij
A die Matrix
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
z
j
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
mit der
j-ten Zeile von A in der i-ten Zeile, und ansonsten nur Nullen ist, werden die
Behauptungen durch
(E
n
+E
ij
)A = A +E
ij
A
(E
n
E
ii
E
jj
+E
ij
+E
ji
)A = A E
ii
A E
jj
A +E
ij
A +E
ji
A
=

k=i,j
E
kk
A +E
ij
A +E
ji
A
und
(E
n
+ ( 1)E
ii
)A =

k=i
E
kk
A +E
ii
A
bewiesen.
Folgerung 1.4.5. F ur zwei Matrizen A, A


n
R
p
sind aquivalent:
(1) A A

(2) Es gibt Elementarmatrizen T


1
, . . . , T


n
R
n
mit A

= T

T
1
T
2
T
1
A.
20 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Sei T die Matrix, die durch eine gewisse Abfolge von elementaren Zeilenumfor-
mungen aus E
n

n
R
n
entsteht. Dann ist TA die Matrix, die aus A durch dieselbe
Abfolge von elementaren Zeilenumformungen entsteht.
Man kann also auch schreiben: Wenn (A, E
m
) (A

, T), dann ist TA = A

.
Ist dann b
m
R, dann ist L(A, b) = L(A

, Tb), weil (A, b) (TA, Tb). Das


zeigt eine Methode, alle linearen Gleichungssysteme mit Koezientenmatrix A
und beliebigen rechten Seiten b zu losen: Man ndet A

, T mit A

Zeilenstufen-
matrix und (A, E
m
) (A

, T). Wenn dann eine rechte Seite b daherkommt, lose


man A

x = Tb, was ohne abermaligen

Aufruf des Eliminationsverfahrens geht.


Insbesondere ergibt sich aus der Folgerung ein weiterer Beweis f ur 1.3.6:
(A, b) (A

, b

) impliziert die Existenz von T mit (A

, b

) = T(A, b) = (TA, Tb),


woraus f ur x L(A, b) aus Ax = b folgt, da auch A

x = TAx = Tb = b

, also
L(A, b) L(A

, b

).
1.5 Invertierbare Matrizen
Denition 1.5.1. Eine Matrix A
m
R
n
heit invertierbar, wenn es Matrizen
B, C
n
R
m
gibt mit AB = E
m
und CA = E
n
.
Satz 1.5.2. Sei A
m
R
n
.
Gibt es B
n
R
m
mit BA = E
m
, so folgt n m.
F ur B, C
n
R
m
mit BA = E
m
und AC = E
n
folgen B = C, und m = n.
Beweis. Seien A
m
R
n
und B
n
R
m
mit BA = E
m
. Angenommen, m < n.
Nach Teil (5) von Satz 1.3.11 hat Ax = 0 eine nichttriviale Losung x = 0. Es
folgt 0 = B 0 = BAx = E
n
x = x, ein Widerspruch.
Gibt es nun auch noch C mit AC = E
n
, folgt ebenso m n, also m = n.
Die Aussage B = C hangt gar nicht so sehr von der Betrachtung von Matrizen,
sondern nur von den formalen Rechenregeln f ur die Matrizenrechnung ab: B =
E
n
B = (CA)B = C(AB) = CE
m
= C.
Denition 1.5.3. Nach dem eben bewiesenen Satz gibt es f ur eine invertierbare
Matrix A
n
R
n
insbesondere nur eine Matrix B mit AB = E
n
, und ebenso nur
eine Matrix B mit BA = E
n
. Wir nennen diese Matrix die Inverse von A, und
schreiben A
1
:= B.
Die Menge aller invertierbaren Matrizen in
n
R
n
wird mit GL(n, R) bezeichnet.
Satz 1.5.4. Seien A, B
n
R
n
invertierbar. Dann ist auch AB invertierbar, mit
(AB)
1
= B
1
A
1
. Die Einheitsmatrix E
n
ist invertierbar mit sich selbst als
Inverser. F ur R \ {0} und A GL(n, R) ist A GL(n, R) mit (A)
1
=

1
A
1
.
Beweis. Weil ABB
1
A
1
= AE
n
A
1
= AA
1
= E
n
und B
1
A
1
AB = B
1
E
n
B =
B
1
B = E
n
, ist AB GL(n, R) mit Inverser B
1
A
1
. Der Rest ist recht ba-
nal.
1.5. INVERTIERBARE MATRIZEN 21
Satz 1.5.5. Die folgenden Aussagen f ur A
n
R
n
sind aquivalent:
(1) A ist invertierbar.
(2) Es gibt B
n
R
n
mit AB = E
n
.
(3) Es gibt C
n
R
n
mit CA = E
n
.
(4) rang(A) = n.
(5) A E
n
.
(6) A ist Produkt von Elementarmatrizen.
(7) Jedes Gleichungssystem Ax = b ist losbar.
(8) Das homogene Gleichungssystem Ax = 0 hat nur die triviale Losung.
(9) Jedes Gleichungssystem Ax = b ist eindeutig losbar.
Beweis. (1)(2) ist banal.
(2)(7) war eine

Ubungsaufgabe: Ist b
n
R gegeben, so lost Bb das Glei-
chungssystem, weil A(Bb) = (AB)b = E
n
b = b.
(7)(4) folgt aus 1.3.11.
(4)(5) folgt aus 1.3.8.
(5)(3) folgt aus 1.4.5.
(3)(8): Ist Ax = 0, so folgt 0 = CAx = E
n
x = x.
(8)(4): Wieder nach 1.3.11.
(5)(6): Weil auch E
n
A, folgt das aus 1.4.5.
(6)(1): Elementarmatrizen sind invertierbar: Das folgt im wesentlichen aus
der Tatsache, da sich jede elementare Zeilenumformung durch eine solche r uckgangig
machen lat: T(i, j; ) geht aus E
n
durch Addition des -fachen der j-ten zur
i-ten Zeile hervor, und T(i, j; )T(i, j; ) wiederum aus T(i, j; ) durch Addi-
tion des -fachen der j-ten zur i-ten Zeile; das Ergebnis ist also die Einheitsma-
trix. Ebenso folgt T(i, j; )T(i, j; ) = E
n
. Analog beweist man T(i, j)
2
= E
n
und T(i; )T(i;
1
) = T(i;
1
)T(i; ) = E
n
. Da das Produkt von invertierbaren
Matrizen invertierbar ist, folgt die Behauptung.
Das erledigt die

Aquivalenz aller Teile, auer (9), wie man sich an folgendem
Schema klarmachen kann:
(2)
CQ
(7)
CQ
(4)

(8)
ks
(1)
u
(6)
ks
(5)
ks CQ
(3)
u
Weil aber (9) ((7) (8)) nach 1.1.10 gilt, und nach dem bisher bewiesenen
auch (7) (8), ist auch (9) zu den restlichen Aussagen aquivalent.
22 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Folgerung 1.5.6. Eine Matrix A
n
R
n
kann man nach dem folgenden Rezept
invertieren: Man bringe (A, E
n
) auf Zeilenstufenform. Ergibt sich dabei rang(A) <
n, ist A nicht invertierbar. Anderenfalls mache man nach Gau-Jordan weiter,
bis an den Stufen nur Einser stehen, und oberhalb der Stufen Nullen. Das heit
(A, E
n
) (E
n
, A

), und hierin ist A

= A
1
.
Folgerung 1.5.7. Zwei Matrizen A, A


m
R
n
sind genau dann zeilenaquivalent,
wenn es eine invertierbare Matrix T
m
R
m
gibt mit A

= TA.
1.6 Transponieren
Denition 1.6.1. Sei A = (a
ij
)
1im
1jn

m
R
n
. Die Transponierte Matrix A
t
von
A ist A
t
= (a
ji
)
1in
1jm

n
R
m
. Der Koezient von A
t
in der i-ten Zeile und j-
ten Spalte ist also der Koezient von A in der j-ten Zeile und i-ten Spalte. Die
Matrix A
t
ergibt sich durch

Spiegeln von A an der Diagonalen.


Wir notieren: (A
t
)
t
= A.
Satz 1.6.2. F ur A
m
R
n
und B
n
R
p
gilt (AB)
t
= B
t
A
t

p
R
m
.
Beweis. Seien A = (a
ij
), B = (b
ij
), B
t
A
t
= (c
ij
) und AB = (d
ij
). Dann ist
c
ij
=

k
b
ki
a
jk
=

k
a
jk
b
ki
= d
ji
, was B
t
A
t
= (AB)
t
beweist.
Folgerung 1.6.3. Eine Matrix A
n
R
n
ist genau dann invertierbar, wenn A
t
invertierbar ist, und in diesem Fall ist (A
1
)
t
= (A
t
)
1
.
Beweis. Ist A invertierbar, so gilt
A
t
(A
1
)
t
= (A
1
A)
t
= E
t
n
= E
n
= (AA
1
)
t
= (A
1
)
t
A
t
,
also A
t
invertierbar mit Inverser (A
1
)
t
.
Ist A
t
invertierbar, so auch (A
t
)
t
= A.
Insbesondere gilt also f ur A
n
R
n
genau dann rang(A) = n, wenn rang(A
t
) =
n ist. Viel allgemeiner andert sich der Rang uberhaupt nicht beim Transponieren.
Vorneweg noch zwei Selbstverstandlichkeiten, die auch schon verwendet wurden:
Folgerung 1.6.4. Sei A
m
R
n
. Hat A nur s von Null verschiedene Zeilen (oder
Spalten), so ist rang(A) s.
Beweis. F ur Zeilen folgt das aus dem Gauschen Eliminationsverfahren, das auf
eine Matrix mit nur s von Null verschiedenen Zeilen angewendet automatisch
eine Zeilenstufenmatrix mit hochstens s von Null verschiedenen Zeilen liefert,
also auch hochstens s Stufen.
F ur Spalten: Die in A verschwindenden Spalten verschwinden automatisch
auch in jeder zu A zeilenaquivalenten Matrix. Aber eine Zeilenstufenmatrix kann
nur Stufen in ihren von Null verschiedenen Spalten haben.
1.6. TRANSPONIEREN 23
Satz 1.6.5. Sei A
m
R
n
.
F ur jedes T
n
R
p
gilt rang(AT) rang(A).
F ur jedes T GL(n, R) gilt rang(AT) = rang(A).
Beweis. Sei r = rang(A). Dann gibt es S GL(m, R), so da die letzten m r
Zeilen von SA verschwinden. Das heit, f ur jedes i > r gilt f ur e
i
R
m
die
Gleichung e
i
SA = 0. Dann ist aber auch e
i
SAT = 0, also verschwinden die
letzten m r Zeilen von SAT ebenfalls. Es folgt rang(SAT) r, und weil S
invertierbar ist, also SAT AT, folgt rang(SAT) r.
Ist T auch noch invertierbar, folgt r = rang(A) = rang(AT
1
T) rang(AT)
rang(A) = r, also uberall Gleichheit.
Bemerkung 1.6.6. Es gibt genau dann eine Matrix T GL(n, R) mit AT = A

,
wenn es eine Matrix S GL(n, R) gibt mit SA
t
= (A

)
t
, wenn also A
t
und (A

)
t
zueinander zeilenaquivalent sind. Das heit genau, da A und A

durch

elementa-
re Spaltenumformungen auseinander hervorgehen, und der vorhergehende Satz
bedeutet mithin, da sich der Rang einer Matrix bei solchen Umformungen nicht
andert.
Warnung: Bei elementaren Spaltenumformungen andert sich zwar der Rang
nicht, jedwede Information uber die Losungen der durch die Matrix denierten
linearen Gleichungssysteme geht aber ziemlich honungslos verloren!
Will man nur den Rang einer Matrix wissen, kann es aber sehr praktisch sein,
Zeilen- und Spaltenumformungen wild zu mischen.
Folgerung 1.6.7. F ur A
m
R
n
gilt stets rang(A) = rang(A
t
).
Beweis. Weil (A
t
)
t
= A, gen ugt es, eine Ungleichung zu zeigen. Man wahle also
T GL(m, R) so da TA Zeilenstufenmatrix mit r := rang(A) Stufen ist. Da
auch T
t
GL(m, R), ist rang(A
t
) = rang(A
t
T
t
) = rang((TA)
t
). Da aber TA
nur r von Null verschiedene Zeilen hat, also (TA)
t
nur r von Null verschiedene
Spalten, folgt rang(A
t
) = rang((TA)
t
) r = rang(A).
Folgerung 1.6.8. Sei A
m
R
n
und r := rang(A). Dann gibt es S GL(m, R)
und T GL(n, R) mit SAT =
_
E
r
0
0 0
_
(wobei die Nullen Matrizen sind, die
vielleicht auch nicht da sind, falls r = n oder r = m, oder r = 0 gilt, und E
r
nur
da ist, wenn r = 0.
Beweis. Es gibt S GL(m, R) so da SA Zeilenstufenform hat. Dann hat (SA)
t
Rang r und nur r von Null verschiedene Spalten, namlich die ersten r. Damit gibt
es nach Gau-Jordan Q GL(n, R) so da Q(SA)
t
=
_
E
r
0
0 0
_
, also
_
E
r
0
0 0
_
=
(Q(SA)
t
)
t
= SAQ
t
. Man nehme T = Q
t
.
24 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
1.7 (Andere) Korper
Denition 1.7.1. Seien M eine Menge und eine zweistellige Operation auf M.
Bis zu weiterer Prazisierung soll das heien, da f ur je zwei Elemente x, y M
ein Produkt x y erklart ist.
(1) Gilt x, y, z M : x (y z) = (x y) z, heit die Operation assoziativ,
und (M, ) eine Halbgruppe.
(2) Sei M eine Halbgruppe. Ein Element e M mit x M : x e = x = e x
heit neutrales Element f ur M. Eine Halbgruppe, in der es ein neutrales
Element gibt, heit ein Monoid.
(3) Sei (M, ) ein Monoid mit neutralem Element e, und sei x M. Ein inverses
Element zu x ist ein Element x M mit x x = e = x x. Wenn jedes
Element eines Monoids invertierbar ist, heit das Monoid eine Gruppe.
(4) Die Verkn upfung (oder die Halbgruppe M) heit kommutativ, wenn
x, y M : x y = y x. Kommutative Gruppen nennt man auch abelsche
Gruppen.
Denition 1.7.2. Ein Korper ist eine Menge K, auf der zwei Operationen erklart
sind, eine Addition, d. h. f ur je zwei Elemente , K ist ihre Summe +
erklart, sowie eine Multiplikation, d. h. f ur je zwei Elemente von K ist ein Produkt
erklart. Die zwei Operationen sollen den folgenden Axiomen gen ugen:
(1) (K, +) ist eine abelsche Gruppe. Das neutrale Element in dieser Gruppe
heit die Null des Korpers, 0 K. Das Inverse von x K bei der Addition
wird mit x bezeichnet.
(2) (K, ) ist ein kommutatives Monoid. Das neutrale Element heit hier die
Eins des Korpers, 1 K. Es soll 0 = 1 gelten.
(3) Es gelten die Distributivgesetze x, y, z K: x(y + z) = xy + xz und
x, y, z K: (x +y)z = xz +yz.
(4) Jedes Element x K \ {0} ist bez uglich der Multiplikation invertierbar.
Das Inverse wird mit x
1
bezeichnet.
Denition 1.7.3. Sei K eine Menge mit zwei Operationen +, wie oben. Ist
(K, +) eine abelsche Gruppe, (K, ) ein Monoid, und gilt das Distributivgesetz,
so nennt man K einen Ring. Ist auch die Multiplikation kommutativ, spricht man
von einem kommutativen Ring.
Die Denition von Monoiden und Gruppen wurde oben nur angegeben, damit
man schneller sagen kann, was ein Korper ist. Ringe spielen vorerst keine Rolle,
obwohl wir schon Beispiele kennen.
1.7. (ANDERE) K

ORPER 25
Bei gewissen kommutativen Halbgruppen ist es ublich, die Verkn upfung ad-
ditiv (also mit einem Pluszeichen) zu schreiben; man schreibt dann 0 f ur ein
neutrales Element und x f ur ein Inverses zu x. Gewisse andere Halbgruppen
schreibt man gerne multiplikativ, und dann schreibt man oft 1 f ur ein neutrales
Element, und x
1
f ur ein Inverses zu x. Diese Notationen haben wir beispielsweise
schon in Ringen benutzt, und sie kommen auch in den folgenden Beispielen vor:
Beispiele 1.7.4. Die Menge N ist ein Monoid unter der Multiplikation, und eine
Halbgruppe unter der Addition.
Die Menge N
0
ist ein Monoid sowohl unter der Multiplikation als auch unter
der Addition.
Die Menge Z ist mit der ublichen Addition und der ublichen Multiplikation
ein kommutativer Ring.
Die Mengen R, Q sind mit der ublichen Addition und Multiplikation Korper.
F ur m, n N ist
m
R
n
eine abelsche Gruppe unter der fr uher schon denierten
Multiplikation.
F ur n N ist
n
R
n
ein nicht-kommutativer Ring.
Die Menge GL(n, R) ist eine Gruppe unter der Multiplikation von Matrizen.
Die Menge der positiven rationalen Zahlen bildet eine (multiplikative) Gruppe
Q
+
, ebenso die Menge R
+
der positiven reellen Zahlen.
Lemma und Denition 1.7.5 (Division mit Rest). Seien m, n Z mit
n = 0. Wir sagen, m ist teilbar durch n, oder n teilt m, geschrieben n|m, wenn
es q Z gibt mit m = qn.
Seien m Z und n N. Dann gibt es eindeutig bestimmte Zahlen q Z und
r {0, . . . , n 1} mit m = qn + r. Wir nennen r =: m den Rest bei Division
von m durch n. Die Bedeutung des Symbols m hangt nat urlich entschieden von
der unsichtbaren Wahl von n ab!
Es ist m = 0 genau dann wenn n|m. Weiter gilt m = k genau dann wenn
n|(mk).
Beweis. Es gibt zunachst uberhaupt eine nichtnegative Zahl s N
0
und k Z
mit m = kn +s: Falls m 0, nehme man einfach k = 0 und s = m. Falls m < 0,
nehme man k = m und s = m mn > 0. Nun nehme man q Z und r N
0
mit m = qn +r, und so da r so klein ist, wie moglich. Ware nun r n, so ware
auch m = (q +1)n+(r n), und 0 r n < r, im Widerspruch zur Minimalitat
von r.
F ur m Z sei m = qn + r mit r {0, . . . , n 1}. Dann ist r = 0 n|m.
(Denn ist klar, und wenn n|m, gibt es k mit kn = m, also (k q)n = r, und
das kann ja wohl nicht angehen f ur r < n, auer wenn r = 0.)
Seien m, k Z. Seien q, Z und r, s {0, . . . , n 1} mit m = qn + r und
k = n+s. OBdA sei r s. Dann ist mk = (q)n+(rs) und 0 rs < n.
Also ist n|mk r s = 0 r = s m = k.
26 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Satz 1.7.6. Sei n N. Die Menge
Z/(n) := {k|k Z} = {0, . . . , n 1} = {0, . . . , n 1}
ist ein Ring mit folgenden Operationen: F ur alle x, y Z ist x +y := x +y und
x y := xy. Die Null ist 0, das additive Inverse von x ist x, und die Eins ist 1.
Beweis. Problem: Durch die angegebenen Formeln lassen sich Addition und Mul-
tiplikation nicht so ohne weiteres denieren; Es kann namlich x = a sein, obwohl
x = a. Aber dann sagt die Formel f ur die Multiplikation
x +y = x +y = a +y = a +y,
obwohl die ganz links und ganz rechts stehenden Formeln ja verschieden aussehen.
Man uberzeugt sich an Beispielen, da in solchen Fallen gl ucklicherweise immer
x +y = a +y gilt, also das Problem gar nicht wirklich hinderlich ist. Das mu
man aber jetzt irgendwie ordentlich begr unden!
Wir denieren also die Addition und Multiplikation zunachst durch die For-
meln
x +y = x +y und x y = xy,
aber nur f ur x, y {0, . . . , n 1}. F ur diese speziellen Werte gibt es gar kein
Problem, weil x = x und y = y. Dann zeigen wir, da mit dieser Denition
tatsachlich x + y = x +y sowie x y = xy f ur alle x, y Z gilt. Hierzu sei
x = nq + r und y = n + s mit q, Z und r, s {0, . . . , n 1}. Dann
ist nach Denition x + y = r + s = r +s = r +s +nq +n = x +y, und
xy = (r +nq)(s +n) = rs +n(qs +r +nq) = rs = x y.
Ab hier ist alles ganz einfach:
x + (y +z) = x +y +z = x + (y +z) = (x +y) +z = x +y +z = (x +y) +z.
x +y = x +y = y +x = y +x
0 +x = 0 +x = x
x + (x) = x + (x) = 0
zeigen, da Z/(n) bei der Addition eine abelsche Gruppe mit neutralem Element
0 und (x) als additivem Inversen zu x ist. Die ubrigen Rechenregeln f ur einen
Ring beweist man sehr ahnlich.
Satz 1.7.7. Sei p N \ {1}. Genau dann ist Z/(p) ein Korper, wenn n eine
Primzahl ist. In diesem Fall schreibt man auch gerne F
p
:= Z/(p).
Beweis. Sei p eine Primzahl und n Z mit n = 0. Dann gilt erst einmal n m = 0
f ur alle 0 = m Z/(p). Denn 0 = mn bedeutet p|mn, und weil p Primzahl ist,
folgt p|m oder p|n, das heit m = 0 oder n = 0, letzteres war aber ausgeschlossen.
1.7. (ANDERE) K

ORPER 27
Nun konnen nicht alle Elemente n
k
f ur k N verschiedene Elemente von Z/(p)
sein. Also gibt es k, N mit n
k
= n

. OBdA sei k < , also 0 = n


k
(1 n
k
),
also 1 = n
k
= n
k1
n. Wir haben ein multiplikatives Inverses von n gefunden.
Nun sei umgekehrt Z/(p) ein Korper, und sei n {1, . . . , p 1} ein Teiler
von p. Wir wollen zeigen, da zwangslaug n = 1. Da n|p, gibt es m N mit
nm = p. Es folgt 0 = p = nm = n m. Weil nach Wahl n = 0 ist, folgt
0 = (n)
1
0 = (n)
1
n m = 1 m = m, also p|m, also p = m und n = 1.
Metatheorem 1.7.8. Alles, was in der Vorlesung bisher an Aussagen uber Ma-
trizen und lineare Gleichungssysteme bewiesen wurde, gilt auch, wenn man uberall
den Korper R der reellen Zahlen durch einen beliebigen Korper K ersetzt, also
Matrizen aus
m
K
n
, Vektoren aus
m
K oder K
n
betrachtet. Die

Zahlen aus R
sind dabei uberall durch

Skalare aus K zu ersetzen, so bei der Denition von


elementaren Zeilenumformungen, bei den

freien Parametern in linearen Glei-


chungssystemen, usf.
Eine Ausnahme vom Metatheorem machen nat urlich samtliche konkreten Bei-
spiele. Um ein solches Beispiel zu behandeln, mu man nat urlich einen konkreten
Korper wahlen. Wir haben bisher immer R gewahlt, und von den bisherigen
Anwendungsbeispielen war das auch in nat urlicher Weise vorgegeben.
Beispiel 1.7.9. Wir wollen Nachrichten durch einen etwas verrauschten Kanal
versenden. Damit nichts verloren geht, wollen wir zu unserer Nachricht (die in
Form einer Folge von Nullen und Einsen, also von Elementen aus F
2
vorliegt)
zusatzlich jeweils zu einer Gruppe von Bits noch eine Gruppe von Pr ufbits ver-
senden. Das soll so geschehen, da der Empfanger an der Form seiner empfange-
nen Nachricht erkennen kann, ob Fehler vorgefallen sind, und soll solche Fehler
sogar korrigieren konnen.
Das soll so aussehen: Die Botschaft ist ein Vektor x
k
(F
2
), die Codierung
erfolgt mittels einer Codiermatrix C

(F
2
)
k
, versendet wird anstelle von x der
langere Vektor s = Cx. Der empfangene Vektor soll mittels einer Decodiermatrix
D
k
(F
2
)

erfolgen, die DC = E
k
erf ullt, also Ds = DCx = x. Die Pr ufung des
empfangenen Vektors s

auf Fehler erfolgt mittels einer Pr ufmatrix P


m
(F
2
)

.
Unter der Annahme, da bei der

Ubertragung hochstens ein Bit verandert wurde,
soll dieser Fehler erkannt werden konnen, und sogar ermittelt werden konnen, an
welcher Stelle der Fehler aufgetreten ist, so da der Fehler vom Empfanger gleich
behoben werden kann.
Wir legen uns auf ein konkretes Beispiel fest, indem wir zunachst die Anzahl
m der Pr ufbits auf 3 festlegen.
Unter den geschilderten Bedingungen ist 0

(F
2
) ein Vektor, der bei feh-
lerfreier

Ubertragung durchaus vorkommen kann (namlich f ur x = 0). Hingegen
konnen alle kanonischen Einheitsvektoren e
j
f ur 1 j durch Verandern eines
Bits bei der

Ubertragung entstehen, und das soll als Fehler erkannt werden. Es
mu also Pe
j
= 0 sein f ur alle j. Genauer soll uns Pe
j
sogar Auskunft dar uber
28 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
geben, an welcher Stelle der Fehler entstanden ist, also mu j aus Pe
j

3
(F
2
) er-
kennbar sein. Da
3
(F
2
) genau sieben von Null verschiedene Elemente hat, konnen
wir = 7 wahlen, und f ur die j-te Spalte von P wahlen wir die Binardarstellung
von j in folgendem Sinne: Ist P = (p
ij
), so soll j =
3

i=1
p
ij
2
i1
N
0
sein (dabei
spielen wir gefahrlich damit, da p
ij
{0, 1} N
0
ist). Konkret ist also
P =
_
_
1 0 1 0 1 0 1
0 1 1 0 0 1 1
0 0 0 1 1 1 1
_
_

3
(F
2
)
7
.
Man sieht, da P eine Zeilenstufenmatrix mit drei Stufen an den Stellen 1, 2, 4
ist. Es gibt also zu jeder Wahl von x
4
(F
2
) genau einen Vektor s
7
(F
2
) mit
Ps = 0 und Ds = x, wobei D =
_
_
_
_
0 0 1 0 0 0 0
0 0 0 0 1 0 0
0 0 0 0 0 1 0
0 0 0 0 0 0 1
_
_
_
_

4
(F
2
)
7
. Dieser Vektor
s wird gegeben durch s = Cx, wobei die Spalten von C die Vektoren s
(i)
mit
Ps
(i)
= 0 und Ds
(i)
= e
i
f ur i = 1, . . . , 4 sind. Man rechnet diese durch das
ubliche R uckwarts-Einsetzen aus, und erhalt die Codiermatrix
C =
_
_
_
_
_
_
_
_
_
_
1 1 0 1
1 0 1 1
1 0 0 0
0 1 1 1
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_

7
(F
2
)
4
.
Um die Nachricht x zu versenden, berechnet der Absender s := Cx und schickt
dies ab. Der Empfanger erhalt s

, von dem wir annehmen, da es in hochstens


einem Bit von s abweicht. Der Empfanger berechnet Ps

. Ist Ps

= 0, so ist
s = s

, und der Empfanger kann x = Ds = Ds

ausrechnen. Ist Ps

= 0, dann
wei der Empfanger s

= s. Also ist nach unseren Annahmen s

= s + e
i
f ur ein
i {1, . . . , 7}, und Ps

= Ps + Pe
i
= Pe
i
, die Binardarstellung von i wie oben
besprochen. Der Empfanger kann also i an Ps

ablesen, und er kann s = s

+ e
i
und weiter x = Ds zuverlassig berechnen.
Wir werden noch ein bichen untermauern, da man in beliebigen Korpern

alles machen kann, was man (insbesondere f ur die bisher entwickelte Ma-
trizentheorie) braucht. Zunachst aber noch eine Versicherung, da die Theorie
tatsachlich mehr Beispiele umfat, als man auf den ersten Blick meinen konnte.
Satz 1.7.10. Wenn n Potenz einer Primzahl ist, n = p
k
f ur ein k N und eine
Primzahl p, dann gibt es einen Korper K mit genau n Elementen. Anderenfalls
gibt es keinen Korper mit n Elementen.
1.7. (ANDERE) K

ORPER 29
(Ohne Beweis, viel zu schwer!)
Satz 1.7.11. Sei (G, ) ein Monoid.
(1) Das neutrale Element von G ist eindeutig bestimmt.
(2) Falls x G ein Inverses hat, ist dieses eindeutig bestimmt.
(3) Ist x invertierbar, so gelten die K urzungsregeln y, z[x y = x z y = z]
und y, z[y x = z x y = z].
(4) Sind x, y G invertierbar, so auch x y mit x y = y x.
(5) hat x G ein Inverses x, dann ist auch x invertierbar mit Inversem x.
Beweis. (1) Seien e, e

neutrale Elemente. Dann gilt e = e e

= e

, die erste
Gleichung, weil e

neutral ist, die zweite, weil e es ist.


(2) Seien x, x
1
zwei Inverse zu x. Dann gilt x = x e = x x x
1
= e x
1
=
x
1
.
(3) Ist x invertierbar, so folgt aus xy = xz schon y = xxy = xxz = z.
(4) (x y) (y x) = e = (y x) (x y).
(5) Klar! (Denitionen hinschreiben!)
Satz 1.7.12. (1) Sei R ein Ring. Dann gilt 0 r = r 0 = 0 f ur alle r R, und
(r)s = rs = r(s) f ur alle r, s R.
(2) Sei K ein Korper. Dann gilt f ur alle x, y K: xy = 0 x = 0 y = 0.
Insbesondere ist K \ {0} eine abelsche Gruppe bei der Multiplikation.
(3) Man kann in K mit Br uchen rechnen: Man deniere dazu
x
y
= xy
1
f ur
x, y K mit y = 0, und hat dann
x
y

a
b
=
xa
yb
x
y
=
xb
yb
x
y
+
a
b
=
xb +ya
yb

x
y
=
x
y
=
x
y
_
y
b
_
=
b
y
f ur alle x, y, a, b K mit y = 0 = b.
30 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Beweis. (1) 0 + 0 r = 0 r = (0 + 0) r = 0 r + 0 r, und daraus folgt schon
0 r = 0.
(2) r(s) +rs = r(s +s) = r 0 = 0, ebenso (r)s +rs = (r +r)s = 0.
(3) Ist eh schon klar, weil ein Element genau dann = 0 ist, wenn es invertierbar
ist.
(4) Beispielsweise
x
y
+
a
b
= xy
1
+ab
1
= xby
1
b
1
+ayb
1
y
1
= (xb+ay)(by)
1
=
xb +ay
by
Denition und Lemma 1.7.13. Sei K ein Ring. F ur n N denieren wir
n
K
:= (1+1+ +1) K (n Summanden), F ur m Z mit m < 0 denieren wir
m
K
K durch m
K
:= (m)
K
, und schlielich denieren wir 0
K
:= 0 K. Es
gelten dann die Rechenregeln: m
K
+n
K
= (m+n)
K
, m
K
n
K
= (mn)
K
. Hierdurch
ermutigt lassen wir den Index K einfach weg, und schreiben n := (1+ +1) K,
etc.
Warnung: Auf diese Weise haben wir zwar in jedem Korper Stellvertreter der
nat urlichen Zahlen

wiedergefunden, aber es kann passieren, da beispielsweise


1 + 1 = 0 (in F
2
) gilt, oder 5 = 2 (in F
3
, wo also f unfe gerade sind...). In
einem endlichen Korper mu es zwangslaug eine nat urliche Zahl n geben mit
n = 0 K, denn es mu m, m

K mit m = m

K geben.
Denition 1.7.14. Sei K ein Korper. Gilt n = 0 K f ur alle n N, dann sagen
wir, K hat die Charakteristik Null, char(K) = 0. Anderenfalls ist char(K) per
denitionem die kleinste nat urliche Zahl n mit n = 0 K.
Lemma 1.7.15. Sei K ein Korper. Dann ist char(K) = 0, oder char(K) ist eine
Primzahl.
Beweis. Sei char(K) = p = 0. Sei p = mn mit m, n N. Dann ist (mit der
sorgfaltigeren Notation m
K
:= 1 + + 1: 0 = p
K
= m
K
n
K
, also m
K
= 0 oder
n
K
= 0. Nach der Minimalitat von p folgt m p oder n p, also m = p oder
n = p.
Endliche Korper haben immer endliche Charakteristik. char(R) = 0 = char(Q).
Es gibt unendliche Korper, die endliche Charakteristik haben; solche sind aber
schwieriger herzustellen.
Bemerkung 1.7.16. Sei K ein Korper der Charakteristik Null. Dann schreiben
wir f ur x Q, etwa x =
m
n
mit m, n Z, n = 0, K x :=
m
K
n
K
. Man m ute
1.7. (ANDERE) K

ORPER 31
nat urlich noch zeigen, da das wohldeniert ist (also zum Beispiel stets
5
K
3
K
immer
gleich
15
K
9
K
ist).
Auch ohne den (einfachen) Beweis vermerken wir, da man mit den so ge-
fundenen rationalen Zahlen

in K ganz genauso rechnen kann wie mit den Ele-


menten von Q. Auerdem gilt f ur x, y Q nur dann x = y K, wenn schon
x = y Q.
Nach diesem Beleg, da Korper der Charakteristik Null

genauso gut sind


wie die ublichen Zahlen, noch ein Beleg daf ur, da in Korpern endlicher Charak-
teristik recht merkw urdige Dinge passieren konnen:
Schmankerl 1.7.17. Sei K ein Korper mit char(K) = p = 0. Dann gilt a, b
K[(a +b)
p
= a
p
+b
p
]
Beweis. (etwas skizzenhaft...) Die Behauptung steht nat urlich in einem oenba-
ren Widerspruch zu den altbekannten binomischen Formeln! Der Widerspruch ist
aber keiner: Es gilt
(a +b)
p
= a
p
+b
p
+
p1

k=1
_
p
k
_
a
k
b
pk

wie immer, aber die angeschriebenen Binomialkoezienten sind in K samtlich


gleich Null: Es ist
_
p
k
_
=
p!
(p k)!k!
N, also
_
p
k
_
(p k)!k! = p!. Diese Formel
f ur nat urliche Zahlen gilt auch in K, und dort ist p! = 0. Aber weder (p k)!
noch k! verschwinden in K, falls 1 k < p, weil (pk)!, k! N beide nicht durch
p teilbar sind. Also ist
_
p
k
_
= 0 K.
Wir wenden uns der Herstellung eines sehr prominenten Korpers der Charak-
teristik Null zu.
Satz 1.7.18. Die Menge C := R R ist ein Korper mit folgenden Operationen:
(x, y) + (a, b) := (x +a, y +b)
(x, y)(a, b) := (xa yb, xb +ya)
Das neutrale Element der Addition ist 0 := (0, 0); das additive Inverse von (x, y)
ist (x, y), das neutrale Element der Multiplikation ist 1 := (1, 0). Das Inverse
von 0 = (x, y) bei der Multiplikation ist (x, y)
1
:=
_
x
x
2
+y
2
,
y
x
2
+y
2
_
.
Bemerkung 1.7.19. Die Elemente von C heien komplexe Zahlen.
Folgende Terminologie ist ublich: F ur z := (x, y) C heien x := Re(z) der
Realteil, und y := Im(z) der Imaginarteil von z. Wir beobachten die Rechenregeln
32 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
(x, 0)(a, 0) = (xa, 0), (x, 0) + (a, 0) = (x + a, 0). Aufgrund dieser Tatsachen
fassen wir R (illegal) als Teilmenge von C auf, indem wir x R mit (x, 0) C
identizieren.
Die komplexe Zahl i := (0, 1) heit imaginare Einheit. Es gilt i
2
= 1.
Jedes z C lat sich in der Form + i f ur eindeutig bestimmte , R
schreiben, namlich f ur = Re(z) und = Im(z).
F ur z = x+iy C heit z := xiy das komplex Konjugierte von z. Es gelten
die Rechenregeln w +z = w + z und wz = wz. Eine komplexe Zahl ist genau
dann reell, wenn z = z. Sie heit rein imaginar, wenn sie ein reelles Vielfaches
von i ist, oder gleichbedeutend, wenn z = z gilt.
F ur z = x + iy ist zz = x
2
+ y
2
. Die nichtnegative reelle Zahl |z| =

zz =
_
x
2
+y
2
heit der Modulus oder Betrag von z. Es gilt |wz| = |w| |z|, und falls
z = 0, ist z
1
=
z
|z|
2
.
Das ist in aller Regel alles, was man zum elementaren Rechnen in C braucht.
Dar uber hinaus haben die komplexen Zahlen eine geometrische Deutung als
Punkte in der Ebene, mit dem Realteil als x-Koordinate und dem Imaginarteil
als y-Koordinate. Diese Deutung ist anschaulich hilfreich und manchmal auch
einfach praktisch, und dar uber hinaus f ur die tieferen Eigenschaften von C ganz
entscheidend.
Die folgenden Eigenschaften der komplexen Zahlen sollen ohne Beweis (manch-
mal mit der Andeutung eines solchen) aufgelistet werden, um eine gewisse Vor-
stellung zu vermitteln.
Der Modulus von z C ist die Lange der Strecke von 0 zu z (Schulgeometrie!
Pythagoras!). Bezeichnet man den Winkel, den diese Strecke mit der x-Achse
einschliet, mit , erhalt man die Polardarstellung z = r(cos + i sin ) mit
r = |z|. (wieder: Schulgeometrie!). Die Zahl heit auch ein Argument von z.
F ur zwei komplexe Zahlen z = r(cos +i sin ) und w = s(cos +i sin ) ergibt
sich aus den Additionstheoremen f ur Sinus und Cosinus:
zw = rs(cos +i sin )(cos +i sin )
= rs((cos cos sinsin ) +i(sin cos + cos sin ))
= rs(cos( +) +i sin( +))
Das heit also: Zwei komplexe Zahlen werden multipliziert, indem man ihre Mo-
duli multipliziert, und ihre Argumente addiert.
Als Spezialfall stellen wir f ur e
i
:= cos + i sin fest: , R[e
i(+)
=
e
i
e
i
], und e
i0
= 1. Spaeshalber notieren wir auch die ber uhmte Formel e
i
=
1. Nach unserer Denition hat nat urlich e
i
nichts mit irgendeiner Potenz zu
tun. Wir notieren aber (e
i
)
n
= e
in
f ur R und n Z.
Mit der Multiplikationsformel in Polarkoordinaten ergibt sich sogleich z
n
=
r
n
e
in
f ur eine komplexe Zahl z mit Modulus r und Argument , und n N.
Damit ist es auch leicht, zu z beliebige n-te Wurzeln zu nden: Man hat z =
1.7. (ANDERE) K

ORPER 33
_
n

re
i

n
_
n
. Es hat allerdings keinen Sinn, auf diese Weise eine n-te Wurzel ei-
ner komplexen Zahl zu denieren, denn zu einem z gibt es immer unendlich
viele Argumente, weil e
2ki
= 1 f ur alle k Z, so da also mit stets auch
+ 2k ein mogliches Argument ist. Damit ist die gefundene n-te Wurzel oben
durch eine mehrdeutige Formel gegeben. Insbesondere gibt es f ur n N immer
n verschiedene

Wurzeln aus 1, also Losungen der Gleichung z


n
= 1, genannt
die n-ten Einheitswurzeln, und gegeben durch z
k
= e
2k
n
i
f ur k Z. Die Werte
1 = z
0
, . . . , z
n1
sind schon alle Losungen, danach (und davor) wiederholt sich die
Liste. Geometrisch sind die n-ten Einheitswurzeln die Ecken eines regelmaigen
n-Ecks mit dem Einheitskreis als Umkreis. Die Einheitswurzel
n
:= z
1
= e
2i
n
hat die besondere Eigenschaft, da jede andere n-te Einheitswurzel eine Potenz
von ihr ist: z
k
=
k
n
f ur k Z. Eine solche Einheitswurzel nennt man primitiv. Ist
w C und z C eine Losung von z
n
= w, dann sind
k
n
z f ur k {0, . . . , n 1}
samtliche Losungen.
Da man aus beliebigen komplexen Zahlen wieder beliebige Wurzeln ziehen
kann, ist ein einfacher Fall des folgenden, f ur diese Vorlesung bei weitem zu
schwierigen Satzes:
Satz 1.7.20 (Fundamentalsatz der Algebra). Der Korper C der komplexen
Zahlen ist algebraisch abgeschlossen
Denition 1.7.21. Ein Korper K heit algebraisch abgeschlossen, wenn jedes
nicht-konstante Polynom mit Koezienten aus K eine Nullstelle in K hat. Ge-
nauer also, wenn f ur jedes n N und alle
0
, . . . ,
n
C mit
n
= 0 gilt: Es gibt
ein z C mit
n
z
n
+
n1
z
n1
+ +
1
z +
0
= 0.
Der Fundamentalsatz der Algebra schliet die Liste der ungenau oder gar
nicht bewiesenen Tatsachen uber komplexe Zahlen ab. Die Existenz der komple-
xen Zahlen als Korper, wie sie in 1.7.18 ausgedr uckt ist, ist allerdings durchaus in
unserer Reichweite. Wir beweisen sogar einen allgemeineren, aber nicht schwieri-
geren Satz, der 1.7.18 als Spezialfall (K = R, t = 1) enthalt.
Satz 1.7.22. Seien K ein Korper und t K. Sei t kein Quadrat in K, d. h. es
gebe kein x K mit x
2
= t.
Dann ist K(

t) := K K ein Korper bei den folgenden Operationen:


(x, y) + (a, b) := (x +a, y +b)
(x, y)(a, b) := (xa +ybt, xb +ya)
Das neutrale Element der Addition ist 0 := (0, 0); das additive Inverse von (x, y)
ist (x, y), das neutrale Element der Multiplikation ist 1 := (1, 0). Das Inverse
von 0 = (x, y) bei der Multiplikation ist (x, y)
1
:=
_
x
x
2
ty
2
,
y
x
2
ty
2
_
.
34 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
Beweis. Zunachst mal ist K(

t) wie angegeben ein kommutativer Ring: Es ist


klar, da K(

t) eine abelsche Gruppe ist (dieselbe wie K


2
, der Raum der Zei-
lenvektoren). Die Multiplikation ist assoziativ wegen
((x, y)(a, b))(p, q) = (xa +ybt, xb +ya)(p, q)
= ((xa +ybt)p + (xb +ya)qt, (xa +ybt)q + (xb +ya)p)
= (xap + (ybp +xbq +yaq)t, xaq +xbq +yap +ybqt)
und
(x, y)((a, b)(p, q)) = (x, y)(ap +bqt, aq +bp)
= (x(ap +bqt) +y(aq +bp)t, x(aq +bp) +y(ap +bqt))
= (xap + (xbq +yaq +ybp)t, xaq +xbp +yap +ybqt)
Oensichtlich ist die Multiplikation kommutativ, und (1, 0) ist ein Einselement
weil (1, 0)(a, b) = (1 a + 0 bt, 1 b + 0 a) = (a, b). Man uberpr uft das Distribu-
tivgesetz:
(x, y)((a, b)+(p, q)) = (x, y)(a+p, b+q) = (x(a+p)+y(b+q)t, x(b+q)+y(a+p))
= (xa +ybt, xb +ya) + (xp +yqt, xq +yp) = (x, y)(a, b) + (x, y)(p, q)
und ist fertig mit der Aussage, da K(

t) ein kommutativer Ring ist.


Bisher ging nicht ein, da t kein Quadrat ist. Ist nun t kein Quadrat, so
ist x
2
ty
2
= 0 f ur alle (x, y) = 0, denn x
2
= ty
2
impliziert entweder y = 0
und damit auch x = 0, oder t =
_
x
y
_
2
. Damit gibt es f ur jedes (x, y) = 0
tatsachlich das Element
_
x
x
2
ty
2
,
y
x
2
ty
2
_
von dem wir behaupten, da
es das multiplikative Inverse von (x, y) ist. Das folgt auch tatsachlich aus der
Rechnung
(x, y)
_
x
x
2
ty
2
,
y
x
2
ty
2
_
=
_
x
x
x
2
ty
2
y
y
x
2
ty
2
t, x
y
x
2
ty
2
+y
x
x
2
ty
2
_
=
_
x
2
y
2
t
x
2
y
2
t
, 0
_
= (1, 0).
Folgerung 1.7.23. Es gibt einen Korper mit genau neun Elementen, namlich
F
3
(

2), ebenso einen mit genau 25 Elementen, namlich F


5
(

2). Allgemeiner sei


K ein Korper mit genau n Elementen, und char(K) = 2. Dann kommt wegen
1.8. PA = LR (ENGLISCH: PA = LU) 35
(x
2
) = x
2
und x = x f ur x = 0 jedes von Null verschiedene Element von K,
das ein Quadrat ist, als Quadrat von zwei verschiedenen Elementen von K vor.
Dann kann aber nicht jedes Element ein Quadrat sein, und wenn t kein Quadrat
ist, dann hat K(

t) genau n
2
Elemente.
1.8 PA = LR (englisch: PA = LU)
(Serioser gesagt, handelt dieser Abschnitt von der LR-Zerlegung einer Matrix.
Dabei kommt L von

linke untere Dreiecksmatrix und R von

rechte obere Drei-


ecksmatrix. Im Englischen kommt L von

lower triangular und U von

upper
triangular matrix.)
Im folgenden sei K stets ein Korper.
Denition 1.8.1. P
n
K
n
heit eine Permutationsmatrix, wenn P durch eine
Abfolge von Zeilenvertauschungen aus der Einheitsmatrix hervorgeht.
Lemma 1.8.2. F ur P
n
K
n
sind aquivalent:
(1) P ist Permutationsmatrix.
(2) P ist Produkt von Elementarmatrizen vom Typ T(i, j) f ur 1 i < j n.
(3) P
t
ist Permutationsmatrix.
(4) In jeder Zeile und in jeder Spalte von P kommt genau eine Eins vor, und
die ubrigen Eintrage sind Nullen.
Ist P eine Permutationsmatrix, so geht f ur jedes A
n
K
p
die Matrix PA durch
Zeilenvertauschungen aus A hervor.
Das Produkt von Permutationsmatrizen ist wieder eine. Permutationsmatri-
zen sind regular, und ihre Inversen sind wieder welche. Genauer ist P
1
= P
t
f ur
jede Permutationsmatrix P.
Satz 1.8.3. Sei A
n
K
p
. Dann gibt es eine Permutationsmatrix P
n
K
n
, eine
linke untere Dreiecksmatrix L
n
K
n
, deren Diagonalelemente Einsen sind, und
eine Zeilenstufenmatrix R
n
K
p
, so da PA = LR.
Bemerkung 1.8.4. Sei A GL(n, K), und PA = LR die LR-Zerlegung von A.
Ist dann b
n
K, dann lost man Ax = b, indem man aquivalent Pb = PAx = LRx
lost. Das ist genau so aufwendig, als wenn man die Inverse von A kennen w urde!
Denn um x = A
1
b zu berechnen, braucht man n
2
Multiplikationsoperatio-
nen (und Additionsoperationen, die wir nicht

in Rechnung stellen). Um Pb
zu

berechnen, braucht man gar nix. Um L


1
Pb durch

Vorwarts-Einsetzen
zu berechnen, braucht man n
2
/2 n Multiplikationen. Um R
1
L
1
Pb durch

R uckwarts-Einsetzen zu berechnen, braucht man noch einmal n


2
/2 Operatio-
nen. Das sind zusammen n
2
n Operationen. Jetzt kommt es nat urlich noch
36 KAPITEL 1. LINEARE GLEICHUNGSSYSTEME UND MATRIZEN
drauf an, ob die Bestimmung der LR-Zerlegung nicht allzu aufwendig ist. Es
stellt sich im Beweis heraus, da zur Bestimmung der LR-Zerlegung deutlich we-
niger (ohne da das hier quantiziert werden soll) Operationen notig sind, als zur
Bestimmung der Inversen.
Lemma 1.8.5. Seien K ein Korper. Es gilt
_
A B
C D
_

_
W X
Y Z
_
=
_
AW +BY AX +BZ
CW +DY CX +DZ
_
f ur alle Matrizen A, B, C, D, W, X, Y, Z mit Koezienten aus K, die solche For-
mate haben, da die rechte Seite deniert ist.
Beweis von 1.8.3. Es sei r := rang(A). Wir beweisen induktiv, da es f ur 0
k r folgendes Arrangement gibt: Eine Permutationsmatrix P
k
GL(n, K),
eine Matrix L
k
=
_
S
k
0
T
k
E
nk
_
, in der S
k

k
K
k
eine untere Dreiecksmatrix
mit Einsen auf der Diagonalen ist, und T
k

nk
K
k
, und eine Matrix R
k
=
_
U
k
V
k
0 W
k
_
, in der U
k
eine Zeilenstufenmatrix mit k Zeilen ist, und P
k
A = L
k
R
k
.
F ur k = 0 ist das klar (oder Interpretationssache!).
F ur k = r sehen wir aus rang(R
k
) = rang(A) = r, da W
k
= 0 sein mu, also
liefert P = P
r
, L = L
r
, R = R
r
eine LR-Zerlegung von A.
Wie geht nun der Schlu von k auf k + 1? (dabei nat urlich k < r.) Wir
konnen ohne Einschrankung davon ausgehen, da die erste Spalte von W
k
nicht
verschwindet.
Nun kann man zunachst in P
k
, T
k
, W
k
zwei

entsprechende Zeilen vertau-


schen, ohne die Lage zu andern, denn f ur Q = T(i, j) GL(n k, K) gilt
_
E
k
0
0 Q
_
P
k
A =
_
E
k
0
0 Q
__
S
k
0
T
k
E
nk
__
U
k
V
k
0 W
k
_
=
_
S
k
0
QT
k
Q
__
U
k
V
k
0 W
k
_
=
_
S
k
0
QT
k
E
nk
__
E
k
0
0 Q
__
U
k
V
k
0 W
k
_
=
_
S
k
0
QT
k
E
nk
__
U
k
V
k
0 QW
k
_
Nach so einem Tauschschritt sei nun die linke obere Ecke von W
k
nicht Null, etwa
W
k
=
_
z
s B
_
mit 0 = K, einer Zeile z, Spalte s und passenden Matrix
B. Dann ist W
k
= MW

mit M =
_
1 0

1
s E
nk1
_
, und W

=
_
z
0 B

_
(Die
Matrix W

erhalt man aus W


k
, indem man die passenden Vielfachen der ersten
Zeile von den folgenden abzieht. Die Vorfaktoren daf ur stehen in dem Vektor
1.8. PA = LR (ENGLISCH: PA = LU) 37
(1/)s verzeichnet. Genauer ist B

= B
1
s) Es folgt
P
k
A =
_
S
k
0
T
k
E
nk
__
U
k
V
k
0 W
k
_
=
_
S
k
0
T
k
E
nk
__
U
k
V
k
0 MW

_
=
_
S
k
0
T
k
E
nk
__
E
k
0
0 M
__
U
k
V
k
0 W

_
=
_
S
k
0
T
k
M
__
U
k
V
k
0 W

_
Damit konnen wir P
k+1
= P
k
nehmen (Erinnerung: Ein Vertauschschritt war
moglicherweise vorher schon eingeschoben...), L
k+1
erhalt man aus L
k
, indem
man anstelle der Nullen unter der Diagonalen in der k +1-ten Spalte den Vektor
(1/)s eintragt, und R
k+1
entsteht durch passende Zeilenumformungen (Abziehen
von Vielfachen der k + 1-ten Zeile von den darunter stehenden) aus R
k
.
Folgerung 1.8.6. Man beachte, da sich daraus ein Protokoll zur Bestimmung
der LR-Zerlegung ergibt. Abgesehen davon, da man uber die Permutationsmatrix
Buch f uhren mu (dazu mu man nat urlich keine Matrix aufschreiben, sondern
nur die Abfolge der Zeilennummern), benotigt man f ur dieses Protokoll nicht
mehr Platz als f ur A selbst: Man kann jeweils den Vektor (1/)s in dem in dem-
selben Schritt freiwerdenden Platz in der k + 1-ten Spalte von R
k+1
notieren.
Folgerung 1.8.7. Sei A
n
K
p
. Dann gibt es eine Permutationsmatrix P
n
K
n
,
eine linke untere Dreiecksmatrix L
n
K
n
mit Einsen auf der Diagonalen, eine
Diagonalmatrix D
n
K
n
und eine Zeilenstufenmatrix R
n
K
p
mit Einsen auf
den Stufen, so da PA = LDR.
Kapitel 2
Vektorr

aume
2.1 Vektorraume und Unterraume
Denition 2.1.1. Sei K ein Korper. Ein K-Vektorraum (manchmal auch nur
Vektorraum, wenn K sich von selbst versteht) ist ein Tripel (V, +, ) bestehend
aus einer Menge V und Abbildungen
+: V V V, (v, w) v + w
: K V V, (, v) v = v
genannt Addition und Skalarmultiplikation, f ur die die folgenden Axiome gelten:
(1) (V, +) ist eine abelsche Gruppe,
(2) F ur alle , K, v, w K gelten
(a) (v) = ()v,
(b) 1 v = v,
(c) ( + )v = v + v und
(d) (v + w) = v + w.
Die Elemente von V heien Vektoren, die Elemente von K heien Skalare.
Beispiele 2.1.2. (1) 0 ist ein K-Vektorraum mit den einzig moglichen Ope-
rationen.
(2) K ist ein K-Vektorraum mit der Addition in K als Addition, und der
Multiplikation in K als Skalarmultiplikation.
(3) Seien V, W Vektorraume. Dann ist auch V W ein Vektorraum mit den
Operationen
(v, w) + (v

, w

) = (v + v

, w + w

)
(v, w) = (v, w)
1
2 KAPITEL 2. VEKTORR

AUME
f ur v, v

V, w, w

W, K. [Das mu man beweisen! Die Addition ist


assoziativ, weil ((v, w) + (v

, w

)) + (v

, w

) = (v +v

, w +w

) + (v

, w

) =
((v +v

) +v

, (w +w

) +w

) = (v + (v

+v

), w + (w

+w

)) == (v, w) +
(v

+ v

, w

+ w

) = (v, w) + ((v

, w

) + (v

, w

)) f ur v, v

, v

V und
w, w

, w

W.

Ahnlich zeigt man die Kommutativitat. Das Element (0, 0)
ist eine Null, und zu (v, w) ist (v, w) das additive Inverse (pr ufen Sie!).
Damit ist V W eine abelsche Gruppe. Von den Rechengesetzen f ur die
Skalarmultiplikation pr ufen wir wieder nur exemplarisch eines. Machen Sie
den Rest!: ((v, w) +(v

, w

)) = (v +v

, w+w

) = ((v +v

), (w+w

)) =
(v+v

, w+w

) = (v, w)+(v

, w

) = (v, w)+(v

, w

) f ur K,
v, v

V und w, w

W.]
(4) Seien V ein Vektorraum und M eine Menge. Dann ist V
M
ein Vektorraum
mit den

punktweisen Operationen
(f + g)(m) = f(m) + g(m)
(f)(m) = f(m)
[Das mu man wieder beweisen! Wir machen einige Teile, den Rest machen
Sie! Die Addition ist assoziativ, weil f ur f, g, h V
M
und m M gilt:
((f +g) +h)(m) = (f +g)(m) +h(m) = (f(m) +g(m)) +h(m) = f(m) +
(g(m) + h(m)) = f(m) + (g + h)(m) = (f + (g + h))(m). Die Null ist
0 V
M
, deniert durch 0(m) = 0 V f ur alle m M. Das Inverse zu
f V
M
ist f, deniert durch (f)(m) = f(m) V f ur m M. F ur
, K und f V
M
gilt, f ur alle m M ((+)f)(m) = (+)f(m) =
f(m) + f(m) = (f)(m) + (f)(m) = (f + f)(m).]
(5) Beispielsweise sind K
n
,
m
K,
m
K
n
Vektorraume.
(6) R ist ein Q-Vektorraum, C ist ein R-Vektorraum. Allgemeiner ist jeder R-
Vektorraum ein Q-Vektorraum, jeder C-Vektorraum ein R-Vektorraum.
Denition 2.1.3. Seien V ein K-Vektorraum, und U V eine Teilmenge. U
heit ein Unter(vektor)raum von V , wenn gelten: 0 U, u, v U : x + y U,
u U, K: u U.
Beispiele 2.1.4. F ur jedes A
m
K
n
ist L(A, 0)
n
K ein Untervektorraum.
Weiter ist U = Bi(
A
) = Ax[x
n
K
m
K ein Untervektorraum, weil 0 =
A 0 U, Ax + Ay = A(x + y), (Ax) = A(x).
In R
R
bilden die stetigen, die dierenzierbaren, die stetig dierenzierbaren, die
beliebig oft dierenzierbaren Funktionen prominente Untervektorraume, weil...
In (

([0, 1], R) bilden die Funktionen mit f

+f = 0 einen Untervektorraum,
ebenso die Funktionen mit f

2f

+ f = 0.
2.1. VEKTORR

AUME UND UNTERR

AUME 3
Lemma 2.1.5. Seien V ein K-Vektorraum und U V ein Unterraum. Dann ist
auch U ein Vektorraum, dessen Operationen durch die Operationen in V deniert
werden.
Beweis. Die Abbildungen
U U (u, v) u + v U
K U (, u) u U
sind nach Denition eines Untervektorraums wohldeniert. Das Assoziativ- und
das Kommutativgesetz f ur die Additionen gelten

erst recht in U, weil sie in V


gelten, und 0 U ist eine Null f ur das Monoid (U, +). F ur u U ist u+(1)u =
1u + (1)u = (1 + (1))u = 0u = u, denn 0u = (0 + 0)u = 0u + 0u, also
0u = 0, weil V Gruppe. Also ist (U, +) eine abelsche Gruppe. Die restlichen
Rechengesetze gelten wieder

erst recht
Bemerkung 2.1.6. Aus dem Beweis halten wir fest: F ur alle v V gilt 0v = 0
und (1)v = v. Ebenso gilt 0 f ur alle K, (v) = v = ()v.
Lemma 2.1.7. Seien V ein Vektorraum und U, U

zwei Unterraume von V . Dann


ist auch U U

V ein Unterraum.
Sei (U
i
)
iI
eine Familie von Unterraumen von V . Dann ist auch

iI
U
i
V
ein Unterraum.
Beweis. Weil 0 U
i
f ur alle i I, ist 0

iI
U
i
=: U.
Seien jetzt v, v

U. Dann ist v +v

U. Denn sei i I. Dann sind v, v

U
i
,
also v + v

U
i
.
Ebenso folgt v U f ur K.
Lemma 2.1.8. Seien U, U

zwei Unterraume von V . Dann ist


U
1
+ U
2
:= v V [u
1
U
1
u
2
U
2
[u
1
+ u
2
= v]
ein Unterraum von V .
U
1
+U
2
ist der kleinste Unterraum von V , der sowohl U
1
als auch U
2
umfat.
Beweis. Nat urlich ist 0 U
1
+U
2
. Seien v, v

U
1
+U
2
. Dann gibt es u
i
, u

i
U
i
mit u
1
+ u
2
= v und u

1
+ u

2
= v

, und es folgt v + v

= u
1
+ u
2
+ u

1
+ u

2
=
(u
1
+u

1
) +(u
2
+u

2
) U
1
+U
2
, weil u
i
+u

i
U
i
. Ebenso zeigt man v U
1
+U
2
.
Sei nun W V ein Unterraum von V mit U
i
W f ur i = 1, 2. Dann ist
U
1
+ U
2
W, denn ein beliebiges v U
1
+ U
2
hat die Form v = u
1
+ u
2
f ur
u
i
U
i
, und weil u
i
W nach Voraussetzung, ist auch v W.
4 KAPITEL 2. VEKTORR

AUME
Denition und Lemma 2.1.9. Seien I eine Menge, und V ein Vektorraum.
Dann ist V
(I)
V
I
, deniert durch
V
(I)
= f V
I
[f(i) ,= 0 f ur nur endlich viele i I
ein Untervektorraum.
Die Elemente von V
(I)
heien auch endlichwertige Familien, oder man sagt
(a
i
)
iI
V
(I)
genau dann wenn a
i
= 0 f ur

fast alle i I, was also heit: f ur


alle bis auf endlich viele.
Denition 2.1.10. Wir wollen den Ausdruck

iI
v
i
f ur eine Familie (v
i
)
iI
nur
dann denieren, wenn (v
i
)
iI
V
(I)
. Dann denieren wir

iI
v
i
:=
n

j=1
v
i
j
,
wenn i
1
, . . . , i
n
I paarweise verschiedene Elemente sind und i Ii
1
, . . . , i
n
[v
i
=
0]
Streng genommen sollte man jetzt beweisen, da die Denition nicht von der
Wahl der i
1
, . . . , i
n
abhangt. Wenn man das glaubt, sind die folgenden Eigen-
schaften leicht einzusehen:
Lemma 2.1.11. F ur (v
i
), (w
i
) V
(I)
und K gilt

iI
(v
i
+ w
i
) =

iI
v
i
+

iI
w
i

iI
v
i
=

iI
v
i
Vertrauen in

unendliche Summen vorausgesetzt, sieht man


Denition und Lemma 2.1.12. Seien V ein Vektorraum, und (U
i
)
iI
eine
Familie von Unterraumen von V . Dann ist

iI
U
i
:=

v V

Es gibt u
i
U
i
f ur i I, fast alle u
i
= 0, mit v =

iI
u
i

ein Unterraum von V , und zwar der kleinste Unterraum, der jedes U
i
umfat.
2.2. LINEARE ABBILDUNGEN 5
2.2 Lineare Abbildungen
Denition 2.2.1. Seien V, W zwei K-Vektorraume. Eine Abbildung f : V W
heit K-linear, oder ein (Vektorraum)homomorphismus, wenn
v, v

V [f(v + v

) = f(v) + f(v

)]
v V K[f(v) = f(v)]

Aquivalent dazu kann man fordern:


v, v

V ,

K[f(v +

) = f(v) +

f(v

)].
Beispiele 2.2.2. Sei A
m
K
n
. Dann ist
A
:
n
K
m
K linear, ebenso
n
K
p
B AB
m
K
p
p
K
m
B BA
p
K
n
f ur alle p N
F ur jeden Vektorraum V , jede Menge I und jedes x I ist die Abbildung
a
x
: V
I
f f(x) V
linear. Zum Beispiel ist also auch die Abbildung R
R
R, die jeder reellen
Funktion ihren Wert an einer gewissen Stelle zuweist, R-linear. Zum Beweis: F ur
f, g V
I
und x I ist
a
x
(f + g) = (f + g)(x) = f(x) + g(x) = a
x
(f) + a
x
(g),
und a
x
(f) = (f)(x) = f(x) = a
x
(f).
Allgemeiner seien V ein Vektorraum, I, J Mengen, und : I J eine Abbil-
dung. Dann ist
V

: V
J
V
I
; f f
eine lineare Abbildung. Denn f ur f, g V
J
und x I ist
V

(f + g)(x) = ((f + g) )(x) = (f + g)((x)) = f((x)) + g((x))


= V

(f)(x) + V

(g)(x) = (V

(f) + V

(g))(x),
und so ahnlich zeigt man auch V

(f) = V

(f) f ur K.
Die Abbildung
V
(I)
(v
i
)
iI

iI
v
i
V
ist K-linear, wie wir schon in 2.1.11 aufgeschrieben haben.
6 KAPITEL 2. VEKTORR

AUME
Die Ableitung deniert R-lineare Abbildungen
(
1
([0, 1], R) C
0
([0, 1], R)
(

(R, R) (

(R, R)
(da gibt es oensichtlich noch viele Varianten!).
Ebenso das Integral
(
0
([0, 1], R) f

1
0
f(t)dt R
(
0
(R, R) f (x

x
0
f(t)dt) (
1
(R, R)
Linearitat von Ableitung und Integral sind wichtige Eigenschaften, die in der
Analysis-Vorlesung bewiesen werden.
Die Abbildung C z z C ist R-linear, aber nicht C-linear.
Die Identitat ist ein Homomorphismus V V .
Allgemeiner ist die Inklusionsabbildung U V f ur jeden Unterraum U V
eine lineare Abbildung.
Lemma 2.2.3. Seien f : V W und g : U V zwei K-lineare Abbildungen.
Dann ist auch fg : U W K-linear.
Beweis. Seien v, v

V und ,

K. Dann ist
(fg)(v +

) = f(g(v +

)) = f(g(v) +

g(v

)) =
f(g(v)) +

f(g(v

)) = (fg)(v) +

(fg)(v

)
Denition 2.2.4. Sei f : V W ein Vektorraumhomomorphismus. Wir sagen:
(1) f ist ein Monomorphismus, wenn f injektiv ist,
(2) f ist ein Epimorphismus, wenn f surjektiv ist,
(3) f ist ein Isomorphismus, wenn f bijektiv ist,
(4) f ist ein Endomorphismus, wenn V = W gilt,
(5) f ist ein Automorphismus, wenn V = W gilt, und f bijektiv ist.
Lemma 2.2.5. Sei f : V W ein Isomorphismus von K-Vektorraumen. Dann
ist auch f
1
: W V ein Homomorphismus (also Isomorphismus).
2.2. LINEARE ABBILDUNGEN 7
Beweis. Seien w, w

W und ,

K. Wir wollen zeigen:


f
1
(w +

) = f
1
(w) +

f
1
(w

).
Weil f bijektiv, also injektiv ist, gen ugt es daf ur, zu zeigen, da f(rechte Seite) =
f(linke Seite) gilt. Und tatsachlich:
f(f
1
(w) +

f
1
(w

)) = ff
1
(w) +

ff
1
(w

)
= w +

= f(f
1
(w +

))
Bemerkung 2.2.6. Ein Isomorphismus zwischen zwei Vektorraumen V und W
bedeutet also einen eins-zu-eins-

Ubersetzungsmechanismus zwischen Elementen


von V und Elementen von W, der sogar noch mit den Rechenoperationen ver-
traglich ist. Es ist also egal, ob man eine Rechnung mit Elementen von V ausf uhrt,
und das Ergebnis dann nach W ubersetzt, oder ob man erst alle vorkommenden
Vektoren nach W ubersetzt, und die Rechnung dann dort ausf uhrt. V und W
sind also

praktisch dasselbe. Es sollte keine wesentlichen Eigenschaften geben,


die der Vektorraum V hat, aber W nicht.
Gibt es einen Isomorphismus von V nach W, sagen wir auch, V und W sind
isomorph, V

= W.
Lemma 2.2.7. Seien V und W zwei K-Vektorraume und f : V W ein Ho-
momorphismus. Dann ist Bi(f) ein Untervektorraum von W.
Allgemeiner ist f ur jeden Untervektorraum U V auch f(U) W ein Un-
tervektorraum.
Beispiel: Ax[x
n
K
m
K, das Bild von
A
, ist die Menge aller rechten
Seiten b, f ur die Ax = b losbar ist (wobei A
m
K
n
).
Beweis. Die Null ist in f(U), weil 0 U und f(0) = f(0
K
0
V
) = 0
K
f(0
V
) = 0.
Seien w, w

f(U). Dann gibt es u, u

U mit f(u) = w und f(u

) = w

. Es
folgt
w + w

= f(u) + f(u

) = f(u + u

) f(U)
weil u + u

U.

Ahnlich zeigt man w f(U) f ur K.
Die bisherigen

Operationen mit Homomorphismen (Verkn upfen, Invertieren


von Isomorphismen, das Bild als Unterstruktur) kann man auch bei allen anderen

vern unftigen algebraischen Strukturen genau so beweisen. Zum Beispiel geht

alles genauso f ur Gruppenhomomorphismen, Ringhomomorphismen. Insbeson-


dere spielt der Begri der Isomorphie eine ahnliche Rolle. Was im folgenden noch
behandelt wird, sind Begrie, die speziell f ur die Theorie der Vektorraume gelten.
8 KAPITEL 2. VEKTORR

AUME
Lemma 2.2.8. Seien V, W zwei K-Vektorraume. Die Linearen Abbildungen von
V nach W bilden einen Untervektorraum
Hom
K
(V, W) := f : V W[f ist linear W
V
.
Beweis. Man sieht sofort 0 Hom
K
(V, W). Seien f, g Hom
K
(V, W) und
K. Dann gilt f ur alle v, v

V , K:
(f + g)(v + v

) = f(v + v

) + g(v + v

)
= f(v)+f(v

)+g(v)+g(v

) = f(v)+g(v)+f(v

)+g(v

) = (f +g)(v)+(f +g)(v

)
und (f +g)(v) = f(v)+g(v) = f(v)+g(v) = (f(v)+g(v)) = (f +g)(v),
also ist f + g wieder K-linear. Weil
(f)(v+v

) = (f(v+v

)) = (f(v)+f(v

)) = f(v)+f(v

) = (f)(v)+(f)(v)
und (f)(v) = f(v) = f(v) = f(v) = (f)(v), ist f ebenfalls K-
linear.
Denition 2.2.9. Sei f : V W ein Homomorphismus von K-Vektorraumen.
Dann heit
Ker(f) := f
1
(0) = v V [f(v) = 0
der Kern von f.
Satz 2.2.10. Sei f : V W ein Vektorraumhomomorphismus.
(1) Ker(f) V ist ein Untervektorraum.
(2) Genau dann ist f injektiv, wenn Ker(f) = 0 gilt.
Beispiel: Sei A
m
K
n
. Dann ist
Ker(
A
) = L(A, 0) = x
n
K[Ax = 0
der Losungsraum des homogenen linearen Gleichungssystems Ax = 0. Wie wir
wissen ist
A
tatsachlich genau dann injektiv (d.h. jedes Gleichungssystem Ax = b
gar nicht oder eindeutig losbar) wenn Ax = 0 nur die triviale Losung hat.
Beweis des Satzes. (1) Wegen f(0) = 0 ist 0 Ker(f). Seien v, v

Ker(f),
also f(v) = f(v

) = 0. Dann folgt f(v +v

) = f(v) +f(v

) = 0 +0 = 0, also
v +v

Ker(f), und f ur K auch f(v) = f(v) = 0, also v Ker(f).


(2) Da f(0) = 0, kann f nur injektiv sein, wenn es kein weiteres v V 0 mit
f(v) = 0 gibt, wenn also Ker(f) = 0 ist. Sei umgekehrt Ker(f) = 0, und
seien v, v

V mit f(v) = f(v

). Dann folgt 0 = f(v

) f(v) = f(v

v),
also v

v Ker(f) = 0, also v

v = 0 oder v

= v.
2.2. LINEARE ABBILDUNGEN 9
Satz 2.2.11. Seien I eine Menge und V ein Vektorraum. F ur j I sei e
j
K
(I)
deniert durch e
j
= (
ij
)
iI
.
Dann gibt es f ur jede Familie (v
i
)
iI
V
I
genau einen Homomorphismus
f : K
(I)
V mit f(e
i
) = v
i
f ur alle i I, namlich
f : K
(I)
(a
i
)
iI

iI
a
i
v
i
V
Beweis. Es sei zunachst f durch die angegebene Formel deniert. Das geht, weil
(a
i
v
i
)
iI
V
(I)
. Die so denierte Abbildung ist ein Homomorphismus, weil
f((a
i
) + (b
i
)) = f((a
i
+ b
i
)
iI
) =

iI
(a
i
+ b
i
)v
i
=

iI
(a
i
v
i
+ b
i
v
i
)
=

iI
a
i
v
i
+

iI
b
i
v
i
= f((a
i
)
iI
) + f((b
i
)
iI
)
und ahnlich f((a
i
)
iI
) = f((a
i
)
iI
) f ur alle K, (a
i
), (b
i
) K
(I)
. Schlielich
ist f(e
j
) = f((
ij
)
iI
) =

iI

ij
v
i
= v
j
f ur jedes j I.
Jetzt sei g : K
(I)
V noch ein Homomorphismus mit g(e
i
) = v
i
f ur alle i. Sei
(a
i
) K
(I)
. Dann ist (a
i
)
iI
=

iI
a
i
e
i
, also g((a
i
)) = g(

a
i
e
i
) =

a
i
g(e
i
) =

a
i
v
i
= f((a
i
)).
Folgerung 2.2.12. Seien V ein Vektorraum und I eine Menge. Dann ist
: Hom(K
(I)
, V ) V
I
,
deniert durch (f) = (f(e
i
))
iI
, ein Isomorphismus von K-Vektorraumen.
Beweis. Wir haben gerade bewiesen, da bijektiv ist. Auerdem ist linear,
zum Beispiel gilt
(f + g) = ((f + g)(e
i
))
iI
= (f(e
i
) + g(e
i
))
iI
= (f(e
i
))
iI
+ (g(e
i
))
iI
= (f) + (g)
f ur alle f, g Hom(K
(I)
, V ).
Folgerung 2.2.13. Seien m, n N und K ein Korper. Dann ist
:
m
K
n
A
A
Hom
K
(
n
K,
m
K)
ein Isomorphismus von K-Vektorraumen.
Beweis. Die Abbildung ist injektiv, weil f ur A Ker alle Spalten Ae
i
=
A
(e
i
)
von A verschwinden, also A = 0 gilt.
Die Abbildung ist surjektiv, denn sei f Hom
K
(
n
K,
m
K), und sei A =
(f(e
1
), . . . , f(e
n
)) die Matrix mit den f(e
i
) als Spalten. Dann ist
A
(e
i
) = f(e
i
)
10 KAPITEL 2. VEKTORR

AUME
f ur alle i, also folgt f =
A
. (Dieser letzte Schlu benutzt tatsachlich 2.2.11, aber
nur einen sehr kleinen Teil. Besser benutzt man 2.3.2 unten.)
ist ein Homomorphismus, weil
A+B
=
A
+
B
,
(A)
=
A
, und diese
Gleichungen gelten weil

A+B
(x) = (A + B)x = Ax + Bx =
A
(x) +
B
(x) = (
A
+
B
)(x)
und

A
(x) = (A)x = (Ax) =
A
(x) = (
A
)(x)
f ur alle x
n
K.
2.3 Basen und Dimension
Lemma und Denition 2.3.1. F ur jede Teilmenge X V gibt es einen klein-
sten Unterraum U mit der Eigenschaft X U. Diesen Unterraum bezeichnen
wir mit X). Er kann als
X) =

U V [U Unterraum und X U
gewonnen werden.
Der Unterraum X) heit der von X erzeugte Unterraum von V . Gilt X) =
V , so heit die Menge X eine Erzeugendenmenge von V .
Beweis. Die Menge M= U V [U Unterraum und X U ist nicht leer, weil
V M. Also ist der Schnitt aller Elemente von M ein Unterraum von V . Nach
Denition ist X

M, und f ur jeden Unterraum U V mit X U ist U M,


also

M U.
Diese

Technik zum Hinschreiben des kleinsten Unterraums funktioniert bei

allen vern unftigen algebraischen Strukturen. Die recht abstrakte Beschreibung


ist auch oft n utzlich:
Lemma 2.3.2. Seien f, g : V W zwei Vektorraumhomomorphismen, und X
V eine Erzeugendenmenge.
Wenn f[
X
= g[
X
gilt (also f(x) = g(x) f ur alle x X), dann ist schon f = g.
Beweis. Sei h = g f. Dann ist h(x) = 0 f ur alle x X, also X Ker(h). Weil
Ker(h) V ein Unterraum ist, ist auch V = X) Ker(h), also h(v) = 0 und
damit f(v) = g(v) f ur alle v V .
Denition und Lemma 2.3.3. Sei (v
i
)
iI
eine Familie von Elementen des
Vektorraums V .
Einen Ausdruck der Form

iI
a
i
v
i
f ur (a
i
) K
(I)
und (v
i
) V
I
nennt man
eine Linearkombination der v
i
mit den Koezienten a
i
.
Der von den v
i
erzeugte Unterraum von V besteht genau aus allen Linear-
kombinationen der v
i
.
2.3. BASEN UND DIMENSION 11
Beweis. Die Linearkombinationen bilden genau das Bild des Homomorphismus
f : K
(I)
(a
i
)

iI
a
i
v
i
V,
und das Bild eines Homomorphismus ist ein Unterraum. Auerdem sind alle v
i
im Bild von f, namlich v
i
= f(e
i
). Also ist v
i
[i I) Bi(f). Andererseits ist
mit jedem v
i
auch jede Linearkombination im Unterraum v
i
[i I), weil letzteres
eben ein Unterraum ist. Also gilt auch die andere Inklusion.
Denition 2.3.4. Seien V ein K-Vektorraum und (v
i
)
iI
V
I
. Die Familie (v
i
)
heit linear unabhangig, wenn die Null nur auf triviale Weise als Linearkombina-
tion der v
i
dargestellt werden kann, also
(a
i
)
iI
K
(I)
[

iI
a
i
v
i
= 0 i I[a
i
= 0]]
Ein Vektor v heit von der Familie (v
i
) linear unabhangig, wenn v , v
i
[i I).
Bemerkung 2.3.5. Man kann auch kurz sagen: Die v
i
sind linear unabhangig
genau dann, wenn die Abbildung
: K
(I)
(a
i
)

iI
a
i
v
i
V
den Kern Ker() = 0 hat.

Aquivalent dazu ist injektiv, es gilt also
(a
i
), (b
i
) K
(I)
[

iI
a
i
v
i
=

iI
b
i
v
i
i I[a
i
= b
i
]]
(Stichwort:

Koezientenvergleich).
Denition 2.3.6. Eine Basis(familie) eines Vektorraums ist eine linear unabhangi-
ge Erzeugendenfamilie.
Bemerkung 2.3.7. Nach Denition ist B = (v
i
)
iI
genau dann eine Basisfamilie
f ur V , wenn
B
: K
(I)
V ein Isomorphismus ist.
Denition 2.3.8. Sei A
m
K
n
, und seien s
1
, . . . , s
n

m
K die Spalten von A.
Den Aufspann s
1
, . . . , s
n
)
m
K nennt man auch den Spaltenraum von A.
Analog deniert man den Zeilenraum.
Wir wissen schon lange, wie man eine Basis des Losungsraumes eines li-
nearen Gleichungssystems ausrechnet, also des Kerns einer linearen Abbildung
n
K
m
K. Eine andere Sorte von Unterraumen sind Bilder von solchen linearen
Abbildungen, oder, was dasselbe ist, Unterraume, die uns durch ein endliches Er-
zeugendensystem gegeben sind. F ur solche Unterraume von
m
K sagt der folgende
Satz, wie man eine Basis bestimmt:
12 KAPITEL 2. VEKTORR

AUME
Satz 2.3.9. Sei A
m
K
n
mit den Spalten s
1
, . . . , s
n
.
(1) Der Spaltenraum von A ist das Bild von
A
:
n
K
m
K.
(2) Die Spalten von A sind genau dann linear unabhangig, wenn rang(A) = n.
(3) Sei A A

, und sei A

eine Zeilenstufenmatrix mit den Stufen an den


Stellen j
1
, . . . , j
r
. Dann ist (s
j
1
, . . . , s
j
r
) eine Basis des Spaltenraums von
A.
(4) Sei D := (A, E
m
) D

, und sei D

eine Zeilenstufenmatrix mit den Stufen


an den Stellen j
1
, . . . , j
m
. Dann bilden die j
1
-te bis j
m
-te Spalte von D eine
Basis von
m
K, die eine Basis des Spaltenraums von A umfat.
Beweis. Es ist
A
=
(s
1
,...,s
m
)
:
n
K
m
K, wo
(s
1
,...,s
m
)
die lineare Abbildung
mit
(s
1
,...,s
m
)
(e
i
) = s
i
f ur alle i ist.
Damit ist (1) schon klar. F ur (2) beachte man, da rang(A) = n genau dann
gilt, wenn
A
injektiv ist.
(3): Die Matrix B = (s
j
1
, . . . , s
j
r
) hat nach (2) linear unabhangige Spalten.
Nat urlich ist Bi(
B
) Bi(
A
). Wir m ussen nur noch Gleichheit zeigen. Dazu sei
v Bi(
A
). Dann ist rang(A, v) = rang(A) = r, und rang(B, v) rang(A, v) =
rang(A) = rang(B), also v Bi(
B
).
(4): Folgt aus (3).
Nun wissen wir schon viel uber Erzeugendenmengen, linear unabhangige Teil-
mengen und Basen in
n
K. Wir sammeln jetzt wichtige Aussagen uber diese Be-
grie in beliebigen, abstrakten Vektorraumen.
Lemma 2.3.10. Folgende Aussagen uber eine Teilmenge B V sind aquivalent:
(1) B ist linear unabhangig.
(2) F ur jedes b B ist b von B b linear unabhangig.
(3) B ist leer, oder es gibt ein b B so da B b linear unabhangig ist, und
b von B b linear unabhangig ist.
Beweis. Sei b Bb), also etwa b =

cB\{b}

c
c. Dann wird

cB

c
c = 0 sobald
man
b
= 1 ,= 0 setzt. Das zeigt (1)(2).
Klar ist (2)(3).
Nun sei b B so da B b linear unabhangig ist, und b , B b. Sei
(
c
) K
(B)
mit

cB

c
c = 0. Falls
b
= 0, ist

cB\{b}

c
c = 0, also alle
c
= 0,
weil B b linear unabhangig. Aber
b
,= 0 ist unmoglich, weil daraus
b =
1
b

cB\{b}

c
c B b)
2.3. BASEN UND DIMENSION 13
folgen w urde.
Lemma 2.3.11. Folgende Aussagen uber eine Teilmenge B V sind aquivalent:
(1) B ist ein minimales Erzeugendensystem von V .
(2) B ist eine maximale linear unabhangige Teilmenge von V .
(3) B ist eine Basis von V .
Beweis. Sei B ein minimales Erzeugendensystem. Angenommen, B ist linear
abhangig. Dann gibt es b B mit b B b). Aber dann ist B B b),
und damit V = B) B b) im Widerspruch zur Minimalitat von B.
Sei B eine Basis. Dann ist nat urlich B ein Erzeugendensystem, und auch
minimal. Denn sei C B auch ein Erzeugendensystem, und angenommen es
gibt b B C. Dann ist b C) B b), und damit B linear abhangig.
Sei B eine maximale linear unabhangige Teilmenge von V , und angenommen
B) , = V , etwa v V B). Dann ist B v linear unabhangig, Widerspruch.
Sei nun B eine Basis. Dann ist B linear unabhangig. Angenommen es gibt
B C so da C linear unabhangig und C ,= B. Sei etwa c C B. Weil c von
C c, also auch von B linear unabhangig ist, ist c , B), ein Widerspruch
Der folgende Satz gilt auch ohne die Zusatze

endlich erzeugt bzw.

endlich,
ist dann aber sehr viel schwieriger zu beweisen (und nur unter Zuhilfenahme des
sogenannten Auswahlaxioms der Mengenlehre; man kann auch Mengenlehre ohne
Auswahlaxiom betreiben). Wir beweisen nur den

endlichen Fall. Man beachte,


da der Satz insbesondere besagt, da jeder endlich erzeugte Vektorraum zu einem
Vektorraum der Form
n
K isomorph ist. Auer diesen

typischen Beispielen gibt


es also bis auf Isomorphie keine weiteren.
Satz 2.3.12. Jeder endlich erzeugte Vektorraum hat eine endliche Basis.
Beweis. Sei E ein endliches Erzeugendensystem. Dann umfat E ein minimales
Erzeugendensystem (man nehme einfach unter den endlich vielen Teilmengen, die
Erzeugendensysteme sind, eine mit moglichst wenigen Elementen), und dieses ist
eine Basis.
Satz 2.3.13. Sei V ein Vektorraum. Sei V = g
1
, . . . , g
n
), und W = (w
i
)
iI
eine
linear unabhangige Familie in V . Dann ist I endlich mit hochstens n Elementen.
Hat I genau n Elemente, so sind (g
1
, . . . , g
n
) und W Basen von V .
Ist insbesondere V endlich erzeugt, so ist jede Basis von V endlich, und zwar
mit derselben, nur von V abhangigen Anzahl von Elementen.
Beweis. Es gen ugt (!) den Fall zu betrachten, da I endlich ist, etwa I = 1, . . . , m.
14 KAPITEL 2. VEKTORR

AUME
Nach dem Beweis von 2.3.12 gibt es eine Basis B = (b
1
, . . . , b
d
) von V mit
d n. Nun kann man den Mono
W
:
m
K V mit dem Iso
1
B
: V
d
K
verkn upfen, und erhalt einen Mono
f :=
1
B

W
:
m
K
d
K
der nach 2.2.13 die Form f =
A
f ur eine Matrix A
d
K
m
hat. Aber
A
Mono
impliziert schon m d.
Ist n = m, dann folgt wegen d n auch d = n. Also ist (g
1
, . . . , g
n
) Basis.
Auerdem ist A quadratisch und invertierbar, also ist
W
auch Iso, also W Basis.
Nur weil wir bewiesen haben, da verschiedene Basen desselben Vektorraums
immer gleich viele Elemente haben, d urfen wir nun die folgende Denition aus-
sprechen:
Denition 2.3.14. Sei V ein endlich erzeugter Vektorraum. Dann heit die
Anzahl der Elemente einer Basis von V die Dimension von V , dimV .
Man nennt endlich erzeugte Vektorraume auch endlichdimensional.
Folgerung 2.3.15. Sei V ein K-Vektorraum mit dimV = n, und sei B V
eine Teilmenge. Dann sind aquivalent:
(1) B ist eine Basis (und damit insbesondere [B[ = n).
(2) B ist linear unabhangig und [B[ n.
(3) B ist Erzeugendenmenge und [B[ n.
Der folgende Satz gilt auch ohne den Zusatz

endlichdimensional, ist aber


dann wieder sehr viel schwerer zu beweisen. Wir schaens, weil mit der Dimen-
sion eine obere Schranke f ur die Groe linear unabhangiger Teilmengen da ist.
Satz 2.3.16. Sei V ein endlichdimensionaler Vektorraum. Seien X V linear
unabhangig, und Y V so da XY ) = V . Dann gibt es eine Teilmenge Z Y
mit Z X = , so da X Z eine Basis von V ist.
Insbesondere kann man jede linear unabhangige Teilmenge durch Elemente
einer vorgegebenen Erzeugendenmenge zu einer Basis erganzen.
Beweis. Ist Z Y eine Teilmenge so da XZ = , und XZ linear unabhangig,
dann hat nach 2.3.15 die Menge XZ hochstens dimV Elemente. Man kann also
eine solche Teilmenge Z mit moglichst vielen Elementen betrachten. Dann ist aber
XY XZ), und damit XZ) = V , denn sonst gabe es y Y XZ), und
f ur Z

:= Zy waren immer noch Z

X = , und Z

X linear unabhangig.
2.3. BASEN UND DIMENSION 15
Um zu verstehen, da die nachste Folgerung nicht schon vollig selbstverstand-
lich ist, beachte man: Wenn man ein Erzeugendensystem eines Vektorraums V
kennt (z.B. die kanonische Basis von V =
n
K) und einen Unterraum U V
betrachtet, kennt man zunachst kein Erzeugendensystem von U. Schlielich mu
kein einziger der Vektoren aus unserem Erzeugendensystem von V ein Element
von U sein (zum Beispiel enthalt der Losungsraum eines LGS ublicherweise nicht
unbedingt einen der kanonischen Basisvektoren).
Folgerung 2.3.17. Jeder Untervektorraum U eines endlichdimensionalen Vek-
torraums V ist endlichdimensional mit dimU dimV .
Beweis. Linear unabhangige Teilmengen von U konnen hochstens dimV Ele-
mente haben. Sei B U eine linear unabhangige Teilmenge mit moglichst vielen
Elementen. Dann ist B eine Basis, denn wenn es u U B) gabe, dann ware
auch B u eine linear unabhangige Teilmenge von U.
Der nachste Satz ist uns f ur die kanonische Basis B von V = K
(I)
schon
bekannt. Er sagt: Um eine lineare Abbildung anzugeben, gen ugt es, zu sagen, was
mit den Elementen einer Basis geschehen soll. Da man nicht mehr Information
braucht, um eine lineare Abbildung festzulegen, wissen wir auch schon aus 2.3.2
(und es wird im letzten Schritt des Beweises auch benutzt). Neu ist, da es
uberhaupt eine lineare Abbildung gibt, die die beliebige Vorgabe auf der Basis
erf ullt.
Satz 2.3.18. Seien V ein Vektorraum und B = (b
i
)
iI
eine Basisfamilie von V .
Dann gibt es zu jedem Vektorraum W und jeder Familie (w
i
)
iI
W
I
genau
eine lineare Abbildung f : V W mit f(b
i
) = w
i
f ur alle i I.
Beweis. f =
(w
i
)

1
(b
i
)
tuts, weil
(w
i
)

1
(b
i
)
(b
j
) =
(w
i
)
(e
j
) = w
j
. Ist umgekehrt
g : V W linear mit g(b
i
) = w
i
f ur alle i, dann ist g = f, weil g
(b
i
)
=
(w
i
)
,
wie die Rechnung g
(b
i
)
(e
j
) = g(b
j
) = w
j
=
(w
i
)
(e
j
) zeigt.
Und weils so gut zu

Basen und Homomorphismen pat, hier wichtige Infor-


mationen dar uber, wie sich linear unabhangige bzw. erzeugende Familien unter
Homomorphismen verhalten. Mehr dazu siehe

Ubungen!
Satz 2.3.19. Seien V, W Vektorraume, I eine Menge, (v
i
)
iI
V
I
, und f : V
W ein Homomorphismus.
(1) Ist (v
i
) eine Erzeugendenfamilie und f surjektiv, dann ist auch (f(v
i
))
iI

W
I
eine Erzeugendenfamilie von W.
(2) Ist (v
i
) linear unabhangig und f injektiv, dann ist auch (f(v
i
))
iI
W
I
linear unabhangig.
(3) Ist (v
i
) eine Basis von V und f ein Iso, dann ist (f(v
i
)) eine Basis von W.
16 KAPITEL 2. VEKTORR

AUME
Beweis. Nat urlich folgt (3) aus (1) und (2). Wir uberzeugen uns erst einmal, da

(f(v
i
))
= f
(v
i
)
: K
(I)
W gilt. Dazu gen ugt die Rechnung
(f(v
i
))
(e
j
) =
f(v
j
) = f(
(v
i
)
(e
j
)) f ur j I. Nun ist (v
i
) Erzeugendensystem genau wenn
(v
i
)
Epi. Ist dann auch f Epi, so auch die Verkettung
(f(v
i
))
, und damit (f(v
i
))
Erzeugendensystem. Das zeigt (1). Zu (2) verfahre man genauso: (v
i
) linear un-
abhangig heit
(v
i
)
Mono, woraus mit f Mono auch
(f(v
i
))
Mono, also (f(v
i
))
linear unabhangig folgt.
Kapitel 3
Euklidische und unit

are
Vektorr

aume
3.1 Skalarprodukte
Denition 3.1.1. Seien U, V, W drei K-Vektorraume. Eine Abbildung : U
V K heit K-bilinear, wenn gilt
(1) F ur jedes u U ist die Abbildung
V v (u, v) W
linear.
(2) F ur jedes v V ist die Abbildung
U u (u, v) W
linear.
Das bedeutet also genau, da die folgenden Beziehungen gelten:
(1) u, u

Uv V [(u +u

, v) = (u, v) +(u

, v)]
(2) u Uv, v

V [(u, v +v

) = (u, v) +(u, v

)]
(3) u U Kv V [(u, v) = (u, v) = (u, v)]
Eine bilineare Abbildung : V V K heit auch Bilinearform auf V . Eine
Bilinearform heit nicht ausgeartet, wenn
v V [w V [(v, w) = 0] v = 0]
w V [v V [(v, w) = 0] w = 0]
Sie heit symmetrisch, wenn
v, w V [(v, w) = (w, v)].
1
2 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Beispiele 3.1.2. (1) F ur n N ist :
n
K
n
K K, (v, w) = v
t
w eine
symmetrische Bilinearform.
(2) F ur m, n, p N deniert die Matrizenmultiplikation eine bilineare Abbil-
dung
:
m
K
n

n
K
p

m
K
p
.
(3) Sind f : U

U, g : V

V und h: W W

linear, sowie : U V W
bilinear, dann ist auch

: U

; (u

, v

) h((f(u

), g(v

)))
wieder bilinear.
(4) Seien m, n, p, q N und A
n
K
p
. Dann ist
:
m
K
n

p
K
q

m
K
q
, (X, Y ) XAY
bilinear.
(5) Insbesondere ist
:
n
K
n
K K, (v, w) v
t
Aw
bilinear f ur jedes A
n
K
n
.
(6) Die Abbildung
n
K
n

n
K
n
(A, B) Spur(AB) K
ist bilinear.
Denition 3.1.3. Seien V ein R-Vektorraum und eine symmetrische Bilinear-
form auf V .
(1) heit positiv semidenit, wenn v V [(v, v) 0]
(2) heit positiv denit, wenn v V 0[(v, v) > 0]
(3) heit negativ semidenit (bzw. negativ denit, wenn v V [(v, v) 0]
(bzw. zusatzlich (v, v) = 0 v = 0.
Eine positiv denite symmetrische Bilinearform nennt man ein Skalarprodukt auf
V .
Ein euklidischer Vektorraum ist ein reeller Vektorraum mit einem Skalarpro-
dukt.
Nat urlich (bitte einfach Denitionen anschauen!) ist jedes Skalarprodukt eine
nicht ausgeartete Bilinearform.
3.1. SKALARPRODUKTE 3
Denition 3.1.4. Sei V ein C-Vektorraum. Eine hermitesche Form auf V ist
eine Abbildung : V V C, so da f ur alle v, v

, w V und V gilt:
(v +v

, w) = (v, w) +(v

, w), (v, w) = (v, w), und (v, w) = (w, v).


Eine hermitesche Form heit positiv denit, wenn (v, v) > 0 f ur alle
v V 0 gilt.
Ein Skalarprodukt auf V ist eine positiv denite hermitesche Form. Ein
unitarer Vektorraum ist ein komplexer Vektorraum mit einem Skalarprodukt.
Bemerkung 3.1.5. Eine hermitesche Form ist nicht bilinear, sondern

sesqui-
linear, das heit, f ur alle u, u

, v, v

V , C gilt
(u +u

, v) = (u, v) +(u

, v)
(u, v) = (u, v)
(u, v +v

) = (u, v) +(u, v

)
(u, v) = (u, v)
Man pr uft leicht: Ist sesquilinear, dann auch die Abbildung : V V (v, w)
(w, v).
Bemerkung 3.1.6. Im folgenden sei stets K einer der beiden Korper R, C.
Falls K = R, ist x = x f ur alle x K. Ein Vektorraum mit Skalarprodukt ist
dann

je nachdem ein (reeller) euklidischer, oder eben ein (komplexer) unitarer


Vektorraum.
F ur Familien x = (x
i
) K
I
schreiben wir x := (x
i
)
iI
K
I
.
Skalarprodukte schreiben wir oft v, w) statt (v, w).
Beispiele 3.1.7. (1) Auf
n
K ist das kanonische Skalarprodukt gegeben durch
v, w) = v
t
w =

n
k=1
v
i
w
i
.
(2) Sei A
n
K
n
. Dann wird auf
n
Kdurch (v, w) = v
t
Aw eine Sesquilinearform
deniert. Sie ist hermitesch genau dann wenn A = A
t
=: A

gilt.
Beweis. Nat urlich ist (, w) linear. Aber auch (v, w+w

) = v
t
Aw +w

=
v
t
A( w +w

) = v
t
Aw +v
t
Aw

= (v, w) +(v, w

).
Falls A = A

, gilt ist (v, w) = v


t
Aw = v
t
Aw = (v
t
Aw)
t
= w
t
A
t
v =
(w, v).
Jetzt sei umgekehrt hermitesch, A = (a
ij
). Dann ist a
ij
= e
t
i
Ae
j
=
e
t
i
Ae
j
= (e
i
, e
j
) = (e
j
, e
i
) = e
t
j
Ae
i
= a
ji
f ur alle i, j, also A = A

.
(3) Sei B
n
K
n
. Dann wird (als Spezialfall des vorhergehenden Beispiels durch
(v, w) = v
t
B
t
Bw eine hermitesche Form auf
n
K deniert. Sie ist immer
positiv semidenit, und positiv denit genau dann wenn W GL(n, K).
4 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Beweis. Es ist (W
t
W)
t
= W
t
W = W
t
W, also ist hermitesch. Wenn
, ) das kanonische Skalarprodukt auf
n
K bezeichnet, dann ist (v, w) =
Bv, Bw), also ist positiv semidenit. Wenn B , GL(n, K), dann gibt
es v
n
K mit v ,= 0 aber Bv = 0, also (v, v) = Bv, Bv) = 0. Ist
aber B GL(n, K), dann ist f ur jedes v ,= 0 auch Bv ,= 0 und damit
(v, v) > 0.
(4) Auf dem Vektorraum der stetigen komplexwertigen Funktionen auf dem
Einheitsintervall [0, 1] wird durch f, g) :=
_
1
0
f(x)g(x)dx ein Skalarpro-
dukt deniert.
Denition 3.1.8. Sei A
m
K
n
. Die Matrix A

:= A
t
heit die zu A hermitesch
konjugierte Matrix (falls K = R, ist das einfach die transponierte).
Die Matrix A
n
K
n
heit hermitesch, falls A = A

.
Eine hermitesche Matrix A heit positiv denit, wenn v
t
Av > 0 f ur alle
0 ,= v
n
K. (Positiv semidenit, falls v
t
Av 0 f ur alle v
n
K.
Bemerkung 3.1.9. Ist W
n
K
n
, dann ist W

W immer positiv semidenit,


und falls W regular ist, sogar positiv denit. Tatsachlich wird sich herausstellen,
da alle positiv deniten Matrizen diese Form haben, aber das ist nicht so leicht!
Auch nicht leicht ist es, einer vorgelegten Matrix anzusehen, ob sie positiv denit
ist. Beispielsweise A =
_
1 2
2 3
_
nicht.
Bemerkung 3.1.10. Ein Skalarprodukt auf V ist stets

nicht ausgeartet. Das


heit, wenn f ur einen Vektor v V gilt: v, w) = 0 f ur jedes w V , dann ist
schon v = 0. Es gen ugt nat urlich schon zu testen: v, b
i
) = 0 f ur alle i, denn die
Abbildung w w, v) ist ja linear.
Lemma 3.1.11. Seien eine hermitesche Form auf V , und b
1
, . . . , b
n
V .
(1) F ur v =

v
i
b
i
und w =

w
j
b
j
gilt (v, w) =

v
i
w
j
(b
i
, b
j
).
(2) Ist B = (b
1
, . . . , b
n
) Erzeugendensystem von V , und auch eine Sesqui-
linearform, dann ist = genau dann wenn (b
i
, b
j
) = (b
i
, b
j
) f ur alle
i, j.
(3) Ist B Erzeugendensystem, dann ist genau dann hermitesch, wenn (b
i
, b
j
) =
(b
j
, b
i
) f ur alle i, j.
(4) Sei ein Skalarprodukt. Dann ist B genau dann linear unabhangig, wenn
die Matrix ((b
i
, b
j
))
i,j
regular ist.
3.1. SKALARPRODUKTE 5
Beweis. (1), (2) nicht der Rede wert. Zu (3): Mit Notationen aus (1) ist (w, v) =

v
i
w
j
(b
j
, b
i
) = (v, w) falls (b
i
, b
j
) = (b
j
, b
i
). Die andere Richtung ist klar!
Zu (4) sei OBdA B ein Erzeugendensystem. Sei w =

w
j
b
j
. Dann ist w =
0 genau dann wenn f ur alle j gilt 0 = (b
i
, w) =

(b
i
, b
j
)w
j
. Das ist f ur
nichttriviale w
j
genau dann moglich wenn die Matrix nicht regular ist.
Denition und Satz 3.1.12. Sei V ein endlichdimensionaler K-Vektorraum
mit Basis B = (b
1
, . . . , b
n
).
F ur eine hermitesche Form auf V heit M
B
() := ((b
i
, b
j
))
n
K
n
die
darstellende Matrix von bez uglich der Basis B. Dies ist eine hermitesche Ma-
trix.
Es gilt (v, w) = k
B
(v)
t
M
B
()k
B
(w) f ur alle v, w V .
Umgekehrt sei A
n
K
n
hermitesch. Dann wird durch
A
(v, w) := k
B
(v)
t
Ak
B
(w)
eine hermitesche Form auf V erklart.
Es ist M
B
(
A
) = A und
M
B
()
= f ur alle hermiteschen Formen und
hermiteschen Matrizen A. Mit anderen Worten: Die Abbildung
hermitesche Formen auf V M
B
() A
n
K
n
[A

= A
ist eine Bijektion zwischen der Menge aller hermiteschen Formen auf V und der
Menge der hermiteschen Matrizen.
Genau dann ist : V V K positiv (semi)denit, wenn M
B
() positiv
(semi)denit ist.
Ist B

eine weitere Basis von V , und T = T


B

B
so gilt M
B
() = T
t
M
B
()T.
Beweis. Man rechnet leicht nach (...!) da M
B
() hermitesch ist.
Ist andererseits A
n
K
n
hermitesch, und deniert man :=
B,A
: V
V K durch
B,A
(v, w) = k
B
(v)
t
Ak
B
(w), so ist (, w) linear, weil k
B
und
K
n,1
x x
t
Ak
B
(w) K linear sind. Auerdem ist (v, w) = k
B
(v)
t
Ak
B
(w) =
k
B
(w)
t
A

k
B
(v) = (w, v).
Sei A K
n,n
hermitesch. Dann ist M
B
(
B,A
) = (
B,A
(b
i
, b
j
)) = k
B
(b
i
)
t
Ak
B
(b
j
) =
e
t
i
Ae
j
=
ij
f ur A = (
ij
), also M
B
(
B,A
) = A.
Umgekehrt sei eine hermitesche Form. F ur k
B
(v) = (
i
) und k
B
(w) =
(
i
) (v, w) = (

i
b
i
,

j
b
j
) =

i,j

i

j
(b
i
, b
j
) = k
B
(v)M
B
()k
B
(w), also

B,M
B
()
= .
Ist B

= (b

1
, . . . , b

n
) so ist b

j
=

ij
b
i
f ur T = (
ij
), also (b

i
, b

j
) =
(

ki
b
k
,

j
b

) =

k,

ki
(b
k
, b

)
j
.
ist positiv denit genau dann wenn (v, v) > 0 f ur alle v ,= 0, genau dann
wenn k
B
(v)
t
M
B
()k
B
(v) > 0 f ur alle v ,= 0, genau dann wenn x
t
M
B
()x f ur alle
x K
n,1
, genau dann wenn M
B
() positiv denit ist.
6 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
3.2 Cauchy-Schwarz, Norm und Winkel
Satz 3.2.1 (Cauchy-Schwarzsche Ungleichung). Seien V ein K-Vektorraum
mit Skalarprodukt, und v, w V . Dann gilt
[v, w)[
2
v, v)w, w),
und wenn [v, w)[
2
= v, v)w, w), dann sind v und w linear abhangig.
Beweis. Wir konnen annehmen, da v, w) = [v, w)[ ist, denn sonst wahlen
wir C mit [[ = 1 und v, w) = [v, w)[, und ersetzen v durch v, mit
[v, w)[ = [v, w)[, v, v) = v, v) = v, v).
Da , ) ein Skalarprodukt ist, gilt f ur alle R: 0 v +w, v +w)v, v) =

2
v, v)
2
+w, w)v, v)+v, w)v, v)+w, v)v, v) =
2
v, v)
2
+2v, w)v, v)+
w, w)v, v) =
_
v, v) +v, w)
_
2
+w, w)v, v) v, w)
2
Aber das Quadrat kann
den Wert Null annehmen: F ur v = 0 eh immer, und sonst nehme man =

v, w)
v, v)
.
Ist tatsachlich 0 = v, w)
2
v, v)w, w), so war entweder v, v) = 0 und damit
v = 0, oder 0 = v +w, v +w) und daher v +w = 0.
Folgerung 3.2.2. Sei V ein K-Vektorraum mit Skalarprodukt. Dann wird durch
|v| =
_
v, v) eine Norm auf V deniert, d. h. es gelten
(1) |v| 0 f ur alle v V , und |v| = 0 impliziert v = 0,
(2) |v| = [[|v| f ur alle v V ,
(3) |v +w| |v| +|w| f ur alle v, w V (Dreiecksungleichung)
Beweis. |v +w|
2
= v +w, v +w) = v, v) +v, w) +w, v) +w, w) = v, v) +
2'(v, w)) + w, w) v, v) + 2[v, w)[ + w, w) |v|
2
+ 2|v||w| + |w|
2
=
(|v| +|w|)
2
.
Folgerung 3.2.3. Sei V ein euklidischer Vektorraum. F ur alle v, w V 0
gilt
1
v, w)
|v||w|
1.
Die eindeutig bestimmte reelle Zahl [0, ] mit
cos =
v, w)
|v||w|
heit der Winkel zwischen v und w.
3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 7
Die Denition des Winkels stellt also die Formel v, w) = |v||w| cos() f ur
den Winkel zwischen v und w auf den Kopf.
F ur v, w V ist v, w) = 0 genau dann, wenn der Winkel zwischen v und w
gleich /2 ist.
Denition 3.2.4. Sei V ein Vektorraum mit Skalarprodukt. Zwei Vektoren
v, w V heien orthogonal, v w, wenn v, w) = 0 ist.
Folgerung 3.2.5 (Satz von Pythagoras,Cosinussatz). Seien V ein Vek-
torraum mit Skalarprodukt und v, w V mit v w. Dann ist |v + w|
2
=
|v|
2
+|w|
2
.
Sind V ein euklidischer Vektorraum v, w V , und der Winkel zwischen v
und w, so ist allgemeiner |v +w|
2
= |v|
2
+|w|
2
+ 2|v||w| cos().
3.3 Orthogonale Projektion und kleinste Qua-
drate
Lemma 3.3.1 (Rieszscher Darstellungssatz). Sei V ein endlichdimensio-
naler Vektorraum mit Skalarprodukt. Dann gibt es zu jedem linearen : V K
genau ein v V mit (w) = w, v) f ur alle w V .
Beweis. Sei B = (b
1
, . . . , b
n
) eine Basis von V . Dann ist (w) = w, v) f ur alle w
genau dann, wenn (b
i
) = b
i
, v) f ur alle i, oder gleichbedeutend v, b
i
) = (b
i
).
Die Abbildung f : V v (v, b
i
))
i=1,...,n

n
K ist linear, injektiv (siehe 3.1.10),
also surjektiv (...!) Also gibt es genau ein v mit f(v) = ((b
i
)).
Der Beweis ist fertig, aber das wollen wir doch nochmal genauer verste-
hen. Wir suchen also v =

v
i
b
i
mit (b
j
) = v, b
j
) =

v
i
b
i
, b
j
). Das sind
n lineare Gleichungen f ur n Unbekannte v
i
, und es gibt genau eine Losung,
weil die darstellende Matrix von regular ist. Noch genauer: A := M
B
(),
F := M
B
1
() = ((b
i
)) K
n
, die darstellende Matrix von . Dann wollen
wir k
B
(v)
t
A = F, oder A
t
k
B
(v) = F
t
losen. Und noch konkreter: Jetzt haben
wir vielleicht Gl uck, und A = E
n
. Dann haben wir einfach k
B
(v) = F
t
, oder
v =

(b
i
)b
i
. Und nochmal konkreter konnten wir uns ja in V =
n
K bewegen.
Dann steht schlielich die Gleichung v = ((e
i
)) da. Bis auf die lastige Konju-
gation und Transposition kann man also sagen: v ist einfach der Vektor, dessen
Komponenten die Werte von auf der kanonischen Basis sind.
Satz 3.3.2. Seien V ein Vektorraum mit Skalarprodukt, und U ein endlichdi-
mensionaler Unterraum von V . Sei v V .
Dann gibt es genau ein u
0
U mit der Eigenschaft v u
0
U. u
0
heit die
orthogonale Projektion von v auf U.
F ur jedes u U gilt |u v| |u
0
v|, und Gleichheit nur wenn u = u
0
.
8 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Beweis. Wir nehmen erst einmal an, da es die orthogonale Projektion gibt. Dann
gilt f ur u U: |uv|
2
= |uu
0
+u
0
v|
2
= |uu
0
|
2
+|u
0
v|
2
|u
0
v|
2
,
und Gleichheit genau wenn |u u
0
| = 0, d.h. u = u
0
.
Jetzt zur Existenz von u
0
: wir wollen gerne v u
0
u f ur alle u U, also
u, u
0
) = u, v) =: (u) f ur alle u U. Dabei ist : U K linear, also gibt es
nach Riesz genau ein u
0
U wie gew unscht.
Das uberlegen wir uns auch noch mal konkreter: Hier ist also M
B
1
() =
(b
i
, v)), und damit F
t
= (v, b
i
)). Es ist also, mit der darstellenden Matrix A des
Skalarprodukts, zu losen A
t
k
B
(u) = (v, b
i
)). Man kann auch noch einen Schritt
zur uckgehen: Wir suchen u U mit u, b
i
) = v, b

f ur alle i.
Ist speziell A = E
n
, ist das Leben einfacher; wir bekommen k
B
(u) = (v, b
i
)),
oder u =

v, b
i
)b
i
.
Denition 3.3.3. Seien V ein Vektorraum mit Skalarprodukt und U V ein
Unterraum. Dann heit U

:= v V [u U : v u das orthogonale Komple-


ment von U.
Man sieht sogleich: U (U

, und U U

= 0.
Satz 3.3.4. Seien V ein Vektorraum mit Skalarprodukt, und U V ein endlich-
dimensionaler Unterraum von V .
Dann ist V = U + U

. Genauer gilt: Jedes v V lat sich auf eindeutige


Weise in der Form v = p(v) + v

mit p(v) U und v

schreiben. Dabei ist


p(v) die orthogonale Projektion aus dem vorhergehenden Satz. Es gilt (U

= U.
Die Abbildung p: V V ist p linear. Es gelten p
2
= p und p(v), w) =
v, p(w)) f ur alle v, w V . Weiter ist U = Bi(p) und U

= Ker(p).
p heit der orthogonale Projektor auf U. Der Vektor p(v) v heit das Lot
von v auf U, seine Lange ist der Abstand von v zu U.
Beweis. Die orthogonale Projektion p(v) ist per Denition der einzige Vektor u
0
in U mit v u
0
= v

U, also hat man die behauptete eindeutige Zerlegung


von v. Um zu beweisen, da p linear ist, gen ugt es, zu zeigen, da f ur v, w V
und K gilt: (v +w) (p(v) +p(w)) U, und v p(v) U. Ersteres gilt
weil (v + w) (p(v) + p(w)) = (v p(v)) + (w p(w)), beide Summanden sind
in U

, letzteres weil v p(v) = (v p(v)) U

.
Es gilt ohnehin U (U

. Ist andererseits v (U

, und v = p(v) + v

,
dann ist v v

(denn v

), also v

= v p(v) v

wegen p(v) v

, und
daher schlielich v

= 0 und v = p(v) U.
Wir haben schon bewiesen, da die Lange von v p(v) der Abstand von v zu
U ist. Bleiben die weiteren Aussagen uber p.
F ur u U ist p(u) = u nach Denition von p. F ur jedes v V ist p(v) U.
Also ist p
2
(v) = p(p(v)) = p(v), und damit p
2
= p. Sowieso ist Bi(p) U,
andererseits f ur u U schon u = p(u) Bi(p). Nach Denition von p ist p(v) = 0
f ur jedes v U

. Ist andererseits p(v) = 0, dann ist v = v

p(v) U

.
3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 9
F ur u U ist u, v) = u, p(v) + v

) = u, p(v)), weil v

. Also ist
p(v), w) = p(v), p(w)) = v, p(w)), ersteres weil p(v) U, letzteres weil p(w)
U.
Der nachste Satz sagt konkreter, wie man einen Vektor auf den Spaltenraum
einer Matrix projiziert. Genauer mochte man das Gleichungssystem Ax = b
moglichst genau losen, das heit gesucht sind diejenigen x
0
, f ur die Ax
0
b
moglichst kleine Lange hat. Dann ist nat urlich Ax
0
die Projektion von b auf
den Spaltenraum von A. Das heit nun wieder genau, da Ax
0
b Ax f ur alle
x
n
K gelten mu, also
0 = Ax
0
b, Ax)

= A

(Ax
0
b), x)
f ur alle x
n
K. An der Stelle mit dem Sternchen haben wir verwendet:
v, Ax) = v
t
Ax = (A
t
v)
t
x = A

v, x)
und diese Rechnung beruht wieder darauf, da wir
m
K mit dem kanonischen
Skalarprodukt versehen.
Nun bedeutet A

(Ax
0
b), x) = 0 f ur alle x
n
K nichts anderes als 0 =
A

(Ax
0
b), oder A

Ax
0
= A

b. Wir haben den groten Teil des folgenden Satzes


bewiesen:
Satz 3.3.5. Sei A
m
K
n
und b
m
K. Wir betrachten
m
K mit dem kanonischen
Skalarprodukt. F ur x
0

n
K sind aquivalent:
(1) |Ax
0
b| = min|Ax b|[x
n
K
(2) A

Ax
0
= A

b.
Es gilt rang(A

A) = rang(A). Wenn insbesondere rang(A) = n ist, dann ist


A

A GL(n, K), und der eindeutig bestimmte Vektor x


0
der die obigen Bedin-
gungen erf ullt, ist durch x
0
= (A

A)
1
A

b gegeben. Die Matrix (A

A)
1
A


n
K
m
nennt man in diesem Fall auch die Pseudoinverse von A.
Beweis. Es ist nur noch die Aussage uber die Range zu beweisen. Wir uberlegen
erst mal L(A

, 0) = Bi(
A
)

(f ur jede rechteckige Matrix, also auch) L(A, 0) =


Bi(
A
)

. Tatsachlich seien s
1
, . . . , s
n
die Spalten von A. Dann sind s

1
, . . . , s

n
die Zeilen von A

. F ur x
m
K gilt x L(A

, 0) genau dann wenn 0 = s

i
x
f ur alle i, genau dann wenn 0 = s
t
i
x = s
i
, x) f ur alle i, genau dann wenn x
s
1
, . . . , s
n
)

= Bi(
A
)

.
Jetzt sei A

Ax = 0. Dann ist Ax Bi(


A
) L(A

, 0) = 0. Damit ist
L(A

A, 0) = L(A, 0), und weil die Matrizen A

A und A gleich viele Spalten


haben, sind die Range gleich.
Im Verlauf des Beweises haben wir das nachfolgende Lemma bewiesen, das zu
notieren sich lohnt:
10 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Lemma 3.3.6. Sei A
m
K
n
. Dann gelten
Ker(
A
)

= Bi(
A
)
Ker(
A
)

= Bi(
A
)
Theorem 3.3.7. Sei A
m
K
n
und b
m
K. Sei x
0

n
K mit
|Ax
0
b| = min|Ax b|[x
n
K =: d
Dann sind aquivalent:
(1) |x
0
| = min|x|[x
n
K, |Ax b| = d,
(2) x
0
Ker(
A
)

,
(3) x
0
Bi(
A
).
Es existiert genau ein x
0

n
K, das diese Eigenschaften hat.
Beweis. Da (2) und (3) aquivalent sind, wissen wir eh schon.
Sei x
0

n
K mit |Ax b| = d, also A

Ax
0
= A

b, und zusatzlich x
0

Ker(
A
)

. Ist dann noch x


n
K mit |Ax b| = d, dann auch A

Ax = A

b =
A

Ax
0
, also A

A(x x
0
) = 0, also A(x x
0
) = 0, also x x
0
Ker(
A
). Damit
ist
|x|
2
= |x x
0
+x
0
|
2
= |x x
0
|
2
+|x
0
|
2
|x
0
|
2
,
und Gleichheit gilt nur wenn |x x
0
| = 0, also x = x
0
. Das beweist (2) =
(1), und wenn es ein solches x
0
uberhaupt gibt ist auch (1) = (2) und die
Eindeutigkeit gezeigt.
Zur Existenz sei x
n
K irgendeine Losung von A

Ax = A

b. Schreibe x =
x
0
+x

mit x
0
Ker(
A
)

und x

Ker(
A
). Dann ist auch A

Ax
0
= A

A(xx

) =
A

Ax = A

b.
Bemerkung: Man sieht, wie man ein x
0
wie im gerade bewiesenen Satz
bekommen kann. Man nehme einfach irgendeine Losung x von A

Ax = A

b, und
dann projiziere man diese auf Bi(
A
).
Jetzt fassen wir die Zuordnung, die aus einem b
m
K das eindeutige x
0

n
K
wie im vorhergehenden Satz gewinnt, als Abbildung h:
m
K
n
K auf. Diese
Abbildung ist linear (!!!) und also durch eine Matrix A
+

n
K
m
gegeben, die die
Pseudoinverse von A heit.
Spaeshalber pr ufen wir jetzt mal direkt, da h linear ist (in der Vorlesung
haben wir das ubersprungen und wie unten begr undet). h(b) ist eindeutig be-
stimmt durch A

Ah(b) = A

b und h(b) Bi(


A
). Sei nun noch c
m
K. Dann
ist A

A(h(b) + h(c)) = A

Ah(b) + A

Ah(c) = A

b + A

c = A

(b + c) und
h(b) + h(c) Bi(
A
), also h(b) + h(c) = h(b + c). Ebenso ist h(b) = h(b) f ur
K, denn A

A(h(b)) = A

Ah(b) = A

b = A

(b) und h(b) Bi(


A
).
3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 11
Theorem 3.3.8. Sei A
m
K
n
. Dann gibt es genau eine Matrix A
+

n
K
m
so
da f ur alle b
m
K gilt:
(1) |AA
+
b b| = min|Ax b|[x
n
K =: d(b),
(2) |A
+
b| = min|x|[x
n
K, |Ax b| = d(b).
Die Matrix A heit die Pseudoinverse von A.
Beweis. Sei p:
m
K
m
K der orthogonale Projektor auf Bi(
A
).
Die Abbildung f : Bi(
A
) Bi(
A
), x Ax ist (selbstverstandlich) linear,
injektiv weil Ker(f) = Bi(
A
) Ker(
A
) = Ker(
A
)

Ker(
A
) = 0, und daher
bijektiv, weil Quelle und Ziel dieselbe Dimension, namlich rang(A) = rang(A

),
haben. Die Umkehrabbildung f
1
ist ebenfalls linear, also auch die Abbildung
h:
m
K
n
K
,
b f
1
(p(b)).
(Die Abbildung ist wohldeniert, weil p(b) Bi(
A
) f ur alle b.) Es gibt eine Matrix
A
+

n
K
m
mit A
+
b = h(b) f ur alle b
m
K. Nach Konstruktion ist A
+
b Bi(
A
).
Bleibt noch zu pr ufen, da auch A

AA
+
b = A

b gilt. Und tatsachlich: A

AA
+
b =
A

Ah(b) = A

Af
1
(p(b)) = A

f(f
1
(p(b))) = A

p(b) = A

b, letzteres weil p(b)


b Bi(
A
)

= Ker(
A
).
Als Lohn der Konstruktion hat man eine Matrix A
+
, die

alle Informationen
uber die irgendwie zu A gehorigen orthogonalen Projektoren enthalt:
Folgerung 3.3.9. Sei A
m
K
n
.
(1) AA
+
ist der Projektor auf Bi(
A
).
(2) A
+
A ist der Projektor auf Ker(
A
)

.
(3) E
n
A
+
A ist der Projektor auf Ker(
A
).
Als Lohn f ur den nicht so optimalen Beweis von 3.3.8 bekommt man eine
nette Beschreibung der Pseudoinversen: Es ist A
+
b = 0 f ur alle b Bi(
A
)

,
denn p(b) = 0 im Beweis von 3.3.8 f ur solche b. Auf Bi(
A
) operiert A
+
dagegen
als die Inverse des von A induzierten Isomorphismus Bi(
A
) Bi(
A
). Anders
ausgedr uckt ist A
+
b = x wenn b = Ax und x Bi(
A
). Weil
m
K = Bi(
A
) +
Bi(
A
)

, ist hierdurch A
+
schon eindeutig festgelegt.
Folgerung 3.3.10. Die Pseudoinverse A
+
von A
m
K
n
ist charakterisiert durch
die Eigenschaften A
+
b = 0 f ur b Bi(
A
) und A
+
Ax = x f ur x Bi(
A
).
Weil A
+
A und AA
+
orthogonale Projektoren sind, sind sie hermitesch (denn
wenn f ur eine Matrix M die Gleichung x, My) = Mx, y) gilt, dann ist die Form
(x, y) = x, My) hermitesch.) F ur x
n
K gilt AA
+
Ax = Ax, weil AA
+
der
orthogonale Projektor auf das Bild von
A
ist. F ur b
m
K gilt A
+
AA
+
b = A
+
b,
denn A
+
b Bi(
A
) = Ker(
A
)

, und A
+
A ist der orthogonale Projektor auf
diesen Unterraum. Die eben gewonnenen Eigenschaften reichen schon aus, um
A
+
zu charakterisieren:
12 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Satz 3.3.11. Die Pseudoinverse A
+
von A
m
K
n
ist charakterisiert durch fol-
gende Eigenschaften:
(1) AA
+
A = A,
(2) A
+
AA
+
= A
+
,
(3) A
+
A und AA
+
sind hermitesch.
Beweis. Wir haben schon vorweg gezeigt, da A
+
die angegebenen Eigenschaf-
ten hat. Nun sei X
n
K
m
mit AXA = A, XAX = X, AX und XA her-
mitesch. Dann ist AXb b Bi(
A
), weil f ur alle x
n
K gilt: AXb, Ax) =
b, (AX)

Ax) = b, AXAx) = b, Ax). Also ist AXb die orthogonale Projektion


von b auf Bi(
A
). Bleibt zu zeigen, da Xb Bi(
A
) = Ker(
A
)

. Dazu sei x
n
K
mit Ax = 0. Dann ist Xb, x) = XAXb, x) = Xb, (XA)

x) = Xb, XAx) =
0.
Folgerung 3.3.12. F ur A
m
K
n
gilt (A
+
)
+
= A, und (A

)
+
= (A
+
)

.
Die Pseudoinverse A
+
ist nicht gerade einfach auszurechnen. Wir haben die
Formel A
+
= (A

A)
1
A

f ur A
m
K
n
mit rang(A) = n gesehen. Eine allgemeine
Formel kann man mit Hilfe einer geeigneten Zerlegung von A angeben. Dabei ist
aber Vorsicht geboten: Im allgemeinen ist (BC)
+
,= C
+
B
+
.
Satz 3.3.13. Sei A
m
K
n
.
(1) Falls rang(A) = n, ist A
+
= (A

A)
1
A

und A
+
A = E
n
.
(2) Falls rang(A) = m, ist A
+
= A

(AA

)
1
und AA
+
= E
m
.
(3) Falls A = BC, wobei B
m
K
r
, C
r
K
n
, r = rang(A), dann ist A
+
=
C
+
B
+
= C

(CC

)
1
(B

B)
1
B

.
Beweis. (1) wissen wir schon. Zu (2): Das kann man durch Anwenden von ()

aus
(1) folgern, aber wir machen es lieber nochmal zu Fu: Wie schon fr uher gezeigt,
ist rang(AA

) = rang(A

) = m, also (AA

) invertierbar und X = A

(AA

)
1
wohldeniert. Es ist AX = A(A

(AA

)
1
) = E
m
, also AXA = A und XAX = X,
und (AX)

= AX. Aber auch (XA)

= A

(A

(AA

)
1
)

= A

((AA

)
1
A =
A

(AA

)
1
A = XA.
Nun zu (3). Da r = rang(BC) min(rang(B), rang(C)), haben B und C
beide Rang r. Aus (1), (2) folgt B
+
B = E
r
= CC
+
. Sei X = C
+
B
+
. Dann ist
AXA = BCC
+
B
+
BC = BC und XAX = C
+
B
+
BCC
+
B
+
= C
+
B
+
, XA =
C
+
B
+
BC = C
+
C und AX = BCC
+
B
+
= BB
+
sind hermitesch.
Nat urlich mochte man sich jetzt noch vergewissern, da es eine Zerlegung
wie in (3) vorausgesetzt uberhaupt gibt. Dazu ein abstraktes und ein konkret
rechnerisches Argument.
3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 13
Bemerkung 3.3.14. (1) Sei f : V W ein Vektorraumhomomorphismus.
Dann ist f = g, wobei g : V Bi(f), v f(v) surjektiv ist, und g : Bi(f)
W die Inklusionsabbildung, also injektiv.
Sei speziell f =
A
f ur A
m
K
n
. Dann ist dimBi(f) = r := rang(A).
Wahle eine Basis D von Bi(f). Dann ist
A = M
E
E
(f) = M
E
E
(g) = M
D
E
()M
E
D
(g) = BC
wobei B = M
D
E
()
m
K
r
und C = M
E
D
(g)
r
K
n
.
(2) Sei PA = LR eine LR-Zerlegung von A
m
K
n
(also P GL(m, K) eine
Permutationsmatrix, L GL(m, K) eine regulare linke untere Dreiecksma-
trix, und R
m
K
n
eine Zeilenstufenmatrix. Sei rang(A) = r. Dann sind
die letzten m r Zeilen von R gleich Null. Sei C
r
K
n
die Matrix, die
durch Streichen der Nullzeilen aus R entsteht, und

B
m
K
r
die Matrix,
die durch das Streichen der letzten mr Spalten aus L entsteht. Dann ist

BC = LR = PA, also A = BC f ur B = P

B
m
K
r
.
Jetzt betrachten wir
m
K mit einem anderen Skalarprodukt, gegeben durch
v, w) = v
t
Hw f ur eine positiv denite hermitesche Matrix H. Wieder wollen
wir ein LGS Ax = b mit einer Matrix A
m
K
n
und einer rechten Seite b
m
K
losen, und zwar (f ur den Fall, da wir keine Losung nden konnen) moglichst
gut im Sinne der durch das Skalarprodukt denierten Norm. Dazu sind wieder
diejenigen x
0

n
K zu nden, f ur die Ax
0
die orthogonale Projektion von b auf
Bi(
A
) ist. Dazu mu wieder Ax
0
b Ax f ur alle x
n
K gelten. Nun ist
aber durch das neue Skalarprodukt bestimmt! Wir beobachten erst einmal
v, Ax) = v
t
HAx = (A

H
t
v)
t
x = A

Hv, x) f ur alle x
n
K und v
m
K. Damit
ist
x
n
K[Ax
0
b Ax]
x
n
K[Ax
0
b, Ax) = 0]
x
n
K[A

H(Ax
0
b), x) = 0]
A

H(Ax
0
b) = 0
A

HAx
0
= A

Hb
Satz 3.3.15. Wir betrachten
m
K mit dem durch die positiv denite hermitesche
Matrix H
m
K
m
denierten Skalarprodukt v, w) = v
t
Hw.
Sei A
m
K
n
und b
m
K. F ur x
0

n
K sind aquivalent:
(1) |Ax
0
b| = min|Ax b|[x
n
K,
(2) A

HAx
0
= A

Hb.
Es gilt rang(A

HA) = rang(A).
14 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Beweis. Nur die letzte Gleichung ist noch zu beweisen. Wir machens knapp:
A

HAx = 0 impliziert 0 = x

HAx = (Ax)

HAx, also Ax = 0 weil H positiv


denit ist.
Bemerkung 3.3.16. Wenn W
m
K
m
den Rang m hat, dann ist H = W
t
W her-
mitesch und positiv denit (und tatsachlich sieht so jede positiv denite hermi-
tesche Matrix aus, siehe spater). Zum Beispiel kann man eine Matrix W betrach-
ten, die eine Diagonalmatrix mit positiven Diagonalelementen w
1
, . . . , w
m
ist.
Dann kann man w
i
als

Gewichte interpretieren. Bei der Abstandsbestimmung in


m
K werden die Koordinaten mit den Gewichten w
i
gewertet: |(b
i
)|
2
=

[w
i
b
i
[
2
.
In diesem Fall ist A

HA = (WA)

(WA), und die Bedingung (2) liest sich


(WA)

(WA)x
0
= (WA)

Wb. Das ist ganz vern unftig: Statt das urspr ungliche
Problem in der neuen Norm zu losen, approximieren wir Wb moglichst gut im
Sinne der kanonischen Norm durch einen Vektor der Form WAx.
Jetzt machen wir uns das Leben noch komplizierter: Wir haben auch auf
n
K
ein neues, durch die positiv denite hermitesche Matrix S deniertes, Skalarpro-
dukt. Nun wollen wir unter den Vektoren, die |Ax b| minimieren, noch den
kleinster Lange heraussuchen. Wie zuvor sollte dazu x im orthogonalen Komple-
ment von Ker(
A
) liegen, aber jetzt bez uglich des neuen Skalarprodukts. Zuvor
haben wir hierzu Ker(
A
) = Bi(
A
)

benutzt. Und jetzt?


F ur x
n
K rechnen wir
x Ker(
A
) Ax = 0 v
m
K[v, Ax) = 0]
v
m
K[v
t
HAx = 0]
v
m
K[v
t
HAS
1
Sx = 0]
v
m
K[((S
1
)
t
A

H
t
v)Sx = 0]
v
m
K[S
1
A

Hv, x = 0]
x Bi(

A
)

mit

A = S
1
A

H. Wir wollen das urspr ungliche Problem gar nicht weiter ver-
folgen (etwa bis wir zu einer

Pseudoinversen f ur in Quelle und Ziel gegebene


Skalarprodukte...), halten aber fest: Wenn die Skalarprodukte in
m
K und
n
K
durch positiv denite hermitesche Matrizen H, S gegeben werden, hat man
x
n
Kv
m
K[v, Ax) =

Av, x)] mit



A = S
1
A

H
man kann also A auf die andere Seite im Skalarprodukt ziehen, aber es kommt
nicht mehr einfach A

dort an.
Denition und Lemma 3.3.17. Seien V, W endlichdimensionale Vektorraume
mit Skalarprodukt, und sei f : V W linear. Dann gibt es genau eine linea-
re Abbildung f

: W V mit f(v), w) = v, f

(w)) (oder aquivalent dazu


3.3. ORTHOGONALE PROJEKTION UND KLEINSTE QUADRATE 15
w, f(v)) = f

(w), v)) f ur alle v V und w W. f

heit die zu f adjun-


gierte Abbildung.
Sind B und C Basen von V bzw. W, und bzw die Skalarprodukte in V
bzw. W, so ist
M
C
B
(f

) = M
B
()
1
M
B
C
(f)

M
C
()
Beweis. Sei erst einmal w W fest. Dann ist die Abbildung
: V v f(v), w) K
linear (weil f linear und das Skalarprodukt in seinem ersten Argument line-
ar ist). Nach Riesz gibt es genau ein Element f

(w) V mit v, f

(w)) =
(v) = f(v), w) f ur alle v V . So wird eine (eindeutig bestimmte) Abbildung
f

: W V deniert, die die Gleichung v, f

(w)) = f(v), w), oder aquivalent


dazu f

(w), v) = w, f(v)) f ur alle v V und w W erf ullt. Wir m ussen noch


zeigen, da f

linear ist. Um f ur w, w

die Gleichung f

(w) +f

(w

) = f

(w+w

)
zu zeigen, mu man nur nachweisen, da die linke Seite die Eigenschaft erf ullt,
die f ur die rechte Seite charakteristisch ist: f

(w) + f

(w

), v) = f

(w), v) +
f

(w

), v) = w, f(v)) + w

, f(v)) = w + w

, f(v)) f ur alle v V zeigt genau


dies. Genauso zeigt man f

(w) = f

(w) f ur alle K und w W.


Jetzt seien noch Basen wie angegeben gewahlt. Es ist (f(v), w) = (v, f

(w))
f ur alle v V und w W. Weiter (f(v), w) = k
C
(f(v))
t
M
C
()k
C
(w) =
(M
B
C
(f)k
B
(v))
t
M
C
()k
C
(w) = k
B
(v)
t
M
B
C
(f)M
C
()k
C
(w), und (v, f

(w)) = k
B
(v)
t
M
B
()k
B
(f

(w)) =
k
B
(v)
t
M
B
()M
C
B
(f

)k
C
(w). Da k
B
und k
C
bijektiv sind, heit das f ur alle x
dimV
Kund y
dimW
K: x
t
M
B
C
(f)M
C
()y = x
t
M
B
()M
C
B
(f

)y, also M
B
C
(f)
t
M
C
() =
M
B
()M
C
B
(f

), also M
C
B
(f

) = M
B
()
1
M
B
C
(f)

M
C
().
Bemerkung 3.3.18. Falls V =
n
K, W =
m
K, jeweils mit dem kanonischen
Skalarprodukt ausgestattet, ist f : V W immer von der Form f =
A
mit
A
m
K
n
, und in diesem Fall ist f

=
A
.
Denition 3.3.19. Seien V ein endlichdimensionaler Vektorraum mit Skalar-
produkt, und f : V V ein Endomorphismus. f heit
(1) selbstadjungiert, falls f = f

. [Falls V =
n
K mit dem kanonischen Skalar-
produkt, f =
A
, heit das genau, da A hermitesch ist.]
(2) unitar (im reellen Fall orthogonal), falls f ein Isomorphismus ist mit f
1
=
f

. Dazu gen ugt es, eine der zwei Gleichungen ff

= id
V
oder f

f = id
V
zu
pr ufen, denn aus ff

folgt zum Beispiel f surjektiv, also bijektiv nach dem


Dimensionssatz f ur Homomorphismen. [Ist wieder V =
n
K und f =
A
,
heit dies A regular und A
1
= A

, oder AA

= E
n
= A

A, wovon es
wieder gen ugt, nur eine Gleichung zu pr ufen. Solche Matrizen nennt man
unitar, im reellen Fall orthogonal.]
16 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
(3) normal, falls f

f = ff

. Oensichtlich sind selbstadjungierte ebenso wie


unitare (orthogonale) Endomorphismen normal. [Die zugehorigen Matrizen
nennt man auch normal.]
(4) Nur zum schnellen Nachweis, da es auer den selbstadjungierten und den
unitaren noch weitere gibt: Auch antiselbstadjungierte Endomorphismen
(die per denitionem f

= f erf ullen) oder uberhaupt alle f mit f

= f
f ur irgendeinen Skalar sind normal.
Bemerkung 3.3.20. Sei V ein endlichdimensionaler Vektorraum mit Skalarpro-
dukt.
Ein unitarer Endomorphismus f : V V erhalt Skalarprodukte und insbeson-
dere Normen. Denn f ur x, y V gilt immer f(x), f(y)) = f

f(x), y) = x, y),
und insbesondere |f(x)| = |x|. Im reellen Fall folgt hieraus auch, da f winkel-
treu ist: F ur x, y V 0 ist der Winkel zwischen f(x) und f(y) immer gleich
dem Winkel zwischen x und y. Orthogonale Endomorphismen sind also solche,
die die durch das Skalarprodukt in V eingef uhrte

Geometrie erhalten.
Lemma 3.3.21. Umgekehrt sei f : V V ein Endomorphismus eines endlich-
dimensionalen Vektorraums V mit Skalarprodukt, und es gelte |f(v)| = |v| f ur
alle v V . Dann ist f unitar.
Beweis. Das beweisen wir nur im Fall K = R. Der komplexe Fall ist tatsachlich
komplizierter. Es sei also |f(x)| = |x| f ur alle x V . Wir nehmen erst einmal
an, da wir schon allgemeiner wissen, da f(x), f(y)) = x, y) f ur alle x, y V
gilt. Dann folgt x, f

f(y)) = f(x), f(y)) = x, y) f ur alle x, y V , und deshalb


f

f(y) = y f ur alle y V , oder f

f = id
V
. Dann ist auch ff

= id
V
, weil
V endlichdimensional ist, und also f orthogonal. Der Beweis von f(x), f(y)) =
x, y) beruht auf der interessanten Tatsache, da das Skalarprodukt auf V durch
die Norm schon vollstandig bestimmt ist. Es gilt namlich |x+y|
2
= x+y, x+y) =
x, x) +2x, y) +y, y) = |x|
2
+|y|
2
+2x, y) (hier sieht man, da der komplexe
Fall komplizierter ist!), und daher x, y) =
1
2
(|x+y|
2
|x|
2
|y|
2
). Damit folgt
2f(x), f(y)) = |f(x) + f(y)|
2
|f(x)|
2
|f(y)|
2
= |f(x + y)|
2
|f(x)|
2

|f(y)|
2
= |x +y|
2
|x|
2
|y|
2
= 2x, y) f ur alle x, y V .
Beispiel 3.3.22. Die Drehmatrizen D() =
_
cos sin
sin cos
_

2
R
2
erf ullen
D(0) = E
2
und D( + ) = D()D() f ur alle , R (das rechnet man
nach! Additionstheoreme!). Oenbar ist weiter D() = D()
t
, und andererseits
D()D() = D(0) = E
2
, also D() orthogonal.
3.4 Orthonormalbasen und die QR-Zerlegung
Denition 3.4.1. Seien V ein K-Vektorraum mit Skalarprodukt, und b
1
, . . . , b
n

V . B = (b
1
, . . . , b
n
) heit
3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 17
(1) Ein Orthogonalsystem, wenn b
i
b
j
f ur alle i ,= j, und b
i
,= 0 f ur alle i.
(2) Eine Orthogonalbasis, wenn B ein Orthogonalsystem ist und V erzeugt.
(3) Ein Orthonormalsystem, wenn b
i
b
j
f ur alle i ,= j, und zusatzlich |b
i
| = 1
f ur alle i, also kurz b
i
, b
j
) =
ij
f ur alle i, j.
(4) Eine Orthonormalbasis, wenn B ein Orthonormalsystem ist, das V erzeugt.
Bemerkungen 3.4.2. (1) Orthogonalsysteme sind immer linear unabhangig.
Denn ist (b
1
, . . . , b
n
) ein Orthogonalsystem, und
i
K mit

i
b
i
= 0,
dann folgt f ur jedes j schon 0 =

i
b
i
, b
j
) =

i
b
i
, b
j
) =

ij
|b
j
| =

j
|b
j
|, und damit
j
= 0.
(2) Sei B eine Basis von V , und das Skalarprodukt. Dann ist B genau dann
eine ONB, wenn M
B
() = E
n
, und B ist genau dann eine Orthogonalba-
sis, wenn M
B
() eine Diagonalmatrix ist. Da M
B
() an vielen Stellen im
vorherigen Abschnitt sehr unangenehm vorkam, wird vieles einfacher, wenn
man sich den Luxus einer ONB leisten kann, etwa
(3) Seien f : V W ein Homomorphismus zwischen endlichdimensionalen
Vektorraumen mit Skalarprodukt. Seien B, C ONBasen von V bzw. W.
Dann ist M
C
B
(f

) = M
B
C
(f)

. Insbesondere ist im Fall V = W und B = C


f selbstadjungiert genau dann wenn M
B
C
(f) hermitesch, f unitar (ortho-
gonal, normal) genau dann wenn M
B
(f) unitar (orthogonal, normal).
(4) Seien V ein Vektorraum mit Skalarprodukt, U V ein endlichdimensio-
naler Unterraum, und b
1
, . . . , b
n
eine ONB von U. Dann ist f ur v V
die orthogonale Projektion von v auf U durch p(v) =

n
i=1
v, b
i
)b
i
ge-
geben. [Das beweisen wir nochmal direkt: Es ist nur zu zeigen, da v

v, b
i
)b
i
U

. Aber f ur jedes j ist tatsachlich v



v, b
i
)b
i
, b
j
) =
v, b
j
)

v, b
i
)b
i
, b
j
) = v, b
j
)

ij
v, b
i
) = 0.]
(5) Ist b
i
nur eine Orthogonalbasis von U, dann mu die Formel in p(v) =

n
i=1
v, b
i
)
|b
i
|
2
b
i
verbessert werden.
Beispiele 3.4.3. (1) In
n
K ist die kanonische Basis eine ONB bez uglich des
kanonischen Skalarprodukts. Das gleiche gilt auch f ur K
n
.
(2) In
3
R ist aber zum Beispiel auch
_
_
1
1
1
_
_
,
_
_
1
1
0
_
_
,
_
_
1
1
2
_
_
eine Orthogonal-
basis. Die Normen der drei Vektoren sind

3,

2,

6. Also ist
1

3
_
_
1
1
1
_
_
,
1

2
_
_
1
1
0
_
_
,
1

6
_
_
1
1
2
_
_
eine ONB.
18 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
(3) Auf
n
K
n
wird durch A, B) = Spur(A
t
B) ein Skalarprodukt erklart. Die
Matrixeinheiten bilden hier eine ONB, denn E
ij
, E
k
) = Spur(E
ij
E
k
) =

jk
Spur(E
i
) =
jk

i
, die Basisvektoren sind also paarweise orthogonal und
haben Norm Eins.
(4) In C([0, 2], R) mit dem durch f, g) =
_
2
0
f(x)g(x)dx gegebenen Skalar-
produkt bilden die Funktionen sin(nx), cos(nx) f ur n N ein Orthogonal-
system. Dazu m ute man (machen wir aber nicht) ausrechnen:
_
2
0
cos(nx) sin(mx)dx = 0m, n N
_
2
0
sin(nx) sin(mx)dx =
_
2
0
cos(nx) cos(mx)dx = 0m ,= n
Man kann auch noch ausrechnen:
_
2
0
cos
2
(nx)dx =
_
2
0
sin(nx)dx =
f ur alle n N. Daraus folgt dann, da die Funktionen
1

cos(nx),
1

sin(nx)
ein Orthonormalsystem bilden.
Satz 3.4.4. Seien V ein Vektorraum mit Skalarprodukt, und v
1
, . . . , v
n
V eine
Basis. Dann gibt es eine ONB b
1
, . . . , b
n
von V mit
1 j n[b
1
, . . . , b
j
) = v
1
, . . . , v
n
)].
Beweis. (Gram-Schmidtsches Orthonormalisierungsverfahren)
Wir konstruieren orthonormale Vektoren b
1
, . . . , b
j
mit b
1
, . . . , b
j
) = v
1
, . . . , v
j
)
durch Rekursion: F ur j = 1 haben wir nur einen Vektor b
1
der Lange 1 zu nden,
der ein Vielfaches von v
1
ist. Da nehmen wir einfach b
1
:=
1
|v
1
|
v
1
.
Jetzt seien b
1
, . . . , b
j
schon gefunden. Dann ziehen wir erst einmal von v
j+1
die Projektion auf b
1
, . . . , b
j
) ab, dabei kommt
c
j+1
:= v
j+1

i=1
v
j+1
, b
i
)b
i
heraus. Weil wir eben die Projektion auf b
1
, . . . , b
j
) abgezogen haben, ist c
j+1

b
1
, . . . , b
j
)

. Auerdem ist c
j+1
,= 0, weil ja sonst v
j+1
b
1
, . . . , b
j
) = v
1
, . . . , v
j
)
ware. Wenn wir also b
j+1
:=
1
|c
j+1
|
setzen, dann ist b
1
, . . . , b
j+1
ein ONS, und in
v
1
, . . . , v
j+1
) enthalten, also eine ONB hiervon.
3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 19
Variante. Im eben gegebenen Beweis haben wir jeden Vektor

gleich normiert.
Das ist manchmal f ur das Rechnen von Hand nicht so praktisch, weil die Normen
typischerweise irgendwelche Wurzelausdr ucke sind. Man kann aber ebensogut erst
einmal eine Orthogonalbasis c
1
, . . . , c
n
mit c
1
, . . . , c
j
) = v
1
, . . . , v
j
) f ur alle j be-
stimmen, nach dem folgenden Verfahren: Man nehme zunachst c
1
:= v
1
. Hat man
c
1
, . . . , c
j
schon gefunden, ziehe man wieder von v
j+1
die orthogonale Projektion
auf v
1
, . . . , v
j
) = c
1
, . . . , c
j
) ab, diesmal nach der Formel
c
j+1
:= v
j+1

i=1
v
j+1
, c
i
)
|c
i
|
2
c
i
.
Sind wir mit der Bestimmung einer OGB c
1
, . . . , c
n
fertig, erhalten wir eine ONB
b
1
, . . . , b
n
indem wir b
i
:=
1
|c
i
|
c
i
setzen.
Bemerkung 3.4.5. Die Bedingung b
1
, . . . , b
j
) = v
1
, . . . , v
j
) f ur alle j im Satz
bedeutet, da die Transformationsmatrizen T
(v
1
,...,v
n
)
(b
1
,...,b
n
)
und T
(b
1
,...,b
n
)
(v
1
,...,v
n
)
f ur die Basis-
wechsel jeweils obere Dreiecksmatrizen sind.
Bemerkung 3.4.6. Seien jetzt v
1
, . . . , v
n
V , und sei noch nicht bekannt,
da diese Vektoren linear unabhangig sind. Wir wenden trotzdem das Gram-
Schmidt-Verfahren an. Wir sehen: Das einzige, was schiefgehen kann, ist, da in
einem Schritt des Verfahrens c
j+1
= 0 herauskommt. Dann gehts halt nicht (und
v
j+1
v
1
, . . . , v
j
)). Wenn dieses Problem aber nicht auftaucht, erhalten wir am
Ende b
1
, . . . , b
n
orthonormal in v
1
, . . . , v
n
), und insbesondere waren die Vektoren
v
1
, . . . , v
n
tatsachlich linear unabhangig.
Folgerung 3.4.7. Sei A
n
K
n
eine positiv denite hermitesche Matrix. Dann
gibt es eine regulare obere Dreiecksmatrix W
n
K
n
mit A = W
t
W.
(Die Umkehrung dieser Aussage haben wir schon fr uher gesehen.)
Beweis. Die Matrix A deniert ein Skalarprodukt auf
n
K durch x, y) = x
t
Ay.
Wir konnen also aus der kanonischen Basis e
1
, . . . , e
n
von
n
K nach Gram-Schmidt
eine ONB b
1
, . . . , b
n
gewinnen. Sei T die Matrix (b
1
, . . . , b
n
). Das ist eine obere
Dreiecksmatrix, weil ja b
j
e
1
, . . . , e
j
) f ur alle j. Auerdem bedeutet
ij
=
b
i
, b
j
) = b
t
i
Ab
j
f ur alle i, j dasselbe wie T
t
AT = E
n
. Das formen wir einfach
um zu A = (T
t
)
1
T
1
, oder A = W
t
W f ur W = T
1
, was auch eine obere
Dreiecksmatrix ist.
Bemerkung 3.4.8. Sei jetzt A eine hermitesche Matrix, aber nicht unbedingt
positiv denit. Wir wenden trotzdem Gram-Schmidt auf die kanonische Basis
e
1
, . . . , e
n
an, mit der hermiteschen Form (vielleicht ist es ja kein Skalarprodukt),
die durch A deniert wird. Diesmal kann etwas anderes schiefgehen: Es konnte
in einem Schritt passieren, da c
j
, c
j
) = c
t
j
Ac
j
0. Wenn das so ist, dann ist A
20 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
nat urlich nicht positiv denit. Wenn aber dieses Problem nicht auftaucht, erhalten
wir am Ende eine ONB, also Vektoren b
1
, . . . , b
n
mit b
i
, b
j
) =
ij
. Hieraus sieht
man leicht, da A positiv denit ist.
Beispiel 3.4.9. (Die Legendre-Polynome bis zum Grad 3).
Beispiel 3.4.10. Wir bilden eine ONB aus den Spalten von A =
_
_
1 0 1
1 1 0
0 1 1
_
_
=
(v
1
, . . . , v
3
). Das geht so: c
1
= v
1
, mit |c
1
|
2
= 2, c
2
= v
2

c
1
, v
2
)
|c
1
|
2
c
1
=
_
_
0
1
1
_
_

1
2
_
_
1
1
0
_
_
=
_
_
1/2
1/2
1
_
_
, mit |c
2
|
2
=
3
2
. c
3
:= v
3

v
3
, c
1
)
|c
1
|
2
c
1

v
3
, c
2
)
|c
2
|
2
c
2
=
_
_
1
0
1
_
_

1
2
c
1

1
3
c
2
=
_
_
2/3
2/3
2/3
_
_
, mit |c
3
|
2
= 4/3. Die zugehorige ONB ergibt sich durch
Normieren. b
1
=
1

2
_
_
1
1
0
_
_
=
_
_
1
2

2
1
2

2
0
_
_
, b
2
=
_
2
3
c
2
=
_
_

1
6

6
1
6

6
1
3

6
_
_
, b
3
=

3
2
c
3
=
_
_
1
3

1
3

3
1
3

3
_
_
. Als Abfallprodukt des Verfahrens haben wir auch die Transformatio-
nen zwischen den Basen (v
1
, v
2
, v
3
), (c
1
, c
2
, c
3
) und (b
1
, b
2
, b
3
) erhalten. Wir lesen
ab: v
1
= c
1
=

2b
1
, v
2
=
1
2
c
1
+ c
2
=
1
2

2b
1
+
1
2

6b
2
, v
3
=
1
2
c
1
+
1
3
c
2
+ c
3
=
1
2

2b
1
+
1
6

6b
2
+
2
3

3b
3
. Das kann man schlielich auch kurz in Matrixschreib-
weise fassen:
A = (c
1
, c
2
, c
3
)
_
_
1 1/2 1/2
0 1 1/3
0 0 1
_
_
= (b
1
, b
2
, b
3
)
_
_

2
1
2

2
1
2

2
0
1
2

6
1
6

6
0 0
2
3

3
_
_
= (b
1
, b
2
, b
3
)
_
_

2 0 0
0
1
2

6 0
0 0
2
3

3
_
_

_
_
1 1/2 1/2
0 1 1/3
0 0 1
_
_
Folgerung 3.4.11. Sei A
m
K
n
eine Matrix mit rang(A) = n. Dann gibt es
eine Matrix Q
m
K
n
mit orthonormalen Spalten, eine regulare obere Dreiecks-
3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 21
matrix R
n
K
n
mit positiven Elementen auf der Diagonalen, eine Matrix Q

mit orthogonalen Spalten, eine regulare obere Dreiecksmatrix R

mit Einsen auf


der Diagonalen, und eine Diagonalmatrix D mit positiven Diagonalelementen, so
da A = QR = Q

= QDR

. Insbesondere die erste Zerlegung nennt man eine


QR-Zerlegung der Matrix A.
Beweis. (Es geht halt genau wie im Beispiel): Man bildet aus den Spalten v
1
, . . . , v
n
von A eine ONB b
1
, . . . , b
n
nach Gram-Schmidt. Dabei ergeben sich ganz zwang-
los die Darstellungen v
j
=

j1
i=1
v
j
, b
i
)b
i
+|c
j
|b
j
der v
j
als Linearkombinationen
der b
i
; die Koezienten mu man nur noch in R hineinschreiben. Die j-te Spalte
von R ist also
_
_
_
_
_
_
_
_
_
_
_
v
j
, b
1
)
.
.
.
v
j
, b
j1
)
|c
j
|
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
. So ergibt sich die QR-Zerlegung, die zwei Varianten
lassen wir groz ugig weg.
Die zusatzlichen Komplikationen, die sich ergeben, wenn die Spalten von A
nicht linear unabhangig sind, sind eigentlich nicht der Rede wert...es handelt
sich nur um zusatzliche argerliche Notationen. Wenn man in einem Vektorraum
mit Skalarprodukt Gram-Schmidt auf eine linear abhangige Teilmenge anwen-
det, kann es eben passieren, da einer der Vektoren c
j
verschwindet. In diesem
Fall ist v
j
Linearkombination der vorherigen v
i
, und man erhalt keinen neuen
ONBasisvektor hinzu.
Satz 3.4.12. Seien V ein Vektorraum mit Skalarprodukt, und 0 ,= v
1
, . . . , v
n
V .
Dann gibt es ein ONS b
1
, . . . , b
r
in V und 1 j
1
j
n
= r mit v
1
, . . . , v
s
) =
b
1
, . . . , b
j
s
) f ur alle 1 s n.
Beweis. Wir bestimmen j
k
und b
1
, . . . , b
j
k
wieder rekursiv. Wir fangen an mit
j
1
= 1 und b
1
=
1
|v
1
|
v
1
. Seien j
k
und b
1
, . . . , b
j
k
schon bestimmt. Wir setzen
d
k+1
:= v
k+1

j
k
i=1
v
j+1
, b
i
)b
i
. Wie zuvor ist d
k+1
b
1
, . . . , b
j
k
)

. Falls d
k+1
= 0,
setzen wir einfach j
k+1
:= j
k
. Falls d
k+1
,= 0, setzen wir j
k+1
= j
k
+ 1, und
b
j
k+1
=
1
|d
k+1
|
d
k+1
.
Als Abfallprodukt erhalten wir wieder die Koezienten, die man braucht, um
die v
k
als Linearkombination der b
1
, . . . , b
j
k
zu schreiben, namlich
v
k
=
j
k1

i=1
v
j+1
, b
i
)b
i
+
_
|d
j
k
|b
j
k
falls notig
0 falls nicht notig
.
22 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Diese Koezienten brauchen wir nurmehr in einer Zeilenstufenmatrix R zu sam-
meln, und erhalten
Folgerung 3.4.13. Sei A
m
K
n
, und 0 ,= r := rang(A). Dann gibt es eine
Matrix Q
m
K
r
mit orthonormalen Spalten, und eine Zeilenstufenmatrix R
r
K
n
mit positiven Elementen an den Stufen, so da A = QR.
Die Kenntnis einer ONB erleichtert das Projizieren. F ur Matrizen steckt die
ONB eben in einer QR-Zerlegung. Siehe dazu

Ubungsaufgabe: In Spezialfallen
(Rang gleich Spaltenzahl) ist die Pseudoinverse aus einer QR-Zerlegung besonders
leicht zu bestimmen. Als Spezialfall wollen wir schon mal zeigen:
Lemma 3.4.14. Sei Q
m
K
n
eine Matrix mit orthonormalen Spalten. Dann ist
Q

= Q
+
, Q

Q = E
n
, und Multiplikation mit QQ

ist der orthogonale Projektor


auf Bi(
Q
).
Beweis. Seien b
1
, . . . , b
n
die Spalten von Q. Dann ist
ij
= b
i
, b
j
) = b
t
i
b
j
= b

j
b
i
f ur alle 1 i, j n. Das heit nichts anderes als Q

Q =
_
_
_
b

1
.
.
.
b

n
_
_
_
(b
1
. . . b
n
) =
(
ij
)
i,j
= E
n
. Dann ist aber Q

QQ

= Q

, QQ

Q = Q, und sowieso sind QQ

und
Q

Q hermitesch (sogar positiv denit, das haben wir schon mal nachgerechnet).
Es folgt Q
+
= Q

, und damit ist auch schon bekannt, da QQ

der Projektor auf


Bi(
Q
) ist.
Bemerkung 3.4.15. Die Aussage, da QQ

der Projektor auf Bi(


Q
) ist, mu
uns nicht wundern: Sind wieder b
1
, . . . , b
n
die Spalten von Q, ist QQ

=
_
b
1
. . . b
n
_

_
_
_
b

1
.
.
.
b

n
_
_
_
=
n

i=1
b
i
b

i
. F ur v
m
K ist also QQ

v =

b
i
b

i
v =

v, b
i
)b
i
, und diese
Formel f ur den Projektor war uns schon bekannt.
Lemma 3.4.16. Seien V ein endlichdimensionaler Vektorraum mit Skalarpro-
dukt und L = v + U ein aner Unterraum von V . Dann lat sich L in der
Form
L = x V [1 i k[x, b
i
) = a
i
] (*)
schreiben, wobei b
1
, . . . , b
k
eine ONB von U

sind, und a
i
= v, b
i
). Diese Art, L
anzugeben, nennt man eine Hessesche Normalform von L. Ist speziell V =
n
K
mit dem kanonischen Skalarprodukt, kann man
L = x
n
K[Q

x = a
schreiben, wobei die Spalten von Q
n
K
k
eine ONB von U

bilden, und a = Q

v.
3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 23
Beweis. Wir wahlen b
1
, . . . , b
k
und a
1
, . . . , a
k
wie angegeben. In (*) sind zwei
Inklusionen zu zeigen:

: Sei x = v + u mit u U. Dann gilt x, b


i
) = v +
u, b
i
) = v, b
i
) + u, b
i
) = v, b
i
) = a
i
, weil u b
i
. Nun

: Sei x V mit
x, b
i
) = a
i
f ur alle i. Wir schreiben x = v + u mit u = x v, und m ussen jetzt
u U zeigen. Aber f ur jedes i ist u, b
i
) = x v, b
i
) = x, b
i
) v, b
i
) = 0, weil
die b
i
eine Basis von U

bilden also u (U

= U.
Die Hessesche Normalform ist besonders bequem, wenn man den Abstand
eines Punktes von einem anen Unterraum ausrechnen will. Dazu vorneweg:
Lemma 3.4.17. Seien V ein Vektorraum mit Skalarprodukt, b
1
, . . . , b
n
ein ONS
in V , und v V . Dann ist |v|
2

i=1
[v, b
i
)[
2
, und Gleichheit gilt genau dann,
wenn v b
1
, . . . , b
n
).
Beweis.

v, b
i
)b
i
ist die orthogonale Projektion von v auf U = b
1
, . . . , b
n
). Also
ist v =

v, b
i
)b
i
+v

, mit v

. Nach Pythagoras folgt |v|


2
=

|v, b
i
)b
i
|
2
+
|v

|
2
=

[v, b
i
)[
2
|b
i
|
2
+|v

|
2
=

[v, b
i
)[
2
+|v

|
2

[v, b
i
)[
2
, und Gleich-
heit gilt genau dann wenn v

= 0, also v U.
Folgerung 3.4.18. Seien V ein endlichdimensionaler Vektorraum mit Skalar-
produkt, und ,= L V ein aner Unterraum mit Hessescher Normalform
L = x V [1 i k[v, b
i
) = a
i
]. Sei y V . Dann ist dist(y, L)
2
=

[y, b
i
) a
i
)[
2
=

[y v, b
i
)[
2
, wenn v L.
Ist speziell V =
n
K, und L = x
n
K[Q

x = a, wobei Q orthonormale
Spalten hat, und a
k
K, dann ist dist(y, L) = |Q

y a|.
Beweis. Aus den

Ubungen wissen wir, da der gesuchte Abstand die Norm des
Lotes von y auf L ist, und da dieses Lot wiederum die orthogonale Projektion
von v y auf das orthogonale Komplement von U ist, wenn L = v + U. Mit
einer ONB b
1
, . . . , b
k
von U

ist also =

v y, b
i
)b
i
, und nach dem vorherigen
Lemma folgt ||
2
=

[v y, b
i
)[
2
=

[y, b
i
) a
i
[
2
. Die Formel f ur den Fall
V =
n
R ist nur ein Spezialfall hiervon.
Wir wenden uns jetzt nochmal den Matrizen Q zu, die in einer QR-Zerlegung
vorkommen, also solchen, deren Spalten orthonormal sind. Wir haben schon ge-
sehen, da das gerade Q

Q = E bedeutet, wahrend QQ

normalerweise nicht die


Einheitsmatrix ist. Wenn Q aber quadratisch ist, dann ist nat urlich Q

einfach
die Inverse von Q (und dieses insbesondere regular...).
Folgerung 3.4.19. Sei Q
n
K
n
. Folgende Aussagen sind aquivalent:
(1) Die Spalten von Q sind orthonormal.
(2) Die Spalten von Q sind eine ONB von
n
K.
24 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
(3) Die Zeilen von Q sind orthonormal.
(4) Die Zeilen von Q sind eine ONB von K
n
.
(5) Q

Q = E
n
.
(6) QQ

= E
n
.
(7) Q ist unitar (bzw. orthogonal, falls K = R).
Denition 3.4.20. Die Menge U(n) :=
_
Q
n
C
n
Q ist unitar
_
heit unitare
Gruppe, die Menge O(n) :=
_
Q
n
R
n
Q ist orthogonal
_
heit die orthogonale
Gruppe.
Lemma 3.4.21. Die U(n) GL(n, C) und O(n) GL(n, R) sind Untergruppen.
Beispiele 3.4.22. (1) (Aus dem letzten Abschnitt...) Drehmatrizen
_
cos sin
sin cos
_
.
Man kann sich leicht uberzeugen (...) da die Spalten einer solchen Dreh-
matrix tatsachlich orthonormal sind. (also (1) gilt. Im letzten Abschnitt
hatten wir uns uberzeugt, da Q
1
= Q
t
, also (7) gilt).
(2) Seien V ein endlichdimensionaler Vektorraum mit Skalarprodukt, U V
ein Untervektorraum, und p: V V der orthogonale Projektor auf U.
Dann ist f := id
V
2p unitar.
[Tatsachlich gilt
ff

= (id 2p)(id 2p)

= (id 2p)(id

(2p)

) Rechenregel siehe unten!


= (id 2p)(id 2p

) Rechenregeln siehe unten!


= (id 2p)(id 2p) wir wissen, da p selbstadjungiert ist
= id 4p + (2p)
2
nach Alessandro Binomi
= id 4p + 4p
2
= id weilp
2
= p
...und wir haben sogar noch mehr gesehen:]
Dar uber hinaus ist f auch selbstadjungiert, und damit f
2
= f. Zur Deutung
von f schreiben wir v V in der Form v = u +u

mit u U und u

.
Dann wird f(u+u

) = f(u)+f(u

) = u2p(u)+u

2p(u

) = u2u+u

0 =
u

u. Man erkennt, da es vern unftig ist, f als die Spiegelung an U

zu
bezeichnen. Ist speziell dim(U) = 1, also dim(U

) = dim(V ) 1, spricht
man von der Hyperebenenspiegelung an der zu U senkrechten Hyperebene
U

.
3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 25
(3) Ist V =
n
K, konnen wir den Projektor auf U als Linksmultiplikation mit
der Matrix QQ

schreiben, wobei die Spalten von Q


n
K
r
eine ONB von
U sind. Damit ist also A = E
n
2QQ

eine unitare Matrix, und Links-


multiplikation mit A ist die Spiegelung am orthogonalen Komplement des
Spaltenraums von Q.
(4) Im Fall der Spiegelung an einer Hyperebene in
n
K ist Q =: q
n
K
1
=
n
K
ein Vektor. Die Matrix H = E
n
2qq

heit auch eine Householder-Matrix.


Man kann nat urlich auch an der Hyperebene senkrecht zu 0 ,= a
n
K
spiegeln, wenn 0 ,= |a| ,= 1. Dann ist die zugehorige Householder-Matrix
H = E
n

2
|a|
2
aa

.
(5) Ein Beispiel: Zu a =
_
_
1
1
0
_
_
mit |a|
2
= 2 ergibt sich H =
_
_
0 1 0
1 0 0
0 0 1
_
_
.
Wir haben oben schon die folgenden Rechenregeln benutzt:
Lemma 3.4.23. Seien V, W endlichdimensionale Vektorraume mit Skalarpro-
dukt. Dann ist die Abbildung
Hom(V, W) f f

Hom(W, V )
semilinear. Ist U ein weiterer endlichdimensionaler Vektorraum mit Skalarpro-
dukt, und g : U V , f : V W linear, so ist (fg)

= g

.
Satz 3.4.24. Sei A
m
K
n
. Dann gibt es eine unitare Matrix Q
m
K
m
und eine
Zeilenstufenmatrix R
m
K
n
mit A = QR. Genauer gilt: Q kann als Produkt von
hochstens m Householder-Matrizen gewahlt werden.
Ohne den Zusatz uber die Wahl von Q handelt es sich um eine leichte Variante
unserer bisherigen QR-Zerlegung: Wir konnen schon A = Q

mit einer Matrix


Q


m
K
r
mit orthonormalen Spalten, und einer Zeilenstufenmatrix R


r
K
n
schreiben. Zu Q und R wie im Satz kommt man, indem man die Spalten von Q

zu einer ONB von


m
K erganzt, und die Matrix R

durch Nullzeilen zu R
m
K
n
au ullt. Jetzt aber ein ganz anderer
Beweis. Wir bestimmen sukzessive Householder-Matrizen H
1
, . . . , H
k
so da H
k
. . . H
1
A
die Form einer Blockmatrix H
k
. . . H
1
A =
_
R
(k)
S
(k)
0 A
(k)
_
hat, wobei R eine Zei-
lenstufenmatrix mit k Zeilen und k Stufen ist, und S
(k)
und A
(k)
irgendwie von
passender Groe. Wir fangen an mit A
(k)
= k und

ohne R und S. Wir horen


auf, wenn A
(k)
= 0 ist. Dann ist H
k
. . . H
1
A =: R =
_
R
(k)
S
(k)
0 0
_
eine Zeilenstu-
fenmatrix, und A = H
1
. . . H
k
A.
26 KAPITEL 3. EUKLIDISCHE UND UNIT

ARE VEKTORR

AUME
Wie geht nun der Schritt von k auf k + 1? Wir konnen ohne Einschrankung
annehmen, da die erste Spalte v von A
(k)
nicht verschwindet (sonst schieben wir
einfach die Grenze in der Blockzerlegung nach rechts...). Unten werden wir zeigen,
da es eine Householder-Matrix

H
k+1

s
K
s
gibt (wo s = mk), sowie ein K,
so da

H
k+1
v = e
1

s
K. Die Matrix H
k+1
=
_
E
k
0
0

H
k+1
_
= E
m
2
_
0
q
__
0
q
_

ist auch eine Householder-Matrix. Wenn wir jetzt A


(k+1)
= (v,

A
(k+1)
) schreiben,
erhalten wir
H
k+1
H
k
. . . H
1
A =
_
E
k
0
0

H
k+1
__
R
(k)
S
(k)
0
_
v

A
(k+1)
_
_
=
_
R
(k)
S
(k)
0
_
e
1

H
k+1

A
(k+1)
_
_
=
_
R
(k+1)
S
(k+1)
0 A
(k+1)
_
wobei die Matrizen R
(k+1)
, S
(k+1)
und A
(k+1)
durch die oensichtlichen

Grenz-
verschiebungen aus der vorherigen Blockzerlegung entstehen.
Wir m ussen jetzt noch nachliefern, da es die verwendeten Householder-
Matrizen auch wirklich gibt. Das hat eine sehr anschauliche Grundlage (im
n
R):
Es gibt zu je zwei Vektoren v, w immer eine Spiegelung, die v auf die von w aufge-
spannte Gerade spiegelt. Dazu spiegele man einfach an der Winkelhalbierenden
des Winkels zwischen v und w, oder an der Winkelhalbierenden des Winkels
zwischen v und w.
Lemma 3.4.25. Seien v, w
n
K 0. Dann gibt es eine Householder-Matrix
H
n
K
n
mit Hv Kw.
Beweis. (Wir suchen also K mit Hv = w. Weil |Hv| = |v|, sollte mal
besser [[ |w| = |v| sein.) Wir wahlen K so da [[ = |v|/|w|, und so
da v, w) R. Das heit, wenn K = R wahlen wir einfach = |v|/|w|,
und wenn K = C, haben wir auch genau zwei Auswahlmoglichkeiten, die man so
ahnlich ndet, wie im Beweis der Cauchy-Schwarzschen Ungleichung. Nun setzen
wir a = v + w. (In der reellen Ebene ist dann bei negativem der Vektor a
orthogonal zur Winkelhalbierenden des Winkels zwischen v und w.) Es ist |a|
2
=
|v|
2
+ |w|
2
+ 2'(v, w)) = |v|
2
+ [[
2
|w|
2
+ wv, w) = 2(|v|
2
+ v, w)),
also ist f ur H := E
n

2
|a|
2
aa

tatsachlich Hv = v
1
|v|
2
+v, w)
(v +w)(v +
w)

v = v
v

v +w

v
|v|
2
+v, w)
(v +w) = v (v +w) = w.
Bemerkung 3.4.26. Wir sehen aus den beiden Beweisen, da wir in der QR-
Zerlegung einer reellen Matrix A stets erreichen konnen, da R positive Elemente
an den Stufen stehen hat.
3.4. ORTHONORMALBASEN UND DIE QR-ZERLEGUNG 27
Folgerung 3.4.27. Jedes A O(n) lat sich als Produkt von hochstens n Hy-
perebenenspiegelungen schreiben.
Beweis. Wir haben gesehen, da A = QR gilt, wobei Q Produkt von hochstens n
Hyperebenenspiegelungen ist, und R eine obere Dreiecksmatrix mit positiven Dia-
gonalelementen. Nun ist R aber auch noch orthogonal, weil A und Q es sind, und
R = Q
1
A. Also ist die obere Dreiecksmatrix R
1
gleich der unteren Dreiecksma-
trix R
t
, und damit sind beide Diagonalmatrizen, und R
1
= R
t
= R impliziert,
da die Diagonalelemente (die ja positiv sind!) alle gleich Eins sind. Kurz: Es ist
R = E
n
und damit ist A = Q Produkt von Hyperebenenspiegelungen.
Kapitel 4
Determinanten
4.1 Multilineare Abbildungen
Denition 4.1.1. Seien V
1
, . . . , V
m
und W K-Vektorraume. Eine Abbildung
f : V
1
V
m
W heit multilinear (oder K-multilinear, wenn wir den
Korper betonen wollen, oder m-multilinear, wenn wir die Anzahl der Argumente
betonen wollen), wenn f ur alle 1 j m und alle (v
1
, . . . , v
j1
, v
j+1
, . . . , v
m
)
V
1
V
i1
V
i+1
V
m
die Abbildung f
j
: V
j
v
j
f(v
1
, . . . , v
m
) W
linear ist, wenn also f ur alle v
i
, v

i
V
i
, K und 1 j m gilt:
f(v
1
, . . . , v
j1
, v
j
+ v

j
, v
j+1
, . . . , v
m
)
= f(v
1
, . . . , v
j1
, v
j
, v
j+1
, . . . , v
m
) + f(v
1
, . . . , v
j1
, v

j
, v
j+1
, . . . , v
m
)
und f(v
1
, . . . , v
j1
, v
j
, v
j+1
, . . . , v
m
) = f(v
1
, . . . , v
m
).
Beispiele 4.1.2. (1) Bilineare Abbildungen sind also 2-multilinear.
(2) Man kann (ebenso wie bei linearen Abbildungen)

leicht erkennen, ob eine


Abbildung multilinear ist. f :
2
R
2
R
3
R R gegeben durch f(u, v, w) =
u
1
v
1
w
3
+ u
2
v
1
w
1
34u
2
v
2
w
2
ist beispielsweise trilinear, aber f(u, v, w) =
u
1
v
1
+ v
2
w
2
u
2
w
3
nicht, und f(u, v, w) = u
2
1
v
1
w
3
nicht.
(3) Die Matrixmultiplikation deniert jede Menge multilineare Abbildungen,
zum Beispiel
2
K
3

3
K
4

4
K
2

2
K
5

2
K
5
.
Lemma 4.1.3. Seien V ein endlichdimensionaler Vektorraum und B = (b
1
, . . . , b
n
)
eine Basis von V . Dann ist eine multilineare Abbildung f : V
m
K durch ihre
Werte auf der Basis B eindeutig festgelegt.
Beweis. Setze
i
1
,...,i
p
:= f(b
i
1
, . . . , b
i
m
) f ur alle i
1
, . . . , i
m
1, . . . , n. Jedes
v V lat sich in der Form v =

i
b
i
f ur gewisse Skalare
i
schreiben, und es
ist
f(
n

i=1

1i
1
b
i
1
, . . . ,
n

i
p
=1

pi
p
b
i
p
) =
n

i
1
,...,i
p
=1

1i
1

pi
p

i
1
,...,i
p
1
2 KAPITEL 4. DETERMINANTEN
f ur alle
ji
j
K. Also ist f durch die
i
1
,...,i
m
eindeutig festgelegt.
Umgekehrt sieht man, da es zu jeder Vorgabe von Werten
i
1
,...,i
m
K auch
eine multilineare Abbildung f : V
m
K gibt mit
i
1
,...,i
m
= f(b
i
1
, . . . , b
i
m
) f ur
alle i
1
, . . . , i
m
. Man mu dazu nur
f(v
1
, . . . , v
m
) =
n

i
1
,...,i
m
=1

1i
1

mi
m

i
1
,...,i
m
setzen f ur v
j
=

ji
j
b
i
j
.
Denition 4.1.4. Seien V ein endlichdimensionaler Vektorraum und B = (b
1
, . . . , b
n
)
eine Basis von V . Sei f : V
m
K eine m-multilineare Abbildung. Die darstel-
lende Matrix von f ist
M
B
(f) = (
i
1
,...,i
m
) K
{1,...,n}
m
,
deniert durch
i
1
,...,i
m
:= f(b
i
1
, . . . , b
i
m
).
Denition 4.1.5. Eine multilineare Abbildung f : V
m
W heit alternierend,
wenn f ur alle 1 i < m und v
1
, . . . , v
m
V mit v
i
= v
i+1
gilt: f(v
1
, . . . , v
m
) = 0.
Beispiele 4.1.6. (Die zwei-mal-zwei-Determinante und das Vektorprodukt, nur
ganz kurz)
Lemma 4.1.7. Sei f : V
m
K alternierend. Dann gelten
(1) Sind 1 i < j m mit v
i
= v
j
, so ist f(v
1
, . . . , v
m
) = 0.
(2) F ur 1 i < j m ist f(v
1
, . . . , v
j
, . . . , v
i
, . . . , v
m
) = f(v
1
, . . . , v
m
).
(3) F ur alle 1 i, j m mit i ,= j ist f(v
1
, . . . , v
i
+v
j
, . . . , v
m
) = f(v
1
, . . . , v
m
).
Beweis. Zunachst ist
0 = f(v
1
, . . . , v
i
+ v
i+1
, v
i
+ v
i+1
, . . . , v
m
)
= f(v
1
, . . . , v
i
, v
i
+ v
i+1
, . . . , v
m
) + f(v
1
, . . . , v
i+1
, v
i
+ v
i+1
, . . . , v
m
)
= f(v
1
, . . . , v
i
, v
i
, . . . , v
m
) + f(v
1
, . . . , v
i
, v
i
+ 1, . . . , v
m
)
+ f(v
1
, . . . , v
i+1
, v
i
, . . . , v
m
) + f(v
1
, . . . , v
i+1
, v
i+1
, . . . , v
m
)
= f(v
1
, . . . , v
i
, v
i+1
, . . . , v
m
) + f(f
1
, . . . , v
i+1
, v
i
, . . . , v
m
)
so da also (2) zumindest f ur j = i + 1 gilt.
Beweis von (1) durch Induktion uber j, mit Anfang bei j = i +1. Schlu von
j auf j + 1, mit j < m: Sei v
i
= v
j+1
, dann f(v
1
, . . . , v
i
, . . . , v
j
, v
j+1
, . . . , v
m
) =
f(v
1
, . . . , v
i
, . . . , v
j+1
, v
j
, . . . , v
m
) = 0.
(2) folgt aus (1) genau wie der Spezialfall j = i + 1 aus der Denition folgte.
4.1. MULTILINEARE ABBILDUNGEN 3
(3) folgt sofort aus (1):
f(v
1
, . . . , v
i
+ v
j
, . . . , v
m
)
= f(v
1
, . . . , v
m
) + f(v
1
, . . . , v
j
, . . . , v
j
, . . . , v
m
)
= f(v
1
, . . . , v
m
)
Lemma 4.1.8. Sei f : V
m
K multilinear.
(1) Ist char(K) ,= 2 und f(v
1
, . . . , v
i+1
, v
i
, . . . , v
m
) = f(v
1
, . . . , v
m
) f ur alle
v
1
, . . . , v
m
V und 1 i < m, so ist f alternierend.
(2) Ist char(K) ,= 2 und f(v
1
, . . . , v
i
+ v
j
, . . . , v
m
) = f(v
1
, . . . , v
m
) f ur alle
v
1
, . . . , v
m
V , i ,= j und K, so ist f alternierend.
(3) Ist b
1
, . . . , b
n
eine Basis von V und gelten
f(b
i
1
, . . . , b
i
m
) = 0 falls i
j
= i
j+1
f ur ein 1 j < m
f(b
i
1
, . . . , b
i
j+1
, b
i
j
, . . . , b
i
m
) = f(b
i
1
, . . . , b
i
m
)
f ur alle i
1
, . . . , i
m
1, . . . , n, so ist f alternierend.
Beweis. Teil (1) folgt aus f(v
1
, . . . , v
i
, v
i
, . . . , v
m
) = f(v
1
, . . . , v
i
, v
i
, . . . , v
m
).
Zu Teil (2):
f(v
1
, . . . , v
i
, v
i+1
, . . . , v
m
) = f(v
1
, . . . , v
i
, v
i+1
+ v
i
, . . . , v
m
)
= f(v
1
, . . . , v
i
(v
i+1
+v
i
), v
i+1
+v
i
, . . . , v
m
) = f(v
1
, . . . , v
i+1
, v
i+1
+v
i
, . . . , v
m
)
= f(v
1
, . . . , v
i+1
, v
i+1
+ v
i
+ (v
i+1
), . . . , v
m
) = f(v
1
, . . . , v
i+1
, v
i
, . . . , v
m
)
= f(v
1
, . . . , v
i+1
, v
i
, . . . , v
m
).
Damit ist nach Teil (1) f alternierend.
Teil (3): Sei v
i
= v
i+1
=

j
b
j
. Dann
f(v
1
, . . . , v
m
) = f(v
1
, . . . ,

j
b
j
,

k
b
k
, . . . , v
m
)
=

j,k

k
f(v
1
, . . . , b
j
, b
k
, . . . , v
m
)
=

j<k

k
f(v
1
, . . . , b
j
, b
k
, . . . , v
m
) +

j>k

k
f(v
1
, . . . , b
j
, b
k
, . . . , v
m
)
=

j<k

k
f(v
1
, . . . , b
j
, b
k
, . . . , v
m
)

j>k

j
f(v
1
, . . . , b
k
, b
j
, . . . , v
m
) = 0
4 KAPITEL 4. DETERMINANTEN
Folgerung 4.1.9. Sei f : V
m
K multilinear und alternierend.
(1) Falls dimV < m, ist f = 0.
(2) Ist dimV = m, f ,= 0, und g : V
m
K auch multilinear und alternierend,
dann gibt es K mit g = f.
Beweis. (1) f ist durch seine Werte auf den Elementen einer Basis B von V
eindeutig bestimmt. Andererseits gibt es gar nicht m verschiedene Basisele-
mente, die man einsetzen konnte, also kommt auf jedem m-Tupel von Ba-
siselementen Null heraus.
(2) Es gibt i
1
, . . . , i
m
1, . . . , m, zwangslaug paarweise verschieden, mit
f(b
i
1
, . . . , b
i
m
) ,= 0. OBdA sei i
j
= j, sonst numerieren wir halt anders. Setze
= g(b
1
, . . . , b
m
)/f(b
1
, . . . , b
m
). Seien nun i
1
, . . . , i
m
1, . . . , m. Falls die
i
j
nicht paarweise verschieden sind, ist f(b
i
1
, . . . , b
i
m
) = 0 = g(b
i
1
, . . . , b
i
m
).
Ansonsten kann das m-Tupel (i
1
, . . . , i
m
) durch, sagen wir mal, Vertau-
schungen aus (1, . . . , m) gewonnen werden, und es folgt f(b
i
1
, . . . , b
i
m
) =
(1)

f(b
1
, . . . , b
m
) = (1)

g(b
1
, . . . , b
m
) = g(b
i
1
, . . . , b
i
m
).
Satz 4.1.10. Sei dimV = n. Dann gibt es eine multilineare, alternierende Ab-
bildung f : V
n
K mit f ,= 0.
Beweis. Der Beweis wird auf unbestimmte Zeit vertagt!
4.2 Die Determinante
Denition 4.2.1. Eine Abbildung f :
n
K
n
K heit multilinear in den Spalten,
wenn die Abbildung f

:
n
K
n
K K mit f(A) = f

(a
1
, . . . , a
n
) f ur
A = (a
1
, . . . , a
n
) multilinear ist.
Denition 4.2.2. Eine Determinante(nfunktion) ist eine in den Spalten alter-
nierende multilineare Abbildung det:
n
K
n
K mit det(E
n
) = 1 (

det ist nor-


miert).
Satz 4.2.3. F ur jedes n N existiert eine Determinante det:
n
K
n
K, und
sie ist eindeutig bestimmt. Genauer gilt: wenn f :
n
K
n
K eine alternierende
multilineare Abbildung ist, dann ist f = f(E
n
) det.
Beweis. Wie wir oben nicht bewiesen haben, gibt es 0 ,= f :
n
K
n
K multilinear
und alternierend in den Spalten. Es ist f(E
n
) ,= 0, weil sonst 0 = f(e
i
1
, . . . , e
i
n
) =
f(e
1
, . . . , e
n
) f ur alle paarweise verschiedenen i
1
, . . . , i
n
, und damit f = 0. Man
nehme nun det :=
1
f(E
n
)
f. Dann ist det(E
n
) = 1 und nat urlich f = f(E
n
) det.
Die letzte Formel gilt ohnehin, falls f = 0.
4.2. DIE DETERMINANTE 5
Folgerung 4.2.4. (1) Es ist det(A

) = det(A), wenn A

aus A durch Addition


eines Vielfachen einer Spalte zu einer anderen entsteht.
(2) Es ist det(A

) = det(A), wenn A

durch Vertauschen zweier Spalten aus


A entsteht.
(3) Es ist det(A

) = det(A), wenn A

aus A durch Multiplikation einer Spalte


mit K entsteht.
(4) Es ist det(A) =
n
det(A) f ur A
n
K
n
und K. F ur det(A + B) gibt
es keinerlei brauchbare Aussagen.
(5) Die Determinante einer Diagonalmatrix/oberen Dreiecksmatrix /unteren
Dreiecksmatrix (letztere als regular vorausgesetzt) ist das Produkt der Dia-
gonalelemente.
Beweis. Es mu hochstens (5) bewiesen werden: Man sieht, da alle nicht diago-
nalen Elemente sukzessive durch Abziehen von Vielfachen einer Spalte von den
ubrigen zum Verschwinden gebracht werden konnen. F ur eine Diagonalmatrix
folgt die Aussage aus der Multilinearitat.
Beispiel 4.2.5. (Ausrechnen einer beliebigen 4-mal-4-Determinante, wobei man
sieht, da die oben aufgelisteten Regeln vollig ausreichen.)
Satz 4.2.6 (Determinanten-Multiplikationssatz). F ur A, B
n
K
n
gilt det(AB) =
det(A) det(B).
Beweis. Wir halten A
n
K
n
fest und betrachten die Abbildung f :
n
K
n
K
mit f(B) = det(AB). Da f ur B = (b
1
, . . . , b
n
) mit b
i

n
K die Beziehung
f(b
1
, . . . , b
n
) = det(AB) = det(Ab
1
, . . . , Ab
n
) gilt, ist f oenbar multilinear
und alternierend in den Spalten. Also ist det(AB) = f(B) = f(E
n
) det(B) =
det(A) det(B).
Folgerung 4.2.7. Sei A
n
K
n
. Genau dann ist A invertierbar, wenn det(A) ,=
0.
Die Determinante induziert einen Gruppenhomomorphismus det: GL
n
(K)
K 0.
Beweis. Ist Ainvertierbar, so folgt aus 1 = det(E
n
) = det(AA
1
) = det(A) det(A
1
)
da det(A) ,= 0 und det(A)
1
= det(A
1
) ist.
Ist umgekehrt A nicht invertierbar, so ist eine der Spalten a
1
, . . . , a
n
Line-
arkombination der restlichen. OBdA sei a
n
=

n1
i=1

i
a
i
. Dann ist det(A) =

n1
i=1

i
det(a
1
, . . . , a
n1
, a
i
) = 0, weil in jedem Summanden eine Spalte doppelt
vorkommt.
Folgerung 4.2.8. Sei A
n
K
n
. Dann gilt det(A
t
) = det(A).
6 KAPITEL 4. DETERMINANTEN
Beweis. A lat sich als Produkt von Elementarmatrizen A = T
1
T
k
schrei-
ben. Da det(A) = det(T
1
) det(T
k
), und det(A
t
) = det((T
1
T
k
)
t
) =
det(T
t
k
T
t
1
) = det(T
t
k
) det(T
t
1
) = det(T
t
1
) det(T
t
k
), gen ugt es,
det(T
t
) = det(T) f ur jede Elementarmatrix T zu zeigen. Da machen wir das
durch Inspektion: Alle Elementarmatrizen T(i, j) und T(i; ) sind symmetrisch,
und T(i, j; )
t
= T(j, i; ), mit det(T(i, j; )) = 1, weil T(i, j; ) eine obere oder
untere Dreiecksmatrix mit Einsen auf der Diagonalen ist.
Folgerung 4.2.9. Die Determinante det:
n
K
n
K ist alternierend und mul-
tilinear in den Zeilen. Insbesondere andert sich die Determinante nicht, wenn
man ein Vielfaches einer Zeile zu einer anderen addiert, sie multipliziert sich
mit K, wenn man eine Zeile mit multipliziert, sie andert das Vorzeichen,
wenn man zwei Zeilen vertauscht.
Lemma 4.2.10. Sei n N. F ur i, j 1, . . . , n+1 denieren wir d
ij
:
n
K
n
K
durch
d
ij
(A) = det
_
_
_
_
_
_
_
_
_
_
_

11

1,j1
0
1,j
. . .
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

i1,1

i1,j1
0
i1,j

i1,n
0 0 1 0 0

i1

i,j1
0
ij

in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

n1

n,j1
0
nj

nn
_
_
_
_
_
_
_
_
_
_
_
f ur A = (
ij
). Dann ist d
ij
(A) = (1)
i+j
det(A).
Beweis. Die Abbildung d
ij
ist oensichtlich alternierend und multilinear in den
Spalten. Es gen ugt daher, d
ij
(E
n
) = (1)
i+j
zu pr ufen. Da det alternierend in
den Spalten ist, gilt d
i,j+1
(A) = d
ij
(A), und weil det alternierend in den Zeilen
ist, gilt d
i+1,j
(A) = d
ij
(A). Also ist
d
ij
(E
n
) = (1)
j1
d
i1
(E
n
) = (1)
j1
(1)
i1
d
11
(E
n
) = (1)
j+i
det(E
n+1
) = (1)
i+j
Satz 4.2.11 (Entwicklung nach der j-ten Spalte). F ur A
n
K
n
bezeichne
A
ij

n1
K
n1
die Matrix, die aus A durch Streichen der i-ten Zeile und der
j-ten Spalte entsteht.
Dann gilt f ur A = (
k
)
n
K
n
und j 1, . . . , n
det(A) =
n

i=1
(1)
i+j

ij
det(A
ij
).
4.3. ADJUNGIERTE MATRIX UND CRAMERSCHE REGEL 7
Beweis. Da det in der j-ten Spalte linear ist, haben wir
det(A) = det(a
1
, . . . ,

ij
e
i
, . . . , a
n
)
=
n

i=1

ij
det(a
1
, . . . , e
i
, . . . , a
n
)
=
n

i=1

ij
det(a
1

i1
e
i
, . . . , e
i
, . . . , a
n

in
e
i
)
=
n

i=1

ij
d
ij
(A
ij
) =
n

i=1
(1)
i+j
det(A
ij
)
Folgerung 4.2.12 (Entwicklung nach der i-ten Zeile). F ur A
n
K
n
und
i 1, . . . , n ist
det(A) =
n

j=1
(1)
i+j

ij
det(A
ij
).
Beweis. Entwicklung von A
t
nach der i-ten Spalte.
4.3 Adjungierte Matrix und Cramersche Regel
Wir schreiben die Entwicklung nach der -ten Spalte nochmal um:
n

j=1
(1)
+j

j
det(A
j
)
oder, f ur beliebiges k:
n

j=1

kj
(1)
+j
det(A
j
) = det(a
1
, . . . ,
-te Stelle
..
a
k
, . . . , a
n
) =
k
det(A),
wenn a
1
, . . . , a
n
die Spalten von A sind. Das zeigt A

A = det(A)E
n
im folgenden
Satz, die andere Gleichung zeigt man analog:
Denition und Satz 4.3.1. Sei A
n
K
n
. Die adjungierte Matrix zu A ist

A = ( a
ij
)
n
K
n
, deniert durch a
ij
= (1)
i+j
det(A
ji
).
Es gilt

A A = A

A = det(A)E
n
. Ist also A regular, so ist A
1
=
1
det(A)

A.
8 KAPITEL 4. DETERMINANTEN
Beispiel 4.3.2.
_
a b
c d
_
1
=
1
ad bc
_
d b
c a
_
falls
_
a b
c d
_
regular.
F ur A =
_
_
a b c
d e f
g h i
_
_
GL(3, K) ist
A
1
=
1
det(A)
_
_
_
_
_
_
_
_

e f
h i

b c
h i

b c
e f

d f
g i

a c
g i

a c
d f

d e
g h

a b
g h

a b
d e

_
_
_
_
_
_
_
_
Im allgemeinen gibt die adjungierte eine

Formel f ur die Inverse. Das wird


noch richtiger, wenn wir eine Formel f ur die Determinante haben. Erst mal aber:
Folgerung 4.3.3 (Cramersche Regel). Sei A = (a
1
, . . . , a
n
) GL(n, K) und
b
n
K. Die eindeutige Losung x = (x
i
) des Gleichungssystems Ax = b ist
gegeben durch
x
i
=
1
det(A)
det(a
1
, . . . ,
i-te
..
b , . . . , a
n
).
Beweis. det(A)x =

Ab, also
det(A)x
j
=
n

i=1
b
i
(1)
i+j
det(A
ij
) = det(a
1
, . . . ,
i-te
Stelle
..
b , . . . , a
n
)
4.4 Permutationen und Leibnizsche Formel
Denition 4.4.1. S
n
ist die Menge aller bijektiven Abbildungen 1, . . . , n
1, . . . , n. Die Elemente von S
n
heien Permutationen. S
n
heit die Permutati-
onsgruppe oder symmetrische Gruppe. Tatsachlich ist S
n
eine Gruppe bez uglich
der Hintereinanderausf uhrung von Abbildungen.
Seien i, j 1, . . . , n mit i ,= j. Die Bijektion
i,j
S
n
mit
(k) =
_

_
j falls k = i
i falls k = j
k sonst
4.5. DIE DETERMINANTE EINES ENDOMORPHISMUS 9
heit eine Transposition.
i
:=
i,i+1
heit eine Nachbartransposition.
Lemma 4.4.2. Jedes Element von S
n
kann als Produkt von Nachbartransposi-
tionen geschrieben werden.
Lemma 4.4.3. Sei K ein Korper. Die Abbildung : S
n
GL(n, K) mit () =
(e
(1)
, . . . , e
(n)
) ist ein Gruppenhomomorphismus.
Beweis. Es gen ugt ()() = () zu beweisen, indem man beide Matrizen
auf einen Einheitsvektor e
i
wirken lat: ()()e
i
= ()e
(i)
= e
((i))
=
()e
i
.
Folgerung 4.4.4. Es gibt einen Gruppenhomomorphismus : S
n
1, 1
Q 0 mit
() =
_
1 falls Produkt einer geraden Anzahl von Transpositionen ist
1 falls Produkt einer ungeraden Anzahl von Transpositionen ist
Beweis. Wir setzen () = det(()). Dann ist als Verkn upfung zweier Grup-
penhomomorphismen wieder einer. Die Form von ist klar weil det alternierend
in den Spalten ist!
Folgerung 4.4.5 (Leibnizsche Formel). Sei A = (a
ij
)
n
K
n
. Dann ist
det(A) =

S
n
()a
1,(1)
a
n,(n)
4.5 Die Determinante eines Endomorphismus
Lemma 4.5.1. Seien A, B
n
K
n
ahnlich. Dann ist det(A) = det(B).
Beweis. Nach Voraussetzung gibt es T mit B = TAT
1
. Dann ist aber det(B) =
det(TAT
1
) = det(T) det(A) det(T)
1
= det(A).
Denition 4.5.2. Seien V ein endlichdimensionaler Vektorraum, und f : V V
ein Endomorphismus. Wir setzen det(f) = det(M
B
(f)), wenn B eine Basis von
V ist. det(f) ist wohldeniert, denn wenn C eine weitere Basis von V ist, dann
ist M
C
(f) eine zu M
B
(f) ahnliche Matrix, hat also dieselbe Determinante.
Folgerung 4.5.3. det(f) ,= 0 genau dann, wenn f ein Isomorphismus ist. det(fg) =
det(f) det(g) f ur zwei Endomorphismen f, g von V .
Beispiel 4.5.4. Sei H eine Householder-Matrix. Dann ist det(H) = 1.
Denn det(H) = det(f), wenn f =
H
:
n
K
n
K. Sei nun H = E
n
2aa

.
Wahle eine ONB b
1
, . . . , b
n
von
n
K mit b
1
= a. Dann ist M
B
(f) eine Diagonal-
matrix, mit 1 in der linken oberen Ecke, und sonst Einsen.