Sie sind auf Seite 1von 147

Lineare Algebra und Analytische Geometrie I

Wolf P. Barth

Wintersemester 02/03

Mathematisches Institut der Universität


Erlangen, Bismarckstraße 1 21
e-mail: barth@mi.uni-erlangen.de

Version vom 6. März 2003

Inhaltsverzeichnis 2.6 Eigenschaften der Determinante . . 69

0 Einführung 2 3 Vektorräume 78
3.1 Gruppen . . . . . . . . . . . . . . . 78
1 Der Zahlenraum IRn 4 3.2 Körper . . . . . . . . . . . . . . . . 81
1.1 Lineare Gleichungssysteme . . . . . 4 3.3 Vektorräume . . . . . . . . . . . . 84
1.2 Vektorrechnung im IRn . . . . . . . 13 3.4 Untervektorräume und Quotien-
1.3 Lineare Unterräume . . . . . . . . 18 tenvektorräume . . . . . . . . . . . 89
1.4 Lineare (Un-) Abhängigkeit . . . . 22 3.5 Lineare Abbildungen . . . . . . . . 93
1.5 Skalarprodukt im IRn . . . . . . . 31 3.6 Der Dualraum . . . . . . . . . . . 98

2 Matrizen und Determinanten 39 4 Koordinatentransformationen und


2.1 Bewegungen im IRn . . . . . . . . . 39 Ähnlichkeit von Matrizen 103
2.2 Lineare Abbildungen und Matrizen 44 4.1 Basiswechsel und Koordinaten-
2.3 Matrizenrechnung . . . . . . . . . 48 transformationen . . . . . . . . . . 103
2.4 Permutationen und Permutations- 4.2 Eigenwerttheorie . . . . . . . . . . 108
matrizen . . . . . . . . . . . . . . . 59 4.3 Der Satz von Cayley-Hamilton . . 122
2.5 Die Determinante einer (n × n)- 4.4 Die Jordansche Normalform . . . . 131
Matrix . . . . . . . . . . . . . . . . 65 4.5 Die Hauptachsentransformation . . 138
0 Einführung
An allen deutschen Universitäten müssen die Studenten der Mathematik (und auch der Physik) in
den ersten Semestern die Vorlesungen Analysis“ und Lineare Algebra und Analytische Geometrie“
” ”
hören. Das ist sinnvoll, weil der Stoff beider Vorlesungen für jede Art von Mathematik - sei sie rein
oder angewandt - fundamental ist. Der Stoff der Analysis-Vorlesungen ist Differentiation und Inte-
gration, das kennt man im Prinzip aus dem Gymnasium. Diese Art von Mathematik wurde um das
Jahr 1700 herum, im wesentlichen von I. Newton und G.W. Leibniz erfunden. Die Entwicklung der
Analysis verlief Hand in Hand mit der Entwicklung ihrer Anwendungen in Physik und Ingenieurwis-
senschaften. Um 1700 waren ja auch die Wissenschaften Mathematik und Physik bei weitem nicht so
voneinander abgegrenzt wie heute. Die Analysis hat dann um 1900 ihren Einzug in den Mathematik-
stoff der Gymnasien gefunden. Sie ist eine natürlich gewachsene Disziplin, mit starker Beziehung zu
Anwendungen.
Anders ist es mit der Linearen Algebra. Die gab es vor dem zweiten Weltkrieg nicht als eigenständi-
ge Vorlesung. Natürlich gab es ihre Rechentechniken (vor allem lineare Gleichungssysteme, Matrizen,
Determinanten) schon viel früher. Aber man hat diese Rechentechniken damals nicht zu einem struk-
turierten System zusammengefasst. Das tat man erst, nachdem auch die Algebra, früher die Lehre
von den Gleichungen, seit den zwanziger Jahren des letzten Jahrhunderts, zu einer Lehre von Re-
chenstrukturen wurde. Vor dem Krieg geschah dies vor allem unter dem Einfluss der in Erlangen
geborenen Mathematikerin Emmy Noether, nach dem Krieg vor allem unter dem Einfluss einer Schule
französischer Mathematiker, die sich hinter dem Pseudonym N. Bourbaki“ verbargen.

Vorlesungen über Geometrie, sei es analytische oder andere, dagegen gibt es, seit es Mathematik-
vorlesungen gibt. Geometrie, schon den antiken Ägyptern und Griechen bekannt, ist zusammen mit
der Algebra die älteste Teildisziplin der Mathematik. Die Analytische Geometrie verlor nach und nach
ihren eigenständigen Charakter, seit Descartes die kartesischen Koordinaten erfand. Seitdem kann
man geometrische Beweise auch durch Koordinatenrechnungen erbringen. Dies führte - vor allem in
19. Jahrhundert - zu einem erbitterten Gegensatz zwischen den reinen ( synthetischen“) Geometern,

und den Koordinatenrechnern, die die Geometrie als eine Anwendung der Algebra sahen.
Und es stellte sich eben heraus, dass genau das, was man unter Analytischer Geometrie“ versteht,

eine Anwendung der Linearen Algebra ist. So wurde dann aus der Vorlesung Analytische Geometrie“,

früher eine Standardvorlesung für Anfänger, die Vorlesung Lineare Algebra und Analytische Geome-

trie“. Nach und nach traten dabei die Strukturen der Linearen Algebra in den Vordergrund, und die
z.T. Jahrtausende alten geometrischen Inhalte in den Hintergrund. Das hat sich bis in die Gymnasien
ausgewirkt, wo leider auch der Stellenwert der Geometrie sehr gelitten hat.
Die grundlegenden Rechenmethoden der Analysis (Grenzwertbildung, Differenzieren, Integrieren)
und der Linearen Algebra (Lineare Gleichungssysteme, Vektoren, Matrizen) sind zumindest rudi-
mentär vom Gymnasium her vertraut. Ich habe die Erfahrung gemacht, dass die Studenten im ersten
Semester mit der Linearen Algebra ganz andersartige Probleme, als mit der Analysis haben. In der
Linearen Algebra liegt nämlich sehr bald das Schwergewicht auf der Untersuchung mathematischer
Strukturen“. Das ist in der Geschichte der Mathematik etwas relativ Neues. Erst in den letzten 100

bis 150 Jahren schenkt man diesem Gesichtspunkt in der Mathematik Aufmerksamkeit. Und leider
ist es genau das, was den Anfängern immer große Schwierigkeiten bereitet. Aber weil es eben eine der
ganz wichtigen Methoden in der modernen Mathematik ist, müssen wir uns damit befassen.

Jetzt sollte eigentlich eine Liste von Lehrbüchern der Linearen Algebra kommen. Eine solche Liste
zusammenzustellen ist nicht einfach: Bücher zur Linearen Algebra gibt es viele, aber keines, welches

2
mir zusagt. Das ist auch der Grund dafür, dass ich im WS 91/92 ein Skriptum geschrieben habe, das
ich damals an die Studenten ausgab. Das positive Echo auf jenes Skriptum hat mich bewogen, seitdem
zu den meisten meiner Vorlesungen den Studenten ein eigenes Skriptum an die Hand zu geben. Das
vorliegende Skriptum ist eine aufpolierte Version meines Skriptums von 91/92. Es unterscheidet sich
vor allem durch meine gewachsene Fähigkeit, das mathematische Drucksystem TEX zu benutzen.
Trotzdem, noch eine Liste von Standardlehrbüchern:

E. Brieskorn: Lineare Algebra und analytische Geometrie 1, 2, Vieweg 1983, 85


G. Fischer: Lineare Algebra, Vieweg 1975
W. Graeub: Lineare Algebra, Springer 1958
H.J. Kowalsky: Lineare Algebra, de Gruyter 1963
F. Lorenz: Lineare Algebra I, II, BI 1981, 1982

Nach jedem Abschnitt finden Sie eine Anzahl von Übungsaufgaben. Einige habe ich mir selbst
ausgedacht, andere aus Quellen übernommen, an die ich mich jetzt nicht mehr erinnere. Sehr viele
aber stammen aus Staatsexamensklausuren: entweder aus dem früheren Vorexamen (Kennzeichen
[V]) oder dem nicht-vertieften Examen (Kennzeichen [NV]). Aus diesen Aufgaben werde ich Ihre
Übungsaufgaben auswählen.

3
1 Der Zahlenraum IRn
1.1 Lineare Gleichungssysteme
Lineare Gleichungssysteme sind die einzige Art von Gleichungen in der Mathematik, welche wirklich
exakt lösbar sind. Wir beginnen mit einem Beispiel, wie es schon aus der Antike überliefert ist.

Beispiel 1. In einem Käfig seien Hasen und Hühner. Die Anzahl der Köpfe sei insgesamt 4, die Anzahl
der Beine sei insgesamt 10. Frage: Wieviele Hasen und wieviele Hühner sind es?
Lösung: Es sei x die Anzahl der Hasen und y die Anzahl der Hühner. Dann gilt also
x + y = 4
4x + 2y = 10
Dies ist ein System aus zwei linearen Gleichungen in zwei Unbekannten x und y. Wir können aus der
ersten Gleichung x = 4 − y eliminieren und in die zweite einsetzen:

4(4 − y) + 2y = 10
16 − 2y = 10
−2y = −6
y = 3
x = 1

Antwort: Es sind drei Hühner und ein Hase.

Beispiel 2. Gegeben sei ein elektrisches Netzwerk der Form

I1
6 I2 ?I3 ?
R1 R2 R3
U

Dabei seien U, R1 , R2 , R3 gegeben und I1 , I2 und I3 gesucht.


Lösung: Nach den sogenannten Kirchhoffschen Gesetzen der Physik hat man die Gleichungen
I1 = I2 + I3 , sowie R2 I2 = R3 I3 und R1 I1 + R2 I2 = U. Wir schreiben sie als ein System aus drei
linearen Gleichungen in den drei Unbekannten I1 , I2 und I3 :

I1 − I2 − I3 = 0
R2 I2 − R3 I3 = 0
R1 I1 + R2 I2 = U

Wir können hier etwa I1 = I2 + I3 eliminieren, um folgendes System aus zwei linearen Gleichungen in
den Unbekannten I2 und I3 zu erhalten:

R2 I2 − R3 I3 = 0
(R1 + R2 )I2 + R1 I3 = U

4
R3
Hier eliminieren wir I2 = R2 I3 (hoffentlich ist R2 6= 0 !) und erhalten schließlich die Gleichung

R3
(R1 + R2 ) I3 + R1 I3 = U
R2
(R1 R2 + R1 R3 + R2 R3 )I3 = R2 U
R2 U
I3 =
R1 R2 + R 1 R3 + R 2 R3
Aus den Eliminationsgleichungen für I2 und I1 erhalten wir

R3 U (R2 + R3 )U
I2 = , I1 = .
R1 R2 + R1 R3 + R2 R3 R1 R2 + R1 R3 + R2 R3

Nach diesen Beispielen diskutieren wir jetzt den Allgemeinfall, wobei wir besonders darauf achten
müssen, welche Spezialfälle und Ausnahmen auftreten können:
Eine lineare Gleichung ist eine Gleichung der Art

a1 x1 + a2 x2 + ... + an xn = b,

wo a1 , a2 , ..., an , b gegebene reelle Zahlen sind, und die reellen Zahlen x1 , x2 , ..., xn unbekannt und
gesucht sind. Wir müssen leider verschiedene Fälle unterscheiden:
A: Nicht alle Koeffizienten a1 , ..., an sind 0. Dann sei etwa am , 1 ≤ m ≤ n, der erste von 0
verschiedene Koeffizient. Die Gleichung sieht so aus:

0 · x1 + ... + 0 · xm−1 + am · xm + am+1 · xm+1 + ... + an · xn = b.

Wir können also x1 , ..., xm−1 beliebig wählen, auf die Gültigkeit der Gleichung hat dies keinen Einfluß.
Ebenso können wir xm+1 , ..., xn beliebig wählen. Anschließend setzen wir

xm := (b − am+1 xm+1 − ... − an xn )/am .

Damit haben wir für jede Wahl der x1 , ..., xm−1 , xm+1 , ..., xn die Gleichung gelöst. Dies ist auf diese
Weise nur möglich, weil am 6= 0.
B1: Alle Koeffizienten a1 , ..., an sind 0, aber es ist b 6= 0. Das Gleichungssystem hat dann die
merkwürdige Form
0 · x1 + ... + 0 · xn = b.
Egal, wie man auch die Unbekannten x1 , ..., xn wählt, diese Gleichung ist nie zu erfüllen. Sie ist
unlösbar.
B2: Alle Koeffizienten a1 , ..., an sind 0 und auch b = 0. In diesem reichlich uninteressanten Fall ist
die Gleichung stets erfüllt, sie stellt keinerlei Bedingungen an die Unbekannten.

Ein lineares Gleichungssystem ist ein System


a1,1 x1 + a1,2 x2 + ... + a1,n xn = b1
a2,1 x1 + a2,2 x2 + ... + a2,n xn = b2
.. .. .. ..
. . . .
am,1 x1 + am,2 x2 + ... + am,n xn = bm

5
aus mehreren linearen Gleichungen. Jedes derartige System kann man mit dem Eliminationsverfahren
behandeln, so, wie wir es an den obigen einfachen Beispielen gesehen haben. Wir beschreiben diese
Elimination jetzt in einer etwas formaleren Weise, um die Übersicht nicht zu verlieren.
Wenn alle Koeffizienten a1,1 , ..., am,1 in der ersten Spalte 0 sind, stellt das System keine Bedingung
an die Unbekannte x1 . Diese ist völlig frei wählbar und auf die erste Spalte des Systems kommt es
nicht an. Ist aber einer der Koeffizienten a1,1 , ..., am,1 aus der ersten Spalte 6= 0, so sei etwa ap,1 davon
der erste. Wir vertauschen die erste und die p−te Zeile. Dabei ändern sich die Lösungen des Systems
nicht. Aber danach haben wir a1,1 6= 0. Deswegen können wir die erste Zeile durch a1,1 dividieren und
wieder ändern sich die Lösungen nicht. Dann sieht die erste Zeile so aus:
a1,2 a1,n b1
x1 + x2 + ... + = .
a1,1 a1,1 a1,1

Wir eliminieren nun x1 , allerdings ohne die Eliminationsgleichung explizit hinzuschreiben, aus den
restlichen Gleichungen, indem wir von der zweiten, ..., m-ten Zeile a2,1 mal, ..., am,1 mal die erste
Zeile subtrahieren. Da wir dies, wenn wir wollen, auch wieder rückgängig machen können, ändern sich
auch hier die Lösungen nicht, und unser Gleichungssystem nimmt die Form
x1 + a01,2 x2 + ... + a01,n xn = b01
a02,2 x2 + ... + a02,n xn = b02
.. .. ..
. . .
a0m,2 x2 + ... + a0m,n xn = b0m

an, mit neuen Koeffizienten a01,2 , ..., a0m,n und neuen Konstanten b01 , ..., b0m . Jetzt kommt es nur noch
darauf an, die letzten m − 1 Gleichungen aufzulösen. Gelingt dies, so setzen wir deren Lösungen
x2 , ..., xn in die erste Gleichung ein und berechnen daraus x1 .
Indem wir dieses Verfahren sukzessive wiederholen, können wir das Gleichungssystem lösen, außer
wir gelangen irgend wann zu einer unlösbaren linearen Gleichung (Fall B1 von oben).
Wegen seiner prinzipiellen Wichtigkeit müssen wir das Eliminationsverfahren noch etwas weiter
formalisieren. Dazu vereinbaren wir folgenden Sprachgebrauch ( Definitionen“):

Die Koeffizientenmatrix des Gleichungssystems ist das rechteckige Zahlenschema
 
a1,1 a1,2 ... a1,n

 a2,1 a2,2 ... a2,n 

 .. .. .. .
. . .
 
 
am,1 am,2 ... am,n
Wenn wir hieran die rechten Seiten der Gleichungen anfügen
 
a1,1 a1,2 ... a1,n b1

 a2,1 a2,2 ... a2,n b2 

 .. .. .. .. ,
. . . .
 
 
am,1 am,2 ... am,n bm

so nennen wir dies erweiterte Koeffizientenmatrix.


Die Veränderungen, welche wir am Gleichungssystem vornahmen, ohne seine Lösungsmenge zu
ändern, nennen wir elementare Zeilenumformungen. Es gibt drei Sorten davon:

6
Typ I: Vertauschen zweier Zeilen,
Typ II: Multiplikation einer Zeile mit einer Konstanten c 6= 0,
Typ III: Addition des c-fachen einer Zeile, c ∈ IR beliebig, zu einer anderen.

Mit diesen drei Sorten elementarer Zeilenumformungen können wir, links beginnend, eine Spalte
nach der anderen leerfegen:
- Sind alle Koeffizienten in der Spalte 0, so ändern wir nichts, sondern wenden uns sogleich der
nächsten Spalte zu.
- Sind Koeffizienten in der Spalte 6= 0, davon der erste etwa in der p-ten Zeile, so vertauschen wir
diese p-te Zeile mit der ersten (Umformung vom Typ I). Anschließend multiplizieren wir die erste Zeile
mit dem Kehrwert dieses Koeffizienten durch (Typ II), um zu erreichen, dass in dieser ersten Zeile der
erste Koeffizient 1 ist. Schließlich addieren wir ein geeignetes Vielfaches der ersten Zeile zu jeder der
folgenden Zeilen (Typ III), um dort den Koeffizienten aus der ersten Spalte zu beseitigen.
- Haben wir erreicht, dass der erste Koeffizient einer Spalte = 1 und alle weiteren = 0 sind, lassen
wir die erste Zeile beiseite und wenden uns der nächsten Spalte zu.
!
0 2 4
Beispiel 1: gegeben
2 3 4
!
2 3 4
vertauschen erste und zweite Zeile
0 2 4
!
1 1 32 2
Multiplikation beider Zeilen mit 2 0 1 2

!
1 2 3
Beispiel 2: gegeben
2 4 5
!
1 2 3
zweite Zeile minus zweimal erste
0 0 −1
!
1 2 3
Multiplikation der zweiten Zeile mit −1
0 0 1

Wir fassen das Resultat unserer Matrizen-Manipulationen zusammen:

Satz 1.1 Jede Matrix lässt sich durch elementare Zeilenumformungen auf eine Zeilenstufenform
 n0 n1 nr

z }| { z }| { z }| {
 0...0 1 ∗...∗ ∗ ... ∗ ∗...∗ 
 
 .
 0 0...0 1 ... ∗ ∗...∗ 

 .

. . 0 . 1 ∗...∗ 

 . . . . . 0 0...0
 

0...0 0 0...0 0 0...0 0 0...0

bringen. Dabei können die Stufenlängen n0 , n1 , ..., nr eventuell 0 sein, und r, die Anzahl der Stufen

7
kann mit der Gesamtzahl aller Zeilen übereinstimmen, sodass also keine Nullzeilen am unteren Ende
der Matrix auftreten.

Da sich bei elementaren Umformungen der Koeffizientenmatrix die Lösungen eines linearen Glei-
chungssystems nicht ändern, können wir diese Lösungen auch bestimmen, nachdem wir die erweiterte
Koeffizientenmatrix in Zeilenstufenform vorliegen haben. Ob das System lösbar ist oder nicht, lesen
wir an der letzten Stufe ab:

lösbar unlösbar
 
  0...0 1 ... . ... . ... .
0...0 1 ... . ... . ... .  0 0...0 1 ... . ... . 
 0 0...0 1 ... . ... .   
   0 0...0 . ... . 
0 ... . ... .
   
1 ... .
   
   
 ... 1 ... .   
 0 0...0 1 
0 0...0 0
... 0

In der Tat, die letzte Gleichung des rechten Systems lautet 0 · xn = 1 und ist unlösbar. Und wenn eine
Gleichung unlösbar ist, dann ist das ganze System auch nicht lösbar.
Wenn das System in Zeilenstufenform vorliegt, dann kann man die Unbekannten, die nicht zu einer
Stufe gehören, beliebig vorgeben. Die Unbekannten, welche in einer Spalte mit Stufe stehen, können,
in der letzten Zeile beginnend, einzeln berechnet werden, worauf sie in die vorhergehenden Zeilen
eingesetzt werden müssen.
Dieses Lösungsverfahren, mit dem jedes System von linearen Gleichungen behandelt werden kann,
heißt Gaußsches Eliminationsverfahren oder Gauß-Algorithmus. Seine Bedeutung, vor allem in der
Angewandten Mathematik, ist immens.

Manche Mathematiker sind mit einer Zeilenstufenform noch nicht zufrieden. Wenn die Koeffizien-
tenmatrix z.B. quadratisch ist, und die Zeilenstufemform so aussieht

b01
 
1 z1,2 ... z1,n
 .. .. .. 
 0 1 . . . 
Z= ,
 
.. ..

 . . zn−1,n b0n−1 

0 0 1 b0n

kann man die Umformungen noch etwas weiter treiben:

Vorletzte Zeile - zn−1,n -mal die letzte Zeile,


(n − 2)-te Zeile - zn−2,n -mal die letzte Zeile,
..
.
erste Zeile - z1,n -mal die letzte Zeile.

Damit hat man erreicht, dass in der letzten Spalte alle Einträge = 0 sind, bis auf den Eintrag = 1
ganz unten. Mit einem analogen Verfahren, kann man auch alle Einträge in der vorletzten Spalte auf
0 bringen, bis auf den vorletzten Eintrag = 1. Man muss dazu von jeder Zeile geeignete Vielfache der
letzten Zeile abziehen. Wenn man dies von rechts nach links mit allen Spalten macht, sieht am Ende

8
die erweiterte Koeffizientenmatrix so aus:
1 0 ... 0 b001
.. 00
0 1 . b2
.. . . . . .. .. .
. . . . .
0 ... 0 1 b00n

Dazu gehört das besonders einfache Gleichungssystem

1 · x1 = b001
..
.
1 · xn = b00n

Hier kann man die Lösung


x1 = b001 , ..., xn = b00n
sehr einfach ablesen.

Wir schreiben lineare Gleichungssysteme noch etwas formaler


n
X
aµ,ν · xν = bµ , µ = 1, ..., m,
ν=1

und beschließen diesen ersten Abschnitt mit einigen allgemeinen Tatsachen. Dabei nennen wir ein Glei-
chungssystem homogen, wenn alle Zahlen b1 , ..., bm auf seiner rechten Seite 0 sind. Andernfalls nennen
wir das Gleichungssystem inhomogen. Ein homogenes Gleichungssystem hat immer die uninteressante
triviale Lösung x1 = ... = xn = 0.

Satz 1.2 (Mehr Unbekannte als Gleichungen) Das homogene lineare Gleichungssystem
n
X
aµ,ν · xν = 0, µ = 1, ..., m,
ν=1

habe n Unbekannte und m < n Zeilen. Dann können in den Lösungen (x1 , ..., xn ) mindestens n − m
Parameter frei gewählt werden.

Beweis. Die Anzahl der Stufen in einer Matrix mit n Spalten und m Zeilen ist höchstens m. Somit
gibt es mindestens n − m Spalten, in denen keine Stufe steht, und in denen die Unbekannte beliebig
gewählt werden kann.

Satz 1.3 (Struktursatz) Ist eine spezielle Lösung (y1 , ..., yn ) des inhomogenen Systems
n
X
aµ,ν · xν = bµ , µ = 1, ..., m
ν=1

bekannt, so erhält man daraus alle Lösungen des inhomogenen Systems durch Addition aller Lösungen
des zugehörigen homogenen Systems.

9
Beweis. Nach Annahme ist für µ = 1, ..., m
n
X
aµ,ν · yν = bµ .
ν=1

Deswegen haben wir


n
X n
X
aµ,ν · xν = bµ genau dann, wenn aµ,ν · (xν − yν ) = 0,
ν=1 ν=1

das heißt, wenn (x1 − y1 , ..., xn − yn ) eine Lösung des homogenen Systems ist.

Aufgabe 1.1 Wenn fünf Ochsen und zwei Schafe acht Taels Gold kosten, sowie zwei Ochsen und acht
Schafe auch acht Taels, was ist dann der Preis eines Tieres? (Chiu-chang Suan-chu, ∼ 300 n.Chr.)
Aufgabe 1.2 Auf einem Markt gibt es Hühner zu kaufen. Ein Hahn kostet drei Geldstücke, eine
Henne zwei, und Küken kann man drei für ein Geldstück haben. Wie muss man es einrichten, um
für 100 Geldstücke 100 Hühner zu bekommen? (Hinweise: Es gibt mehrere Lösungen, alle sind zu
bestimmen. Als Anzahlen von Hühnern sind dabei nur ganze Zahlen ≥ 0 zugelassen.)
Aufgabe 1.3 Bestimmen Sie alle Lösungen des folgenden Gleichungssystems
2x1 − x2 − x3 + 3x4 + 2x5 = 6
−4x1 + 2x2 + 3x3 − 3x4 − 2x5 = −5
6x1 − 2x2 + 3x3 − x5 = −3
2x1 + 4x3 − 7x4 − 3x5 = −8
x2 + 8x3 − 5x4 − x5 = −3
Aufgabe 1.4 Es seien r, s, t drei verschiedene reelle Zahlen. Zeigen Sie, dass für alle a, b, c ∈ IR das
Gleichungssystem
x1 + rx2 + r2 x3 = a
x1 + sx2 + s2 x3 = b
x1 + tx2 + t2 x3 = c
genau eine reelle Lösung hat und bestimmen Sie diese.
Aufgabe 1.5 Es sei n eine natürliche Zahl. Lösen Sie das Gleichungssystem
x1 + x2 = 0
x2 + x3 = 0
.. ..
. .
xn−2 + xn−1 = 0
xn−1 + xn = 0
xn + x0 = 0

Aufgabe 1.6 Ein 9-tupel (x1 , ..., x9 ) ∈ IR9 heiße magisches Quadrat, wenn
x1 + x2 + x3 = x4 + x5 + x6 = x7 + x8 + x9 = x1 + x4 + x7 =
= x2 + x5 + x8 = x3 + x6 + x9 = x1 + x5 + x9 = x3 + x5 + x7
gilt. Stellen Sie ein lineares Gleichungssystem auf, das diesen acht Bedingungen äquivalent ist, und
lösen Sie dieses.

10
Aufgabe 1.7 Bestimmen Sie t ∈ IR so, dass das folgende System
2x1 + 3x2 + tx3 = 3
x1 + x2 − x3 = 1
x1 + tx2 + 3x3 = 2
keine Lösung, bzw. mehr als eine Lösung, bzw. genau eine Lösung hat.

Aufgabe 1.8 Untersuchen Sie, ob die beiden folgenden Gleichungssysteme eine von Null verschiedene
Lösung haben:
a) x1 + x2 − x3 = 0 b) x1 + x2 − x3 = 0
2x1 − 3x2 + x3 = 0 2x1 + 4x2 − x3 = 0
x1 − 4x2 + 2x3 = 0 3x1 + 2x2 + 2x3 = 0

Aufgabe 1.9 Bringen Sie die folgenden Matrizen durch elementare Zeilenumformungen auf Zeilen-
stufenform:    
1 2 2 3 2 1 3 2
 1
 0 −2 0 

 3
 0 1 −2  
 3 −1 1 −2   1 −1 4 3 
   

4 −3 0 2 2 2 −1 1

Aufgabe 1.10 a) Geben Sie alle möglichen Zeilenstufenformen einer Matrix mit zwei Zeilen und drei
Spalten an.
b) Geben Sie hinreichende und notwendige Bedingungen dafür an, daß die Matrix
!
a b r
c d s

auf die Zeilenstufenform


! ! !
1 ∗ ∗ 0 1 ∗ 0 0 1
, bzw. , bzw.
0 1 ∗ 0 0 0 0 0 0

gebracht werden kann.

Aufgabe 1.11 (NV) Für jede natürliche Zahl n ≥ 1 gebe man ein unlösbares lineares Gleichungssy-
stem mit n Unbekannten an, so dass je n dieser Gleichungen lösbar sind.

Aufgabe 1.12 (NV) Sei m > n ≥ 1, und sei ein unlösbares lineares Gleichungssystem von m Glei-
chungen in n Unbekannten gegeben. Man begründe, dass es n + 1 dieser Gleichungen gibt, die bereits
keine Lösung haben.

Aufgabe 1.13 (NV) Man bestimme alle λ ∈ IR, für die das lineare Gleichungssystem

2x1 + x2 = 1
3x1 − x2 + 6x3 = 5
4x1 + 3x2 − x3 = 2
5x2 + 2x3 = λ
lösbar ist.

11
Aufgabe 1.14 (NV) Gegeben sei das lineare Gleichungssystem
2x1 + x2 + ax3 + x4 = 0
x1 + ax4 − ax5 = 1
2x2 + x3 + 2x5 = 2
a) Man bestimme die Lösungsmenge des Gleichungssystems für a = 1.
b) Gibt es ein a ∈ IR, für welches das Gleichungssytem keine Lösung hat?
c) Gibt es ein a ∈ IR, für welches das Gleichungssytem genau eine Lösung hat?

Aufgabe 1.15 (NV) Für welche Werte des Parameters s ∈ IR besitzt das lineare Gleichungssystem
mit Koeffizientenmatrix A und rechter Seite b, wo
   
s − 1 −1 0 −1 −1
 0 s−2 1 −1   s 
A= , b= ,
   
 1 0 s 0   1 
s 1−s 1 0 1
a) genau eine Lösung?
b) keine Lösung ?
c) unendlich viele Lösungen?

Aufgabe 1.16 (V) a) Für welche Paare (a, b) ∈ IR2 hat das Gleichungssystem
2x1 + 2x2 + (a + 1)x3 = 2
x1 + 2x2 + x3 = 0
ax1 + bx3 = −2

keine Lösung (x1 , x2 , x3 ) ∈ IR3 ?


b) Im Falle b = 1 bestimme man alle Lösungen (in Abhängigkeit von a).

Aufgabe 1.17 (V) Für welche reellen Zahlen b hat das Gleichungssystem
x1 + x2 + x3 = 0
x1 + bx2 + x3 = 4
bx1 + 3x2 + bx3 = −2
keine, genau eine, unendlich viele Lösungen? Man gebe im letzten Fall die Lösungsmenge an.

Aufgabe 1.18 (V) Man bestimme die Lösungsgesamtheit (im IR5 ) des Gleichungssystems
x1 − x2 + x3 − x4 + x5 = 2
x1 + x2 + x3 + x4 + x5 = 1 + λ
x1 + λx3 + x5 = 2
in Abhängigkeit von λ ∈ IR.

Aufgabe 1.19 (V) Betrachten Sie das lineare Gleichungssystem


λx + y = µ
x + λy + z = µ in x, y, z ∈ IR.
y + λz = µ
Für welche λ, µ ∈ IR ist dieses Gleichungssystem lösbar?

12
1.2 Vektorrechnung im IRn
Unter einem Vektor verstehen wir in diesem ganzen ersten Kapitel ein n-tupel

x1
 
 .. 
x= . 
xn

reeller Zahlen x1 , ..., xn . Es ist üblich, sich Vektoren als derartige Spaltenvektoren vorzustellen, während
es aus schreibtechnischen Gründen besser wäre, Zeilenvektoren

x = (x1 , ..., xn )

zu benützen. Vorläufig spielt die Unterscheidung von Zeilen- und Spaltenvektoren keine Rolle und
deswegen werden wir Vektoren als Zeilenvektoren schreiben.
Das n-tupel (x1 , ..., xn ) ist etwas anderes als die Menge {x1 , ..., xn }, da es bei einem n-tupel auf
die Reihenfolge der Einträge ankommt und bei einer Menge nicht.

Der n-dimensionale Zahlenraum ist die Menge

IRn := {(x1 , ..., xn ) : x1 ∈ IR, ..., xn ∈ IR}

aller dieser Vektoren.

Beispiele:
n = 1. IR1 = IR ist die Zahlengerade

1
2 eπ
-2 -1 0 1 2 3

n = 2. Seit Descartes ist es üblich, nach Wahl eines Koordinatensystems, die Punkte der Ebene
durch Zahlenpaare (x1 , x2 ) zu parametrisieren. Umgekehrt gibt die Ebene eine Veranschaulichung des
Raums IR2 der Zahlenpaare (x1 , x2 ). Man identifiziert“ den Zahlenraum IR2 mit der Ebene.

x2
6
(x1 , x2 )

>
q q q 

(-1,1) (0,1)  (1,1)

q q q

 -
x1
(-1,0) (0,0) (1,0)

q q q
(-1,-1) (0,-1) (1,-1)

13
n = 3. Ebenso, wie die Punkte der Ebene mit den Zahlenpaaren (x1 , x2 ) ∈ IR2 identifiziert wer-
den können, so können nach Wahl eines Koordinatensystems die Punkte des Anschauungsraums mit
Zahlentripeln (x1 , x2 , x3 ) ∈ IR3 identifiziert werden.

x3 (x1 , x2 , x3 )
6 
x2

*
 -x1


Zu Beginn des 20. Jahrhunderts schlug A. Einstein den vierdimensionalen Zahlenraum IR4 in seiner
speziellen Relativitätstheorie als geometrisches Modell für den uns umgebenden Raum vor, wobei die
Zeit als vierte Koordinate interpretiert wird. Erst wenige Jahre vorher war es in der Mathematik
üblich geworden, geometrische Betrachtungen auch in mehr als drei Dimensionen durchzuführen. Die
italienischen Geometer hatten diese Zahlenräume höherer Dimension, welche sie zunächst Hyperräu-

me“ nannten, in die Mathematik eingeführt.

Mit den Vektoren des Zahlenraums IRn kann man die folgenden beiden Rechenoperationen durch-
führen:
6
....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... .........................
x+y
x2 + y2 
* .............
... .
............. ........ ..
.... ...
............. .....
Addition: y .
.........
....... ....... ....... ....... ...............
..
...
...
...............
.  .
.....
.
..
. ..
..... .
y2 ..


..
.
.
....
.
.. ....
.....
x = (x1 , ..., xn ) ∈ IRn

 x ...
.
....... ....... ....... ....... ......... ....... ....... ....... ......
.
...
.
......
.
...
.
.
x2 
: .. .. ....
y = (y1 , ..., yn ) ∈ IRn  ...
.
...
.
...
.

x + y = (x1 + y1 , ..., xn + yn ) ∈ IRn 


  -
y1 x1 x1 + y1

6 c·x
c · x2 ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ....... ...
..

*
Multiplikation:  ...
..
...
 ..
 ...
c ∈ IR ....... ....... ....... ....... ...
..
.....
x2 * x ..
x = (x1 , ..., xn ) ∈ IRn

 ... ...
.. ..

c · x = (c · x1 , ..., c · xn ) ∈ IRn  -
x1 c · x1

Beide Rechenoperationen sind komponentenweise nichts anderes, als das übliche Addieren und
Multiplizieren reller Zahlen. Deswegen gelten auch hier die wohlbekannten Rechenregeln
(x + y) + z = x + (y + z), x, y, z ∈ IRn Assoziativität der Addition
n
x + y = y + x, x, y ∈ IR Kommutativität der Addition
c · (x + y) = c · x + c · y, c ∈ IR, x, y ∈ IRn Distributivität
1 · x = x, x ∈ IRn
0 · x = 0 := (0, ..., 0).
Viel mehr gibt es über das Rechnen mit Vektoren nicht zu sagen. Wir möchten aber an einem
ganz einfachen Beispiel das Wesen der Linearen Algebra demonstrieren, das darin besteht, Algebra
auf geometrische Sachverhalte anzuwenden, bzw. umgekehrt, intuitive Methoden aus der Geometrie
für algebraische Anwendung zu abstrahieren. Als Beispiel diskutieren wir Geraden in der Ebene.

14
Eine Gerade L im Zahlenraum IRn wird gegeben durch einen Anfangsvektor v und einen Rich-
tungsvektor 0 6= w ∈ IRn . Sie ist die Menge

@
@L
@
@
L = {v + tw ∈ IRn : t ∈ IR}. @ w
 @ R
v
v + tw
@
 @
:


0
  @
  @

Satz 1.4 Die Gerade L stimmt mit einer zweiten Geraden L0 = {v0 + sw0 : s ∈ IR} genau dann
überein, wenn v0 ∈ L und w0 = c · w mit 0 6= c ∈ IR.

Beweis. ⇒“ Wenn die Mengen L = {v+tw : t ∈ IR} und L0 = {v0 +sw0 : s ∈ IR} übereinstimmen,

dann ist insbesondere (s = 0) der Vektor v0 ein Vektor auf L, also von der Form v0 = v + t0 w. Ebenso
ist (s = 1) auch v0 + w0 ∈ L, also v + t0 w + w0 = v0 + w0 = v + tw. Daraus folgt w0 = cw mit
c = t − t0 . Wegen w0 6= 0 muss auch c 6= 0 sein.
⇐“ Sei v0 = v + t0 w ∈ L und w0 = cw. Dann ist

L0 = {v0 + sw0 : s ∈ IR} = {v + (t0 + sc)w : s ∈ IR} = {v + tw : t ∈ IR},

denn wegen c 6= 0 durchläuft mit s auch t = t0 + sc alle reellen Zahlen.

Satz 1.5 Durch je zwei Vektoren x 6= y des IRn gibt es genau eine Gerade L.

Beweis. Existenz: wir wählen v := x und w := y − x. Dann enthält die Gerade L = {v + tw : t ∈


IR} = {x + t(y − x) : t ∈ IR} beide Vektoren x (für t = 0) und y (für t = 1).
Eindeutigkeit: Sei L0 = {v0 + tw0 : t ∈ IR} eine Gerade, welche die Vektoren x und y enthält.
Wegen Satz 1.4 können wir diese Gerade auch schreiben als L0 = {x + tw0 : t ∈ IR}. Da y = x + t0 w0
mit t0 6= 0 (wegen x 6= y), ist der Richtungsvektor w0 = t10 (y − x) ein Vielfaches des Richtungsvektors
y − x von L. Nach Satz 1.4 ist somit L0 = L.
Die Gerade durch x und y lässt sich etwas anders schreiben:

L = {x + t(y − x) : t ∈ IR} = {(1 − t)x + ty : t ∈ IR} = {sx + ty : s, t ∈ IR, s + t = 1}.

Die Gerade durch x und y ist nicht dasselbe, wie die Strecke zwischen x und y

{x + t(y − x) : t ∈ IR} =
6 {sx + ty : 0 ≤ s, t ∈ IR, s + t = 1}.
1
Für s = t = 2 erhält man den Mittelpunkt 21 (x + y) dieser Strecke.

Nach diesen einfachen Tatsachen, welche in jedem Zahlenraum IRn richtig sind, betrachten wir
jetzt den Zusammenhang von Geraden im IR2 mit linearen Gleichungen in zwei Unbekannten.

15
Satz 1.6 Für eine Teilmenge L ⊂ IR2 sind folgende Eigenschaften äquivalent:
(i): L ist eine Gerade durch den Nullpunkt (0 ∈ L).
(ii): L ist Lösungsmenge einer homogenen linearen Gleichung

a1 x1 + a2 x2 = 0,

mit Koeffizienten a1 , a2 , die nicht beide 0 sind.

Beweis. (i) ⇒ (ii)“ Als Anfangsvektor für L nehmen wir den Nullvektor und beschreiben unsere

Gerade als
L = {tw : t ∈ IR} = {(tw1 , tw2 ) : t ∈ IR}
mit Koeffizienten w1 , w2 , die nicht beide 0 sind. Für unsere homogene Gleichung brauchen wir Koef-
fizienten a1 , a2 mit der Eigenschaft a1 w1 + a2 w2 = 0. Die Zahlen

a1 := w2 , a2 := −w1

bieten sich dafür an. Wir behaupten, dass L mit der Menge {(x1 , x2 ) ∈ IR2 : w2 x1 − w1 x2 = 0}
übereinstimmt. Wegen w2 · tw1 − w1 · tw2 = 0 ist klar, dass L in dieser Menge enthalten ist. Umgekehrt
ist diese Menge aber, wie wir im nächsten Beweisschritt sehen werden, eine Gerade. Da sie 0 und w
enthält, stimmt sie nach Satz 1.5 mit L überein.
(ii) ⇒ (i)“ Falls a1 6= 0, so erfüllt x = (x1 , x2 ) die Gleichung a1 x1 + a2 x2 = 0 genau dann, wenn
” a2
x1 = − a1 x2 , das heißt, wenn x = x2 · (− aa12 , 1) auf der Geraden durch 0 mit dem Richtungsvektor w =
(− aa12 , 1) liegt. Wenn aber a1 = 0, so lautet die Gleichung a2 x2 = 0. Da nun nach Voraussetzung a2 6= 0,
ist dies äquivalent mit x2 = 0. Diese Menge ist die Gerade durch den Nullpunkt mit Richtungsvektor
(1, 0).

Satz 1.7 Für eine Teilmenge L ⊂ IR2 sind äquivalent:


(i) L ist eine Gerade nicht durch den Nullpunkt (nicht 0 ∈ L).
(ii) L ist Lösungsmenge einer inhomogenen linearen Gleichung a1 x1 + a2 x2 = b, wobei (a1 , a2 ) 6=
(0, 0) und b 6= 0.

Beweis. (i) ⇒ (ii)“ Wir schreiben L = {v + tw : t ∈ IR} und betrachten die Gerade L0 := {tw :

t ∈ IR} mit demselben Richtungsvektor durch den Nullpunkt. Nach Satz 1.6 ist L0 Lösungsmenge
einer homogenen linearen Gleichung a1 x1 + a2 x2 = 0. Also ist

L = {v + x : x ∈ L0 }
= {v + x : a1 x1 + a2 x2 = 0}
= {y ∈ IR2 : a1 y1 + a2 y2 = a1 v1 + a2 v2 }.

Da L nicht durch den Nullpunkt geht, liegt v nicht auf L0 , und es ist b := a1 v1 + a2 v2 6= 0.
(ii) ⇒ (i)“ Jetzt ist

L = {x ∈ IR2 : a1 x1 + a2 x2 = b}
= {v + y ∈ IR2 : a1 y1 + a2 y2 = 0}

wo v eine spezielle Lösung der inhomogenen Gleichung a1 v1 + a2 v2 = b ist (Satz 1.3). Nach Satz
1.6 beschreibt die homogene Gleichung a1 y1 + a2 y2 = 0 eine Gerade L0 = {tw : t ∈ IR} durch den

16
Nullpunkt. Somit ist L = {v + tw : t ∈ IR} eine Gerade, die wegen b 6= 0 nicht durch den Nullpunkt
geht.

Wir sahen, die Lösungsmenge einer linearen Gleichung in zwei Unbekannten, deren Koeffizienten
nicht beide 0 sind, ist eine Gerade in der Zahlenebene IR2 . Die Lösungsmenge eines Systems von zwei
derartigen linearen Gleichungen
a1,1 x1 + a1,2 x2 = b1 (Lösungsmenge L1 )
a2,1 x1 + a2,2 x2 = b2 (Lösungsmenge L2 )
ist deswegen der Durchschnitt L1 ∩ L2 der beiden Geraden. Für diesen Durchschnitt gibt es folgende
Möglichkeiten:
1) L1 = L2 : L1 ∩ L2 ist die Gerade L1 = L2
2) L1 6= L2 , L1 ∩ L2 6= ∅ L1 ∩ L2 ist ein Punkt
3) L1 6= L2 , L1 und L2 parallel L1 ∩ L2 ist leer
Zu diesen drei Möglichkeiten gehören die folgenden drei Stufenformen der Koeffizientenmatrix:
! !
1 ∗ ∗ 0 1 ∗
1) oder
0 0 0 0 0 0
!
1 ∗ ∗
2)
0 1 ∗
! !
1 ∗ ∗ 0 1 ∗
3) oder
0 0 1 0 0 1

Schließlich noch ein Wort zur Nomenklatur: Die Beschreibung L = {v + tw : t ∈ IR} = v + IRw
heißt Parametrisierung oder explizite Beschreibung der Geraden L. Die Beschreibung a1 x1 + a2 x2 = b
heißt implizit. Wenn c 6= 0, so ist ca1 x1 + ca2 x2 = cb eine implizite Beschreibung der gleichen Geraden
(Zeilenumformung vom Typ II). Wählt man - im Falle b 6= 0 - zum Beispiel c = 1b , so erhält man die
Achsenabschnittsform

x2
6
q
1 1
x1 + x2 = 1. e
p q e
e
e
e p - x1
e
e
Aufgabe 1.20 Zeigen Sie:
a) Die drei Geraden im IR2
! ! ! ! ! !
−7 2 5 −1 0 −1
L1 := + IR · , L2 := + IR · , L3 := + IR ·
0 1 0 1 8 4

schneiden sich in einem Punkt.

17
b) Die drei Punkte ! ! !
10 4 −5
, ,
−4 0 6
liegen auf einer Geraden.
Aufgabe 1.21 Untersuchen Sie, ob die Gerade
   
5 3
L1 :=  2  + IR ·  −1 
   
0 7
im IR3 die Gerade
       
6 −2 −1 4
L2 :=  15  + IR ·  4  , bzw. L3 :=  0  + IR ·  2 
       
17 −1 3 −1
schneidet und bestimmen Sie ggf. den Schnittpunkt.
Aufgabe 1.22 Beweisen Sie, dass sich die drei Seitenhalbierenden eines Dreiecks in einem Punkt
treffen.
Aufgabe 1.23 (V) Beweisen Sie: Bei einem Tetraeder schneiden sich die Verbindungsgeraden der
Mitten gegenüberliegender Kanten in einem Punkt.
Aufgabe 1.24 Es seien L1 , L2 , L3 und L4 vier verschiedene Geraden in der Ebene IR2 derart, dass
sich je zwei dieser Geraden in einem Punkt treffen. Si,j bezeichne den Schnittpunkt der Geraden Si
und Sj , (1 ≤ i < j ≤ 4). Die sechs Schnittpunkte Si,j , 1 ≤ i < j ≤ 4 seien alle verschieden. Bweisen
Sie, dass die Mittelpunkte der drei Strecken S1,2 S3,4 , S1,3 S2,4 sowie S1,4 S2,3 auf einer Geraden liegen.

1.3 Lineare Unterräume


Gegeben sei ein homogenes lineares Gleichungssystem
n
X
aµ,ν xν = 0, (µ = 1, ..., m).
ν=1
Seine Lösungsmenge
n
X
U = {u ∈ IRn : aµ,ν uν = 0, µ = 1, ..., m} ⊂ IRn
ν=1
Pn Pn
hat folgende Eigenschaft: Sind x und y aus U , d.h. ν=1 aµ,ν xν = ν=1 aµ,ν yν = 0 für µ = 1, ..., m,
und sind s, t ∈ IR, dann ist auch
n
X n
X n
X
aµ,ν · (sxν + tyν ) = s · aµ,ν xν + t · aµ,ν yν = 0.
ν=1 ν=1 ν=1

Es gilt also:

18
x, y ∈ U, s, t ∈ IR ⇒ sx + ty ∈ U (LIN)

Diese Eigenschaft (LIN) kann auch in zwei Teilen geschrieben werden:

x, y ∈ U ⇒ x+y ∈U (LIN, add)


x ∈ U, c ∈ IR ⇒ cx ∈ U (LIN, mul)

Sie ist für die Lineare Algebra so wichtig, dass wir sie durch eine Definition hervorheben:

Definition 1.1 Eine Teilmenge ∅ = 6 U ⊂ IRn heißt linearer Unterraum oder Untervektorraum wenn
sie die Eigenschaft (LIN) besitzt.

Bevor wir weitere Beispiele geben, notieren wir, dass jeder lineare Unterraum U den Nullvektor
enthält: Denn weil U nicht leer ist, enthält U mindestens einen Vektor x, und dann wegen (LIN) auch
den Nullvektor 0 = 0 · x.

Beispiele. 1) Jede Gerade L durch den Nullpunkt ist ein linearer Unterraum: Sei L = IR · w.
Vektoren x und y ∈ L schreiben sich dann x = s · w und y = t · w. Folglich ist x + y = (s + t) · w ∈ L
und auch cx = cs · w ∈ L.
2) Aus ganz trivialen Gründen sind der Nullraum {0}, der nur den Nullvektor enthält, und der
Totalraum IRn , der alle Vektoren enthält, lineare Unterräume.
3) Sei A ⊂ IRn eine beliebige (endliche oder unendliche) aber nicht leere Teilmenge. Jede endliche
Summe
k
X
x= cν aν , cν ∈ IR, aν ∈ A, k ∈ IN,
ν=1

nennen wir eine Linearkombination von Vektoren aus A. Und die Menge aller Linearkombinationen
von Vektoren aus A
k
X
span(A) := { cν aν : k ∈ IN, cν ∈ IR, aν ∈ A}
ν=1

heißt der von A aufgespannte Unterraum.


Behauptung: span(A) ist der kleinste lineare Unterraum von IR, der die Menge A enthält, d.h.:
( i): span(A) ist ein linearer Unterraum,
(ii): jeder lineare Unterraum U ⊂ IRn , der A enthält, enthält auch span(A).
Pk Pl 0
Beweis von ( i): Seien x = 1 cµ aµ und y = 1 dν aν Elemente in span(A). Dann ist auch
Pk Pl
sx + ty = 1 scµ aµ + 1 tdν a0ν eine Linearkombination von Vektoren aµ , a0ν ∈ A und gehört zu
span(A).
Beweis von (ii): Enthält der lineare Unterraum U ⊂ IRn die Menge A, so wegen wiederholter
Anwendung von (LIN) auch jede endliche Linearkombination von Vektoren aus A, und damit die
Menge span(A).

Wir betrachten Spezialfälle für derart aufgespannte lineare Unterräume. Für endliche Mengen
A = {a1 , ..., ak } benützen wir dabei immer die Abkürzung span(a1 , ..., ak ) := span({a1 , ..., ak }).

19
1) Mit eν ∈ IRn werden wir stets den Vektor bezeichnen, der an der ν-ten Stelle den Eintrag 1
enthält und sonst lauter Nullen:
eν = ( 0 , ..., 0, 1, 0, ..., 0 )
↑ ↑ ↑
1 ν n

Für k = 1, ..., n ist dann


k
X
span(e1 , ..., ek ) = {x = cν eν }
1
= {x = (c1 , ..., ck , 0, ..., 0)}
= {x ∈ IRn : xk+1 = ... = xn = 0}.

2) Seien v 6= w, v 6= 0 6= w Vektoren im IRn , so, dass v ∈


/ IR · w, d.h., dass die Gerade durch v und
w den Nullpunkt nicht enthält. Dann heißt span(v, w) die von v und w aufgespannte Ebene. Diese
Ebene enthält die Gerade durch v und w, aber außerdem noch alle Vielfachen tx von Vektoren x auf
dieser Geraden.
3) Sind U1 und U2 ⊂ IRn zwei lineare Unterräume, so ist auch ihr Durchschnitt U1 ∩ U2 wieder ein
linearer Unterraum.
4) Wenn U1 und U2 ⊂ IRn zwei lineare Unterräume sind, so bezeichnet man mit U1 + U2 den
linearen Unterraum span(U1 ∪ U2 ).

Mit diesem Begriff des aufgespannten Unterraums“ können wir die Lösbarkeitsbedingung für ein

lineares Gleichungssystem
n
X
aµ,ν xν = bµ , µ = 1, ..., m
ν=1
anders formulieren: Wir bezeichnen mit aν ∈ IRm die Spaltenvektoren“ der Koeffizientenmatrix und

mit b den Vektor auf der rechten Seite des Gleichungssystems:

a1,ν b1
   
 ..   .. 
aν =  .  , b =  . .
am,ν bm

Mit diesen Vektoren kann man das Gleichungssystem in Vektorschreibweise


n
X
xν aν = b
ν=1

schreiben. Man sieht: Das Gleichungssystem ist genau dann lösbar, wenn die rechte Seite b eine
Linearkombination der Spaltenvektoren a1 , ..., an ist, d.h.,wenn

b ∈ span(a1 , ..., an ).

Schließlich treffen wir noch eine Vereinbarung, die an dieser Stelle überperfektionistisch erscheinen
mag: Wenn die Menge A leer ist, so vereinbaren wir span(A) soll der Nullraum sein, d.h. der lineare
Unterraum, welcher nur den Nullvektor enthält: span(∅) = {0}.

20
Manchmal bezeichnet man auch Lösungsmengen inhomogener Gleichungssysteme als Unterräume.
Diese besitzen dann natürlich nicht die Eigenschaft (LIN). Wir werden solche Mengen affine Unter-
räume nennen. Nach Satz 1.3 entsteht jeder affine Unterraum A aus einem linearen Unterraum U ,
indem man zu einem Vektor v ∈ A alle Vektoren aus U addiert:
c
 c
x2 cA
 c
c v c
6 c c

c 
A = {x = v + u : u ∈ U } = v + U 
c
* x3
c 
U c 
c

c  c - x1
c c
Es gibt lineare Unterräume verschiedener Größe: c
c 

c
{0} Gerade Ebene ...
0-dimensional 1-dimensional 2-dimensional ...

Diese Größe nennt man Dimension“ eines linearen Unterraums. Der folgende Abschnitt dient u. a.

der präzisen Definition des Dimensionsbegriffs.

Aufgabe 1.25 Betrachten Sie die acht Mengen von Vektoren x = (x1 , x2 ) ∈ IR2 definiert durch die
Bedingungen
1) x1 + x2 = 0,
2) (x1 )2 + (x2 )2 = 0,
3) (x1 )2 − (x2 )2 = 0,
4) x1 − x2 = 1,
5) (x1 )2 + (x2 )2 = 1,
6) Es gibt ein t ∈ IR mit x1 = t und x2 = t2 ,
7) Es gibt ein t ∈ IR mit x1 = t3 und x2 = t3 ,
8) x1 ∈ ZZ.
Welche dieser Mengen sind lineare Unterräume?

Aufgabe 1.26 Liegt der Vektor (3, −1, 0, −1) ∈ IR4 im Unterraum, der von den Vektoren (2, −1, 3, 2),
(−1, 1, 1, −3) und (1, 1, 9, −5) aufgespannt wird?

Aufgabe 1.27 Es seien U1 , U2 ⊂ IRn lineare Unterräume. Zeigen Sie:


a) U1 ∪ U2 ist ein linearer Unterraum, genau dann, wenn entweder U1 ⊂ U2 oder U2 ⊂ U1 .
b) Die folgenden beiden Aussagen sind äquivalent:
b1) Für jedes x ∈ IRn gibt es eindeutig bestimmte Vektoren u1 ∈ U1 und u2 ∈ U2 mit x = u1 + u2 .
b2) U1 + U2 = IRn und U1 ∩ U2 = {0}.

Aufgabe 1.28 (NV) Zeigen Sie für beliebige Teilmengen A, B ⊂ IRn

span(A ∪ B) = span(A) + span(B).

21
1.4 Lineare (Un-) Abhängigkeit

Beispiel. Die beiden Vektoren e1 = (1, 0, 0) und e2 =


(0, 1, 0) ∈ IR3 spannen die Ebene {x ∈ IR3 : x3 = 0} auf.
Dieselbe Ebene wird aber auch von den drei Vektoren

e
2 
e1 , e2 , e1 + e2 = (1, 1, 0) 3 
 :e1 + e2

 
 -
aufgespannt. Jeden dieser drei Vektoren könnte man weglas-  e1

sen, die restlichen beiden spannen diese Ebene immer noch 
auf. Wir sagen: Diese drei Vektoren sind linear abhängig.

Definition 1.2 Eine Menge A ⊂ IRn heißt linear abhängig, wenn es eine echte Teilmenge A0 ⊂
A, A0 6= A gibt mit span(A0 ) = span(A). Sonst heißt A linear unabhängig.

Beispiele: 1) Die oben betrachtete Menge A = {e1 , e2 , e1 + e2 } ⊂ IR3 ist linear abhängig, denn
für A0 = {e1 , e2 } ⊂ A gilt A0 6= A und span(A0 ) = span(A).
2) Die Menge A = {e1 , e2 } enthält die folgenden echten Teilmengen:
A0 = {e1 } mit span(e1 ) = Gerade IR · e1 ,
A0 = {e2 } mit span(e2 ) = Gerade IR · e2 ,
A0 = ∅ mit span(∅) = Nullraum.
Für keine davon gilt span(A0 ) = span(A) = Ebene {x3 = 0}. Also ist A linear unabhängig.
3) Jede Menge, welche den Nullvektor enthält, ist linear abhängig, denn wenn 0 ∈ A und A0 =
A \ {0}, dann ist A0 6= A, aber span(A0 ) = span(A).
4) Enthält A einen Vektor a mit a ∈ span(A \ {a}), dann ist A linear abhängig. Denn für A0 :=
A \ {a} gilt A 6= A0 , aber wegen a = l1 dj aj , aj ∈ A0 ,
P

k
cm bm : k ∈ IN, c0 , c1 , ..., ck ∈ IR, bm ∈ A0 }
X
span(A) = {c0 a +
1
l k
cm bm : aj , bm ∈ A0 }
X X
= {c0 ( dj aj ) +
1 1
⊂ span(A0 ).

5) Wenn (voneinander verschiedene) Vektoren v1 , ..., vk ∈ A existieren und Zahlen c1 , ..., ck ∈ IR,
nicht c1 = ... = ck = 0, mit

k
X
cm vm = 0, (nicht-triviale lineare Relation)
m=1

dann ist A linear abhängig. Denn weil nicht alle cm = 0 sind, können wir nach Vertauschen der Indizes
annehmen c1 6= 0 und dann schreiben
k k
cm
vm ∈ span(A0 ),
X X
c1 v1 = − cm vm , v1 = −
2 2
c1

22
wo A0 := A \ {v1 }.

Diese Beispiele sollten zunächst den Sachverhalt der linearen Abhängigkeit verdeutlichen. Das
letzte Beispiel ist aber bereits typisch dafür, wie wir künftig lineare Un-/Abhängigkeit überprüfen
werden:

Satz 1.8 (Test auf lineare Abhängigkeit) Eine Teilmenge A ⊂ IRn ist genau dann linear abhän-
gig, wenn es eine nichttriviale lineare Relation zwischen (voneinander verschiedenen) Vektoren aus A
gibt.

Satz 1.9 (Test auf lineare Unabhängigkeit) Eine Teilmenge A ⊂ IRn ist genau dann linear un-
abhängig, wenn sie folgende Eigenschaft besitzt:

Sind v1 , ..., vk endlich viele (voneinander paarweise verschiedene) Vektoren in A


und c1 , ..., ck Zahlen in IR mit

k
X
cm vm = 0
m=1

dann ist c1 = ... = ck = 0.

Satz 1.9 ist nur eine Umformulierung von Satz 1.8. Deswegen genügt es, Satz 1.8 zu beweisen.
Beweis von Satz 1.8. ⇐“ Diese Beweisrichtung wurde als Beispiel 5) oben schon behandelt.

⇒“ Sei A linear abhängig, d.h., es gibt eine Teilmenge A0 ⊂ A mit span(A0 ) = span(A) und A0 6=

A. Dann gibt es also einen Vektor v ∈ A, der nicht zu A0 gehört. Wegen v ∈ A ⊂ span(A) = span(A0 )
ist v eine Linearkombination v = k1 cν vν von Vektoren vν ∈ A0 . Dann ist
P

k
X
1·v− cν vν = 0
1

eine nichttriviale (da v einen Koeffizienten 6= 0 hat) lineare Relation zwischen Vektoren aus A.

Noch zwei weitere Beispiele:


6) Sei A ⊂ IRn eine Teilmenge, die mehr als n Vektoren enthält. Dann ist A linear abhängig.
Beweis. A enthält mindestens n+1 Vektoren v1 , ..., vn+1 . Das homogenen lineare Gleichungssystem
c1 · v1,1 + ... + cn+1 · vn+1,1 = 0
.. .. ..
. . .
c1 · v1,n + ... + cn+1 · vn+1,n = 0
aus n Gleichungen in den n + 1 Unbekannten c1 , ..., cn+1 hat nach Satz 1.2 eine Lösung (c1 , ..., cn+1 ) 6=
(0, ..., 0). Damit haben wir eine nichttriviale lineare Relation n+1
P
1 cν vν = 0 zwischen v1 , ...., vn+1 .
Nach Satz 1.8 ist A linear abhängig.
Beispiel 7). Es seien

23
z1 = (0, ..., 0, 1, ..... .... ...)
z2 = (0, ..., 0, 0, ..., 0, 1, ... ...)
..
.
zr = (0, ..., 0, 0, ..., 0, 0, ..., 0, 1, ..)
die Zeilenvektoren aus einer Matrix in Zeilenstufenform. Diese Vektoren sind linear unabhängig.
Beweis. Der Vektor zk habe seinen ersten Eintrag 6= 0 in der nk -ten Spalte, k = 1, ..., r. Da die
Matrix Zeilenstufenform hat, ist
1 ≤ n1 < n2 < ... < nr ≤ n.
Wir testen auf lineare Unabhängigkeit: sei eine Linearkombination r1 ck zk = 0 gegeben. Da nur der
P

erste Vektor z1 in der n1 -ten Spalte einen Eintrag 6= 0 besitzt, folgt hieraus c1 = 0. Von den übrigen
Vektoren hat nur z2 einen Eintrag 6= 0 in der n2 -ten Spalte, was c2 = 0 zur Folge hat, usw.

Gelegentlich haben wir es nicht mit einer Menge {v1 , v2 , ...} von Vektoren zu tun, sondern mit
einer Folge v1 , v2 , ..., in der etwa Vektoren auch mehrmals vorkommen können. Eine solche (endliche
oder unendliche) Folge werden wir auch System von Vektoren nennen. Die Zeilenvektoren einer Matrix
sind z.B. so ein System. Der Test auf lineare Unabhängigkeit für ein System ist:
k
X
cν vν = 0 ⇒ c1 = ... = ck = 0 ?
1

für alle k ∈ IN. Ein System, in dem derselbe Vektor mehrmals vorkommt, ist somit stets linear
abhängig.

Definition 1.3 Sei U ⊂ IRn ein linearer Unterraum. Eine Basis von U ist ein System v1 , ..., vr von
Vektoren aus U mit
( i) U = span(v1 , ..., vr ),
(ii) v1 , ..., vr sind linear unabhängig.
Die Zahl r heißt Länge der Basis.

Beispiele. Für eine Gerade IR · v bildet der Vektor v eine Basis.


Eine Basis für eine Ebene IR · v + IR · w bilden die Vektoren v und w.
Die Vektoren e1 , ..., en , bilden eine Basis des IRn . Wir nennen sie die Standardbasis, die Vektoren
nennen wir Koordinatenvektoren.
Der Nullvektorraum {0} hat die leere Menge ∅ als Basis.

Satz 1.10 (Basis-Satz) Jeder lineare Unterraum U ⊂ IRn hat eine Basis.

Dies ist ein Spezialfall (V = {0}) des folgenden Satzes 1.11, sodass wir nur diesen Satz 1.11 zu
beweisen brauchen.

Satz 1.11 (Basis-Ergänzungs-Satz) Es seien V ⊂ U ⊂ IRn lineare Unterräume und v1 , ..., vr sei
eine Basis von V . Dann gibt es Vektoren u1 , ..., us ∈ U so, dass das System v1 , ..., vr , u1 , ..., us eine
Basis von U ist.

24
Beweis. Wenn U = V ist, dann ist nichts zu beweisen (s = 0). Wenn U 6= V ist, dann existiert ein
u ∈ U , das nicht ∈ V ist. Wir behaupten, das System v1 , ..., vr , u ist linear unabhängig und verwenden
den Test aus Satz 1.9. Sei also r X
cν vν + cu = 0
1

eine lineare Relation. Dann muss c = 0 gelten, denn sonst würde u = − 1c


P
cν vν zu V gehören. Weil
nun c = 0, so lautet die lineare Relation nur noch
r
X
cν vν = 0.
1

Weil die v1 , ..., vr eine Basis von V bilden, sind sie insbesondere linear unabhängig. Deswegen folgt
jetzt auch c1 = ... = cr = 0 und v1 , ..., vr , u sind linear unabhängig.
Wir setzen u1 := u und U1 := span(v1 , ..., vr , u1 ). Dann bilden die Vektoren v1 ..., vr , u1 eine Basis
von U1 . Wenn U1 = U ist, dann sind wir fertig. Andernfalls wiederholen wir diese Konstruktion immer
wieder. So erhalten wir für alle k ≥ 1 Untervektorräume Uk ⊂ U mit einer Basis v1 , ..., vr , u1 , ..., uk .
Spätestens wenn r + k = n + 1 ist, können die n + 1 Vektoren v1 , ..., vr , u1 , ..., uk nicht mehr linear
unabhängig sein (obiges Beispiel 6). Es muss also vorher schon einmal ein k = s gegeben haben mit
Us = U.

Satz 1.12 (Basis-Auswahl-Satz) Sei U = span(v1 , ..., vk ) ⊂ IRn ein linearer Unterraum. Dann
gibt es unter den Vektoren v1 , ..., vk eine Basis vi1 , ..., vir für U .

Beweis. Wenn v1 , ..., vk linear unabhängig sind, dann bilden sie eine Basis von U und wir sind fertig.
P
Andernfalls gibt es unter ihnen einen Vektor vj der eine Linearkombination i6=j ci vi der anderen
Vektoren ist. Dann wird U auch schon von den k − 1 Vektoren v1 , ..., vj−1 , vj+1 , ..., vk aufgespannt.
Spätestens nachdem wir diesen Schritt k − 1-mal wiederholt haben, gelangen wir zu einem linear
unabhängigen Teilsystem der v1 , ..., vk , welches U aufspannt.

Satz 1.13 (Invarianz der Basis-Länge) Die Länge einer Basis für einen linearen Unterraum U ⊂
IRn hängt nur von U ab und nicht von der gewählten Basis.

Beweis. Seien v1 , ..., vr und u1 , ..., us zwei Basen für U . Wir haben s ≤ r zu zeigen. Da v1 , ..., vr
den Unterraum U aufspannen, ist jedes uσ , 1 ≤ σ ≤ s, eine Linearkombination uσ = rν=1 cσ,ν vν . Das
P

lineare Gleichungssystem (vertauschte Indizes!)


s
X
cσ,ν xσ = 0, (ν = 1, ..., r)
σ=1

hat s Unbekannte und r Zeilen. Wenn s > r sein sollte, so gibt es eine Lösung (x1 , ..., xs ) 6= (0, ..., 0)
für dieses Gleichungssystem (Satz 1.2). Es folgt
s s r r s r
! !
X X X X X X
xσ uσ = xσ cσ,ν vν = xσ cσ,ν vν = 0 · vν = 0.
σ=1 σ=1 ν=1 ν=1 σ=1 ν=1

Also sind u1 , ..., us linear abhängig. Weil sie eine Basis sind, ist dies unmöglich und es muss s ≤ r
gewesen sein.

25
Die Sätze 1.11 und Satz 1.13 ermöglichen folgende Definition:

Definition 1.4 Die Dimension eines linearen Unterraums U - in Zeichen dimU - ist die Länge einer
Basis für U .
Beispiele. 1) Da e1 , ..., en ∈ IRn eine Basis bilden ist
dim(IRn ) = n.
2) Der Zeilenrang einer (m × n)-Matrix ist die Dimension des von ihren Zeilenvektoren im IRn
aufgespannten linearen Unterraums. Dieser Zeilenrang ändert sich nicht bei elementaren Zeilenum-
formungen. Bei Umformungen vom Typ I und II ist dies klar. Bei Typ III sieht man es wie folgt
ein:
Die Zeilenvektoren seien z1 , ..., zm und z0k := zk + c · zl , k 6= l, sei eine derartige Zeilenumformung.
Sei Z := span(z1 , ..., zm ) ⊂ IRn und Z 0 := span(z1 , ..., zk−1 , z0k , zk+1 , ..., zm ). Wegen z0k ∈ Z ist Z 0 ⊂ Z.
Wegen zk = z0k − c · zl ist auch Z ⊂ Z 0 . Es ist also Z = Z 0 und dim(Z) = dim(Z 0 ).
Folglich ändert sich der Zeilenrang auch nicht, wenn wir eine Matrix durch elementare Zeilen-
umformungen auf Zeilenstufenform bringen. Bei einer Matrix in Zeilenstufenform ist der Zeilenrang
gerade die Anzahl der Stufen. Wir könnten den Zeilenrang einer Matrix also auch definieren als die
Anzahl der Zeilen 6= 0 in ihrer Zeilenstufenform.
3) Natürlich kann man analog den Spaltenrang einer Matrix als die Dimension des Vektorraums
definieren, der von den Spaltenvektoren der Matrix aufgespannt wird.

Satz 1.14 (Dimensionsformeln) ( i) Es seien U1 ⊂ U2 ⊂ IRn lineare Unterräume. Dann gilt


dim(U1 ) ≤ dim(U2 ) und dim(U1 ) = dim(U2 ) nur dann, wenn U1 = U2 .
(ii) Für je zwei lineare Unterräume U1 , U2 ⊂ IRn gilt
dim(U1 ∩ U2 ) + dim(U1 + U2 ) = dim(U1 ) + dim(U2 ).
Beweis. (i): Ist u1 , ..., ur eine Basis von U1 , so kann man sie nach dem Basis-Ergänzungssatz zu
einer Basis u1 , ..., ur , ur+1 , ..., us von U2 ergänzen. Es folgt dim(U1 ) = r ≤ r + s = dim(U2 ) und
dim(U1 ) = dim(U2 ) nur dann, wenn r = r + s, d.h. U1 = U2 .
(ii): Sei u1 , ..., ud eine Basis von U1 ∩ U2 . Wir ergänzen sie zu einer Basis u1 , ..., ud , v1 , ..., vr von
U1 und einer Basis u1 , ..., ud , w1 , ..., ws von U2 . Wir testen das System u1 , ..., ud , v1 , ..., vr , w1 , ..., ws
auf lineare Unabhängigkeit: sei etwa die lineare Relation
a u1 + ... + ad ud + b1 v1 + ... + br vr + c1 w1 + ... + cs ws = 0
|1 {z } | {z }
∈U1 ∈U2

zwischen diesen Vektoren vorgelegt. Dann ist


c1 w1 + ... + cs ws = −(a1 u1 + ... + ad ud + b1 v1 + ... + br vr ) ∈ (U1 ∩ U2 ),
also
c1 w1 + ... + cs ws = α1 u1 + ... + αd ud mit α1 , ..., αd ∈ IR.
Da aber u1 , ..., ud , w1 , ..., ws als Basis von U2 linear unabhängig waren, folgt hieraus c1 = ... = cs = 0.
Ganz analog folgt b1 = ... = br = 0, sodass die lineare Relation schließlich a1 u1 + ... + ad ud = 0 lautet.
Hieraus folgt dann endlich noch a1 = ... = ad = 0.
Da u1 , ..., ud , v1 , ..., vr , w1 , ..., ws den Unterraum U1 + U2 aufspannen, haben wir bewiesen, dass
sie eine Basis von U1 + U2 bilden. Somit ist

26
dim(U1 ) = d + r dim(U2 ) = d + s
dim(U1 ∩ U2 ) = d dim(U1 + U2 ) = d + r + s
dim(U1 ) + dim(U2 ) = 2d + r + s dim(U1 ∩ U2 ) + dim(U1 + U2 ) = 2d + r + s.
Damit ist Formel (ii) bewiesen

Wir wenden unseren Dimensionsbegriff jetzt noch auf lineare Gleichungssysteme an:

Satz 1.15 Es sei ein homogenes lineares Gleichungssystem


n
X
aµ,ν xν = 0, (µ = 1, ..., m)
ν=1

mit n Unbekannten vorgelegt. Für die Zahlen


d := Dimension des Lösungsraums r := Zeilenrang der Koeffizientenmatrix
gilt dann die Beziehung

d+r = n

Beweis. Bei elementaren Zeilenumformungen der Koeffizientenmatrix ändern sich weder d noch
r. Wir können daher o.B.d.A. annehmen, die Koeffizientenmatrix habe Zeilenstufenform. Die Zahl
der Stufen ist dann r. Es gibt also n − r Spalten ohne Stufe in der Koeffizientenmatrix. An diesen
n − r Stellen können die Unbekannten beliebig gewählt werden, die anderen r werden daraus dann
berechnet. Eine Basis für den Lösungsraum erhalten wir, wenn wir in jeder dieser n − r Spalten eine
1, in den anderen eine 0 vorgeben. Deswegen hat der Lösungsraum die Dimension n − r.

Satz 1.16 (Korollar) Jeder lineare Unterraum U ⊂ IRn ist der Lösungsraum eines homogenen li-
nearen Gleichungssystems.

Beweis. Sei dim(U ) = k und u1 , ..., uk ∈ U eine Basis. Die k × n-Matrix mit den Zeilenvektoren
u1 , ..., uk hat also den Zeilenrang k. Diese Matrix ist die Koeffizientenmatrix eines homogenen linearen
Gleichungssystems
n
X
uµ,ν yν = 0, µ = 1, ..., k,
ν=1
für die Unbekannten y1 , ..., yn . Nach der Dimensionsformel von Satz 1.15 ist die Dimension seines
Lösungsraums n − k. Wir wählen eine Basis a1 , ..., an−k ∈ IRn für diesen Lösungsraum. Dann gilt also
n
X
uµ,ν aλ,ν = 0 für µ = 1, ..., k, λ = 1, ...., n − k.
ν=1

Jetzt kehren wir die Rolle von Koeffizienten und Unbekannten in diesem Gleichungssystem um. Dann
sind die Vektoren u1 , ..., uk Lösungsvektoren des homogenen linearen Gleichungssystems
n
X
aλ,ν uν = 0, λ = 1, ..., n − k.
ν=1

27
Die Koeffizientenmatrix dieses Systems hat die Zeilenvektoren a1 , ..., an−k und damit den Zeilenrang
n − k. Alle Vektoren u1 , ..., uk sind Lösungen dieses neuen Systems. Damit enthält sein Lösungsraum
V ⊂ IRn auch U = span(u1 , ..., uk ). Wieder verwenden wir die Dimensionsformel und folgern

dim(V ) = n − (n − k) = k = dim(U ).

Wegen U ⊂ V folgt daraus U = V , d.h., U ist der Lösungsraum des Gleichungssystems mit den
Zeilenvektoren a1 , ..., an−k .

Satz 1.17 Für ein lineares Gleichungssystem


n
X
aµ,ν xν = bµ , (µ = 1, ..., n)
ν=1

(genauso viele Gleichungen wie Unbekannte!) sind die folgenden Aussagen äquivalent:
( i) Bei jeder Wahl der b1 , ..., bn auf der rechten Seite ist das Gleichungssystem lösbar.
(ii) Bei jeder Wahl der b1 , ..., bn auf der rechten Seite gibt es eine einzige Lösung des Systems.
(iii) Das zugehörige homogene System
n
X
aµ,ν xν = 0, (µ = 1, ..., n)
ν=1

hat nur die Null-Lösung.


(iv) Der Spaltenrang der Koeffizientenmatrix ist n.
( v) Der Zeilenrang der Koeffizientenmatrix ist n.

Beweis. Eigenschaft (i) ist damit äquivalent, dass die Spaltenvektoren der Koeffizientenmatrix
den ganzen Vektorraum IRn aufspannen. Dies ist damit äquivalent, dass die Koeffizientenmatrix den
Spaltenrang n besitzt (iv). Daraus folgt, dass die n Spaltenvektoren linear unabhängig sind. Denn
wären sie linear abhängig, würden auch schon n − 1 dieser Vektoren den IRn aufspannen. Aus dem
Basis-Auswahlsatz würde der Widerspruch dim(IRn ) < n folgen. Eigenschaft (iii) ist aber nichts
anderes als der Test auf lineare Unabhängigkeit für die Spaltenvektoren.
Eigenschaft (ii) ist äquivalent mit (i) und (iii) zusammen. Wegen Satz 1.15 ist (iii) äquivalent mit
(v).

Aufgabe 1.29 Aus den Zeilenvektoren der Matrix


 
1 2 3 4

 5 6 0 0 

7 8 0 0
 
 
9 10 0 0

lassen sich 15 verschiedene, nichtleere Mengen von Vektoren bilden, und ebenso aus den Spaltenvek-
toren. Welche dieser 30 Mengen sind linear abhängig?

28
Aufgabe 1.30 Es sei U ⊂ IRn ein k-dimensionaler Untervektorraum. Zeigen Sie, dass für jede Teil-
menge M ⊂ U die folgenden Eigenschaften äquivalent sind:
1) M ist eine Basis von U ,
2) M ist linear unabhängig und besteht aus k Vektoren,
3) M spannt U auf und besteht aus k Vektoren.

Aufgabe 1.31 Berechnen Sie den Zeilenrang der Matrizen


   
1 3 6 10 1 3 6 10
 3 6 10 15   3 6 10 1 
A= , B= .
   
 6 10 15 21   6 10 1 3 
10 15 21 28 10 1 3 6

Aufgabe 1.32 Es seien

U := {x ∈ IR4 : x1 + 2x2 = x3 + 2x4 },


V := {x ∈ IR4 : x1 = x2 + x3 + x4 }.

Bestimmen Sie Basen von U, V, U ∩ V und U + V .

Aufgabe 1.33 (NV) Gegeben sei die reelle 4 × 4-Matrix


 
−1 0 −1 2
 0 −1 2 −1 
A= .
 
 −1 2 −1 0 
2 −1 0 −1

Bestimmen Sie eine Basis für den Lösungsraum des homogenen linearen Gleichungssystems mit Ko-
effizientenmatrix A.

Aufgabe 1.34 (NV) Es seien a, b, c reelle Zahlen. Bestimmen Sie den Zeilenrang der Matrix
 
b 0 c 0
 0 b 0 c 
A= .
 
 a 0 b 0 
0 a 0 b

Aufgabe 1.35 (NV) Es sei U der von (1, 2, 3) und (4, 5, 6), sowie V der von (2, 1, 2) und (1, 2, 0)
aufgespannte Unterraum des IR3 . Man bestimme eine Basis von U ∩ V .

Aufgabe 1.36 (NV) Es seien U, V, W ⊂ IRn lineare Unterräume. Beweisen oder widerlegen Sie die
Formeln

dim(U ∩ (V + W )) = dim(U ∩ V ) + dim(U ∩ W ) − dim(U ∩ V ∩ W ),


dim(U + V + W ) = dim(U + V ) + dim(U + W ) − dim(U + (V ∩ W )).

29
Aufgabe 1.37 (NV) Im IR4 seien die Unterräume
         
1 1 6 3 1
 1   2   5   4   0 
U1 = IR   + IR  und U2 = IR   + IR   + IR 
         
1 3 1 5 2
 
         
1 4 2 0 1

gegeben. Man berechne eine Basis von U1 ∩ U2 .

Aufgabe 1.38 (NV) Im IR4 seien die folgenden Punktmengen gegeben:

E1 = {x : x1 + x2 + x3 + x4 = x1 + 2x2 + 3x3 + 4x4 = 0},


E2 = {x : 5x1 + 8x2 + 11x3 + 14x4 = 2x1 + 5x2 + 8x3 + 11x4 = 0}.

Man zeige:
a) E1 und E2 sind zweidimensionale Unterräume des IR4 ;
b) E1 = E2 .

Aufgabe 1.39 (NV) Im IR4 seien die Vektoren


     
1 1 1
 1   2   2 
v1 =   , v2 =   , v3 = 
     
1 0 3

     
0 3 4

gegeben. Man bestimme ein Gleichungssystem, dessen Lösungsgesamtheit IRv1 + IRv2 + IRv3 ist.

Aufgabe 1.40 (V) Gegeben sei das lineare Gleichungssystem

6x + 15y + 4z = a
3x + 5y + 2z = b
9x + 6z = c

für (x, y, z) ∈ IR3 .


a) Man gebe die Menge E aller rechten Seiten (a, b, c) ∈ IR3 an, für die es lösbar ist. Welche Struktur
hat diese Menge E?
b) Welche Dimension hat der affine Lösungsraum für festes (a, b, c) ∈ E?
c) Man gebe denselben in Abhängigkeit von (a, b, c) ∈ E an.

Aufgabe 1.41 (V) Geben Sie mit Begründung die Dimension der linearen Hülle (= span) der fol-
genden Teilmengen des IR3 an:
a) S1 := {(1 + n, 1 + 2n, 1 + 3n); n = 0, 1, ...} ,
b) S2 := {(n, n2 , n3 ); n = 1, 2, ...}.

Aufgabe 1.42 (V) Seien n, k ∈ IN, seien v1 , , v2 , ..., vn ∈ IRk Vektoren, und sei wi := ij=1 vj für
P

i = 1, ..., n. Man zeige, dass die Folge (v1 , v2 , ..., vn ) genau dann linear unabhängig ist, wenn die Folge
(w1 , w2 , ..., wn ) linear unabhängig ist.

30
Aufgabe 1.43 (V) U1 , bzw. U2 seien die durch die Vektoren
         
1 4 1 1 2
 2   3   0   0   1 
, , bzw. ,
         
3 2 1 0 1
   
         
4 1 0 0 1
aufgespannten Unterräume des IR4 . Man bestimme die Dimension und eine Basis von U1 ∩ U2 .
Aufgabe 1.44 (V) Im reellen Vektorraum IR5 seien folgende Vektoren gegeben:
u1 = (−1, 4, −3, 0, 3); u2 = (2, −6, 5, 0, −2); u3 = (−2, 2, −3, 0, 6).
Sei U der von u1 , u2 , u3 aufgespannte Unterraum im IR5 . Bestimmen Sie ein reelles lineares Glei-
chungssystem, dessen Lösungsraum genau U ist.

1.5 Skalarprodukt im IRn


Wir erinnern zunächst an den elementargeometrischen Begriff der Länge in n = 1, 2 und 3 Dimensio-
nen: √
n=1: Für x ∈ IR ist |x| := x2 der Betrag der Zahl x.
n=2: Die Länge eines Vektors x = (x , x ) ∈ IR2 ist
6 x
1 2 
>

k x k
q 
k x k:= x21 + x22 .  x2


Dies ist der Inhalt des elementargeometrischen Satzes von  -
Pythagoras. x1

n=3: Die Länge eines Vektors x = (x1 , x2 , x3 ) ∈ IR3 ist 6


x


q
k x k:= x21 + x22 + x23 .

k x k
x3
Dies ergibt sich nach zweimaligem Anwenden des Pythago-

ras.


!! x
!
! 2
!

-
x1

Es liegt nahe, wie dieser Längenbegriff für beliebige Dimension zu verallgemeinern ist:

Definition 1.5 Sei x = (x1 , ..., xn ) ∈ IRn . Dann heißt


q
k x k:= x21 + x22 + ... + x2n
die Länge oder die Norm von x.

31
Auch für den quadratischen Ausdruck unter der Wurzel führen wir eine eigene Notation ein:

Definition 1.6 Seien x = (x1 , ..., xn ) und y = (y1 , ..., yn ) Vektoren im Zahlenraum IRn . Dann heißt
n
X
(x.y) := xν .yν
ν=1

das Skalarprodukt von x mit y.

Mit dieser Definition des Skalarprodukts ist also


q
k x k= (x.x).
p
Das Skalarprodukt (x.y) und die Norm k x k= (x.x) haben folgende Eigenschaften:

(i) Es ist stets k x k≥ 0 und k x k= 0 nur dann, wenn x = 0. Für c ∈ IR ist

k cx k= |c|· k x k .

((c1 x1 + c2 x2 ).y) = c1 (x1 .y) + c2 (x2 .y), x1 , x2 , y ∈ IRn , c1 , c2 ∈ IR,


(ii) Bi-Linearität:
(x.(c1 y1 + c2 y2 )) = c1 (x.y1 ) + c2 (x.y2 ), x, y1 , y2 ∈ IRn , c1 , c2 ∈ IR.

(iii) Symmetrie: (x.y) = (y.x), x, y ∈ IRn .

(iv) Cauchy-Schwarz-Ungleichung: |(x.y)| ≤k x k · k y k (C.S.U.)


Beweis: Für alle a, b ∈ IR ist

0 ≤k ax − by k2 = (ax − by . ax − by) = a2 k x k2 −2ab(x.y) + b2 k y k2 ,

oder äquivalent damit


2ab(x.y) ≤ a2 k x k2 +b2 k y k2 .
Setzen wir z.B. a =k y k und b =k x k, so erhalten wir

2 k x k · k y k (x.y) ≤ 2 k x k2 · k y k2 .

Da die Behauptung für x = 0 oder y = 0 richtig ist, können wir o.B.d.A. x 6= 0 6= y annehmen.
Dann dürfen wir in der letzten Gleichung kürzen und erhalten

(x.y) ≤k x k · k y k .

Für −x statt x gilt dieselbe Ungleichung, sodass also auch

−(x.y) = (−x.y) ≤k x k · k y k

gilt. Daraus folgt schließlich

|(x.y)| = max{(x.y), −(x.y)} ≤k x k · k y k .

32
*
7

(v) Dreiecksungleichung: k x + y k≤k x k + k y k . x + y  
y
 
Beweis:  -x

k x + y k2 = (x + y.x + y)
= k x k2 +2(x.y)+ k y k2
≤ k x k2 +2 k x k · k y k + k y k2
= (k x k + k y k)2 .

Nicht nur die Norm eines Vektors, auch das Skalarprodukt zweier Vektoren hat eine geometrische
Bedeutung. Dazu betrachten wir zunächst zwei Einheitsvektoren (= Vektoren der Länge 1) im IR2 :

x = (cos(α), sin(α))
y = (cos(β), sin(β))
(x.y) = cos(α)cos(β) + sin(α)sin(β)
= cos(α − β).

Aus dem Additionstheorem für die cos-Funktion folgt also, dass das Skalarprodukt (x.y) zweier Ein-
heitsvektoren der Cosinus des Winkels zwischen beiden Vektoren ist. Für zwei beliebige Vektoren
x 6= 0 6= y definieren wir zunächst die Einheitsvektoren
1 1
x̂ := x, ŷ := y
kxk kyk

und erhalten dann für den Cosinus des Winkels zwischen x und y

(x.y)
(x̂.ŷ) = .
kxk·kyk

Dies nehmen wir zum Anlass für die entsprechende Definition im IRn :

Definition 1.7 Seien x 6= 0 6= y Vektoren im IRn . Aus der Cauchy-Schwarz-Ungleichung folgt

(x.y)
−1 ≤ ≤ 1.
kxk·kyk

Da die Cosinus-Funktion das Intervall [0, π] bijektiv auf das Intervall [−1, 1] abbildet, gibt es genau
einen Winkel α ∈ IR mit
(x.y)
cos(α) = , 0 ≤ α ≤ π.
kxk·kyk
Wir nennen diesen Winkel α den Winkel zwischen den Vektoren x und y. (Dieser Winkel hat kein
Vorzeichen! Er hängt nicht von der Reihenfolge der Vektoren x und y ab.)

33
Hier haben wir ziemlich großzügig Gebrauch von den Eigenschaften der Cosinus-Funktion aus
Analysis I gemacht. Die Beziehung zwischen Skalarprodukt und Cosinus des Zwischenwinkels ist für
das Verständnis und die Anwendungen (z.B. in der analytischen Geometrie) von großer Bedeutung.
Im weiteren Aufbau der Linearen Algebra selbst werden wir aber von dieser Tatsache keinen Gebrauch
machen, sondern nur, um den Bezug zur Anschauung aufrecht zu erhalten. In diesem Sinn sollte uns
deswegen die Anleihe bei der Vorlesung Analysis erlaubt sein.

Definition 1.8 Zwei Vektoren x, y ∈ IRn heißen orthogonal oder senkrecht aufeinander, in Zeichen
x ⊥ y, wenn sie den Winkel π2 einschließen, also wenn (x.y) = 0 ist. (Hier ist auch x = 0 oder y = 0
zugelassen.)

Satz 1.18 (n-dimensionaler Pythagoras) Es seien v1 , ..., vr ∈ IRn Vektoren, die paarweise auf-
einander senkrecht stehen:
(vk .vl ) = 0 für alle k 6= l.
Dann gilt
k v1 + v2 + ... + vr k2 =k v1 k2 + k v2 k2 +...+ k vr k2 .

Beweis. Aus der Voraussetzung folgt, dass die linke Seite gleich
r
X r
X
(v1 + ... + vr . v1 + ... + vr ) = (vk .vl ) = (vk .vk )
k,l=1 k=1

ist.

Definition 1.9 Ist A ⊂ IRn eine beliebige Menge, so sei


A⊥ := {x ∈ IRn : (x.a) = 0 für alle a ∈ A}
die Menge der Vektoren x, die auf allen Vektoren aus A senkrecht stehen. Ist insbesondere A = U ⊂ IRn
ein linearer Unterraum, so nennen wir U ⊥ das orthogonale Komplement zu U in IRn .
@ @
U ⊥@ @
@ @
@ @
@ U
@
@
@
@

Beispiel. Sei A = {a1 , ..., am } eine endliche Menge. Dann ist also
x ∈ A⊥ ⇔ (a1 .x) = ... = (am .x) = 0
n
X n
X
⇔ a1,ν xν = ... = am,ν xν = 0
ν=1 ν=1
Xn
⇔ aµ,ν xν = 0 für µ = 1, ..., m
ν=1

34
Die Vektoren x ∈ {a1 , ..., am }⊥ sind also genau die Lösungen des linearen Gleichungssystems, dessen
Koeffizientenmatrix aus den Zeilenvektoren a1 , ..., am zusammengesetzt ist. Satz 1.15 zeigt in dieser
Situation: dim{a1 , ..., am }⊥ = n − dim span(a1 , ..., am ).

Satz 1.19 Für jeden linearen Unterraum U ⊂ IRn gilt


( 0) dim(U ⊥ ) = n − dim(U ),
( i) (U ⊥ )⊥ = U ,
(ii) U ∩ U ⊥ = {0},
(iii) U + U ⊥ = IRn .

Beweis. (0): Sei dim(U ) = r und u1 , ..., ur ∈ U eine Basis des Unterraums. Nach Definition besteht
das orthogonale Komplement U ⊥ aus den Vektoren x ∈ IRn , die auf allen Vektoren u ∈ U senkrecht
stehen. Aber weil u1 , ...ur den Unterraum U aufspannen, ist dies gleichbedeutend damit, dass x auf
u1 , ..., ur senkrecht steht. Also ist U ⊥ der Lösungsraum eines homogenen linearen Gleichungssystems,
dessen Koeffizientenmatrix die Zeilenvektoren u1 , ..., ur besitzt. Deren Zeilenrang ist r, und aus der
Dimensionsformel (Satz 1.15) folgt dim(U ⊥ ) = n − r.
(i): Da x ⊥ u genau dann gilt, wenn u ⊥ x, ist U ⊂ (U ⊥ )⊥ . Nach (0) ist dim(U ⊥ )⊥ = n − (n −
dimU ) = dimU. Nun folgt U = (U ⊥ )⊥ aus Satz 1.14 (i).
(ii): Wenn x ∈ U und x ∈ U ⊥ , dann ist insbesondere (x.x) = 0 und daraus folgt x = 0.
(iii): Sei u1 , ..., um eine Basis für U und um+1 , ..., un eine Basis für U ⊥ . (Wir benützen hier die
Information dimU ⊥ = n − dimU.) Wir testen die Vektoren u1 , ..., um , um+1 , ..., un auf lineare Un-
abhängigkeit:
c1 u1 + ... + cm um + cm+1 um+1 + ... + cn un = 0.
| {z } | {z }
∈U ∈U ⊥

Wegen (ii) ist also


m
X n
X
cν uν = cν uν = 0,
ν=1 ν=m+1

und da u1 , ..., um , bzw. um+1 , ..., un linear unabhängig sind, folgt c1 = ... = cm = 0 und cm+1 = ... =
cn = 0. Nach Satz 1.14 (i) erzeugen dann u1 , ..., um , um+1 , ..., un den ganzen Zahlenraum IRn .

Satz 1.20 (Schmidtsche Orthonormalisierung) Jeder Unterraum U ⊂ IRn besitzt eine Ortho-
normalbasis, d.h. eine Basis u1 , ..., um , für die gilt:
(
(uk .ul ) = 0 falls k=6 l (Orthogonalität)
k uk k= 1 falls k = 1, ..., m (Normalität)

Beweis. Wir gehen von einer beliebigen Basis v1 , ..., vm des Unterraums U aus. Als erstes norma-
lisieren wir v1 :
1
u1 := v1 .
k v1 k
Dann ersetzen wir v2 durch
u02 := v2 − (u1 .v2 )u1 ,

35
denn damit haben wir
(u1 .u02 ) = (u1 .v2 ) − (u1 .v2 )(u1 .u1 ) = 0
erreicht. Als nächstes normieren wir u02 :
1
u2 := u0 .
k u02 k 2
Dieses Verfahren können wir mit jedem der Vektoren vk wiederholen: Haben wir für ein k ≤ m schon
erreicht, dass (
(uj .ul ) = 0 falls j 6= l ≤ k
k uj k= 1 für j = 1, ..., k,
wobei u1 , ..., uk ∈ U Linearkombinationen der Vektoren v1 , ..., vk sind, so definieren wir

u0k+1 := vk+1 − (u1 .vk+1 )u1 − ... − (uk .vk+1 )uk ∈ U.

Da die Vektoren v1 , ..., vk+1 linear unabhängig sind, ist vk+1 keine Linearkombination der v1 , ..., vk
und deswegen u0k+1 6= 0. Da die Vektoren u1 , ..., uk schon orthonormal sind, berechnen wir für jedes
j = 1, ..., k :

(u0k+1 .uj ) = (vk+1 .uj ) − (u1 .vk+1 )(u1 .uj ) − ... − (uk .vk+1 )(uk .uj )
= (vk+1 .uj ) − (uj .vk+1 )(uj .uj )
= 0

Wir brauchen u0k+1 nur noch zu normalisieren und haben dann orthonormale Vektoren u1 , ..., uk+1 ∈ U
konstruiert. Nach endlich vielen derartigen Schritten haben wir eine Orthonormalbasis für U.
Dieser Beweis funktionierte ja ganz schön, aber ein Wort der Warnung: Will man dieses Verfah-
ren konkret anwenden, so bringen die Normierungen Zahlenfaktoren ins Spiel, die sich meist äußerst
unangenehm aufschaukeln!

Satz 1.21 (Orthogonalprojektion) Sei U ⊂ IRn ein linearer Unterraum. Zu jedem Vektor x ∈ IRn
gibt es dann genau einen Vektor P (x) ∈ U, derart, dass

x − P (x) ⊥ U.

Beweis. Nach Satz 1.19 (iii) wissen wir IRn = U + U ⊥ . Jeder Vektor x ∈ IRn ist deswegen eine
Linearkombination x = u1 + u2 von Vektoren u1 ∈ U und u2 ∈ U ⊥ . Hätten wir zwei derartige
Darstellungen für x:

x = u1 + u2 = u01 + u02 mit u1 , u01 ∈ U, u2 , u02 ∈ U ⊥ ,

so könnten wir u1 − u01 = u02 − u2 ∈ U ∩ U ⊥ folgern. Da nach Satz 1.19 (ii) aber U ∩ U ⊥ = {0} ist,
hätten wir u1 = u01 und u2 = u02 . Das heißt, die Darstellung x = u1 + u2 mit u1 ∈ U und u2 ∈ U ⊥ ist
nur auf eine Weise möglich.
Wir setzen P (x) := u1 und haben

((P (x) − x).u) = (−u2 .u) = 0 für alle u ∈ U.

Da die Darstellung x = u1 + u2 eindeutig ist, gibt es zu x nur einen derartigen Vektor P (x).

36
Aufgabe 1.45 Es sei U ⊂ IR5 der von den Vektoren (1, 2, 0, 2, 1) und (1, 1, 1, 1, 1) aufgespannte Un-
terraum. Bestimmen Sie eine Orthonormalbasis von U und von U ⊥ .

Aufgabe 1.46 a) Beweisen Sie, dass sich die drei Mittelsenkrechten eines Dreiecks in einem Punkt
schneiden.
b) Beweisen Sie, dass sich die drei Höhen eines Dreiecks in einem Punkt schneiden.

Aufgabe 1.47 Es seien x, y, z ∈ IRn . Zeigen Sie:


a) |k x k − k y k| ≤k x − y k,
b) k x k=k y k ⇔ (x − y) ⊥ (x + y),
c) ist x 6= 0 und y 6= 0, so gilt

x y kx−y k
k 2
− 2
k= ,
kxk kyk kxk·kyk

d)k x − y k · k z k≤k y − z k · k x k + k z − x k · k y k.

Aufgabe 1.48 Zeigen Sie: In der Cauchy-Schwarz-Ungleichung |(x.y)| ≤k x k · k y k gilt das Gleich-
heitszeichen genau dann, wenn die Vektoren x und y ∈ IRn linear abhängig sind.

Aufgabe 1.49 Es seien L1 : v1 + IRw1 und L2 : v2 + IRw2 zwei Geraden im IRn mit linear un-
abhängigen Richtungsvektoren w1 , w2 . Zeigen Sie: Auf L1 existiert genau ein Punkt x1 und auf L2
genau ein Punkt x2 so, dass x1 − x2 auf w1 und w2 senkrecht steht. (k x1 − x2 k heißt Abstand der
Geraden L1 und L2 .)

Aufgabe 1.50 Es sei U ⊂ IRn ein linearer Unterraum und P die Orthogonalprojektion auf U . Zeigen
Sie für alle x ∈ IRn , u ∈ U
k x − P (x) k≤k x − u k .

Aufgabe 1.51 (NV) a) Ergänzen Sie die beiden Vektoren

1 1 1 1 1 1 1 1
   
v1 = , , , und v2 = , ,− ,−
2 2 2 2 2 2 2 2

zu einer Orthonormalbasis des IR4 .


b) Es sei E ⊂ IR4 die von v1 und v2 aufgespannte Ebene. Bestimmen Sie für jeden Vektor x =
(x1 , x2 , x3 , x4 ) ∈ IR4 die Orthogonalprojektion x0 ∈ E, d.h., den Vektor x0 ∈ E mit (x − x0 ) ⊥ E.

Aufgabe 1.52 (NV) Im IR4 seien die aufeinander senkrecht stehenden Vektoren v1 = (1, 2, 3, 4) und
v2 = (4, 1, −2, 0) gegeben. Man ergänze v1 , v2 zu einer Orthogonalbasis des IR4 .

Aufgabe 1.53 (V) Man bestimme im IR4 den Winkel zwischen den Vektoren
   
1 0
 1   1 
x= , y= .
   
 1   0 
1 0

37
Aufgabe 1.54 (V) Zeige, dass zwei Vektoren x und y ∈ IRn genau dann zueinander orthogonal sind,
wenn für alle λ ∈ IR gilt
k x + λy k≥k x k .

Aufgabe 1.55 (V) Im IR3 seien E1 und E2 zwei 2-dimensionale Untervektorräume, die sich in einer
Geraden A schneiden. Der Schnittwinkel ϕ = 6 (E1 , E2 ) von E1 mit E2 sei wie folgt definiert: Man
wähle Vektoren vi ∈ Ei (i = 1, 2) der Länge 1, die senkrecht auf A stehen. Man darf annehmen, dass
(v1 .v2 ) ≥ 0 (andernfalls ersetze man v2 durch −v2 ). Dann ist

cos(ϕ) = (v1 .v2 ).

Sei

E1 = {(x, y, z) ∈ IR3 : x − y + 2z = 0},


E2 = {(x, y, z) ∈ IR3 : x + 2y − 3z = 0}.

Man berechne den Cosinus des Schnittwinkels von E1 und E2 .

Aufgabe 1.56 (V) Die Standardbasisvektoren e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) des IR3
spannen ein Dreieck ∆ auf. Finden Sie einen 2-dimensionalen Unterraum E des IR3 und eine ortho-
gonale Projektion π auf E, so dass π(∆) ein gleichseitiges Dreieck ist.

38
2 Matrizen und Determinanten
Wir betrachten hier Abbildungen Φ : IRn → IRn . Eine derartige Abbildung ordnet jedem Vektor
x ∈ IRn einen Bildvektor Φ(x) ∈ IRn zu.

Definition 2.1 Eine Abbildung Φ heißt injektiv, falls gilt: Φ(x) = Φ(y) ⇒ x = y.
Φ heißt surjektiv, falls gilt: Zu jedem y ∈ IRn gibt es ein x ∈ IRn mit y = Φ(x). Ein solches x heißt
Urbildvektor von y.
Φ heißt bijektiv, falls Φ zugleich injektiv und surjektiv ist, d.h., falls es zu jedem y ∈ IRn genau ein
x ∈ IRn gibt mit y = Φ(x). In diesem Fall ist die Umkehrabbildung y 7→ x auch wieder eine Abbildung,
sie wird mit Φ−1 bezeichnet.

Für die Umkehrabbildung Φ−1 einer bijektiven Abbildung Φ ist nach Definition Φ−1 (Φ(x)) =
Φ−1 (y) = x. Aber es gilt auch Φ(Φ−1 (y)) = Φ(x) = y.
Die Abbildung x 7→ x, die jeden Vektor auf sich selber abbildet, kriegt einen eigenen Namen. Sie
heißt die Identität id : IRn → IRn . Zwei Abbildungen Φ1 und Φ2 kann man hintereinanderschalten:
Φ2 ◦ Φ1 : IRn → IRn ist die Abbildung

x 7→ Φ1 (x) 7→ Φ2 (Φ1 (x)).

Wenn Φ2 = Φ−1
1 , dann gilt also
Φ2 ◦ Φ1 = Φ1 ◦ Φ2 = id.

2.1 Bewegungen im IRn


Definition 2.2 Eine Bewegung im IRn ist eine Abbildung
(
IRn → IRn
Φ:
x 7→ Φ(x),

die den Abstand erhält, d.h. eine Abbildung mit der Eigenschaft

k Φ(x) − Φ(y) k = k x − y k

für alle x, y ∈ IRn .

Wenn man einen starren Körper“ bewegt, ändern sich die Abstände von Punkten in seinem In-

neren nicht. Bei einer Bewegung des IRn im eben definierten Sinn stellt man sich vor, den ganzen IRn
so zu bewegen wie einen starren Körper.
Beispiele. 1) Die Translation um einen festen Vektor a

T : x 7→ x + a

ist eine Bewegung wegen

k T (x) − T (y) k = k x + a − (y + a) k = k x − y k .

39
2) Die Punktspiegelung am Ursprung

Φ : x 7→ −x

ist eine Bewegung, weil


k Φ(x) − Φ(y) k = k −x + y k = k x − y k .
3) Eine Hyperebene a⊥ ist die Lösungsmenge einer linearen Gleichung (a.x) = 0 :
n

X
n n
a = {x ∈ IR : (a.x) = 0} = {x ∈ IR : aν xν = 0}.
1

Natürlich soll hier a 6= 0 sein, um a⊥ = IRn auszuschließen. Deswegen können wir a als normiert
annehmen: k a k= 1. In diesem Fall hat die Abbildung

Φ1 : x 7→ x − (x.a)a

die Eigenschaften

Φ1 (x) ∈ a⊥ , (Φ1 (x) − x) ⊥ a⊥ ,


xr
d.h. Φ1 ist die Orthogonalprojektion auf a⊥ .
Wenn wir von x nicht S −(x.a)a

S
nur einmal (x.a)a abziehen, sondern zweimal, so ist dies die Spie- S 
gelung an der Hyperebene a⊥ : a 
o
S
w
S
Φ 1 (x)
Sr S

0 S −(x.a)a
Φ : x 7→ x − 2(x.a)a.

a  S
Auch diese Abbildung ist eine Bewegung:  w
S
Φ(x)
k Φ(x) − Φ(y) k=k x − 2(x.a)a − y + 2(y.a)a k=k x − y − 2(x − y.a)a k=k Φ(x − y). k,

und es genügt also, zu zeigen k Φ(x) k=k x k . Aber dies folgt aus

k Φ(x) k2 = (x − 2(x.a)a . x − 2(x.a)a) =k x k2 −4(x.a)(a.x) + 4(x.a)2 =k x k2 .

4) Sind Φ1 und Φ2 Bewegungen, so ist auch Φ1 ◦ Φ2 eine Bewegung, denn

k Φ1 (Φ2 (x)) − Φ1 (Φ2 (y)) k=k Φ2 (x) − Φ2 (y) k=k x − y k .

Sei Φ eine beliebige Bewegung im IRn und a := Φ(0) ∈ IRn . Sei T die Translation x 7→ x − a. Dann
ist auch T ◦ Φ eine Bewegung (Beispiele 1 und 4), und sie hat die Eigenschaft

(T ◦ Φ)(0) = T (Φ(0)) = T (a) = a − a = 0.

Zu jeder Bewegung Φ gibt es also eine Translation T mit (T ◦ Φ)(0) = 0.

Definition 2.3 Eine Bewegung im IRn , die den Nullvektor fest lässt, heißt orthogonale Transforma-
tion.

40
Satz 2.1 Jede Bewegung Φ im IRn ist ein Produkt Φ = T ◦ Ψ einer Translation T mit einer orthogo-
nalen Transformation Ψ.

Beweis. Sei die Bewegung Φ gegeben. Ist T irgend eine Translation, so ist Ψ := T −1 Φ orthogonal
genau dann, wenn Ψ(0) = 0, d.h. T (0) = Φ(0). Wir definieren also ganz einfach T : x 7→ x + Φ(0).
Dann ist Ψ := T −1 ◦ Φ eine orthogonale Transformation mit Φ = T ◦ Ψ.

Orthogonale Transformationen Φ haben folgende Eigenschaften:

• Φ(0) = 0 (nach Definition),

• k Φ(x) − Φ(y) k=k x − y k (nach Definition einer Bewegung),

• k Φ(x) k=k x k (vorige Eigenschaft mit y = 0).

Satz 2.2 Eine orthogonale Transformation erhält das Skalarprodukt zweier Vektoren, d.h. für alle
x, y ∈ IRn gilt
(Φ(x).Φ(y)) = (x.y).

Beweis. Es ist

k Φ(x) − Φ(y) k2 = (Φ(x) − Φ(y).Φ(x) − Φ(y)) =k Φ(x) k2 + k Φ(y) k2 −2(Φ(x).Φ(y)).

Mit k Φ(x) k=k x k, k Φ(y) k=k y k und k Φ(x) − Φ(y) k=k x − y k folgt
1
(Φ(x).Φ(y)) = − (k Φ(x) − Φ(y) k2 − k Φ(x) k2 − k Φ(y) k2 )
2
1
= − (k x − y k2 − k x k2 − k y k2 )
2
= (x.y)

Wir haben Bewegungen und damit orthogonale Abbildungen durch die Eigenschaft der Längentreue
definiert. Satz 2.2 sagt, aus der Längentreue folgt die Winkeltreue.

Die Bilder der Vektoren uν einer Orthonormalbasis (kurz: O-N-Basis) v1 := Φ(u1 ), ..., vn := Φ(un )
unter einer orthogonalen Transformation Φ haben wegen Satz 2.2 dieselben Skalarprodukte
(
1 falls k = l,
(vk .vl ) = (uk .ul ) =
0 falls k 6= l.

Daraus folgt, dass die Vektoren v1 , ..., vn linear unabhängig sind: Denn wenn wir testen
n
X
ck vk = 0, c1 , ..., cn ∈ IR,
k=1

sehen wir für l = 1, ..., n, dass


n
X
0 = (vl . ck vk ) = cl (vl .vl ) = cl .
k=1

41
Also ist das Bild der O-N-Basis u1 , ..., uk wieder eine O-N-Basis.
Pn Pn
Das Bild Φ(x) eines Vektors x = 1 cν uν ist Φ(x) = 1 dν vν mit

dν = (Φ(x).vν ) = (Φ(x).Φ(uν )) = (x.uν ) = cν .

Für eine orthogonale Abbildung Φ gilt also:

n
X n
X
Φ( cν uν ) = cν Φ(uν )
1 1

Hieraus folgt insbesondere

Φ(c · x) = c · Φ(x) für x ∈ IRn , c ∈ IR (Homogenität)


(LINEARITÄT).
Φ(x + y) = Φ(x) + Φ(y) für x, y ∈ IRn (Additivität)

Diese Eigenschaft der Linearität einer Abbildung hat der linearen Algebra ihren Namen gegeben.
Die fundamentalen Beziehungen in der Linearen Algebra werden durch lineare Abbildungen vermittelt.
Deswegen halten wir diese Eigenschaft für - nicht nur orthogonale - Abbildungen als Definition fest.

Definition 2.4 Eine Abbildung F : IRn → IRm (hier kann durchaus m 6= n sein) heißt linear, wenn

F (c1 x1 + c2 x2 ) = c1 F (x1 ) + c2 F (x2 ) für alle c1 , c2 ∈ IR, x1 , x2 ∈ IRn .

Satz 2.3 Eine Abbildung Φ : IRn → IRn ist orthogonal genau dann, wenn sie folgende beiden Eigen-
schaften hat:
( i) Φ ist linear.
(ii) Es gibt eine O-N-Basis u1 , ..., un ∈ IRn , welche unter Φ wieder auf eine O-N-Basis Φ(u1 ), ..., Φ(un )
abgebildet wird.

Beweis. ⇒“ Nach Satz 2.2 bildet eine orthogonale Abbildung jede (nicht nur eine einzige) O-N-

Basis auf eine O-N-Basis ab. Und dass die Linearität eine Konsequenz der Orthogonolität ist, haben
wir soeben gesehen.
⇐“ Aus der Linearität folgt k Φ(x) − Φ(y) k=k Φ(x − y) k für alle Vektoren x, y ∈ IRn . Es genügt

deswegen k Φ(x) k=k x k für jeden Vektor x ∈ IRn zu zeigen. Wir schreiben den Vektor x in unserer
O-N-Basis als x = n1 cν uν . Aus der Linearität folgt Φ(x) = n1 cν Φ(uν ). Und da sowohl die uν als
P P

auch ihre Bilder Φ(uν ) eine O-N-Basis bilden, ist nach Pythagoras
n
X
k Φ(x) k2 = c2ν =k x k2 .
1

42
Beispiel. Rotation im IR2 um einen Winkel ϕ.
Rotiert man die beiden Vektoren e1 = (1, 0) und e2 = (0, 1) der Stan- !
dardbasis des IR2 um einen Winkel ϕ, so erhält man die O-N-Basis −sin !
cos e2 cos
! !
cos(ϕ) −sin(ϕ) 6 sin
Φ(e1 ) = , Φ(e2 ) =
sin(ϕ) cos(ϕ)
S
o
S >

S 

des IR2 . Es gibt deswegen eine einzige lineare (und dann auch orthogo- S -
e1
nale) Abbildung Φ : IR2 → IR2 , welche diese Drehung der Basisvektoren
bewirkt, nämlich
! !
x1 x1 cos(ϕ) − x2 sin(ϕ)
Φ: 7→ .
x2 x1 sin(ϕ) + x2 cos(ϕ)

Die Orthogonalität dieser linearen Abbildung ist leicht direkt nachzurechen:

(x1 cos(ϕ) − x2 sin(ϕ))2 + (x1 sin(ϕ) + x2 cos(ϕ))2 = x21 cos(ϕ)2 + x22 sin(ϕ)2 + x21 sin(ϕ)2 + x22 cos(ϕ)2
= x21 + x22 .

Aufgabe 2.1 Beweisen oder widerlegen Sie: Für alle Mengen A, B, C und Abbildungen f : A → B, g :
B → C gilt:
a) Sind f und g injektiv, so auch g ◦ f .
b) Sind f und g surjektiv, so auch g ◦ f .
c) Ist f injektiv und g surjektiv, so ist g ◦ f bijektiv.
d) Ist g ◦ f bijektiv, so ist g surjektiv und f injektiv.
e) Ist g ◦ f bijektiv, so ist g injektiv und f surjektiv.

Aufgabe 2.2 Φ : IRn → IRp sei eine lineare Abbildung. Zeigen Sie:
a) Φ ist genau dann injektiv, wenn gilt: Sind Vektoren v1 , ..., vr ∈ IRn linear unabhängig, so sind auch
die Bildvektoren Φ(v1 ), ..., Φ(vr ) ∈ IRp linear unabhängig.
b) Φ ist genau dann surjektiv, wenn gilt: Spannen die Vektoren v1 , ..., vr den Raum IRn auf, so spannen
ihre Bilder Φ(v1 ), ..., Φ(vr ) den Raum IRp auf.

Aufgabe 2.3 (NV) Es seien U, W ⊂ IRn Untervektorräume und f : IRn → IRn eine orthogonale Ab-
bildung mit f (U ) = W . Beweisen Sie, dass f das orthogonale Komplement von U auf das orthogonale
Komplement von W abbildet.

Aufgabe 2.4 (NV) Es seien g und h zwei Geraden im euklidischen IR2 , welche sich unter dem
Winkel α mit 0 < α ≤ π2 schneiden. Seien sg und sh die Spiegelungen an g bzw. h.
a) Für welche α gibt es eine natürliche Zahl n mit (sg ◦ sh )n = id?
b) Für welche α ist sg ◦ sh = sh ◦ sg ?

43
2.2 Lineare Abbildungen und Matrizen
Bei der Beschreibung der Rotation im letzten Abschnitt haben wir von folgendem Prinzip Gebrauch
gemacht: Ist Φ : IRn → IRm eine lineare Abbildung, und sind v1 = Φ(e1 ), ..., vn = Φ(en ), die Bilder
der Basis-Vektoren e1 , ..., en bekannt, so ist das Bild eines jeden Vektors x = (x1 , ..., xn ) = n1 xν eν
P

bereits festgelegt durch


n
X n
X n
X
Φ(x) = Φ( xν eν ) = xν Φ(eν ) = xν vν .
1 1 1

Umgekehrt kann man Vektoren v1 , ..., vn ∈ IRm beliebig vorgeben, durch diese Formel wird dann eine
lineare Abbildung Φ : IRn → IRm definiert mit Φ(e1 ) = v1 , ..., Φ(en ) = vn . Daraus folgt

Satz 2.4 (Prinzip der linearen Ausdehnung) Zu jeder Wahl von Vektoren v1 , ..., vn ∈ IRm gibt
es eine lineare Abbildung Φ : IRn → IRm , welche die Vektoren e1 , ..., en der Standardbasis auf diese
Vektoren v1 , ..., vn abbildet. Diese lineare Abbildung ist durch die Vektoren v1 , ..., vn eindeutig festge-
legt.

Wir schreiben nun die Vektoren Φ(eν ) = vν als Spaltenvektoren


 
v1,ν

 . 

vν =  .
 

 
 . 
vm,ν

und fügen sie zu einer Matrix


 

 v1,1 . . . v1,n
 . . . . .

  
 
(vµ,ν ) =m  . . . . .
 

µ=1,...,m   
( ) 
  . . . . . 
ν=1,...,n


vm,1 . . . vm,n

| {z }
n

mit m Zeilen und n Spalten zusammen. Aus dieser Matrix (vµ,ν ) erhält man das Bild Φ(x) eines
Vektors x = (xν ) durch
n
X
Φ(x) = ( vµ,ν xν )µ=1,...,m .
ν=1

Dies ist genau dieselbe Formel wie für ein lineares Gleichungssystem. Natürlich ist das kein Zufall,
denn auch ein lineares Gleichungssystem kann man als lineare Abbildung auffassen: Ist (aµ,ν ) die
Koeffizientenmatrix des Systems, so ist die Abbildung
n m

 IR → IR

n
Φ X
 (xν ) 7→
 aµ,ν xν
1

44
linear und das Lösen der linearen Gleichung
n
X
aµ,ν xν = bµ
1

besteht darin, für den Vektor b ∈ IRm alle Vektoren x ∈ IRn zu finden, welche unter Φ auf b abgebildet
werden.

Beispiele. 1) Die Identität (


IRn → IRn
id :
x 7→ x
bildet jeden Vektor auf sich selbst ab, also auch die Standardbasis auf die Standardbasis. Ihre Matrix
ist die Einheitsmatrix  
1 0 . . . 0
 0 1 0 . 
 
 . 0 . . . 
1ln :=   = (δµ,ν )µ,ν=1,...,n .
 
 . . . . . 
 
 . . . 0 
0 . . . 0 1
Bei dieser Gelegenheit führen wir folgende Konvention ein: Die Zahl
(
0 wenn µ 6= ν
δµ,ν :=
1 wenn µ = ν

heißt Kronecker-Delta.
2) Es sei c ∈ IR. Die Streckung (
IRn → IRn
Φ:
x 7→ c · x
bildet jeden Vektor eν auf c · eν ab. Ihre Matrix ist deswegen
 
c 0 . . . 0

 0 c 0 . 

 . 0 c . . 
 = (c · δµ,ν )µ,ν=1,...,n .
 
. . . . .

 
 
 . . c 0 
0 . . . 0 c
Spezialfälle sind die Identität (c = 1), die Punktspiegelung am Nullpunkt (c = −1) und die Nullabbil-
dung (c = 0).
3) Für jeden Einheitsvektor a, k a k= 1, haben wir gesehen, dass die Spiegelung an der Hyperebene

a durch x 7→ x − 2(x.a)a gegeben wird. Dabei wird der Vektor eν auf
eν − 2(eν .a)a = eν − 2aν a = (δµ,ν − 2aν aµ )µ=1,...,n
abgebildet. Die zugehörige Matrix ist also (δµ,ν − 2aµ aν ).
4) Die Matrix zu einer Rotation in der Ebene um den Winkel ϕ ist eine Drehmatrix
!
cos(ϕ) −sin(ϕ)
.
sin(ϕ) cos(ϕ)

45
Dies erhält man aus der Form für die Bilder der Einheitsvektoren e1 und e2 , die wir am Ende des
letzten Paragraphen angegeben haben.
5) Auch eine reine Vertauschung (Permutation) von Basisvektoren definiert eine lineare Abbildung.
So gehört z.B. zu der Vertauschung e1 ↔ e2 die Matrix
 
0 1 0 . . 0

 1 0 0 0 

 0 0 1 . . 
.
 
. . . . .

 
 
 . . 1 0 
0 . . . 0 1

6) Es sei U ⊂ IRn ein m-dimensionaler Unterraum, der von einer O-N-Basis v1 , ..., vm aufgespannt
wird. Die Orthogonalprojektion (vgl. (1.5)) Φ auf diesen Unterraum bildet jeden Vektor x ∈ IRn auf
den Vektor Φ(x) = m
P
1 cµ vµ ab, für den

((Φ(x) − x).vµ ) = 0 für alle µ, d.h. (Φ(x).vµ ) = (x.vµ ), also cµ = (x.vµ )


Pm
gilt. Die Orthogonalprojektion ist also die lineare Abbildung x 7→ 1 (x.vµ )vµ . Sie bildet eν auf
Pm
µ=1 vµ,ν vµ ab und ihre Matrix ist
 
m
X
 vµ,k vµ,l  .
µ=1 k,l=1,...,n

7) Sind Φ : IRn → IRm und Ψ : IRm → IRl linear, so ist auch Ψ ◦ Φ : IRn → IRl wieder linear, denn

(Ψ ◦ Φ)(c1 v1 + c2 v2 ) = Ψ(Φ(c1 v1 + c2 v2 )) = Ψ(c1 Φ(v1 ) + c2 Φ(v2 )) = c1 ΨΦ(v1 ) + c2 ΨΦ(v2 ).

Was ist die zu Ψ ◦ Φ gehörige Matrix? Dazu sei

e1 , ..., en Standardbasis des IRn , Φ(eν ) = m


P
aµ,ν fµ , (aµ,ν ) die Matrix für Φ,
m Plµ=1
f1 , ..., fm Standardbasis des IR , Ψ(fµ ) = λ=1 bλ,µ gλ , (bλ,µ ) die Matrix für Ψ,
g1 , ..., gl Standardbasis des IRl .

Wir berechnen die Bilder der Basisvektoren eν :


m
X l
X l
X
(Ψ ◦ Φ)(eν ) = Ψ( aµ,ν fµ ) = bλ,µ aµ,ν gλ = cλ,ν gλ
µ=1 λ=1 λ=1

mit der Matrix


m
X
(cλ,ν )λ,ν = ( bλ,µ aµ,ν )λ,ν .
µ=1

Schließlich formulieren wir noch

46
Satz 2.5 (Bildsatz) Ist Φ : IRn → IRm linear und U ⊂ IRn ein linearer Unterraum, so ist das Bild
von U
Φ(U ) = {Φ(u) ∈ IRm : u ∈ U }
ein linearer Unterraum im IRm , und für seine Dimension gilt

dim Φ(U ) ≤ dim U.

Beweis. Sind v1 = Φ(u1 ) und v2 = Φ(u2 ) zwei Vektoren aus Φ(U ), so gehört auch c1 v1 +
c2 v2 = Φ(c1 u1 + c2 u2 ) zum Bildraum Φ(U ). Ist u1 , ..., uk eine Basis von U , so spannen die Vek-
toren Φ(u1 ), ..., Φ(uk ) ∈ IRm den linearen Unterraum auf. Nach dem Basisauswahlsatz (Satz 1.12) ist
deswegen dimΦ(U ) ≤ dim(U ).

Aufgabe 2.5 Geben Sie die n × n-Matrizen an, die zu den folgenden linearen Abbildungen Φi : IRn →
IRn (i = 1, ..., 4) gehören:
a) Φ1 ist die Spiegelung an der Hyperebene a⊥ , wo a = (a1 , ..., an ) ∈ IRn mit k a k= 1 gegeben ist.
b) Φ2 ist die Orthogonalprojektion auf einen p-dimensionalen linearen Unterraum U , der durch eine
Orthonormalbasis u1 = (u1,1 , ..., u1,n ), ..., up = (up,1 , ..., up,n ) aufgespannt wird.
c) Φ3 = Φ1 ◦ Φ1 .
d) Φ4 = Φ2 ◦ Φ2 .

Aufgabe 2.6 Es sei Φ : IR2 → IR2 die lineare Abbildung, die durch die Matrix
!
1 1
0 −1

beschrieben wird. Zeigen Sie:


a) Φ ◦ Φ = id.
b) Jeder Vektor x ∈ IR2 lässt sich eindeutig darstellen als x = u + v mit Φ(u) = u und Φ(v) = −v.

Aufgabe 2.7 (NV) Im IR2 seien die vier Punkte

v1 = (1, 1), v2 = (1, −1), v3 = (−1, −1), v4 = (−1, 1)

gegeben. Man bestimme zwei lineare Abbildungen ϕ, ψ : IR2 → IR2 , welche die vi permutieren und
außerdem die Bedingungen
ϕ2 , ψ 6= id, ϕψ = ψϕ−1
erfüllen.

47
2.3 Matrizenrechnung
Wir bezeichnen mit
M (m × n) = {(aµ,ν )µ=1,...,m,ν=1,...,n : aµ,ν ∈ IR}
den Raum der reellen m × n-Matrizen. Eine m × n-Matrix ist ein m · n-tupel von reellen Zahlen also
ein Vektor im IRm·n . Auch für Matrizen haben wir deswegen die Vektorrechenoperationen:

1) Addition: A = (aµ,ν )
B = (bµ,ν )
A + B = (aµ,ν + bµ,ν )

2) Skalarmultiplikation: A = (aµ,ν )
c ∈ IR
c · A = (c · aµ,ν )

Diese Operationen haben genau dieselben Eigenschaften wie die entsprechenden Operationen auf Vek-
toren. Neu ist aber die Matrizen-Multiplikation:

3) Matrizenmultiplikation: A = (aλ,µ ) ∈ M (l × m)
B = (bµ,ν ) ∈ M (m × n)
A·B = ( mµ=1 aλ,µ bµ,ν ) ∈ M (l × n)
P

 

  


 

  
l A · m B =l A·B

  


 

 | {z } 
n
| {z } | {z }
m n

Das Matrizenprodukt A · B ist nur definiert, wenn die Matrix A genau so viele Spalten wie B Zeilen
hat!
Beispiele für Matrizenmultiplikation: 1) Das Skalarprodukt (a.b) zweier Vektoren a = (a1 , ..., an )
und b = (b1 , ..., bn ) ∈ IRn können wir als Matrizenprodukt auffassen. Dazu müssen wir die beiden Vek-
toren folgendermaßen als Matrizen auffassen:
a = (a1 , ..., an ) = A ∈ M (1 × n) Zeilenvektor
b1
 

b =  ...  = B ∈ M (n × 1) Spaltenvektor
 

bn
Dann ist
b1
 
n
 ..  X
A · B = (a1 , ..., an ) ·  .  = ak bk = (a.b).
bn k=1

48
2) Eine Matrix A = (aµ,ν ) ∈ M (m×n) mit n Spalten kann man von rechts mit einem Spaltenvektor
x ∈ IRn multiplizieren:
 
a1,1 ... a1,n
x1
 

a2,1 ... a2,n  n

A·x=
 
· ..  = ( X a · x )
.. .. .  µ,ν ν µ=1,...,m
. .
 
ν=1
xn
 
am,1 ... am,n
Das Resultat ist ein Spaltenvektor mit m Zeilen. Dieses Produkt haben wir bereits kennen gelernt:
Die linke Seite eines linearen Gleichungssystems hat diese Form A · x, und eine lineare Abbildung
IRn → IRm wird durch x 7→ A · x gegeben.
3) Ist 1lm die m × m-Einheitsmatrix und A ∈ M (m × n), so ist
m
X
1lm · A = (δλ,µ ) · (aµ,ν ) = ( δλ,µ · aµ,ν ) = (aλ,ν ) = A.
µ=1

Ebenso ist
A · 1ln = A.
4) Sind A(α) und A(β) die Drehmatrizen
! !
cos(α) −sin(α) cos(β) −sin(β)
, ,
sin(α) cos(α) sin(β) cos(β)
so ist das Produkt
!
cos(α)cos(β) − sin(α)sin(β) −cos(α)sin(β) − sin(α)cos(β)
A(α) · A(β) =
sin(α)cos(β) + cos(α)sin(β) −sin(α)sin(β) + cos(α)cos(β)
!
cos(α + β) −sin(α + β)
=
sin(α + β) cos(α + β)
die Drehmatrix zum Winkel α+β. Dieses Ergebnis ist eine direkte Konsequenz der Additionstheoreme
für die Winkelfunktionen.
5) Sei E die Permutationsmatrix zur Vertauschung des ersten und des zweiten Basisvektors:
 
0 1 0 . . . 0
1 0 0 . . 
 

0 0 1 . . 
 

 
E=
 . . . 1 .  ∈ M (m × m).
. 

 . . . . . 

. . . 0 
 

0 . . . . 0 1
Dann ist für jede m × n-Matrix A
     
0 1 0 . . . 0 a1,1 a1,2 . . . a1,n a2,1 a2,2 . . . a2,n
1 0 0 . .   a2,1 a2,2 . . . a2,n a1,1 a1,2 . . . a1,n
     
   
0 0 1 .   a3,1 a3,2
.  . . . a3,n a3,1 a3,2 . . . a3,n
     
    
   
E ·A = 
 . . . 1 . . ·

 . . . . . . =
  . . . . . . .


 . . . . .   .
  . . . . .  
  . . . . . . 

. . . 0   . . . . . . . . . . . .
     
   
0 . . . . 0 1 am,1 am,2 . . . am,n am,1 am,2 . . . am,n

49
Das heißt: Die Linksmultiplikation von E an A vertauscht in A die erste mit der zweiten Zeile. All-
gemeiner können alle drei Arten elementarer Zeilenumformungen durch Linksmultiplikation mit den
folgenden Matrizen (Elementarmatrizen) erreicht werden:
 
1

 . 

1
 
 
 

 0 . . . 1 

 . 1 . 
Vertauschen zweier Zeilen  
. . .
 
(Elementarmatrix vom Typ I):
 
 

 . 1 . 


 1 . . . 0 


 1 

.
 
 
1
 
1
.
 
 
1
 
 
Multiplikation einer Zeile mit c ∈ IR  
 c 
(Elementarmatrix vom Typ II):  

 1 

.
 
 
1
 
1
.
 
 
1 . c
 
 
Addieren des c-fachen einer Zeile zu einer anderen  
 . . 
(Elementarmatrix vom Typ III):  

 1 

.
 
 
1

Für die Matrizenmultiplikation gelten folgende Rechenregeln:

Assoziativität: (A · B) · C = A · (B · C)

Beweis. Wir berechnen


X X X X X
(AB)C = ( ( aκ,λ bλ,µ )cµ,ν )κ,ν = ( aκ,λ bλ,µ cµ,ν )κ,ν = ( aκ,λ ( bλ,µ cµ,ν ))κ,µ = A(BC).
µ λ µ,λ λ µ

Distributivität: (A1 + A2 ) · B = A1 · B + A2 · B
A · (B1 + B2 ) = A · B1 + A · B2
(c · A) · B = A · (c · B) = c · A · B für c ∈ IR
Der Beweis hierfür ist ähnlich tiefsinnig wie für die Assoziativität.

50
Ein ganz entscheidender Unterschied zur Multiplikation reeller Zahlen besteht darin, dass die
Matrizenmultiplikation nicht kommutativ ist.

Im Allgemeinen ist A · B 6= B · A.

Wir berechnen dafür als Beispiel


! ! !
a1 a b1 b a1 b1 a1 b + ab2
· = ,
0 a2 0 b2 0 a2 b2
! ! !
b1 b a1 a b1 a1 b1 a + ba2
· = .
0 b2 0 a2 0 b2 a2

Im allgemeinen (z.B. wenn a = b = 1 und a1 + b2 6= a2 + b1 ) unterscheiden sich die beiden Dreiecks-


matrizen durch ihren Eintrag rechts oben.

Nachdem wir nun die formalen Eigenschaften der Matrizenmultiplikation zusammengestellt haben,
erinnern wir daran, dass diese Matrizenmultiplikation dem Hintereinanderausführen linearer Abbil-
dungen entspricht: Sind Φ : IRl → IRm und Ψ : IRm → IRn linear mit Matrizen A ∈ M (m × l) und
B ∈ M (n×m), so gehört zur linearen Abbildung Ψ◦Φ die Matrix B ·A (s. Ende des letzten Abschnitts
2.2).

Wir wollen nun die Matrix zur Umkehrabbildung Φ−1 bestimmen, wenn diese existiert. Dazu sei
Φ : IRm → IRn linear und bijektiv. Die Umkehrabbildung
(
−1 IRn → IRm
Φ :
y 7→ x falls Φ(x) = y

existiert dann und ist linear, denn

y1 = Φ(x1 ), y2 = Φ(x2 ) ⇒ Φ(c1 x1 + c2 x2 ) = y := c1 y1 + c2 y2

impliziert
Φ−1 (y) = c1 x1 + c2 x2 = c1 Φ−1 (y1 ) + c2 Φ−1 (y2 ).
Aus dem Bildsatz (Satz 2.5) folgt deswegen n ≤ m und m ≤ n, also m = n. Eine bijektive lineare
Abbildung exisitiert also nur zwischen Zahlenräumen IRn und IRm gleicher Dimension m = n.
Sei nun Φ : IRn → IRn linear und invertierbar mit zugehöriger Matrix A. Die zu Φ−1 gehörige
Matrix sei B. Da Φ−1 ◦ Φ = Φ ◦ Φ−1 = id, und da dem Hintereinanderausführen linearer Abbildungen
die Matrizenmultiplikation entspricht, folgern wir

A · B = B · A = 1ln .

Definition 2.5 Eine Matrix A ∈ M (n × n) heißt invertierbar, wenn es eine Matrix B ∈ M (n × n)


gibt mit AB = BA = 1ln .

Natürlich braucht für die Invertierbarkeit nur A · B = 1ln oder B · A = 1ln zu gelten, denn in beiden
Fällen folgt, dass die lineare Abbildung mit Matrix B die Umkehrabbildung zur linearen Abbildung
mit Matrix A ist.

51
Die Matrix B mit dieser Eigenschaft ist durch A eindeutig bestimmt, denn aus AB1 = AB2 = 1ln
und B1 A = 1ln folgt
B1 = B1 (AB1 ) = B1 (AB2 ) = 1ln B2 = B2 .
Wir nennen B die inverse Matrix zu A, B := A−1 .

Beispiel. Die Inversen der Elementarmatrizen sind:


 −1  
1 1

 . 


 . 

1 1
   
   
   

 0 . . . 1 


 0 . . . 1 


 . 1 . 


 . 1 . 

. . . =  . . . ,
   
 
   

 . 1 . 


 . . 1 . 


 1 . . . 0 


 1 . . . 0 


 1 


 1 

. .
   
   
1 1
 −1  
1 1
. .
   
   
1 1
   
   
   

 c 
 = 
 1/c ,


 1 


 1 

. .
   
   
1 1
 −1  
1 1
. .
   
   
1 . c 1 . −c
   
   
   

 . . 
 = 
 . . .


 1 


 1 

. .
   
   
1 1

Satz 2.6 (Quadratische Matrizen) Die Matrix A ∈ M (n × n) gehöre zur linearen Abbildung Φ,
d.h. (
IRn → IRn
Φ:
x 7→ A · x
Dann sind äquivalent:
1) Φ ist bijektiv,
1’) A ist invertierbar,
2) Φ ist injektiv,
2’) das homogene lineare Gleichungssystem A · x = 0 hat nur die triviale Lösung x = 0,

52
3) Φ ist surjektiv,
3’) das inhomogene lineare Gleichungssystem A · x = b hat für jede Wahl der rechten Seite b eine
Lösung x,
4) die Matrix A ist durch elementare Zeilenumformungen auf Dreiecksform

1 ∗ . . . ∗
 

 0 1 ∗ . 


 . . . . . 

. . . . . 
 

 
 . . . ∗ 
0 . . . 0 1

zu bringen.

Beweis. Die Implikationen 1) ⇔ 10 )“ und 1) ⇔ 2) + 3)“ sind klar.


” ”
2) ⇔ 20 )“ Die Injektivität von Φ bedeutet, dass aus Φ(x1 ) = Φ(x2 ) folgt x1 = x2 . Wegen der

Linearität von Φ ist Φ(x1 ) = Φ(x2 ) äquivalent mit Φ(x1 − x2 ) = 0. Damit können wir die Injektivität
kürzer so charakterisieren: aus Φ(x) = 0 folgt x = 0. Da Φ(x) = A · x, ist dies äquivalent mit: Aus
A · x = 0 folgt x = 0, d.h. das homogene Gleichungssystem A · x = 0 hat nur die triviale Lösung
x = 0.
3) ⇔ 30 )“ Wegen Φ(x) = A · x ist 30 ) tatsächlich nur eine einfache Umformulierung der Surjekti-

vität.
20 ) ⇒ 4)“ Die Matrix A werde durch elementare Zeilenumformungen auf Zeilenstufenform ge-

bracht. Wenn diese Stufenform weniger als n Stufen enthielte, gäbe es darin Spalten ohne Stufe. In
diesen Spalten könnte die Unbekannte beliebig gewählt werden, es gäbe dazu stets eine Lösung des ho-
mogenene Gleichungssystems A · x = 0. Insbesondere hätte das homogene System eine Lösung x 6= 0.
Dies widerspricht der Eigenschaft 20 ), die Anzahl der Stufen muss also n sein und die Zeilenstufenform
ist eine Dreiecksform.
30 ) ⇒ 4)“ Die Matrix A werde in Zeilenstufenform Z gebracht. Wenn Z weniger als n Stufen

enthielte, wäre das Gleichungssystem Z · x = en unlösbar. Machte man die elementaren Zeilenumfor-
mungen wieder rückgängig, so erhielte man aus Z die Matrix A zurück und aus en einen Vektor b,
für den das Gleichungssystem A · x = b unlösbar ist. Dies wäre ein Widerspruch zu 3’). Somit ist die
Zeilenstufenform eine Dreiecksform.
4) ⇒ 20 )“ Nach Voraussetzung können wir jetzt A durch elementare Zeilenumformungen auf die

Dreiecksform D bringen. Das Gleichungssystem D · x = 0 hat nur die Null-Lösung. Seine Lösungen
sind aber die gleichen, wie die des Systems A · x = 0. Das beweist 20 ).
4) ⇒ 30 )“ Sei eine rechte Seite b ∈ IRn beliebig vorgegeben. Wir wenden elementare Zeilenumfor-

mungen auf die erweiterte Koeffizientenmatrix (A, b) an, mit denen wir A auf Dreiecksform bringen
und die Lösungen des inhomogenen Gleichungssystems nicht ändern. Hat aber die Koeffizientenmatrix
Dreiecksform, so ist das Gleichungssystem bei beliebiger Wahl der rechten Seite lösbar. Daraus folgt
30 ).

Beispiel. Wann ist eine 2 × 2-Matrix


!
a b
A=
c d

53
invertierbar? Nach Satz 2.6 ist dies genau dann der Fall, wenn wir A auf eine Stufenform
!
1 ∗
0 1
bringen können. Falls a 6= 0 ist, dividieren wir erst die erste Zeile durch a und subtrahieren dann c-mal
die neue erste Zeile von der zweiten. Wir erhalten die Stufenform
b
 
1
a
bc  .
 

0 d−
a
In diesem Fall ist

a · d − b · c 6= 0

die Bedingung dafür, dass A invertierbar ist. Falls a = 0 und c 6= 0 ist, vertauschen wir erste und
zweite Zeile und kommen zur selben Bedingung. Wenn aber a = c = 0 ist, ist die Dreiecksform nie
zu erreichen. Es folgt: Unsere Bedingung ad − bc 6= 0 ist notwendig und hinreichend dafür, dass A
invertierbar ist.
Wenn A invertierbar ist, so wollen wir A−1 auch ermitteln. Wieder wenden wir elementare Zeilen-
umformungen an, und zwar in einer Form, die man auch für größere Matrizen durchaus zur praktischen
Bestimmung von A−1 heranzieht. (Wir diskutieren nur den Fall a 6= 0.):
Elementarmatrix umgeformtes
! A umgeformte Einheitsmatrix
!
a b 1 0
c d 0 1

! ! !
1/a 0 1 b/a 1/a 0
0 1 c d 0 1
! ! !
1 0 1 b/a 1/a 0
−c 1 0 d − bc/a −c/a 1
! ! !
1 0 1 b/a 1/a 0
0 a/(ad − bc) 0 1 −c/(ad − bc) a/(ad − bc)
! ! !
1 −b/a 1 0 d/(ad − bc) −b/(ad − bc)
0 1 0 1 −c/(ad − bc) a/(ad − bc)
Hier haben wir in der dritten Spalte dieselben elementaren Zeilenumformungen auf die Einheitsma-
trix angewendet, wie auf die Matrix A. Am Schluss der dritten Spalte ergibt sich das Produkt der
Elementarmatrizen, welche man von links an die Matrix A heranmultiplizieren muss, um A in die
Einheitsmatrix zu überführen. Dieses Produkt ist deswegen die inverse Matrix
!
−1 1 d −b
A = .
ad − bc −c a

54
Satz 2.7 Für jede m × n-Matrix gilt
Zeilenrang von A = Spaltenrang von A.

Beweis. Ist A eine Matrix in Zeilenstufenform mit r Zeilen 6= 0, so sind, wie wir schon gesehen
haben, die r Zeilenvektoren linear unabhängig. Diese Zeilenvektoren spannen also einen linearen Un-
terraum der Dimension r im IRn aus, der Zeilenrang ist r.
Die Spaltenvektoren liegen alle im linearen Unterraum IRr , der von den ersten r Koordinatenvek-
toren im IRm aufgespannt wird. Der Spaltenrang ist also höchstens r. Nun enthält die Matrix genauso
viele Stufen wie Zeilen, nämlich r. Auch die r Spaltenvektoren, in denen diese Stufen stehen sind linear
unabhängig. Damit ist der Spaltenrang mindestens r, und insgesamt ergibt sich der Spaltenrang als r.
Weiter ändert sich der Zeilenrang nicht bei elementaren Zeilenumformungen. Es bleibt also zu zei-
gen, dass sich bei elementaren Zeilenumformungen auch der Spaltenrang nicht ändert: Nun wissen wir,
dass jede elementare Zeilenumformung in der Matrix A bewirkt werden kann als Links-Multiplikation
E · A mit einer Elementarmatrix E. Die Spaltenvektoren E · a1 , ..., E · an von E · A sind die Bilder der
Spaltenvektoren a1 , ..., an von A unter der linearen Abbildung x 7→ E · x. Der von ihnen aufgespann-
te Unterraum des IRm ist das Bild von span(a1 , ..., an ) unter dieser linearen Abbildung. Nach dem
Bildsatz (Satz 2.5) ist dim(span(E · a1 , ..., E · an )) ≤ dim(span(a1 , ..., an )). Bei einer elementaren Zei-
lenumformung wird der Spaltenrang also nicht größer. Da wir dies auch auf die inverse Transformation
anwenden können, bleibt der Spaltenrang tatsächlich gleich.

Definition 2.6 Die Zahl Spaltenrang(A) = Zeilenrang(A) heißt Rang der Matrix A.

Wir formulieren Satz 2.7 um, nachdem wir den Begriff der transponierten Matrix einführen: Sei
dazu
a1,1 ... a1,n
 

A =  ... ..  ∈ M (m × n)

. 
am,1 ... am,n
eine m × n-Matrix. Dann heißt die n × m-Matrix
a1,1 ... am,1
 
t  .. ..  ∈ M (n × n)
A = . . 
a1,n ... am,n
die transponierte Matrix zu A.

Satz 2.8 Der Rang einer Matrix stimmt mit dem Rang ihrer transponierten Matrix überein:
Rang(A) = Rang(At ).

Aufgabe 2.8 Es sei    


1 2 3 1 2 3
A =  2 3 0 , B =  0 1 2 .
   
3 0 0 0 0 1
Berechnen Sie die Matrizen A · A, A · B, B · A und (B − 1l3 )(B − 1l3 )(B − 1l3 ).

55
Aufgabe 2.9 a) Bestimmen Sie alle Matrizen
!
a b
A= ∈ M (2 × 2)
c d

mit A · A = 1l2 und alle Matrizen A mit A · A = 0.


b) Bestimmen Sie alle Matrizen
!
a −b
A= ∈ M (2 × 2)
b a

mit A · A · A · A · A = 1l2 .

Aufgabe 2.10 Es sei A ∈ M (n × n). Zeigen Sie, dass die folgenden Aussagen äquivalent sind:
i) Für jede Matrix X ∈ M (n × n) ist A · X = X · A.
ii) Es gibt ein c ∈ IR mit A = c · 1ln .

Aufgabe 2.11 Zeigen Sie, dass für alle A ∈ M (p × n) der Rang von A mit dem Rang von A · At
übereinstimmt.

Aufgabe 2.12 Zeigen Sie für alle A ∈ M (m × n), B ∈ M (n × p)

(A · B)t = B t · At .

Aufgabe 2.13 Es bezeichne ∆ ⊂ M (n × n) die Menge der oberen Dreiecksmatrizen

a1 ∗ ∗
 

A= 0 ..
∗ .
 
.
0 0 an

Zeigen Sie:
a) Für alle A, B ∈ ∆ gilt A · B ∈ ∆.
b) Zu A ∈ ∆ gibt es ein B ∈ ∆ mit A · B = 1ln genau dann, wenn a1 · ... · an 6= 0.

Aufgabe 2.14 Für r ∈ IN sei die Matrix Ar = (ai,j ) ∈ M (n × n) definiert durch ai,j = δi,j−r , i, j =
1, ..., n. Beweisen Sie:
a) Ar · As = Ar+s .
b) An1 = 0.

Aufgabe 2.15 Sind A, B ∈ M (n × n), so heißen

[A, B] := A · B − B · A Kommutator
{A, B} := A · B + B · A Anti-Kommutator

der Matrizen A und B. Die Matrizen σi ∈ M (2 × 2) seien definiert durch

1√ 1√ 1√
! ! !
0 1 0 −1 1 0
σ1 := 2 , σ2 := 2 , σ3 := 2 .
2 1 0 2 1 0 2 0 −1

Berechnen Sie die Kommutatoren [σi , σj ] und die Antikommutatoren {σi , σj }.

56
Aufgabe 2.16 (NV) Zur Matrix !
2 1 −1
A=
8 3 −3
bestimme man alle 3 × 2 Matrizen B mit A · B = 1l2 .

Aufgabe 2.17 (NV) Gegeben sei die Matrix



1 1
√ 
− − 2 3 
B =  1 √2 1 .

3 −
2 2
Berechnen Sie B 2000 (d.h., die 2000-te Potenz von B).

Aufgabe 2.18 (NV) Sei n > 2. Die Matrix A = (aij )i,j=1,...,n habe den Rang r ≥ 2. Sei

B = (aij )i,j=1,...,n−1

die aus A durch Streichen der letzten Zeile und Spalte entstehende Matrix. Zeigen Sie, dass der Rang
von B
rg B ∈ {r, r − 1, r − 2}
erfüllt, und geben Sie je ein Beispiel für jeden der drei Fälle.

Aufgabe 2.19 (NV) Sei M die Menge der n × n-Matrizen (aik ) mit
n
X
aik ≥ 0 für alle i, k = 1, ..., n und aik = 1 für i = 1, ..., n.
k=1

Zeigen Sie : A, B ∈ M ⇒ A · B ∈ M .

Aufgabe 2.20 (NV) Es sei C ∈ M (m × n) eine Matrix von Rang k. Man beweise: Es gibt Matrizen
A ∈ M (m × k) und B ∈ M (k × n) mit C = A · B.

Aufgabe 2.21 (NV) Sei E die zweireihige Einheitsmatrix und für reelle Zahlen p und q sei
! !
1−p p −p p
A= , B= .
q 1−q q −q

a) Bestimmen Sie für k = 2, 3, ... reelle Zahlen ck mit B k = ck B.


k
!
k
X k
b) Zeigen Sie die binomische Formel (E + B) = Bi.
i=0
i
c) Ist p + q 6= 0, so zeige man für k ∈ IN

1 (1 − p − q)k
Ak = (E + B)k = E + B− B.
p+q p+q
Was gilt im Falle p + q = 0?

57
Aufgabe 2.22 (V) Sei A eine reelle n × n-Matrix und b ∈ IRn \ {0}. Man zeige, dass es kein x ∈ IRn
mit Ax = b gibt, wenn b auf jeder Spalte von A senkrecht steht.

Aufgabe 2.23 (V) Es sei A eine reelle n × n-Matrix, E die Einheitsmatrix, es sei (A − E) inver-
tierbar, und es sei B := (A + E)(A − E)−1 . Man beweise
a) (A + E)(A − E)−1 = (A − E)−1 (A + E) durch Betrachtung von
(A − E + 2E)(A − E)−1 − (A − E)−1 (A − E + 2E).
b) (B − E) ist invertierbar, indem man B − (A − E)(A − E)−1 = 2(A − E)−1 zeigt.
c) (B + E)(B − E)−1 = A.

Aufgabe 2.24 (V) Man berechne die Inverse der Matrix


 
1 1 1 1
 0 1 1 1 
A= .
 
 0 0 1 1 
0 0 0 1

Aufgabe 2.25 (V) In der Matrix


" #
P Q
A= ∈ M ((m + n) × (m + n))
R S

sei die Untermatrix P ∈ M (m × m) invertierbar. Zeigen Sie: A ist genau dann invertierbar, wenn dies
für S − RP −1 Q gilt.

Aufgabe 2.26 (V) Für die Matrizen A ∈ M (s × m), B ∈ M (s × n) und C ∈ M (n × m) soll


A = BC und rang(A) = rang(C)
gelten. N (A) sei der Nullraum von A, d.h. N (A) = {x ∈ IRm : Ax = 0}. Zeigen Sie:
N (A) = N (C).

Aufgabe 2.27 (V) Für die reelle m × m-Matrix B = (bjk ) gelte bkk 6= 0, k = 1, ..., m und
m
1 X
|bkj | < 1 für k = 1, ..., m.
|bkk | j=1,j6=k

Zeigen Sie, dass B regulär (=invertierbar) ist.

Aufgabe 2.28 (V) Es sei A eine reelle m×n-Matrix und b ∈ IRm Zeigen Sie, dass folgende Aussagen
äquivalent sind:
1) Das lineare Gleichungssytem A · x = b ist lösbar.
2) b ist orthogonal zum Lösungsraum des Gleichungssytems At · y = 0.

Aufgabe 2.29 (V) Das Vektorprodukt [a, b] = (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ) für Vektoren


a, b ∈ IR3 definiert bei festem a einen Endomorphismus (= lineare Abbildung) ϕa : IR3 → IR3 , b 7→
[a, b].
a) Wie sieht die darstellende (3 × 3)-Matrix von ϕa aus?
b) Man bestimme alle Werte, die Rang ϕa bei passender Wahl von a annehmen kann.

58
Aufgabe 2.30 (NV) Auf dem mit dem Vektorprodukt versehenen IR3 betrachte man die linearen
Abbildungen  
1
1 
f (x) = a × x und g(x) = x × a mit a =  2  .
3
2
a) Man stelle fest, für welche u ∈ IR3 die Gleichung f (x) = u lösbar ist.
b) Für die Vektoren    
2 2
1 1 
b=  1  bzw. b0 =  1 

3 3
−2 2
bestimme man alle Lösungen der Gleichungen g(x) = b bzw g(x) = b0 .
c) Man zeige f · g = g · f und (f · g)2 = f · g.

2.4 Permutationen und Permutationsmatrizen


Definition 2.7 Eine Permutation von n Elementen, z.B. der Zahlen 1, 2, ..., n, ist eine bijektive Ab-
bildung
σ : {1, ..., n} → {1, ..., n}.
Eine solche Permutation schreiben wir auch
!
1 ... n
σ= .
σ(1) ... σ(n)

Die Menge aller Permutationen von n Elementen bezeichnen wir mit Σn . Jedes σ ∈ Σn ist eine
bijektive Abbildung und besitzt daher eine Umkehrabbildung σ −1 ∈ Σn .

Beispiele.

n=1: Σ1 = {id},
( !)
1 2
n=2: Σ2 = id, σ1,2 = ,
2 1
 ! ! ! 
 1 2 3 1 2 3 1 2 3 
 id, σ1,2 = , σ1,3 = , σ2,3 = , 

 
2 1 3 3 2 1 1 3 2
 

n=3: Σ3 = ! ! .
 1 2 3 1 2 3 
,

 

2 3 1 3 1 2

 

59
Hier haben wir die Bezeichnung σk,l für die Vertauschung
!
1 ... k ... l ... n
1 ... l ... k ... n

benutzt.
Mit je zwei Permutationen σ, τ ∈ Σn gehört auch die Hintereinanderschaltung (oder das Produkt)

σ ◦ τ : ν 7→ σ(τ (ν))
wieder zu Σn . Es ist zu beachten, dass

(σ ◦ τ )−1 = τ −1 ◦ σ −1 ,

denn es ist
(τ −1 ◦ σ −1 ) ◦ (σ ◦ τ )(ν) = τ −1 (σ −1 ◦ σ(τ (ν))) = τ −1 τ (ν) = ν.

Satz 2.9 Die Menge Σn der Permutationen von n Zahlen enthält

n! = 1 · 2 · 3 · ... · n

Elemente. Für fest gewähltes σ ∈ Σn ist die Abbildung

Σn 3 τ 7→ τ ◦ σ ∈ Σn

bijektiv.

Beweis. Die Anzahlformel wird durch vollständige Induktion gezeigt: Die Anzahl der Elemente in
Σ1 ist 1 = 1! (Induktionsanfang). Nehmen wir nun n ≥ 2 an und dass Σn−1 aus (n − 1)! Elementen
bestünde. Daraus schließen wir die Behauptung für Σn : Jede Permutation σ ∈ Σn ist aber bestimmt
durch ihren Wert s := σ(n) (dafür gibt es n Möglichkeiten) und eine bijektive Abbildung {1, ..., n −
1} → {1, ..., n} \ {s}. Solche Abbildungen gibt es genauso viele, wie Σn−1 Elemente enthält, nach
Induktionsannahme also (n − 1)!. Deswegen enthält die Menge Σn insgesamt

n · (n − 1)! = n!

Elemente.
Die angegebene Abbildung τ 7→ τ ◦ σ ist bijektiv, weil τ 7→ τ ◦ σ −1 deren Umkehrabbildung ist.

Jede Permutation σ ∈ Σn bestimmt eine Permutationsmatrix


 
eσ(1)

 eσ(2) 

Eσ =  .. .
.
 
 
eσ(n)

Diese Matrix ist aus der Einheitsmatrix durch Vertauschen von Zeilen entstanden, deswegen steht in
jeder Zeile und in jeder Spalte dieser Matrix genau eine Eins. Zum Beispiel haben wir

60
 
0 1 0 ... 0

 1 0 0 ... 0 

σ = σ1,2 , Eσ =  0 0 1 ... 0
 

 
 . . . ... . 
0 0 0 ... 1
 
0 1
0 ... 0
! 
 0 0
1 ... 0 
1 2 3 ... n  .. ..
.. .. 
σ= , Eσ =  . .. . 

2 3 4 ... 1 
0 0 0 ... 1 
 

1 0 0 ... 0 .

In der k-ten Spalte von Eσ steht der Spaltenvektor el , für den σ(l) = k ist, d.h. der Vektor eσ−1 (k) .
Also beschreibt die Permutationsmatrix Eσ die lineare Abbildung

ek 7→ eσ−1 (k) , k = 1, ..., n.

Zur Permutationsmatrix Eτ ◦σ gehört deswegen die lineare Abbildung

ek 7→ e(τ ◦σ)−1 (k) = eσ−1 (τ −1 (k)) = Eσ (Eτ (ek )),

d.h. es ist
Eτ ◦σ = Eσ · Eτ .
Insbesondere ist die Matrix Eσk,l · Eσ , die aus Eσ durch Vertauschen der k-ten mit der l-ten Zeile
hervorgeht, gerade Eσ◦σk,l .

Jede Permutationsmatrix kann durch elementare Zeilenumformungen vom Typ I (Zeilenvertau-


schungen) in Zeilenstufenform gebracht werden. Dabei ändert sich die Zahl n der Matrixeinträge = 1
nicht. Die Zeilenstufenform von E ist deswegen die Einheitsmatrix 1l. Daraus folgt:
Jede Permutationsmatrix Eσ ist ein Produkt Ek1 ,l1 · ... · Ekm ,lm von Elementarmatrizen Ek,l =
Eσk,l , die zu Vertauschungen gehören. Jede Permutation σ ist ein Produkt σkm ,lm ◦ ... ◦ σk1 ,l1 von
Vertauschungen.

Unser nächstes Ziel ist die Konstruktion der sogenannten Signum-Funktion.

Satz 2.10 (Existenz des Signums) Es gibt eine Abbildung sign : Σn → {±1} mit den Eigenschaf-
ten
a) sign(σk,l ) = −1 für jede Vertauschung σk,l .
b) sign(σ ◦ τ ) = sign(σ) · sign(τ ) für alle σ, τ ∈ Σn .

Beweis. Nur für diesen Beweis führen wir folgende Bezeichnung ein: Ein Fehlstand in der Permu-
tation σ ∈ Σn ist ein Paar (i, j), 1 ≤ i < j ≤ n, mit σ(i) > σ(j). Eine Vertauschung σk,l zum Beispiel
hat die Bilder
(σ(1), ..., σ(n)) = (1, ..., k − 1, l, k + 1, ..., l − 1, k, l + 1, ..., n).
| {z }
l−k−1

Sie hat damit 2(l − k − 1) + 1 = 2(l − k) − 1 Fehlstände.

61
Wir definieren die Signum-Funktion durch

sign(σ) := (−1)f , f = Anzahl der Fehlstände in σ.

Beweis von a). Die Anzahl der Fehlstände in σk,l ist, wie wir soeben bemerkt haben, ungerade.
Q
Beweis von b). Wir wissen dass jede Permutation σ ein Produkt von Vertauschungen σkµ ,lµ ist.
Wenn wir b) für den Fall beweisen können, dass σ = σk,l eine Vertauschung ist, folgt deshalb

sign(σ ◦ τ ) = sign(σk1 ,l1 ◦ ... ◦ σkm ,lm ◦ τ ) = sign(σk1 ,l1 ) · ... · sign(σkm ,lm ) · sign(τ ) = sign(σ) · sign(τ )

ganz allgemein. Somit genügt es, die Behauptung nur für σ = σk,l zu beweisen.
Wenn l > k + 1, dann ist

σk,l = σk,k+1 σk+1,k+2 ...σl−2,l−1 σl−1,l σl−1,l−2 ...σk+1,k+2 σk,k+1 .


| {z }
ungerade

Deswegen genügt es, die Behauptung für Vertauschungen σk,k+1 zu beweisen. Wir zählen die Fehlstände
von σk,k+1 ◦ τ :
- Wenn τ −1 (k) < τ −1 (k + 1), dann ist (τ −1 (k), τ −1 (k + 1)) kein Fehlstand von τ, wohl aber von
σk,k+1 ◦ τ.
- Wenn τ −1 (k) > τ −1 (k + 1), dann ist (τ −1 (k), τ −1 (k + 1)) ein Fehlstand von τ , aber nicht von
σk,k+1 ◦ τ.
Alle anderen Fehlstände von τ und σk,k+1 ◦ τ stimmen überein. Die Anzahlen der Fehlstände von
τ und σk,k+1 ◦ τ unterscheiden sich also um ±1. Es folgt

sign(σk,k+1 ◦ τ ) = −sign(τ ),

und damit ist die Behauptung bewiesen.

In Σ3 beispielsweise gibt es die drei Vertauschungen σ1,2 , σ1,3 und σ2,3 mit signum = −1 und die
drei Permutationen
σ Anzahl der Vertauschungen signum
id
! 0 +1
1 2 3
= σ1,3 ◦ σ1,2 2 +1
2 3 1
!
1 2 3
= σ1,2 ◦ σ1,3 2 +1
3 1 2

mit signum = +1.

Definition 2.8 Unter der zyklischen Permutation (i1 , i2 , ..., ik ), bzw. unter dem Zyklus (i1 , i2 , ..., ik ),
versteht man diejenige Permutation, welche

i1 7→ i2 7→ ... 7→ ik−1 7→ ik 7→ i1

abbildet und alle anderen i 6= i1 , ..., ik fest lässt. Hierbei müssen die k Zahlen i1 , ..., ik alle voneinander
verschieden sein.

62
Dieser Begriff des Zyklus für Permutationen ist viel eleganter, als unsere bisherige Schreibweise.
Hierzu Beispiele:

Zyklus bisherige Schreibweise


(k, l) σk,l !
1 2 3
(1, 2, 3)
2 3 1
!
1 2 3
(1, 3, 2)
3 1 2
!
1 2 3 ... n
(1, 2, 3, ..., n)
2 3 4 ... 1

Allerdings ist die Schreibweise einer Permutation als Zyklus nicht eindeutig: Es ist ja

(i1 , i2 , i3 , ..., ik ) = (i2 , i3 , ..., ik , i1 ).

Aber die Verwendung dieser Notation ist sehr vorteilhaft, vor allem wegen des folgenden Satzes:

Satz 2.11 Es seien


σ = (i1 , i2 , ..., ik ) und τ = (j1 , j2 , ..., jl )
zwei elementfremde Zyklen (d.h., kein iκ stimmt mit einem jλ überein). Dann ist

σ ◦ τ = τ ◦ σ.

Beweis. Weil die Zyklen elementfremd sind, lässt σ alle jλ fest und τ alle iκ . Und ob wir nun zuerst
die iκ zyklisch vertauschen, und danach die jλ , oder umgekehrt, das läuft deswegen auf die gleiche
Permutation hinaus.
Sehr praktisch ist auch folgende Tatsache:

Satz 2.12 Jede Permutation σ ∈ Σn ist ein Zyklus, oder ein Produkt von zwei oder mehr paarweise
elementfremden Zyklen.

Beweis. Es sei i1 ∈ {1, ..., n} die kleinste Zahl, welche von σ nicht festgelassen wird, also etwa
σ(i1 ) = i2 mit i1 6= i2 . Dann kann nicht σ(i2 ) = i2 sein, denn sonst wäre σ wegen σ(i1 ) = σ(i2 )
und i1 6= i2 nicht injektiv. Wenn σ(i2 ) = i1 ist, haben wir unseren ersten Zyklus (ii , i2 ). Andernfalls
ist i3 := σ(i2 ) 6= i1 , i2 . Wieder kann σ(i3 ) = i1 sein, und wir haben (i1 , i2 , i3 ) als ersten Zyklus.
Andernfalls ist i4 := σ(i3 ) 6= i1 , i2 , i3 . So machen wir weiter. Weil wir insgesamt nur n Zahlen zur
Verfügung haben, muss es irgend wann eine erste Zahl ik geben, wofür σ(ik ) nicht von allen Zahlen
i1 , ..., ik−1 verschieden ist. Wegen der Injektivität von σ kann nicht σ(ik ) = i2 , i3 , ... oder ik sein. Es
bleibt nur σ(ik ) = i1 übrig, und wir haben einen Zyklus (i1 , i2 , ..., ik ).
Entweder lässt σ alle anderen Zahlen i, 1 ≤ i ≤ n, i 6= i1 , ..., ik fest, dann ist σ = (i1 , ..., ik ) selbst
ein Zyklus. Oder es gibt eine kleinste Zahl j1 , j1 6= i1 , ..., ik , mit j2 := σ(j1 ) 6= j1 . Wie eben finden wir,
ausgehend von j1 einen Zyklus j1 , ..., jl mit σ(jλ ) = jλ+1 , λ < l, und σ(jl ) = j1 . Aus der Injektivität
von σ folgt, dass die beiden Zyklen (i1 , ..., ik ) und (j1 , ..., jl ) elementfremd sind.
So machen wir weiter. Weil wir nur endlich viele Zahlen zur Verfügung haben, muss nach endlich
vielen Schritten Schluss sein. Dann haben wir endlich viele Zyklen σ1 , ..., σm konstruiert mit σ =
σ1 ◦ ... ◦ σm .

63
.
Das Rechnen mit Permutationen in Zyklenschreibweise ist auch deswegen vorteilhaft, weil Zyklen
sehr schön einfach zu multiplizieren sind. Statt der allgemeinen Aussage, hierzu ein Beispiel:
Wir berechnen das Produkt σ := σ1 ◦ σ2 wo

σ1 = (1, 2, 3) und σ2 = (2, 3, 4)

ist. Wir berechnen das Bild von 1: Wegen σ2 (1) = 1 ist

σ(1) = σ1 (1) = 2.

Wir berechnen das Bild von 2:


σ(2) = σ1 (σ2 (2)) = σ1 (3) = 1,
also enthält σ den Zyklus (1, 2). Wir berechnen das Bild von 3:

σ(3) = σ1 (σ2 (3)) = σ1 (4) = 4,

und das Bild von 4:


σ(4) = σ1 (σ2 (4)) = σ1 (2) = 3.
Das Ergebnis ist:
(1, 2, 3) ◦ (2, 3, 4) = (1, 2) ◦ (3, 4).

Aufgabe 2.31 Gegeben seien die Permutationen


! ! !
1 2 3 4 1 2 3 4 5 1 2 3 4 5 6
σ1 = , σ2 = , σ3 = .
2 3 4 1 2 3 1 5 4 5 6 4 1 2 3

Schreiben Sie die zugehörigen Permutationsmatrizen Eσi , i = 1, 2, 3, als Produkte von Elementarma-
trizen vom Typ I.

Aufgabe 2.32 Zeigen Sie für die zyklische Permutation σ = (i1 , i2 , ..., ik )

sign(σ) = (−1)k+1 .

Aufgabe 2.33 Stellen Sie alle Permutationen σ ∈ Σ4 als Zyklus oder als Produkt zyklischer Permu-
tationen dar.

64
2.5 Die Determinante einer (n × n)-Matrix
Wir betrachten eine n × n-Matrix
a1 a1,1 ... a1,n
   
 ..   .. .. 
A= . = . . 
an an,1 ... an,n

mit den Zeilenvektoren a1 , ..., an ∈ IRn . Diese Zeilenvektoren spannen einen Spat , bzw. ein Parallelotop
n
X
n
P (a1 , ..., an ) = {x ∈ IR : x = ck ak , c1 , ..., cn ∈ IR, 0 ≤ ck ≤ 1}
1
auf.

 
(c, d)  




 
 


  

 
 (a, b)  

 *
 
  

α  
 

  1
! 


a b
n = 2, A= n=3
c d

Wir möchten das Volumen |A| dieses Spats berechnen. Der Fall n = 2 ist aus der Elementar-
geometrie bekannt: Die Fläche des Parallelogramms ist das Produkt der Seitenlängen mal sin(α):

!
a b
= k (a, b) k · k (c, d) k ·sin(α)

c d


q
= k (a, b) k · k (c, d) k · 1 − cos2 (α)
s
( (a, b) . (c, d) )2
= k (a, b) k · k (c, d) k · 1 −
k (a, b) k2 · k (c, d) k2
q
= k (a, b) k2 · k (c, d) k2 −( (a, b) . (c, d) )2
q
= (a2 + b2 )(c2 + d2 ) − (ac + bd)2
p
= a2 d2 + b2 c2 − 2 · abcd
q
= (ad − bc)2
= |ad − bc|

Es ist ziemlich einsichtig, dass das Volumen vol(A) des Spats P (a1 , ..., an ) folgende Eigenschaften
haben sollte:

(I) Beim Vertauschen zweier Zeilen in der Matrix A ändert sich das Volumen vol(A) nicht.

65
(II) Streckt man einen Zeilenvektor mit einem Faktor t ∈ IR, so ändert sich vol(A) mit dem Faktor
|t|, d.h. in Formeln

vol(a1 , ..., ak−1 , t · ak , ak+1 , ..., an ) = |t| · vol(a1 , ..., an ) für t ∈ IR.

  
 vol(A)  |t| · vol(A) 
  
 - -
ak t · ak

(III) vol(a1 , ..., ak , ..., al + tak , ..., an ) = vol(a1 , ..., ak , ..., al , ..., an ) für alle 1 ≤ k 6= l ≤ n und t ∈ IR.

al + tak
al
 
3


  
   

 --
ak tak

(0) Für die Einheitsmatrix 1l ist


vol(1l) = 1.

Die Eigenschaften (I)-(III) beschreiben die Änderung des Volumens von P (a1 , ..., an ), wenn man
die Vektoren elementaren Zeilentransformationen vom Typ (I)-(III) unterwirft. Wir wollen hier nicht
weiter über die formulierten Eigenschaften des Volumens spekulieren, sondern eine Funktion

det : M (n × n) → IR

die Determinante der Matrix A, konstruieren, deren Absolutbetrag das Volumen vol(A) ist: vol(A) =
|det(A)|. Von der Funktion det verlangen wir die folgenden Eigenschaften, die natürlich bis auf das
Vorzeichen mit den Eigenschaften von vol übereinstimmen:

(I) Vertauscht man in der Matrix A ∈ M (n × n) zwei Zeilen, so ändert sich das Vorzeichen von
det(A).

(II) det(a1 , ..., ak−1 , t · ak , ak+1 , ..., an ) = t · det(a1 , ..., an ) für alle t ∈ IR.

(III) det(a1 , ..., ak , ..., al + tak , ..., an ) = det(a1 , ..., ak , ..., al , ..., an ) für alle 1 ≤ k 6= l ≤ n und t ∈ IR.

(0) (Normierung) Für die Einheitsmatrix 1l gilt

det(1l) = 1.

Beispiel. Die Funktion !


a b
det := ad − bc
c d

66
hat die Eigenschaften (0),(I),(II),(III). Hiervon sind (0), (I), und (II) unmittelbar einsichtig. Zum
Beweis von (III) betrachten wir nur den Fall k = 1 und l = 2. Dann ist
! !
a b a b
det = a(d + tb) − b(c + ta) = ad − bc + t(ab − ba) = det .
c + ta d + tb c d

Satz 2.13 (Eindeutigkeit der Determinante) Wenn eine Funktion det : M (n × n) → IR mit den
Eigenschaften (0) bis (III) existiert, dann ist sie durch diese Eigenschaften eindeutig festgelegt.

Beweis. Wir wissen, dass man A durch elementare Zeilenumformungen auf Zeilenstufenform bringen
kann, bzw. umgekehrt, dass A durch elementare Zeilenumformungen aus einer Matrix Z in Zeilenstu-
fenform hervorgeht. Da die Eigenschaften (I),(II),(III) genau festlegen, wie sich die Determinante bei
einer elementaren Zeilenumformung ändert, genügt es, die Eindeutigkeit für Matrizen Z in Zeilenstu-
fenform zu beweisen. Dazu unterscheiden wir die Fälle:
Rang(A) < n. In diesem Fall ist der letzte Zeilenvektor zn in Z ein Nullvektor. Dann ist 0·zn = zn ,
und aus (II) folgt

det(Z) = det(z1 , ..., zn ) = det(z1 , ..., zn−1 , 0 · zn ) = 0 · det(z1 , ..., zn ) = 0.

Rang(A) = n. Nun ist Z eine Dreiecksmatrix und der letzte Zeilenvektor ist zn = en . Durch
Addition geeigneter Vielfacher dieses Vektors zu den vorhergehenden Zeilen (Umformung vom Typ
(III)) können wir erreichen, dass der letzte Eintrag in den ersten n − 1 Zeilen 0 ist. Jetzt ist der
vorletzte Zeilenvektor zn−1 = en−1 , und durch elementare Zeilenumformungen vom Typ III können
wir erreichen, dass auch der vorletzte Eintrag in den ersten n − 2 Zeilen 0 ist. Mit endlich vielen
elementaren Zeilenumformungen vom Typ III, können wir also Z in die Einheitsmatrix 1l überführen.
Aus Eigenschaft (III) und (0) folgt
det(Z) = det(1l) = 1.

Ein ganz anderes Problem ist es, nachzuweisen, dass eine Funktion det mit den Eigenschaften
(0),...,(III) tatsächlich existiert. Im Wesentlichen läuft dies auf die Existenz des Signums (Satz 2.10)
hinaus, denn wenn eine Determinantenfunktion det(A) mit den Eigenschaften (0) und (I) existiert,
dann gilt für jede Permutationsmatrix Eσ

det(Eσ ) = sign(σ).

Dies ist ein Zusammenhang zwischen Determinante und signum-Funktion. Wir benützen die signum-
Funktion nun für unsere Definition der Determinante:

Definition 2.9 Es sei A = (ak,l )k,l=1,...,n ∈ M (n × n) eine n × n-Matrix. Die Zahl

X
det(A) := sign(σ) · a1,σ(1) · ... · an,σ(n)
σ∈Σn

heißt Determinante der Matrix A. (Diese Formel für die Determinante stammt von Leibniz und ist
nach ihm benannt.)

67
Dass diese Determinante tatsächlich die Eigenschaften (0),...,(III) besitzt, weisen wir im nächsten
Abschnitt nach. Zuerst einige einfache Beispiele, die zeigen sollen, was diese Formel bedeutet.

n=1: Im Fall n = 1 ist det(a) = a.

n=2: Für n = 2 ist


!
a1,1 a1,2
det = sign(id) · a1,1 a2,2 + sign(σ1,2 )a1,2 a2,1 = a1,1 a2,2 − a1,2 a2,1 .
a2,1 a2,2 | {z } | {z }
σ=id σ=σ1,2
! !
a1,1 a1,2 a b
Wenn wir die Matrix = schreiben, dann wird
a2,1 a2,2 c d

!
a b
det = ad − bc.
c d

n=3: Für n = 3 haben wir


 
a1,1 a1,2 a1,3
det  a2,1 a2,2 a2,3  = a1,1 a2,2 a3,3 σ = id
 
a3,1 a3,2 a3,3 !
1 2 3
+ a1,2 a2,3 a3,1 σ= = σ1,3 ◦ σ1,2
2 3 1
!
1 2 3
+ a1,3 a2,1 a3,2 σ= = σ1,2 ◦ σ1,3
3 1 2 .
!
1 2 3
− a1,1 a2,3 a3,2 σ= = σ2,3
1 3 2
!
1 2 3
− a1,2 a2,1 a3,3 σ= = σ1,2
2 1 3
!
1 2 3
− a1,3 a2,2 a3,1 σ= = σ1,3
3 2 1
Dies ist die klassische Regel von Sarrus“:

a1,1 a1,2 a1,3 a1,1 a1,2 a1,1 a1,2 a1,3 a1,1 a1,2
@ @ @
@ @ @
a2,1 a2,2 @a2,3 @a2,1 a2,2
@ − a2,1 a2,2 a2,3 a2,1 a2,2
@ @ @
@ @ @
a3,1 a3,2 @a3,3 @a3,1 @a3,2 a3,1 a3,2 a3,3 a3,1 a3,2

68
Aufgabe 2.34 Berechnen Sie die Determinanten der Matrizen
   
1 2 3 11 12 13
 4 5 4  und  14 15 14  .
   
3 2 1 13 12 11

2.6 Eigenschaften der Determinante


Wir wollen jetzt einige wichtige Eigenschaften der Determinante angeben. Insbesondere suchen wir
nach praktischen Möglichkeiten, die Determinante einer gegebenen Matrix zu berechnen, da die Leib-
nizsche Formel hierfür bei großen n ungeeignet ist.

Satz 2.14 (Fundamentaleigenschaften der Determinante) Die Funktion det : M (n × n) →


IR, A 7→ det(A), hat folgende Eigenschaften:
1) Linearität in Bezug auf jede Zeile:

a1 a1 a1
     
 ..   ..   .. 

 . 
 
 . 
 
 . 


 ak−1 

 a
 k−1


 a
 k−1


det  sak + ta0k  = s · det  ak  + t · det  a0k .
     
     
 ak+1   ak+1   ak+1 
..  ..  ..
     
   
 .   .   . 
an an an

2) Schiefsymmetrie in Bezug auf je zwei Zeilen:

a1 a1
   
 ..   .. 
 .   . 
   

 ak−1 

 a
 k−1


ak  al
   
  
   
 ak+1   ak+1 
..  .
   
det   = −det  ..
  
 .  



 al−1 

 a
 l−1


al  ak
   
  
   
 al+1   al+1 
..  ..
   
  
 .   . 
an an

3) Normierung: det(1ln ) = 1.

Beweis. 1) Wir werten die Determinante auf der linken Seite der Gleichung mit der Leibnizformel
aus:

69
sign(σ) · a1,σ(1) · ... · (s · ak,σ(k) + t · a0 ) · ... · an,σ(n) =
P
σ∈Σn k,σ(k)
s · σ∈Σn sign(σ) · a1,σ(1) · ... · ak,σ(k) · ... · an,σ(n) +
P


P 0
sign(σ) · a1,σ(1) · ... · ak,σ(k) · ... · an,σ(n) .
σ∈Σn

2) Wieder mit der Leibnizformel und mit Satz 2.10 ist die Determinante auf der rechten Seite der
Gleichung
sign(σ) · a1,σ(1) · ... · al,σ(k) · ... · ak,σ(l) · ... · an,σ(n) =
P
Pσ∈Σn
sign(σ) · a1,σσk,l (1) · ... · al,σσk,l (l) · ... · ak,σσk,l (k) · ... · an,σσk,l (n) =
Pσ∈Σn
− σ∈Σn sign(σσk,l ) · a1,σσk,l (1) · ... · al,σσk,l (l) · ... · ak,σσk,l (k) · ... · an,σσk,l (n) =
− sign(τ ) · a1,τ (1) · ... · al,τ (l) · ... · ak,τ (k) · ... · an,τ (n) .
P
τ =σσk,l ∈Σn

3) Es ist det(1ln ) = σ sign(σ) · δ1,σ(1) · ... · δn,σ(n) , und der Summand ist nur dann 6= 0, wenn alle
P

Kronecker-Deltas = 1 sind, d.h. wenn k = σ(k) für alle k = 1, ..., n. Also bleibt nur der Summand für
σ = id übrig, und die Determinante wird = 1.

Satz 2.15 (Korollar 1 zu Satz 2.14) Hat die n×n-Matrix A zwei gleiche Zeilen, so ist det(A) = 0.

Beweis. Sind die Zeilenvektoren ak und al gleich, so ändert sich A und damit det(A) nicht, wenn wir
beide Zeilen vertauschen. Andererseits ändert sich dabei wegen der Schiefsymmetrie das Vorzeichen
von det(A). Es folgt:
1
det(A) = −det(A), 2 · det(A) = 0, det(A) = (2 · det(A)) = 0.
2
(Für Mathematiker: Hier brauchen wir zum ersten Mal wirklich eine andere reelle Zahl als 0 und 1,
nämlich 21 . Gäbe es diese Zahl nicht, wäre das Argument unrichtig.)

Satz 2.16 (Korollar 2 zu Satz 2.14) Die mit der Leibnizformel definierte Determinante hat die
Eigenschaften (0),(I),(II),(III) aus Abschnitt 2.5.

Beweis. Normierung (0) und Schiefsymmetrie beim Vertauschen von Zeilen (I) sind die Eigenschaf-
ten 3) und 2) von Satz 2.14. Eigenschaft (II) ist Teil der Linearität der Determinante und Eigenschaft
(III) folgt aus der Linearität mit Hilfe von Korollar 1.

Satz 2.17 (Weitere Eigenschaften der Determinante) a) Für A ∈ M (n × n) gilt:

det(A) = 0 ⇔ Rang(A) < n.

b) A, B ∈ M (n × n) ⇒ det(A · B) = det(A) · det(B) (Determinanten-Multiplikations-Satz).


c) det(At ) = det(A).

Beweis. a) ⇐“ Wenn Rang(A) < n ist, dann sind die Zeilenvektoren ak von A linear abhängig.

Es besteht also eine Gleichung n1 ck ak = 0, wo nicht alle Koeffizienten ck = 0 sind. Ist etwa cl 6= 0,
P

so folgt daraus
X ck
al = − ak .
c
k6=l l

70
Mit Korollar 1 erhalten wir für die Determinante
 
a1
a1
 
 .. 
 .   .. 
   . 
a
 
Xl−1
 
   a
ck


 −
 X ck  l−1 
det(A) = det  ak 
=− det  ak

 = 0.


k6=l l
c  c
k6=l l
 
   al+1 

 al+1 
  ..
 

 ..   . 
.
 
an
 
an

b) Wir beweisen die Aussage zunächst für den Fall, dass A = E eine Elementarmatrix ist.
Eine Elementarmatrix E vom Typ (I) entsteht aus der Einheitsmatrix durch Vertauschen zweier
Zeilen. Also ist det(E) = −det(1l) = −1. Die Matrix E · B entsteht aus B ebenfalls durch Vertauschen
zweier Zeilen. Und deswegen ist det(E · B) = −det(B) = det(E) · det(B).
Eine Elementarmatrix E vom Typ (II) multipliziert in B eine Zeile mit einem Faktor c ∈ IR. Für
E gilt det(E) = c und wegen der Linearität der Determinante ist det(E · B) = c · det(B).
Eine Elementarmatrix E vom Typ (III) entsteht aus der Einheitsmatrix indem man eine Vielfaches
einer Zeile zu einer anderen addiert. Wegen Eigenschaft (III) der Determinante ist also det(E) = 1.
Da weiter det(E · B) = det(B) ist, folgt die Behauptung auch in diesem Fall.
Wenn Rang(A) < n ist, sind die Zeilen von A linear abhängig und es gibt einen Zeilenvektor
x = (x1 , ..., xn ) mit x · A = 0. Dann ist auch x · (A · B) = 0 und Rang(A · B) < n. Mit a) ⇐“ folgt

det(B) · det(A) = det(A) = 0 und det(A · B) = 0.
Wenn Rang(A) = n ist, gibt es Elementarmatrizen E1 , ..., Ek so, dass A = E1 · ... · Ek . Es folgt

det(A · B) = det(E1 · ... · Ek · B) = det(E1 ) · ... · det(Ek ) · det(B) = det(A) · det(B).

a) ⇒“ Wir schreiben A als Produkt von Elementarmatrizen Eµ und einer Matrix Z in Zeilenstu-

fenform:
A = E1 · ... · Em · Z.
Da die Determinanten der Elementarmatrizen 6= 0 sind, folgt aus b) dass det(Z) = det(A) = 0. Dann
kann Z keine vollständige Dreiecksform haben; die letzte Zeile in Z muss der Nullvektor sein. Es folgt
Rang(A) = Rang(Z) < n.
c) Mit der Leibnizformel und sign(σ) = sign(σ −1 ) ist
X
det(At ) = sign(σ) · aσ(1),1 · ... · aσ(n),n
σ∈Σn
X
= sign(σ) · a1,σ−1 (1) · ... · an,σ−1 (n)
σ∈Σn
X
= sign(τ ) · a1,τ (1) · ... · an,τ (n)
τ =σ −1 ∈Σn
= det(A)

Eigenschaft c) bedeutet, dass alles, was für die Zeilen einer Determinante gilt, auch für Spalten
stimmt. Insbesondere ist also det(A) auch linear in Bezug auf jede Spalte und ändert beim Vertauschen
zweier Spalten das Vorzeichen.

71
Wir benötigen noch zwei häufig anwendbare Methoden zur Berechnung von Determinanten, die
wir aber nicht extra als Satz formulieren möchten.

Kästchenregel. Die n × n-Matrix A habe Kästchenform


!
A1 ∗
A= ,
0 A2

wo A1 eine r × r-Matrix und A2 eine (n − r) × (n − r)-Matrix ist. Das heißt also, das linke untere
(n − r) × r-Nullkästchen reicht bis zur Diagonale der Matrix. Dann sind in der Leibnizformel
X
det(A) = sign(σ) · a1,σ(1) · ... · ar,σ(r) · ar+1,σ(r+1) · ... · an,σ(n)
σ∈Σn

alle Produkte a1,σ(1) · ... · ar,σ(r) =0, wo die Permutation σ eine Zahl k, r + 1 ≤ k ≤ n auf eine
Zahl σ(k) ≤ r abbildet. Die Summe ist also nur über solche Permutationen zu erstrecken, welche die
Teilmengen
{1, ..., r} und {r + 1, ..., n}
in sich abbilden. Diese Permutationen bestehen also aus zwei Permutationen

σ1 : {1, ..., r} → {1, ..., r} ∈ Σr , σ2 : {r + 1, ..., n} → {r + 1, ..., n} ∈ Σn−r .

Schreiben wir dies in die Leibnizformel, dann wird


X
det(A) = sign(σ1 σ2 ) · (a1,σ1 (1) · ... · ar,σ1 (r) ) · (ar+1,σ2 (r+1) · ... · an,σ(n) )
σ1 ∈Σr ,σ2 ∈Σn−r
   
X X
=  sign(σ1 ) · a1,σ1 (1) · ... · ar,σ1 (r)  ·  sign(σ2 ) · ar+1,σ2 (r+1) · ... · an,σ2 (n) 
σ1 ∈Σr σ2 ∈Σn−r
= det(A1 ) · det(A2 ).

Entwicklung nach Spalten oder Zeilen. Wir schreiben den ersten Zeilenvektor a1 unserer
Matrix A als

(a1,1 , ..., a1,k , ..., a1,n ) = (a1,1 , 0, ..., 0) + ... + (0, ..., 0, a1,k , 0, ..., 0) + ... + (0, ..., 0, a1,n )

und wenden die Linearität der Determinante auf die erste Zeile an:
!
a1,1 0 ... 0
det(A) = det ..
. A1,1
..
.  
0 ... 0 a1,k 0 ... 0
+ det  .. 
A01,k . A001,k
..
.
!
0 ... 0 a1,n
+ det .. .
A1,n .

72
Hier bezeichnen wir mit Ak,l die Streichungsmatrix von A zur Stelle (k, l), d.h. die (n − 1) × (n − 1)-
Matrix, welche aus der n × n-Matrix A entsteht, indem man die k-te Zeile und die l-te Spalte streicht.
Die erste Determinante auf der rechten Seite hat Kästchenform und berechnet sich zu
!
a1,1 0
det = a1,1 · det(A1,1 ).
∗ A1,1

Die anderen Matrizen können auch auf diese Kästchenform gebracht werden. Und zwar müssen wir
dazu die k-te Spalte mit der (k − 1)-ten Spalte vertauschen, dann mit der (k − 2)-ten usw. Insgesamt
ergeben sich dabei k − 1 Änderungen des Vorzeichens.
! !
0 a1,k 0 1+k a1,k 0
det = (−1) det = (−1)1+k a1,k · det(A1,k ).
Al1,k . Ar1,k . A1,k

Damit haben wir die Entwicklung von det(A) nach der ersten Zeile:
n
X
det(A) = (−1)1+k · a1,k · det(A1,k ).
k=1

Ebenso kann man nach einer anderen (etwa der l-ten) Zeile entwickeln, wenn man diese erst durch
l − 1 Vertauschungen nach oben bringt. Und genauso, wie man nach einer Zeile entwickeln kann, kann
man die Determinante nach einer Spalte entwickeln.
n
X
Entwicklung nach der l-ten Zeile: det(A) = (−1)k+l · al,k · det(Al,k )
k=1
Xn
Entwicklung nach der k-ten Spalte: det(A) = (−1)k+l · al,k · det(Al,k )
l=1

Adjunkten und die Inverse Matrix. Die Streichungsdeterminanten det(Al,k ) kann man zu
einer n × n-Matrix zusammenfassen. Transponiert und mit Vorzeichen versehen heißen diese Determi-
nanten die Adjunkten von A, und die Matrix

Aadj = ((−1)l+k det(Al,k ))t

heißt die Matrix der Adjunkten. Diese Matrix wurde transponiert, damit das Produkt
n
X
A · Aadj = (aµ,ν ) · ((−1)k+l det(Ak,l )) =( aµ,ν (−1)k+ν det(Ak,ν ))µ,k
µ:Zeile l:Zeile
ν=1
ν:Spalte k:Spalte

leicht auszurechnen ist: Die Entwicklung nach Zeilen hat zur Folge, dass alle Diagonaleinträge
n
X
(A · Aadj )l,l = (−1)k+l · al,k · det(Al,k ) = det(A)
k=1

sind. Und die Nicht-Diagonaleinträge (l1 6= l2 )


n
X
(−1)k+l2 al1 ,k det(Al2 ,k )
k=1

73
kann man interpretieren als Entwicklung nach der l2 -ten Zeile für die Determinante derjenigen Matrix,
welche aus A entsteht, indem die l2 -te Zeile durch die l1 -te Zeile ersetzt worden ist. Diese Matrix hat
zwei gleiche Zeilen, ihre Determinante ist = 0, und

(A · Aadj )l1 ,l2 = det(A) · δl1 ,l2 .

Damit haben wir das Matrixprodukt

A · Aadj = det(A) · 1ln

berechnet. Wenn det(A) 6= 0 ist, erhalten wir daraus die Formel

A−1 = 1
det(A) A
adj

für die inverse Matrix A−1 .

Cramersche Regel. Bei Benutzung der Matrizenmultiplikation kann ein lineares Gleichungssy-
stem mit Koeffizientenmatrix A auch
A·x=b
geschrieben werden. Ist die Matrix A quadratisch (d.h. eine n × n-Matrix), und ist A invertierbar, so
kann man das Gleichungssystem ganz einfach so

x = A−1 · b

lösen. Leider ist dies aber keine Zauberformel, sondern zeigt nur, dass es genauso schwer ist, die inverse
Matrix zu berechnen, wie das Gleichungssystem zu lösen. Trotzdem wollen wir unsere Formel für A−1
hierauf anwenden.
Die Lösung wird also
1
x= · Aadj · b.
det(A)
Die k-te Komponente des Lösungsektors x ist dann
n n
1 X 1 X
xk = · (Aadj )k,l · bl = · (−1)k+l · det(Al,k ) · bl .
det(A) l=1 det(A) l=1

Die Summe kann interpretiert werden als die Entwicklung der modifizierten Koeffizientenmatrix
a1,1 . . . a1,k−1 b1 a1,k+1 . . . a1,n
 
 .. .. .. ..
A(k) :=  . ,

. . .
an,1 . . . an,k−1 bn an,k+1 . . . an,n
nach der k-ten Spalte, wobei diese in A durch die rechte Seite b ersetzt worden ist. Mit dieser Matrix
A(k) erhält man also die Lösung x = (x1 , ..., xn ) in der Form

det(A(k) )
xk = .
det(A)

74
Dies ist die Cramersche Regel zum Lösen linearer Gleichungssysteme mit quadratischer und invertier-
barer Koeffizientenmatrix.

Aufgabe 2.35 (NV) Berechnen Sie die Determinante der Matrix


 
0 1 1 1 1

 2 0 2 2 2 

3 3 0 3 3 .
 

 
 4 4 4 0 4 
5 5 5 5 0

Aufgabe 2.36 (NV) Für A ∈ M (n × n) zeige man


det(A) = 0 ⇐⇒ ∃B ∈ M (n × n) \ {0} mit AB = 0.

Aufgabe 2.37 Berechnen Sie  


2 3 4 2
 1 3 5 −2 
det  .
 
 3 7 9 2 
2 5 12 −9
Aufgabe 2.38 Es seien a1 , ..., an ∈ IR. Beweisen Sie
 
1 1 ... 1

 a1 a2 ... an 

a21 a22 ... a2n
  Y
det  = (aj − ai ).

.. .. .. 
1≤i<j≤n
. . .
 
 
an−1
1 an−1
2 ... an−1
n

( Vandermondesche Determinante“)

Aufgabe 2.39 Es seien a1 , ..., an , b1 , ..., bn ∈ IR. Berechnen Sie


 
1 1 1 ... 1

 b1 a1 a1 ... a1 

b1 b2 a2 ... a2
 
det  .

.. .. .. .. .. 
. . . . .
 
 
b1 b2 ... bn an
Aufgabe 2.40 Es seien a, b, c ∈ IR. Berechnen Sie die Determinanten der Matrizen
   
bc a2 a2 bc ab ac
 2
 b ac b2  ,  ab ac bc  ,
  
2 2
c c ab ac bc ab

a2 b2
   
ab ab a b b b
 ab ac b2 bc   b a b b 
, .
   
ab b2 ac bc b b a b
 
   
b2 bc bc c2 b b b a

75
Aufgabe 2.41 Es seien x1 , x2 , x3 , y1 , y2 , y3 ∈ IR. Berechnen Sie
 
0 x1 x2 x3
 −x1 0 y3 −y2 
det  .
 
 −x2 −y3 0 y1 
−x3 y2 −y1 0

Aufgabe 2.42 (NV) In IRn seien die k Vektoren x1 , ..., xk gegeben. Sei A = (aij )i,j=1,...,k die Matrix
mit aij = (xi .xj ). Beweisen Sie: Genau dann sind die Vektoren x1 , ..., xk linear unabhängig, wenn
det(A) 6= 0 ist.

Aufgabe 2.43 (NV) Sei A eine relle n × n-Matrix, deren Koeffizienten außerhalb der Diagonale alle
1 sind und deren Diagonalkoeffizienten alle Null sind. Man zeige det(A) = (−1)n−1 · (n − 1).

Aufgabe 2.44 (NV) Sei n > 1. Unter den n2 Elementen aik einer n-reihigen quadratischen Matrix
A seien genau n + 1 Elemente gleich 1, die übrigen seien gleich Null.
a) Zeigen Sie: det(A) ∈ {0, 1, −1}.
b) Geben Sie für n = 3 jeweils ein Beispiel an. Welcher der drei Fälle tritt für n = 2 nicht ein?

Aufgabe 2.45 (NV) Für reelle Zahlen λ1 , λ2 , ..., λn berechne man die Determinante

1 − λ1 −λ2 −λ3 ... −λn

−λ 1 − λ2 −λ3 ... −λn
1
−λ1 −λ2 1 − λ3 ... −λn



.. .. ..

. . .



−λ1 −λ2 −λ3 ... 1 − λn
.

Aufgabe 2.46 (V) Es sei A = (aij )1≤i,j≤n ∈ M (n × n) mit aij = (−1)i · i für i + j > n und aij = 0
sonst, also z.B.
 
  0 0 0 −1
! 0 0 −1
0 −1  0 0 2 2 
A1 = −1, A2 = , A3 =  0 2 2 , A4 =  .
   
2 2 0 −3 −3 −3 
−3 −3 −3

4 4 4 4
Man berechne det(An ) für beliebiges n.
!
A B
Aufgabe 2.47 (V) Seien A, B, C, D reelle n × n-Matrizen und X = die durch sie in
C D
Blockschreibweise gegebene 2n × 2n-Matrix. Gelte AC = CA. Man zeige: det(X) = det(AD − CB),
wenn det(A) 6= 0.

Aufgabe 2.48 (V) Es seien a, a1 , ..., an ∈ IR. Beweisen Sie


 
a 0 ... 0 a1

 0 a 0 a2 


det  .. .. .. ..  = an+1 − an−1 (a2 + ... + a2 ).

 . . . .  1 n
 0 0 0 a an
 

a1 a2 ... an a

76
Aufgabe 2.49 (V) Zeigen Sie:
a) Der Rang der Matrix  
a 0 b 0
 0 a 0 b 
A=
 
c 0 a 0

 
0 c 0 a
ist stets eine gerade Zahl.
b) A ist genau dann invertierbar, wenn a2 6= bc ist.
c) Geben Sie in diesem Fall A−1 an.

77
3 Vektorräume
In diesem Kapitel werden wir die Theorie, welche wir bisher entwickelt haben (lineare Gleichungs-
systeme, lineare Unterräume, Matrizen, Determinanten), auf eine möglichst allgemeine, begriffliche
Grundlage stellen. Der Bezug zur geometrischen Vorstellung (=Realisierung im IRn ), der für das erste
Verstehen wahrscheinlich unerlässlich ist, wird dabei allerdings verloren gehen.

3.1 Gruppen
Definition 3.1 Eine Gruppe ist eine (nichtleere) Menge G zusammen mit einer Verknüpfungsopera-
tion
G×G → G
g, h 7→ g · h,
welche folgende Eigenschaften hat:
Assoziativität: Für alle g, h, k ∈ G ist
(g · h) · k = g · (h · k).
Existenz der Eins: Es gibt ein e ∈ G mit
e·g =g für alle g ∈ G.
Existenz des Inversen: Für alle g ∈ G gibt es ein g −1 ∈ G mit g −1 · g = e.
Die Gruppe heißt kommutativ oder abelsch, wenn zusätzlich gilt
g·h=h·g für alle g, h ∈ G.

Bevor wir aus diesen Eigenschaften Konsequenzen ziehen, beschreiben wir erst Beispiele von Grup-
pen, die wir schon kennen.
1) Die Menge IR mit der Addition +“ als Verknüpfung ist eine abelsche Gruppe. Es ist e = 0

und g −1 = −g. Diese Gruppe enthält die Untergruppen (Q, +) der rationalen und (ZZ, +) der ganzen
Zahlen.
2) Der Zahlenraum IRn mit der Addition +“ als Verknüpfung ist ebenfalls eine abelsche Gruppe.

Es ist e = 0 der Nullvektor und x−1 = −x.
3) Die Menge IR∗ := IR \ {0} der rellen Zahlen 6= 0 ist eine abelsche Gruppe mit der Multiplikation
·“ als Verknüpfung. Dabei ist e = 1 und g −1 = g1 .

4) Mit ZZn bezeichnen wir die endliche Menge {0, 1, ..., n − 1}. Die Addition modulo n
( ) (
g+h g+h≤n−1
g + h := wenn
g+h−n g+h≥n

definiert auf dieser Menge eine Verknüpfung, welche sie zu einer abelschen Gruppe macht. Es ist e = 0
und (
−1 0 wenn g = 0
g = .
n − g wenn g > 0

78
5) Die symmetrische Gruppe Σn ist die Menge aller Permutationen der Zahlen 1, ..., n mit der
Hintereinanderschaltung σ · τ = σ ◦ τ als Verknüpfung. Es ist e = id und σ −1 die Umkehrabbildung.
Diese Gruppe ist für n ≥ 3 nicht abelsch, da z.B.

(1, 2)(2, 3) = (1, 2, 3) 6= (1, 3, 2) = (2, 3)(1, 2).

6) Die allgemeine lineare Gruppe ist die Menge GL(n, IR) aller invertierbaren n × n-Matrizen mit
der Matrizenmultiplikation als Verknüpfung. Das Einselement ist e = 1ln , das Inverse ist die inverse
Matrix. Für n = 1 ist dies die abelsche Gruppe IR∗ , für n ≥ 2 ist GL(n, IR) nicht abelsch.
7) Die reelle orthogonale Gruppe ist die Menge

a1
 
 .. 
O(n, IR) = {A =  .  ∈ GL(n, IR) : a1 , ..., an bilden eine O-N-Basis des IRn }
an
= {A ∈ GL(n, IR) : A · At = 1ln }.

Sie ist eine Untergruppe der GL(n, IR), d.h., die Verknüpfung ist die Matrizenmultiplikation.
Wir betrachten die zwei-dimensionale
! orthogonale Gruppe O(2, IR) etwas genauer. Dies ist die
a b
Menge aller 2 × 2-Matrizen mit
c d
! ! ! !
a b a c a2 + b2 ac + bd 1 0
· = = .
c d b d ac + bd c2 + d2 0 1

Die Gleichungen
a2 + b2 = c2 + d2 = 1, ac + bd = 0
haben die Lösungen

(a, b) = (cos(ϕ), −sin(ϕ)), (c, d) = ±(sin(ϕ), cos(ϕ)), ϕ ∈ IR.

Also besteht O(2, IR) aus den Matrizen


!
cos(ϕ) −sin(ϕ)
(Drehmatrizen),
sin(ϕ) cos(ϕ)
!
cos(ϕ) −sin(ϕ)
−sin(ϕ) −cos(ϕ)
! !
1 0 cos(ϕ) −sin(ϕ)
= · (Spiegelung an der x2 -Achse ◦ Drehung).
0 −1 sin(ϕ) cos(ϕ)

8) Die konforme Gruppe C∗ ist die Menge


( ! ! )
a −b p cos(ϕ) −sin(ϕ)
= a2 + b2 ∈ GL(2, IR) = {r · A : 0 < r ∈ IR, A Drehmatrix}.
b a sin(ϕ) cos(ϕ)

Diese Matrizen beschreiben Drehstreckungen. Die Gruppe ist abelsch.

Wir stellen noch einige Konsequenzen aus den Gruppeneigenschaften zusammen:

79
(1) Die Eins e ∈ G mit der Eigenschaft e · g = g ( Linkseins“) ist auch eine Rechtseins“, d.h. es
” ”
gilt g · e = g für alle g ∈ G.
Beweis. Zu beliebigem g ∈ G gibt es das Inverse g −1 mit g −1 · g = e und dazu wieder ein Inverses
g 0 ∈ G mit g 0 · g −1 = e. Daraus folgt
g = e · g = (g 0 · g −1 ) · g = g 0 · e = g 0 · (e · e) = (g 0 · e) · e = g 0 · (g −1 · g) · e = (g 0 · g −1 ) · g · e = g · e.

(2) Das Linksinverse“ g −1 zu g mit der Eigenschaft g −1 · g = e ist auch ein Rechtsinverses“, d.h.
” ”
es gilt g · g −1 = e.
Beweis. Mit der Notation des vorhergehenden Beweises ist g = g 0 · e und wegen der Eigenschaft
(1) ist dies = g 0 . Also ist auch g · g −1 = g 0 · g −1 = e.
(3) Das Einselement e ist eindeutig bestimmt.
Beweis. Sei auch e0 ∈ G mit e0 · g = g für alle g ∈ G. Setzen wir g = e, so folgt daraus e0 · e = e.
Da e aber auch eine Rechtseins ist, gilt e0 · e = e0 .
(4) Das Inverse g −1 ist durch g eindeutig bestimmt.
Beweis. Es sei g −1 · g = g 0 · g = e. Wegen (2) ist dann
g −1 = (g −1 · g) · g −1 = e · g −1 = (g 0 · g) · g −1 = g 0 · (g · g −1 ) = g 0 .

(5) Kürzungsregel: Seien a, b, g ∈ G. Wenn g · a = g · b gilt, dann auch (Linksmutiplikation mit g −1 )


die Gleichung a = b. Aus a · g = b · g folgt (nach Rechtsmultiplikation mit g −1 ) die Gleichung
a = b.
(6) Lösbarkeit von Gleichungen: Zu beliebigen g, h ∈ G gibt es genau ein x ∈ G und ein y ∈ G mit

g · x = h ( nämlich x := g −1 · h, )
y · g = h ( nämlich y := h · g −1 .)

Aufgabe 3.1 Welche der folgenden Teilmengen von M (n × n) bilden eine Gruppe bezüglich der Ma-
trizenmultiplikation:
a) SL(n, IR) := {A ∈ GL(n, IR) : det(A) = 1},
b) die Menge ∆ aus Aufgabe 2.13
c) {A ∈ ∆ : det(A) 6= 0},
d) für festes B ∈ M (n × n) die Menge ZB := {A : AB = BA},
e) für festes B ∈ GL(n, IR) die Menge {A : ABAt = B}.
Aufgabe 3.2 Zeigen Sie, dass die folgende Menge unter der Matrizenmultiplikation eine Gruppe ist:
 
 ! A, B, C, D ∈ M (n × n), 
 A B 
Sp(2n) := ∈ M (2n × 2n) : AB t = BAt , CDt = DC t , .
C D
ADt − BC t = 1ln

 

80
3.2 Körper
Definition 3.2 Ein Körper ist eine (nichtleere) Menge K mit zwei kommutativen Rechenoperationen
+“ und ·“ (D.h. also x + y = y + x und x · y = y · x). Für diese Operationen muss gelten:
” ”
(a) K mit +“ ist eine abelsche Gruppe. (Das neutrale Element wird mit 0 ∈ K bezeichnet, und

das Inverse zu a ∈ K mit −a.)
(b) K ∗ := K \0 mit ·“ ist eine abelsche Gruppe. (Das neutrale Element wird mit 1 ∈ K bezeichnet,

und das Inverse zu 0 6= a ∈ K ist a1 .)
(c) Für alle a, b, c ∈ K gilt das Distributivgesetz

(a + b) · c = a · c + b · c.

Beispiele. 1. Die reellen Zahlen IR und die rationalen Zahlen Q mit den üblichen Rechenopera-
tionen bilden einen Körper.
2. Der Körper C der komplexen Zahlen: Als Menge ist C = IR2 = {(a, b) : a, b ∈ IR}. Statt (a, b)
schreibt man auch a + b · i. Die Addition ist die übliche Vektoraddition des IR2 . Damit ist (a) erfüllt.
Die Multiplikation wird definiert wie in der konformen Gruppe
( ! )
a −b
C∗ = : (0, 0) 6= (a, b) ∈ IR2 .
b a

Wegen der Formel


! ! !
a −b a0 −b0 aa0 − bb0 −(ab0 + a0 b)
· =
b a b0 a0 ab0 + a0 b aa0 − bb0

definiert man die Multiplikation also durch

(a + b · i) · (a0 + b0 · i) := aa0 − bb0 + (ab0 + a0 b) · i.

Da man natürlich i = 0 + 1 · i setzt, ist insbesondere

i2 = −1.

Beweis von (b). Die so definierte Multiplikation in C ist assoziativ, weil Multiplikation von Matrizen
assoziativ ist. Man sieht unmittelbar, dass sie kommutativ ist. Das Einselement ist 1 = 1 + 0 · i, weil
dieses Element zur Einheitsmatrix gehört (a = 1, b = 0). Die Inverse Matrix ist
!−1 !
a −b 1 a b
= 2 · .
b a a + b2 −b a

Also ist für 0 6= a + b · i ∈ C das Inverse


1
(a + b · i)−1 = (a − b · i).
a2 + b2

81
Beweis von (c). Ausgehend von der Definition berechnen wir

((a + a0 · i) + (b + b0 · i)) · (c + c0 · i) = (a + b + (a0 + b0 ) · i) · (c + c0 · i)


= (a + b)c − (a0 + b0 )c0 + ((a + b)c0 + (a0 + b0 )c) · i
(a + a0 · i) · (c + c0 · i) + (b + b0 · i) · (c + c0 · i) = ac − a0 c0 + (ac0 + a0 c) · i + bc − b0 c0 + (bc0 + b0 c) · i
= (a + b)c − (a0 + b0 )c0 + ((a + b)c0 + (a0 + b0 )c) · i.

In C gibt es die Konjugation


c=a+b·i 7→ c̄ = a − b · i.
Man benutzt sie, um den Betrag der komplexen Zahl c (die Länge des Vektors (a, b) )
p √
|c| = a2 + b2 = c · c̄

und ihr Inverses


1 1
= 2 c̄
c |c|
kürzer zu beschreiben.

3. Die endlichen Körper IFp (p eine Primzahl). Als Menge ist IFp die Teilmenge {0, 1, ..., p−1} ⊂ ZZ.
Die Operationen +“ und ·“ sind die übliche Addition und Multiplikation, aber modulo p genommen.
” ”
Bezeichnen wir die Zahl m ∈ ZZ, 0 ≤ m < p, aufgefasst als Element in IFp mit [m], so ist also

[m1 ] + [m2 ] = [m1 + m2 modulo p].

IFp mit der Addition ist eine abelsche Gruppe, die wir in Abschnitt 3.1 mit ZZp bezeichneten. Die
Multiplikation ist explizit definiert durch

[m] · [n] = [r] wenn r + k · p = m · n für ein k ∈ ZZ und 0 ≤ r < p.

Diese Multiplikation ist assoziativ und kommutativ, da dies für die Multiplikation in ZZ gilt, und das
neutrale Element ist [1] ∈ IFp . Auch die Distributivgesetze übertragen sich aus ZZ. Schwierigkeiten
macht nur die Existenz des Inversen für die Multiplikation mit 0 6= [m] ∈ IFp . Hierzu ist nachzuweisen,
dass die Multiplikation
IFp → IFp [n] 7→ [m] · [n]
surjektiv ist. Da IFp ein endliche Menge ist, genügt es zu zeigen, diese Abbildung ist injektiv, d.h.:

[n1 ], [n2 ] ∈ IFp mit [m] · [n1 ] = [m] · [n2 ] ⇒ [n1 ] = [n2 ].

Wegen des Distributivgesetzes genügt es, dafür zu zeigen

[m] · [n] = 0 ⇒ [n] = 0.

Nun bedeutet [m] · [n] = 0 ∈ IFp für die ganzen Zahlen m und n, dass mn durch p teilbar ist. Dabei
kann p nicht m teilen, weil 0 < m < p. Also muss der Primfaktor p die Zahl n teilen. Mit 0 ≤ n < p
folgt daraus [n] = 0.

Mit Elementen aus einem beliebigen Körper kann man genauso wie mit reellen Zahlen rechnen,
wenn man nichts anderes als die genannten Körpereigenschaften benutzt. Alles, was wir zu linearen

82
Gleichungssystemen, Matrizenmultiplikation, Determinanten gesehen haben, gilt deswegen über belie-
bigen Körpern! Mit einer einzigen Ausnahme: Im Abschnitt 2.6 (Beweis des Korollars 1 zu Satz 2.14)
haben wir benutzt, dass 12 ∈ IR. Im Körper IF2 ist 2 = 0 und das Element 2 besitzt hier kein Inverses.
Das Element 12 existiert in IF2 nicht. Die in 2.6 gegebene Argumentation wäre über diesem Körper
falsch.
Auch eine Aussage wie x2 ≥ 0 für x ∈ IR“ folgt nicht aus den Körpereigenschaften. Über anderen

Körpern als IR ist sie in der Regel sinnlos. Deswegen gibt es das Skalarprodukt (Abschnitt 1.5) in dieser
Form nur im IRn , nicht über beliebigen Körpern. Auch der damit zusammenhängende Abschnitt 2.1
(Bewegungen in IRn ) ist nicht auf andere Körper als IR verallgemeinerbar.
Über einem beliebigen Körper K gelten dagegen

Kapitel 1
Satz 1.1 Zeilenstufenform durch elementare Zeilenumformungen
Satz 1.2 Mehr Unbekannte als Gleichungen
Satz 1.3 Alle Lösungen des inhomogenen Systems ...
Satz 1.4-7 Geraden in K n

Kapitel 2
Satz 2.13 Eindeutigkeit der Determinante
Satz 2.14-17 Eigenschaften der Determinante

Aufgabe 3.3 a) Bestimmen Sie alle Zahlen ω ∈ C mit ω 3 = 1 in der Form ω = a + ib.
b) Bestimmen Sie ebenso alle ρ ∈ C mit ρ8 = 1.

Aufgabe 3.4 (V) Es sei U die Menge der komplexen 2 × 2-Matrizen


!
a b
−b̄ ā

mit a, b ∈ C und aā + bb̄ > 0. Zeigen Sie, dass U bezüglich der Matrizenmultiplikation eine Gruppe ist.

Aufgabe 3.5 Zeigen Sie, dass die gebrochen-linearen Funktionen


ax + b
f : IR \ {−d/c} → IR, x 7→ , ad − bc 6= 0,
cx + d
bezüglich Hintereinanderschaltung eine Gruppe bilden.

83
3.3 Vektorräume
Ein Vektorraum ist eine Verallgemeinerung des Zahlenraums IRn . Er ist eine Menge, in der alle Ope-
rationen der Vektorrechnung so, wie in Kapitel 1, verwendbar sind.

Definition 3.3 Ein Vektorraum über dem Körper K (oder kürzer ausgedrückt: ein K-Vektorraum) ist
eine abelsche Gruppe V (Gruppenoperation +“ geschrieben, mit neutralem Element 0 ∈ V ) zusammen

mit einer Operation
K × V → V, c, v 7→ c · v
von K auf V , für die gilt:

(a) c1 · (c2 · v) = (c1 c2 ) · v (Assoziativität)


für alle c1 , c2 ∈ K, v ∈ V,

(b) (c1 + c2 ) · v = c1 · v + c2 · v (Distributivität)


c · (v1 + v2 ) = c · v1 + c · v2 (Distributivität)
für alle c1 , c2 , c ∈ K, v, v1 , v2 ∈ V ,

(c) 1 · v = v für alle v ∈ V .

Aus den Distributivgesetzen folgt für alle v ∈ V :


0 · v = (0 + 0) · v = 0 · v + 0 · v ⇒ 0 · v = 0 ∈ V,
v + (−1) · v = (1 − 1) · v = 0 · v = 0 ⇒ (−1) · v = −v.
Beispiele. 1. Der Zahlenraum IRn ist ein Vektorraum über dem Körper IR. Jeder lineare Unterraum
U ⊂ IRn ist ein Vektorraum über IR. Ebenso ist für einen beliebigen Körper K der Raum

Kn = K
|
× ...
{z
× K} = {(x1 , ..., xn ) : x1 , ..., xn ∈ K}
n mal
ein Vektorraum über K.

2. IR∞ sei die Menge aller unendlichen Folgen

(aν )ν∈IN = (a1 , a2 , a3 , ....), aν ∈ IR.

Genau wie Vektoren im IRn können wir auch Folgen komponentenweise addieren und mit reellen
Zahlen multiplizieren. Dadurch wird IR∞ ein Vektorraum über IR.

3. Der Hilbertraum

l2 (IR) = {(aν ) ∈ IR∞ :


X
a2ν konvergent }
N
X
= {(aν ) : es existiert ein M ∈ IR so, dass für alle N ∈ IN gilt: a2ν < M }
1

der quadratsummierbaren reellen Folgen ist ein Vektorraum über IR. Addition von Vektoren und
Multiplikation mit Körperelementen sind komponentenweise definiert:

(aν ) + (a0ν ) = (aν + a0ν ), c · (aν ) = (c · aν ).

84
Natürlich müssen wir hier zeigen, dass c · (aν ) und (aν ) + (a0ν ) wieder zu l2 (IR) gehören:
Wenn für alle N ∈ IN gilt N a2 < M , dann ist N 2 2
1 (caν ) < c M für alle N . Wenn für alle N ∈ IN
P P
PN 2 PN 1 0 ν2 0
gilt, dass 1 aν < M und 1 (aν ) < M , dann zeigt die Cauchy-Schwarz-Ungleichung, dass
v v
N uN uN

0
X uX uX
aν aν ≤ t a2ν · t (a0ν )2 ≤ M · M 0 .
1 1 1

Daraus erhalten wir


N N N N √
(aν + a0ν )2 = aν a0ν + (a0ν )2 ≤ M + 2 M · M 0 + M 0
X X X X
a2ν + 2
1 1 1 1

für alle N ∈ IN.


Analog ist der Raum

X
l2 (C) = {(aν ) : aν ∈ C, |aν |2 konvergent }
1

der quadratsummierbaren Folgen komplexer Zahlen ein Vektorraum über C.

4. Auch Funktionen können Vektorräume bilden. Zum Beispiel sind


C 0 [a, b] Raum der stetigen Funktionen auf [a, b] ⊂ IR,
C q (a, b) Raum der q-mal stetig differenzierbaren Funktionen auf (a, b) ⊂ IR,
Vektorräume über IR. Und Pn
K[X] Raum der Polynome a X ν , n ∈ IN, aν ∈ K,
P0d ν ν
Kd [X] Raum der Polynome 0 aν X , aν ∈ K, vom Grad ≤ d,
sind Vektorräume über K.

5. Sind V1 und V2 Vektorräume über K, so ist auch ihr kartesisches Produkt

V1 × V2 = {(v1 , v2 ) : v1 ∈ V1 , v2 ∈ V2 }

mit komponentenweiser Definition der Vektorrechenoperationen

(v1 , v2 ) + (v10 , v20 ) = (v1 + v10 , v2 + v20 )


c · (v1 , v2 ) = (c · v1 , c · v2 )

ein K-Vektorraum.

Definition 3.4 Eine Abbildung Φ : V1 → V2 des K-Vektorraums V1 in den K-Vektorraum V2 heißt


linear (genauer K-linear), wenn

Φ(s · x + t · y) = s · Φ(x) + t · Φ(y)

für alle x, y ∈ V1 , s, t ∈ K gilt.

Diese Art von Abbildungen ist uns vom Zahlenraum IRn her wohlbekannt.

85
Definition 3.5 Zwei Vektorräume V1 und V2 heißen isomorph, wenn es eine bijektive lineare Abbil-
dung Φ : V1 → V2 gibt. Dann ist auch die Umkehrabbildung Φ−1 bijektiv und linear. Eine bijektive
lineare Abbildung heißt Isomorphismus.

Isomorphe Vektorräume können mit den Mitteln der linearen Algebra voneinander nicht unter-
schieden werden. (Das Fremdwort isomorph soll ja auch so etwas ausdrücken: gleichförmig, gleichartig,
gleich(?) ). Zwei Geraden IR · v und IR · w im IRn sind als Teilmengen des IRn verschieden, falls v und
w linear unabhängig sind. Die lineare Ausdehnung der Zuordnung v 7→ w ist aber ein Isomorphismus
zwischen diesen beiden Vektorräumen. Auf sich allein gestellt, als abstrakte Vektorräume, unabhängig
von ihrer Einbettung in den IRn sind diese beiden Geraden nicht zu unterscheiden.
Beispiele. 1. Der Vektorraum
d
X
Kd [X] = { aν X ν : aν ∈ K}
0

ist isomorph mit K d+1 unter der linearen Abbildung


d
X
Φ: aν X ν 7→ (a0 , ..., ad ).
0

2. Jede invertierbare lineare Abbildung Φ : IRn → IRn ist ein Isomorphismus. Der IR-Vektorraum
IRn ist also nicht von sich selbst zu unterscheiden (nicht ganz unerwartet), aber das auf so viele
verschiedene Weisen, wie es invertierbare n × n-Matrizen gibt!

Eine (endliche oder unendliche) Folge v1 , v2 , ... von Vektoren vk ∈ V heißt linear unabhängig,
wenn sie dem folgenden (aus IRn wohlbekannten) Test genügt: Für alle n ∈ IN und c1 , ..., cn ∈ K gilt

n
X
ck vk = 0 ⇒ c1 = c2 = ... = cn = 0.
1

Beispiel. In V = C 0 [0, 1] betrachten wir die Folge der Monome 1, x, x2 , ... xk , ... Dieses System
ist linear unabhängig:
n n
!
X
k 1 dk X
ν

ck x = 0 ⇒ ck = · cν x = 0.

0
k! dxk 0

x=0

Definition 3.6 Eine Folge v1 , v2 , ... von Vektoren vk ∈ V heißt Basis von V , wenn sie
1) linear unabhängig ist,
2) den Vektorraum V aufspannt. (D.h., jedes v ∈ V ist eine endliche Linearkombination n1 ck vk
P

mit ck ∈ K).
Die Länge einer Basis von V heißt Dimension von V , in Zeichen dimK (V ). (Wie in Kapitel 1
zeigt man, dass die Länge einer Basis für einen Vektorraum V unabhängig von der Auswahl dieser
Basis ist.)

Beispiel. dimIR (Cn ) = 2n.

86
Satz 3.1 Jeder endlich-dimensionale K-Vektorraum V ist isomorph zu K n mit n = dimK (V ).
Beweis. Ist v1 , ..., vn ∈ V eine Basis für V , so definieren wir eine Abbildung Φ : K n → V durch
Φ(c1 , ..., cn ) := c1 v1 + ... + cn vn .
Dann folgen Linearität:
Φ(cc1 , ..., ccn ) = cc1 v1 + ... + ccn vn
= c(c1 v1 + ... + cn vn )
= cΦ(c1 , ..., cn ),
Φ(b1 + c1 , ..., bn + cn ) = (b1 + c1 )v1 + ... + (bn + cn )vn
= b1 v1 + ... + bn vn + c1 v1 + ... + cn vn
= Φ(b1 , ..., bn ) + Φ(c1 , ..., cn ),
Injektivität:
Φ(c1 , ..., cn ) = 0 ⇒ c1 v1 + ... + cn vn = 0
⇒ c1 = ... = cn = 0,
da v1 , ..., vn linear unabhängig.
Surjektivität: weil v1 , ..., vn den Vektorraum V aufspannen.

Für endlich-dimensionale K-Vektorräume gelten also die für lineare Unterräume des IRn wohlbe-
kannten Tatsachen:

Kapitel 1
Satz 1.8,9 Test auf lineare (Un-)Abhängigkeit
Satz 1.10-13 Basen

Kapitel 2
Satz 2.4 Prinzip der linearen Ausdehnung
Satz 2.6 Quadratische Matrizen

Aufgabe 3.6 Welche der folgenden Systeme von Funktionen fν , ν ∈ IN, sind linear unabhängig (als
Vektoren im Vektorraum C ∞ (IR)):
a) fν = eνx ,
b) fν = x2 + 2νx + ν 2 ,
1
c) fν = ν+x 2.

Aufgabe 3.7 Es sei a 6= b ∈ IR. Betrachten Sie die acht Teilmengen von Funktionen f ∈ C ∞ (IR),
definiert durch die Bedingungen
a) f (a) = 0 = f (b), b) f (a) = 1 = f (b),
c) f (a) = f (b), d) f (a) 6= f (b),
e) f ist injektiv, f ) f ist surjektiv,
g) f ist beschränkt, h) f 00 + af = 0.
Welche dieser Mengen sind Untervektorräume von C ∞ (IR)?

87
Aufgabe 3.8 (NV) Es sei K ein endlicher Körper mit p Elementen und V ein zweidimensionaler
Vektorraum über K.
a) Wieviele Elemente hat V ?
b) Wieviele lineare Abbildungen von V in sich gibt es?
c) Wieviele dieser Abbildungen sind bijektiv?
d) Geben Sie für p = 2 die Matrizen aller bijektiven linearen Abbildungen von V in sich an.

Aufgabe 3.9 (V) Gegeben sei die Matrix


 
2 0 0 0
 1 2 0 0 
M = .
 
 0 0 2 0 
0 0 0 5

Man gebe die Dimension von span{M k : k ≥ 0} im reellen Vektorraum aller 4 × 4-Matrizen an.

Aufgabe 3.10 (V) Untersuchen Sie, ob die Menge


{1 − cos x − sin x, 1 − cos, 4x, sin 2x}
von Funktionen aus dem reellen Vektorraum der Funktionen von IR nach IR linear unabhängig ist.

Aufgabe 3.11 (V) Es sei V ein k-dimensionaler Unterraum von K n . Gibt es dann k natürliche
Zahlen i1 , ..., ik aus {1, ..., n}, so dass die Abbildung
V → Kk, (x1 , ..., xn ) 7→ (xi1 , ..., xik )
ein Isomorphismus ist?

Aufgabe 3.12 (V) Sei p eine Primzahl und IFp der Körper mit p Elementen. Wieviele 2-dimensionale
IFp -Unterräume hat IF3p ?

Aufgabe 3.13 (V) Bekanntlich trägt Cn die Struktur eines Vektorraumes über dem Körper C, aber
auch über dem Körper IR.
a) Ergänzen Sie die Vektoren b1 = (1, 0, 1) und b2 = (1, −1, 0) zu einer Basis des C-Vektorraums C3
und zu einer Basis des IR-Vektorraums C3 .
b) Die Abbildung h : Cn → IRm sei eine lineare Abbildung der IR-Vektorräume Cn und IRm . Zeigen
Sie, dass
f : Cn → Cm , f (x) = h(x) − ih(ix)
eine lineare Abbildung der C-Vektorräume Cn und Cm ist.
c) Sei nun f : Cn → Cm eine lineare Abbildung der C-Vektorräume Cn und Cm . Zeigen Sie, dass es
eine lineare Abbildung h : Cn → IRm der IR-Vektorräume Cn und IRm gibt, so dass f (x) = h(x)−ih(ix)
für alle x ∈ Cn .

Aufgabe 3.14 (V) Sei K ein Körper und seien f1 , ..., fn ∈ K[X] Polynome vom Grad n − 2 (2 ≤
n ∈ IN). Zeigen Sie, dass für alle x1 , ..., xn ∈ K gilt
f1 (x1 ) ... fn (x1 )
 

det  .. ..
 = 0.
 
. .
f1 (xn ) ... fn (xn )

88
Aufgabe 3.15 (V) Sei n ∈ IN, n ≥ 1. Zeigen Sie, dass die Funktionen

1, sin x, sin 2x, ..., sin nx

linear unabhängig über IR sind.

Aufgabe 3.16 (V) Es sei K ein Körper, V ein endlich-dimensionaler K-Vektorraum und f : V → V
ein Endomorphismus vom Rang 1. Man beweise:
a) Es gilt f 2 = λf mit einem eindeutig bestimmten Skalar λ aus K.
b) Es gilt (
dim(V ), falls λ 6= −1,
rang(idV + f ) =
dim(V ) − 1, falls λ = −1.

Aufgabe 3.17 (V) Als Anwendung der letzten Aufgabe leite man eine notwendige und hinreichende
Bedingung für die Invertierbarkeit der n × n-Matrix

1 + a21 a1 a2
 
... a1 an

 a2 a1 1 + a22 ... a2 an 

A= .. .. ..  mit a1 , ..., an ∈ K

 . . .


an a1 ... 1 + a2n

her.

3.4 Untervektorräume und Quotientenvektorräume


Definition 3.7 Es sei V ein Vektorraum über dem Körper K. Eine nichtleere Teilmenge U ⊂ V heißt
K-Untervektorraum, wenn

u1 , u2 ∈ U, c1 , c2 ∈ K ⇒ c1 u1 + c2 u2 ∈ U.

Ein K-Untervektorraum U ⊂ V ist mit den Rechenoperationen aus V selbst ein K-Vektorraum.
Die folgenden Beispiele haben wir bereits kennengelernt:

• lineare Unterräume U ⊂ IRn ,

• l2 (IR) ⊂ IR∞ ,

• wenn A = {a1 , a2 , ...} ⊂ V eine (endliche oder unendliche) Teilmenge eines K-Vektorraums ist,
so ist die Menge aller endlichen Linearkombinationen
k
X
span(A) = { cν aν : cν ∈ K, aν ∈ A}
1

ein Untervektorraum von V ,

89
• wenn U1 , U2 ⊂ V Untervektorräume sind, dann ist auch

U1 + U2 := span(U1 ∪ U2 ) = {u1 + u2 : u1 ∈ U1 , u2 ∈ U2 }

ein Untervektorraum von V und ebenso U1 ∩ U2 ,

• Für jeden Vektor v 6= 0 aus V ist span(v) = K · v, die Gerade durch v ein Untervektorraum
von V .

Die folgenden Eigenschaften linearer Unterräume U ⊂ IRn gelten auch für K-Untervektorräume
U ⊂ V eines endlich-dimensionalen K-Vektorraums V , da sich ihr Beweis wörtlich überträgt:

Kapitel 1
Satz 1.14,15 Dimensionsformeln
Satz 1.17 Lösungen linearer Gleichungssysteme und Zeilenrang der Koeffizientenmatrix

Kapitel 2
Matrizenrechnung
Satz 2.6 Quadratische Matrizen
Satz 2.7 Rang(A) = Rang(At )

Ein fester Untervektorraum U ⊂ V definiert folgendermaßen eine Relation ∼ auf der Menge V :

x∼y ⇔ x − y ∈ U.
!
1
⊂ IR2 .
!
Beispiel. U = IR · 1
1 y 1
! ! ! ! BM
x1 y1 x1 − y1 1 xP
∼ ⇔ =c· , c ∈ IR iP B 
x2 y2 x2 − y2 1 PB
⇔ x1 − y1 = x2 − y2
⇔ x1 − x2 = y1 − y2 V = IR2
U

Diese Relation ist eine Äquivalenzrelation, d.h., sie hat die Eigenschaften:

Reflexivität: x ∼ x für alle x ∈ V (weil 0 ∈ U )


Symmetrie: x ∼ y ⇒ y ∼ x für alle x, y ∈ V (weil y − x = −(x − y) ∈ U )
Transitivität: x ∼ y und y ∼ z ⇒ x ∼ z (weil x − z = (x − y) + (y − z) ∈ U )

Jeder Vektor x ∈ V definiert seine Äquivalenzklasse

{v ∈ V : v ∼ x} = x + U ⊂ V.

Die Menge aller Äquivalenzklassen bezeichnen wir mit V /U.

90
Satz 3.2 a) Die Vereinigung aller Äquivalenzklassen x + U ist der gesamte Vektorraum V.
b) Der Durchschnitt zweier verschiedener Äquivalenzklassen ist leer.
c) Auf der Menge V /U = {x + U : x ∈ V } kann man die Struktur eines K-Vektorraums ( Quotien-

tenraum“ ) definieren, und zwar durch:

Addition: (x + U ) + (y + U ) := (x + y) + U
Multiplikation: c · (x + U ) := (c · x) + U für c ∈ K.

Beweis. a) Wegen x ∈ x + U (Reflexivität) ist


[ [
V = {x} ⊂ (x + U ).
x∈V x∈V

b) Wenn x + U ∩ y + U 6= ∅, dann gibt es also einen Vektor v ∈ x + U ∩ y + U . Für diesen Vektor gilt
v = x + u1 = y + u2 mit u1 , u2 ∈ U. Daraus folgt x − y = u2 − u1 ∈ U, also x ∼ y.
c) Zuerst ist nachzuweisen, dass unsere Definitionen der Addition und Multiplikation überhaupt sinn-
voll sind. Für die Addition von Restklassen bedeutet das Folgendes: Aus der Restklasse x + U nehmen
wir einen Vektor x her. Genauso gut hätten wir einen anderen Vektor x0 ∈ x + U nehmen können.
Und statt y ∈ y + U hätten wir auch hier einen anderen Vektor y0 ∈ y + U nehmen können. Dann
hätten wir als Summe der beiden Restklassen die Klasse

(x0 + y0 ) + U

definiert. Es ist zu zeigen, dass


(x + y) + U = (x0 + y0 ) + U
gilt. Wegen x0 ∈ x + U, y0 ∈ y + U ist aber

x0 = x + u1 , y0 = y + u2

mit u1 , u2 ∈ U . Daraus folgt dann tatsächlich

(x0 + y0 ) + U = (x + u1 + y + u2 ) + U = (x + y) + (u1 + u2 ) + U = (x + y) + U.

Der Beweis bei der Multiplikation geht ganz genau so.


Und weiter hilft alles nichts, wir müssen für die Menge V /U der Äquivalenzklassen und die darauf
definierte Addition und Multiplikation mit Körperelementen die Vektorraumeigenschaften nachprüfen.

Assoziativität der Addition: ((x + U ) + (y + U )) + (z + U ) = (x + y + z) + U =


= (x + U ) + ((y + U ) + (z + U )),
Kommutativität der Addition: (x + U ) + (y + U ) = (x + y) + U == (y + x) + U =
= (y + U ) + (x + U ),
Null: (x + U ) + (0 + U ) = x + U,
| {z }
=U
Negatives: (x + U ) + (−x + U ) = 0 + U = U,
Distributivgesetze: (c1 + c2 )(x + U ) = ((c1 + c2 )x) + U = (c1 x + c2 x) + U =
= c1 (x + U ) + c2 (x + U ),
c((x + y) + U ) = c(x + y) + U = (cx + cy) + U =
= (cx + U ) + (cy + U ),
(c1 c2 )(x + U ) = (c1 c2 x) + U = c1 (c2 x + U ),
Eins: 1 · (x + U ) = (1 · x) + U = x + U.

91
Satz 3.3 (Dimensionsformel) Ist V ein endlich-dimensionaler Vektorraum und U ⊂ V ein Unter-
vektorraum, so ist
dim(V ) = dim(U ) + dim(V /U ).

Beweis. Nach dem Basisatz existiert eine Basis u1 , ..., ud für U , die wir nach dem Basis-Ergän-
zungssatz zu einer Basis u1 , ..., ud , vd+1 , ..., vn von V ergänzen können. Die Formel ergibt sich, wenn
wir zeigen können, dass die Äquivalenzklassen vd+1 + U, ..., vn + U eine Basis des Quotientenraums
V /U bilden.
Aufspannen: Ist (v + U ) ∈ V /U eine beliebige Äquivalenzklasse, so schreiben wir
d
X n
X
v= ck uk + ck vk
1 d+1

und erhalten daraus


v+U = cd+1 vd+1 + ... + cn vn + ((c1 u1 + ... + cd ud ) + U )
| {z }
∈U
= (cd+1 vd+1 + ... + cn vn ) + U
= cd+1 (vd+1 + U ) + ... + cn (vn + U ).
Pn
Lineare Unabhängigkeit: Wenn d+1 (ck vk + U ) = 0 ∈ V /U gilt, dann folgt
n
X
( ck vk ) + U = U
d+1
n
X
ck vk ∈ U
d+1
n
X d
X
ck vk = ck uk
d+1 1
d
X n
X
(−ck )uk + ck vk = 0
1 d+1
c1 = ... = cd = cd+1 = ... = cn = 0.

Aufgabe 3.18 (V) Sei V ein n-dimensionaler Vektorraum über einem Körper K. Sei v1 , ..., vn eine
Basis von V und W der von v1 + ... + vn erzeugte Untervektorraum von V . Man bestimme eine Basis
des Quotientenvektorraums V /W .

Aufgabe 3.19 (V) Es seien U, U 0 lineare Teilräume eines Vektorraums V und x, x0 ∈ V . Wir schrei-
ben x + U für {x + u| u ∈ U }. Man zeige
x + U ⊂ x0 + U 0 ⇐⇒ U ⊂ U 0 und x0 − x ∈ U 0 .

Aufgabe 3.20 (V) Sei U ⊂ IR4 der Untervektorraum des IR4 , der von den Vektoren u1 = (1, 2, −1, 1)
und u2 = (−1, −2, 1, −2) erzeugt wird, und V ⊂ IR4 der Untervektorraum des IR4 , der von v1 =
(1, 2, −1, −2), v2 = (−1, 3, 0, −2) und v3 = (2, −1, −1, 1) erzeugt wird. Zeigen Sie, dass U ein Unter-
vektorraum von V ist, und geben Sie eine Basis des Raums V /U an.

92
3.5 Lineare Abbildungen
In 3.3 haben wir den Begriff der linearen Abbildung Φ : IRm → IRn durch die folgende Definition
verallgemeinert.

Definition 3.8 Es seien V und W zwei K-Vektorräume. Eine Abbildung Φ : V → W heißt K-linear,
wenn für alle x, y ∈ V und c1 , c2 ∈ K gilt

Φ(c1 x + c2 y) = c1 Φ(x) + c2 Φ(y).

Beispiele. 1) Es sei V = W = C ∞ (IR) der Vektorraum der beliebig oft differenzierbaren reellen
Funktionen. Dann ist die Differentiationsabbildung
(
C∞ → C∞
Φ: df
f 7→ dx

IR-linear.
2) Es sei V = C 0 [a, b] der IR-Vektorraum der stetigen Funktionen auf dem Intervall [a, b] ⊂ IR und
W = IR. Dann ist die Integrationsabbildung
(
C 0 → IR
Φ:
f 7→ ab f (t)dt
R

IR-linear.
3) (Prinzip der linearen Ausdehnung) Es seien v1 , ..., vm eine Basis des K-Vektorraums V und
w1 , ..., wn eine Basis des K-Vektorraums W . Für jeden Vektor v = m 1 cµ vµ ∈ V ist das Bild unter
P

einer linearen Abbildung Φ : V → W,


m
X X
Φ(v) = Φ( cµ vµ ) = cµ Φ(vµ )
1

eindeutig bestimmt durch die Bilder Φ(vµ ) ∈ W der Basisvektoren vµ ∈ V . Und zu jeder möglichen
Wahl dieser Bildvektoren Φ(vµ ) gibt es eine lineare Abbildung Φ. Entwickeln wir diese Bildvektoren
in der Basis w1 , ..., wn des Vektorraums W :
n
X
Φ(vµ ) = aν,µ wν ,
ν=1
Pm
so ist das Bild von v = 1 cµ vµ
m
X n X
X m
Φ(v) = Φ( cµ vµ ) = ( aν,µ cµ )wν .
1 ν=1 µ=1

Zur Abbildung Φ gehört die n × m-Matrix

A = (aν,µ )
ν=1,...,n: Zeile
µ=1,...,m: Spalte

mit Einträgen aus dem Körper K. Wir halten fest:

93
Basisvektor vµ ∈ V abbilden, a1,µ
 
Bildvektor Φ(vµ ) ∈ W entwickeln  .. 
⇒ µ-ten Spaltenvektor  .  der Matrix A
in der Basis w1 , ..., wn ∈ W :
Φ(vµ ) = n1 aν,µ wν
P an,µ

c1 Entwicklungskoeffizienten m
  P
a c
 ..  Pm µ=1 ν,µ µ
Matrixprodukt A· .  ⇒ des Bildvektors Φ( 1 cµ vµ )
cm in der Basis w1 , ..., wn ∈ W

Definition 3.9 Mit M (m × n, K) bezeichnen wir von jetzt an die Menge der m × n-Matrizen mit
Einträgen aus dem Körper K. Die bisher mit M (m × n) bezeichnete Menge heißt also von jetzt an
M (m × n, IR).

Satz 3.4 a) Die Menge aller K-linearen Abbildungen Φ : V → W ist ein K-Vektorraum. Wir be-
zeichnen ihn mit HomK (V, W ).
b) M (n × m, K) ist ein K-Vektorraum der Dimension m · n.
c) Jede Wahl von Basen v1 , ..., vn ∈ V und w1 , ..., wm ∈ W definiert einen K-Isomorphismus

HomK (V, W ) → M (n × m, K),

nämlich die Zuordnung, welche jeder linearen Abbildung ihre Matrix (bezüglich der gewählten Basen)
zuordnet.

Beweis. a) Die Addition linearer Abbildungen Φ, Ψ : V → W wird durch

(Φ + Ψ)(x) := Φ(x) + Ψ(x)

definiert und die Multiplikation mit Skalaren c ∈ K durch

(c · Φ)(x) := c · Φ(x).

Es ist einfach, alle Vektorraumeigenschaften nachzurechnen.


b) M (n × m, K) ist nur eine andere Schreibweise für K n·m .
c) Dass die Zuordnung Φ 7→ A eine K-lineare Abbildung HomK (V, W ) → M (n × m, K) ist, folgt
sofort aus den Definitionen.
Injektivität: Die einzige lineare Abbildung Φ : V → W, die zur Nullmatrix gehört, ist die Nullab-
bildung.
Surjektivität: Jede Matrix A gehört zu einer linearen Abbildung wegen des Prinzips der linearen
Ausdehnung.

Es sei Φ : V → W linear. Wie in 2.2 (Satz 2.5, Bildsatz) beweist man: Die Menge

Φ(V ) := {Φ(v) ∈ W : v ∈ V } ⊂ W

ist ein Untervektorraum von W . Er heißt auch das Bild, oder der Bildraum von Φ, in Zeichen Bild(Φ).
Seine Dimension (notwendig ≤ dim(V )) heißt Rang der linearen Abbildung Φ.

94
Bemerkung. Bei jeder Auswahl von Basen für V und W ist der Rang der Φ beschreibenden Matrix
gleich dem Rang der linearen Abbildung Φ.
Beweis. Sei v1 , ..., vm eine Basis von V und w1 , ..., wn eine Basis von W , sei A = (aν,µ ) die
Φ : V → W beschreibende Matrix in diesen Basen. Unter dem K-Isomorphismus

x1
 
n
 ..  X
K n → W,  . → 7 xν wν
ν=1
xn

wird der µ-te Spaltenvektor der Matrix A auf den Bildvektor Φ(vµ ) abgebildet (Definition der Matrix
A zur Abbildung Φ). Der Spaltenraum der Matrix A wird also surjektiv auf den Unterraum von W
abgebildet, der von den Bildvektoren Φ(vµ ), µ = 1, ..., m, erzeugt wird. Dies ist der Bildraum Φ(V ). Da
K n → W ein Isomorphismus ist, wird der Spaltenraum ⊂ V injektiv abgebildet. Insgesamt haben wir
eine injektive und surjektive lineare Abbildung des Spaltenraums von A auf den Vektorraum Bild(Φ),
also einen K-Isomorphismus. Dabei bleibt die Dimension erhalten.

Ein Gegenstück zu Bild(Φ) ist

Kern(Φ) := {v ∈ V : Φ(v) = 0} ⊂ V.

Kern(Φ) ist ein Untervektorraum von V , denn wenn v1 , v2 ∈ Kern(Φ), d.h., wenn Φ(v1 ) = Φ(v2 ) = 0,
dann ist für alle c1 , c2 ∈ K auch Φ(c1 v1 + c2 v2 ) = c1 Φ(v1 ) + c2 Φ(v2 ) = 0.

Satz 3.5 a) (Dimensionsformel) Es ist

dim(V ) = dim(Kern(Φ)) + dim(Bild(Φ)).

b) (Homomorphiesatz) Die Zuordnung

V /Kern(Φ) 3 v + Kern(Φ) 7→ Φ(v) ∈ Bild(Φ)

definiert einen Isomorphismus


V /Kern(Φ) → Bild(Φ).

Beweis. Wegen der Dimensionsformel (Satz 3.3) ist dim(V /Kern(Φ)) = dim(V ) − dim(Kern(Φ)).
Deswegen folgt Aussage a) aus Aussage b) des Satzes.
Zum Beweis von b) müssen wir zunächst sehen, dass die angegebene Abbildung Φ̃ : V /Kern(Φ) →
Bild(Φ) wohldefiniert ist, d.h.: wenn v+Kern(Φ) = v0 +Kern(Φ) gilt, dann müssen wir Φ(v) = Φ(v0 )
zeigen. Aber dies folgt natürlich sofort aus v − v0 ∈ Kern(Φ).
Linearität von Φ̃:
Φ̃(c1 v1 + c2 v2 + Kern(Φ)) = Φ(c1 v1 + c2 v2 ) =
= c1 Φ(v1 ) + c2 Φ(v2 ) = c1 Φ̃(v1 + Kern(Φ)) + c2 Φ̃(v2 + Kern(Φ)).
Surjektivität von Φ̃:

w ∈ Bild(Φ) ⇒ w = Φ(v) = Φ̃(v + Kern(Φ)) ∈ Bild(Φ̃).

Injektivität von Φ̃:

Φ̃(v + Kern(Φ)) = 0 ⇒ Φ(v) = 0 ⇒ v ∈ Kern(Φ) ⇒ v + Kern(Φ) = Kern(Φ) = {0} ∈ V /Kern(Φ).

95
Beispiel. Die lineare Abbildung Φ : IR3 → IR3 werde bezüglich der Standardbasis e1 , e2 , e3 ∈ IR3
durch die Matrix  
0 1 0
 0 0 1 
 
0 0 0
gegeben. Dann ist

Kern(Φ) = {x ∈ IR3 : A · x = 0}
= {x ∈ IR3 : x2 = x3 = 0}
= span(e1 ),
Bild(Φ) = {y ∈ IR3 : y = A · x für ein x ∈ IR3 }
    

 y1 x2 
3 
= y ∈ IR :  y2  =  x3 
  
 
 y3 0 

= {y ∈ IR3 : y3 = 0}
= span(e1 , e2 )

Es ist also dim(Kern(Φ)) = 1 und dim(Bild(Φ)) = 2, und die Summe beider Dimensionen ist drei, in
Übereinstimmung mit Satz 3.5 a).

Aufgabe 3.21 Bestimmen Sie Bild und Kern der linearen Abbildungen IR4 → IR4 , die durch folgende
Matrizen gegeben werden:
     
1 −1 0 0 0 0 0 1 1 −1 1 1
 1 1 0 0   1 1 0 0   0 1 −1 0 
a)  , b)  , c)  .
     
 5 0 −1 0   1 0 1 0   1 0 0 1 
0 0 2 1 0 0 0 1 2 1 −1 2

Aufgabe 3.22 Es seien Φ, Ψ : K n → K n zwei lineare Abbildungen. Zeigen Sie

rg(Φ) + rg(Ψ) − n ≤ rg(Φ ◦ Ψ) ≤ min{rg(Φ), rg(Ψ)}

und folgern Sie daraus für invertierbares Ψ

rg(Φ ◦ Ψ) = rg(Φ).

Aufgabe 3.23 (Lagrange-Interpolation) Es sei V der IR-Vektorraum aller Polynome mit reellen
Koeffizienten vom Grad ≤ n. Weiter seien t0 , ..., tn paarweise voneinander verschiedene reelle Zahlen
und Y x − tν
Pi (x) := ∈ V (i = 0, ..., n).
t − tν
ν6=i i

a) Zeigen Sie, dass P0 , ..., Pn eine Basis von V bilden.


b) Geben Sie für die IR-lineare Abbildung

V → IRn+1 , P 7→ (P (t0 ), ..., P (tn ))

96
die zugehörige Matrix bezüglich der Basen 1, x, ..., xn von V und e1 , ..., en+1 von IRn+1 an.
c) Zeigen Sie, dass es zu jeder Wahl von c0 , ..., cn ∈ IR genau ein Polynom P ∈ V gibt mit P (t0 ) =
c0 , ..., P (tn ) = cn .
d) Bestimmen Sie ein Polynom P vom Grad ≤ 3 mit

P (−1) = −6, P (0) = 2, P (1) = −2, P (2) = 6.

Aufgabe 3.24 Es seien U, V, W endlichdimensionale K-Vektorräume und Φ : U → V, Ψ : U → W


lineare Abbildungen. Beweisen Sie: Es gibt genau dann eine lineare Abbildung Ω : V → W mit Ψ =
Ω ◦ Φ, wenn Kern(Φ) ⊂ Kern(Ψ).

Aufgabe 3.25 Es sei V = IR[X]2 der IR-Vektorraum der Polynome vom Grad ≤ 2. Bestimmen Sie
df
eine Matrix zur linearen Abbildung Φ : V → V, f → dX bezüglich
2
a) der Basis 1, X, X ∈ V ,
b) der Basis (X − 1)2 , X 2 , (X + 1)2 ∈ V .

Aufgabe 3.26 Es sei V ⊂ C der von 1, ω := 12 (−1 + i 3) und ω 2 aufgespannte Q-Vektorraum.
a) Bestimmen Sie die Dimension von V . √
b) Geben Sie eine Matrix für die Q-lineare Abbildung z 7→ i 3z dieses Vektorraums in sich an.

Aufgabe 3.27 (NV) Es seien V und W Vektorräume über einem Körper K und f : V → W eine
lineare Abbildung. Ferner seien n und r natürliche Zahlen mit 1 ≤ r ≤ n. Zeigen Sie für v1 , ..., vn ∈ V :
Ist {v1 , ..., vr } eine Basis des Kerns und {f (vr+1 , ..., f (vn )} eine Basis des Bildes von V , so sind
v1 , ..., vn linear unabhängig.

Aufgabe 3.28 (NV) Für eine lineare Abbildung ϕ : IRn → IRn zeige man

dim Kern(ϕ2 ) ≤ 2 · dim Kern(ϕ).

Aufgabe 3.29 (V) Es seien U, V, W Vektorräume über einem Körper K und f : U → V, g : V → W


lineare Abbildungen. Man zeige, dass die Komposition g ◦ f genau dann ein Monomorphismus (=
injektiv) ist, wenn f Monomorphismus und Kern(g) ∩ Bild(f ) = 0 ist.

Aufgabe 3.30 (V) V bezeichne den durch die Polynome 1, X, X 2 , ..., X n erzeugten linearen Teilraum
von C[X], und qk ∈ V sei durch q0 = 1 und qk = k−1
i=0 (X − i) (1 ≤ k ≤ n) definiert.
Q

a) Man begründe, dass genau ein Automorphismus α von V mit α(X k ) = qk (0 ≤ k ≤ n) existiert.
b) Man beweise, dass die durch
(δ(p))(x) = p(x + 1) − p(x)
definierte Abbildung δ : V → V linear ist und berechne δ(qk ).
c) Man bestimme Kern und Bild von δ.
d) Man berechne die α−1 ◦ δ ◦ α bezüglich 1, X, ..., X n darstellende Matrix.

Aufgabe 3.31 (V) Im Vektorraum R2×2 der zweireihigen, reellen


! Matrizen sei der Endomorphismus
1 2
f : IR2×2 → IR2×2 , f (X) := AX − (AX)t mit A := gegeben. Man bestimme je eine Basis
3 0
von Kern(f ) und Bild(f ) und zeige Kern(f ) ∩ Bild(f ) = {0}, Kern(f ) + Bild(f ) = IR2×2 .

97
Aufgabe 3.32 (V) Zeigen Sie, dass die sogenannten Pauli-Matrizen
! ! ! !
1 0 0 1 0 −i 1 0
σ0 = , σ1 = , σ2 = , σ3 =
0 1 1 0 i 0 0 −1

eine Basis des Vektorraums der komplexen 2 × 2-Matrizen bilden.

3.6 Der Dualraum


Definition 3.10 Sei V ein K-Vektorraum. Eine lineare Abbildung

f :V →K

von V in den Grundkörper K heißt Linearform. Der Vektorraum HomK (V, K) der Linearformen auf
V heißt der Dualraum V ∗ von V .

Beispiele. Sei V der Raum K n der Spaltenvektoren x = (x1 , ..., xn )t , xk ∈ K. Die i-te Koordina-
tenfunktion
fi : x 7→ xi
ist eine Linearform auf V . Man kann fi auch schreiben als Matrizenprodut

x1
 
 .. 
fi (x) = xi = (0, ..., 0, 1, 0, ..., 0) ·  . 
xn

des Zeilenvektors ei = (0, ..., 0, 1, 0, ..., 0) mit x ∈ K n . Allgemeiner definiert jeder Zeilenvektor a =
(a1 , ..., an ) eine Linearform

x1
 
n
 ..  X
x 7→ a · x = (a1 , ..., an ) ·  .  = ak xk
1
xn

auf V . Es ist n n
X X
a·x= ak xk = ak fk (x).
1 1

Satz 3.6 (Dualbasis) Sei v1 , ..., vn ∈ V eine Basis. Dann gibt es Linearformen f1 , ..., fn ∈ V ∗ ,
eindeutig bestimmt durch die Eigenschaft

fi (vk ) = δi,k .

Die Linearformen f1 , ..., fn bilden eine Basis von V ∗ , die sogenannte Dualbasis zur Basis v1 , ..., vn ∈
V.

98
Beweis. Wir definieren fi (x) als den i-ten Entwicklungskoeffizienten des Vektors x ∈ V bezüglich
der fixierten Basis v1 , ..., vn . D.h., es gilt x = ni=1 fi (x)vi . Wegen
P

n
X n
X n
X
x= fi (x)vi , y = fi (y)vi ⇒ c1 x + c2 y = (c1 fi (x) + c2 fi (y))vi
1 1 1
⇒ fi (c1 x + c2 y) = c1 fi (x) + c2 fi (y)
ist diese Abbildung linear, also fi ∈ V ∗ . Wegen
n
X
vk = 1 · vk = fi (vk )vi
1

ist fi (vk ) = δi,k (d.h., wir haben gezeigt, eine Linearform fi mit dieser Eigenschaft existiert). Wenn
es zwei Linearformen fi , fi0 mit dieser Eigenschaft gäbe, dann hätten wir für alle x = n1 xk vk ∈ V
P

n
(fi − fi0 )(x) = xk (fi − fi0 )(vk ) = 0.
X

Also stimmen die Funktionen fi und fi0 überein, fi = fi0 .


Die Linearformen f1 , ..., fn spannen V ∗ auf: Es sei f ∈ V ∗ eine beliebige Linearform. Wir setzen
ak := f (vk ) ∈ K. Dann haben wir für jeden Vektor x = n1 xk vk = n1 fk (x)vk ∈ V
P P

n
X n
X n
X
f (x) = xk f (vk ) = xk ak = ak fk (x),
1 1 1

also gilt f = n1 ak fk .
P

Die Linearformen f1 , ..., fn sind linear unabhängig: Wenn n1 ci fi = 0 ∈ V ∗ , dann ist für alle k
P

n
X n
X
0= ci fi (vk ) = ci δi,k = ck .
1 1

Jede lineare Abbildung Φ : V → W definiert eine duale Abbildung


(
W∗ → V ∗
Φ∗ :
f 7→ f ◦ Φ
Φ-
In Symbolen: V W In Zeichen: f ∈ W ∗ , v ∈ V ⇒ (Φ∗ (f ))(v) := f (Φ(v))
@
Φ∗ f = f ◦ Φ @ f ∈ W∗
R ?
@
K

Satz 3.7 Es seien Basen


v1 , ..., vm ∈ V und w1 , ..., wn ∈ W
festgehalten mit den zugehörigen Dualbasen
f1 , ..., fm ∈ V ∗ und g1 , ..., gn ∈ W ∗ .
Weiter sei Φ : V → W eine lineare Abbildung. Ist A ∈ M (n × m, K) die beschreibende Matrix für Φ
bezüglich der Basen v1 , ..., vm und w1 , ..., wn , dann ist die transponierte Matrix At ∈ M (m × n, K)
die beschreibende Matrix für die duale Abbildung Φ∗ : W ∗ → V ∗ bezüglich der Dualbasen.

99
Beweis. Es seien A = (aν,µ ) ∈ M (n × m, K) die Matrix für Φ und B = (bµ,ν ) ∈ M (m × n, K) die
Matrix für Φ∗ . Dann ist
n m
Φ∗ (gl ) =
X X
Φ(vk ) = aν,k wν , bµ,l fµ ,
ν=1 µ=1

und  
m n
bµ,l fµ  (vk ) = (Φ∗ (gl ))(vk ) = gl (Φ(vk )) = gl (
X X
bk,l =  aν,k wν ) = al,k ,
µ=1 ν=1

also wie behauptet B = At .

Aus Satz 3.7 und Rang(A) = Rang(At ) erhält man eine einfache Folgerung, die aus der Definition
von Φ∗ zunächst keineswegs einsichtig ist:

Satz 3.8 (Korollar zu Satz 3.7) Für jede lineare Abbildung Φ zwischen endlich-dimensionalen Vek-
torräumen gilt
Rang(Φ) = Rang(Φ∗ ).

Unmittelbar aus der Definition ergeben sich die folgenden Rechenregeln für
lineare Abbildungen Matrizen
(Ψ ◦ Φ)∗ = Φ∗ ◦ Ψ∗ (B · A)t = At · B t
(id)∗ = id 1lt = 1l
(Φ−1 )∗ = (Φ∗ )−1 (A−1 )t = (At )−1
Beweis. Seien Φ : V → W und Ψ : W → U linear. Für alle f ∈ U ∗ ist dann

(Ψ ◦ Φ)∗ (f ) = f ◦ Ψ ◦ Φ = Φ∗ (f ◦ Ψ) = Φ∗ (Ψ∗ (f )).

Natürlich ist (id)∗ (f ) = f ◦ id = f für alle Linearformen f und deswegen (id)∗ = id. Wenn Φ−1
existiert, dann ist Φ−1 ◦ Φ = id und deswegen Φ∗ ◦ (Φ−1 )∗ = (Φ−1 ◦ Φ)∗ = (id)∗ = id.

Wir wenden dies an auf Vektoren v ∈ K m , w ∈ K n und eine Matrix A ∈ M (n × m, K) :

wt · A · v = (At · w)t · v

und folgern daraus:

At · w = 0 ⇔ (At · w)t · v = 0 für alle v ∈ K m


⇔ wt · (A · v) = 0 für alle v ∈ K n
⇔ wt · w0 = 0 für alle w0 ∈ W im Bild der linearen Abbildung v 7→ A · v.

Derselbe Sachverhalt drückt sich für lineare Abbildungen Φ : V → W wie folgt aus:
Die Linearform f ∈ W ∗ liegt im Kern von Φ∗ genau dann, wenn f (w0 ) = 0 ist für alle Vektoren w0 ∈
Bild(Φ) ⊂ W , d.h., genau dann, wenn die Funktion f auf dem Unterraum Bild(Φ) verschwindet“.

Für den Fall (
V →W
K = IR, V = IRm , W = IRn , Φ :
v 7→ A · v
können wir dies auch so formulieren:

100
• Der Kern der linearen Abbildung IRn → IRm , w 7→ At · w, ist das orthogonale Komplement in
IRn zum Bild der linearen Abbildung IRm → IRn , v 7→ A · v.

• Das lineare Gleichungssystem A · v = b ist genau dann lösbar, wenn b ∈ IRn orthogonal ist auf
allen Lösungen w des homogenen Systems At · w = 0.

Beispiel. Wir betrachten wieder die lineare Abbildung Φ : IR3 → IR3 mit Matrix
 
0 1 0
A =  0 0 1 .
 
0 0 0

Ihr Bild ist span(e1 , e2 ) und

Kern(Φ∗ )) = {x ∈ IR3 ; At · x = 0}
= {x ∈ IR3 : x1 = x2 = 0}
= span(e3 )
= (Bild(Φ))⊥

Ein Spezialfall hiervon ist schließlich folgende Aussage:

Satz 3.9 Das lineare Gleichungssystem


A·x=b
ist genau dann für alle b ∈ IRn lösbar, wenn das adjungierte System

At · y = 0

nur die Nullösung besitzt.

Aufgabe 3.33 Es seien Φ : IR3 → IR3 die lineare Abbildung mit der darstellenden Matrix
 
1 2 3
 2 3 1 
 
3 1 2

und f, g : IR3 → IR die Linearform

f : (x1 , x2 , x3 ) 7→ x1 + x2 − x3 , g : (x1 , x2 , x3 ) 7→ 3x1 − 2x2 − x3 .

Bestimmen Sie die Linearformen Φ∗ (f ) : IR3 → IR und Φ∗ (g) : IR3 → IR.

Aufgabe 3.34 (V) Es seien V, W Vektorräume über einem Körper K und f : V → W eine lineare
Abbildung. Weiter seien V ∗ , W ∗ die zu V, W dualen Vektorräume und f ∗ die zu f duale Abbildung,
d.h., f ∗ : W ∗ → V ∗ , µ 7→ µ ◦ f . Man zeige: f ist genau dann Monomorphismus (=injektiv), wenn f ∗
Epimorphismus (=surjektiv) ist.

101
Aufgabe 3.35 (V) Für Vektorräume V bezeichne V ∗ den Dualraum. Seien nun V ein K-Vektorraum,
W ⊂ V ein linearer Unterraum, W ⊥ := {ϕ ∈ V ∗ | ϕ(w) = 0 für alle w ∈ W } und V /W bzw. V ∗ /W ⊥
seien die entsprechenden Quotientenvektorräume. Definieren Sie

Φ : V ∗ /W ⊥ → W ∗ durch ϕ + W ⊥ 7→ ϕ|W für ϕ ∈ V ∗

und
Ψ : W ⊥ → (V /W )∗ durch Ψ(ϕ)(v + W ) = ϕ(v) für ϕ ∈ W ⊥ .
Zeigen Sie: Beide, Φ und Ψ, sind wohldefiniert und Vektorraumisomorphismen.

Aufgabe 3.36 (V) Geben Sie zu den Vektoren

x1 = (1, 0, −2), x2 = (−1, 1, 0), x3 = (0, −1, 1) aus IR3

die Linearformen fi mit fi (xj ) = δij an. Hierbei ist δij die Kroneckerfunktion.

Aufgabe 3.37 (V) Sei


V = {f ∈ IR[x]| Grad(f ) ≤ 3}
der IR-Vektorraum der Polynome vom Grad ≤ 3. durch

ϕ1 (f ) = f (1), ϕ2 (f ) = f 0 (1),
ϕ3 (f ) = f (−1), ϕ4 (f ) = f 0 (−1),

werden Linearformen ϕi : V → IR definiert. (Dabei bezeichne f 0 die Ableitung von f .)


a) Zeigen Sie, dass ϕ1 , ..., ϕ4 eine Basis des Dualraums V ∗ von V bilden.
b) Bestimmen Sie die dazu duale Basis von V .

Aufgabe 3.38 (V) Sei V = {p = a0 + a1 t + a2 t2 } ⊂ IR[t] der Vektorraum aller Polynome vom Grad
≤ 2. Jedes x ∈ IR liefert vermöge Auswerten in x“ ein Element δx : V → IR, δx (p)R := p(x) des

Dualraums V ∗ von V . Integration über einem Intervall [a, b] gibt Iab : V → IR, Iab (p) := ab p(t)dt, ein
weiteres Element von V ∗ .
a) Ist die Abbildung IR → V ∗ , x 7→ δx linear?
b) Zeigen Sie: Zu paarweise verschiedenen Elementen x, y, z ∈ IR bilden δx , δy , δz eine Basis des
Dualraums V ∗ .
c) Stellen Sie I02 ∈ V ∗ als Linearkombination von δ0 , δ1 und δ2 dar.

102
4 Koordinatentransformationen und Ähnlichkeit von Matrizen
4.1 Basiswechsel und Koordinatentransformationen
In diesem Abschnitt ist K ein beliebiger Körper. Vektorraum“ bedeutet stets K-Vektorraum“.
” ”
Ist v1 , ..., vn eine Basis des Vektorraums V, so läßt sich jeder Vektor x ∈ V als Linearkombination
x = x1 v1 + ... + xn vn
mit (durch x) eindeutig bestimmten x1 , ..., xn ∈ K darstellen. Diese Körperelemente x1 , ..., xn heißen
Komponenten von x, oder Koordinaten von x in der Basis v1 , ..., vn . (Dass die Indizes jetzt oben
angebracht sind, ist mathematisch bedeutungslos, mnemotechnisch aber hoffentlich von Vorteil.) Wir
wollen hier der Frage nachgehen, wie sich diese Koordinaten des Vektors x ändern, wenn wir ihn in
einer anderen Basis w1 , ..., wn ∈ V entwickeln.
Dazu schreiben wir zuerst die neuen Basisvektoren als Linearkombinationen der alten:
X X
w1 = aν1 vν , ..., wn = aνn vν .
ν ν

Die Koordinaten aνµ der neuen Basisvektoren wµ in der alten Basis bilden die Spalten einer Matrix
a11 · · · a1n
 

A =  ... ..  ∈ M (n × n, K).

. 
a1 · · · ann
n

Diese Matrix A ist unsere Übergangsmatrix. Sie stellt bezüglich der Basis v1 , ..., vn eine lineare Abbil-
dung dar, und zwar diejenige Abbildung, welche
v1 7→ w1 , ..., vn 7→ wn
abbildet, (und dadurch eindeutig bestimmt ist). Da die w1 , ..., wn eine Basis von V bilden, ist rang(A) =
n, die Übergangsmatrix A ist invertierbar.
Ein Vektor x ∈ V schreibt sich nun auf zwei Weisen
Pn Pn
x = xν vν
1 = y µ wµ ,
1
alte Koordinaten: neue Koordinaten:

x1 y1
   
 ..   .. 
 .   . 
xn yn
die aber durch folgende Beziehung verknüpft sind:
n
X n
X n
X n X
X n
xν vν = x = yµ( aνµ vν ) = ( aνµ y µ )vν .
ν=1 µ=1 ν=1 ν=1 µ=1

Daraus folgt für die Koordinaten:


x1 a11 · · · a1n y1
     

Alte Koordinaten =  ...  =  .. ..  ·  ..  ,


  
. .   . 
xn a1n · · · ann yn
anders formuliert:

103
alte Koordinaten = A · neue Koordinaten

neue Koordinaten = A−1 · alte Koordinaten

Dieses Transformationsverhalten, welches die Koordinaten eines Vektors x ∈ V aufweisen, heißt


kontravariantes Transformationsverhalten. (Die Koordinaten transformieren sich gegenläufig“ zur

Übergangsmatrix.)
Ein anderes Transformationsverhalten besitzen die Vektoren des Dualraums V ∗ . Um das zu be-
stimmen wählen wir Dualbasen

f 1, · · · , f n mit f µ (vν ) = δνµ (alt)


g1, · · · , gn mit g j (wi ) = δij (neu)

Jetzt entwickeln wir die alte Dualbasis in der neuen


n
cµj g j ,
X
µ
f =
j=1

weil wir die hier auftretende Matrix (cµj ) sehr leicht bestimmen können:

n n
cµk g k (wj ) = cµk δjk = cµj
X X
f µ (wj ) =
k=1 k=1
n n n
aνj δνµ = aµj
X X X
µ µ
f (wj ) = f ( aνj vν ) = aνj f µ (vν ) =
ν=1 ν=1 ν=1
cµj = aµj

Zur linearen Abbildung g µ 7→ f µ gehört die Matrix At ,


zur linearen Abbildung f µ 7→ g µ gehört die Matrix (At )−1 .

Im Vektorraum V ∗ gehört also zum Übergang von der alten Basis f 1 , ..., f n zur neuen Basis g 1 , ..., g n
die Übergangsmatrix (At )−1 . Jetzt wenden wir für diesen Basiswechsel das an, was wir soeben ganz
allgemein über Koordinatentransformationen und Übergangsmatrizen gesehen haben:

alte duale Koordinaten = (At )−1 · neue duale Koordinaten


neue duale Koordinaten = At · alte duale Koordinaten.

Richtig schön wird diese Formel erst, wenn wir die Koordinaten eines Vektors im Dualraum als
Zeilenvektor schreiben und dann die letzte Gleichung transponieren:

neue duale Koordinaten = alte duale Koordinaten · A.

Dieses Transformationsverhalten heißt kovariant.

Jetzt ist es wohl angebracht, einige - hoffentlich klärende - Worte zur Notation zu verlieren:

104
• Vektoren, in ihrer ganzen Allgemeinheit, sind Elemente eines Vektorraums. Dieser kann ziemlich
gefährlich (=unanschaulich) sein: ein Dualraum, ein Quotientenraum, ein Funktionenraum, usw.
Jede Veranschaulichung solcher Vektoren versagt. Nur über die abstrakte Theorie der Vektor-
räume gelingt es, solche Vektoren zu beschreiben.
• Ein Vektor des Anschauungsraums, mit einem Pfeilchen vorne dran, ist ein Element des Zah-
lenraums IRn , und wird durch ein n-tupel reeller Zahlen gegeben. Dieses n-tupel können wir
wahlweise als Spalte oder als Zeile schreiben. Darauf, auf die Systematik der Indizes, kommt es
nicht an.
• Hat man einen endlichdimensionalen Vektorraum und darin eine Basis, so gehört zu jedem Vektor
des Vektorraums sein Koordinatenvektor, ein n-tupel von Körperelementen (=Zahlen.) Um die
Koordinaten von den Vektoren zu unterscheiden, bekommen die Koordinaten ihren Index oben
hin: n X
x= xν vν .
ν=1
Einen Koordinatenvektor wollen wir uns immer als Spaltenvektor vorstellen, sodass seine oberen
Indizes die Zeile angeben.
• Den Koordinatenvektor eines Vektors im Dualraum, bezüglich der Dualbasis, wollen wir uns
immer als Zeilenvektor vorstellen. Dessen Indizes bekommen die Dualkoordinaten unten, weil
sie sich kovariant transformieren, so wie die Übergangsmatrix die ursprünglichen Basisvektoren.
Untere Indizes geben somit die Spalte an.
Eine gewisse Logik bekommt dieses System, wenn man sich folgende Version der Einsteinschen
Summenkonvention zu eigen macht: Kommen in einer Formel zwei gleiche Indizes vor, einer unten
und einer oben, so muss darüber automatisch summiert werden, auch wenn kein Summenzeichen da
P ν
steht. Damit ist also x vν dasselbe wie xν vν . Das Skalarprodukt eines Zeilenvektors mit einem
Spaltenvektor schreibt sich dann
x1
 

(c1 , ..., cn ) ·  ...  = cν xν .


 

xn
Nicht nur Koordinaten von Vektoren, oder von Vektoren im Dualraum, ändern sich bei Koordina-
tentransformationen, sondern auch Matrizen zu linearen Abbildungen. Dies müssen wir als Nächstes
untersuchen.
Sei dazu Φ : V → W eine lineare Abbildung des Vektorraums V in den Vektorraum W , seien
v1 , ..., vn ∈ V und w1 , ..., wm ∈ W Basen, sei
c11 · · · c1n
 

C =  ... .. 

. 
m
c1 · · · cnm

die Matrix, welche die Abbildung Φ in diesen Basen beschreibt, d.h.


m
X
Φ(vν ) = ciν wi .
i=1

Jetzt wechseln wir zu neuen Basen

105
neue Basis Beziehung zur alten Basis Übergangsmatrix
 1
a1 · · · a1n

A =  ... .. 
Pn
v10 , ..., vn0 vµ0 = ν
ν=1 aµ vν

. 
an1 · · · ann
b11 · · · b1m
 

B =  ... .. 
Pm
w10 , ..., wm
0 wj0 = i
i=1 bj wi

. 
b1 · · · am
m
m

und berechnen die neue Matrix C 0 für die Abbildung Φ:


Φ(vµ0 ) = m (c0 )jµ wj0 = m 0 j i
P P
i,j=1 (c )µ bj wi
P ν j=1
vµ = aµ vν ⇒ Φ(vµ ) = ν=1 aνµ Φ(vν ) = nν=1 m
0 0 Pn P P ν i
i=1 aµ cν wi .

Durch Koeffizientenvergleich findet man hieraus


n m
(c0 )jµ bij ,
X X
aνµ ciν =
ν=1 j=1

oder in Form eines Matrizenprodukts

C · A = B · C0

neue Matrix C0 = B −1 · C · A

Hier sind C, C 0 ∈ M (m × n, K), B ∈ M (m × m, K) und A ∈ M (n × n, K).

Satz 4.1 Es sei Φ : V → W eine lineare Abbildung vom Rang r. Dann gibt es Basen in V und W , in
denen Φ die beschreibende Matrix ( !
1lr 0
dim(W )
0 0
| {z }
dim(V )

hat.

Beweis. Es sei C ∈ M (m × n, K) die Matrix für Φ bezüglich irgend welcher Basen von V und W .
Es ist zu zeigen, dass es invertierbare Matrizen A ∈ GL(n, K) und B ∈ GL(m, K) gibt, derart, dass
das Produkt B −1 · C · A die angegebene Form hat. Zunächst benützen wir elementare Zeilentransfor-
mationen, um C auf Zeilenstufenform zu bringen:
  
0 ... 1 ∗ ∗ 

 0 ... 1 ∗ ∗ r 
B −1 · C = 
 
0 ... 1 ∗

 
 
0 .

106
Durch elementare Spaltenumformungen kann man alle Einträge der ersten r Zeilen, bis auf die führen-
den Einsen, auf 0 transformieren. Elementare Spaltenumformungen erhält man als Produkt mit Ele-
mentarmatrizen von rechts. Ist A0 das Produkt all dieser Elementarmatrizen, so haben wir also
  
0 ··· 1 0 0 

 0 ··· 1 0 0 r 
B −1 · C · A0 =  .
 
0 ··· 1 0  


0

Jetzt vertauschen wir nur noch die Spalten so, dass die Spalten mit den Einsen in ihrer richtigen Rei-
henfolge ganz nach links kommen. Auch dies ist zu erreichen durch Multiplikation mit einem Produkt
von Elementarmatrizen von rechts. Bezeichnen wir mit A das Produkt aller Elementarmatrizen, mit
denen wir insgesamt von rechts multiplizierten, so hat B −1 · C · A die angegebene Form.

Dieser Satz ist eine Formulierung des Homomorphiesatzes 3.5 b) in der Sprache der Matrizen. Der
Sinn seiner Aussage besteht darin, dass lineare Abbildungen eines endlich-dimensionalen Vektorraums
in einen anderen wenig vor dem forschenden Auge des Mathematikers verbergen können. Man kann
ihre Matrizen auf eine ganz einfache Normalform bringen, die nur vom Rang der linearen Abbildung
abhängt.
Völlig anders ist die Situation für lineare Abbildungen eines Vektorraums in sich selbst. Dann ist
nämlich der Bildraum W gleich dem Urbildraum V , wir haben nur eine einzige Basis, die wir wechseln
können, es ist in obiger Formel B = A zu setzen. Bei einem Basiswechsel des Vektorraums V mit
Übergangsmatrix A wird die Matrix C zu einer linearen Abbildung Φ : V → V in

C 0 = A−1 · C · A

transformiert. Den Rest dieses Semesters widmen wir der Frage nach einer möglichst einfachen Form
C 0 auf welche wir die Matrix C transformieren können.

Definition 4.1 Zwei Matrizen C, C 0 ∈ M (n × n, K) heißen ähnlich oder äquivalent, wenn es eine
invertierbare Matrix A ∈ GL(n, K) gibt, so dass

C 0 = A−1 · C · A.

Diese Ähnlichkeit von Matrizen ist eine Äquivalenzrelation im Sinne von Abschnitt 3.4:

• Reflexivität: A = 1ln ⇒ C = 1l−1


n · C · 1ln ,

• Symmetrie: C 0 = A−1 · C · A ⇒ C = (A−1 )−1 · C 0 · A−1 ,

• Transitivität: Aus C 0 = A−1 · C · A und C 00 = B −1 · C 0 · B folgt C 00 = B −1 A−1 · C · AB =


(AB)−1 · C · AB.

107
Aufgabe 4.1 (NV) Der Homomorphismus ϕ : IR3 → IR2 werde bezüglich der kanonischen Basen
durch die Matrix !
0 2 2
M=
1 −2 2
beschrieben. Man berechne die Matrixdarstellung von ϕ bezüglich der Basis

a1 = (0, 1, 1), a2 = (1, 0, 3), a3 = (1, 0, 1)

des IR3 und der Basis


b1 = (1, 1), b2 = (1, −1)
des IR2 .

Aufgabe 4.2 (NV) Es sei V der Vektorraum der reellen, symmetrischen zweireihigen Matrizen und
!
a b
A= ∈ V.
b c

Der Endomorphismus ϕ : V → V sei definiert durch ϕ(S) := At SA. Man berechne die Matrix von ϕ
bezüglich der Basis ! ! !
1 0 0 1 0 0
S1 = , S2 = , S3 =
0 0 1 0 0 1
von V .

Aufgabe 4.3 (V) Für A ∈ IR2×2 definiert


!
1 2
ϕ(A) = ·A
3 −1

einen Endomorphismus von R2×2 . Bestimmen Sie die Matrix von ϕ bezüglich der Standardbasis
! ! ! !
1 0 0 1 0 0 0 0
, , , .
0 0 0 0 1 0 0 1

4.2 Eigenwerttheorie
Das Problem, eine möglichst einfache Normalform für ähnliche Matrizen zu finden, hat eine Bedeu-
tung, die weit über die lineare Algebra, ja weit über die Mathematik hinausgeht. Dies soll an einem
einfachen Differentialgleichungs-System aus der Mechanik illustriert werden. (Wie eine solche Diffe-
rentialgleichung aufgestellt wird, ist kein Problem der Mathematik, Lösungsmethoden dafür aber sehr
wohl.) Wir betrachten die Schwingung zweier gekoppelter Federn:

108
Ruhelagen der Federn seien y 1 = 0 und y 2 = 0,
e
e beide Federkonstanten seien k,
e
e
e beide Massen seien m,
m t
e y 1 dann gelten die Bewegungsgleichungen
e
e
?
mÿ 1 = −ky 1 + k(y 2 − y 1 ) = k(y 2 − 2y 1 ),
e
e
mÿ 2 = −k(y 2 − y 1 ).
m t
y 2
?

Für den Spaltenvektor !


y1
∈ IR2
y2
ist dies, nachdem wir noch zur Vereinfachung k = m = 1 normieren, die folgende Differentialgleichung
! ! !
ÿ 1 −2 1 y1
= · .
ÿ 2 1 −1 y2

Das Problem besteht in der Kopplung der beiden Gleichungen für die beiden Koordinaten y 1 und y 2 .
Falls die Koeffizientenmatrix !
−2 1
C=
1 −1
ähnlich zu einer Diagonalmatrix wäre, etwa
!
−1 λ1 0
C=A · · A,
0 λ2
dann hätten wir für den Vektor ! !
x1 y1
:= A ·
x2 y2
die Gleichung
! ! ! ! !
ẍ1 y1 −1 x1 λ1 0 x1
=A·C · =A·C ·A · = · .
ẍ2 y2 x2 0 λ2 x2
Dies sind zwei entkoppelte Differentialgleichungen
ẍ1 = λ1 x1 , ẍ2 = λ2 x2
für die beiden Komponenten. In den einschlägigen Vorlesungen behandelt man deren Lösung durch
Exponential- und Winkelfunktionen.

Sei also jetzt V ein K-Vektorraum und Φ : V → V eine K-lineare Abbildung. Wir fragen, wann
es eine Basis v1 , ..., vn von V gibt, in der Φ durch eine Diagonalmatrix
 
λ1 0 . .
 0 λ2 0 
C=
 
. 0 λ3

 
. .

109
beschrieben wird. Wenn das so ist, dann gilt für die Basisvektoren v1 , ..., vn :

Φ(vν ) = λν · vν , ν = 1, · · · , n.

(Diese Vektoren werden durch Φ also nur gestreckt, um den Faktor λν , ihre Richtung wird nicht
geändert.)

Definition 4.2 Ein Vektor 0 6= v ∈ V heißt Eigenvektor der linearen Abbildung Φ : V → V, wenn
ein Skalar λ ∈ K existiert, so, dass
Φ(v) = λ · v.
Analog heißt 0 6= x ∈ K n ein Eigenvektor zur Matrix C ∈ M (n × n, K), wenn C · x = λ · x.

Der Streckungsfaktor λ ist durch den Eigenvektor v und die lineare Abbildung Φ eindeutig be-
stimmt, denn wenn Φ(v) = λ1 · v = λ2 · v, dann folgt (λ1 − λ2 ) · v = 0, und wenn tatsächlich λ1 6= λ2
sein sollte, so würde hieraus folgen
1
v= · (λ1 − λ2 ) · v = 0.
λ 1 − λ2
Aber ein Eigenvektor ist kein Nullvektor, Widerspruch!
Dieser Streckungsfaktor λ ∈ K heißt der Eigenwert zum Eigenvektor v.

Satz 4.2 (Tautologie) Die Matrix C ∈ M (n × n, K) ist ähnlich zu einer Diagonalmatrix, dann, und
nur dann, wenn der Vektorraum K n eine Basis besitzt, die aus lauter Eigenvektoren für C besteht.

Dies braucht nicht mehr bewiesen zu werden, da es nur eine Zusammenfassung der obigen Diskus-
sion ist.

Der zweifelhafte Wert von Satz 4.2 zeigt sich sofort, wenn man beginnt Eigenvektoren zur Matrix
C tatsächlich zu suchen. Die entscheidende Idee besteht darin, zuerst Eigenwerte zu suchen:

Satz 4.3 Ein Skalar λ ∈ K ist genau dann Eigenwert der Matrix C (zu einem Eigenvektor 0 6= v ∈
K n ), wenn gilt:
det(C − λ · 1ln ) = 0 (Eigenwertgleichung)

Beweis. Für einen Vektor v ∈ V ist

C ·v =λ·v ⇔ (C − λ · 1ln ) · v = 0.

Und es gibt eine Vektor 0 6= v ∈ V mit dieser Eigenschaft, genau dann, wenn

Rang(C − λ · 1ln ) < n, (Satz 1.15),

und dies ist äquivalent mit

det(C − λ · 1ln ) = 0 (Satz 2.17 a).

110
Beispiel. Wir suchen Eigenwerte der Matrix
!
−2 1
C=
1 −1

vom Beginn dieses Paragraphen. Die Eigenwertgleichung für diese Matrix ist
!
−2 − λ 1
det(C − λ · 1l2 ) = det = (−2 − λ)(−1 − λ) − 1 = λ2 + 3λ + 1 = 0.
1 −1 − λ

Die Wurzeln
1 √
λ1,2 = (−3 ± 5)
2
dieser quadratischen Gleichung sind die Eigenwerte. Die zugehörigen Eigenvektoren v berechnet man
aus den linearen Gleichungssystemen
√ ! !
− 21 (1 + 5)v 1 + √ v 2 0
(C − λ1 · 1l2 ) · v = = ,
v 1 + 12 (1 − 5)v 2 0
! !
v1 2√
= s1 · , s1 ∈ K,
v2 1+ 5
1
√ ! !
2 (−1 + 5)v 1 + √ v2
2 0
(C − λ2 · 1l2 ) · v = 1 = ,
v1 + 2 (1 + 5)v
0
! !
v1 2√
= s2 · , s2 ∈ K.
v2 1− 5
Diese Eigenvektoren bilden zusammen zwei Geraden.

Beim Suchen der Eigenwerte kommt es also darauf an, die Nullstellen λ der Funktion λ 7→ det(C −
λ · 1ln ) zu finden.

Satz 4.4 Es sei C ∈ M (n × n, K). Die Funktion

χC : K 3 λ 7→ det(C − λ1ln ) ∈ K

ist ein Polynom vom Grad n. Mit der Abkürzung

sp(C) := c11 + c22 + ... + cnn (Spur von C)

ist
χC (λ) = (−1)n λn + (−1)n−1 · sp(C) · λn−1 + ... + det(C).

Beweis. Die Leibnizformel


X
χC (λ) = sign(σ) · (c1,σ(1) − λδ1,σ(1) ) · ... · (cn,σ(n) − λδn,σ(n) )
σ∈Σn

zeigt, daß χC (λ) ein Polynom in λ vom Grad ≤ n ist. Man findet auch als Koeffizienten

111
bei λn (σ = id :) (−1)n
bei λn−1 (σ = id :) (−1)n−1 (c11 + ... + cnn )
bei λ0 (λ = 0 :) det(C).

Definition 4.3 Das Polynom χC (λ) = det(C − λ1ln ) heißt charakteristisches Polynom der Matrix
C. Der folgende Satz 4.5 zeigt, dass alle Matrizen, welche dieselbe lineare Abbildung Φ beschreiben,
dasselbe charakteristische Polynom haben. Man kann dieses Polynom dann also auch charakteristisches
Polynom der Abbildung Φ nennen.

Satz 4.5 Ähnliche Matrizen haben dasselbe charakteristische Polynom.

Beweis. Wenn C 0 = A−1 · C · A, dann ist

χC 0 (λ) = det(A−1 · C · A − λ · 1ln )


= det(A−1 · (C − λ · 1ln ) · A)
= det(A)−1 · det(C − λ · 1ln ) · det(A) (Determinantenmultiplikationssatz)
= χC (λ).

Satz 4.6 (Korollar zu Satz 4.5) Ähnliche Matrizen haben

die gleiche Determinante (folgt schon aus dem Determinantenmultiplikationssatz),


die gleiche Spur,
die gleichen Eigenwerte.

Satz 4.7 (Diagonalisierbarkeitskriterien) a) (notwendig) Wenn eine Matrix C diagonalisierbar


(=ähnlich zu einer Diagonalmatrix) ist, dann zerfällt ihr charakteristisches Polynom χC in ein Produkt
von Linearfaktoren:
χC (λ) = (λ1 − λ) · ... · (λn − λ), λk ∈ K.
b) (hinreichend) Wenn χC in Linearfaktoren zerfällt und alle seine Wurzeln λ1 , ..., λn paarweise ver-
schieden sind, dann ist C diagonalisierbar.

Beweis. a) ist klar, man braucht nur die Determinante einer Diagonalmatrix C 0 − λ1ln hinzuschrei-
ben, wo C 0 eine zu C ähnliche Diagonalmatrix ist.
b) Zu den n paarweise verschiedenen Eigenwerten λ1 , ..., λn finden wir als Lösungen der linearen
Gleichungssysteme (C − λk 1ln )v = 0 Eigenvektoren v1 , ..., vn . Wir müssen zeigen, dass die v1 , ..., vn
linear unabhängig sind.
Dazu beweisen wir durch vollständige Induktion nach m = 1, ..., n folgende Aussage: Sind v1 , ..., vm ∈
K n Eigenvektoren zu m paarweise verschiedenen Eigenwerten λ1 , ..., λm , dann sind sie linear un-
abhängig. Für m = n ist dies die Behauptung.

112
Induktionsanfang: Für m = 1 ist v1 ein Eigenvektor, der nach Definition 6= 0 ist. Er ist also linear
unabhängig.
Induktionsschluss (m ≥ 2): Sind v1 , ..., vm Eigenvektoren zu m paarweise verschiedenen Eigen-
werten λ1 , ..., λm , dann sind natürlich auch die Eigenwerte λ1 , ..., λm−1 paarweise verschieden und
v1 , ..., vm−1 nach Induktionsannahme linear unabhängig. Um v1 , ..., vm auf lineare Unabhängigkeit zu
testen, nehmen wir m
P k m
1 c vk = 0 an. Wenn hier c = 0 ist, dann folgt aus der Induktionsannahme,
dass c1 = ... = cm−1 = 0 ist, und wir sind fertig. Wir brauchen uns deswegen nur auf den Fall cm 6= 0
zu konzentrieren. Wir können dann schreiben

1 m−1
X
vm = − m
ck vk ,
c 1

und daraus folgern

C · vm = λm vm (weil vm Eigenvektor)
m−1
1 X
= − ck C · vk
cm 1
m−1
1 X
= − ck λk vk
cm 1

Hieraus folgt
m−1
X
ck (λm − λk )vk = 0.
1

Nach Induktionsannahme ist dann ck (λm − λk ) = 0 für k = 1, ..., m − 1. Wegen λm 6= λk folgt daraus
c1 = ... = cm−1 = 0.

Beispiel (Drehmatrix). Wir betrachten die Matrix


!
cos(ϕ) −sin(ϕ)
C= ,
sin(ϕ) cos(ϕ)

welche eine Drehung um den Winkel ϕ in der Ebene IR2 beschreibt. Ihr charakteristisches Polynom
!
cos(ϕ) − λ −sin(ϕ)
χC (λ) = det = (cos(ϕ) − λ)2 + sin(ϕ)2
sin(ϕ) cos(ϕ) − λ

hat die Nullstelle λ ∈ IR, für welche λ = cos(ϕ) während sin(ϕ) = 0. Es gibt nur die Fälle
Winkel ϕ Eigenwert λ Drehung
0 1 Identität
π −1 Punktspiegelung
Dies ist auch anschaulich völlig klar: Bei einer echten Drehung (nicht um den Winkel 0 oder π)
ändert jeder Vektor seine Richtung.
Ganz anders ist die Situation, wenn man C als Matrix komplexer Zahlen auffasst, und Eigenwerte
in C sucht. Diese sind Wurzeln der quadratischen Gleichung

λ2 − 2 cos(ϕ) λ + 1 = 0,

113
also
λ1,2 = cos(ϕ) ± i · sin(ϕ).

Beispiel (Jordan-Block). Wir werden uns im übernächsten Abschnitt ausführlich mit n × n-


Matrizen der Form  
c 1
 .. .. 
 . . 
C= , c ∈ K
 
..

 . 1 

c
beschäftigen. Ihr charakteristisches Polynom

χC (λ) = (c − λ)n

hat nur die einzige Nullstelle c, diese mit der Vielfachheit“ n. Wenn wir alle Eigenvektoren des

Jordan-Blocks bestimmen wollen, müssen wir das lineare Gleichungssystem

C · x = c · x, d.h. (C − c · 1ln ) · x = 0

lösen. Nun ist


 
x1 x2
   
0 1
 .. ..   x2
   x3 
. .
  
  .. ..
     
(C − c1ln ) · x =  · . = .

..   . 

 . 1  

 xn−1
  n
  x


0 xn 0
Dies ist der Nullvektor, falls x2 = ... = xn = 0, d.h. alle Eigenvektoren liegen auf der Geraden, welche
vom ersten Koordinatenvektor e1 aufgespannt wird.

Wir formulieren jetzt ein Diagonalisierbarkeitskriterium, welches sowohl hinreichend als auch not-
wendig ist. Theoretisch ist dies eine sehr befriedigende Beschreibung der Diagonalisierbarkeit, praktisch
für das Problem, eine konkret gegebene Matrix zu diagonalisieren jedoch oft unbrauchbar.

Satz 4.8 (Notwendiges und hinreichendes Diagonalisierbarkeitskriterium) Eine Matrix C ∈


M (n × n, K) ist genau dann diagonalisierbar, wenn

(1) das charakteristische Polynom χC in Linearfaktoren zerfällt, etwa

χC (λ) = (λ1 − λ)r1 · ... · (λk − λ)rk , r1 + ... + rk = n,

wo die Wurzeln λ1 , ..., λk alle paarweise verschieden sein sollen, aber mit ihren Vielfachheiten
r1 , ..., rk zu Potenzen zusammengefasst, und

(2) für die verschiedenen Wurzeln λ1 , ..., λk gilt

Rang(C − λj 1ln ) = n − rj (j = 1, ..., k).

114
Beweis ⇒“ Sei C diagonalisierbar, also etwa ähnlich zur Matrix

 
λ1
 .. 

 . 

0
C = λ1 ,
 
 
 λ2 
..
 
.

und seien r1 , ..., rk die Vielfachheiten, mit denen die verschiedenen Eigenwerte λ1 , ..., λk in C 0 auf-
treten. Dann zerfällt das charakteristische Polynom χC (λ) = χC 0 (λ) = (λ1 − λ)r1 · ... · (λk − λ)rk in
Linearfaktoren. Für j = 1, ..., k ist

C − λj 1ln = A−1 · C 0 · A − λj 1ln = A−1 · (C 0 − λj 1ln ) · A

und deswegen Rang(C − λj 1ln ) = Rang(C 0 − λj 1ln ). Schließlich fallen in C 0 − λj 1ln genau die rj
Diagonaleinträge weg, die gleich λj sind, während an den anderen Stellen der Diagonale die Zahlen
λi − λj für i 6= j stehen. Diese sind ungleich Null. So ist etwa
 
0
 .. 

 . 

0
 0 
C − λ1 1ln =  .
 
 λ2 − λ 1 
 

 λ 2 − λ1 

..
.

Der Rang von C 0 − λj 1ln ist die Zahl der Diagonaleinträge 6= 0, und damit = n − rj .
⇐“ Für j = 1, ..., k sei

Vj := Kern(C − λj · 1ln )
(j) (j)
der Eigenraum zu λj . Nach (2) ist dim(Vj ) = n − (n − rj ) = rj . Wir wählen Basen v1 , ..., vrj ∈ Vj
für die einzelnen Eigenräume. Es genügt zu zeigen, dass alle dieser Vektoren
(1) (2) (k)
v1 , ..., vr(1)
1
, v1 , ......, v1 , ..., vr(k)
k

linear unabhängig sind. Denn dann bilden sie eine Basis des K n , eine Basis aus Eigenvektoren von C.
Zum Test der linearen Unabhängigkeit nehmen wir also
(1) (k)
c1(1) v1 + ... + cr(1)
1
vr(1)
1
+ ... + c1(k) v1 + ... + cr(k)
k
vr(k)
k
=0

an. Für einen Eigenvektor v(j) ∈ Vj ist


(
(j) (j) = 0 falls j > 1
(C − λ2 1ln ) · ... · (C − λk 1ln ) · v = (λj − λ2 ) · ... · (λj − λk )v
6= 0 falls j = 1

Multiplizieren wir also die obige lineare Relation mit dem Matrizenprodukt

(C − λ2 1ln ) · ... · (C − λk 1ln ),

115
so erhalten wir
(1)
(λ1 − λ2 ) · ... · (λ1 − λk ) · (c1(1) v1 + ... + cr(1)
1
vr(1)
1
) = 0,
(1)
c1(1) v1 + ... + cr(1)
1
vr(1)
1
= 0,
c1(1) = ... = cr(1)
1
= 0.

Analog findet man dass auch die Koeffizienten für j > 1 verschwinden.

Manchmal nennt man die Vielfachheit rj des Eigenwerts λj als Nullstelle des charakteristischen
Polynoms auch die algebraische Vielfachheit dieses Eigenwerts. Und die Dimension n−Rang(C −λj 1ln )
des Eigenraums nennt man dann die geometrische Vielfachheit des Eigenwerts. Das Diagonalisierbar-
keitskriterium kann man dann sehr griffig folgendermaßen formulieren: Für jeden Eigenwert ist

algebraische Vielfachheit = geometrische Vielfachheit.

Was sagt Satz 4.8 über einen Jordanblock? Der einzige Eigenwert c hat Vielfachheit n, während
der zugehörige Eigenraum Dimension =1 hat. Ein Jordanblock ist (für n ≥ 2) nicht diagonalisierbar.
Er ist geradezu im höchstmöglichen Maß un-diagonalisierbar.

Wenn wir eine Matrix diagonalisieren wollen, kommt es nach Satz 4.8, Eigenschaft (1), zunächst
darauf an, die Nullstellen des charakteristischen Polynoms dieser Matrix zu suchen. Der Erfolg dieser
Suche hängt nun in viel geringerem Maß von unseren rechnerischen Fähigkeiten ab, als von Eigenschaf-
ten des Grundkörpers K, denen wir bisher kaum Beachtung schenkten: Es gibt reelle Polynome (etwa
das charakteristische Polynom einer Drehmatrix), welche keine reellen Nullstellen haben. Komplexe
Nullstellen aber haben reelle Polynome immer:

Satz 4.9 (Fundamentalsatz der Algebra) Ein komplexes Polynom


p(λ) = λn + an−1 λn−1 + ... + a1 λ + a0 , aj ∈ C, n ≥ 1,
hat immer mindestens eine Nullstelle c ∈ C. Ja, es gibt sogar Zahlen c1 , ..., cn ∈ C, (die nicht alle
verschieden zu sein brauchen,) so, dass
p(λ) = (λ − c1 ) · ... · (λ − cn ).

Der Beweis des Fundamentalsatzes der Algebra benötigt ganz andere Methoden, als wir sie bisher
kennen gelernt haben. Ein Beweis ist beispielsweise Standardstoff der Vorlesung Funktionentheorie.
Wir wollen diesen wichtigen Satz jetzt als wahr unterstellen und daraus Konsequenzen für reelle und
komplexe Matrizen ziehen.

Für eine komplexe Zahl c = a + ib definiert man die komplex-konjugierte Zahl c̄ = a − ib. Die Zahl
c ∈ C ist reell genau dann, wenn c = c̄. Konjugation verträgt sich mit der Multiplikation komplexer
Zahlen:
c1 c2 = (a1 + ib1 )(a2 + ib2 )
= a1 a2 − b1 b2 + i(a1 b2 + a2 b1 )
= a1 a2 − b1 b2 − i(a1 b2 + a2 b1 )
= (a1 − ib1 )(a2 − ib2 )
= c1 · c2 .

116
Deswegen gilt für ein Polynom p(λ) mit reellen Koeffizienten stets p(c̄) = p(c). Ist c ∈ C eine Nullstelle
des reellen Polynoms p, so auch c̄. Ist nun der Grad des Polynoms p ungerade, so können nicht alle
Wurzeln als Paare komplex-konjugierter Wurzeln auftreten, es muss mindestens eine reelle Nullstelle
von p geben. (Dass reelle Polynome ungeraden Grades immer mindestens eine reelle Nullstelle besitzen,
kann man auch mit dem Zwischenwertsatz der Analysis zeigen.)
Hieraus folgt der zweite Teil des nächsten Satzes, dessen erster Teil sich aus dem Fundamentalsatz
ergibt.

Satz 4.10 Eine C-lineare Abbildung eines endlich-dimensionalen komplexen Vektorraums in sich hat
immer mindestens einen komplexen Eigenwert, also auch immer mindestens einen Eigenvektor.
Eine IR-lineare Abbildung eines reellen Vektorraums ungerader Dimension hat immer mindestens
eine reellen Eigenwert, also auch mindestens einen reellen Eigenvektor.

Satz 4.11 (Trigonalisierung) Jede komplexe n × n-Matrix C ist ähnlich zu einer oberen Dreiecks-
matrix  
c1 ∗ · · · ∗
 .. 
 0 c
2 ∗ . 
.
 
 .
 . ..
 . . . ∗ 
0 · · · 0 cn

Beweis (Induktion nach n): Für den Induktionsanfang n = 1 ist nichts zu zeigen.
Sei also n ≥ 2. Nach dem Fundamentalsatz der Algebra existiert ein Eigenwert c1 mit einem
zugehörigen Eigenvektor v1 6= 0. Wir ergänzen v1 zu einer Basis v1 , ..., vn unseres Vektorraums Cn .
Dabei verändert sich die Matrix C in
 
c1 ∗ · · · ∗

 0 

 .. ,
. D
 
 
0

mit einer komplexen (n − 1 × n − 1)-Matrix D. Nach Induktionsannahme existiert dann eine Matrix
A ∈ GL(n − 1, C) so, dass A−1 · D · A eine obere Dreiecksmatrix ist. Dann hat auch die zu C ähnliche
Matrix
       
1 0 ··· 0 c1 ∗ · · · ∗ 1 0 ··· 0 c1 ∗ ··· ∗

 0   0
 
  0
  
  0
 

 ..  ·  .  ·  .  =  . 
. A−1   .. D   .. A  .. A−1 · D · A
       
  
0 0 0 0

Dreiecksgestalt.

Bemerkung 1 zum Beweis von Satz 4.11: Die induktiv gesuchten Eigenvektoren können zunächst
alle zum gleichen Eigenwert λ1 , dann zum nächsten Eigenwert λ2 der Matrix C, und so weiter, gewählt

117
werden. Dann erhält man als Diagonaleinträge in der zu C ähnlichen Matrix:

c1 = ... = cr1 = λ1 

cr1 +1 = ... = cr1 +r2 = λ2 
.. .. ..  paarweise voneinander verschieden.
. . .  

cn−rk +1 = ... = cn = λk 

Bemerkung 2 zum Beweis von Satz 4.11: Von den Eigenschaften des Körpers C haben wir nur
den Fundamentalsatz der Algebra im Beweis benutzt. Wir hätten von vorneherein auch voraussetzen
können, dass das charakteristische Polynom χC in Linearfaktoren zerfällt, der Beweis wäre genauso
durchgegangen. Wir sehen: Eine Matrix ist (über einem beliebigen Körper K) genau dann trigonali-
sierbar, wenn ihr charakteristisches Polynom über diesem Körper K in Linearfaktoren zerfällt.

Aufgabe 4.4 Gekoppelte Federn, wie am Anfang dieses Paragraphen, kann


man sehr schön experimentell aufbauen. Die senkrechten Schwingungen kann
e
e
man aber sehr schlecht beobachten, weil die Federn schnell horizontal ins e
e
Wackeln kommen. Einfacher ist das, wenn man die untere Masse mit einer e
dritten Feder (wie in nebenstehender Zeichnung) stabilisiert. Die Bewegungs- m t
gleichungen lauten dann 1
e
e y
e
?
e
e
mÿ 1 = −ky 1 + k(y 2 − y 1 ) = k(y 2 − 2y 1 ),
m t
mÿ 2 = −k(y 2 − y 1 ) − ky 2 = k(y 1 − 2y 2 ).
2
e
e y
e
?
Bestimmen Sie (für k = m = 1) Eigenwerte und Eigenvektoren der Koeffi- e
e
zientenmatrix dieses Systems (und verifizieren Sie, dass dieses System auch
mathematisch einfacher zu behandeln ist).

Aufgabe 4.5 Berechnen Sie die (möglicherweise komplexen) Eigenwerte und Eigenvektoren der reel-
len Matrix  
0 2 −1
 −2 0 2 .
 
1 −2 0

Aufgabe 4.6 Es sei ϕ : Cn → Cn die lineare Abbildung, welche die Vektoren ek , k = 1, ..., n der
Standardbasis folgendermaßen abbildet:

ϕ(ek ) = ek+1 für k = 1, ..., n − 1, ϕ(en ) = e1 .

Berechnen Sie das charakteristische Polynom von ϕ und bestimmen Sie im Fall n = 4 alle Eigenwerte
und Eigenvektoren von ϕ.

Aufgabe 4.7 a) Es sei v = (λ1 , ..., λn ) ∈ K n so, dass alle λν paarweise voneinander verschieden
sind. Zeigen Sie, dass die Vektoren

vk := (λk1 , ..., λkn ), k = 1, ..., n,

linear unabhängig sind. (Hier ist λkν die k-te Potenz von λν .)

118
b) Es sei A ∈ M (n × n, K) mit n verschiedenen Eigenwerten. Zeigen Sie für B ∈ M (n × n, K) die
Äquivalenz der beiden folgenden Eigenschaften:
i) AB = BA,
ii) B = b0 1l + b1 A + b2 A2 + ... + bn−1 An−1 mit b0 , b1 , ..., bn−1 ∈ K.

Aufgabe 4.8 (NV) In einem vierdimensionalen Vektorraum V sei {b1 , b2 , b3 , b4 } eine Basis. Eine
lineare Abbildung f : V → V habe die Eigenschaft
f (b1 ) = 0, f (b2 ) = b1 + 4b4 ,
f (b3 ) = b2 − 8b4 , f (b4 ) = b3 + 5b4 .
Ist f diagonalisierbar?

Aufgabe 4.9 (NV) Man betrachte die Matrix


 
1 0 0 0
 1 1 1 0 
A= .
 
 1 0 2 0 
1 0 1 1

Ist A diagonalisierbar? Falls ja, geben Sie eine Matrix S an, so dass S −1 AS Diagonalgestalt hat.

Aufgabe 4.10 (NV) Im IR-Vektorraum aller Abbildungen von IR in IR betrachte man den von den
Funktionen
f (x) = ex , g(x) = xex , h(x) = e−x
aufgespannten Unterraum V = IRf + IRg + IRh und den Endomorphismus

ϕ : V → V, F 7→ F 0 (Differentiation)

von V . Bestimmen Sie die Eigenwerte und Eigenräume von ϕ.

Aufgabe 4.11 (NV) Bestimmen Sie eine Basis für den Kern sowie die Eigenwerte der linearen
Abbildung ! !
1 1 1 1
f : IR2×2 → IR2×2 mit X 7→ X .
0 1 1 1
Ist f diagonalisierbar?
 
1 2 2
Aufgabe 4.12 (NV) Gegeben sei die reelle Matrix A =  0 2 1 .
 
−1 2 2
a) Berechnen Sie das charakteristische Polynom und die Eigenwerte von A.
b) Untersuchen Sie, ob A zu einer reellen Diagonalmatrix ähnlich ist.

Aufgabe 4.13 (NV) Für n ≥ 1 sei V der Vektorraum der Polynome vom Grad ≤ n mit reellen
Koeffizienten. Sei A : V → V die lineare Abbildung mit

(Af )(X) = f (X + 1) − f 00 (X)

wobei f 00 die zweite Ableitung von f ist. Zeigen Sie, dass λ = 1 der einzige Eigenwert von A ist, und
bestimmen Sie den zugehörigen Eigenraum.

119
Aufgabe 4.14 (NV) Entscheiden Sie, welche der folgenden Matrizen zueinander ähnlich sind und
welche nicht, und begründen
! Sie Ihre Antwort:
! !
1 1 1 1 1 0
a) A= , B= , C= .
0 1 1 0 1 1
   
1 0 0 −1 4 8
b) A =  0 −1 0 , B = 91  4 −7 4 .
   
0 0 −1 8 4 −1

Aufgabe 4.15 (NV) Seien r, s reelle Zahlen mit 0 ≤ r, s ≤ 1, und sei


 
0 1 0 0
 r 0 1−r 0 
P = .
 
 0 1−s 0 s 
0 0 1 0

a) Ermitteln Sie alle Eigenwerte von P .


b) Geben Sie alle Parameterpaare (r, s) an, für die P diagonalisierbar ist.

Aufgabe 4.16 (NV) Der Endomorphismus f ∈ End(IR4 ) habe bezüglich der kanonischen Basis die
Abbildungsmatrix  
0 −2 0 0
 1 3 0 0 
.
 
 3 0 0 −2 

0 −3 1 −3
Man prüfe, ob A diagonalisierbar ist, und bestimme gegebenenfalls eine Basis des IR4 , bezüglich der f
als Abbildungsmatrix eine Diagonalmatrix besitzt.

Aufgabe 4.17 (NV) a) Zeigen Sie, dass für eine 2 × 2-Matrix A über einem beliebigen Körper gilt:
A ist genau dann diagonalisierbar, wenn A entweder verschiedene Eigenwerte besitzt, oder wenn A ein
Vielfaches der Einheitsmatrix ist.
b) Die reelle 2 × 2-Matrix A habe den Vektor (3, 4)t als Eigenvektor zum Eigenwert 2 und den Vektor
(4, −3)t zum Eigenwert −1. Bestimmen Sie die Matrix A.

Aufgabe 4.18 (NV) Seien a und b reelle Zahlen mit a2 + b2 = 1. Ermitteln Sie alle Eigenwerte und
Eigenräume der Matrix  
1 2 2
−ab 2 (a − b ) 0
A =  12 (a2 − b2 ) ab 0 .
 
0 0 1

Aufgabe 4.19 (V) Sei  


−1 −5 5
A =  −5 −1 5  .
 
−5 −5 9
a) Geben Sie das charakteristische Polynom an. Berechnen Sie Eigenwerte und Eigenvektoren von A,
und geben Sie die Eigenräume an.
b) Zeigen Sie, dass es eine Matrix B ∈ C3×3 mit B 2 = A gibt.

120
Aufgabe 4.20 (V) Seien V = IR3 und f : V → V die lineare Abbildung mit der Matrix
 
3 −1 1
A= 2 0 1 .
 
−1 1 1

Bestimmen Sie alle Unterräume U ⊂ V , für die f (U ) ⊂ U .

Aufgabe 4.21 (V) Sei A eine reelle 3×3-Matrix mit chakteristischem Polynom det(λ1l−A) = λ3 −λ.
(i) Man begründe, dass A über C diagonalisierbar ist.
(ii) Man gebe den Rang der Matrizen A, A2 , A2 + 1l, A2 − 1l an.
(iii) Man bestimme alle r, s, t ∈ IR mit r1l + sA + tA2 = 0.
(iv) Man zeige, dass A1994 = A2 ist.
(v) Man gebe eine solche reelle Matrix A an.

Aufgabe 4.22 (V) Gegeben seien die Matrizen


     
1 2 3 1 5 6 1 0 0
A= 0 2 3 , B =  0 0 2 , C =  1 2 0 .
     
0 0 −2 0 2 0 1 1 2

Man beweise oder widerlege:


a) Es gibt eine invertierbare Matrix T mit A = T −1 BT .
b) Es gibt eine invertierbare Matrix T mit A = T −1 CT .

Aufgabe 4.23 (V) Ist die symmetrische Matrix


√ !
√ 1 −1
A=
−1 1

diagonalisierbar? Wenn ja, berechne man eine Basis aus Eigenvektoren.

Aufgabe 4.24 (V) Für die Matrizen


   
0 1 1 1 0 1 1 1
 1 0 1 1   1 0 1 1 
und
   
3 1
1 1 0 1 2 0 1
   
   2 
1 3
1 1 1 0 2 2 1 0

zeige man, dass ihre Eigenwerte samt algebraischer Vielfachheit übereinstimmen, aber nur eine dia-
gonalisierbar ist.
!
a c
Aufgabe 4.25 (V) Sei A = eine reelle Matrix mit b > 0 und c > 0. Zeigen Sie:
b d
a) A hat zwei reelle Eigenwerte.
b) Kein Quadrant der Ebene IR2 enthält Eigenvektoren zu beiden Eigenwerten von A.

121
Aufgabe 4.26 (V) Gegeben seien die Matrizen
   
3 −1 −1 −1 0 0
A :=  0 1 0  und B :=  8 −5 −8  ∈ M3 (Q).
   
2 −1 0 −8 4 7
a) Zeigen Sie, dass sowohl A als auch B diagonalisierbar sind.
b) Zeigen Sie, dass A und B simultan diagonalisierbar sind, d.h., dass es ein invertierbares T ∈ M3 (Q)
gibt, derart dass T AT −1 und T BT −1 beide Diagonalgestalt haben.
Aufgabe 4.27 (V) Zeigen Sie, dass die Matrix
 
2 1 0
A =  0 1 −1  ∈ IR3×3
 
0 2 4
über IR nicht diagonalisierbar, aber trigonalisierbar (d.h. ähnlich zu einer Dreiecksmatrix) ist. geben
Sie ein S ∈ GL(3, IR) an, so dass SAS −1 eine Dreiecksmatrix ist.
Aufgabe 4.28 (V) Bestimmen Sie alle Eigenvektoren und Eigenwerte der reellen Matrizen
   
−2 2 −3 1 2 −1
A= 2 1 −6  und B =  −2 3 1 
   
−1 −2 0 −3 8 1
und entscheiden Sie, ob A und B diagonalisierbar sind. Hinweis: beide Matrizen haben ganzzahlige
Eigenwerte.
 
0 −1 1
Aufgabe 4.29 (V) Sei A =  −3 −2 3  eine reelle Matrix. Geben Sie eine Basis des IR3 an,
 
−2 −2 3
die aus Eigenvektoren von A besteht.

4.3 Der Satz von Cayley-Hamilton


Wir werden jetzt in großem Stil Matrizen in Polynome einsetzen und damit rumrechnen. Über den
Grundkörper K werden wir zunächst nichts voraussetzen. Sei also
p(λ) = an λn + an−1 λn−1 + ... + a1 λ + a0
ein Polynom mit Koeffizienten aν ∈ K. Eine k ×k Matrix C setzt man folgendermaßen in das Polynom
p(λ) ein: Man schreibt ganz formal
n
X
p(λ) = aν λν ,
0
n
X
p(C) = aν C ν
0
= an C n + an−1 C n−1 + ... + a1 C + a0 1lk .

122
Das funktioniert problemlos. Das einzige, was man sich merken muss, ist die Vereinbarung

C 0 = 1lk .

Beispiel: Sei etwa p(λ) = λ2 − 1. Dann ist

p(C) = C 2 − 1l.

Und die Faktorisierung


p(λ) = (λ + 1)(λ − 1)
schlägt durch auf das Matrizenpolynom:

(C + 1l)(C − 1l) = C 2 + C − C − 1l = C 2 − 1l.

Diese Produktformel gilt ganz allgemein:

Satz 4.12 Ist


p(λ) = q1 (λ) · q2 (λ)
ein Polynom-Produkt, so gilt für jede k × k-Matrix C

p(C) = q1 (C) · q2 (C).

Zum Beweis setzt man C in das Produkt q1 (λ)·q2 (λ) ein und multipliziert aus. Dann sammelt man
nach Potenzen von C. Am Schluss kommen dieselben Koeffizienten heraus, wie wenn man die Polynome
q1 (λ) und q2 (λ) ausmultipliziert hätte. Ob wir die Potenzen einer Unbekannten λ aufsammeln, oder
die Potenzen einer quadratischen Matrix C, das läuft auf dieselben Koeffizienten hinaus.
Ein ganz wesentlicher Punkt ist, dass man im obigen Produkt die Faktoren vertauschen darf:

q1 (C) · q2 (C) = q2 (C) · q1 (C).

Obwohl Matrizen i.a. nicht kommutieren, kommutieren Matrizen, die Polynome der gleichen Matrix C
sind, immer. Das ist eine sehr hilfreiche Tatsache. Ein zweiter hilfreicher Punkt ist, dass sich Polynome
und konjugierte Matrizen sehr gut vertragen:

Satz 4.13 Die Matrix C 0 = A−1 · C · A sei konjugiert zur Matrix C. Dann gilt für jedes Polynom p(λ)

p(C 0 ) = A−1 · p(C) · A.

Beweis. Wegen

(C 0 )ν = (A−1 · C · A) · (A−1 · C · A) · ... · (A−1 · C · A)


= A−1 · C · C · ... · C · A
= A−1 · C ν · A

kann man einfach ausmultiplizieren


n n n
p(C 0 ) = aν (C 0 )ν = aν · A−1 · C ν · A = A−1 · aν C ν · A = A−1 · p(C) · A.
X X X

0 0 0

123
Das ist ja alles sehr schön, aber in welches Polynom soll man denn eine Matrix C einsetzen? Zum
Beispiel in ihr eigenes charakteristisches Polynom χC (λ).
Beispiel 1 (Drehmatrix) Aus persönlicher Faulheit kürze ich jetzt ab
cos(ϕ) = c, sin(ϕ) = s,
und betrachte eine Drehmatrix !
c −s
C= .
s c
Ihr charakteristisches Polynom ist
χC (λ) = (c − λ)2 + s2 .
Und wenn wir hier die Matrix C einsetzen, finden wir
χC (C) = (c · 1l2 − C)2 + s2 · 1l2
!2 !
0 s s2 0
= +
−s 0 0 s2
! !
−s2 0 s2 0
= +
0 −s2 0 s2
= 0.
Es ist die Null-Matrix herausgekommen.
Beispiel 2 (Nilpotente Matrix) Es sei
 
0 ∗ ... ∗
 .. . . . . .. 
 . . . . 
N =
 
.. .. 

 . . ∗ 

0 ... ... 0
eine obere n × n-Dreiecksmatrix, die auch auf der Diagonale nur Nulleinträge aufweist. Sie hat den
einzigen Eigenwert λ = 0 mit der Vielfachheit n. Ihr charakteristisches Polynom ist also
χN (λ) = (−λ)n .
Wir setzen die Matrix N ein:
χN (N ) = (−1)n · N n .
Und was kommt dabei heraus? Multiplizieren wir aus!
Sei etwa N = (alk ). Dann ist also alk = 0 für k ≤ l. Und N 2 = ( m alm am
k ) hat für k ≤ l + 1 die
P

Einträge
X l
X n
X
alm am
k = 0 · am
k + alm · 0 = 0.
m m=1 m=l+1

In der Matrix N2 sind die Nulleinträge bereits in die erste Parallele oberhalb der Diagonale einge-
drungen. Entsprechend vergrößert sich bei jeder Multiplikation mit N die Anzahl dieser Parallelen aus
Nulleinträgen um 1. Die Matrix N n enthält dann nur noch Nulleinträge:
χN (N ) = 0.

124
Hinter diesen Beispielen steckt System:

Satz 4.14 (Cayley-Hamilton) Für jede komplexe n × n-Matrix C gilt

χC (C) = 0.

Beweis. Wir müssen K = C voraussetzen, weil wir den Fundamentalsatz der Algebra auf das
charakteristische Polynom χC (λ) anwenden. Das zerfällt in komplexe Linearfaktoren, und nach dem
Trigonalisierbarkeitskriterium 4.11 ist C ähnlich zu einer oberen Dreiecksmatrix C 0 . Es ist

χC 0 (λ) = χC (λ),

und wegen 4.13 gilt mit der Transformationsmatrix A

χC 0 (C 0 ) = χC (C 0 ) = A−1 · χC (C) · A.

Es würde also genügen, die Aussage für die obere Dreiecksmatrix C 0 zu beweisen. Mit anderen Worten:
Wir können o.B.d.A. annehmen, C selbst ist eine obere Dreiecksmatrix.
Auf der Diagonale von C stehen dann die Eigenwerte, etwa in der Reihenfolge

λ1 , λ2 , ..., λn .

Wir beweisen jetzt durch Induktion nach k = 1, ..., n die folgende Aussage:

(λ1 · 1ln − C) · (λ2 · 1ln − C) · ... · (λk · 1ln − C) · ei = 0 für i = 1, ..., k.

Etwas anders ausgedrückt: Die ersten k Spalten der Matrix

(λ1 · 1ln − C) · ... · (λk · 1ln − C)

sind Null-Spalten. Für k = n ist dies die Behauptung unseres Satzes.


Induktionsanfang (k = 1): Die Matrix λ1 · 1ln hat, ebenso wie die Matrix C in ihrer linken oberen
Ecke den Eintrag λ1 . Alle anderen Einträge dieser beiden Matrizen in der ersten Spalte sind = 0, wie
sich das für obere Dreiecksmatrizen gehört. Also sind alle Einträge = 0 in der ersten Spalte der Matrix
λ1 · 1ln − C.
Induktionsannahme: Die Behauptung gelte für alle i < k.
Induktionsschluss: Für jedes i < k ist (Vertauschbarkeit von Polynomen derselben Matrix)

(λ1 · 1ln − C) · ... · (λk · 1ln − C) · ei


= (λi+1 · 1ln − C) · ... · (λk · 1ln − C) · [(λ1 · 1ln − C) · ... · (λi · 1ln − C) · ei ]
= (λi+1 · 1ln − C) · ... · (λk · 1ln − C) · 0
= 0

nach Induktionsannahme. Und für i = k ist der (k, k)-Diagonal-Eintrag der Matrix λk · 1ln − C gerade
λk − λk = 0. Deswegen ist
k−1
X
(λk · 1ln − C) · ek = ci ei
1

125
eine Linearkombination der Vektoren e1 , ..., ek−1 . Und daraus folgt auch für i = k

(λ1 · 1ln − C) · ... · (λk · 1ln − C) · ek


(λ1 · 1ln − C) · ... · (λk−1 · 1ln − C) · (c1 e1 + ... + ck−1 ek−1 )
= 0.

Dieser Satz von Cayley-Hamilton gilt natürlich nicht nur für komplexe Matrizen C, sondern auch
für reelle. Man kann ja jede reelle Matrix auch als eine komplexe Matrix auffassen.

Also, Cayley-Hamilton sagt aus: Wenn man eine Matrix in ihr eigenes charakteristisches Poly-
nom einsetzt, kommt die Null-Matrix raus. Aber das charakteristische Polynom ist nicht das einzige
Polynom mit dieser Eigenschaft. Dazu ein simples
Beispiel: Das charakteristische Polynom der Einheitsmatrix 1ln ist χ1l (λ) = (1 − λ)n . Aber nicht
nur für dieses Polynom, sondern sogar schon für

p(λ) = 1 − λ

gilt
p(1ln ) = 1 · 1ln − 1ln = 0.

Satz 4.15 (Minimalpolynom) Ist µ(λ) 6≡ 0 ein Polynom vom kleinstmöglichen Grad mit µ(C) = 0,
so teilt µ jedes andere Polynom p(λ) mit der Eigenschaft p(C) = 0.

Beweis. Sei p = p(λ) irgend ein Polynom mit p(C) = 0. Wenn µ das Polynom p teilt, also wenn

p(λ) = µ(λ) · q(λ)

mit einem Polynom q(λ) gilt, dann sind wir fertig. Andernfalls teilen wir p trotzdem durch µ. Das
geht natürlich nicht: Wenn wir die aus der Schule bekannte Polynomdivision verwenden, dann bleibt
ein Rest r übrig:
p(λ) = µ(λ) · q(λ) + r(λ).
Das Wesentliche dabei ist: der Rest r hat einen Grad kleiner als Grad(µ).
Andererseits folgt aus p(C) = 0, dass

r(C) = p(C) − µ(C) · q(C) = 0.

Weil aber µ das Polynom kleinsten Grades sein sollte, mit der Eigenschaft µ(C) = 0, kann das nicht
gut gehen. D.h., die Polynomdivision liefert keinen Rest r, sondern sie muss aufgehen.
Das Polynom µ kleinsten Grades mit der Eigenschaft µ(C) = 0 ist bis auf einen Normierungsfaktor
eindeutig bestimmt. Denn ist etwa µ0 ein anderes solches Polynom, notwendig vom selben Grad wie
µ, dann folgt aus Satz 4.15
µ = q · µ0 ,
wo q ein Polynom vom Grad Grad(µ) − Grad(µ0 ) = 0 ist. Also ist q eine Konstante.
Diese letzte Aussage rechtfertigt die folgende Definition:

126
Definition 4.4 Sei C ∈ M (k × k, K) eine quadratische Matrix. Das normierte Polynom

µC (λ) = λν + aν−1 λν−1 + ... 6≡ 0

kleinsten Grades mit µC (C) = 0 heißt Minimalpolynom der Matrix C.

Aus dem Satz von Hamilton-Cayley folgt: Das Minimalpolynom µC teilt das charakteristische
Polynom χC . Jede Wurzel von µC (λ) ist also auch eine Wurzel von χC (λ), d.h. ein Eigenwert. Davon
gilt aber auch die Umkehrung:

Satz 4.16 Jeder Eigenwert der komplexen Matriz C ist auch eine Wurzel ihres Minimalpolynoms
µC (λ).

Beweis. Die Eigenwerte von C seien λ1 , ..., λk . Wir gehen über in eine Basis, in der C obere
Dreiecksform hat (Satz 4.11). Auf der Diagonale von C stehen dann die Eigenwerte λ1 , ..., λk mit
ihren entsprechenden Vielfachheiten. Jede Potenz C ν ist wieder eine obere Dreiecksmatrix mit den
Diagonaleinträgen λν1 , ..., λνk . Für jedes Polynom p(λ) = aν λν ist deswegen p(C) auch eine obere
P

Dreiecksmatrix mit den Diagonaleinträgen


X X
aν λν1 = p(λ1 ), ..., aν λνk = p(λk ).

Weil für das Minimalpolynom µC gilt µC (C) = 0, müssen für p(λ) = µC (λ) die Diagonaleinträge
µC (λ1 ) = ... = µC (λk ) = 0 sein.
Die Nullstellen von χC und µC stimmen also überein. Der Unterschied zwische beiden Polynomen
liegt nur darin, dass diese Nullstellen in χC mit einer höheren Vielfachheit vorkommen können, als in
µC .

Wir wollen noch etwas mehr mit Polynomen von Matrizen rumspielen. Dazu brauchen wir aber
noch ein wenig mehr Informationen über Polynome.

Satz 4.17 (Hilfssatz) Es seien p1 (λ) und p2 (λ) zwei komplexe Polynome ohne gemeinsame Null-
stelle. Dann gibt es komplexe Polynome f1 (λ) und f2 (λ) mit

p1 (λ) · f1 (λ) + p2 (λ) · f2 (λ) = 1.

Beweis. O.B.d.A. habe das Polynom p2 einen Grad ≤ Grad(p1 ). Wenn p2 das Nullpolynom wäre,
müsste p1 = c eine Konstante c 6= 0 sein, denn jedes Polynom von einem Grad > 0 hätte ja eine
Nullstelle (Fundamentalsatz der Algebra). Dann können wir f1 = 1/c, f2 beliebig nehmen. Das war
natürlich ein Trivialfall. Nehmen wir also jetzt an p2 (λ) 6≡ 0.
Die Methode, welche wir anwenden, heißt euklidischer Algorithmus. Die Idee besteht darin, die
Division mit Rest immer weiter zu iterieren. Also:

p1 (λ) = p2 (λ) · q2 (λ) + p3 (λ),


p2 (λ) = p3 (λ) · q3 (λ) + p4 (λ),
p3 (λ) = p4 (λ) · q4 (λ) + p5 (λ),
..
.

mit
Grad(p2 ) > Grad(p3 ) > Grad(p4 ) > Grad(p5 ) > ...

127
Weil der Grad der beteiligten Polynome immer kleiner wird, kann das nicht auf Dauer gut gehen. Es
wird eine harte Landung geben. Die sieht etwa so aus:
..
.
pk−3 (λ) = pk−2 (λ) · qk−2 (λ) + pk−1 (λ)
pk−2 (λ) = pk−1 (λ) · qk−1 (λ) + pk (λ)
pk−1 (λ) = pk (λ) · qk (λ) + c.

Dabei ist pk (λ) noch ein echtes Polynom mit Grad(pk ) > 0, aber der letzte Rest c ist ein Polynom
vom Grad 0, eine Konstante.
Wenn c = 0 wäre, würde jede Nullstelle von pk auch eine von pk−1 sein. (Und wegen des F.S.d.A.
hat pk eine Nullstelle.) Aus der vorletzten Zeile sieht man, dass die dann auch eine Nullstelle von pk−2
wäre. Und hangelt man sich auf diese Weise Zeile für Zeile weiter nach oben, bis in die allererste Zeile
der ganzen Gleichungen, so wird diese Nullstelle von pk auch eine gemeinsame Nullstelle von p1 und
p2 . Widerspruch! Das beweist c 6= 0.
Setzen wir jetzt fk−1 := 1/c, fk := −qk /c, so können wir die letzte Zeile umschreiben in

fk−1 · pk−1 + fk · pk = 1.

Mit der vorletzten Zeile können wir pk raus- und pk−2 reinschmeißen. Mit einem abgeänderten Polynom
fk−1 erhalten wir dann
fk−2 · pk−2 + fk−1 · pk−1 = 1.
Wieder kann man sich auf diese Weise ganz nach oben hangeln, und am Schluss steht die Behauptung
da.
Obwohl das in der Praxis etwas mühsam ist, kann man diesen euklidischen Algorithmus doch
konkret anwenden. Das einfachste Beispiel dafür, das mir eingefallen und nicht ganz trivial ist, ist
folgendes:
p1 (λ) = λ2 + λ + 1, p2 (λ) = λ2 − 1.
Man sieht sofort, die Nullstellen ±1 von p2 sind keine Nullstellen von p1 . Der euklidische Algorithmus
läuft so:

λ2 + λ + 1 = (λ2 − 1) · 1 + (λ + 2),
λ2 − 1 = (λ + 2) · (λ − 2) + 3.

Mit c = 3 bricht der euklidische Algorithmus ab. Es folgt


1 2 1
1 = (λ − 1) − (λ − 2) · (λ + 2)
3 3
1 2 1
= (λ − 1) − (λ − 2) · [(λ2 + λ + 1) − (λ2 − 1)]
3 3
1 1
= (2 − λ) · (λ2 + λ + 1) + (λ − 1) · (λ2 − 1).
3 3

Die Formel aus vorstehendem Hilfssatz gehört in die (nicht-lineare) Algebra, mit linearer Algebra
hat sie nichts zu tun. Aber mit ihr kann man zaubern. Wenden wir sie auf das charakteristische
Polynom einer Matrix C an!

128
Satz 4.18 Es sei C eine komplexe n × n-Matrix, deren charakteristisches Polynom

χC (λ) = p1 (λ) · p2 (λ)

in zwei Faktoren p1 (λ) und p2 (λ) ohne gemeinsame Nullstellen zerfällt. Dann gibt es Untervektorräume
U1 , U2 ⊂ Cn mit
i) U1 + U2 = Cn ,
ii) U1 ∩ U2 = {0},
iii) u ∈ Ui ⇒ C · u ∈ Ui (i = 1, 2),
iv) ist Φ : Cn → Cn die lineare Abbildung x 7→ C · x, und sind Φi := Φ|Ui : Ui → Ui , (i = 1, 2) die
Einschränkungen von Φ auf die Unterräume Ui , so gilt

p2 (Φ1 ) = 0, p1 (Φ2 ) = 0.

Beweis. Wir wählen Polynome fi , i = 1, 2, wie im Hilfssatz 4.17 mit

f1 (λ) · p1 (λ) + f2 (λ) · p2 (λ) = 1.

Weiter definieren wir die Matrizen

Ci := fi (C) · pi (C), i = 1, 2,

und wählen als Unterräume Ui ⊂ Cn die Bilder der linearen Abbildungen

C n → Cn , x 7→ Ci · x.

Jetzt müssen wir die vier behaupteten Eigenschaften nachweisen:


i) Nach Konstruktion der Polynome fi ist

C1 + C2 = f1 (C) · p1 (C) + f2 (C) · p2 (C) = 1l.

Jeder Vektor x ∈ Cn schreibt sich also

x = 1lx = C1 · x + C2 · x = u1 + u2

als Summe zweier Vektoren ui := Ci x ∈ Ui , i = 1, 2.


ii) Sei x ∈ U1 ∩ U2 , also

x = C1 · v1 = C2 · v2
= f1 (C) · p1 (C) · v1 = f2 (C) · p2 (C) · v2

mit Vektoren v1 , v2 ∈ Cn . Daraus folgt aber

p1 (C) · x = p1 (C) · f2 (C)p2 (C) · v2 = f2 (C) · p1 (C)p2 (C) · v2 = 0,

denn nach Cayley-Hamilton ist


p1 (C) · p2 (C) = χC (C) = 0.
Genauso sieht man p2 (C) · x = 0. Und wegen der Formel

x = C1 · x + C2 · x = f1 (C) · p1 (C)x + f2 (C) · p2 (C)x

129
aus dem Beweis für i) gilt x = 0.
iii) Es sei etwa
ui = fi (C)pi (C) · v ∈ Ui .
Wegen der Vertauschbarkeit von Polynomen derselben Matrix folgt

C · ui = C · fi (C)pi (C) · v = fi (C)pi (C) · Cv ∈ Ui .

iv) Jeder Vektor x ∈ U1 ist von der Form x = f1 (C)p1 (C) · v, v ∈ C n . Wegen der Vertauschbarkeit
von Polynomen der Matrix C gilt deswegen

p2 (C) · x = p2 (C) · f1 (C)p1 (C) · v = f1 (C) · p1 (C)p2 (C) · v = f1 (C) · 0 · v = 0.

Aufgabe 4.30 Verifizieren Sie den Satz von Cayley-Hamilton für die Matrix
 
0 1 0
C =  0 0 1 .
 
1 0 0

Aufgabe 4.31 Finden Sie die Unterräume Ui aus Satz 4.18 für die Zerlegung des charakteristischen
Polynoms der Matrix !
0 1
C=
1 0
in seine beiden Linearfaktoren.

Aufgabe 4.32 Es sei D eine n × n-Matrix mit n verschiedenen Eigenwerten. Zeigen Sie für jede
n × n-Matrix C
C · D = D · C ⇔ C = p(D)
mit einem Polynom p(λ).

Aufgabe 4.33 Der Matrizenraum M (2 × 2, IR) werde aufgefasst als vier-dimensionaler Vektorraum
IR4 . Zeigen Sie für jede Matrix C ∈ M (2 × 2, IR), dass alle ihre Potenzen 1l2 , C, C 2 , C 3 , ... in einer
Ebene liegen.

130
4.4 Die Jordansche Normalform
Definition 4.5 Zwei Untervektorräume U1 , U2 des K-Vektorraums V bilden eine Zerlegung von V in
eine direkte Summe, in Zeichen:
V = U1 ⊕ U2 ,
wenn gilt
V = U1 + U2 und U1 ∩ U2 = {0}.
Äquivalent hierzu ist, dass sich jeder Vektor v ∈ V eindeutig schreiben lässt als v = u1 + u2 mit
u1 ∈ U1 , u2 ∈ U2 .
Beispiele. 1) K n1 +n2 = K n1 ⊕ K n2
2) v1 , ..., vn ∈ V bilden eine Basis von V , genau dann, wenn V = K · v1 ⊕ ... ⊕ K · vn .
3) Die Vektorräume U1 und U2 ⊂ Cn aus Satz 4.18 bilden eine Zerlegung Cn = U1 ⊕ U2 von Cn in
eine direkte Summe.

Sei Φ : V → V linear. Eine direkte Summen-Zerlegung V = U1 ⊕ ... ⊕ Uk heißt Φ-invariant, wenn


Φ(Uj ) ⊂ Uj für j = 1, ..., k. Bei einer solchen Zerlegung kann man folgendermaßen eine Basis von V
wählen:
v1 , ..., vr1 , vr1 +1 , ..., vr1 +r2 , ..., vn−rk +1 , ..., vn .
| {z } | {z } | {z }
Basis von U1 Basis von U2 Basis von Uk
Ist diese Zerlegung Φ-invariant, werden also die Basis-Vektoren von Uj wieder nach Uj hinein abge-
bildet, dann ist die darstellende Matrix für Φ in einer derartigen Basis von der Form
 
C1 0 ··· 0
 .. 

 0 C2 . 

 .. .. 

 . . 0 

0 ··· 0 Ck
mit Matrizen Cj ∈ M (rj ×rj , K), j = 1, ..., k. Eine solche Matrix, in der kleinere quadratische Matrizen
Cj längs der Diagonale aufgereiht sind, heißt auch direkte Summe der Matrizen C1 , ..., Ck .
Dabei ist jede Matrix Cj die beschreibende Matrix für die lineare Abbildung Φ|Uj : Uj → Uj , die
Einschränkung von Φ auf Uj , definiert durch
(
Uj → Uj
Φ|Uj :
u 7→ Φ(u)
Insbesondere ist das charakteristische Polynom der ganzen Matrix das Produkt
χC1 (λ) · ... · χCk (λ)
der charakteristischen Polynome der Teilmatrizen (Kästchenregel).

Satz 4.19 (Invariante direkte Summenzerlegung) Es sei Φ : Cn → Cn eine lineare Abbildung


mit charakteristischem Polynom
χΦ (λ) = (λ1 − λ)r1 · ... · (λk − λ)rk , r1 + ... + rk = n, λ1 , ..., λk ∈ C paarweise verschieden.
Dann gibt es eine Φ-invariante direkte Summenzerlegung Cn = U1 ⊕ ... ⊕ Uk so, dass dim(Uj ) = rj
und so, dass Φ|Uj das charakteristische Polynom (λj − λ)rj hat, j = 1, ..., k.

131
Satz 4.20 (Korollar) Jede komplexe n × n-Matrix C ist ähnlich zu einer direkten Summe von Ma-
trizen C1 , ..., Ck , wobei jede Matrix Cj ein charakteristisches Polynom (λj − λ)rj (nur eine einzige
Nullstelle!) hat.

Beweis von Satz 4.19 (Induktion nach k). Für den Induktionsanfang (k = 1) ist wieder einmal
nichts zu zeigen.
Induktionsschluss: Sei k ≥ 2. Wir zerlegen das charakteristische Polynom χΦ (λ) in die zwei Fak-
toren
p1 (λ) = (λ1 − λ)r1 , p2 (λ) = (λ2 − λ)r2 · ... · (λk − λ)rk .
Die beiden Faktoren p1 und p2 haben keine gemeinsame Nullstelle. Wir können also Satz 4.18 anwenden
und finden eine direkte Summenzerlegung Cn = U1 ⊕ U2 . Wegen Satz 4.18 iii) ist sie Φ-invariant.
Seien Φi , i = 1, 2 die Einschränkungen von Φ auf Ui . Das charakteristische Polynom von Φ ist also

χΦ (λ) = χΦ1 (λ) · χΦ2 (λ).

Nach Satz 4.18 iv) gilt


p1 (Φ2 ) = (λ1 id − Φ2 )r1 = 0.
Das Minimalpolynom von Φ2 teilt also p1 (λ) = (λ1 − λ)r1 . Wegen 4.16 kann dann auch das charakte-
ristische Polynom von Φ2 nur die einzige Nullstelle λ1 haben (mit der Vielfachheit dim(U2 )). Ebenso
sieht man, dass das charakteristische Polynom χΦ1 (λ) nur die Nullstellen λ2 , ..., λk hat, und keine
Wurzel λ1 . Aus χΦ (λ) = χΦ1 (λ) · χΦ2 (λ) folgt dann

χΦ2 (λ) = (λ1 − λ)r1 .

Wir haben eine Φ-invariante direkte Summenzerlegung Cn = U1 ⊕ U2 so, dass Φ|U2 das charakteristi-
sche Polynom (λ1 − λ)k1 hat. Und auf Φ|U1 wenden wir die Induktionsannahme an.

Satz 4.21 (Zusatz zu Satz 4.20 (Eindeutigkeit)) Die Unterräume Uj ⊂ Cn in der direkten Sum-
men-Zerlegung aus Satz 4.20 sind durch die lineare Abbildung Φ eindeutig bestimmt.

Beweis. Nach Konstruktion ist (λj − λ)rj das charakteristische Polynom von Φ|Uj . Aus Cayley-
Hamilton folgt für jeden Vektor u ∈ Uj

(Φ − λj · id)rj (u) = 0.

Also ist Uj in Kern((Φ−λj ·id)rj ) enthalten. Wäre Uj 6= Kern((Φ−λj ·id)rj ), dann würde Kern((Φ−
λj · id)rj ) die direkte Summe
U := ⊕k6=j Uk
der anderen Unterräume in einem Untervektorraum 6= {0} schneiden (Dimensionsformel Satz 1.14 ii).
Aber die Abbildung (Φ − λj · id)|U wird durch eine obere Dreiecksmatrix gegeben, deren Diagonalein-
träge λk − λj , k 6= j alle 6= 0 sind. Deswegen ist (Φ − λj · id)|U invertierbar und keine Potenz dieser
linearen Abbildung hat einen nichttrivialen Kern. Also folgt

Uj = Kern((Φ − λj · id)rj )

und dadurch ist Uj eindeutig bestimmt.

132
Definition 4.6 Eine Matrix N (bzw. eine lineare Abbildung Φ : V → V ) heißt nilpotent, wenn es
eine natürliche Zahl r gibt mit N r = 0, (bzw. Φr = 0).

Ist Φ : V → V nilpotent, so definiert jeder Vektor v ∈ V eine endliche Kette von Bildvektoren

v, Φ(v), Φ2 (v), ..., Φp−1 (v) 6= 0, Φp (v) = 0.

Spätestens für p = r ist Φp (v) = 0 und wir brechen die Kette ab. (Zur Kette sollen nur die Vektoren
Φk (v) gehören, welche ungleich 0 sind.)

Satz 4.22 Ist Φ : V → V eine nilpotente lineare Abbildung des endlich-dimensionalen Vektorraums
V in sich, so gibt es eine Basis von V , die sich nur aus Ketten für Φ zusammensetzt. In einer solchen
Basis wird die Abbildung Φ durch eine Matrix beschrieben, welche die direkte Matrizensumme von
Blöcken  
0 1 0 . .
 . . . . . 
 
 . . . 0  Jordanblock zum Eigenwert 0
 
 
 . . 1 
0 . . . 0
ist.

Beweis. Wir betrachten die Untervektorräume Vk := Kern(Φk ), k ≥ 0. Da Φ nilpotent ist, gibt es


ein p mit Φp = 0, aber Φp−1 6= 0. Diese Untervektorräume Vk , k = 0, ..., p, bilden eine Folge

{0} = V0 ⊂ V1 ⊂ ... ⊂ Vp−1 ⊂ Vp = V,

und es gilt stets Φ(Vk ) ⊂ Vk−1 , k ≥ 2. Für k = 1, ..., p sei rk := dim(Vk ) − dim(Vk−1 ). Wir konstruieren
nun induktiv Vektoren uk1 , ..., ukrk ∈ Vk , k = p, p − 1, ..., 1 so, dass

(1) uk1 , ..., ukrk linear unabhängig,

(2) Vk = Vk−1 ⊕ span(uk1 , ..., ukrk ),

(3) Φ(uk1 ) = uk−1 k k−1


1 , ..., Φ(urk ) = urk für k = 2, ..., p.

Aus (1) und (2) folgt, dass die Vektoren

up1 , ..., uprp , up−1 p−1 1 1


1 , ..., urp−1 , ..., u1 , ..., ur1

eine Basis von V bilden. Wegen (3) besteht diese aus Ketten.
Konstruktion von up1 , ..., uprp ∈ Vp = V : Wir wählen eine Basis v1p−1 , ..., vn−rp−1
p
, n = dim(V ), von
Vp−1 und ergänzen diese mit up1 , ..., uprp zu einer Basis von V . Dann erfüllen die Vektoren up1 , ..., uprp
die Bedingungen (1) und (2).
Wenn die Vektoren in uk+1 k+1
1 , ..., urk+1 ∈ Vk+1 mit (1),(2) und (3) konstruiert sind, dann fahren
wir folgendermaßen fort: Es ist Kern(Φ) ⊂ Kern(Φk ) = Vk ⊂ Vk+1 . Wegen (2) schneidet Kern(Φ)
den Vektorraum span(uk+1 k+1 k+1 k+1
1 , ..., urk+1 ) nur im Nullvektor. Also ist Φ|span(u1 , ..., urk+1 ) injektiv.
Daraus folgt, dass die Vektoren uk1 := Φ(uk+1 k k+1
1 ), ..., urk+1 := Φ(urk+1 ) linear unabhängig sind. Es ist
Vk−1 ∩ span(uk1 , ..., ukrk ) = {0}, denn wenn 0 6= c1 uk1 + ... + crk ukrk ∈ Vk−1 , dann wäre Φk (c1 uk+1
1 +

133
k+1
... + crk+1 uk+1
rk+1 ) = 0, also c1 u1 + ... + crk+1 uk+1
rk+1 ∈ Vk , im Widerspruch zu (2). Deswegen können
wir die Vektoren u1 , ..., urk+1 ergänzen zu einer Basis uk1 , ..., ukrk+1 , ukrk+1 +1 , ..., ukrk für einen Unterraum
k k

Uk ⊂ Vk mit Vk = Vk−1 ⊕Uk . Daraus folgt dann (1) und (2). Eigenschaft (3) ist wegen der Konstruktion
der Vektoren uk1 , ..., ukrk+1 ebenfalls erfüllt.

Vk : uk1 ... ukrk


↓ ↓ ↓
Vk−1 : uk−1
1 ... uk−1 ... uk−1
rk rk−1
↓ ↓ ↓ ↓
Vk−2 : uk−2
1 ... uk−2 ... uk−2
rk rk−1 ...

Ist eine Kette v, Φ(v), ..., Φp (v) als Teil der Basis gewählt, so gehört hierzu eine Blockmatrix
 
0 0 ...

 1 0 ... 

.
0 1

 
.. .. . .
 
. . .

Das ist die Transponierte eines Jordan-Blocks. Kehrt man in der Basis die Reihenfolge der Vektoren
in der Kette um, so wird daraus ein echter Jordan-Block.

Die in Satz 4.16 auftretenden Ketten sind i.a. nicht eindeutig bestimmt, deswegen sind auch die
zur direkten Matrizensumme gehörenden Unterräume durch die lineare Abbildung i.a. nicht eindeutig
bestimmt. Ihre Anzahlen und Dimensionen dagegen sind sehr wohl eindeutig bestimmt.

Satz 4.23 (Zusatz zu Satz 4.22: Eindeutigkeit) Die Größen der in Satz 4.16 auftretenden Jor-
danblöcke und die Anzahl der Blöcke einer festen Größe sind durch die Abbildung Φ eindeutig bestimmt.

Beweis. Die Folge


{0} = V0 ⊂ V1 ⊂ ... ⊂ Vp−1 ⊂ Vp = V
ist durch Φ eindeutig festgelegt (Vk = Kern(Φk )). Die Anzahl der Ketten der Länge p ist = dimVp .
Die Anzahl der Ketten einer festen Länge l < p ist

dim(Vl ) − dim(Φ(Vl−1 )) − Anzahl der Ketten der Länge > l

und hängt deswegen auch nur von der Abbildung Φ ab (Induktion nach p − l).

Satz 4.24 (Jordansche Normalform) Jede komplexe n × n-Matrix ist ähnlich zu einer direkten
Matrix-Summe von Jordan-Blöcken. Dabei sind die Anzahlen der Blöcke einer festen Größe zu einem
festen Eigenwert durch die Matrix eindeutig bestimmt.

Beweis. Nach Satz 4.20 ist die Matrix ähnlich zu einer direkten Matrix-Summe von Matrizen C0
mit einem charakteristischen Polynom (λ0 − λ)k . Trigonalisieren wir eine solche Matrix C0 mit Satz
4.11, so sehen wir, dass C0 − λ0 1lk nilpotent ist. Wegen Satz 4.22 ist die Matrix C0 − λ0 1lk ähnlich
zu einer direkten Summe von Jordan-Blöcken mit Eigenwert 0. Dann ist C0 ähnlich zu einer direkten
Summe von Jordan-Blöcken gleicher Größe zum Eigenwert λ0 .
Die Eindeutigkeitsaussage folgt aus der Eindeutigkeit in Satz 4.21 und Satz 4.23.

134
Wegen des Eindeutigkeitsteils in Satz 4.24 können wir von der Jordanschen Normalform einer
Matrix sprechen.
Beispiele. n=2: Die möglichen Jordan-Normalformen für 2 × 2-Matrizen sind
! ! !
λ1 0 λ 1 λ 0
, , ,
0 λ2 0 λ 0 λ

wo λ1 6= λ2 . Um zu entscheiden, welche Jordan-Normalform eine reelle Matrix


!
a b
C=
c d

hat, berechnen wir das charakteristische Polynom

χC (λ) = (a − λ)(d − λ) − bc = δ − σλ + λ2 ,

wo wir det(C) = δ und sp(C) = σ abkürzten. Die beiden Eigenwerte sind dann
1 p
λ1,2 = (σ ± σ 2 − 4δ),
2
und beide Eigenwerte fallen genau dann zusammen, wenn σ 2 = 4δ. Daraus folgt: C ist ähnlich zu
!
λ1 0
⇔ sp(C)2 > 4 · det(C),
0 λ2
!
λ 0
⇔ sp(C)2 = 4 · det(C) und b = c = 0,
0 λ
!
λ 1
⇔ sp(C)2 = 4 · det(C) und b =
6 0 oder c 6= 0,
0 λ

Wenn sp(C)2 < 4 · det(C) ist, dann hat das charakteristische Polynom von C keine reellen Nullstellen,
und die Matrix C ist reell nicht einmal trigonalisierbar.
n=3: Die möglichen Jordan-Normalformen für 3 × 3-Matrizen sind
     
λ1 0 0 λ1 1 0 λ1 0 0
 0 λ2 0  ,  0 λ1 0  ,  0 λ1 0 
     
0 0 λ3 0 0 λ2 0 0 λ2
     
λ 1 0 λ 1 0 λ 0 0
 0 λ 1 ,  0 λ 0 ,  0 λ 0 
     
0 0 λ 0 0 λ 0 0 λ
mit λ1 6= λ2 6= λ3 6= λ1 .

Die Bestimmung der Jordanschen Normalform einer gegebenen Matrix C ist nicht nur eine häufige
Staatsexamens- (und Klausur-) Aufgabe, sondern auch praktisch wichtig (z.B. bei linearen Differenti-
algleichungen mit konstanten Koeffizienten). Wie geht man dabei vor? Als erstes muss man natürlich
das charakteristische Polynom der Matrix C berechnen und dann deren Eigenwerte. Will man die
Tansformation in Jordansche Normalform konkret durchführen, braucht man als nächstes die Un-
terräume Ui ⊂ Cn aus Satz 4.19. Dabei ist Ui der Kern der Matrix (λi − C)mi , wenn der Linearfaktor

135
(λi − λ) im Minimalpolynom µC mit der Vielfachheit mi vorkommt. Diese Vielfachheit kriegt man
raus, indem man die Matrizenprodukte

λi 1l − C, (λi 1l − C)2 , (λi 1l − C)3 , ...

ausrechnet. Deren Rang wird immer kleiner. Die Stelle, ab welcher der Rang sich nicht mehr verringert,
liefert die Potenz mi .
Natürlich ist das Berechnen dieser Matrizenprodukte (von Hand) i.a. eine ziemliche Arbeit. Man
sollte sich deswegen die Unterstützung durch einen Computer sichern. Aber wenn nur die Jordansche
Normalform selbst, und nicht die Koordinatentransformation dazu gefragt ist, genügt es meist den
Rang der Matrix λi 1l − C zu bestimmen. Im Kern dieser Matrix liegt ja genau ein eindimensionaler
Unterraum für jeden Jordan-Block. Wenn diese Matrix also Rang r hat, ist n − r die Anzahl der
Jordan-Blöcke. Weil in konkreten Aufgaben selten Matrizen mit mehr als fünf Zeilen vorkommen, gibt
es dann häufig nur noch eine einzige Möglichkeit für die richtige Jordan-Normalform.

Aufgabe 4.34 (NV) a) Sei a ∈ IRn und sei f ein Endomorphismus des IRn mit f n−1 (a) 6= 0 und
f n (a) = 0. Man beweise, dass die Vektoren a, f (a), ..., f n−1 (a) eine Basis des IRn bilden und gebe die
Matrix von f bezüglich dieser Basis an.
b) Sei A ∈ IRn×n , B ∈ Rn×n , An−1 6= 0, B n−1 6= 0, An = B n = 0. Man beweise: Die Matrizen A und
B sind ähnlich zueinander.

Aufgabe 4.35 (V) Gegeben sei eine n × n-Matrix der Form


 
0 −a0
 .. 
 1 . −a1 
A=
 
.. .. 

 . .


1 −an−1
mit a0 , a1 , ..., an−1 ∈ K.
i) Man zeige: Das charakteristische Polynom χ(X) = det(XEn − A) von A lautet

χ(X) = X n + an−1 X n−1 + ... + a1 X + a0 .

ii) Man zeige: Für jeden Eigenwert λ von A hat der zugehörige Eigenraum die Dimension 1.
iii) Man bestimme die Jordansche Normalform von A unter der Annahme, dass χ(X) in K[X] in
Linearfaktoren zerfällt.

Aufgabe 4.36 (V) Sei  


0 0 0 0 0

 1 0 0 0 0 

−1 0 0 0 0
 
 
 
 1 1 1 0 0 
0 0 0 1 0
darstellende Matrix eines Endomorphismus f : IR5 → IR5 bzgl. der kanonischen Basis des IR5 .
a) Bestimmen Sie Basen der Eigenräume zu den Eigenwerten von f .
b) Geben Sie eine Matrix M in Jordan-Normalform und eine Basis B des IR5 an, so dass M die
darstellende Matrix von f bzgl. B ist.

136
Aufgabe 4.37 (V) Es sei
 
0 0 0 0 0

 0 0 0 0 1 

A= 0 1 0 1 0  ∈ M (5 × 5, K).
 
0 −1
 
 1 0 0 
0 0 0 0 0

Man berechne Ai für i ∈ IN sowie das charakteristische Polynom und das Minimalpolynom von A, und
man bestimme die Jordansche Normalform von A.

Aufgabe 4.38 (V) Gegeben sei die von einem Parameter p ∈ IR abhängige Matrix
 
0 1 p
A(p) :=  1 0 −1  .
 
0 1 0

1. Man bestimme das charakteristische Polynom von A(p).


2. Man bestimme die Jordansche Normalform von A(p).
3. Man bestimme das Minimalpolynom von A(p).

Aufgabe 4.39 (V) Sei  


−6 8 −8
A =  −4 6 −4  ∈ M (3 × 3, C).
 
0 0 2
Bestimmen Sie
a) das Minimalpolynom von A,
b) das charakteristische Polynom von A,
c) die Jordansche Normalform von A.

Aufgabe 4.40 (V) Sei ϕ das Polynom (t − 1)3 (t + 1)2 ∈ C[t].


a) Welche Jordanschen Normalformen treten bei komplexen 5×5-Matrizen mit dem charakteristischen
Polynom ϕ auf ?
b) Zeigen Sie: Zwei komplexe 5 × 5-Matrizen mit dem charakteristischen Polynom ϕ sind ähnlich,
wenn ihre Minimalpolynome übereinstimmen.

Aufgabe 4.41 (V) Sei  


2 2 1
A =  −1 −1 −1  ∈ M (3 × 3, C).
 
1 2 2
a) Bestimmen Sie die Eigenwerte und Eigenräume von A.
b) Geben Sie die Jordansche Normalform von A an.
c) Bestimmen Sie das Minimalpolynom von A.

137
Aufgabe 4.42 (V) a) Bestimmen Sie alle c ∈ IR, für die
 
2 −6c c
Ac =  0 −1 0 
 
− 21 c 3

zu einer reellen Diagonalmatrix ähnlich ist.


b) Bestimmen Sie die beiden Parameterwerte c1 und c2 , für die Ac einen zweifachen Eigenwert hat.
Bestimmen Sie für c = c1 und c = c2 die Eigenräume von Ac , und bestimmen Sie die Jordansche
Normalform dieser Ac .

Aufgabe 4.43 (V) Wie sieht die Jordansche Normalform der Matrix
 
0 1 0
A= 0 0 1 
 
1 −3 3

aus?

Aufgabe 4.44 (V) Es sei Pn der reelle Vektorraum aller Polynome f (t) ∈ IR[t] vom Grad ≤ n. Man
bestimme die Jordansche Normalform des Endomorphismus
d
: PN → PN , f (t) 7→ f 0 (t).
dt

4.5 Die Hauptachsentransformation


Wir kommen noch einmal zurück auf die Matrix
!
−2 1
C=
1 −1

aus Abschnitt 4.2 mit ihren Eigenvektoren


! !
2√ 2√
und .
1+ 5 1− 5

Diese beiden Vektoren sind nicht nur linear unabhängig, sondern wegen der Relation
√ √
4 + (1 + 5)(1 − 5) = 0

stehen sie sogar senkrecht aufeinander. Damit hat die Matrix C gleich zwei höchst bemerkenswerte
Eigenschaften:

• Ihr charakteristisches Polynom hat zwei reelle Nullstellen,

138
• ihre zwei linear unabhängigen Eigenvektoren stehen aufeinander senkrecht.
Der gemeinsame Grund für beides ist eine Eigenschaft der Matrix C, welche wir bisher bei Matrizen
noch nicht beachteten: Sie ist symmetrisch!

Definition 4.7 Eine Matrix A ∈ M (n × n, K) heißt symmetrisch, wenn

At = A.

Unsere 2 × 2-Matrix C ist deswegen symmetrisch, weil im System der beiden gekoppelten Federn
die untere Masse dieselbe Kraft auf die obere ausübt (Eintrag rechts oben), wie die obere Masse auf die
untere (Eintrag links unten in C). Dieses fundamentale Naturprinzip ist der Grund für die Symmetrie
der Matrix C, und das hat für uns die genannten erfreulichen Konsequenzen. Es gilt nämlich allgemein
für reelle Matrizen:

Satz 4.25 Alle Eigenwerte einer reellen symmetrischen Matrix sind reell. Das charakteristische Po-
lynom einer solchen Matrix zerfällt also in reelle Linearfaktoren.

Beweis. Zunächst müssen wir davon ausgehen, dass die Eigenwerte der symmetrischen Matrix S
komplex sind, und dass zu einem solchen Eigenwert λ ∈ C auch nur ein komplexer Eigenvektor v ∈ Cn
gehört. Wir betrachten die folgende unschuldige Gleichungskette

λ · (vt · v̄) = (λv)t · v̄ = (Sv)t · v̄ = vt · S t · v̄ = vt · (S v̄) = vt · Sv = vt · λv = vt · λ̄v̄ = λ̄ · (vt · v).

Sie gilt, weil S reell und symmetrisch ist. Weiter benutzen wir, dass v = (v ν ) und dass
n
X
vt · v = |vν |2 = vt · v
ν=1

reell und wegen v 6= 0 auch > 0 ist. Wir sehen:

(λ − λ̄) · (vt · v) = 0,

und daraus folgt, dass λ = λ̄ reell ist.

Dieser Beweis ist kurz und teuflisch. Da es unmöglich ist, in dieser Kürze zu verstehen, was eigent-
lich gespielt wird, wollen wir uns das charakteristische Polynom einer reellen symmetrischen 2 × 2-
Matrix !
a b
A=
b c
einmal genauer ansehen. Das charakteristische Polynom ist

χA (λ) = λ2 − (a + c)λ + (ac − b2 ).

Die quadratische Formel liefert die Eigenwerte


1 q
λ1,2 = (a + c ± (a + c)2 − 4(ac − b2 )) ∈ IR.
2

139
Wegen (a + c)2 − 4ac = (a − c)2 ist nämlich der Ausdruck unter der Wurzel

(a − c)2 + 4b2

eine Summe zweier Quadrate und damit positiv. Das für diese Argumentation wesentliche Quadrat
b2 steht hier nur deswegen, weil A symmetrisch ist. Wenn n > 2 ist, dann sind die Auswirkungen
der Nicht-Diagonal-Einträge einer symmetrischen n × n-Matrix auf deren charakteristisches Polynom
nicht mehr so einfach zu verfolgen, obwohl sich das Resultat der Überlegung ja (nach Satz 4.25)
verallgemeinert.

Mit Satz 4.25 beweisen wir jetzt ganz leicht den Satz von der Hauptachsentransformation“, einen

der wichtigsten Sätze der ganzen Mathematik.

Satz 4.26 (Hauptachsentransformation für reelle symmetrische Matrizen) Zu jeder reellen


symmetrischen Matrix S gibt es eine reelle orthogonale Matrix T derart, dass T −1 · S · T eine Diago-
nalmatrix ist.

Beweis. Wir beweisen die Behauptung für n × n-Matrizen S durch Induktion nach n. Für n = 1
(Induktionsanfang) ist nichts zu zeigen. Sei also n ≥ 2.
Nach dem Fundamentalsatz der Algebra besitzt die Matrix S sicher einen Eigenwert λ1 , der nach
Satz 4.25 reell ist. Es gibt also einen dazu gehörigen reellen Eigenvektor v1 . Wir können ihn o.B.d.A.
als normiert annehmen. Dann ergänzen wir v1 zu einer Ortho-Normalbasis v1 , v20 , ..., vn0 des IRn . Die
Matrix
T1 = (v1 , v20 , ..., vn0 )
ist deswegen orthogonal und insbesondere invertierbar. Wir benutzen sie als Übergangsmatrix und
finden

T1−1 · S · T1 = T1t · S · T1 (da T1 orthogonal)


v1t
 

(v20 )t 
 · S · (v1 , v0 , ..., v0 )
 
=  .. 2 n
.
 
 
(vn0 )t
v1t
 

(v20 )t 
 · (S · v1 , S · v0 , · · · , S · v0 )
 
=  .. 2 n
.
 
 
(vn0 )t
v1t · λ1 v1 v1t · S · v20 v1t · S · vn0
 
...

 (v20 )t · λ1 v1 (v20 )t · S · v20 ... (v20 )t · S · vn0 

=  .. .. .. 
. . .
 
 
(vn0 )t · λ1 v1 (vn0 )t · S · v20 · · · (vn0 )t · S · vn0
 
λ1 ∗ ... ∗

 0 

=  .. .
. S2
 
 
0

140
Da S symmetrisch ist, gilt
(T1t · S · T1 )t = T1t · S t · T1 = T1t · S · T1 ,
diese Matrix ist also wieder symmetrisch. Die *-Einträge in ihrer ersten Zeile sind deswegen alle
= 0, und auch S2 ist wieder symmetrisch. Nach Induktionsannahme gibt es nun eine orthogonale
(n − 1) × (n − 1)-Matrix T2 so, dass T2−1 · S2 · T2 diagonal ist. Setzen wir
!
1 0
T := · T1 ∈ O(n, IR),
0 T2

so ist T −1 · S · T diagonal.

Die Spaltenvektoren der orthogonalen Matrix T sind die Vektoren der neuen Basis, in der die
Matrix S diagonalisiert ist. Da T orthogonal ist, stehen diese alle aufeinander senkrecht. Daraus folgt

Satz 4.27 (Korollar zu Satz 4.26) Zu jeder reellen symmetrischen Matrix gibt es eine Orthonor-
malbasis aus Eigenvektoren.

Obwohl die Orthogonalität der Eigenvektoren (insbesondere zu zwei verschiedenen Eigenwerten)


eine Konsequenz der Hauptachsentransformation ist, wollen wir sie auch noch einmal direkt aus der
Symmetrie der Matrix herleiten: Sei also S eine symmetrische relle n×n-Matrix mit zwei verschiedenen
Eigenwerten λ1 6= λ2 ∈ IR. Seien v1 und v2 ∈ IRn dazugehörige Eigenvektoren. Wir behaupten

(v1 .v2 ) = v1t · v2 = 0.

Der Beweis besteht im Wesentlichen aus der einen Zeile:

λ1 · v1t · v2 = (S · v1 )t · v2 = v1t · S t · v2 = v1t · S · v2 = v1t · (λ2 v2 ) = λ2 · v1t · v2 .

Denn aus
(λ1 − λ2 ) · (v1 .v2 ) = 0
und λ1 6= λ2 folgt (v1 .v2 ) = 0.

Satz 4.28 (Simultane Diagonalisierbarkeit) Für zwei symmetrische reelle n×n-Matrizen S1 und
S2 sind äquivalent:
a) Es gibt eine Orthonormalbasis des IRn , deren Vektoren Eigenvektoren gleichzeitig für S1 und S2
sind.
b) S1 · S2 = S2 · S1 .

Beweis. a) ⇒ b)“ Ist T die Übergangsmatrix in diese Orthonormalbasis, so sind also D1 :=



T −1 S
1 T und D2 := T
−1 S T beides Diagonalmatrizen. Diese kommutieren, und daraus folgt
2

S1 · S2 = T D1 T −1 · T D2 T −1 = T · D1 D2 · T −1 = T · D2 D1 · T −1 = T D2 T −1 · T D1 T −1 = S2 · S1 .

b) ⇒ a)“ Nach dem Satz von der Hauptachsentransformation gibt es eine Orthonormalbasis des

IRn aus Eigenvektoren für S1 . Die zugehörigen Eigenwerte brauchen nicht alle verschieden zu sein.

141
Seien λ1 , · · · , λm die Verschiedenen unter den Eigenvektoren und Vk := {v ∈ IRn : S2 · v = λk · v} ⊂
IRn , k = 1, ..., m, die zugehörigen Eigenräume. Es gibt also eine direkte Summenzerlegung

IRn = V1 ⊕ ... ⊕ Vm

in paarweise orthogonale Eigenräume von S1 .


Sei v ∈ Vk . Aus b) folgt

S1 · (S2 · v) = S2 · (S1 · v) = S2 · λk v = λk · S2 · v.

In Worten: Der Vektor S2 · v ist auch Eigenvektor von S1 zum selben Eigenwert λk , also S2 · v ∈ Vk . Da
dies für beliebige Vektoren v ∈ Vk gilt, ist der Eigenraum Vk invariant unter der linearen Abbildung mit
Matrix S2 . Unsere orthogonale direkte Summen-Zerlegung ist also auch unter der linearen Abbildung
v 7→ S2 · v invariant. Ist T eine Übergangsmatrix in eine Orthonormalbasis, welche dieser Zerlegung
angepasst ist, so ist T −1 · S2 · T eine entsprechende direkte Matrizensumme. Dabei sind die Kästchen
in dieser Matrix symmetrisch, während die Kästchen in T −1 · S1 · T Vielfache der Einheitsmatrix
sind. Jetzt wenden wir den Satz von der Hauptachsentransformation auf die einzelnen Kästchen in
T −1 · S2 · T an und erhalten Orthonormalbasen der einzelnen Eigenräme Vk aus Eigenvektoren für S2 .
Die Vereinigung dieser Orthonormalbasen ist eine Orthonormalbasis des ganzen IRn aus Eigenvektoren
für S2 , die gleichzeitig Eigenvektoren für S1 sind.

Aufgabe 4.45 (NV) Gegeben sei die Matrix


 √ 
0 2 −1
 √ √ 
S :=  2 √−1 2 .
−1 2 0

a) Zeigen Sie, dass die Matrix S den Eigenwert 1 besitzt.


b) Bestimmen Sie eine Orthonormalbasis aus Eigenvektoren für die Matrix S.

Aufgabe 4.46 (NV) Sei A eine symmetrische, reelle 3 × 3-Matrix, deren fünfte Potenz die Einheits-
matrix E ist. Man zeige A = E.

Aufgabe 4.47 (V) Man zeige, dass genau eine der beiden Matrizen
   
1 1 1 1 2 1
A =  1 2 0 , B= 2 1 0 
   
1 0 10 1 0 10

das Quadrat einer reellen Matrix ist.

Aufgabe 4.48 (V) Zeigen Sie, dass die Matrix


 
1 2 3
1
A :=  2 3 1 

6
3 1 2

mittels einer orthogonalen Matrix S auf Diagonalform D = S −1 AS gebracht werden kann, und geben
Sie die Matrix D explizit an.

142
Aufgabe 4.49 (V) Üben Sie auf die Matrix
 
−1 0 2 0
 0 −1 0 2 
A=  ∈ IR4×4
 
 2 0 −1 0 
0 2 0 −1

eine Hauptachsentransformation aus, d.h. bestimmen Sie eine Matrix S ∈ IR4×4 , so dass S t AS diago-
nal ist.

143
Index
A⊥ , 34 Länge, 24
C 0 [a, b], 85 Standard-, 24
C q (a, b), 85 Basis-Auswahl-Satz, 25
GL(n, IR), 79 Basis-Ergänzungs-Satz, 24
HomK (V, W ), 94 Basis-Satz, 24
K[X], 85 Bewegung, 39
K ∗ , 81 bijektiv, 39, 52
Kd [X], 85 Bild, 94
M (m × n, K), 94 Bildsatz, 47
V /U , 90 Bilinearität, 32
V ∗ , 98
C, 81 Cauchy-Schwarz-Ungleichung, 32, 33
C∗ , 79 Cayley-Hamilton, 125
1ln , 45 charakteristisches Polynom, 112
IFp , 82 Cosinus, 33
IR∗ , 78 Cramersche Regel, 75
IR∞ , 84
Determinante, 54, 66
Σn , 59
Definition, 67
ZZn , 78
Eindeutigkeit, 67
χC (λ), 111
Entwicklung, 73
δµ,ν , 45
Fundamentaleigenschaften, 69
∼, 90
Kästchenregel, 72
id, 39
Multiplikations-Satz, 70
l2 (C), 85
Normierung, 69
l2 (IR), 84
Schiefsymmetrie, 69
sp, 111
Streichungs-, 73
vol, 65
und Volumen, 66
Äquivalenzklasse, 90
Vandermondesche, 75
Äquivalenzrelation, 90, 107
weitere Eigenschaften, 70
Übergangsmatrix, 103
Diagonalisierbarkeit
ähnlich, 107
simultane, 141
Abbildung, 39 Diagonalisierbarkeitskriterium, 110, 112, 114
duale, 99 Dimension, 21, 86
lineare, 42 des Lösungsraums, 27
Achsenabschnittsform, 17 eines linearen Unterraums, 26
Additivität, 42 orthogonales Komplement, 35
adjungiert, 101 Dimensionsformel, 95
Adjunkte, 73 für Quotientenraum, 92
Anti-Kommutator, 56 fur Unterräume, 26
Assoziativität, 84 direkte Summe, 131
Distributivgesetz, 81
Basis, 24, 86 Distributivität, 84
Invarianz der Länge, 25 Drehmatrix, 45, 49, 79, 124

144
Drehstreckung, 79 injektiv, 39, 52
Drehung, 43 invariante direkte Summenzerlegung, 132
Dreiecks-Ungleichung, 33 invertierbar, 51
Dualbasis, 98 isomorph, 86
duale Abbildung, 99 Isomorphismus, 86
Dualraum, 98
Jordan-Block, 114, 133
Ebene, 20 Jordansche Normalform, 134
Eigenraum, 115
Eigenschaft LIN, 19 Kästchenregel, 72
Eigenvektor, 110 Körper, 81
Eigenwert, 110 endlicher, 82
Eigenwertgleichung, 110 Kern, 95
Einheitsmatrix, 45 Kette, 133
Einsteinsche Summenkonvention, 105 Koeffizientenmatrix, 6, 44
elementare Zeilenumformung, 50 erweiterte, 6
Elementarmatrix, 50 Kommutator, 56
Inverse, 52 komplex-konjugiert, 116
euklidischer Algorithmus, 127 komplexe Zahlen, 81
Komponenten, 103
Fehlstand, 61 kontravariant, 104
Fundamentalsatz der Algebra, 116 Koordinaten, 103
Koordinatenvektoren, 24
Gerade, 14 Kopplung, 109
und lineare Gleichungen, 15 kovariant, 104
Geraden Kronecker-Delta, 45
Durchschnitt von, 17
Gleichung Länge, 31
lineare, 5 Längentreue, 41
Gruppe, 78 Lagrange-Interpolation, 96
allgemeine lineare, 79 Leibniz-Formel, 67
konforme, 79 LIN, 19
reelle orthogonale, 79 linear, 85, 93
symmetrische, 79 linear abhängig, 22
linear unabhängig, 22, 86
Hamilton-Cayley, 125 lineare Abbildung, 42, 93
Hauptachsentransformation, 140 Bild, 94
Hilbertraum, 84 Kern, 95
hintereinanderschalten, 39 Matrix, 94
Hintereinanderschaltung, 60 Rang, 94
Homogenität, 42 lineare Ausdehnung, 44, 93
Homomorphiesatz, 95 lineare Unabhängigkeit
Hyperebene, 40 Test, 23, 86
linearer Unterraum, 19
Identität, 39
lineares Gleichungssystem, 5
Identität
adjungiertes, 101
Matrix, 45
homogenes, 9

145
Lösbarkeit, 101 Parallelogramm
Lösbarkeitsbedingung, 20 Fläche, 65
lineares Gleichungssytem Parallelotop, 65
inhomogenes, 9 Permutation, 46, 59
Linearform, 98 Fehlstand, 61
Linearität, 42 Produkt, 60
Linearkombination, 19 Vertauschung, 60
zyklische, 62
Matrix Permutationsmatrix, 46, 49, 60
ähnliche, 107 Polynom, 85
Addition, 48 Prinzip der linearen Ausdehnung, 44
einer linearen Abbildung, 44, 94 Produkt
inverse, 52, 54, 74 kartesisches, 85
inverse 2 × 2, 54 mit Elementarmatrix, 50
invertierbare, 51 von Drehmatrizen, 49
Multiplikation, 48 Produktmatrix, 46, 48
nilpotente, 124, 133 Punktspiegelung, 40
Permutations-, 60 Matrix, 45
quadratische, 52
Rang, 55 quadratische Matrizen, 52
Skalarmultiplikation, 48 Quotientenraum, 91
symmetrische, 139 Quotientenvektorraum, 91
transponierte, 55, 100
Matrizenprodukt, 48 Rang, 55, 94
Assoziativität, 50 Reflexivität, 90
Distributivität, 50 Regel von Sarrus, 68
Minimalpolynom, 126, 127 Relation, 90

nilpotent, 133 Sarrus, 68


Norm, 31 Satz
Nullabbildung soviele Gleichungen wie Unbekannte, 28
Matrix, 45 von Cayley-Hamilton, 125
Nullraum, 19, 20 von Pythagoras, 31
von Pythagoras, n-dimensionaler, 34
O-N-Basis, 41 Schiefsymmetrie, 69
orthogonal, 34 Schmidtsche Orthonormalisierung, 35
orthogonale Abbildung, 42 Schwingung, 108
orthogonale Transformation, 40 senkrecht, 34
orthogonale Transformation und O-N-Basis, 42 Signum, 61
orthogonale Transformation und Skalarprodukt, Skalarprodukt, 32, 48
41 Spaltenrang, 26, 28
orthogonales Komplement, 34, 101 span, 19
Orthogonalprojektion, 36, 46 Spat, 65
auf Hyperebene, 40 Spiegelung, 79
Matrix, 46 an Hyperebene, 40
orthonormal, 35 an Hyperebene, Matrix, 45
Orthonormalisierung, 35 Spur, 111

146
Streckung Winkel, 33
Matrix, 45 Winkeltreue, 41
Streichungsdeterminante, 73
Struktursatz, 9 Zahlengerade, 13
Summe Zahlenraum, 13
direkte, 131 Zeilenrang, 26, 28
Summenkonvention Zeilenstufenform, 7, 24
Einsteinsche, 105 Zeilenumformungen
surjektiv, 39, 53 elementare, 6
Symmetrie, 32, 90 Zyklus, 62
symmetrisch, 139
System von Vektoren, 24

Test
auf lineare Abhängigkeit, 23
auf lineare Unabhängigkeit, 23, 86
Totalraum, 19
Transformation
orthogonale, 40
Transformationsverhalten
kontravariantes, 104
kovariantes, 104
von Matrizen, 106
Transitivität, 90
Translation, 39
transponiert, 55
Trigonalisierung, 117

Umkehrabbildung, 39
Unter-Vektorraum, 19
Untergruppe, 78
Unterraum, 21
affiner, 21
aufgespannter, 19
linearer, 19
Untervektorraum, 89

Vektor, 13
Vektorraum, 84
Vertauschung, 60
Vielfachheit
algebraische, 116
geometrische, 116
Volumen
Eigenschaften, 65
und Determinante, 66

147