Sie sind auf Seite 1von 281

Jänich

Lineare Algebra
11. Auflage

Mit 110 Testfragen

e 123
Springer-Lehrbuch
Klaus Janich

Lineare Algebra

Elfte Auftage
Mit zahlreichen Abbildungen

~ Springer
Prof. em. Dr. Klaus Jiinich
Fakultat fiir Mathematik
Universitat Regensburg
93040 Regensburg
Deutschland
klaus.jaenich@mathematik.uni-regensburg.de

1. korrigierter N achdruck 2011


2. korrigierter Nachdruck 2013
ISSN 0937-7433
ISBN 978-3-540-75501-2 ISBN 978-3-540-75502-9 (eBook)
DOl 10.1007/978-3-540-75502-9
Springer Heidelberg Dordrecht London New York

Bibliografische Information der Deutschen Nationalbibliothek


Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbiblio-
grafie; detaillierte bibliografische Daten sind im Intemet iiber http://dnb.d-nb.de abrufbar.

Mathematics Subject Classification (2000); 15-01

© Springer-Verlag Berlin Heidelberg 1979. 1981. 1984. 1991. 1993. 1996. 1998.2000.2002.
2004.2008
Dieses Werk ist urheberrechtlich geschiitzt. Die dadurch begriindeten Rechte. insbesondere die
der Ubersetzung. des Nachdrucks. des Vortrags. der Entnahme von Abbildungen und Tabellen.
der Funksendung. der Mikroverfilmung oder der Vervielfaltigung auf anderen Wegen und der
Speicherung in Datenverarbeitungsanlagen. bleiben. auch bei nur auszugsweiser Verwertung, vor-
behalten. Eine Vervielfaltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall
nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesre-
publik Deutschland Yom 9. September 1965 in der jeweils geltenden Fassung zulassig. Sie ist
grundsatzlich vergiitungspfiichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtsgesetzes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Narnen
im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten waren und
daher von jedermann benutzt werden diirften.

Einbandentwurf WMXDesign GmbH, Heidelberg

Gedruckt auf saurefreiem Papier

Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)


Vorwort zur elften Auflage

Fruher, als Briefe noch vom Brieftriiger gebracht wurden, erfuhr man meist,
wer der Absender ist. Heute weiB ich von einem Leser zum Beispiel nur, dass
er "mark w" heiBt, eine Adresse bei yahoo hat, das Buch sorgfiiltig studiert
haben muss, weil er bemerkte, dass statt Spalte in Zeile 6 Seite 140 eigentlich
Zeile stehen sollte, und dass er ubrigens ein netter Mensch ist, sonst hiitte er
sich nicht die Muhe gemacht, mir das mitzuteilen.
Eine e-mail von M.Kratzsch hat bewirkt, dass mir meine Testfrage (3) auf
S.192 nicht mehr gefiel und ich sie deshalb geiindert habe, Johannes Bosman
hat einen von mir fehlgeleiteten Ruckverweis berichtigt und mir nebenbei
eine handvoll Kommas geschickt, nebst Vorschliigen wo sie hingesetzt werden
sollten, und Marc Spoor meinte, ich solle in Testfrage (5) auf S.205 besser
n-dimensional statt endlichdimensional schreiben. Recht hat er.
Fur diese und einige weitere Hinweise sage ich Dank. GroBe A.nderungen
habe ich nicht vorgenommen, was Sie also - hofIentlich Gutes - uber die
zehnte Aufiage gehort haben mogen, gilt auch fur die jetzige elfte.

Langquaid, im Juli 2007 Klaus Jiinich

Vorwort zur zehnten Auflage

Die zehnte Aufiage habe ich zum Anlass genommen, dem Buch ein neues
Layout zu geben: Haupt- und Nebentext, von denen das Vorwort zur ersten
Aufiage spricht, unterscheiden sich jetzt nicht mehr durch die SchriftgroBe,
sondern der Haupttext ist eingerahmt, was mir ubersichtlicher vorkommt.
Hie und da habe ich auch kleine textliche Verbesserungen vorgenommen, an
Inhalt und Charakter des Buches aber nichts geiindert.

Langquaid, im April 2003 Klaus Jiinich


VI VORWORT

Vorwort zur vierten Auflage

Die Urfassung dieses Skriptums entstand fUr die Vorlesung, die ich im WS
1970/71 in Regensburg gehalten habe, im Spiitsommer 1970 habe ich damit
angefangen. Ich war damals dreiJ3ig Jahre alt, noch kein Jahr Professor, die
Lineare Algebra war meine erste Vorlesung vor einem groBen Publikum, und
voller Begeisterung fiir die Aufgabe, den Stoff jedem Horer verstiindlich zu
machen, ging ich an die Arbeit. Die Universitiit war neu, das Wetter war
herrlich - na, Sie sehen schon. Sollte ich wohl jetzt, nur weil es im feinen
TEX-Frack auftreten muB, iiber mein Jugendskriptum einen Grauschleier pe-
dantischer Fiinfzigjiihrigkeit werfen? Fiillt mir doch gar nicht ein.
Trotzdem konnte ich es natiirlich nicht unterlassen, einiges zu verbessern.
Der alte § 10 ist, wie mehrfach gewiinscht, jetzt am SchluB, den alten § 8 habe
ich herausgenommen, die Tests ergiinzt, einige Abschnitte neu geschrieben
und alle jedenfalls durchgesehen und im Einzelnen korrigiert, immer aber
darauf bedacht, nicht die Seele aus dem Buch hinauszuverbessern.
Dieses Skriptum sollte wohl geeignet sein, auch in den langen Monaten
zwischen Abitur und Vorlesungsbeginn schon studiert zu werden, und einem
solchen Leser mochte ich den Hinweis geben, daB in jedem Paragraphen die
Abschnitte vOT'dem Test den Grundkurs darstellen, die Abschnitte danach
die Ergiinzungen. Es geht durchaus an, nach "bestandenem" Test mit dem
niichsten Paragraphen zu beginnen.
Mancherlei Dank habe ich abzustatten. Die urspriingliche Stoffauswahl
fiir das Skriptum ist von einer Vorlesung meines Kollegen Otto Forster beein-
fluBt. In jenem WS 1970/71 las Herr Forster in Regensburg die Analysis I,
aus deren Skriptum das beriihmte Analysisbuch von Forster geworden ist.
1m Jahr zuvor hatte er aber die Lineare Algebra gehalten, und an dieser
Vorlesung habe ich mich damals orientiert.
Herr Kollege Artmann in Darmstadt, der im WS 1983/ 84 mein Buch sei-
ner Vorlesung zugrunde gelegt hatte, war so freundlich gewesen, mir danach
aus der gewonnenen Erfahrung eine Reihe konkreter Anderungsvorschliige
zu machen, die mir jetzt bei der Vorbereitung der Neuauflage sehr hilfreich
waren.
Hier im Hause habe ich vor allem Frau Hert! zu danken, die das TEX-Skript
geschrieben hat und Herrn Michael Prechtel, der zur Losung schwieriger TEX-
Probleme so manche Stunde fiir uns abgezweigt hat. Auch Frau Zirngibl
danke ich fUr Ihre Mithilfe bei der Vorbereitung des Manuskripts. Kurz vor
Ablauf des Termins schlieBlich, wenn sich der FleiB zur Hektik steigert, hiitte
ich ohne den Einsatz meiner Mitarbeiter Martin Lercher und Robert Mandl
VORWORT VII

wie ein Formel-1-Fahrer dagestanden, der wahrend des Rennens seine Reifen
seIber wechseln solI. Ihnen allen sei herzlich gedankt.

Regensburg, im August 1991 Klaus Janich

Vorwort zur ersten Auflage

Ich will uber die wirklichen oder vermeintlichen Vorzuge meines eigenartigen
Skriptums nicht reden , auch mich fur seine wirklichen oder vermeintlichen
Mangel nicht entschuldigen, sondern einfach nur zwei technische Hinweise
geben, namlich
1.) Der mit groBerer Type geschriebene, etwas eingeruckte "Haupttext"
gibt lakonisch aber vollstandig den Stoff, den ich vermitteln will, er ist
im Prinzip auch fUr sich allein lesbar und verstandlich. Der mit kleinerer
Type bis an den linken Rand geschriebene "Nebentext" besteht aus
Erlauterung, Motivation und Gutem Zureden. Zuweilen habe ich ge-
schwankt und dann mit kleiner Type aber eingeruckt geschrieben.
2.) Einige Abschnitte sind "fUr Mathematiker" oder "fur Physiker" uber-
schrieben. LaBt man jeweils die eine Art dieser Abschnitte aus, so bildet
der Rest ein sinnvolles, lesbares Ganze.

Ich hoffe, daB jeder Benutzer dieses Skriptums etwas fur ihn Brauchbares
darin finden wird, es sei nun Mathematik, Unterhaltung oder Trost.

Regensburg, im Marz 1979 Klaus Janich


Inhaltsverzeichnis

1. Mengen und Abbildungen

1.1 Mengen ....................................................... 1


1.2 Abbildungen ............. . ........ . ........ . .................. 8
1.3 Test ......................................................... 14
1.4 Literaturhinweis .............................................. 16
1.5 Ubungcn ..................................................... 18

2. Vektordiume

2.1 Rccllc Vektorriiume .......................................... 20


2.2 Komplexe Zahlen und komplexe Vektorriiume ............ . .... 26
2.3 Untervektorriiume ............................................ 30
2.4 Test ........................................ . ................ 32
2.5 Korper (Ein Abschnitt fUr Mathematiker) .................... 34
2.6 Was sind Vektoren? (Ein Abschnitt fiir Physiker) ............. 38
2.7 Komplexe Zahlen vor 400 J ahren (Historische N otiz) .......... 51
2.8 Literaturhinweis .............................................. 52
2.9 Ubungen .......................... . ................. . ........ 53

3. Dimensionen

3.1 Lineare Unabhiingigkeit ...................................... 56


3.2 Der Dimensionsbegriff ........................................ 60
3.3 Test ......................................................... 65
3.4 Beweis des Basisergiinzungssatzes und des Austauschlemmas
(Ein Abschnitt fiir Mathematiker) ............................ 67
3.5 Das Vektorprodukt (Ein Abschnitt fiir Physiker) .............. 70
3.6 Der "Steinitzsche Austauschsatz" (Historische Notiz) ......... 76
3.7 Literaturhinweis .............................................. 77
3.7 Ubungen ..................................................... 78
x IN HALTSVERZ EI CHNIS

4. Lineare Abbildungen

4.1 Lineare Abbildungen ... . ..................................... 80


4.2 Matrizen ..................................................... 88
4.3 Test ......................................................... 95
4.4 Quotientenvektorraume (Ein Abschnitt fur Mathematiker) .... 97
4.5 Drehungen und Spiegelungen des ]R2
(Ein Abschnitt fur Physiker) ................................ 101
4.6 Historische N otiz ........................... . ........ . ....... 106
4.7 Literaturhinweis ............................................. 106
4.8 Ubungen .................................................... 107

5. Matrizenrechnung

5.1 Multiplikation ............................................... 110


5.2 Rang einer Matrix ................. . ........................ 116
5.3 Elementare Umformungen ................................... 117
5.4 Test ........................................................ 120
5.5 Wie invertiert man eine Matrix?
(Ein Abschnitt fur Mathematiker) ........................... 122
5.6 Mehr uber Drehungen und Spiegelungen
(Ein Abschnitt fiir Physiker) ................................ 126
5.7 Historische N otiz .................................... . ....... 131
5.8 Literaturhinweis ............................................. 132
5.8 Ubungen .......................... . ........ . ........ . ....... 132

6. Die Determinante

6.1 Die Determinante ........................................... 135


6.2 Berechnung von Determinanten ............................. 140
6.3 Die Determinante der transponierten Matrix ........... . ..... 143
6.4 Eine Determinantenformel fur die inverse Matrix ............ 145
6.5 Determinante und Matrizenprodukt ......................... 147
6.6 Test ........................................................ 149
6.7 Determinante eines Endomorphismus ........................ 151
6.8 Die Leibnizsche Formel ...................................... 153
6.9 Historische Notiz ............................................ 155
6.10 Literaturhinweis ............................................. 155
6.11 Ubungen ................. . .................................. 156
INHALTSVERZEICHNIS XI

7. Lineare Gleichungssysteme

7.1 Lineare Gleichungssysteme .................................. 158


7.2 Die Cramersche Regel ........................ . ............. 161
7.3 Der Gau£sche Algorithmus .................................. 162
7.4 Test ........................................................ 166
7.5 Mehr uber lineare Gleichungssysteme ....................... 168
7.6 Wiegen mit der Kamera (Ein Abschnitt fur Physiker) ....... 171
7.7 Historische N otiz ........................................... 175
7.8 Literaturhinweis ............................................ 175
7.9 Ubungen ................................................... 176

8. Euklidische Vektordiume

8.1 Skalarprodukte ............ . ................................ 178


8.2 Orthogonale Vektoren ...................................... 182
8.3 Orthogonale A b bildungen ................................... 187
8.4 Gruppen ................................................... 189
8.5 Test ........................................................ 192
8.6 Literaturhinweis ............................................ 193
8.7 Ubungen ................................................... 194

9. Eigenwerte

9.1 Eigenwerte und Eigenvektoren .............................. 197


9.2 Das charakteristische Poly nom ...................... . ....... 201
9.3 Test ........................................................ 204
9.4 Polynome (Ein Abschnitt fUr Mathematiker) ... . ..... . ...... 206
9.5 Literaturhinweis ............................................ 210
9.6 Ubungen ................................................... 210

10. Die Hauptachsen-Transformation

10.1 Selbstadjungierte Endomorphismen ........................... 212


10.2 Symmetrische Matrizen ....................................... 214
10.3 Die Hauptachsen-Transformation
fUr selbstadjungierte Endomorphismen .................... . ... 218
10.4 Test .......................................................... 221
10.5 Literaturhinweis .............................................. 223
10.6 Ubungen ..................................................... 224
XII INHALTSVERZEICHNIS

11. Klassifikation von Matrizen


11.1 Was heiJ3t "Klassifizieren"? ................................... 226
11.2 Der Rangsatz ................................................. 231
11.3 Die Jordansche Normalform ................................... 232
11.4 Nochmals die Hauptachsentransformation ..................... 235
11.5 Der Sylvestersche Triigheitssatz ............................... 236
11.6 Test .......................................................... 243
11. 7 Literaturhinweis .............................................. 245
11.8 Ubungen ............................ . ........ . ............... 246

Antworten zu den Tests . ........................................... 248

Literaturverzeichnis ................................................ 263

Register . ............................................................ 265


1. Mengen und Abbildungen

1.1 MENGEN

Wiihrend Ihres ganzen mathematischen Studiums und insbesondere in die-


sem Skriptum werden Sie stiindig mit Mengen und Abbildungen zu tun ha-
ben. In einem gewohnlichen mathematischen Lehrbuch kommen diese Be-
griffe buchstiiblich tausende Male im Text vor. Die Begriffe seIber sind ganz
einfach zu verstehen; schwieriger wird es erst, wenn wir (ab § 2) uns damit
beschiiftigen werden, was in der Mathematik mit Mengen und Abbildungen

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_1,


© Springer-Verlag Berlin Heidelberg 2008
2 Kapitell: Mengen und Abbildungen

denn nun eigentlich gemacht wird. - Zunachst also zu den Mengen. Von
Georg Cantor, dem Begriinder der Mengenlehre, stammt die Formulierung:

"Eine Menge ist eine Zusammenfassung bestimmter wohlunterschiede-


ner Objekte unserer Anschauung oder unseres Denkens - welche die
Elemente der Menge genannt werden - zu einem Ganzen."

Eine Menge besteht aus ihren Elementen, kennt man alle Elemente der
Menge, so kennt man die Menge. Die "Zusammenfassung zu einem Gan-
zen" ist also nicht etwa so zu verstehen, dass mit den Elementen noch etwas
besonderes geschehen miisste, bevor sie eine Menge bilden konnten. Die Ele-
mente bilden, sind, konstituieren die Menge - einfach so. Beispiele:

N = Menge der natiirlichen Zahlen = {O, 1,2, ... },


Z = Menge der ganzen Zahlen,
Q = Menge der rationalen Zahlen,
lR. = Menge der reellen Zahlen.

Ob iibrigens die Null als eine natiirliche Zahl gelten soll, ist nicht einheitlich
geregelt, man kann auch N = {I, 2, ... } vereinbaren. Achten Sie darauf,
ob sich Ihre beiden Dozenten in Analysis lund Linearer Algebra I dariiber
verstandigt haben! Dass im vorliegenden Buch Null eine natiirlich Zahl ist,
geht auch auf so eine Verstandigung zuriick.
Es hat sich als sehr zweckmiissig erwiesen, den Mengenbegriff so aufzu-
fassen, dass eine Menge auch aus gar keinem Element bestehen kann. Dies
ist die sogenannte leere Menge, das Zeichen dafiir ist

o= leere Menge.

Als nachstes sollen einige Zeichen oder Symbole eingefiihrt werden, die man
beim Umgang mit Mengen braucht, und zwar
Das Element-Symbol E
Die Mengenklammern { ... }
Das Teilmengenzeichen c
Das Durchschnittszeichen n
Das Vereinigungszeichen U
Das Mengendifferenzzeichen "-
Das Mengenproduktzeichen x
1.1 MENGEN 3

Welche dieser Symbole sind Ihnen schon bekannt? Was stellen sie sich unter
den iibrigen vor, wenn Sie einfach dem Namen nach eine Vermutung ausspre-
chen sollten? - Zum Elementsymbol:

1st Meine Menge und x ein Element von M, so schreibt man x EM.
Entsprechend bedeutet y <j M, dass y kein Element von Mist.

So ist z.B. -2 E Z, aber -2 <j N. - Zur Mengenklammer:

Man kann eine Menge dadurch bezeichnen, dass man ihre Elemente
zwischen zwei geschweifte Klammern schreibt. Dieses Hinschreiben der
Elemente kann auf dreierlei Weise geschehen: Hat die Menge nur ganz
wenige Elemente, so kann man sie einfach alle hinschreiben, durch Kom-
mas getrennt, so ist z.B. {I, 2, 3} die aus den drei Zahlen Eins, Zwei
und Drei bestehende Menge. Auf die Reihenfolge kommt es dabei gar
nicht an, auch nicht darauf, ob einige Elemente vielleicht mehrfach auf-
gefiihrt sind:
{1,2,3} = {3, 1,2} = {3,3,1,2,1}.
Die zweite Moglichkeit ist, Elemente, die man nicht nennt, durch Punkte
anzudeuten: {I, 2, ... , 1O} wird man sofort als {I, 2, 3,4,5,6,7,8,9, 1O}
verstehen, oder auch {I, 2, ... } als die Menge aller positiven ganzen
Zahlen.

Dieses Verfahren sollte man aber nur anwenden, wenn man wirklich sicher
ist, dass jeder Betrachter der Formel weiB, was mit den Punkten gemeint
ist. Was soUte man z.B. mit {37, 50, ... } anfangen? - Die dritte, am
hiiufigsten benutzte und stets korrekte Methode ist diese: Man schreibt nach
der Klammer { zuniichst einen Buchstaben, der die Elemente der Menge
bezeichnen solI, macht dann einen senkrechten Strich und schreibt hinter
diesen Strich genau hin, welches die Elemente sind, die dieser Buchstabe
bezeichnen solI, so konnte man statt {I, 2, 3} etwa schreiben: {x I x ganze
Zahl und 1 ~ x ~ 3}. Gehoren die Elemente, die man beschreiben will, von
vornherein einer bestimmten Menge an, fUr die man einen Namen schon hat,
so notiert man diese Zugehorigkeit links vom senkrechten Strich:
{I, 2, 3} = {x E N 11 ~ x ~ 3}.
Gelesen: "Menge aller x aus N mit 1 kleiner gleich x kleiner gleich drei."
Zusammenfassend:
4 Kapitel 1: Mengen und Abbildungen

1st E eine Eigenschaft, die jedes Element einer Menge X hat oder
nicht hat, so bezeichnet {x E X I x hat die Eigenschaft E} die Menge
Maller Elemente von X, die die Eigenschaft E haben, z.B.:
1"1 = {x E Z I x nicht negativ}.

Zum Teilmengenzeichen:

Sind A und B zwei Mengen, und ist jedes Element von A auch in
B enthalten, so sagt man A sei eine Teilmenge von B und schreibt
AcB.

Insbesondere ist also jede Menge eine Teilmenge von sich selbst: M c M.
Auch ist die leere Menge Teilmenge einer jeden Menge: 0 c M. Fur die
bisher als Beispiele genannten Mengen gilt: 0 c {I, 2, 3} c {I, 2, ... , 1O}
c 1"1 c Z c Q c JR. ~ Auf den Skizzen, die zur Veranschaulichung der
hier erlauterten Begriffe dienen, ist eine Menge meist durch eine mehr oder
weniger ovale geschlossene Linie dargestellt, an
der ein Buchstabe steht. Gemeint ist damit: M
sei die Menge der Punkte auf dem Blatt, die in
dem von der Linie "eingezaunten" Bereich liegen.
Manchmal werden wir auch den Bereich, dessen
Punkte die Elemente einer uns interessierenden
Menge sind, zur groi3eren Deutlichkeit schraffie-
ren. ~ NUll zu Durchschnitt, Vereinigung und
Differenz: Bier handelt es sich urn verschiedene Weisen, aus zwei gegebenen
Mengen A und Beine dritte zu machen. Falls Sie mit Durchschnitt, Ver-
einigung und Differenz nicht sowieso schon bekannt sind, ware es eine gute
Ubung fur Sie, jetzt, bevor Sie weiterlesen, die Definitionen von n, U und
" auf Grund der Bilder zu erraten zu suchen:

AnB AUB
1.1 MENGEN 5

Definition: Sind A und B zwei Mengen, so bezeichnet man als den


Durchschnitt A n B (lies: "A Durchschnitt B") die Menge der Ele-
mente, die sowohl in A als auch in B enthalten sind.
Definition: Sind A und B zwei Mengen, so bezeichnet man als die
Vereinigung A U B (" A vereinigt B") die Menge der Elemente, die
entweder in A oder in B (oder in beiden) enthalten sind.
Definition: Sind A und B zwei Mengen, so bezeichnet man als die
DijJerenz A "B (" A minus B") die Menge der Elemente, die zwar in
A, aber nicht in B enthalten sind.

Wie, wenn es nun gar keine Elemente gibt, die "sowohl in A als auch in
B" enthalten sind? Hat es dann einen Sinn, vom Durchschnitt A n B
zu sprechen? Gewiss, denn dann ist eben An B = 0! Ein Beispiel fur
die Nutzlichkeit der leeren Menge. Ware 0 nicht als Menge zugelassen, so
mussten wir schon bei der Definition von AnB den Vorbehalt machen, dass
es ein gemeinsames Element geben muss. Was bedeutet ubrigens A" B = 0?
- Wir wollen uns nun noch, bevor wir zu den Abbildungen kommen, mit
kartesischen Produkten von Mengen beschaftigen. Dazu muss man zunachst
erklaren, was ein (geordnetes) Paar von Elementen sein soll.

Ein Paar besteht in der Angabe eines erst en und eines zweiten Elemen-
tes. Bezeichnet a das erste und b das zweite Element, so wird das Paar
mit (a, b) bezeichnet.

Die Gleichheit (a, b) = (a', b') bedeutet also a = a' und b = b'. Das ist der
wesentliche Unterschied, der zwischen einem Paar und einer zweielementigen
Menge besteht: Beim Paar kommt es auf die Reihenfolge an, bei der Menge
nicht: Es gilt ja stets {a, b} = {b, a}, aber (a, b) = (b, a) gilt nur dann, wenn
a = b ist. Ein weiterer Unterschied ist, dass es keine zweielementige Menge
{a, a} gibt, denn {a, a} hat ja nur das eine Element a. Dagegen ist (a, a)
ein ganz richtiges Paar.

Definition: Sind A und B zwei Mengen, so hei£t die Menge


A x B := {( a, b) I a E A, b E B}
das kartesische Produkt der Mengen A und B.
6 Kapitel 1: Mengen und Abbildungen

Das Symbol ":=" (analog "=:") bedeutet ubrigens, dass der Ausdruck auf
der Seite des Doppelpunkts durch die Gleichung erst definiert wird, man
braucht also nicht in seinem Gediichtnis zu suchen, ob man ihn schon kennen
soll und weshalb die Gleichung zutrifft. Naturlich sollte das auch aus dem
Text hervorgehen, aber die Schreibweise erleichtert das Lesen. -- Zur Ver-
anschaulichung des kartesischen Produktes benutzt man meist ein Rechteck
und zeichnet A und B als Intervalle unter und links von diesem Rechteck.
Zu jedem a E A und b E B "sieht" man dann das Paar (a, b) als Punkt in
AxB:

b ---- ----------T (a, b)

B '----_ _ _+-_----' A x B
I
I
I

--------~~------ A
a

Diese Bilder haben naturlich nur eine symbolische Bedeutung; sie geben
die Situation stark vereinfacht wieder, denn A und B sind im allgemei-
nen keine Intervalle. Trotzdem sind solche Zeichnungen als Denk- und An-
schauungshilfe nicht zu verachten. -- Etwas anders verfiihrt man, wenn es
sich nicht um irgend zwei Mengen A und B handelt, sondern speziell um
A = B = JR.. Dann niimlich "zeichnet" man JR.2 := JR. x JR. im allgemeinen,
indem man zwei aufeinander senkrecht stehende Zahlen-Geraden skizziert:

{O} x JR.

(O,y) ------------~(x,y)

- - - + - - - - + - - - - J R . x {O}
(x,O)

Die waagrechte Gerade spielt dabei die Rolle von JR. x {O} C JR. x JR., die
senkrechte Gerade die von {O} x JR.. Ein beliebiges Element (x, y) E JR.2
ergibt sich daIlIl aus (x,O) und (0, y) wie in der Skizze angedeutet.
1.1 MENGEN 7

Analog zur Definition der Paare kann man auch Tripel (a, b, c) und
allgemeiner n-tupel (aI, ... , an) erkliiren. Sind AI, ... , An Mengen, so
heiBt die Menge
Al x ... x An := {(aI, ... , an) I al E AI, ... ,an E An}
das kartesische Produkt der Mengen AI, ... ,An. Besonders oft werden
wir es in diesem Skriptum mit dem Rn (gesprochen: "er-en") zu tun
haben, das ist das kartesische Produkt von n Faktoren R:
R n := R x ... x R.

Der R n ist also die Menge aller n-tupel reeller Zahlen. Zwischen RI und R
besteht natiirlich nur ein ganz formaler Unterschied, wenn man iiberhaupt
einen wahrnehmen will. Zur Veranschaulichung von R3 zeichnet man iihnlich
wie bei R2 die "Achsen" Rx{O}x{O}, {O}xRx{O} und {O}x{O}xR, aber
zweckmiiBigerweise nur halb, sonst wiirde das Bild etwas uniibersichtlich:

{O}x{O}xR

(~~~}, ---- )'


i-- (x, y, z) // :
I / I
I --_//:
I I
I I
I I
: I

: : (O,y,O)
I /
I I
I
I
I
{O}xRx{O}
(x,O,O) " I
I

I
I
/
__ -Vi

Rx{O}x{O}

Solche Bilder sollen Sie nicht zu der Annahme verleiten, R3 sei "der Raum"
oder dergleichen. R3 ist, wie gesagt, die Menge aller reellen Zahlentripel.
8 Kapitel 1: Mengen und Abbildungen

1.2 ABBILDUNGEN

Definition: Seien X und Y Mengen. Eine Abbildung f von X nach Y


ist eine Vorschrift, durch diejedem x E X genau ein Element f(x) E Y
zugeordnet wird. Statt "f ist eine Abbildung von X nach Y" schreibt
man kurz f : X -> Y. Haufig ist es praktisch, auch die Zuordnung eines
einzelnen Elements x E X zu seinem "Bildpunkt" f(x) durch einen
Pfeil zu kennzeichnen, aber dann verwendet man, urn Verwechslungen
zu vermeiden, einen anderen Pfeil, namlich: x f-+ f(x).

Was schreibt man hin, wenn man eine Abbildung anzugeben hat? Hier einige
Formulierungen zur Auswahl. Als Beispiel benutzen wir die Abbildung von
Z nach N, die jeder ganzen Zahl ihr Quadrat zuordnet. Dann kann man
etwa schreiben:
Sei f : Z -> N die durch f(x) := x 2 fur
alle x E Z gegebene Abbildung.
Oder etwas kurzer:
Sei f : Z -> N die durch
x f-+ x 2 gegebene Abbildung
Oder, noch kurzer:
Betrachte f : Z -> N
x f-+ x 2 ,
und schliel3lich ist es manchmal gar nicht notig, der Abbildung einen Namen
zu geben, dann schreibt man einfach
Z->N
x f-+ x 2 ,
eine sehr suggestive und praktische Schreibweise. - Die Angabe der Men-
gen X und Y (in unserem Beispiel Z und N) kann man sich jedoch nicht
ersparen, und es ist auch nicht zuliissig, unsere Abbildung einfach x 2 zu nen-
nen: x 2 ist der Wert unserer Abbildung an der Stelle x oder, wie man auch
sagt, das Bild von x unter der Abbildung, aber naturlich nicht die Abbildung
selbst, fUr die mussen wir schon eine andere Bezeichnung wahlen. - Auch
die Addition reeller Zahlen ist eine Abbildung, namlich

lRxlR->lR
(x,Y)f-+x+y.
Man kann (und sonte) sich alle Rechenoperationen in dieser Weise als Ab-
bildungen vorstellen.
1.2 ABBILDUNGEN 9

Eine Abbildung braucht nicht durch eine Formel gegeben sein, man kann
eine Zuordnung auch in Wort en beschreiben. Fur Fallunterscheidungen bei
der Zuordnung benutzt man oft eine geschweifte Klammer, zum Beispiel wird
die Funktion

f : JR. --+ JR., definiert durch


falls x rational
x ~ {~ falls x irrational

gelegentlich in der Analysis aus dies em oder jenem Grund erwiihnt. - In


einer ganzen Serie von Definitionen werden wir nun einige besondere Abbil-
dungen und auf Abbildungen Bezug nehmende Begriffe und Konstruktionen
benennen:

Definition: Sei Meine Menge. Dann nennt man die Abbildung


Id M : M ----+ M
X f----+ X

die Identitiit auf M. Manchmal liisst man, salopperweise, den Index


M weg und schreibt einfach Id, wenn es klar ist, urn welches M es sich
handelt.

Definition: Seien A und B Mengen. Dann heiBt die Abbildung


'if! : A x B ----+ A
(a,b)f----+a
die Projektion auf den ersten Faktor.

, (a, b)
I AxE

---------------A
a
10 Kapitel 1: Mengen und Abbildungen

Definition: Seien X und Y Mengen und Yo E Y. Dann nennt man


die Abbildung
X ----> Y
X f-----+ Yo

eine konstante Abbildung.

Definition: Sei J : X ---+ Y eine Abbildung und A c X und BeY.


Dann heiBt die Menge
J(A) := {j(x) I x E A}
die Bildmenge von A oder das "Bild von A", und die Menge
r1(B) := {x I J(x) E B}
heiBt die Urbildmenge von B oder einfach das "Urbild von B".

Dabei wird J-1(B) gelesen als "J hoch minus 1 von B". Es ist wichtig zu
beachten, dass wir durch J-1(B) in keiner Weise eine "Umkehrabbildung"
oder dergleichen definiert haben. Das Symbol J- 1 , alleine, ohne ein (B)
dahinter, hat in diesem Zusammenhang gar keinen Sinn. - Die Begriffe der
Bildmenge und Urbildmenge kann man sich gut anhand der Projektion auf
den erst en Faktor eines kartesischen Produktes veranschaulichen:

x x

- - - - - ........ y .. .. .... .. ........... - - ...... y


f(A) B

Die Elemente von J(A) sind gerade die J(x) fill x E A. Es kann aber ohne
weiteres vorkommen, dass auch ein J(z) mit z rj A zu J(A) gehort, niimlich
1.2 ABBILDUNGEN 11

wenn es zufiillig ein x E A mit f(x) = f(z) gibt:

1
J(x) == J(z)

Die Elemente von f- 1 (B) sind gerade jene Elemente von X, die bei der
Abbildung f in B landen. Es kann bei Abbildungen auch vorkommen, dass
kein Element in B landet: dann ist eben f-l(B) = 0.

Definition: Eine Abbildung f : X -+ Y heiBt injektiv, wenn keine


zwei Elemente von X auf dasselbe Element von Y abgebildet werden,
sie heiBt surjektiv, wenn jedes Element Y E Y ein f (x) ist, und sie
heiBt schlieBlich bijektiv, wenn sie injektiv und surjektiv ist.

Statt surjektiv heiBt es auch, f : X -+ Y sei eine Abbildung auf Y. Sind


X, Y, Z Mengen und f: X -+ Y und 9 : Y -+ Z Abbildungen, so kann man
sie in naheliegender Weise zu einer Abbildung von X nach Z, die man go f
oder kurz gf nennt, zusammensetzen:

X -L Y ~ Z
X f---------+ f (x ) f---------+ (g f) (x ) .
Der Grund, warum man 9 in gf (lies 9 nach f) zuerst schreibt, obwohl
man f zuerst anzuwenden hat, ist der, dass das Bild von x unter der zusam-
mengesetzten Abbildung gerade g(f(x)) ist. Wir wollen das so formulieren:

Definition: Sind f : X -+ Y und 9 : Y -+ Z Abbildungen, so sei die


zusammengesetzte Abbildung gf durch
X ----+ Z
x ----+ g(f(x))
definiert.
12 Kapitel 1: Mengen und Abbildungen

Hat man mit mehreren Abbildungen zwischen verschiedenen Mengen


zu tun, so ist es oft ubersichtlicher, sie in einem Diagramm anzuordnen,
z.B. kann man Abbildungen f: X ----+ Y, g: Y ----+ Z, h: X ----+ Z so als
Diagramm schreiben:

oder, wenn Abbildungen f : X ----+ Y, g : Y ----+ B, h : X ----+ A und i : A ----+ B


gegeben sind, sieht das zugeh6rige Diagramm so aus
f
X Y

A B

An einem Diagramm k6nnen auch noch mehr Mengen und Abbildungen be-
teiligt sein. Ich will den Begriff aber nicht weiter prazisieren, bei den wenigen
einfachen Diagrammen, die wir zu betrachten haben, wird Ihnen der Sinn der
folgenden Definition immer ganz klar sein:

Definition: Wenn in einem Diagramm zu je zwei Mengen alle Abbil-


dungen (auch zusammengesetzte und gegebenfalls mehrfach zusammen-
gesetzte), die die eine Menge in die andere abbilden, ubereinstimmen,
dann nennt man das Diagramm kommutativ.

Das Diagramm
f
X Y

A B

zum Beispiel ist gerade dann kommutativ, wenn gf = ih gilt.


1.2 ABBILDUNGEN 13

1st f : X -+ Y eine Abbildung und mochte man eine "Umkehrabbildung"


von Y nach X konstruieren, die gewissermaf3en f wieder ruckgiingig macht,
so misslingt das im allgemeinen aus zwei Grunden. Erstens braucht die
Abbildung f nicht surjektiv zu sein und deshalb gibt es moglicherweise fur
einige Y E Y gar kein x E X mit f(x) = y, und man weif3 deshalb nicht,
welches x man y zuordnen sollte. Zweitens braucht die Abbildung nicht
injektiv zu sein, und deshalb mag es fur einige y E Y mehrere x E X mit
f(x) = y geben, wiihrend bei einer Abbildung Y -+ X jedem y ja nur ein x
zugeordnet werden darf. 1st jedoch f bijektiv, dann gibt es naturlich eine
Umkehrabbildung, wir konnen dann niimlich definieren:

Definition: 1st f :X -+ Y bijektiv, so heif3t


f- 1 : Y -----7 X
f (x) f------+ X

die Umkehrabbildung von f.

Man liest f- 1 entweder als "f hoch minus 1" oder als "f invers".

Bijektive Abbildungen werden wir gelegentlich durch das "1somorphie-


zeichen" ~ markieren, etwa so:

f :X ----=----. y.

Aus vielleicht uberflussiger Vorsicht noch eine Bemerkung zum Begriff der

.-f'(II)
Umkehrabbildung. Sei f : X -+ Y eine Abbildung und BeY .

Y ----------
14 Kapitel 1: Mengen und Abbildungen

Sie haben eben gehort, dass nur die bijektiven Abbildungen eine Umkehrab-
bildung besitzen. ErfahrungsgemaB ist jedoch der Aberglaube schwer auszu-
rotten, dass jede Abbildung f "irgendwie" doeh eine Umkehrabbildung habe
und dass das f-I(B) mit dieser Umkehrabbildung etwas zu tun habe. Ich
gebe zu, dass die Schreibweise dazu verleitet, aber es sollte doch moglich sein,
den bijektiven und den nicht-bijektiven Fall auseinanderzuhalten? Wenn f
tatsachlich bijektiv ist, dann hat f-I(B) allerdings mit der Umkehrabbil-
dung zu tun, denn Sie konnen es entweder als f-Urbild von B oder als
f-I_Bild von B auffassen, denn offenbar gilt (f bijektiv vorausgesetzt):
rl(B) = {x E X I f(x) E B} = {j-I(y) lYE B}.
Noeh eine letzte Definition: die der Einschrankung einer Abbildung auf eine
Teilmenge des Definitionsbereiches.

1jlil

y ----------------

Definition: Sei f :X --> Y eine Abbildung und A c X. Dann heiJ3t


die Abbildung
f IA : A --------+ Y
a f-------7 f (a )
die Einsehriinkung von f auf A. Man liest flA als "f eingeschrankt
auf A".

1.3 TEST

(1) Wenn fiir jedes a E A gilt: a E B, dann schreibt man


o AcB o A=B DAuB
1.3 TEST 15

(2) Welche der unten angegebenen Mengen ist fur jede Wahl der Menge M
leer?
o MUM o MnM

(3) A x B werde wie ublich durch das Rechteck syrnbolisiert. Wie ware
dann {a} x B einzuzeichnen?
o

OJ
o o

B B B

A A A

(4) Welche der folgenden Aussagen ist falsch: Die Abbildung


Id M : M -----+ M
x f-------> X ist stets

o surjektiv o bijektiv o konstant


(5) A, B seien Mengen, A x B das kartesische Produkt. Unter der Pro-
jektion auf den zweiten Faktor versteht man die Abbildung 1[2:

o AxB--+A o AxB--+B o B--+AxB


(a,b) >--+ b (a, b) f-+ b b >--+ ( a, b)
(6) Sei f : X --+ Y cine Abbildung. Welche der folgenden Aussagen bedeu-
tet, dass f surjektiv ist:
o f(X) = Y

. f 9 .
(7) Selen X ---> Y ---> Z Abblldungen. Dann ist die Abbildung gf : X --+ Z
definiert durch
o x>--+g(J(x)) o X f-+ f(g(x)) o X f-+ g(x)(J)
(8) Sei
Y

Z
ein kommutatives Diagramm. Dann ist
o h=gf o f = hg o g= fh
16 Kapite11: Mengen und Abbildungen

(9) Die Abbildung


f: R,- {O} - - - + R '- {O}
x---+lx
ist bijektiv. Die Umkehrabbildung
r 1 : R '- {O} ---+ R '- {O}
ist de£lniert durch
DXf---71x DXf---7x

(10) R ---> R, x f---7 x 2 , ist


o surjektiv, aber nicht injektiv
o injektiv, aber nicht surjektiv
o weder surjektiv noch injektiv

1.4 LITERATURHINWEIS

Den Leser oder die Leserin des ersten Paragraphen eines Skriptums fiir
das erste Semester stelle ich mir als einen Studienanfanger vor, und einen
solchen wird es vielleicht interessieren, W&'3 ein Professor - in diesem Fane
also ich - iiber das Verhaltnis zwischen Biichern und Vorlesungen so denkt.
Ais ich vor vielen Jahren das Skriptum fiir meine Student en vorbereitete,
aus dem nun dieses Buch geworden ist, nahmen die Lehrbiicher und Skripten
zur linearen Algebra in unserer Institutsbibliothek 1.20 m Regalplatz ein,
heute sind es iiber fiinf Meter. Je nach Temperament kann man das beruhi-
gend odeI' beangstigend £lnden, aber eines hat sich seither nicht geandert: ein
Studienanfanger in Mathematik braucht fiir den Anfang eigentlich gar kein
Lehrbuch, die Vorlesungen sind autark, und die wichtigste Arbeitsgrundlage
des Studenten ist seine eigenhiindige Vorlesungsmitschrift.
Das klingt Ihnen vielleicht wie eine Stimme aus vorgutenbergischen Zei-
ten. Mitschreiben? Unter den fiinf Metern wird sich ja wohl ein Buch £lnden,
in dem der Vorlesungsstoff steht! Und wenn ich nicht mitzuschreiben brau-
che, kann ich viel besser mitdenken, sagen Sie. Und auJ3erdem sagen Sie zu
sich seIber: Mitschreiben? Und wenn ich nun von meinem Platz aus die
1.4 LITERATURHINWEIS 17

Tafelanschrift gar nicht richtig entziffern kann? Oder wenn der Dozent so
schnell schreibt,l) dass ich gar nicht nachkomme? Und wenn ich einmal
krank bin und die Vorlesung nicht besuchen kann? Dann sitze ich da mit
meinen fragmentarischen Notizen.
So plausibel sich diese Argumente auch anhoren, sie sind doch nicht stich-
haltig. Erstens gibt es unter den flinf Metern Bucher in der Regel keines, in
dem "der Vorlesungsstoff" steht, vielmehr ist die graf3e Zahl von Lehrbuchern
und Skripten zur linearen Algebra schon ein Zeichen dafur, dass jeder Dozent
eben gerne seine eigenen Wege geht. Zwar liegt mancher Vorlesung ein Skrip-
tum oder ein ganz bestimmtes Buch zugrunde, dann mussen Sie das Buch
naturlich haben, schon weil sich der Dozent auf Konto des Buches vielleicht
Lucken im Vortrag erlauben wird, aber selbst dann sollten Sie mitschreiben,
und sobald er zwei Bucher ~mr Auswahl stellt, konnen Sie sidler sein, dass
er keinem sehr genau folgen wird. Wenn Sie nicht schnell genug schreiben
konnen, dann mussen Sie es eben trainieren, wenn Sie die Tafelanschrift von
weit hinten nicht erkennen konnen, mussen Sie sich weiter vorn einen Platz
suchen, und wenn Sie krank waren, mussen Sie die Mitschrift eines Kommi-
litonen kopieren.
Weshalb diese Anstrengung? Sie verlieren sonst den Kontakt zum Vor-
tragenden, koppeln sich ab, verstehen bald nichts mehr. Fragen Sie irgend
einen iilteren Studenten, ob er jemals in einer Vorlesung etwas gelernt hat,
in der er nicht mitgeschrieben hat. Es ist, als ob die Information durch Auge
und Ohr erst einmal in die Hand gehen musste, urn im Gehirn richtig anzu-
kommen. Vielleicht hiingt das damit zusammen, dass Sie beim Ausuben von
Mathematik ja auch wieder schreiben mussen. Aber was immer der Grund
sei: Erfahrung sagt's.
Wenn Sie dann in Ihrer Vorlesung richtig Fuf3 gefasst haben, werden Ih-
nen auch Bucher sehr nutzlich sein, und fUr das Studium in den hoheren
Semestern sind sie unentbehrlich, man muss deshalb lernen, mit Buchern
zu arbeiten. Ein Studienanfiinger aber sollte sich durch kein Buch verleiten
lassen, den Kontakt zur Vorlesung leichtfertig aufzugeben.

1) "Der Jiinich schreibt so schnell, so schnell kann ich nicht einmal sprechen" ist
mir als Ausspruch einer Studentin iiberliefert worden.
18 Kapitel 1: Mengen und Abbildungen

1.5 UBUNGEN

AUFGABE 1.1: 1st f : X -+ Y eine Abbildung, so nennt man die Menge


{(x, f(x)) I x E X} den Graphen r f von f. Der Graph ist eine Teilmenge
des kartesischen Produktes X x Y. In der Skizze (a) ist er durch die Linie
angedeutet. Graph einer Abbildung kann nun nicht jede beliebige Teilmenge
von X x Y sein, denn z.B. gibt es zu jedem x ja nur ein f(x), daher ist die
in Skizze (b) gezeichnete Linie kein Graph. Die Aufgabe ist nun, Graphen
von Abbildungen f mit gewissen vorgegebenen Eigenschaften zu zeichnen.
Als Beispiel wie es gemacht werden solI, ist in (c) ein Graph einer nicht
surjektiven Abbildung dargestellt.

(a): (b): (c):


y

f(x)

x x

Man zeichne in der beschriebenen Weise Beispiele von Graphen von Abbil-
dungen f mit den folgenden Eigenschaften:

(i) f surjektiv, aber nicht injektiv


(ii) f injektiv, aber nicht surjektiv
(iii) f bijektiv
(iv) f konstant
(v) f nicht surjektiv und nicht injektiv
(vi) X = Y und f = Idx
(vii) f(X) besteht aus genau zwei Elementen.

AUFGABE 1.2: Die Umkehrabbildung f- 1 einer bijektiven Abbildung f :


X -+ Y hat offenbar die Eigenschaften f 0 f- 1 = Idy und f- 1 0 f = Id x ,
denn im ersten FaIle wird ja jedes Element f (x) E Y durch f (x) I-t X I-t f (x)
wieder auf f(x), im zweiten jedes x E X durch x I-t f(x) I-t x wieder auf x
abgebildet. Umgekehrt gilt nun (und das zu beweisen ist die Aufgabe): Sind
f : X -+ Y und g : Y -+ X Abbildungen und ist ferner fg = Idy und
gf = Id x , so ist f bijektiv und f- 1 = g.
1.5 UBUNGEN 19

Der Beweis fiir die Injektivitat von f solI so aussehen: "Seien x, x' E X
und f (x) = f (x'). Dann ist ... . Also ist x = x'. Damit ist f als injektiv
nachgewiesen. "
Das Schema eines Surjektivitatsbeweises ist dagegen dies: "Sei Y E Y.
Dann wahlen wir x = . . .. Dann gilt ... , also f (x) = y. Damit ist f als
surjektiv nachgewiesen."

AUFGABE 1.3: Sei


f
X Y

A B
9

ein kommutatives Diagramm von Abbildungen, und a und (3 seien bijektiv.


Man beweise: gist genau dann injektiv, wenn f injektiv ist. - (Diese Art
von Diagrammen wird uns gelegentlich in diesem Skriptum begegnen. Die Si-
tuation ist dann meist die: fist der Gegenstand unseres Interesses, a und (3
sind Hilfskonstruktionen, Mittel zum Zweck, und iiber 9 wissen wir bereits
etwas. Diese Information iiber 9 ergibt dann Information iiber f. Den
Mechanismus dieser Informationsiibertragung lernen Sie beim Losen dieser
Aufgabe durchschauen.)
2. Vektorraume

2.1 REELLE VEKTORRAUME

Vektorraume, nicht Vektoren, sind ein Hauptgegenstand der Linearen Alge-


bra. Vektoren heiilen die Elemente eines Vektorraums, und urn in mathema-
tisch einwandfreier Weise zu erklaren, was Vektoren sind, braucht man vorher
den Begriff des Vektorraums - auch wenn Sie bisher gerade das Gegenteil
angenommen haben sollten. Die individuellen Eigenschaften der "Vektoren"
sind namlich vollig belanglos, wichtig ist nUT, dass Addition und Skalarmul-
tiplikation in dem Vektorraum nach gewissen Regeln geschehen.
Welches diese Regeln sind, will ich zunachst an einem wichtigen Beispiel,
geradezu einem Musterbeispiel eines reellen Vektorraumes erlautern, dem Rn.
Die Elemente dieser Menge sind die n-tupel reeller Zahlen, und mit Zahlen
kann man auf verschiedene Arten Technen. So konnen wir etwa n- tupel reeller
Zahlen miteinander addieren, indem wir erklaren

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_2,


© Springer-Verlag Berlin Heidelberg 2008
2.1 REELLE VEKTORRAUME 21

Definition: Sind (Xl, . .. , xn) und (Yl, ... , Yn) n-tupel reeller Zahlen,
so werde deren Summe durch

erkHirt.

Die Summe ist also wieder ein n-tupel reeller Zahlen. Ahnlich kann man
definieren, wie man ein n-tupel (Xl, ... , Xn) mit einer reellen Zahl A zu
multiplizieren hat:

Definition: 1st A E R und (x!, ... , xn) E Rn , so erklaren wir


A(Xl, ... , xn) := (AX1, ... , AX n ) E Rn.

Da nun diese Rechenoperationen einfach dadurch entstanden sind, dass wir


das, was man sonst mit einer Zahl tut, nun eben mit jeder Komponente des
n-tupels tun, so ubertragen sich auch die Rechenregeln fUr Zahlen auf unsere
Rechenoperationen im Rn, so gilt z.B. fUr die Addition:
(1) Fur aIle X,y,Z E R n gilt (x+y)+z=x+(y+z).
(2) Fur aIle X,Y E R n gilt x+y=y+x.
(3) Schreiben wir kurz 0 statt (0, ... ,0) E R n , so gilt X + 0 = X fUr aIle
x ERn.
(4) Schreiben wir -(Xl' ... ' Xn) statt (-Xl, ... , -X n ), so gilt X+( -x) = 0
fur aIle X E Rn.
(Hinweis zur Schreibweise: X bezeichnet hier n-tupel reeller Zahlen. Wir ha-
ben aber nicht genugend viele Buchstaben, urn X auf ewig fUr diesen Zweck
reservieren zu konnen. Ein paar Seiten weiter, in einem anderen Zusammen-
hang, bezeichnet X eine reelle Zahl zwischen -1 und 1. Es ist aber jeweils
genau angegeben, zu welcher Menge x gehort). - Fur die Multiplikation
mit reellen Zahlen gilt:
(5) Fur aIle A,ll E R und x E R n gilt A(flX) = (Afl)X.
(6) Fur aIle x E R n gilt Ix = x,
und schlieBlich gelten fur die "Vertraglichkeit" von Addition und Multiplika-
tion die beiden "Distributivgesetze":
(7) Fur aIle A E R und X,Y E R n gilt A(X + y) = AX + Ay.
(8) Fur aIle A, fl E R und x E R n gilt (A + fl)X = AX + flX.
Das war also unser erstes Beispiel: ein kleiner Exkurs uber das Rechnen
mit n-tupeln reeller Zahlen. Als zweites wollen wir uns eine ganz andere
Menge ansehen, mit deren Elementen man auch rechnen kann.
22 Kapitel 2: Vektorraume

Eine Abbildung X ---+ R nennt man auch eine reellwertige Funktion


auf X. Es sei nun M die Menge der rcellwcrtigen Funktionen auf dem
Intervall [-1,1), d.h. also M:= {f If: [-1,1)---+ R}. Sind f,g E M
und A E R, so definieren wir natiirlich die Funktionen f + 9 und Af durch
U + g)(x) := f(x) + g(x) und (Af)(x) := A· f(x) fiir alle x E [-1,1), und
dann sind f + 9 und Af wieder Elemente von M.

1
9 1+g

Auch fUr M gelten die acht Rechenregeln, die wir vorhin beim Rn
aufgefUhrt hatten. Bezeichnen wir mit 0 das durch O(x) := 0 fUr alle
x E [-1, 1) definierte Element von M und fiir f EMmit - f die durch
(-1) (x) := - f(x) definierte Funktion, so gilt fiir alle f, g, hEM, A, JL E R:
(1) U + g) + h = f + (g + h)
(2) f +9 = 9 + f
(3) f +0 = f
(4) f+(-1)=O
(5) A(JL1) = (AJL)f
(6) If = f
(7) AU + g) = Ai + Ag
(8) (A + JL)f = Ai + JLf
Was also die acht Rechenregeln angeht, so verhalten sich diese Funktionen so
wie die n-tupel reeller Zahlen, obwohl eine einzelne Funktion, als Individuum,
natiirlich etwas ganz anderes als ein n-tupel ist.

Definition: Ein Tripel (V, +, .) bestehend aus einer Menge V, einer


Abbildung (genannt Addition)
+: V x V ---+ V, (x,y) ---+ x+y
und einer Abbildung (genannt skalare Multiplikation)
.: R x V ---> V, (A,X) ---+ AX
2.1 REELLE VEKTORRAUME 23

heiJ3t ein reeller VektorTaum, wenn fUr die Abbildungen + und . die
folgenden aeht Axiome gelten:
(1) (x+y)+z=x+(y+z)fiirallex,y,zEV.
(2) x + y = y + x fiir alle x, y E V.
(3) Es gibt ein Element 0 E V (genannt "Null" oder "N ullvektor")
mit x + 0 = x fiir alle x E V.
(4) Zu jedem x E V gibt es ein Element -x E V mit x + (-x) = O.
(5) A(J-LX) = (AJ-L)X fiir alle A,J-L E JR, x E V.
(6) Ix = x fiir alle x E V.
(7) A(X + y) = AX + AY fiir alle A E JR, x, Y E V.
(8) (A + J-L)x = AX + J-LX fiir alle A,J-L E JR, x E V.

Zwei Beispiele habe ich Ihnen schon genannt: den Raum (JR n , +, .) der n-
tupel reeller Zahlen und den Raum (M, +, . ) der reellen Funktionen auf dem
Intervall [-1, 1]. A ber noeh viele andere Vektorraume kommen in der Ma-
thematik VOT. Spreehen wir etwa von Funktionenraumen. Dass in unserem
ersten Beispiel die Funktionen auf dem Intervall [ -1, 1] definiert sind, ist fiir
die Vektorraum-Eigensehaft nieht wichtig, aueh die Menge aller reellen Funk-
tionen auf einem beliebigen Definitionsbereich D wird mit der naheliegenden
Addition + und Skalarmultiplikation . zu einem Vektorraum. Interessan-
ter als aile Funktionen auf D zu betraehten ist es aber meist, Funktionen
auf D mit bestimmten wichtigen Eigensehaften zu studieren, und so gibt
es etwa Vektorraume stetiger Funktionen und Vektorraume differenzierbarer
Funktionen und Vektorraume von Losungen homogener linearer Differenti-
algleichungen und viele andere mehr; es ist gar nicht vorhersehbar, welehe
Funktionenraume einem friiher oder spater begegnen konnen. Ahnlieh bei
den n-tupel-Raumen: oft geht es nieht urn den Vektorraum aZZer n-tupel,
sondern etwa urn einen Vektorraum der n-tupel, die ein bestimmtes homo-
genes lineares Gleichungssystem los en. Ferner kommen viele Vektorraume
vor, deren Elemente weder n-tupel noeh Funktionen sind. Einige werden
Sie bald kennenlernen, etwa Vektorraume von Matrizen oder Vektorraume
von Endomorphismen oder Operatoren, andere spater, z.B. den Vektorraum
del' Translationen eines affinen Raumes, Tangentialraume an Flaehen und
an andere Mannigfaltigkeiten, Vektorraume von Differentialformen und Vek-
torraume, unter deren Namen Sie sich jetzt gewiss noeh gar niehts vorstel-
len konnen, wie reelle Kohomologiegruppen oder Lie-Algebren. Und das ist
nur eine Aufzahlung von mehr oder weniger konkreten Beispielen von Vek-
torraumen. Oft hat man aueh mit Vektorraumen zu tun, iiber die man zwar
zusatzliehe, iiber die Axiome hinausgehende Information hat (wie z.B. bei
24 Kapitel 2: Vektorraume

Hilberlriiumen oder Banachriiumen), welche aber nicht die Kenntnis indivi-


dueller Eigenschaften der Elemente einzuschlieBen braucht.
Dass wir hier dic lineare Algebra fiir den oben axiomatisch deflnierten
Vektorraum-Begriff und nicht nur fiir den Rn betreiben, bedeutet also auch,
dass Sie gleich in den erst en Wochen und Monaten Ihres Studiums etwas
Wesentliches iiber aIle diese vielfiiltigen und zum Teil schwierigen mathe-
matischen Gegenstiinde lernen. Das ist eigentlich fantastisch! Und in der
Tat hat die Mathematik lange gebraucht, urn diesen modernen strukturel-
len Standpunkt zu gewinnen. - Aber, so argw6hnen Sie vielleicht, miissen
wir dafiir nicht einen hohen Preis bezahlcn? 1st nicht die lineare Algebra
des abstrakten Vektorraums viel schwieriger als die lineare Algebra des R n ?
- Keineswegs, antworte ich Ihnen, fast gar nicht: in mancher Hinsicht so-
gar einfacher und iibersichtlicher. Aber ganz umsonst bekommen wir den
groBen Vorteil doch nicht, und besonders am Anfang haben wir im abstrak-
ten Vektorraum einige Aussagen zu iiberpriifen, die sich in einem n-tupel-
oder Funktionenraum von selbst verstiinden, und es mag befremdlich und ein
klein wenig beunruhigend wirken, dass solche Sachen nun beweisbediirftig
sein sollen. Die folgenden Bemerkungen 1 und 2 sind Beispiele dafiir. Aber
keine Angst, schon in Aufgabe 2.1 machen wir reinen Tisch damit.

Bemerkung 1: In einem Vektorraum gibt es stets nur einen Nullvek-


tor, denn sind 0 und 0' Nullvektoren, so gilt
o = 0 + 0' = 0' + 0 = 0'
(nach Axiomen 2,3).

Bemerkung 2: In einem Vektorraum gibt es zu jedem x stets nur


ein -x.

Beweis: Gilt sowohl x +a = 0 als auch x +b= 0, so ist


a = a +0 (Axiom 3)
= a + (x + b) (nach Annahme)
=(a+x)+b (Axiom 1)
=(x+a)+b (Axiom 2)
=O+b (nach Annahme)
=b+O (Axiom 2)
=b (Axiom 3), also a = b. o
2.1 REELLE VEKTORRAUME 25

Bezeichnungsvereinbarung: In Zukunft wollen wir statt x + (-y)


wie ublich einfach x - y schreiben.

Bevor wir zum niichsten Abschnitt (komplexe Zahlen und komplexe Vek-
torraume) ubergehen, mochte ich Sie auf eine wichtige Eigentumlichkeit ma-
thematischer Bezeichnungsweise aufmerksam machen, namlich auf die hau-
figen Doppelbedeutungen von Symbolen. Zum Beispiel haben wir den Null-
vektor mit 0 bezeichnet. Das soIl natiirlich nicht heiBen, dass die reelle Zahl
Null, die ja auch mit 0 bezeichnet wird, ein Element des Vektorraums sein
soIl, sondern es gibt eben genau einen Vektor in V, dessen Addition "nichts
bewirkt" und dieser heiBt Nullvektor und wird, wie die Zahl Null, mit 0
bezeichnet.
Wurden wir allgemein zulassen, dass ein und dasselbe Symbol innerhalb
eines Beweises, einer Definition oder sonstigen Sinnzusammenhanges ver-
schiedene Bedeutungen haben darf, dann konnten wir uns bald uberhaupt
nicht mehr verstandigen. Und jeder cinzelne solche Fall von Doppelbedeu-
tung ist natilllich eine mogliche Quelle von Verwechslungen, besonders fUr
Anfanger, das kann man gar nicht wegdiskutieren.
Andererseits mussen wir die Tatsache ruhig ins Auge fassen, dass Dop-
pelbedeutungen nicht ganz zu vermeiden sind. Legt man strenge MaBstabe
an, dann ist die mathematische Literatur sogar voll davon. Wollte man Dop-
pelbedeutungen strikt vermeiden, so wurden im Laufe der Zeit auch ganz
einfache Aussagen von ihrem eigenen formalen Ballast erstickt werden. Ich
konnte zwar in diesem Skriptum wegen der begrenzten Stoffmenge eine zeit-
lang aIle Doppelbedeutungen vermeiden, aber dann musste ich einige sehr
sonderbare Bezeichnungsangewohnheiten annehmen, die Ihnen spater bei der
unvermeidlichen Umstellung auf mathematische Normalkost Schwierigkeiten
bereiten willden. Wir wollen jedoeh mit Doppelbedeutungen mogliehst spar-
sam umgehen, FaIle mit wirklieher Verweehslungsgefahr vermeiden und im
ubrigen die vorkommenden FaIle ruhig beim Namen nennen. Den Nullvek-
tor mit 0 zu bezeiehnen ist ganz klar solch ein Fall. Es wird aber stets aus
dem Zusammenhang hervorgehen, ob Zahl oder Vektor gemeint ist. 1st z.B.
x, y E V, X + y = 0 dann ist diese 0 naturlieh der Vektor usw. Einen wei-
teren Fall von Doppelbedeutung moehte ieh gleich ankundigen: Wir werden
im folgenden meist statt "der Vektorraum (V, +, . )" kurz: "der Vektorraum
V" sagen, eine Doppelbedeutung des Symbols V als Vektorraum und die
dem Vektorraum zugrunde liegende Menge dabei bewusst in Kauf nehmend.
26 Kapitel 2: Vektordiume

2.2 KOMPLEXE ZAHLEN UND KOMPLEXE


VEKTORRAUME

..
.. . ...
.-
•• • • ••

• .. . - ..
•• •• •• ••
..

..
. . .. • •
• • •
.. . . ...
• • • ••
• • ••••
•• • • . ...
2.2 KOMPLEXE ZAHLEN UND KOMPLEXE VEKTORRAUME 27

Eci vielen mathematischen Fragestellungen gleicht der nur mit reellen Zahlen
Arbeitende einem, der Punkteverteilungen auf Linien studiert und kein Sy-
stem darin findet, wahrend der mit komplexen Zahlen Arbeitende sofort sieht,
worum es sich handelt. Die komplexen Zahlen ermoglichen oft entscheidende
Einsichten in die Struktur und Wirkungsweise der "reellen" Mathematik.
28 Kapitel 2: Vektorraume

Definition: Unter dem so genannten "Ki.irper der komplexen Zah-


len" versteht man die Menge C := JR2 zusammen mit den beiden
Verkniipfungen
+:CxC----->C ("Addition") und
·:CxC----->C ("Multiplikation") ,
die durch
(x,y)+(a,b):=(x+a,y+b) und
(x, y) . (a, b) := (xa - yb, xb + ya)
erklart sind.

Die Addition ist also dieselbe wie in dem reellen Vektorraum JR2, aber die
Multiplikation wirkt auf den erst en Blick vi.illig willkiirlich und wie eine von
den Formeln, die man erfahrungsgemaB immer wieder vergisst. Warum de-
finiert man nicht einfach (x,y)(a,b) = (xa,yb), das ware doch wohl am
naheliegendsten? - Das lasst sich am besten erklaren, wenn man vorher
eine andere Schreibweise fUr die Elemente von JR2 einfiihrt.

Bezeichnungsweise: JR x {O} c C solI die Rolle von JR spielen, des-


halb schreiben wir x E C statt (x,O) E C und fassen auf diese Weise JR
als Teilmenge von C auf: JR c C. Zur besonderen Kennzeichnung der
Elemente von {O} x JR wird (0,1) als i abgekiirzt, so dass nun jedes
(0, y) als yi und jedes (x, y) als x + yi, (x, y E JR) geschrieben werden
kann.

3i

2i -------------, 3 + 2i

° 1 2 3 4 5

Die Multiplikation in C solI nun folgendes leisten: Erstens solI sie assozia-
tiv, kommutativ und beziiglich der Addition distributiv sein, d.h. fiir alle
2.2 KOMPLEXE ZAHLEN UND KOMPLEXE VEKTORRAUME 29

U,V,W E C solI gelten: (uv)w = u(vw) , uv = vu, u(v+w) = uv+uw. Das


alles wurde die Multiplikation (x,y)(a, b) = (xa,yb) auch noch erfUllen.
Ferner solI die Multiplikation mit einer reellen Zahl x gerade die "Skalare
Multiplikation" in dem reellen Vektorraum JR2 sein, also
x(a + bi) = xa + xbi
fur alle x E JR. (Das erfUllt (x, y)(a, b) = (xa, yb) bereits nicht mehr).
Und schlieBlich, und das war historisch das eigentliche Motiv fUr die
EinfUhrung der komplexen Zahlen: Die so genannten "imaginiiren Zahlen" yi
sollen als Quadratwurzeln der negativen reellen Zahlen dienen konnen, d.h.
ihre Quadrate sollen negative reelle Zahlen sein! Das erreicht man durch die
Forderung
i 2 = -l.
Wenn es nun uberhaupt eine Multiplikation in C gibt, die alle diese Eigen-
schaften hat, dann muss jedenfalls
(x + yi)(a + bi) = xa + yia + xbi + yibi = xa - yb + (ya + xb)i
gelten, und so ergibt sich die in der Definition angegebene Formel fUr die
Multiplikation.
Uber die "innere Mechanik" der komplexen Multiplikation (dass z.B. die
Multiplikation mit i gerade die Drehung urn 90 0 ist) werden Sie in den
Vorlesungen uber Analysis mehr erfahren. FUr unsere Zwecke in der Linearen
Algebra genugt es erst einmal sich zu mer ken , dass man mit komplexen
Zahlen "genau so" wie mit reellen Zahlen rechnet. Insbesondere sind fur uns
die folgenden Eigenschaften der komplexen Multiplikation wichtig:

Bernerkung: Die komplexe Multiplikation C x C -+ C ist assozia-


tiv, kommutativ und distributiv, hat eine "Eins" und gestattet In-
versenbildung fUr von Null verschiedene Elemente. Eingeschriinkt auf
JR x C -+ C ist sie die skalare Multiplikation des JR2 und eingeschriinkt
auf JR x JR -+ JR c C die gewohnliche Multiplikation reeller Zahlen.

In Formeln ausgedruckt heiBen die im ersten Satz dieser Bemerkung genann-


ten Eigenschaften, dass fUr alle u,v,w E C gilt: u(vw) = (uv)w, uv = vu,
u(v+w) =uv+uw, 1u=u undfalls u:f.O,danngibtesgenauein u- 1 E
emit u-1u = 1.

Komplexe Vektorraume sind analog den reellen definiert: Man muss


nur uberall JR durch C und "reell" durch "komplex" ersetzen.
30 Kapitel 2: Vektorraume

Dann ist C n := C x ... x C ebenso ein Beispiel fur einen komplexen Vek-
torraum wie JR.n eines fur einen reellen Vektorraum. Die ersten vier Axiome,
die nur mit der Addition in V zu tun haben, werden natiirlich wortlich
ubernommen. Vielleicht ist es besser, die ganze Definition noch einmal hin-
zuschreiben:

DEFINITION: Ein Tripel (V, +, . ), bestehend aus einer Menge V, einer Ab-
bildung + : V x V -7 V, (x, y) f-+ x+y, und einer Abbildung . : C x V -7 V,
(A, x) f-+ AX, heiBt ein komplexer Vektorraum, wenn die folgenden acht
Axiome gelten:

(1) Fill alle x, y, Z E V gilt (x + y) + Z = x + (y + z).


(2) Fur alle x, y E V gilt x + y = y + x.
(3) Es gibt ein Element 0 E V, so dass fur alle x E V gilt: x +0 = x.
(4) Zu jedem x E V gibt es ein -x E V mit x + (-x) = o.
(5) Fur alle A,j.L E C und x E V gilt A(j.LX) = (Aj.L)X.
(6) Fur alle x E V gilt Ix = x.
(7) Fur alle A E C, X,y E V gilt A(X + y) = AX + Ay.
(8) Fur alle A,j.L E C, X E V gilt (A + j.L)x = AX + j.Lx.

Statt "reeller Vektorraum" sagt man auch "Vektorraum uber JR." und
statt "komplexer Vektorraum" "Vektorraum uber C". Wenn wir von
einem "Vektorraum uber lK" sprechen, so ist im Folgenden gemeint,
dass lK entweder JR. oder C ist. Der Buchstabe lK wurde gewahlt, weil
JR. und C so genannte "Korper" sind.

2.3 UNTERVEKTORRAUME

1st Vein Vektorraum uber lK und U c V eine Teilmenge, so kann man


naturlich Elemente von U miteinander addieren und mit Elementen von lK
multiplizieren, aber dadurch wird U noch lange nicht zu einem Vektorraum,
z.B. kann es ja vorkommen, dass x + y rj U, obwohl x, y E U,
2.3 UNTERVEKTORRAUME 31

U x
x+yrjU

und wenn das so ist, dann liefert die Addition in V ja keine Abbildung
U x U ---> U, wie es fiir einen Vektorraum U der Fall sein miisste, sondern
nur eine Abbildung U x U ---> V. Zuniichst miissen wir also fordern, wenn
U durch die V-Addition und V-Skalarmultiplikation zu einem Vektorraum
werden solI, dass fiir alle x, y E U und A E lK gilt: x + y E U, AX E U.
Au£erdem miissen wir U =I- 0 fordern, denn sonst kann Axiom 3 (Existenz
der Null) nicht erfiillt sein. Das geniigt dann aber tatsiichlieh auch. Die
Giiltigkeit der Axiome folgt dann automatisch. Wir werden das als Korollar
aus der folgenden Bemerkung formulieren, davor aber iiberhaupt erst einmal
die Definition:

Definition: Sei Vein Vektorraum iiber lK. Eine Teilmenge U C V


hei£t Unte'T'Vektormum von V, wenn U =I- 0 und fiir alle x, y E U und
alle A E lK gilt: x + y E U, AX E U.
Bemerkung: 1st U ein Untervektorraum von V, daIm sind auch der
Nullvektor von V und mit jedem x E U der Vektor -x E V in U
enthalten.

BEWEIS: Man sollte meinen, dies folgt aus U =I- 0 und AX E U fiir alle
A ElK, X E U, da man ja A = 0 bzw. A = -1 set zen kann. Fiir Funktio-
nenriiume oder n-tupel-Raume ist das auch klar, aber da (V, +, .) irgend
ein uns nieht naher bekannter Vektorraum ist, miissen wir uns nach einem
Beweis fiir O· x = 0 und (-1). x = -x umsehen, denn in den Axiomen steht
nichts davon.
Es gilt aber 0 . x = (0 + 0) . x = O· x + 0 . x nach Axiom (8), also
o = 0 . x + (-0· x) = (0· x + 0 . x) + (-0· x) nach Axiom (4), folglich
o = 0 . x + (0 . x + (- 0 . x)) = 0 . x + 0 = 0 . x nach (1) und (4), also O· x = 0,
wie wir zeigen wollten. Als Folgerung erhalten wir auch die andere Aussage,
denn wir wissen nun 0 = 0 . x = (1 + (-1 )) . x = 1 . x + (- 1) . x = x + (- 1) . x ,
also x + (-1) . x = 0, d.h. (-1). x = -x. 0
32 Kapitel 2: Vektorraume

Geht man nun die acht Axiome in Gedanken an U durch, so sieht man:

Korollar: 1st U ein Untervektorraum von V, so ist U zusammen mit


der durch V gegebenen Addition und Skalarmultiplikation in U sclbst
ein Vektorraum uber lK.

Insbesondere sind {O} und V selbst Untervektorraume von V. In der an-


schaulichen Vorstellung des ]R3 als "Raum" sind die Untervektorraume, die
es auBer {O} und ]R3 noch gibt, gerade die "Ebenen" durch den Nullpunkt
und die "Geraden" durch den Nullpunkt.
Dass der Durchschnitt zweier Untervektorraume von V wieder ein Unter-
vektorraum von V ist, ist aufgrund der Definition so klar, dass wir es nicht
als beweiswurdig ansehen wollen. (Wirklich?). Immerhin solI man es wissen,
schreiben wir also:

Notiz: Sind U 1 , U2 Untervektorraume von V, so ist auch U 1 n U2 ein


Untervektorraum von V.

2.4 TEST

(1) Sei n 2: 1. Dann besteht ]Rn aus


D n reellen Zahlen
D n-tupeln reeller Zahlen
D n-tupeln von Vektoren

(2) Welche der folgenden Aussagen ist keines der Axiome des reellen Vek-
torraums:
D Fur alle x, y E V gilt x + y = y + x
D Fur alle x, y, Z E V gilt (x + y) + Z = x + (y + z)
D Fur alle x, y, Z E V gilt (xy)z = x(yz)
2.4 TEST 33

(3) Fiir die Multiplikation komplexer Zahlen gilt (x + yi)(a + bi) =

D xa + ybi
D xy + yb + (xb - ya)i
D xa - yb + (xb + ya)i

(4) Die skalare Multiplikation ist in einem Vektorraum V iiber lK durch


eine Abbildung

D VxV->lK D lKxV->V

gegeben.

(5) Welche Formulierung kann korrekt zur Definition des Begriffes reeller
Vektorraum ergiinzt werden:

D Eine Menge V heiBt reeller Vektorraum, wenn es zwei Abbildungen


+ : IE. x V -> V und . : IE. x V -> V gibt, so dass die folgenden acht
Axiome erfiillt sind ...
D Eine Menge von reellen Vektoren heiBt reeller Vektorraum, wenn die
folgenden acht Axiome erfiillt sind ...
D Ein Tripel (V, +, . ), in dem V eine Menge und + und . Abbildun-
gen V x V -> V bzw. IE. x V -> V sind, heiBt reeller Vektorraum,
wenn die folgenden acht Axiome erfiillt sind ...

(6) Welche der folgenden Aussagen ist richtig: 1st Vein Vektorraum iiber
lK, so ist
D {x + y I x E V, Y E V} = V
D {x + y I x E V, Y E V} = V x V
D {AV I A E lK, v E V} = lK x V.

(7) Welche der folgenden Aussagen ist richtig:

D 1st U ein Untervektorraum von V, dann ist V" U ebenfalls ein


Untervektorraum von V
D Es gibt einen Untervektorraum U von V, fiir den auch V" U Un-
tervektorraum ist, aber V" U ist nicht fiir jeden Untervektorraum
U ein Untervektorraum
D 1st U Untervektorraum von V, dann ist V" U auf jeden Fall kein
Untervektorraum von V.
34 Kapitel 2: Vektorraume

(8) Welche der folgenden Teilmengen U C R n ist ein Untervektorraum

D U = {x R n I Xl = ... = xn}
xn
E
D U = {x E R n I XI =
D U = {X E R n I Xl = I}

(9) Ein komplexer Vektorraum (V, +, .) wird durch Einschrankung der


Skalarmultiplikation auf den Skalarbereich R natiirlich zu einem reel-
len Vektorraum (V, +, . I R x V). Insbesondere kann V := C auf diese
Weise als ein reeller Vektorraum betrachtet werden. Bilden die ima-
ginaren Zahlen darin einen Untervektorraum U = {iy E C lYE R}?

D Ja, denn es ist U = C


D Ja, denn 0 E U und mit A E R und ix, iy E U ist auch i(x+y) E U
und iAX E U
D Nein, denn Aiy braucht nicht imaginar zu sein, da z.E. i 2 = -1.

(10) Wieviele Untervektorraume hat R2?

D zwei: {O} und R2


D vier: {O}, R x {O}, {O} x R (die "Achsen") und R2 selbst
D unendlich viele.

2.5 KemPER

EIN ABSCHNITT FlfR MATHEMATIKER

AuJ3er R und C gibt cs noch viele andere so genannte "Korper", die man
als Skalarbereiche fUr Vektorraume verwenden kann.

Definition: Ein Korper ist ein Tripel (1IC, +, .) bestehend aus einer
Menge 1IC und zwei Verkniipfungen
+ :1IC x 1IC ---+ 1IC, (A, J-l) >----------+ A + J-l ("Addition") und
. :1IC x 1IC ---+ 1IC, (A, J-l) >----------+ AJ-l ("Multiplikation")
so dass die folgenden Axiome erfUllt sind:
2.5 KORPER 35

(1) Fur aIle A, j.L, v E lK gilt (A + j.L) + v = A + (j.L + v).


(2) Fur alle A, j.L E lK gilt A + j.L = j.L + A.
(3) Es gibt ein Element 0 E lK mit A + 0 = A fur alle A E lK.
(4) Zu jedem A E lK gibt es ein Element -A E lK mit A + (-A) = O.
(5) Fur aIle A, j.L, v E lK gilt (Aj.L)V = A(j.LV).
(6) Fur alle A, j.L E lK gilt Aj.L = j.LA.
(7) Es gibt ein Element 1 ElK, 1 -I 0, so dass gilt U = A fur aIle
A E lK.
(8) Zu jedem A E lK und A -I 0 gibt es ein A-1 E lK mit A-1 A = 1.
(9) Fur alle A, j.L, v E lK gilt A(j.L + v) = Aj.L + AV. D

Diese neun Eigenschaften imitieren naturlich das Rechnen mit reellen oder
komplexen Zahlen, und als allererste Approximation kann man sich einmal
merken, dass man in einem Korper "genau so" rechnen kann wie in lR oder
IC. - Man kann leicht aus den Axiornen folgern, dass die in (3) und (7)
genannten Elemente 0 und 1 eindeutig bestimmt sind, so dass wir von "der
Null" und "der Eins" des Korpers reden konnen, dass ferner -A und A- 1
eindeutig zu gegebenem A bestimmt sind, dass (-l)A = -A ist und dass
Aj.L = 0 ~ A = 0 oder j.L = 0 und dass (-1)(-1) = 1 ist, vielleicht sollten
wir das einmal fur die Leser des Haupttextes notieren:

Notiz: 0 und 1 sind eindeutig bestimmt, ebenso -A und A-1 zu gege-


benem A. Es gilt (-l)A = -A, (-1)(-1) = 1 und Aj.L = 0 ~ A = 0
oder j.L = O.

1st nun lK irgend ein Korper, so definiert man den Begriff des" Vektor-
mums uber lK" analog dem des reellen Vektorraums: man ersetzt ein-
fach uberall lR durch lK. Wenn in dies em Skriptum von Vektorraumen
uber lK die Rede ist, so ist fur die Leser der Abschnitte fur Mathemati-
ker immer (auch auBerhalb dieser Abschnitte) gemeint, dass lK irgend
ein Korper ist, sofern lK nicht ausdrucklich anders spezifiziert ist. Ins-
besondere gilt alles, was wir obcn schon fur "Vektorraume uber lK"
formuliert haben, fur beliebige Korper, nicht nur wie dort zunachst
angegeben fur lK = lR und lK = C.
36 Kapitel 2: Vektordiume

Ich machtc Ihnen die Definition des Begriffes "Karper" noch in einer anderen
Formulierung geben, in der man sie sich, wie ich finde, besser merken kann.
Der Nachteil dieser Definition ist nur, dass man dazu eine Vorrede braucht,
deshalb habe ich sie im Haupttext nicht benutzt. Also: wenn Sie irgendwo
in der Mathematik einer Verkniipfung begegnen, die durch das Symbol "+ "
bezeichnet wird (und das ist gar nicht selten), so kannen Sie ziemlich sicher
sein, dass die Verkniipfung assoziativ und kommutativ ist, d.h. dass fiir aile
x, y, z, fiir die die Verkniipfung erkliirt ist, gilt: (1) (x + y) + z = x + (y+ z)
und (2) x + y = y + x . Wenn es nun noch ein "neutrales Element" 0 gibt
und zu jedem x ein Negativ, dann nennt man die betreffende Menge zusam-
men mit der Verkniipfung + eine abelsche Cruppe (nach dem norwegischen
Mathematiker Niels Henrik Abel (1802-1829)):

DEFINITION: Eine abelsche Gruppe ist ein Paar (A, +) bestehend aus einer
Menge A und einer Verkniipfung + : A x A -+ A, so dass gilt:
(1) Fiiralle a,b,c E A ist (a+b)+c=a+(b+c).
(2) Fiir aile a, bE A ist a + b = b + a.
(3) Es gibt ein Element 0 E A mit a + 0 = a fiir aile a E A.
(4) Zujedem a E A gibt es ein -a E A mit a+ (-a) = O.

Die Null ist dann wieder eindeutig bestimmt, dito -a zu a. Standard-


beispiel fiir eine abelsche Gruppe ist Z, die abelsche Gruppe der ganzen
Zahlen. Nun ist es ja an und fiir sich gleichgiiltig, mit welchem Symbol man
die Verkniipfung bezeichnet: wenn die vier Axiome erfiillt sind, handelt es
sich urn eine abelsche Gruppe. Es haben sich aber zwei Bezeichnungswei-
sen durchgesetzt: einmal die in der Definition benutzte "additive" Schreib-
weise. In der anderen, der "multiplikativen" Schreibweise schreibt man die
Verkniipfung als . : G x G -+ G, (g, h) f-7 gh und nennt das neutrale Element
nicht 0 sondern 1, und das "Negativ" nicht -g sondern g-l. Die Definition
bleibt sonst dieselbe, (G,') heiBt also (multiplikativ geschriebene) abelsche
Gruppe, wenn
(1) (gh)k = g(hk) fiir aile g, h, kEG.
(2) gh = hg fiir aile g,h E G.
(3) Es gibt ein 1 E G mit 19 = 9 fiir aile 9 E C.
(4) Zu jedem 9 E G gibt es ein g-l E G mit g-lg = 1.
Mit der somit eingefiihrten Terminologie kann man die Definition des Begrif-
fes Karper nun so formulieren:

NOTIz: (lK, +, .) ist genau dann ein Karper, wenn (lK, +) und (lK ...... 0, . )
abelsche Gruppen sind und die Verkniipfungen sich in der iiblichen Weise
2.5 KClRPER 37

distributiv verhalten, also A({L + v) = A{L + AV und ({L + V)A = {LA + VA fiir
alle A, {L, v E lK. D

Bei aller Analogie zwischen den Korperaxiomen und den Eigenschaften der
Addition und Multiplikation reeller Zahlen muss man beim Rechnen mit Kor-
perelementen doch auf eine Gefahr achten, und diese Gefahr hangt mit der
Doppelbedeutung von 1 als Zahl und als Korperelement zusammen. Und
zwar: man verwendet fiir das multiplikativ neutrale Element eines Korpers
die Bezeichnung 1, und ebenso bezeichnet man das Element 1 + 1 E lK
mit 2, usw. Dadurch bekommt jedes Symbol fiir eine natiirliche Zahl eine
Doppelbedeutung als Zahl und als Korperelement, und entsprechend hat fiir
A E lK auch nA eine Doppelbedeutung: Fasst man n als natiirliche Zahl
auf, so bedeutet nA := A + ... + A (n Summanden) - das hat nur mit
der Korperaddition zu tun, und dieselbe Schreibweise benutzt man auch fUr
beliebige additiv geschriebene abelsche Gruppen. Fasst man dagegen n als
Korperelement auf, so hat nA eine Bedeutung als Produkt in dem Sinne der
Korpermultiplikation. - Nun macht das aber gar nichts aus, denn wegen
Axiom 9 gilt A + A = lA + lA = (1 + I)A = 2A usw. (hierbei 1 E lK, 2 E lK
gemeint), also ist nA in beiden Interpretationen dasselbe Korperelement.
Aber: das Element nA kann Null sein, obwohl weder die Zahl n noch das
Korperelement A Null sind. Es kann namlich vorkommen, dass 1+·· ·+1 = 0
in lK gilt, fiir eine geeignete Anzahl von Summanden!

Definition: Sei IK ein Korper, 1 E IK sein Einselement. Fiir positive


natiirliche Zahlen n werde nl als nl = 1+·· ·+1 ElK (n Summanden)
verstanden. Gilt dann nl # 0 fUr alle n > 0, so nennt man IK einen
Korper der Charakteristik Null. 1m anderen Falle ist die Charakteristik
charlK definiert als die kleinste positive natiirliche Zahl p fiir die pI = 0
gilt.

Bemerkung: 1st char IK # 0, dann ist char IK eine Primzahl.


BEWEIS: Wegen 1 # 0 (Axiom 7) kann charIK = 1 nicht vorkommen.
Ware nun char IK = PIP2 mit PI > 1, P2 > 1, so ware

also PI 1 = 0 oder P21 = 0, im Widerspruch dazu, dass PIP2 die kleinste


positive Zahl n mit nl = 0 ist. D
38 Kapitel 2: Vektorraume

Beispiele: Die Korper lR, rc und IQl (Korper der rationalen reel-
len Zahlen) haben alle die Charakteristik 0. Ist peine Primzahl, so
kann man {O, 1, ... ,p - I} zu einem Korper IFp machen, indem man
Summe und Produkt als die Reste der gewohnlichen Summe und des
gewohnlichen Produkts bei der Division durch p erkliirt. (Beispiel:
3 . 4 = 12 in Z, 12 : 7 = 1 Rest 5, also 3 . 4 = 5 in IF 7). Dann hat

°
IFp die Charakteristik p. Insbesondere: Definiert man in IF 2 = {O, I}
durch 0+0 = 0,1+0 = 0+1 = 1,1+1 = und 0·0 = 0·1 = 1·0 = 0,
1 . 1 = 1 eine Addition und eine Multiplikation, so wird IF 2 zu einem
Korper der Charakteristik 2.

2.6 WAS SIND VEKTOREN?


EIN ABSCHNITT FUR PHYSIKER

Yom mathematischen Standpunkt aus ist diese Frage durch die Definition
des "Vektorraumes" vorerst befriedigend beantwortet. Als Physiker miissen
Sie sich jedoch unter einem etwas anderen Gesichtspunkt wieder damit aus-
einandersetzen, wenn Sie, z.B. im Berkeley Physics Course [6], S. 25 lesen:
"A vector is a quantity having direction as well as magnitude". Wie ist das
gemeint? Was hat das mit dem mathematischen Vektorraum-Begriff zu tun?
Ist es dasselbe, nur in anderen Wort en?
Sehr berechtigte Fragen, aber nicht so einfach zu beantworten. Ganz das-
selbe ist es jedenfalls nicht. - Fiir eine niihere Erkliirung muss ich natiirlich
auf die drei Worte quantity, direction und magnitude, also GroBe, Richtung
und Betrag eingehen. Lassen Sie mich als Vorbereitung zuniichst erliiutern,
was man in der Mathematik unter dem Betrag eines Vektors versteht. Danach
wollen wir zu unserem Problem zuriickkehren und versuchen, eine Briicke
zwischen mathematischem und physikalischem Vektorbegriff zu schlagen.
Vektoren (in dem in der Mathematik gebriiuchlichen Sinne) haben
zuniichst einmal keinen "Betrag", aber wir konnen ihnen einen Betrag
geben. Ob und wie wir das tun, hiingt von den Griinden ab, aus denen wir
2.6 WAS SIND VEKTOREN? 39

den betreffenden Vektorraum uberhaupt betrachten. In dem nicht speziell


an die Physiker gerichteten Teil dieses Skriptums haben wir z.B. bis § 7
einschlieBlich keinen Anlass , Vektoren mit einem Betrag zu versehen, weil
die behandelten mathematischen Fragen mit Betragen gar nichts zu tun
haben. Hupfen wir also einmal uber funf Paragraphen hinweg, hinein in
den § 8, der von den so genannten euklidischen Vektorraumen, den reellen
Vektorraumen mit einem Skalarprodukt handelt.

Unter dem Betrag oder der Norm oder der Lange eines Vektors x E lR. n
versteht man die Zahl

Ilxll := jxi + ... +x~.

Die Begrundung oder Anregung zu dieser Festsetzung liefert die Elementar-


geometrie mit dem Satz von Pythagoras:

Ein Vektor e E lR. n heiBt dann ein Einheitsvektor, wenn I eI = 1 gilt. Fur
x i= 0 ist zum Beispiel e := II~II ein Einheitsvektor.

Fur zwei Vektorcn x, Y E lR.n nennt man die Zahl


(x, y) := XIYl + ... + XnYn
das Standard-Skalarprodukt von x und y.

Es gilt (x, x) =11 X 112, aber auch


I x + Y 112 - I x - Y 112 = 4(x, y);
in der elementargeometrischen Interpretation bedeutet (x, y) = 0 also, dass
die Diagonalen x + Y und x - Y in dem von x, Y erzeugten Parallelogramm
40 Kapitel 2: Vektordiume

gleich lang, dieses also ein Rechteck ist und x und y senkrecht aufeinander
stehen: (x,y) = 0 ~ x..l y.

o "-----'--'-----------'-'---'----'-' x

Daraus liisst sich aber die elementargeometrische Bedeutung von (x, y) fur
beliebige von Null verschiedene x, y E Rn erschlieBen: set zen wir e:= xl I x II
und e' := y I I y I , und ist ..\e der FuJ3punkt des Lotes von e' auf e,

e'

und bezeichnen wir mit a(x,y) den Winkel zwischen x und y, so dass also
..\ = cosa(x,y) gilt, so ist e..l e' -..\e und daher (e,e') - ..\(e, e) = 0 oder
(e, e') = ..\, d.h. aber
(x, y)
Ilxllllyll = cosa(x,y),

das Skalarprodukt beschreibt also nicht nur die Liingen-, sondern auch die
elementargeometrische Winkelmessung im Rn.
In der Mathematik werden auJ3er dem Rn aber auch noch viele andere re-
elle Vektorriiume betrachtet, und deshalb hat man einen allgemeinen Begriff
eingefiihrt, der die wichtigsten Eigenschaften des Standard-Skalarprodukts
im R n imitiert, niimlich
2.6 WAS SIND VEKTOREN? 41

Definition: Sei Vein reeller Vektorraum. Unter einem Skalar- oder


inneren Produkt auf V versteht man eine Abbildung
V xV -----+ R,
welche bilinear, symmetrisch und positiv definit ist, d.h.: wird die Ab-
bildung als (v,w) f--+ (V,WI gesehrieben, so gilt
(1) Fur jedcs W E V ist (. , wI: V ---+ R linear, das hei£t es ist stets
(VI +V2,WI = (VI,WI + (V2,WI und ()..V,WI = )..(v, WI ,
analog fur festes V und (v, . I : V ---+ R ("Bilinearitat").
(2) (v,WI = (w,VI fill aIle V,W ("Symmetrie").
(3) (v, VI :::>: 0 fUr aIle v, und (v, VI = 0 nur fur v = 0
("Positive Definitheit").

Fur jeden reellen Vektorraum V lasst sich so ein Skalarprodukt ( . , . I finden,


ja sogar viele - aueh auf dem R n gibt es au£er dem Standard-Skalarprodukt
noeh viele andere - und will man Langen von und Winkel zwischen Vektoren
fest set zen, so wahlt man zuerst ein Skalarprodukt aus:

Definition: Unter einem euklidischen Vektorraum versteht man ein


Paar (V, ( . , . I) , bestehend aus einem reellen Vektorraum V und einem
Skalarprodukt (. , . I darauf.

Oder wie man aueh sagt: einen Vektorraum V, der mit einem Skalarprodukt
versehen oder ausgestattet ist.

Definition: In einem euklidisehen Vektorraum hei£t


IvI := yf(v::0
der Betrag oder die Lange von v und
(v,WI
a(v,w) :=areeos Ilvllllwll'
fur v of 0 und W of 0, der Winkel zwischen v und w.
42 Kapitel 2: Vektorraume

Soviel zunachst iiber den Betrag ("magnitude") eines Vektors aus mathe-
matischer Sicht, und ich kehre zu der schwierigen Aufgabe zuriick, auf die
ich mich leichtsinnigerweise eingelassen habe, namlich Ihnen den Unterschied
zwischen mathematischem und physikalischem Vektorbegriff klarzumachen.
Dieser Unterschied hangt damit zusammen, dass es einen Raum gibt, der
in der Physik von iiberragender Bedeutung und gleichsam allgegenwartig ist,
wahrend ihn die lineare Algebra als mathematisches Objekt, also "offiziell"
sozusagen, gar nicht kennt, namlich den realen physikalischen Raum, in dem
wir uns aIle befinden.
Inoffiziell kennt ihn die Mathematik natiirlich recht gut, den Anschau-
ungsraum, aber wenn wir die Punkte im Raum fUr "bestimmte, wohlunter-
schiedene Objekte unserer Anschauung oder unseres Denkens" ausgeben soll-
ten, wiirde uns doch recht mulmig werden. - Uber solche philosophischen
Zimperlichkeiten miissen wir uns jedoch fiir die gegenwartige Diskussion hin-
wegsetzen. Erkennen wir also einmal den Anschauungsraum als geniigend gut
definiert an, sei es, dass wir einen Punkt darin durch seine Abstande zu den
Laborwanden charakterisiert denken, sei es, fiir astronomische Betrachtun-
gen, durch seine Position beziiglich der Fixsterne.
Dadurch wird der Anschauungsraum A nicht zu einem Vektorraum, wo
zum Beispiel ware seine Null? Er hat aber eng mit gewissen Vektorraumen
zu tun. Wahlt man namlich einen Punkt 0 E A willkiirlich aus und ernennt
ihn zum Null- oder Bezugspunkt, so kann man aIle Punkte PEA als so
genannte Ortsvektoren QF bezuglich 0 auffassen, veranschaulicht durch einen
Pfeil von 0 nach P, kann sie mit reellen Zahlen multiplizieren und wie im
"Krafteparallelogramm" zueinander addieren

OP

und erhalt so einen Vektorraum, den wir mit Ao bezeichnen wollen. An ei-
nem festen Raumpunkt 0 betrachtet man in der Physik aber nicht nur Orts-
vektoren, sondern auch elektrische Feldstarkevektoren, Geschwindigkeitsvek-
toren, Kraftvektorcn und viele andere mehr. Mit der physikalisch durch
2.6 WAS SIND VEKTOREN? 43

Superposition usw. definierten Addition und Skalarmultiplikation bilden die


elektrischen Feldstarkevcktoren im Punkt 0 cinen reellen Vektorraum Eo,
die Geschwindigkeitsvektoren einen Vektorraum go, die Kraftvektoren ei-
nen Raum Ko usw. - Das sind zwar insofern Phantasienotationen, als es
in der Physik nicht ublich ist, den Vektorraumen, denen die jeweiligen Vek-
toren als Elemente angehoren, auch eigene N amen und Bezeichnungen zu
geben, wir mussen das hier aber einmal tun, wenn wir den mathematischen
mit dem physikalischen Vektorbegriff vergleichen wollen. Einstweilen sehen
wir bei diesem Vergleich noch nichts Problematisches: wir haben eben einige
konkrete physikalische Anwendungsbeispiele A o , Eo, go, Ko usw. fUr den
allgemeinen mathematischen Begriff des reellen Vektorraums vor uns. In-
teressanter wird es aber, wenn wir den physikalisch gemessenen Betrag, die
magnitude der physikalischen Vektoren betrachten.

Jedem Ortsvektor 7 E A o , jedem elektrischen Vektor E E Eo usw. ist


ein (physikalischer) Betrag 171 bzw. lEI usw. zugeordnet. Dieser physikali-
sche Betrag ist aber im Allgemeinen keine Zahl, sondern hat eine physikali-
sche Dimension 1) . So kann zum Beispiel nicht 171 = 5 oder lEI = 5 sein,
wohl aber 171 = 5cm und lEI = 5:%t. Nun lieBe sich ja ein langenwertiger
Betrag leicht auf einen reellwertigen zuruckfuhren, wir brauchten uns "nur"
fur eine LangenmaBeinheit zu entscheiden, etwa fur Zentimeter oder fUr Me-
ter. Aber gerade das wollen wir vermeiden, denn die Rechenoperationen fur
physikalische Vektoren sollen nicht von der Willkur der Entscheidung zwi-
schen Meter und Zentimeter abhangen. Anstatt fUr unseren Bruckenschlag
die physikalischen Dimensionen aus den physikalischen Formeln zu eliminie-
ren, wollen wir sie lieber in die lineare Algebra einfiihren, und das geht so.
Wir betrachten den liingenwertigen Skalarbereich, wie man vielleicht sagen
konnte, namlich
lR[Lange] :=lR[cm]:= {xcm I x E lR}.
Das ist in offensichtlicher Weise ein Vektorraum, denn naturlich rechnet man
xcm + ycm = (x + y)cm usw., er ist im mathematischen Sinne "eindimen-
sional", wie lR selbst. Dieser Langenskalarbereich ist nicht nur eine formale
Konstruktion, sondern physikalisch interpretierbar als Vektorraum - nicht
gerade der Langen, denn was sollte eine negative Lange bedeuten - aber der
LangendifJerenzen. Beachten Sie, dass wir uns durch diese Auffassung des
Langenskalarbereichs keineswegs auf die Auswahl einer LangenmaBeinheit

1) Dieser Gebraueh des Wortes Dimension hat niehts mit dem Dimensionsbegriff
der linearen Algebra zu tun, von dem im nachsten Paragraphen die Rede sein wird, die
Wortgleiehheit ist Zufall.
44 Kapitel 2: Vektordiume

festgelegt haben, denn


lR[Lange] = lR[em] = lR[m]
gilt nicht nur "bis auf einen Faktor" oder so etwas, sondern das ist jedes-
mal genau dasselbe, wie eben 5em genau dasselbe wie O.05m bedeutet. Fur
Ortsvektoren ist also Ir' I E lR [ em] .
Ebenso verfahren wir mit allen anderen physikalisehen Dimensionen, wir
haben dann einen elektrisehen Feldstarkeskalarbereieh lR[ ~%t ],einen Ge-
sehwindigkeitsskalarbereieh lR[ ~:] usw., alle unabhangig von der Wahl von
Einheiten. Aueh den dimensionslosen Skalarbereieh lR selbst wollen wir als
ein Beispiel gelten lassen, wir konnen ihn als lR = lR[ 1] sehreiben. Diese
physikalisehen Skalare kann man miteinander multiplizieren, zum Beispiel
ist 5em· 6 ~%t = 30volt E lR [ volt] usw. Sie werden mir keine langen forma-
len Erklarungen uber em· sec = sec· em und ~~ = 1 abverlangen.
Den eigentliehen Kernpunkt, in dem sich der physikalisehe Vektorbegriff
yom mathematisehen unterseheidet, haben wir aber bisher nur gestreift. Er
betrifft die Beziehung der versehiedenen physikalisehen Vektorraume A o ,
Eo, go, .. usw. untereinander. - Jeder dieser reellen Vektorraume hat einen
zugehorigen physikalisehen Skalarbereich, dem die Betrage seiner Vektoren
angehoren. Dureh seinen Skalarbereieh ist der physikalisehe Vektorraum am
Punkte 0 aber aueh eharakterisiert: es gibt nicht mehrere Sort en elektri-
scher Feldstarkevektoren am Punkte 0, etwa untersehieden dureh die Art
ihrer Erzeugung, sondern ein Vektor bei 0 mit einem Betrag aus lR[ ~%t ]
ist ein Element von Eo. Ferner ist es in der Physik sinnvoll, physikalisehe
Vektoren mit physikalisehen Skalaren zu multiplizieren, man erhalt dann Vek-
toren mit einem entspreehend geanderten Skalarbereieh. Multipliziert man
z.B. einen Gesehwindigkeitsvektor v E go mit einer Zeitdifferenz, etwa mit

5 sec E lR[ sec], so erhalt man einen Ortsvektor r' = 5 sec· V E Ao. Bezeieh-
nen wir die Menge solcher Produkte in Anlehnung an die Notation fur die
Skalarbereiche, so hatten wir hier also zum Beispiel go [sec] = Ao. 1st all-
gemeiner Vo ein physikaliseher Vektorraum bei 0 mit einem Skalarbereich
lR[ a] und ist lR[ b] ein weiterer Skalarbereieh, so wollen wir

Vo[b]:= {b· v Iv E Vo }
sehreiben. Das ist dann also der physikalisehe Vektorraum mit dem Skalar-
bereich lR[ ab]. Beaehte, dass wir aueh hierbei keine Festlegung einer MaB-
einheit zu treffen haben, denn versehiedene MaBeinheiten unterseheiden sieh
ja nur urn einen von Null versehiedenen reellen Faktor. Auf diese Weise ste-
hen die physikalisehen Vektorraume bei 0 alle miteinander in kanoniseher
Beziehung. Haben Vo und Wo die Skalarbereiche lR[ a] und lR[ b], so ist
Wo = Vo [ ~] und Vo = Wo [ *]. Insbesondere konnen wir sie, wenn wir
2.6 WAS SIND VEKTOREN? 45

wollen, aIle durch den Raum der Ortsvektoren beschreiben: Vo = Ao [ c':n ].


Jeder physikalische Vektor am Punkte 0 ist bis auf einen positiven physika-
lischen skalaren Faktor- ein Ortsvektor. Darauf bezieht sich die Aussage, ein
physikalischer Vektor, auch wenn es kein Ortsvektor ist, habe eine Richtung:
eine Riehtung im Raume namlich!

Schauen wir von dem jetzt erreichten Standpunkt nochmals auf die Formu-
lierung "A vector is a quantity, having direction as well as magnitude!!, so
konnen wir die Unterschiede zum mathematischen Vekt orb egriff nun deutlich
benennen:
(1) Ein physikalischer Vektor ist "a quantity', eine (physikalische) GroBe.
So allgemein diese Bestimmung auch ist, drilckt sie doch schon eine
andere Auffassung vom Vektor aus, denn die mathematischen Vektor-
raumaxiome enthalten keine, auch nicht die geringste Forderung an
Herkunft oder Eigenschaften der Vektoren.
(2) Ein physikalischer Vektor hat "magnitude", einen Betrag, beim mathe-
matischen Vektor gehort das nieht zur Begriffsbestimmung. Werden
aber doch, durch die Zusatzstruktur eines Skalarprodukts (. , . ), Be-
trage eingefilhrt, so sind das reelle Zahlen und nieht, wie in der Physik,
dimensionsbehaftete physikalische Skalare.
(3) SchlieBlich hat ein physikalischer Vektor "direction", eine Richtung im
(physikalischen) Raum, weil die physikalischen Vektorraume in der oben
beschriebenen engen Beziehung zum Ortsvektorraum stehen. Hierfilr
gibt es beim mathematischen Vektorbegriff ilberhaupt keine Entspre-
chung, weil die Axiome keinerlei Bezug auf den physikalischen Raum
nehmen.

Wie zu erwarten, haben diese U nterschiede weitere im Gefolge. In den eukli-


dischen Vektorraumen der linearen Algebra ist z.B. der (reellwertige) Betrag
durch das (ebenfalls reellwertige) Skalarprodukt definiert: II x I = ~,
und umgekehrt kann das Skalarprodukt auch aus dem Betrag rekonstruiert
werden: 4(x, y) = I x + y 112 - I x - y 112. In der Physik wird ebenfalls ein
Skalarprodukt -;. 7!J von physikalischen Vektoren -; und 7!J gebildet. Anders
als beim Skalarprodukt der linearen Algebra ist aber -; . 7!J im allgemeinen
keine reelle Zahl, sondern ein physikalischer Skalar. Auch brauchen -; und 7!J
nieht demselben physikalischen Vektorraum anzugehoren, zum Beispiel hat
man auch Anlass , Ortsvektoren -; E Ao mit elektrischen Vektoren E E Eo
46 Kapitel 2: Vektorraume

skalar zu multiplizieren: -;. E


E JR[ volt]. 1nwiefern sind dann die Aussa-
gen iiber das mathematische Skalarprodukt iiberhaupt in der Physik noch
---+--+ --+---+
anwendbar? Schwerlich wird man zum Beispiel 4 T . E = IT + EI2 -I T - EI2
----j.---+

schreiben konnen, denn die Summe aus einem Orts- und einem elektrischen
Vektor hat keinen Sinn!
Vielleicht beginnen Sie sich bei der Aufziihlung dieser Unterschiede zu fra-
gen, ob Sie als Physiker hier noch im richtigen Horsaal sitzen. SolI die lineare
Algebra, soweit sie fiir Physiker relevant ist, nicht gerade die Grundlage fiir
das Rechnen mit physikalischen Vektoren liefern?
SolI sie nicht. Der eigentliche Nutzen der linearen Algebra fill den ange-
henden Physiker liegt niimlich darin, dass die lineare Algebra ein unentbehr-
liches Werkzeug jener hi:iheren Mathematik ist, ohne welche die Physik nicht
auskommt. Schon die Differential- und 1ntegralrechnung in mehreren Varia-
bIen und die Theorie der Differentialgleichungen haben einen betriichtlichen
Bedarf an der von "mathematischen" Vektorriiumen handelnden linearer Al-
gebra, von den mathematischen Methoden der Quantenmechanik oder gar
der modernen theoretischen Physik ganz zu schweigen. Deshalb lernen Sie
line are Algebra und nicht urn das Kriifteparallelogramm besser zu verstehen.

Das bedeutet aber nicht, dass die mathematisch betriebene lineare Algebra
auf das Rechnen mit physikalischen Vektoren nicht anwendbar sei - selbst
dort, wo es sich urn das Skalarprodukt handelt. Dazu nun zum Schluss noch
ein paar Worte.
Unter den physikalischen Vektorriiumen am Punkte 0 ist ein ganz be-
sonders merkwurdiger, niimlich der (im physikalischen Sinne) dimensionslose
Vektorraum, ich erfinde fiir ihn einmal die Bezeichnung

Uo := Ao[ c;"] = [or ~:::t] = ... usw.

Fiir die Vektoren in diesem Vektorraum ist der physikalische Betrag wirklich
reellwertig. 1st zum Beispiel -; E Ao ein Ortsvektor mit einem Betrag
von 5cm E JR[ em], so hat der dimensionslose Vektor u
:= c~ • -; den
Betrag lui = 10 E JR. Mit der Wahl einer Liingeneinheit hat das nichts zu
tun. Durch diesen zwar physikalisch bestimmten, aber reellwertigen Betrag
Uo ----+ JR ist aber ein ganz richtiges mathematisches Skalarprodukt festgelegt,
d.h. definiert man
---+ ---+ 1 --+ ---+2 --+ ---+2
u·v:=-(Iu+vl-Iu-vl),
4
2.6 WAS SIND VEKTOREN? 47

so ist die dadurch gegebene Abbildung


Uo x Uo -------+ lR

tatsachlich bilinear, symmetrisch und positiv definit, macht also Uo zu einem


euklidischen Vektorraum im genauen Wortsinne der mathematischen Defini-
tion! Letztlich liegt das daran, dass fUr die Geometrie des Anschauungsrau-
mes die Axiome Euklids gelten. - Auf den physikalischen Vektorraum Uo ist
daher die mathematische Theorie der euklidischen Vektorraume ohne Wenn
und Aber und ohne Wahl von MaBeinheiten oder gar Koordinaten direkt
anwendbar. Wegen des Zusammenhangs der physikalischen Vektorraume
untereinander hat man damit aber auch Zugang zu allen anderen Skalar~
produkten zwischen physikalischen Vektoren. Es ist namlich Ao = Uo [ cm 1,
[0 = Uo[ ~%t 1 usw., und durch das Skalarprodukt auf Uo ist fUr Skalarberei-
che lR[ a lund lR[ b lauch eine ebenfalls Skalarprodukt genannte Verknupfung

Uo[ a 1 x Uo[ b1-------+ lR[ ab],


zum Beispiel
Ao x [0 -------+ lR[ volt 1
(1, E) r - - - - t -; . E,
unabhangig von der Wahl von MaBeinheiten gegeben. Der euklidische Vek-
torraum Uo wird so zur Brucke zwischen der lincaren Algebra, in der Skalar-
produkte immer von zwei Vektoren jeweils desselben Vektorraums gebildet
werden und reellwertig sind, und der Vektorrechnung der Physik, in der auch
Vektoren verschiedener Art miteinander skalar multipliziert werden und das
Produkt in einem physikalischen Skalarbereich liegt.

Fur das praktische Rechnen mit physikalischen Vektoren ist es oft nutzlich,
Koordinaten einzufuhren. - Auch in der mathematischen linearen Algebra
verwendet man 6fters Koordinaten in einem z.B. reellen Vektorraum V. Man
wahlt dazu eine so genannte Basis (vergl. § 3) aus Vektoren V1, .. " Vn von
V und kann dann jeden Vcktor v E V mittcls reeller Zahlen A1,"" An
als v = A1V1 + ... + AnVn ausdrucken. Die A1,"" An heiBen dann die
Koordinaten von v, und die Geraden 9i := {Avi I A E lR}, i = 1, ... , n, die
Koordinatenachsen des Raumes. In der physikalischen Vektorrechnung ist
das ein klein bisschen anders, und wieder ist der dimensionslose physikalische
Vektorraum Uo der Vermittler. Fur die physikalische Koordinatenrechnung
48 Kapitel 2: Vektorraume

nimmt man niimlich eine Basis von Uo, und zwar sind das gewi:ihnlich drei
aufeinander senkrecht stehende Einheitsvektoren fj, Z E Uo, also x,
Ixl = Ifjl = Izl = 1 und
x· fj = fj. z = z· x = O.
Woher? Nun, man wiihlt zum Beispiel im Ortsvektorraum drei aufeinander
senkrecht stehende (und von Null verschiedene) Vektoren R x , R y , Rz E Ao
und setzt

und

x E Uo
->
Wegen Rx E Ao und IRx I E lR[ cm] ist dann etc. Ein in Richtung
von Rx weisender elektrischer Vektor Ex E Eo leistete uns aber denselben
-> ->
Dienst, x ist auch Ex/IExl.
1st dann v
E Uo [ a] irgend ein physikalischer Vektor mit Betrag in einem
Skalarbereich lR[ a] , so liisst er sich in eindeutiger Weise in der Form

v = vxx + vyfj + vzz


mit Koordinaten v x , v y , V z E lR[ a] schreiben, und indem man beide Seiten
skalar mit xmultipliziert, erhiilt man

und analog naturlich v.


fj = Vy und v .z = Vz . 1st zum Beispiel E E Eo
ein elektrischer Vektor, so gilt
->
E = Exx + Eyfj + Ezz
mit
Ex = E. X E lR [ volt]
em

und analog fiir Ey und E z . Fur das Skalarprodukt zweier physikalischer


Vektoren vE Uo [ a] und :u; E Uo [ b] errechnet man wegen der Bilinearitiit
und wegen x· x = fj. fj = z· z = 1 und x· fj = fj. z = z· x = 0 sofort
v .:u; = VxWx + VyWy + VzW z E lR[ ab ],
zum Beispiel
-;.E=TXEx+TyEy+TZEz E lR[volt]

fur das Skalarprodukt eines Ortsvektors -; E Ao mit einem elektrischen


Vektor E E Eo. Dies ist die erste der nutzlichen VektoTidentitiiten auf S. 44
2.6 WAS SIND VEKTOREN? 49

im Berkeley Physics Course [6], die anderen haben mit dem Vektorprodukt
zu tun, das wir erst im nachsten Paragraphen betrachten werden. - Be-
achte wieder, dass das EinfUhren von Koordinaten nicht das Einfiihren von
MaBeinheiten voraussetzt.

Mit solchen Grundlagenfragen sind schnell ein paar Stunden verplaudert, und
ich muss Obacht geben, dass mein Buch nicht Schlagseite bekommt. Trotz-
dem sollte ich aber noch darauf eingehen, was die physikalischen Vektorraume
an zwei verschiedenen Punkten 0 und 0' miteinander zu tun haben.
1st Eo derselbe Vektorraum wie EOI? - Nein. Man betrachte es nun
yom mathematischen oder yom physikalischen Standpunkt: ein Vektor am
Punkte 0 ist nicht dasselbe wie ein Vektor am Punkte 0'. Wir konnen aber
durch Translation des Anschauungsraums jeden Ortsvektor und daher auch
jeden anderen physikalischen Vektor im Punkte 0 in einen entsprechenden
Vektor am Punkte 0' verschieben.

Eo

--+
Man sagt dazu auch: E und E' reprasentieren denselben freien Vektor.
Je nach Temperament kann man hierdurch den Begriff des "freien" Vektors
schon fill deflniert ansehen oder aber eine formale Konstruktion zu Hilfe neh-
men und zum Beispiel unter einem freien physikalischen Vektor die Gesamt-
heit der aus einem ("gebundenen") physikalischen Vektor durch Translation
hervorgehenden Vektoren verstehen. Die freien elektrischen Vektoren etwa
bilden dann einen Vektorraum Efrei , und analog haben wir A frei , Ufrei usw.
Einem freien physikalischen Vektor fehlt nur die Angabe eines Ortes, urn zu
einem richtigen physikalischen Vektor zu werden.
50 Kapitel 2: Vektorraume

Wozu braucht man die freien Vektoren? Nun, zum Beispiel ist in der
Physik oftmals nicht ein einzelner Vektor, sondern ein ganzes Vektorfeld von
Interesse. Ein elektrisches Feld auf einem Bereich B C A des Raumes etwa
ordnet jedem Raumpunkt 0 E B einen elektrischen Vektor aus Eo zu.

Ein solches Feld kann man dann dUTCh eine Abbildung

E :B --+ Efrei

beschreiben. Statt mit den vielen Vektorraumen Eo, 0 E B hat man dann
nUT mit einem zu tun, das ist formal bequemer. Dass man mit dem freien
--+
Vektor E(O) E Efrei zufrieden sein kann, liegt aber nicht daran, dass es auf
einmal unwichtig geworden ware, wo der Feldvektor sitzt, sondern daran,
dass man es ja weii3: bei O.
Auch die dimensionslosen Einheitsvektoren x, z
y, kann man dUTCh
Translation iiberall hinbringen und dann als freie Vektoren auffassen, ein
elektrisches Vektorfeld E: B --+ Efrei schreibt man dann wieder als

--+
E = Exx + EyY + Ezz,

wobei aber die Koordinaten jetzt ortsabhangig sind:

Ex : B --+ R[ volt
em '
1

und ebenso fiir y und z.


2.7 KOMPLEXE ZAHLEN VOR 400 JAHREN 51

2.7 KOMPLEXE ZAHLEN VOR 400 JAHREN

HISTORISCHE N OTIZ

Zum erst en Mal ernst haft konfrontiert wurden die Mathematiker mit den
komplexen Zahlen im 16. Jahrhundert, und zwar beim Losen von Gleichun-
gen. Die einfachsten Gleichungen, bei denen man auf "Wurzeln negativer
Zahlen" stoi3t, sind die quadratischen Gleichungen. Trotzdem waren es nicht
die quadratischen, sondern die kubischen Gleichungen, welche die Beschiifti-
gung mit den komplexen Zahlen erzwungen haben, und das hat seinen gut en
Grund. Betrachten wir als Beispiel die quadratische Gleichung x 2 + 3 = 2x.
Die Losungsformel fUr diesen Typ von
Gleichungen, die im 16. Jahrhundert Y
liingst bekannt war, ergibt in diesem
Falle x = 1 ± p , und das ist ein
"sinnloser" Ausdruck, denn aus -2
kann man die Wurzel nicht ziehen.
Diese Sinnlosigkeit der Losungsformel
hat die damaligen Mathematiker aber
keineswegs beunruhigt, denn ihr ent-
spricht ja der Umstand, dass die Glei-
chung tatsiichlich keine Losung hat.
x
Der Gedanke: man konnte sich ja den
Zahlbereich kunstlich erweitem, damit
auch die bisher unlosbaren Gleichun-
gen eine Losung bekommen und man so zu einer einheitlichen Theorie der
quadratischen Gleichungen kommt - dieser Gedanke ist durch und durch
modern und er war historisch nicht der Anlass zur Entdeckung der komplexen
Zahlen.
Ganz anders sieht die Sache aus, wenn man etwa die kubische Gleichung
x 3 = 15x+ 4 betrachtet. Auch fur solche Gleichungen hatte man im 16.
Jahrhundert eine Losungsformel gefunden, und in diesem Falle lautet sie

;r = y/2 + V-121 + y/2 - V-121,


also wiederum ein "sinnloser Ausdruck", aber diesmal entspricht ihm die re--
elle Losung x = 4: Eine Wurzel aus -121 gibt es zwar nicht, aber wenn
man einmal so tut, als giibe es sie doch, und wenn man beim Rechnen mit
dieser "imaginiiren Zahl" gewisse naheliegende Rechenregeln beachtet, dann
kann man tatsiichlich {12 + V-121 + {12 - V-121 = 4 ausrechnen! Auf
52 Kapitel 2: Vektordiume

diese Weise hat del' italienische Ingenieur Rafael Bombelli urn 1560 schon
systematisch mit komplexen Zahlen gerechnet. ~ Man muss allerdings dazu
sagen, dass die Mathematiker diesel' "imaginiiren Zahlen" zuniichst gar nicht
so recht froh werden konnten. Einerseits konnte man sie nicht als bloJ3en
Unfug abtun, da man mit ihrer Hilfe ja ganz "richtige" (reelle) Losungen
von Gleichungen bekommen konnte, andererseits "existie1'ten" sie nicht, und
nicht alle Mathematiker haben die Benutzung diesel' "Rechenausdrucke" ak-
zeptiert. Lange Zeit haftete den komplexen Zahlen etwas mysterioses an;
von Leibniz stammt del' Ausspruch, die komplexen Zahlen seien eine Art
Amphibium zwischen Sein und Nichtsein. Restlos entmystifiziert wurden sie
erst 1837 durch den irischen Mathematiker und Physiker Hamilton, del' die
komplexen Zahlen zum erst en Male so einfUhrt, wie wir es heute auch noch
tun: durch Angabe gewisser Rechenregeln fur Paare reelle1' Zahlen.
(Meine Quelle fur diese "Historische Notiz": Helmuth Gericke, Geschichte
des Zahlbegriffs, BI Hochschultaschenbuch 172/172a * , Mannheim 1970).

2.8 LITERATURHINWEIS

Mit dem folgenden Literaturhinweis, den ich aus der Urfassung des Skriptums
ubernehme, wollte ich meine damaligen Horer anregen, einen ersten Versuch
mit englischsprachiger Fachliteratur zu wagen:
Es ist fur den Anfiinger nicht leicht, Bucher zu benutzen, weil jedes Buch
seine eigene Bezeichnungsweise hat und auch in den Definitionen gelegentlich
leichte, abel' irritierende Unterschiede vorkommen. Man bemuht sich schon
urn eine einheitliche Terminologie, abel' gerade in einem Gebiet wie der Li-
nearen Algebra, das in fast allen Bel'eichcn der Mathematik benotigt wird,
sind solche Bezeichnungsunterschiede nicht zu vermeiden. Wenn man ~ nur
als Beispiel ~ daran denkt, dass Lineare Algebra in so verschiedenen Gebie-
ten wie Numerische Losung von Gleichungssystemen, Homologische Algebra,
Differentialtopologie benutzt wil'd, so muss man noch dankbal' sein fUr das
MaJ3 an Einheitlichkeit, das immerhin da ist!
Sich neben del' Vorlesung in ein Buch "einzulesen" erfordert also etwas
Geduld, Papier und Kugelschreiber und ubrigens auch Vertrauen in die Qua-
litiit eines Buches. Dieses Vertrauen durfen Sie gewiss haben bei P.R. Halmos,
2.9 UBUNGEN 53

Finite-Dimensional Vector Spaces (Nr. [5] unseres Literaturverzeichnisses).


Halmos ist beriihmt fiir seine vorziigliche Darstellungsweise: Verst iindlich ,
nicht trocken und trotzdem knapp. Machen Sie doch einen Versuch! Unser
§ 2 entspricht bei Halmos den §§ 1-4 und § 10, das sind insgesamt sieben Sei-
ten. Versuchen Sie einmal diese sieben Seiten zu lesen, urn mit dem Buch
vertraut zu werden. Unsere Bezeichnungen stimmen mit den Halmos'schen
sehr gut iiberein. Kleinere Unterschiede: Halmos bezeichnet Karper mit F,
weil der englische Ausdruck fiir Karper (im mathematischen Sinne) "field"
ist. Statt iQl,~, IC, Z, schreibt Halmos Q, R, C, Z. Vektorraum heiBt auf
Englisch "vector space", und Vektorunterraum heiBt bei Halmos "subspace"
oder "linear manifold". Die meisten Fachausdriicke iibersetzen sich sowieso
von seIber: scalar - Skalar, product - Produkt, prime number - Primzahl etc.
Also keine Angst!

2.9 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 2.1: Die in del' Definition des Vektorraums als Axiome festgehal-
tenen Rechenregeln sind natiirlich nicht alle Rechenregeln, die man sich den-
ken kann; im Gegenteil: Bei der Aufstellung eines Axiomensystems ist man
bestrebt, maglichst wenige und maglichst einfache Axiome so auszuwiihlen,
dass man alle anderen Regeln, die man sich fUr den Begriff "wiinscht", aus
den Axiomen folgern kann. So kommt z.B. die Gleichung x + (y - x) = y
nicht als Axiom vor, liisst sich aber aus den Axiomen leicht beweisen:
x + (y - x) = x + (-x + y) (nach Axiom 2)
=(x-x)+y (Axiom 1)
=O+y (Axiom 4)
=y+O (Axiom 2)
=y (Axiom 3).
Das solI aber nicht heiBen, dass Sie zu jeder Seite linearer Algebra noch zehn
Seiten "Zuriickfiihrung auf die Axiome" schreiben miissten. Nach ein wenig
-obung kann angenommen werden, dass Sie die Reduktion Ihrer Rechnungen
54 Kapitel 2: Vektorraume

auf die Axiome jederzeit vornehmen kannten, und sie braucht nicht extra
erwiihnt und beschrieben zu werden. Diese Ubung sollen sie gerade durch
die vorliegende Aufgabe erwerben.
Man beweise: 1st Vein Vektorraum uber IK = lR oder IK = CC, so gilt fur
alle x E V und alle A E IK:

(a) O+x=x
(b) -0=0
(c) AO = 0
(d) Ox = 0
(e) Ax = 0 ¢=} A = 0 oder x = 0
(f) -x = (-l)x
(a) - (f) gelten ubrigens auch fur Vektorriiume uber einem beliebigen Karper.
Die Einschriinkung IK = lR oder CC dient nur zur Verminderung der Schreib-
arbeit bei der Lasung der Aufgabe.

AUFGABE 2.2: Fur a E IK definieren wir

Man beweise: Un: ist genau dann ein Untervektorraum von IK 3 , wenn
a = 0 ist.

I
I
I
I
I
I

/~
AUFGABE 2.3: Sei Vein Vektorraum uber IK und U 1 , U 2 Untervektorriiume
von V. Man zeige: 1st U1 U U2 = V, dann ist U1 = V oder U2 = V. (Dies
ist eine besonders hubsche Aufgabe. Man kann den Beweis in drei Zeilen
unterbring en!)
2.9 U13UNGEN 55

DIE *-AUFGABE:

AUFGABE 2*: Gelten fUr (lK, +, . ) alle Korperaxiome (vergl. Definition auf
Seite 35) mit moglicher Ausnahme des Axioms (8), so nennt man (lK, +, . )
einen "kommutativen Ring mit Einselement". Kann darliber hinaus A/L = 0
nur eintreten wenn A = 0 oder /L = 0 gilt, so ist lK ein "nullteilerfreier kom-
mutativer Ring mit Einselement" oder kurz ein "Integritiitsbereich". Man
beweise: Jeder endliche Integritiitsbereich ist ein Korper.

UBUNGEN FlJR PHYSIKER:

AUFGABE 2.1P: In einem dreidimensionalen euklidischen Vektorraum sei


(el,e2,e3) cineorthonormaleBasis. Esseien x,y Vektorenmit x = 3el+4e2,
II y II = 5 und (y, e3) "" O. Man berechne aus diesen Daten den Cosinus des
Offnungswinkels zwischen x + y und x - y. Warum kann die Aufgabe im
Fall (y, e3) = 0 sinnlos werden?

AUFGABE 2.2P: Sei (el, e2) eine orthonormale Basis in einem zweidimen-
sionalen euklidischen Vektorraum V, d.h. I el II = II e2 II = 1, (el' e2) = 0
und alle Vektoren von V sind von del' Form AIel + A2e2' Sei x = el + e2.
Man beweise: Va := {v E V I (v,x) = a}, a E ]H., ist genau dann ein
Untervektorraum von V, wenn a = 0 ist. Man fertige eine Skizze an, auf
del' el, e2 und VI zu sehen sind.

AUFGABE 2.3P: = Aufgabe 2.3 (fUr Mathematiker).


3. Dimensionen

3.1 LINEARE UNABHANGIGKEIT

Sei Vein Vektorraum uber llC, seien VI, . .. 'V 1' E V, also "Vektoren", und
AI, ... ,A1' E llC, also "Skalare". Dann nennt man Al VI + ... + A1'V1' E V eine
Linearkombination der Vektoren V1, ... , V1' .

Definition: Seien VI, ... 'V 1' E V. Die Menge


L(Vl, ... , v 1' ) := {AIVI + ... + A1'V1' I Ai E llC} cV
aller Linearkombinationen von VI, ... 'V 1' heiJ3t die lineare Hiille des r-
tupels (VI, ... , V 1' ) von Vektoren. Fur das "O-tupel", das aus keinem
Vektor besteht und mit 0 bezeichnet wurde, setzen wir L(0) := {O}.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_3,


© Springer-Verlag Berlin Heidelberg 2008
3.1 LINEARE UNABHANGIGKEIT 57

Die Konvention besagt also, dass man den Nullvektor auch "aus dem
Nichts" linearkombinieren kann. Wenn wir im folgenden von r-tupeln von
Vektoren sprechen, soll das O-tupel 0 als moglicher Fall auch stets zugelassen
sem.
Da die Summe zweier Linearkombinationen von V1, ... , Vr wieder eine
Linearkombination von V1, ... , Vr ist:

und da femer fur jedes A E lK das A-fache einer Linearkombination von


wieder eine solche ist:
V1, ... , Vr

und da schlieBlich L( V1, ... , v r ) nicht leer ist, so ist L( V1, ... , v r ) ein U nter-
vektorraum von V. Wir notieren das:

Notiz: L(vl, ... ,vr ) ist ein Untervektorraum von V.

Ein r-tupel (V1, ... , v r ) von Elementen eines Vektorraums V heiBt linear
abhiingig, wenn man einen dieser Vektoren aus den anderen linearkombinie-
ren kann. Diesen Vektor kann man dann ohne Schaden fUr die lineare Rulle
weglassen: die lineare Rulle der rest lichen Vektoren ist dasselbe wie die li-
neare Rulle von (V1, ... ,Vr ). Wenn (V1, ... ,Vr ) nicht linear abhangig ist,
dann nennt man es eben linear unabhiingig. Fur das praktische Umgehen
mit dem Begriff der linearen Unabhangigkeit ist jedoch eine etwas andere,
mehr "technische" Formulierung der Definition zweckmaBig. Wir werden uns
aber gleich anschlieBend davon uberzeugen, dass die beiden Formulierungen
auf dasselbe hinauslaufen.

Definition: Sei Vein Vektorraum uber lK. Ein r-tupel (V1, ... , vr ·)
von Vektoren in V heiBt linear unabhiingig, wenn eine Linearkombina-
tion von (V1, ... , vr ) nur dann Null sein kann, wenn alle "Koeffizien-
ten" verschwinden, d.h. wenn aus A1 V1 + ... + ArVr = 0 stets folgt, dass
A1 = ... = Ar = 0 ist. Das O-tupel 0 ist linear unabhangig.

Bemerkung 1: (V1, ... , v r ) ist genau dann linear unabhangig, wenn


keiner dieser Vektoren Linearkombination der ubrigen ist.
58 Kapitel 3: Dimensionen

BEWEIS: Wir haben zweierlei zu beweisen:


(a): (VI, ... , V r ) linear unabhangig ==? kein Vi ist Linearkombination
der anderen.
(b): kein Vi ist Linearkombination der anderen ==? (VI, ... , V r ) linear
unabhangig.
Zu (a): Sei also (VI, ... , v r ) linear unabhangig. Angenommen, es gabe
ein i mit Vi = Al1)1 + ... + Ai-l Vi-l + Ai+l Vi+l + ... + Arvr . (Das ist
eine allgemein akzeptierte Weise, das Weglassen des i-ten Terms in der
Summe anzudeuten, obwohl man z.B. fill i = 1 nicht gut so schreiben
konnte.) Dann ware aber die Linearkombination
AIVI + ... + Ai-lVi-l + (-l)vi + Ai+l Vi+l + ... + Arvr
gleich Null, obwohl nicht aIle Koeffizienten Null sind, da ja -1 i- O.
Widerspruch zur linearen Unabhangigkeit von (VI' ... ' Vr). Damit ist
(a) bewiesen. Zu (b): Sei also keines der Vi Linearkombination der
iibrigen Vektoren in (VI' ... ' Vr). Angenommen, (VI, ... , V r ) ware li-
near abhiingig. Dann gibt es AI, ... ,Ar E lK mit Ai i- 0 fiir wenigstens
ein i und AIVI + ... + Arvr = o. Daraus folgt aber
Al
vi = - Ai VI - ... - TAi-l Vi - 1 - TAi+l V i+ 1 - ... -
Ar
Ai Vr ,

also ist Vi Linearkombination der iibrigen Vektoren, Widerspruch. Da-


mit ist auch (b) bewiesen. D

Definition: Sei Vein Vektorraum iiber lK. Ein n-tupel (VI, ... , V n )
von Vektoren in V heiBt Basis von V, wcnn es linear unabhangig ist
und L(Vl, ... , v n ) = V erfiillt.

1st (VI, ... , V n ) eine Basis, so kann man jedes Element v E V als eine Li-
nearkombination V = Al VI + ... + An Vn schreiben, man kann so den ganzen
Vektorraum mittels der Vektoren VI, . .. ,Vn "erzeugen" oder "aufspannen"
(so nennt man das). Das folgt aber schon alleine aus L(Vl, ... ,Vn ) = V,
warum wird auBerdem noch gefordert, (VI, ... , V n ) solIe linear unabhangig
sein? Nun, diese Bedingung bewirkt gerade, dass sich jedes 1) E V auf genau
eine Weise als Al VI + ... + An Vn schreiben lasst:

Bemerkung 2: 1st (VI, ... , V n ) eine Basis von V, dann gibt es zu


jedem V E V genau ein (AI, . .. , An) E lKn, fiir das V = Al VI + .. ·+Anvn
gilt.
3.1 LINEARE UNABHANGIGKEIT 59

BEWEIS: Da L(VI, ... , v n ) = V, gibt es jedenfalls zu jedem v E Vein


solches (>'1, ... , An) E IKn. Sei (~l' ... ' ~n) ein weiteres, also
v = AIVI+ ... + AnVn = ~lVI + ... + ~nVn·
Dann ist (AI - ~1)VI + ... + (An - ~n)vn = v-v = 0; wegen der linearen
Unabhangigkeit von (VI' ... ' Vn ) folgt daraus Ai - ~i = 0, also Ai = ~i
fiiri=l, ... ,n. D

In gewissem Sinne kann man sagen, dass man einen Vektorraum kennt, wenn
man eine Basis von ihm kennt. Am R n lasst sich das nicht gut erlautern,
denn den "kennen" wir ja sowieso, aber zur Beschreibung von Untervek-
torriiumen, z.B. Losungsraumen von Gleichungssystemen, ist die Angabe ei-
ner Basis oft das beste Mittel der Beschreibung, darauf werden wir in § 7
(Lineare Gleichungssysteme) zuriickkommen. In erster Linie aber brauchen
wir den Basisbegriff in diesem Skriptum, urn die Matrizenrechnung fill die
lineare Algebra nutzbar zu machen.

Einfachstes konkretes Beispiel fiir eine Basis eines Vektorraumes tiber


IK ist die so genannte kanonische Basis (el, ... , en) des IKn:
el := (1,0, ... ,0)
e2 := (0,1, ... ,0)

en := (0, ... ,0,1)

Kanonische Basis in R I, R2 und R3:

C2 = (0,1) e3 = (0,0,1)

° ° el = (1,0)
60 Kapitel 3: Dimensionen

3.2 DER DIMENSIONSBEGRIFF

Wir wollen jetzt den Begriff der Dimension eines Vektorraumes einfiihren und
iiber die Dimension von Untervektorraumen und Durchschnitten von Unter-
vektorraumen sprechen. Grundlage dazu ist ein etwas "technischer" Hilfs-
satz, der so genannte Basisergiinzungssatz. Spater, wenn Ihnen die Grund-
begriffe der Linearen Algebra vollig vertraut und geliiufig sind, geht dieser
Satz in Ihren allgemeinen Kenntnissen mit auf und Sie vergessen vielleicht,
dass dieser Sachverhalt einmal einen besonderen Namen hatte und "Basis-
erganzungssatz" hieB. 1m Augenblick ist er aber der Schliissel zu allen in
diesem Paragraphen noch zu behandelnden Begriffen und Ergebnissen (und
iibrigens auch zu den Ubungsaufgaben).

Basiserganzungssatz: Sei Vein Vektorraum iiber lK, und Vl, ... , Vr ,


Wl, ... ,Ws Vektoren in V. 1st (Vb ... , V r ) linear unabhangig und
L(Vl, ... , Vr , Wl, ... , w s ) = V, dann kann man (Vl, ... , vr ) durch even-
tuelle Hinzunahme geeigneter Vektoren aus (Wl, ... , w s ) zu einer Basis
von V erganzen.

Als Folgerung aus dem Basiserganzungssatz ergibt sich das Austauschlemma:

Austauschlemma: Sind (Vl, ... , v n ) und (Wl, ... , w m ) Basen eines


Vektorraums V iiber lK, so gibt es zu jedem Vi ein Wj, so dass aus
(Vl, ... , v n ) wieder eine Basis entsteht, wenn man Vi durch Wj ersetzt.

Den Beweis des Basiserganzungssatzes sowie den Beweis des Austauschlem-


mas als eine Folgerung ("Korollar") aus dem Basiserganzungssatz wollen wir
in den Abschnitt 3.4 verschieben - nicht weil diese Beweise schwierig waren,
sondern weil ich bei dieser Gelegenheit auf gewisse Formulierungsfragen ein-
gehen mochte, was jetzt hier den Gang der Handlung storen wiirde.

Satz 1: Sind (Vl, ... , v n ) und (Wl, ... , w m ) Basen von V, so ist
n=m.
BEWEIS: AngenorIl1llen, die Basen waren ungleich lang, also n f Tn.
Dann konnten wir durch wiederholtes Anwenden des Austauschlemmas
alle Vektoren der langeren Basis gegen solche der kiirzeren austauschen
3.2 DER DIMENSIONSBEGRIFF 61

und erhielten cine Basis, in der wenigstens cin Vektor doppelt vorkom-
men muss, was wegen der linearen Unabhiingigkeit einer jeden Basis
nieht sein kann. 0

Je zwei Basen ein und desselben Vektorraumes sind also gleieh lang, und
daher ermoglieht der Satz 1 die folgende Definition:

Definition: Besitzt der Vektorraum V uber OC eine Basis (VI, ... , V n ),


so heiBt n die Dimension von V, abgekurzt dim V .

Notiz: dimOCn = n, weil z.B. die kanonisehe Basis die Liinge n hat.

Zu entseheiden, ob ein gegebenes r-tupel (VI, ... , v r ) von Vektoren in V


linear abhiingig oder unabhiingig ist, kann gelegentlich allerhand Reehnun-
gen erfordern. Es ist deshalb sehr lohnend, sich zu merken, dass in einem
Vektorraum V mit dim V = n jedes r-tupel mit r > n linear abhiingig ist!

Satz 2: Sei (VI, ... v r ) ein r-tupel von Vektoren in V und r > dim V.
Dann ist (VI, ... , V r ) linear abhiingig.
BEWEIS: 1st (WI, .. " W n ) eine Basis von V, so ist L(wI, ... , w n ) = V,
also erst reeht L(VI, ... ,VnWI, ... ,Wn) = V. Wiire nun (VI, ... ,Vr )
linear unabhiingig, so konnten wir (VI"'" V r ) naeh dem Basisergiin-
zungssatz dureh eventuelle Hinzunahme von Vektoren aus (WI, ... , W n )
ZU einer Basis ergiinzen und erhielten so eine Basis, deren Liinge min-
destens r ist. Das ist ein Widersprueh zu r > dim V . 0

Wenn man also uber lineare Abhiingigkeit oder Unabhiingigkeit eines r-tupels
in V befinden will, dann ist es ratsam, naehzusehen, ob vielleicht r > dim V
ist. Vier Vektoren im R3 sind eben immer linear abhiingig, usw.
Der Satz 2 verhilft uns noeh zu einer anderen Einsieht: dass es niimlieh
Vektorriiume gibt, die keine (endliehe) Basis haben und fUr die deshalb aueh
keine Dimension erkliirt ist. Dazu betraehten wir das Beispiel eines reellen
Vektorraumes, das in § 2 schon vorgekommen war: Sei M der reelle Vektor-
raum der Funktionen auf [~1, 1]. Fur jede ganze Zahl n > 0 sei f n E M
62 Kapitel 3: Dimensionen

die Funktion mit dem folgenden Graphen


I

IfI
I
I
I
I
I
I
I
I
I
I
I

-1 0: _1_
n+l n
1. 1

Da Adl + ... + Akfk an der Stelle Ht + i~l) den Wert Ai annimmt, ist
fiir jedes k das k-tupel (iI, ... , fk) linear unabhangig . Wenn nun Meine
Basis (VI,"" V n ) hatte, dann miisste (naeh Satz 2) k :::; n sein, und zwar
fUr alle k > 0, was offenbar nicht maglieh ist. -
Man kann einen erweiterten Basisbegriff einfUhren, bei dem aueh un-
endliehe Basen zugelassen sind, und es liisst sich dann beweisen, dass jeder
Vektorraum eine Basis besitzt. Darauf wollen wir hier nicht weiter eingehen,
sondern uns nur die Spreehweise zu eigen machen:

Definition: Besitzt V fUr kein n, 0 :::; n < 00, eine Basis (VI, . .• , V n ),
so hei£t Vein unendlichdimensionaler Vektorraum, und man schreibt
dim V = 00.

Ais letzten Gegenstand dieses Paragraphen wollen wir nun die Dimensionen
von Untervektorriiumen endliehdimensionaler Vektorraume behandeln. Ais
Antwort auf die allernaheliegendste Frage haben wir

Bemerkung 3: 1st V endlichdimensional und U c Vein Untervek-


torraum, so ist auch U endlichdimensional.

BEWEIS: 1st (VI"'" Vr ) linear unabhangig, dann ist r :::; dim V nach
dem Satz 2. Also gibt es ein graBtes r, fiir welches man ein linear un-
abhangiges r- tupel (VI"'" v r ) in U £lnden kann. Fiir ein solches r-
tupel gilt dann aber auc:h L( VI, ... , Vr ) = U, denn fiir jedes u E U ist
(Vl,""V r ,u) linear abhangig, also gibt es eine nichttriviale Linearkom-
bination Al vI + ... + Arvr + AU = 0, und darin ist A cf 0, denn sonst
ware Al vI + ... + Arvr = 0 cine nichttriviale Linearkombination. Also ist
u = -"':Vl- ... - ~Vr E L(Vl, ... ,Vr ). Damit haben wir (Vl, .. "V r ) als
Basis von U erkannt, also ist U endlic:hdimensional. 0
3.2 DER DIMENSIONSBEGRIFF 63

Eine Basis (VI"'" V r ) von U ist natiirlich genau dann auch Basis von
V, wenn U = V ist. In jedem Fall aber ki:innen wir nach dem Basis-
erganzungssatz (VI"'" V r ) zu einer Basis von V erganzen - man wende
den Basiserganzungssatz auf (VI, ... , Vr, WI, ... W n ) an, wo (WI"'" W n ) eine
Basis von V ist. 1m Falle U i- V muss (VI, . .. V r ) dabei echt verlangert wer-
den, woraus sich ergibt

Bemerkung 4: 1st U Untcrvektorraum des endlichdimensionalen Vek-


torraums V, so ist dim U < dim V gleichbedeutend mit U i- V.

Seien nun U1 und U2 zwei Untervektorraume von V. Dann ist auch U1 n U2


ein UntervektorrauIIl, und wir wollen versuchen, eine Aussage tiber dessen
Dimension zu machen. Zunachst bemerkt man, dass dim U1 n U 2 nicht nur
von dim U1 und dim U2 abhangen kann:

dimU 1 =1, dimU2=2, dimU,=I, dimU 2 =2,


dim U , nU2 =1. dimU, nU2 =O.

Es kommt also auch auf die gegenseitige Lage der beiden Untervektorraume
zueinander an. Wie kann man das prazisieren? Dazu ftihren wir den Begriff
der Summe zweier Untervektorriiume ein:

Definition: Sind Ul, U2 Untervektorraume von V, so heiJ3t


U1 + U2 := {x +y Ix E U1 , Y E U2 } c V
die Summe von U1 und U2 •
64 Kapitel 3: Dimensionen

Die Summe U1 +U2 ist natiirlich wieder ein Untervektorraum. Urn sich etwas
an diesen neuen Begriff zu gewi:ihnen, uberlege man sich zum Beispiel, warum
die Aussagen U + U = U, U + {O} = U und U C U + U' richtig sind -
und wer noch etwas mehr Zeit hat, sollte sich auch U + U' = U -¢=? U' c U
klarmachen.

Satz 3 (Dimensionsformel fUr Untervektordiume): Sind U 1 und


U2 endlichdimensionale Untervektorraume von V, so gilt
dim(U1 n U2 ) + dim(U1 + U2 ) = dim U1 + dim U2 .

BEWEIS: Geschieht mit Hilfe des Basiserganzungssatzes. Wir wahlen zu-


erst eine Basis (V1, ... , vr ) von U1 n U2 und erganzen sie einmal zu ei-
ner Basis (V1, ... , V r , W1, ... w s ) von U1 und ein zweites Mal zu einer Basis
(V1, ... ,Vr ,Zl, ... Zt) von U2 .

Dannist (V1, ... ,Vr,Wl, ... ,WSlZ1, ... ,Zt) eine Basis von U1 +U2 • Warum?
Nun: offenbar ist £(V1, ... , Zt) = U1 + U2 , wir mussen nur zeigen, dass
( V1, ... , Zt) linear unabhangig ist. Sei also

),1 V1+ ... + ),rVr + {l1 W1 + ... + {lsWs + V1Z1 + ... + VtZt = O.
Dann ware V1Z1 + ... + VtZt E U1 n U2 , denn aus U2 ist es sowieso und dass
es in U 1 liegt, folgt aus V1Z1 + ... + VtZt = -),lV1 - ... - {lsw s . Dann ware
aber V1 Zl + ... + VtZt = a1 V1 + ... + a r Vr fur geeignete a1,"" a r , weil
(Vl, ... ,vr ) Basis von U1 nU2 ist. Darausfolgt, daB all die v'sund a's Null
sind, namlich wegen der linearen U nabhangigkeit von (V1,"" V r , Zl, ... , Zt) ,
3.3 TEST 65

also ist
A1Vl + ... + ArVr + JL1 W l + ... + JLsWs = 0,

und daher verschwinden auch die A'S und die JL's. Also ist (Vi' ... ' Zt) li-
near unabhiingig und damit eine Basis, wie wir zeigen wollten. Nun wis-
sen wir also: dimU1 n U2 = T, dimU1 = T + S, dimU2 = T + t und
dim(U1 + U2 ) = T + S + t, und daraus folgt die zu beweisende Formel
dim(U1 n U2 ) + dim(U1 + U2 ) = dim U1 + dim U2 .
o

3.3 TEST

(1) Fur welches der folgenden Objekte hat die Aussage einen Sinn, es sei
"linear abhiingig" bzw. "linear unabhiingig":
o Ein n-tupel (Vi, ... , V n ) von Elementen eines Vektorraums.
o Ein n-tupel (Vb ... ' V n ) von reellen Vektorriiumen.
o Eine Linearkombination Ai Vi + ... + An Vn .
(2) Seien Vl, ... ,Vn E V. Wasbedeutet L(Vl, ... ,Vn )=V:
o Jede Linearkombination Ai Vi + ... + AnVn ist Element von V.
o Jedes Element von V ist Linearkombination Ai Vi + ... + AnVn.
o Die Dimension von V ist n.
(3) Falls (Vi, V2, V3) ein linear unabhiingiges Tripel von Vektoren in V ist,
dann ist
o (Vi, V2) linear abhiingig.
o (Vl,V2) fur manche (Vl,V2,V3) linear abhiingig, fur andere linear
unabhiingig.
o (Vi, V2) stets linear unabhiingig.

(4) Die kanonische Basis von lKn ist definiert durch


o (el, ... ,en )=(l, ... ,l).
o ei = (0, ... ,0,1,0, ... ,0), i = 1, ... , n.
"" i-te Stelle
o ei=(l, ... ,l,O,l, ... ,l), i=l, ... ,n.
"" i-te Stelle
66 Kapitel 3: Dimensionen

(5) Welche der folgenden Aussagen bedeutet die lineare Unabhiingigkeit


des n- tupels (VI' ... ' V n ) von Elementen von V:

o Al vI + ... + AnVn = 0 nur wenn Al = ... = An = O.


o Wenn Al = ... = An = 0, dann AIVI + ... + AnVn = O.
o AIVI + ... + AnVn = 0 fUr aIle (AI, ... , An) E OC n .
(6) Beim Basisergiinzungssatz wird ein linear unabhiingiges r-tupel von
Vektoren durch Vektoren aus einem s-tupel von Vektoren zu einer Basis
ergiinzt (vorausgesetzt, dass die Vektoren aIle zusammen den Raum
erzeugen). Wie lautet der Basisergiinzungssatz fur den Fall r = O?

o 1st L(Wl, ... , w s ) = V, dann kann man (WI, ... , Ws ) zu einer Basis
von V ergiinzen.
o 1st (WI, ... , W s ) linear unabhiingig, dann gibt es eine Basis, die aus
Vektoren von (WI, ... , W s ) besteht.
o 1st L(Wl, ... , Ws ) = V, dann gibt es eine Basis, die aus Vektoren
von (WI, ... , W s ) besteht.

(7) Der nur aus der Null bestehende Vektorraum V = {O}

o hat die Basis (0) 0 hat die Basis 0 o hat gar keine Basis

(8) Wurde man U1 - U2 := {x - y I x E Ul, Y E U2 } fur Untervektorriiume


Ul, U2 C V definieren, so wurde gelten

o U - U = {O}
o (U 1 - U2 ) + U2 = U1
o U1 - U2 = U1 + U2

(g) Es gilt stets

o (Ul + U2 ) + U3 = U1 + (U2 + U3 )
o U 1 n (U2 + U3 ) = (U1 n U2 ) + (U1 n U3 )
o U1 + (U2 n U3 ) = (U1 + U2 ) n (U1 + U3 )

(10) Untervcktorriiume Ul, U2 C V heiDen transversal (zueinander), wenn


U1 + U2 = V ist, und codim U := dim V - dim U nennt man die
Co dimension von U in V. Fur transversale U1 , U2 gilt:

o dimUl + dimU2 = dimUl n U2


o dim U1 + dim U2 = codim U1 n U2
o co dim U1 + codim U2 = codim U1 n U2
3.4 BEWEIS DES BASISERGANZUNGSSATZES 67

3.4 BEWEIS DES BASISERGANZUNGSSATZES

UND DES AUSTAUSCHLEMMAS

EIN ABSCHNITT FiiR MATHEMATIKER

BEWEIS DES BASISERGANZUNGSSATZES: Der Satz behauptet: 1st Vein


Vektormum iiber lK, ist L(V1, ... ,Vr,W1, ... ,Ws) = V und ist (V1, ... ,Vr )
linear unabhiingig, dann kann man (VI, ... , Vr ) durch eventuelle Hinzunahme
geeigneter Vektoren aus (WI, ... , Ws ) zu einer Basis von V ergiinzen. Dabei
sind die FaIle r = 0 und s = 0 auch zugelassen, das leere "O-tupel" gilt als
linear unabhangig und L(0) = {O}). Wir fuhren den Beweis durch Induktion
nach s. 1m FaIle s = 0 (lnduktionsbeginn) ist nichts zu beweisen, weil dann
schon (VI, ... , Vr ) eine Basis ist. Wir haben zu zeigen: Wenn der Satz fur
s = n richtig ist (Induktionsannahme), dann ist er auch fUr s = n + 1 richtig.
Seialso (V1, ... ,Vr ,W1, ... ,Wn +1) mit L(V1, ... ,Wn +1) = V und (V1, ... ,Vr )
linear unabhangig gegeben.
Falls schon L( VI, ... , Vr ) = V ist, so ist (VI , ... , Vr ) eine Basis und die
Behauptung in diesem FaIle bewiesen. Sei also L (VI, ... , Vr ) i- V. Dann ist
mindestens eines der Wi nicht in L( vI, ... , V r ) enthalten, denn sonst ware
L(V1, ... , v r ) = L(V1, ... , Vr, Wl, ... , Wn +1) = V. Fur ein solches Wi ist dann
aber (V!, ... , Vr , Wi) linear unabhangig, denn aus A1V1 + .. ·+ArVr+AWi = 0
folgt zunachst A = 0, sonst ware Wi E L( VI, ... , V r ), und damit weiter
Al = ... = Ar = A = 0, weil (V1, ... ,Vr ) linear unabhangig. Nach In-
duktionsannahme kann man nun (VI' ... ' V r , Wi) durch Auswahl geeigneter
Vektoren aus (WI, ... , Wi-I, WH1, ... , Wn +1) ZU einer Basis erganzen, womit
dann die gewiinschte Erganzung von (VI, ... , V r ) zu einer Basis gefunden ist.
o
Wir wollen einmal anhand dieses Beweises uber einige reine Formulie-
rungsfragen sprechen. In dem Satz heiJ3t es: "... dann kann man (VI, . .. , V r )
durch eventuelle Hinzunahme geeigneter Vektoren aus (WI' ... ' Ws ) zu einer
Basis von V erganzen." Wenn die mathematische Situation etwas verwik-
kelter wird, kommt man mit solcher verbaler Beschreibung (die in einfachen
Fallen durchaus vorzuziehen ist!) nicht mehr aus. Wie wurde eine formalere
Notation aussehen? Wenn man die Vektoren a!, ... , ak zu (VI, ... , Vr ) "hin-
zufugt", so entsteht naturlich das r + k-tupel (V!, ... , Vr, a1, ... , ak). Wie
aber notiert man, dass die a1, ... , ak aus (WI, ... , Ws ) genommen sind? Man
kann ja nicht Wl, ... , Wk schreiben, denn vielleicht handelt es sich gar nicht
um die erst en k Vektorendes s-tupels (Wl, ... ,Ws ).
68 Kapitel 3: Dimensionen

Wenn man eine Auswahl von Vektoren aus (WI, ... , w s ) beschreiben
will, dann muss man "indizierle Indices" benutzen: Jedes k-tupel,
das aus Vektoren von (WI, ... , W s ) zusammengestellt ist, muss sich
ja als (Wi" ... , Wik) schreiben lassen, wobei die i", ganze Zahlen mit
1 ::; i", ::; 5 sind. Wenn man auf3erdem noch will, dass keines der Wi
mehrfach benutzt werden darf, muss man voraussetzen, dass die in
paarweise verschieden sind, also io: # i(3 fur a # f3.

Wir mussten den Basiserganzungssatz also so formulieren: "Basiserganzungs-


satz: 1st Vein Vektorraum uber JK, ist L(VI, ... , V r , WI, ... , W s ) = V und
( VI, ... , V r ) linear unabhangig, dann ist entweder (VI, ... , V r ) eine Basis oder
es gibt paarweise verschiedene ganze Zahlen i l , ... , ik mit 1 ::; in ::; 5,
a = 1, ... , k, so dass (VI, ... , Vn Wi" ... , Wi k ) eine Basis ist."

Die zweite Stelle, die wir formal "ausfuhren" wollen, betrifft die Behauptung,
aus WI, ... ,Wn+1 E L(Vl, ... ,Vr ) folge

Eigentlich ist das ja klar, denn jedes Al vI + ... + ArVr E L( VI ... , V r ) kann
man als Linearkombination Al VI + ... + ArVr + OWl + ... + OWn+l von
(VI' ... ' Wn+l) schreiben, und wenn umgekehrt

V = AIVI + ... + ArVr + !1lWl + ... + !1n+IWn+1 E L(vI, ... ,Wn+l)

gegeben ist, so brauchen wir uns nUT die Wi als Linearkombinationen der
Vi vorzustellen und sehen, dass auch V eine Linearkombination der Vi ist.
Wenn wir das aber wirklich hinschreiben wollen, mussen wir diesmal "Dop-
pelindices" verwenden, denn:

Wenn jedes Wi als Linearkombination der (VI, ... , V r ) geschrieben wer-


den soIl, mussen die Koeffizienten so bezeichnet werden, dass man
sowohl sieht, auf welches Wi sie sich beziehen als auch auf welches
Vj. Man kann etwa die Koeffizienten Xj nennen, i = 1, ... , n + 1,
j = 1, ... ,r, wobei i ein "oberer Index" ist, der also nicht die i-te Po-
tenz bedeutet. Man kann aber auch einfach beide Indices unten neb en-
einander schreiben: Aij. Mit dieser Notation konnen wir dann formulie-
ren: "Falls WI, ... , Wn+l E L(Vl, ... , v r ), so ist Wi = AilVl + .. ·+AirVr,
i = 1, ... ,n + 1, fur geeignete Aij E JK".
3.4 BEWEIS DES BASISERGANZUNGSSATZES 69

Fur eine Linearkombination von (VI, ... , V r , WI, ... , W n +l) gilt daher

V = Al vI + .. +A r V r +f-i1 WI + .. +f-in+l W n +l
= Al VI + .. +Ar V r+f-i1 (A11 VI + .. +AlrV r)+ .. +f-in+l (A n +l,1 VI + .. +An+l,rVr)
und indem wir die Terme mit demselben Vi jeweils zusammenfassen, erhalten
wir

also ist L( VI, ... , V,., WI, ... , W n +l) = L( VI, ... , v r )." - Beachten Sie, dass
wir nicht hatten schreiben konnen Wi = Ai, VI + ... + Air V r . - Der Schluss
des Beweises musste dann so lauten: "Nach Induktionsannahme gibt es also
ein k und paarweise verschiedene ganze Zahlen in, 0: = 1, ... , k ~ 1 mit
1 :::; in :::; n + 1, in =I i, so dass (VI, ... , V r , Wi, Wi, , ... , Wik _,) eine Basis von
V ist, womit wir die gewunschte Ergiinzung von (VI, ... , V r ) ZU einer Basis
von V gefunden haben. D"

BEWEIS DES AUSTAUSCHLEMMAS: Seien (VI, ... , V n ) und (WI, ... , W m )


zwei Basen von V und i E {I, ... , n} fest gewiihlt. Dann muss es ein j
geben, so dass Wj 'I L(VI" .. ,Vi-l,VHl, ... ,Vn ). Sonst ware namlich
L(Vl, ... , Vi-I, VHl,···, V n ) ~ L(WI"'" W m ) = V, das kann aber nicht
sein, da wegen der linearen U nabhangigkeit von (VI, ... , V n ) jedenfalls
das Element Vi nicht Linearkombination von (VI, ... , Vi-I, VHl, ... , V n )
sein kann. Fur ein solches jist dann (VI"'" Vi-I, Wj, VHI, ... , V n )
linear unabhangig, denn aus
Al VI + ... + Ai-l vi-I + f-iWj + AHI VHl + ... + Anvn = 0
folgt zunachst f-i = 0 und daraus weiter Al = ... = An = O. Wenn
wir nun Vi doch wieder hinzufugen, erhalten wir naturlich, weil die
(VI, ... , V n ) dann wieder komplett beisammen sind, ein Erzeugenden-
system von V:

L(Vl"'" Vi-I, Wj, Vi+l,···, V n , Vi) = V.


Also muss (VI,"" Vi-I, Wj, VHl,"" V n ) nach dem Basiserganzungssatz
entweder schon selbst eine Basis sein oder durch Hinzufugung von Vi
zu einer Basis werden. Das letztere kann aber nicht eintreten, denn Wj
konnte aus (VI, ... , V n ) linear kombiniert werden, also ware

linear abhangig. Also ist (VI, ... , Vi-I, Wj, VHl, ... , V n ) eine Basis. D
70 Kapitel 3: Dimensionen

3.5 DAS VEKTORPRODUKT

ErN ABSCHNITT FUR PHYSrKER

In Mathematik und Physik werden mancherlei "Produkte" genannte Ver-


knupfungen von zwei oder mehreren Vektoren betrachtet. Yom Skalarpm-
dukt haben wir schon gehort, es gibt aber auch ein K re'uz- oder VektOTpmdukt,
ein Spatpmdukt, ein Tensor- oder dyadisches Pmdukt, ein iiufJeres oder alter-
nierendes Pmdukt, ein Liesches Klammerprodukt und andere. Die niiheren
Umstiinde konnen jeweils recht unterschiedlich sein. Welche Zusatzstruk-
turen und -voraussetzungen man etwa braucht, ob ein Produkt wieder ein
Vektor oder ein Skalar ist, ob es im selben Vektorraum wie die Faktoren lie-
gen muss oder nicht, ob die Faktoren uberhaupt aus demselben Vektorraum
sein mussen, ob das Produkt bei Vertauschung der Faktoren gleich bleibt,
das Vorzeichen wechselt oder sich noch drastischer iindern kann, ob man bei
mehreren Faktoren Klammern nach Belieben set zen darf, wie es beim Pro-
dukt von Zahlen erlaubt ist ~ das alles ist von Fall zu Fall verschieden. Auf
eines kann man sich aber ziemlich verlassen, weil darin das eigentlich "Pro-
duktliche" besteht: Produkte sind multilinear, d.h. ersetze ich eincn Faktor
v durch eine Summe 111 + V2, ohne die anderen Faktoren zu iindern, dann
erhalte ich als Produkt die Summe aus dem mit 111 und den ubrigen Faktoren
und dem mit 112 und den ubrigen Faktoren gebildeten Produkt, und ersetze
ich v durch >'v, .>. E lR, wiederum ohne die anderen Faktoren zu iindern,
so erhalte ich auch das .>..-fache des vorigen Produkts. Schreibt man daher
die Faktoren als Linearkombinationen von Basisvektoren, so kann man ihr
Produkt schon ausrechnen, sobald man nur die Produkte der Basisvektoren
kennt.
In diesem Abschnitt wollen wir das Vektorprodukt fUr physikalische Vek-
toren (vergl. 2.6) betrachten, und wir gehen dabei wieder vom "dimensions-
losen" physikalischen Vektorraum U aus, nach Belieben als Uo oder Ufrei
aufgefasst. Sind 11 und -; zwei Vektoren aus U, so ist ihr Vektorprodukt
u x v ebenfalls in U, das Vektorprodukt ist eine bilineare Abbildung
U xU -----+ U

Urn es beschreiben und berechnen zu konnen, muss man wissen, welche Or-
thonormalbasen X, y, z von U "rechts-" und welche "linkshiindig" sind:
weisen x, y, z in dieser Reihenfolge in die Richtung von Daumen, Zeigefin-
gcr und Mittelfinger der rechten Hand, so ist (x, y, z) rechtshiindig. Oder:
3.5 DAS VEKTORPRODUKT 71

weist der rechte Daumen in die Richtung von i, und weisen die Finger der
leicht gekriimmten Hand dann jenen Drehsinn, der x durch eine Vierteldre-
hung urn die i-Achse in fj iiberfiihrt, so ist (x, fj, i) rechtshandig.

i i
links han dig rechtshandig

Weitere gleichwertige Formulierungen, etwa unter Berufung auf eine Schraube,


ein Autolenkrad, einen Wasserhahn, Himmels- und Zenit-Richtungen konnen
Sie leicht selbst beisteuern. Die Definition ist nicht missverstandlich oder
unwissenschaftlich, aber insofern unmathematisch, als sie sich wesentlich
auf den realen physikalischen Raum bezieht, denn in den Zahlentripelraum
R3 oder sonst einen abstrakten dreidimensionalen euklidischen Vektorraum
(V, (. , . » kann ich meine rechte Hand nicht hineinstrecken. In der Tat
muss man, urn das Vektorprodukt V x V ---> V doch definieren zu konnen,
das Naturphanomen der Rechtshandigkeit durch eine "Orientierung" ge-
nannte Zusatzstruktur in V mathematisch imitieren. Darauf will ich zwar
jetzt nicht eingehen, wer aber den Orientierungsbegriff schon kennt, kann
den folgenden Satz gleich fiir einen beliebigen orientierten 3-dimensionalen
euklidischen Vektorraum U lesen.

Satz (und Definition des Vektorprodukts): Es gibt genau eine


bilineare Verkniipfung U xU ---> U, geschrieben als (17, -;) f-+ 17 x -;,
mit den folgenden beiden Eigenschaften:
(1) die Verkniipfung ist schiefsymmetrisch, d.h. es gilt stets
-; x 17 = -17 x -; und
(2) sind 17 und -; senkrecht aufeinander stehende Einheitsvektoren,
so wird das Paar (17, v)
durch u v
x zu einer rechtshandigen
Orthonormalbasis (u, v, u
x -;) erganzt.
Diese Verkniipfung heif3t das Vekto7']Jrodukt.

Der Beweis ist nicht nur eine mathematische Pfiichtiibung, sondern wir wer-
den dabei das Vektorprodukt auch rechnerisch und geometrisch naher ken-
72 Kapitel 3: DiInensionen

nenlernen. Wir beginnen mit der Bemerkung, dass wegen der Schiefsymme-
trie j edenfalls stets

(3) ; x; = 0

sein muss, und dass fur eine rechtshandige Orthonormalbasis (x, fj, z) wegen
(2) die Formeln

xxfj -fj x X z,
(4) fjxz -z x fj x,
zxx -xx z fj

fur jede Verknupfung gelten mussen, welche (1) und (2) erfullt. Damit kennen
wir aber das Produkt fUr die Basisvektoren und wegen der Bilinearitat sogar
fur aIle Vektoren! Es ist namlich jetzt klar, dass nur die durch die Definition

(5) ; x v = (uxx + uyfj + uzz) x (vxx + vyfj + vzz)


:= (uyvz - uzvy)x + (uzv x - uxvz)fi + (uxvy - uyvx)z

gegebene Verknupfung infrage kommen kann. Dieses durch (5) definierte


Produkt ist offensichtlich bilinear und erfullt (1) - ob auch (2), bleibt nach-
zuweisen.
Leser ubrigens, die schon dreireihige Determinanten ausrechnen ki:innen,
sei es, dass sie in den § 6 vorgeblattert haben, sei es, dass sie gar keine
Anfanger sind und sich hier nur ihr Vektorprodukt ein wenig anfrischen wol-
len, solche Leser also werden sehen, dass man (5) formal auch als

(5' ) -+ -+
u x v = det
(ui x
uy
Vy uV zz )

Y Z

schreiben kann, woraus fur Determinantenkenner auch die Formel

(5//) (; x v) . 115 = det (~: ~~


Wx Wy

folgt, sehr nutzlich und voller geometrischer Bedeutung, da ja diese Deter-


minante das Spatprodukt der drei Faktoren ;, v
und 115 ist und bis auf ein
von der "Handigkeit" der drei Vektoren bestimmtes Vorzeichen das Volumen
der von ;, v
und 115 aufgespannten Parallelotops (3-dimensionale Verallge-
meinerung eines Parallelogramms; "schiefer Quader") bedeutet. - Aber wir
3.5 DAS VEKTORPRODUKT 73

wollen nicht so tun, als seien wir schon Determinantenkenner, sondern aus
(5) ganz elementar die Formel

(6) (17 x 1l) . (17' x 1l') = (17 . 17')(1l . 1l') - (17 . 1l')(1l . 17')
ableiten. Man kann sie entweder nachrechnen oder sich so uberlegen: beide
Seiten der zu beweisenden Gleichung (6) sind in jeder der vier Variablen
linear, also brauchen wir (6) nur fUr u, u', v, v' E {x, y, z} nachzuprufen.
Fur 17 = 1l oder 17' = 1l' sind sowieso beide Seiten Null, also diirfen wir
17 i= 1l und 17' i= 1l' annehmen, aus Symmetriegrunden bleiben deshalb fUr
(17, 1l, 17', 1l') oBdA nur noch die beiden Falle (x, y,x, y) und (x,y,y,z) zu
prufen ubrig, im erst en sind beide Seiten 1, im zweiten Null, und (6) ist schon
verifiziert. - Determinantenkenner werden (6) gerne als
---> --->,
u·u u·v
--+ --+ --+ I ---+ , ( ---> --->')
(6' ) (u x v) . (u x v ) = det
---> --->, ---> --->,
v·u v·v

lesen. - Ahnliche nutzliche Formeln, die aus (5) folgen, sind zum Beispiel

(7) (17 x 1l) . w = (1l x w) . 17 = (w x 17) . 1l,


woraus insbesondere
17 ..l (17 x 1l) und 1l..l (17 x 1l)
folgt, und
(8) 17 x (1l x w) = (17. w)1l - (17 .1l)w.

Wie die Formel (6) beweist man sie entweder durch Rechnen oder beruft sich
auf die Linearitat in den drei Faktoren, deretwegen man ohne Beschrankung
der Allgemeinheit 17, 1l, W E {x, y, z} voraussetzen darf. Fur 17 = 1l = W
sind beide Formeln trivialerweise richtig, also bleiben aus Symmetriegrunden
die FaIle (x, x, y) und (x, y, z) fur (u, V, iii) zu verifizieren ubrig, usw. - Fur
Determinantenkenner ist (7) naturlich auch sofort aus (5") klar.
Urn den Beweis unseres Satzes zu vollenden, mussen wir noch zeigen, dass
aus (5) auch (2) folgt. Seien jetzt also 17 und 1l zwei aufeinander senkrecht
stehende Einheitsvektoren. Nach (6) ist 117 x 111 = 1, nach (7) steht 17 x 1l
senkrecht auf 17 und 1l. Weshalb aber ist (17, 1l, 17 x 1l) rechtshandig?
Fur Leser, die mit dem Orientierungsbegriff vertraut sind und in U nur
einen orientierten 3-dimensionalen euklidischen Vektorraum sehen, folgt das
74 Kapitel 3: Dimensionen

aus (5/1), angewandt auf :u; = 1l x v,denn die Determinante ist dann posi-
tiv, was im mathematischen Sinne die Rechtshandigkeit von (1l, v, 1l xv)
bedeutet , da (x, fj, z) als rechtshandig vorausgesetzt war.
Mit der physikalisch definierten Rechtshandigkeit argumentieren wir so:
Sei :u; der Einheitsvektor, der (1l, v) zu einem rechtshandigen Orthonor-
malsystem erganzt, also :u; = ±1l x v, wir wissen nur das Vorzeichen noch
nicht. Wir konnen aber (x, fj, z) durch eine kontinuierliche Drehung ("der
rechten Hand") in (1l,v,:U;) iiberfiihren. Bezeichne (1l(t),v(t),:U;(t)) das
v
gedrehte System zum Zeitpunkt t. Dann ist stets 1l (t) x (t) = ±:U; (t) , also
11l(t) x v(t) - :U;(t) I entweder 0 oder 2. Dieser Betrag ist aber anfangs Null
x
wegen x fj = Z, und er hangt wegen der Stetigkeit der Drehung und nach
Auskunft der Formel (5) (wegen der Bilinearitat von x) stetig von tab, also
ist er auch am Ende Null, woraus 1l x v
= :u; folgt. 0
Damit ist der Satz bewiesen und das Vektorprodukt U xU -+ U definiert,
und wir haben dabei auch gelernt, dass es bilinear ist und die Eigenschaften
(1) - (8) hat. -
Mit dem Vektorprodukt in U ist nun aber in kanonischer Weise das Vek-
torprodukt von beliebigen physikalischen Vektoren durch

U[ a 1 x U[ b 1 - - - + U[ ab 1
(a 1l, bv) f-------> ab(1l x v)

definiert und seine Eigenschaften ergeben sich sofort aus denen des Vektor-
produkts in dem orientierten 3-dimensionalen euklidischen Vektorraum U,
der hier wieder die Verbindung zwischen abstrakter linearer Algebra und
physikalischer Vektorrechnung aufrecht erhalt.
Einen noch nicht orientierten abstrakten 3-dimensionalen euklidischen
Vektorraum muss man erst orientieren, bevor man wie oben das Vektorpro-
dukt erklaren kann. Dazu muss man eine Basis willkiirlich fiir "rechtshandig"
oder "positiv orientiert" erklaren; welche anderen dann auch als rechtshandig
gelten, ergibt sich aus Determinanten- oder Drehungsbedingungen, auf die ich
hier nicht eingehen will. 1m Zahlentripelraum R3 nennt man iiblicherweise
die kanonische Basis (el' e2, e3) positiv orientiert, das Vektorprodukt im R3
ist nach (5) deshalb durch

gegeben, (1) - (8) gelten entsprechend.


3.5 DAS VEKTORPRODUKT 75

Zum Sehluss wollen wir aus (6) und (7) noeh die ubliehe geometrisehe Be-
sehreibung des Vektorprodukts ableiten. Aus (6) folgt fUr 11 = 11' =I- 0 und
77 = 77' =I- 0, dass

(9) 111 x 771 = VI111217712 - (11.77)2

= 1111177IVl - eos 2 a(11, 77)

= 11111771 sina(u, 77)

gilt. Fur Ortsvektoren 11,77 E Ao ist das gerade der FHieheninhalt des von
11 und 77 aufgespannten Parallelogramms, 111 x 771 E JR[ em 2 ]:

und man nennt 11111771 sina(11, 77) deshalb aueh in anderen FiiJlen den Fla-
eheninhalt des Parallelogramms, also aueh wenn 11, 77 keine Ortsvektoren
und 11111771 deshalb in einem anderen Skalarbereich oder, in der mathemati-
sehen linearen Algebra, in JR liegt. - Naeh (7) steht 11 x 77 senkreeht auf
11 und 77, und ist 11 x 77 =I- 0, so folgt ahnlieh wie oben, dass (11, 77, 11 x 77)
reehtshandig ist, wenn man dicscn Begriff in der naheliegenden Weise von
Orthonormalbasen auf beliebige Basen ausdehnt. Man kann also sagen:

Sind 11, 77 linear unabhangig, so ist 11 x 77 derjenige der beiden auf 11


und 77 senkreeht stehenden Vektoren mit dem Flaeheninhalt des Paral-
lelogramms als Betrag, der (11,77) reehtshandig erganzt, und fUr linear
abhangige 11,77 ist der Flaeheninhalt und damit das Vcktorprodukt
natlirlieh Null.
76 Kapitel 3: Dimensionen

3.6 DER "STEINITZSCHE AUSTAUSCHSATZ"

HrSTORISCHE N OTIZ

Der folgende Satz wird in Lehrbiichern der Linearen Algebra gewi:ihnlich der
"Austauschsatz von Steinitz" genannt (vergl. z.E. Kowalsky [10], Seite 37)

SATZ: Hat ein Vektorraum V eine Basis aus p Vektoren und ist (VI, ... , v r )
linear unabhiingig in V, dann gibt es auch eine Basis von V aus p Vektoren,
unter denen VI, ... ,Vr alle vorkommen.
Wir haben dies en Satz in § 3 natiirlich mitbewiesen: denn dass iiberhaupt
eine Basis existiert, die VI, ... ,Vr enthiilt, folgt aus dem Basisergiinzungssatz,
und dass diese Basis die Liinge p hat, folgt aus Satz 1. Bei Steinitz steht
dieser Satz in einer Arbeit vom Jahr 1913 und lautet dort

"Besitzt der Modul M cine Basis von p Zahlen, und enthiilt er r linear
unabhiingige Zahlen f3I, ... ,f3r so besitzt er auch eine Basis von p Zahlen,
unter denen die Zahlen f31, ... ,f3r siimtlich vorkommen."
Wenn man Steinitz' Terminologie in unsere iibersetzt, erhiilt man gerade
den oben erwiihnten Satz. - Ein unter Mathematikern gelegentlich zitiertes
bon mot besagt: Wenn ein Satz nach jemanden benannt ist, so ist das ein
Zeichen dafiir, dass der Betreffende dies en Satz nicht als erster bewiesen hat.
So scheint es auch in diesem Falle zu sein: 1ch habe in dem Buch [18] von
H. Schwerdtfeger auf Seite 23 die FuBnote gefunden: "This theorem (Aus-
tauschsatz) is usually ascribed to E. Steinitz alone. It has been pointed out,
however, by H.G. Forder in his book 'The Calculus of Extensions', Cam-
bridge 1941, p. 219, that H. Grassmann has published this theorem in 1862,
i.e. 52 years before Steinitz."
Nun, Ernst Steinitz, der von 1871 bis 1928 lebte und ein bedeutender AI-
gebraiker war, hiitte sidler keine Prioritiitsanspriiche auf diesen Satz gelten
machen wollen. Die Arbeit [19], in der der Satz vorkommt, heiBt "Be-
dingt konvergente Reihen und konvexe Systeme", erschienen im Journal fiir
die reine und angewandte Mathematik (dem so genannten "Crelle-Journal")
Band 143 (1913), der zweite Teil dieser Arbeit erschien dann im Band 144.
Zu Beginn dieser Arbeit, bevor er sein eigentliches Thema in Angriff nimmt,
gibt Steinitz eine kurze Einfiihrung in die Grundbegriffe der linearen Alge-
bra, in der auch der bewusste "Austauschsatz" steht. Er entschuldigt sich
dafiir noch mit den Worten: "Die Grundlagen der n-dimensionalen Geome-
trie, welche hier iiberall gebraucht werden, hiitten als bekannt vorausgesetzt
3. LITERATURHINWEIS 77

werden ki:innen. leh habe es aber vorgezogen, sie noehmals abzuleiten. Da-
bei kommt natiirlieh alles auf die Darstellung an. leh glaube, dass die hier
gewahlte ihre Vorziige besitzt und darum nieht iiberfliissig erseheinen wird."
Sie tun also Steinitz gewiss unreeht, wenn Sie nur im Gedaehtnis behalten:
"Steinitz? Aeh ja, der den Austausehsatz bewiesen hat!" Es ist doeh aueh
klar, dass eine so einfaehe Saehe wie der Austausehsatz 1913 nieht mehr
als bemerkenswertes wissensehaftliehes Resultat gelten konnte; Sie brauehen
nur daran zu denken, dass z.B. in den Jahren ab 1905 die Relativitatstheorie
konzipiert wurde!
Sie werden die Namen vieler Mathematiker dadureh kennenlernen, dass
Begriffe und Satze naeh ihnen benannt sind. Ziehen Sie daraus nieht allzu
viele Schliisse auf diese Mathematiker und den Wissensstand ihrer Zeit.
Manehmal ist ein Satz unter dem Niveau seines Namens (wie hier beim Stei-
nitzsehen Austausehsatz), manehmal dagegen ist ein tiefer Satz der moder-
nen Mathematik naeh einem alten Mathematiker benannt, der vielleieht nur
einen ganz einfaehen Spezialfall davon bewiesen hatte. Das ist es, was ich
Ihnen eigentlieh in dieser "Historisehen Notiz" erzahlen wollte.

3.7 LITERATURHINWEIS

Diesmal solI der Literaturhinweis Ihnen helfen, sieh mit dem Bueh Lineare
Algebra von H.-J. Kowalsky [10] anzufreunden. Unser § 3 entsprieht etwa
den §§ 5 und 6 in Kowalsky's Bueh. Fangen Sie ruhig auf Seite 29 an zu lesen,
gravierende Untersehiede in der Terminologie gibt es nieht. Dass Vektoren
mit deutsehen Buehstaben bezeiehnet werden, wird Sie nieht sti:iren. Statt c
sehreibt der Autor C;;;, so dass er einfach c schreiben kann wo wir ~ schreiben
miissen. Untervektorraum heii3t Unterraum, und U C;;; IX bedeutet , dass U
"Unterraum" von X ist. Bei der Bezeiehnung von Mengen steht {x: ... } wo
wir {xl ... } sehreiben wiirden. Die Menge der Linearkombinationen wird
statt dureh L( .. . ) dureh [ ... ] bezeiehnet (vergl. Definition 5b und 5.3 auf
S. 31 in [10]), und wird fUr beliebige Mengen statt wie bei uns fiir r-tupel
definiert (Definition 6b auf S. 33), eine Basis ist dann auch eine Menge und
kein n-tupel: diese Unterschiede muss man nun doch beaehten und im Auge
behalten. Unendliehe Basen sind aueh zugelassen, man kann dann zeigen,
dass in diesem Sinne jeder Vektorraum eine Basis hat. - leh glaube, dass
Sie nun die §§ 5 und 6 in Kowalsky's Buch ohne weitere Vorbereitung lesen
ki:innen.
78 Kapitel 3: Dimensionen

3.8 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 3.1: Sei V ein reeller Vektorraum und a, b, c, d E V. Sei


Vl = a + b+ c+d
V2 = 2a + 2b + c - d
V3 = a + b + 3c - d
c+d
b+ c - d
Man beweise, dass (Vl,"" vs) linear abhangig ist.
Man kann diese Aufgabe dadurch los en, dass man eines der Vi als Line-
arkombination der anderen vier darstellt. Es gibt aber auch einen Beweis,
bei dem man tiberhaupt nicht zu rechnen braucht!

AUFGABE 3.2: Sei Vein Vektorraum tiber IK und U1 , U2 Untervektorraume


von V. Man sagt, U1 und U2 seien komplementiire Unterraume, wenn
U 1 + U2 = V und U 1 n U2 = {O}. Skizze zu einem Beispiel im ]R3:

U1 = V und U2 = {O} sind nattirlich auch komplementar zueinander. -


Man beweise: 1st Vein n-dimensionaler Vektorraum tiber IK und U1 ein
p-dimensionaler Untervektorraum von V, dann gibt es einen zu U1 komple-
mentaren Untervektorraum U2 und jeder solche Untervektorraum U2 hat
die Dimension n - p.

AUFGABE 3.3: In Satz 2 hatten wir gezeigt, dass in einem endlichdimensio-


nalen Vektorraum Vein linear unabhangiges r- tupel (Vl,"" v r ) hochstens
3.8 UBUNGEN 79

die Lange dim V haben kann. Man beweise nun: In jedem unendlichdimen-
sionalen Raum V gibt es eine unendliche Folge VI, V2, ... von Vektoren, so
dass fur jedes r das r-tupel (VI, ... , V r ) linear unabhangig ist.

DIE *-AUFGABE:

AUFGABE 3*: Aus einem komplexen Vektorraum V kann man stets dadurch
einen reellen machen, dass man die Skalarmultiplikation C x V --+ V einfach
auf JR. x V einschrankt. Da die Begriffe "lineare Rulle" und "Dimension" bei
dieser Einschrankung einen anderen Sinn annehmen, wollen wir L e , dime
bzw. L/Ji., dim/Ji. schreiben, je nachdem ob V als komplexer oder reeller Vek-
torraum aufgefasst wird. Aufgabe: Man bestimme fill jedes n 2: 0, fur welche
Zahlenpaare (r, s) es einen komplexen Vektorraum und Vektoren vI, ... , Vn
darin gibt, so dass r = dim/Ji. Lc( VI, ... ,Vn ) und s = dim/Ji. L/Ji. (VI, ... ,Vn ).

UBUNGEN FUR PHYSIKER:

AUFGABE 3.1P: = Aufgabe 3.1 (fUr Mathematiker)


AUFGABE 3.2P: = Aufgabe 3.2 (fill Mathematiker)

AUFGABE 3.3P: Wir betrachten im JR.3 die beiden Geraden gl und g2, die
durch
gi := {Pi + tVi I t E JR.}, i = 1,2
beschrieben sind, wobei
PI := (1,1,2)
P2 := (0, ~1, 3)
VI := (2,0,1)
V2 := (1,1,1)
Wie groB ist der Abstand a zwischen YI und Y2?
Diese Aufgabe hat mit dem Vektorprodukt zu tun, denn sind qI E gl und
q2 E g2 die beiden Punkte auf den Geraden mit dem geringsten Abstand,
also I q2 ~ qI II = a, so steht ja q2 ~ qI E JR.3 senkrecht auf beiden Geraden,
d.h. auf deren Richtungen VI und V2. (Zur Kontrolle: die dritte und vierte
Stelle nach dem Komma heii3en 1 und 2).
4. Lineare Abbildungen

4.1 LINEARE ABBILDUNGEN

Bisher haben wir immer einen Vektorraum V betrachtet und darin irgend-
welche Objekte studiert: r-tupel linear unabhiingiger Vektoren oder Unter-
vektorriiume oder Basen etc. Jetzt wollen wir zwei Vektorriiume V und W
betrachten und Beziehungen zwischen Vorgiingen in V und Vorgiingen in
W studieren. Solche Beziehungen werden durch so genannte "lineare Abbil-
dungen" oder "Homomorphismen" hergestellt. Eine Abbildung f : V ---> W
heiJ3t linear, wenn sie mit den Vektorraum-Verknupfungen + und . in V
und W "vertriiglich" ist, d.h. wenn es gleichgultig ist, ob ich zwei Elemente
in Verst addiere und dann die Summe abbilde oder ob ich sie erst abbilde
und dann ihre Bilder addiere - entsprechend fur die skalare Multiplikation.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_4,


© Springer-Verlag Berlin Heidelberg 2008
4.1 LINEARE ABBILDUNGEN 81

Definition: Seien V und W Vektorraume liber lK. Eine Abbildung


f : V - 7 W heiJ3t linear oder ein H omomorphismus, wenn
f(x + y) = f(x) + f(y) und f(AX) = ).,J(x)
fUr alle x, y E V, A E lK gilt. Die Menge der Homomorphismen von V
nach W wird mit Hom(V, W) bezeichnet.

Notiz 1: Sind V 1... W J!... Y lineare Abbildungen, dann ist auch


gf: V -> Y eine lineare Abbildung, und die Identitat Id v : V -7 V ist
stets linear.

Notiz 2: Definiert man fUr alle f, 9 E Hom(V, W) und A E lK die


Elemente f + 9 E Hom(V, W) und Af E Hom(V, W) auf die nahelie-
gende Weise, so ist Hom(V, W) mit diesen beiden Verknlipfungen ein
Vektorraum liber lK.

Die "naheliegende Weise" oder auch "kanonische Weise" besteht natlirlich


darin, (f + g)(x) als f(x) + g(x) zu crklarcn und (Af)(X) als Af(x). Ich
nehme an, dass Sie in der Handhabung der Grundbegriffe inzwischen so sicher
sind, dass Sie auf die "Beweise" solcher Notizen gerne verzichten. - Zwei
Vektorraume sind fUr jede lineare Abbildung f : V -7 W besonders wichtig
(auJ3er V und W natfulich!), namlich das "Bild von f", so nennt man den
Untervektorraum f(V) = {j(v) I v E V} von W, und der "Kern von f",
so nennt man den Untervektorraum f- 1 (0) = {v E V I f(v) = O} von
V. Dass es sich wirklich urn Untervektorraume handelt, ist sofort aus den
Definitionen der Begriffe Untervektorraum (im Abschnitt 3.1) und lineare
Abbildung zu sehen. Beispiel in lR:2 :

-
f:R2-7R2, (x,y)r--.(x-y,y-x)
82 Kapitel 4: Lineare Abbildungen

Notiz 3 und Definition: Sei f : V --+ W eine lineare Abbil-


dung. Dann ist Bildf := f(V) ein Untervektorraum von W und
Kernf:= {v E V I f(v) = O} ein Untervektorraum von V. Die lineare
Abbildung fist genau dann injektiv, wenn Kernf = {O} ist, denn
f(x) = f(y) bedeutet x - y EKern f·

Fur lineare Abbildungen mit besonderen Eigensehaften gibt es einige nutzli-


ehe, sich dureh ihre grieehisehen Vorsilben beinahe selbst erkliirende Bezeieh-
nungen:

Definition: Eine lineare Abbildung f: V --+ W heiBt ein


Monomorphismus, wenn sie injektiv,
Epimorphismus, wenn sie surjektiv,
Isomorphismus, wenn sie bijektiv,
Endomorphismus, wenn V = W und sehlieBlieh ein
Automorphismus, wenn sie bijektiv und V = Wist.

Von besonderer Bedeutung sind die Isomorphismen. Dass die Hintereinan-


deranwendung 9 f zweier Isomorphismen f : V --+ W und 9 : W --> Y wieder
ein Isomorphismus ist, ist nach Notiz 1 wohl klar. Notierenswert ist jedoch

Bemerkung 1: 1st f : V --> W ein Isomorphismus, so ist auch


f- 1 : W
--> Vein Isomorphismus.

BEWEIS: Dass f- 1 wieder bijektiv ist, wissen wir schon aus § 1, wir mussen
uns daher nur noch davon iiberzeugen, dass f- 1 aueh linear ist. Die Ele-
mente w, w' E W, die wir jetzt zu betrachten haben, durfen wir ja als
w = f(v) und w' = f(v ' ) schreiben. Deshalb ist
rl(w+w') = r1(f(v)+ f(v ' )) = r1(f(v+v')) = v+v' = r1(w)+ r1(w' )
und ebenso

fur alle w, w' E W und A E lK, also ist f- 1 linear. D

Urn die Bedeutung der Isomorphismen richtig zu verstehen, sollten Sie


sich folgendes klarmachen: Angcnommcn, wir habcn cincn Vektorraum V
4.1 LINEARE ABBILDUNGEN 83

und darin irgendwelche Objekte: Teilmengen, Untervektorraume, Basen oder


dergleichen. Wenn nun 'P: V ---> W ein 1somorphismus ist, so konnen wir in
W die Bilder unserer "Objekte" betrachten.

Dann haben diese Bilder in W dieselben "linearen Eigenschaften" wie die ur-
sprunglichen Objekte in V! "Lineare Eigenschaften" sind dabei diejenigen,
etwas vage gesprochen, die sich mittels der Vektorraumdaten Menge, Ad-
dition, Skalarmultiplikation formulieren lassen. Beispiel: Seien U1 , U2 zwei
Untervektorraume von V, und U 1 n U2 habe die Dimension fUnf. Dann hat
auch der Untervektorraum 'P(UI ) n 'P(U2 ) von W die Dimension funf. Oder:
1st (VI"'" V r ) ein linear unabhangiges T- tupel von Vektoren in V, dann ist
auch ('P( VI), •.• , 'P( V r )) ein linear unabhangiges T-tupel von Vektoren in W.
Beispiele nicht linearer Eigenschaften: Sei zum Beispiel V = ]R2. Dann
ist jedes x E Vein Zahlenpaar. 1st nun 'P : V ---> W ein 1somorphismus,
so braucht 'P(x) keineswegs ein Zahlenpaar zu sein, W kann ja etwa ein
Vektorraum sein, dessen Elemente Funktionen sind oder dergleichen. Oder:
Sei V = W =]R2. Sei U C]R2 ein Kreis: U = {(XI,X2) E ]R21 xi+x~ = I}.
1st 'P : ]R2 ---> ]R2 ein 1somorphismus, so braucht deshalb 'P(U) C ]R2 kein
Kreis zu sein: ]R2 ---> ]R2, (Xl, X2) ---> (2XI' X2) ist z.B. ein 1somorphismus:

U __---r-_ '1'( U)

'I'

Wir wollen hier nicht versuchen, den Begriff "lineare Eigenschaft" formaler
zu fassen. 1m Laufe der Zeit werden Sie viele Beispiele von "isomorphie-
invariant en" Eigenschaften kenncnlernen. - Man kann aber nicht nur Vek-
torraume, sondern auch lineare Abbildungen durch 1sornorphisrnen in Bezie-
hung zueinander set zen. Stellen Sie sich vor, wir seien an einer bestimmten
84 Kapitel4: Lineare Abbildungen

linear en Abbildung f : V ---> V interessiert, die aber zunachst schwer zu


durchschauen ist - etwa weil Vein Funktionenraum ist und f ein kom-
plizierter Differential- oder Integraloperator der Analysis. Stellen Sie sich
weiter vor, wir hatten einige konkrete "lineare" Fragen an die Abbildung f,
z.B. ob sie injektiv, ob sie surjektiv ist, wie graD die Dimension des Bildes
f(V) sei, ob es Vektoren v # 0 in V gibt, die von f auf ein Vielfaches AV
von sich selbst abgebildet werden (so genannte "Eigenvektoren") und der-
gleichen. Nun, in dieser Situation ist es manchmal moglich, einen anderen
Vektorraum V' und einen Isomorphismus <I> : V' ~ V zu finden, der aus f
eine ganz leicht zu durchschauende Abbildung f' := <1>-1 0 f 0 <I> macht,

f
V V

V' V'
f'

fUr die wir die analogen Fragen sofort beantworten konnen. Diese Antworten
lassen sich dann mittels <I> auf f, an dem wir ja eigentlich interessiert sind,
tibertragen: ist z.B. v' E V' ein Eigenvektor von f' mit f' (v') = AV ' ,
dann gilt fUr v := <I>(v /) auch f(v) = AV usw. - Damit soll unsere kleine
Plauderei tiber die Bedeutung des Isomorphiebegriffes aber beendet sein, und
wir wenden uns wieder den Details unseres § 4 zu.
Wir wollen jetzt V als endlichdimensional annehmen und einige damit zu-
sammenhangende allgemeine Aussagen tiber lineare Abbildungen f : V ---> W
notieren. Wem bisher zuwenige Beispiele von linearen Abbildungen vorge-
kommen sind, der wird sich durch die folgende Bemerkung reichlich entscha-
digt finden.

Bemerkung 2: Seien V und W Vektorraume tiber lK und (VI, ... ,vn )


eine Basis von V. Dann gibt es zu jedem n-tupel (WI, ... ,Wn ) von Vek-
toren in W genau eine lineare Abbildung f : V ---> W mit f( Vi) = wi,
i = 1, ... ,no

BEWEIS: Bei solchen "es gibt genau ein"-Aussagen ist es meistens zweck~
ma£ig, den Beweis der Existenz ("es gibt ein") und den der Eindeutigkeit
("es gibt hochstens ein") getrennt zu fUhren. Und zwar fangt man am besten
mit der Eindeutigkeit an, denn bei den Uberlegungen dazu ("angenommen,
es gabe zwei. Dann ware . .. ") bekommt man manchmal eine Idee fUr den
4.1 LINEARE ABBILDUNGEN 85

Existenzbeweis, seltener umgekehrt. Unsere Bemerkung 2 ist allerdings kein


sehr gutes Beispiel dafUr, weil hier beide Teile des Beweises ganz leicht sind.
Also:

(a) Beweis der Eindeutigkeit: Seien f, l' : V --> W lineare Abbil-


dungen mit f(Vi) = f'(Vi) = Wi, i = 1, ... , n. Da jedes v E V sich als
v = A1V1 + ... + AnVn, Ai E lK., schreiben lasst, gilt:
f(v) = f(A1V1 + ... + AnVn)
= Ad(V1) + ... + Anf(vn )
= A1W1 + ... + AnWn
= Ad'(V1) + ... + An1'(Vn )
= f'(A1V1 + ... + AnVn) = 1'(v),
also f(v) = f'(v) fUr alle v E V, d.h. f = 1'. o
(b) Beweis der Existenz: Fur v = A1 V1 + ... + An Vn definieren
wir f(v) := A1W1 + ... + AnWn. Da sich jedes v E V nur auf eine
Weise als Linearkombination der Basisvektoren schreiben lasst (vergl.
Bemerkung 2 in Abschnitt 3.1), ist dadurch wirklich eine Abbildung
f : V --> W definiert. Offenbar ist f linear und hat die Eigenschaft
f(V;)=Wi,i=1, ... ,n. 0

Diese unscheinbare und so leicht zu beweisende Bemerkung 2 spricht einen


sehr bedeutsamen Sachverhalt aus: Die gesamte Information uber eine li-
neare Abbildung ist bereits in den Bildern der Basisvektoren enthalten! Neh-
men Sie V = lK. n mit der kanonischen Basis und W = lK. m als Beispiel. Eine
lineare Abbildung lK. n --> lK. m anzugeben, heiBt nach Bemerkung 2 soviel wie
n m-tupel W1, ... , Wn E lK. m zu benennen, also insgesamt n· m Zahlen aus
lK., in denen die lineare Abbildung dann gleichsam codiert ist. Das ist der
Grund, weshalb man mit linearen Abbildungen, pauschal gesagt, in Compu-
tern effektiv rechnen kann und weshalb man immer bestrebt ist, nichtlineare
Probleme nach Moglichkeit durch theoretische Uberlegungen auf lineare zu
reduzieren.

Bemerkung 3: Seien V und W Vektorraume uber lK. und (V1' ... , v n )


eine Basis von V. Eine lineare Abbildung f : V --> Wist genau dann
ein Isomorphismus, wenn (f(V1), ... , f(v n )) eine Basis von Wist.
86 Kapitel4: Lineare Abbildungen

BEWEIS: Wenn Sic die Definition der Begriffe "Basis" und "Isomorphismus"
sich ins Gediichtnis rufen, dann die Spitze Ihres Kugelschreibers aufs Pa-
pier set zen und die Hand ein klein wenig bewegen, kommt der Beweis ganz
von seiber heraus. Die Terminologie denkt fiir Sie! Wir miissen bald da-
mit aufhoren, solche Beweise jedesmal aufzuschreiben. Diesen noch, zum
Abgewohnen. Also:

(a) "=}": Sei also f ein Isomorphismus. Wir priifen zuerst die lineare U n-
abhiingigkeitvon (f(v1), ... ,f(vn )) in W. Sei Al!(V1)+"'+An f(vn) =0.
Dann ist wegen der Linearitiit von f auch f(A1V1 + ... + AnVn) = O. Da
f injektiv ist und f(O) = 0 gilt, muss A1V1 + ... + AnVn = 0 sein. Da
(V1, ... , v n ) linear unabhiingig ist, folgt daraus A1 = ... = An = 0, also ist
(f(V1)"'" f(v n )) linear unabhiingig.
Nun priifen wir, dass L(f(V1), ... ,f(vn )) = Wist. Sei WE W. Da f
surjektiv ist, gibt es ein v E V mit f(v) = w. Da L(V1, ... , v n ) = V gilt,
gibt es A1"'" An E lK mit v = A1 V1 + ... + An Vn . Da f linear ist, gilt
W = f(v) = Al!(V1) + ... + Anf(v n ). Also kann jedes Element von W aus
(f(V1)"'" f(v n )) linearkombiniert werden. "=}" 0

(b) ".;=": Sei also (f (V1)' ... , f (v n )) eine Basis von W. Wir priifen zuerst
die Injektivitiit von f. Sei f( v) = O. Da (V1, ... , vn ) eine Basis von V ist,
gibt es A1, ... An E lK mit v = A1 V1 + ... + An Vn . Dann ist wegen der Linea-
ritiit von f auch A1f(V1)+"'+A n f(v n ) = 0, und weil (f(v1),···,f(vn))
linear unabhiingig ist, folgt daraus A1 = ... = An = 0, also v = 0, also ist f
injektiv.
Nun priifen wir die Surjektivitiit von f. Sei W E W. Da (f(V1)"'" f(vn))
ganz W erzeugt, gibt es A1"'" An mit W = Al!(V1) + ... + Anf(vn). Sei
v = A1 V1 + ... + An Vn . Dann gilt wegen der Linearitiit:

also ist f surjektiv. ".;="0


Aus den Bemerkungen 2 und 3 zusammen ergibt sich nun die

Notiz 4: Je zwei n-dimensionale Vektorriiume iiber lK sind isomorph!


(Dass V und W isomorph sind, soli natiirlich heiBen, dass es einen
Isomorphismus f : V ~ W gibt.)

Auch das ist sehr bemerkenswert. "Bis auf Isomorphie", wie man sagt, gibt
es nur einen n-dimensionalen Vektorraum iiber lK. Trotzdem wiire es nicht
4.1 LINEARE ABBILDUNGEN 87

sinnvoll, nur den Kn zu studieren, denn es laufen uns andere konkrete Vek-
torraume ungefragt iiber den Weg (Losungsraume, Funktionenraume, Tan-
gentialraume usw.), und schon urn sie zu verstehen und mit dem Kn in
Beziehung zu setzen, brauchen wir den allgemeinen Vektorraumbegriff.
Wenn man in der Linearen Algebra mit mehreren Vektorraumen gleich-
zeitig zu tun hat ist es oft sehr niitzlich, eine Dimensionsformel zu haben, die
einem die Dimensionen der einzelnen Riiume miteinander in Beziehung setzt.
In § 3 hatten wir z.B. eine solche Dimensionsformel fUr Untervektorraume
U1 , U2 von V bewiesen:

Jetzt wollen wir eine Dimensionsformel fiir lineare Abbildungen herleiten.

Definition: Sei f : V --> W eine lineare Abbildung. 1st Bild f end-


lichdimensional, dann heiBt rg f := dim Bild f der Rang von f.

Dimensionsformel fur lineare Abbildungen: Sei Vein n-


dimensionaler Vektorraum und f : V --> W eine lineare Abbildung.
Dann ist
dim Kern f + rgf = n.

BEWEIS: Wir erganzen eine Basis (V1, ... , Vk) von Kern f zu einer
Basis (V1, ... , Vk, Vk+1,"" vn ) von ganz V und set zen Wi = f(Vk+i)
fUr i = 1, ... , n - k. Wenn wir zeigen konnen, dass (W1, ... , Wn-k)
eine Basis von Bild fist, dann haben wir dim Bild f = n - k gezeigt
und sind fertig. - Jedenfalls ist
f()..l V 1 + ... + AnVn) = )..k+1 W 1 + ... + )..nWn-k
und daher Bildf = L(W1, ... ,Wn -k). AuBerdem ist (W1, ... ,Wn -k)
linear unabhangig, denn aus, sagen wir, Q1 W1 + ... + Qn-kWn-k = 0
wiirde Q1 Vk+1 + ... + Qn-kVn EKern f folgen, also
Q1 Vk+1 + ... + Qn-kVn = )..1 V1 + ... + )..kVk
fiir geeignete )..l, ... ,)..k, aber (V1, ... ,Vn ) ist linear unabhangig,
und deshalb ware Q1 = ... = Qn-k = )..1 = ... = )..k = O.
Also ist (W1, ... , Wn-k) tatsachlich eine Basis von Bild f, und zu
dim Kern f = k wissen wir jetzt auch noch rgf = n - k. D
88 Kapitel 4: Lineare Abbildungen

Als eine erste Anwendung der Dimensionsformel notieren wir

Notiz 5: Eine lineare Abbildung zwischen Riiumen der gleichen Di-


mension n ist genau dann surjektiv, wenn sie injektiv ist.

Das kommt einfach daher, dass injektiv "dim Kern f = 0" und surjektiv
"n - rg f = 0" bedeutet, aber wegen der Formel dim Kern f = n - rg f gilt.

4.2 MATRIZEN

Definition: Eine m x n-Matrix fiber lK ist eine Anordnung von mn


Elementen von lK nach folgendem Schema
.........

C"
a," )

amI ......... a mn

Die aij E lK nennt man auch die Koeffizienten der Matrix. Die waag-
recht geschriebenen n-tupel

heiBen die Zeilen und die senkrecht geschriebenen m-tupel

die Spalten der Matrix.

Spalte

Zeile 1-----+-1-----/
4.2 MATRIZEN 89

Die Menge aller m x n-Matrizen uber lK wird mit M(m x n, lK)


bezeichnet.

Mit Hilfe von Matrizen lassen sich eine Reihe wichtiger mathematischer Be-
griffsbildungen beschreiben und numerisch handhaben, im Bereich der linea-
ren Algebra zum Beispiel lineare Abbildungen, lineare Gleichungssysteme,
quadratische Formen und Hyperfliichen zweiter Ordnung. In der Differenti-
alrechnung in mehreren Variablen begegnen Ihnen Jacobi-Matrix und Hesse-
Matrix als Beschreibungen der hoherdimensionalen erst en und zweiten Ab-
leitung und spiiter einmal lernen Sie, wie Lie-Gruppen und Lie-Algebren
durch Matrizengruppen und Matrizenalgebren "dargestellt" werden. Jetzt
aber interessieren uns die Matrizen wegen ihrer Bedeutung fUr die linearen
Abbildungen.

Definition: FUr x = (Xl, ... , Xn) E lK n wird Ax E lKm durch


n n n
Ax = (L a lj x j, L L
a2j x j, ... , amj x j) definiert.
j=l j=l j=l

Es gibt eine sehr suggestive andere Schreibweise fUr dieses "Anwenden" einer
Matrix A auf ein Element x E lKn.

Schreibweise: 1m Zusammenhang mit der Anwendung von m x n-


Matrizen auf n-tupel ist es ublich, die Elemente von lKn und lK m als
Spalten zu schreiben:

(I)
Die rechte Seite scheint, bei fiuchtigem Hinsehen, rechteckig zu sein, beachten
Sie aber, dass es wirklich keine m x n-Matrix ist, sondern nur ein m-tupel,
als Spalte geschrieben! Ein Element von lK m eben, wie es sein solI.
Bevor wir uns etwas niiher mit diesen Abbildungen lK n --+ lK m , X 1--+ Ax
beschiiftigen wollen, noch eine Bemerkung zur bloBen Schreibweise, zum Ge-
wohnen an die vielen Indices. Formeln mit vielen Indices, so wie die obige
90 Kapitel 4: Lineare Abbildungen

Definition von Ax, kann man sich ja eigentlich nur merken, wenn man ir-
gendwelche Gedachtnisstiitzen dafiir hat. Eine solche Gedachtnisstiitze stellt
diese Vorstellung dar:

J...- ... \

Man kann sich namlich die Gewinnung der Spalte Ax so vorstellen:

Zur Gewinnung der ersten

zweiten

letzten Komponente von Ax


4.2 MATRIZEN 91

legt man die Spalte x nacheinander auf die Zeilen von A, indem man
sie so urn 90 0 dreht, wie einen Stab. Dann multipliziert man die dabei
iibereinander zu liegen kommenden Elemente aij und Xj miteinander und
summiert jeweils auf: ailXl + ... + ainXn' Natiirlich muss man sich dabei
merken, dass aij in der i-ten Zeile und j-ten Spalte steht, nicht umgekehrt.
Der erste Index heiBt der Zeilenindex, der zweite der Spaltenindex. (Viel-
leicht merkt man sich das, wenn man daran denkt, dass man gewohnt ist, in
Zeilen zu lesen und die Zeilen daher, als die niiherliegende Unterteilung der
Matrix, den ersten Index fiir sich beanspruchen konnen?)

Satz: Sei A E M (m x n, IK). Dann ist die Abbildung


IK n --'> IK m
x f------+ Ax
linear, und ist umgekehrt f : IK n --+ IK m eine lineare Abbildung, dann
gibt es genau eine Matrix A E M(m x n, IK) mit f(x) = Ax fiir aIle
x E IKn.

Jeder Matrix die zugehorige lineare Abbildung IKn --+ IK m zuzuordnen defi-
niert also eine bijektive Abbildung M (m x n, IK) --+ Hom(IKn, IKm)! Deshalb
kann man die m x n-Matrizen auch als die linearen Abbildungen von IKn
nach IKm interpretieren oder auffassen.

BEWEIS: Dass A(x +y) = Ax + Ay und A(>"x) = >..(Ax) , fiir aIle x, y E IK n ,


>.. E IK gilt, liest man sofort aus der Definition von Ax abo Die durch x f-+ Ax
gegebene Abbildung ist also linear. Sei nun f : IKn --+ IKm irgendeine lineare
Abbildung. Wir miissen zeigen, dass es genau eine Matrix A E M(m x n, IK)
gibt, so dass f(x) = Ax fiir aIle x E IKn gilt. Wir teilen diesen "es gibt
genau ein"-Beweis wieder in Eindeutigkeitsbeweis und Existenzbeweis: .

(a) BEWEIS DER EINDEUTIGKEIT: Seien also A, E E M(m x n, IK) und


f(x) = Ax = Ex fiir aIle x E IKn. Dann muss insbesondere fiir die "kanoni-
schen Einheitsvektoren" ej, d.h. fiir

, ... ,

gelten: Aej = Eej, j = 1, ... , n. Was ist aber Aej? Aej ist genau die
j-te Spalte von A! Also haben A und E dieselben Spalten und sind daher
gleich.
92 Kapitel4: Lineare Abbildungen

OD 1

Oder etwas formlicher hingeschrieben: Bezeichnen wir mit 6ij , i = 1, ... , n


die Komponenten von ej, also ("Kronecker-Symbol")
I furi=j
6 .- {
'J'- 0 fUr i i=- j ,
dann ist die i-te Komponente von Aej, also (Aej)i, gegeben durch
n
(Aej)i = ~ aik6kj = aij ,
k=l

also haben wir aij = (Aej)i = (Bej)i = bij fur aIle j l, ... ,n und
i = l, ... ,m, also A = B. o
(b) BEWEIS DER EXISTENZ: Fur jede m x n-Matrix A gilt, wie wir beim
Eindeutigkeitsbeweis gerade gesehen haben, dass die Bilder der kanonischen
Einheitsvektoren ej E ][{n bei der Abbildung
][{n -----+ ][{m

X f---------+ Ax
gerade die Spalten der Matrix sind.

DIE SPALTEN
SIND DIE BILDER DER
KANONISCHEN EINHEITSVEKTOREN

ist uberhaupt ein llutzlicher Merkvers fur die Matrizenrechnung. Wenn nun
Ax = f(x) seill solI, so mussen wir A so definieren, dass
4.2 MATRIZEN 93

gerade die j-te Spalte wird, wir setzen also hoffnungsvoll


Vll

A:= ( :
VmI
und haben damit immerhin schon eine Matrix, fiir die Aej = f( ej),
j = 1, ... , n gilt. Wegen der Linearitat von fund der durch x f-+ Ax
gegebenen Abbildung folgt daraus aber
A(AIeI + ... + Anen) = f(AIeI + ... + Anen)
fUr beliebige Aj ElK, und da (el, ... , en) eine Basis von lK n ist, bedeutet
das Ax = f(x) fur alle x E lKn. D

Was hat das alles mit den linearen Abbildungen eines Vektorraumes V in
einen Vektorraum W zu tun? Nun dies: Wenn V und Wendlichdimensional
sind und wir Basen (VI, ... , V n ) und (WI, •.• , wrn) in V und W wahlen, dann
konnen wir sofort jede lineare Abbildung in die Matrizensprache ubersetzen.
Dazu notieren wir zunachst:

Definition: 1st Vein Vektorraum uber lK, und ist (VI, ... , V n ) eine
Basis von V, so nennen wir

lK n ----=---. V
(AI, ... , An) f-----+ Al VI + ... + AnVn
den kanonischen Basisisomorphismus. Falls eine Bezeichnung benotigt
wird, schreiben wir «>(Vl, ... ,V n ) fur diesen 1somorphismus.

Der Basisisomorphismus ist gerade der nach Bemerkungen 2 und 3 vorhan-


dene und eindeutig bestimmte 1somorphismus, der die Einheitsvektoren in
lK n auf die Vektoren der gegebenen Basis abbildet. Sind nun (VI, ... , V n ) und
(WI, ... , W m ) Basen von V bzw. W und f : V ---+ W eine lineare Abbildung,
so ist
«>-1
(Wl, ... ,W m ) 0
f 0
«> (Vl, ... ,V n )
eine lineare Abbildung von lK n nach lK m und deshalb durch eine m x n-
Matrix A gegeben. Am iibersichtlichsten zeigt uns ein kommutatives Dia-
gramm die Beziehung zwischen fund A:
94 Kapitel 4: Lineare Abbildungen

Definition: Sei 1 : V --+ W eine lineare Abbildung zwischen Vek-


torraumen iiber lK, und seien (VI,"" V n ) und (WI, ... , W m ) Basen fUr
V bzw. W. Dann heiBt die durch das kommutative Diagramm
f
v W

"" r<PeWl, .. ,wm)

A
lK m
bestimmte Matrix A E M (m x n, lK) die zu 1 beziiglich der beiden
gewahlten Basen gehorige Matrix.

Hat man also lineare Abbildungen zwischen endlichdimensionalen Vektor-


raumen zu betrachten, so kann man immer durch Wahl von Basen zu den
zugehorigen Matrizen iibergehen. U mgekehrt kann man natiirlich aus der
Matrix auch 1 wieder rekonstruieren, denn es ist ja dann
<p( Wl,··"Wrn )oAo<p- I
(Vl, ... ,'U n )
=1.
Insbesondere ist die durch festgewahlte Basen bewirkte Zuordnung
Hom(V, W) --+ M(m x n, lK), 1 f-+ A
tatsachlich bijektiv.

Zum Durchfiihren konkreter Rechnungen ist der Ubergang zu den Matrizen


oft zweckmaBig, und selbst bei theoretischen Uberlegungen kann er niitzen,
es kommt auf die naheren Umstande an. Uber eines muss man sich aber im
Klaren sein: andert man die Basen, so andert sich auch die Matrix, die 1
beschreibt. Das ist manchmal ein Segen, weil man durch geschickte Basis-
wahl zu sehr einfachen Matrizen gelangen kann, und manchmal ein Fluch,
weil eine genaue Beobachtung der Anderung bei Basiswechsel, des "Trans-
formationsverhaltens", notwendig und lastig werden kann.
4.3 TEST 95

4.3 TEST

(1) Eine Abbildung f : V -+ W, zwischen Vektorriiumen V und W uber


lK ist linear, wenn

D f(>'x+J-lY) = Af(x) +J-lf(y) fur aIle X,Y E V, >',J-l E lK


D f eine Matrix ist
D BiIdf C W ein Untervektorraum von Wist.

(2) Unter dem Kern einer linearen Abbildung f: V -+ W versteht man

D {w E W I f(O) = w}
D {f(v)lv=O}
D {vEVlf(v)=O}

(3) Welche der folgenden Aussagen sind richtig: 1st f :V -+ W eine lineare
Abbildung, so gilt:

D f(O) = 0
D f( -x) = - f(x) fUr aIle x E V
D f(>.v) = f(>.) + f(v) fur aIle>. E lK, v E V

(4) Eine lineare Abbildung f: V -+ W heiJ3t Isomorphismus, wenn

D es eine lineare Abbildung 9 : W -+ V gibt mit f 9 = I d w , 9 f = I d v


D V und W isomorph sind
D (J(Vl), ... , f(v n )) fur jedes n-tupel (VI"'" vn ) in V eine Basis von
Wist

(5) Unter dem Rang rgf einer linearen Abbildung f : V -+ W versteht


man

D dimKernf D dirnBiIdf D dimW

(6) C-~) C)
(n
=

D D D
96 Kapitel 4: Lineare Abbildungen

(7) Die Abbildung

R2 -------+ R2
(x,y) -------+ (x+y,y~x)

ist durch die folgende Matrix gegeben ("Die Spalten sind die ... ")

o
C~D o o

(8) Es seien V und W zwei dreidimensionale Vektorraume mit Basen


(Vl,V2,V3) und (Wl,W2,W3), und sei f : V --> W die lineare Abbil-
dung mit f(Vi) = Wi. Dann ist die "zugehorige" Matrix

(: D
1
o A= 1
1

0n
0
o A= 1
0

(~ ~)
0
o A= 0
0

(9) Eine line are Abbildung f :V --> Wist genau dann injektiv, wenn

o f surjektiv ist,
o dimKernf = 0,
o rgf = 0 ist.

(10) Es sei f :V --> W eine surjektive lineare Abbildung und dim V = 5,


dim W = 3. Dann ist

o dimKernf 2: 3
o dim Kern f null, eins oder zwei, jeder dieser FaIle kann vorkommen
o dimKernf = 2
4.4 QUOTIENTENVEKTORRAUME 97

4.4 QUOTIENTENVEKTORRAUME

EIN ABsCHNITT FlJR MATHEMATIKER

Sei Vein Vektorraum liber einem Karper lK und U C Vein Untervektor-


raum. Wir wollen den Quotienten "V nach U" oder "V durch U" erklaren,
und das wird wieder ein Vektorraum liber lK sein. Ein Vektorraum besteht
ja bekanntlich aus dreierlei: Menge, Addition, Skalarmultiplikation. In unse-
rem Falle soll die Menge mit V jU bezeichnet werden, wir haben also dreierlei
zu definieren:
(a) die Menge VjU
(b) die Addition VjU x VjU -+ VjU
(c) die Skalarmultiplikation lK x VjU -+ VjU.
Und dann mlissen natlirlich noch die acht Axiome geprlift werden!

Zu (a): Flir x E V sei x +U := {x +u I U E U}, und VjU soll die


Menge aller x + U sein, d.h.
VjU={X+UIXEV}.
Die Elemente von V jU sind also, wohlgemerkt, nicht etwa diejenigen Ele-
mente von V, die die Form x + U, U E U haben, sondern jedes Element von
V jU ist selbst eine Menge {x + U I U E U}.

x+U=x'+U

U selbst ist natlirlich auch ein Element von V jU, namlich 0 + U.


98 Kapite14: Lineare Abbildungen

Zu (b): Wir wollen die Addition in V/U durch (x + U) + (y + U) :=


(x + y) + U
erkliixen. Dabei tritt nun eine ganz merkwilldige Schwierigkeit
auf. Obwohl wir eine so klare Formel fiir die Summe hinschreiben konnen:

(x + U) + (y + U) := (x + y) + U,
miissen wir uns fragen, ob (x + U) + (y + U) dadurch wirklich wohldefi-
niert ist. Es kann niimlich vorkommen, dass x + U = x' + U ist, obwohl
x # x' ist! Erst wenn wir gezeigt haben, dass aus x + U = x' + U und
y + U = y' + U auch (x + y) + U = (x' + y') + U folgt, diirfen wir sagen,
dass durch (x + U) + (y + U) := (x + y) + U fiir alle x, y E V wirklich eine
Verkniipfung V /U x V /U -+ V /U definiert ist. Wollen wir das also nachwei-
sen: Sei x+U = x' +U und y+U = y' +U. Daraus folgt x+O = x E x' +U,
y E y' + U, also gibt es a, b E U mit x = x' + a, y = y' + b, also ist

(x + y) +U = (x' + a) + (y' + b) + U
= ((x' + y') + (a + b)) + U
= {x' + y' + a + b + u I U E U}.

Da nun a, b E U sind, ist mit U E U auch a + b + U E U, und umgekehrt,


jedes Element von U kann als a + b + u, U E U, geschrieben werden, denn
fiir Z E U ist Z = a + b + (z - a - b). Also ist

(x + y) + U = {x' + y' + (a + b + u) I U E U}
= {x' + y' + u ' I u ' E U}
= (x' + y') + U .

Zu (c): Auch hierbei haben wir wieder auf die "Wohldefiniertheit" zu


achten, wenn wir A(x + U) := AX + U setzen. 1st x = x' + a, a E U, dann
ist AX + U = AX' + Aa + U = AX' + U, weil U ein Untervektorraum ist. Also
ist die Skalarmultiplikation durch A(x + U) := AX + U wohldefiniert.

Sind die acht Axiome eines Vektorraums fiir (V/U, +, . ) erfiillt? Fill die
Axiome (1), (2) und (5)-(8) folgt aus der Giiltigkeit fiir (V, +, .) so fort die
fiir (V/U, +, . ). Axiom (3) ist fiir (V/U, +, . ) erfiillt mit U =: 0 E V /U und
(4) mit -(x + U) := (-x) + U. Also wird V/U auf diese Weise tatsiichlich
zu einem Vektorraum iiber TIC
4.4 QUOTIENTENVEKTORRAUME 99

Bemerkung und Definition: Sei Vein Vektorraum iiber IK, U c V


ein Untervektorraum. Sei V /U die Menge aller "Nebenklassen"
x+U:= {x+u I U E U} von U, also V/U = {x+U I x E V}.
Dann sind durch
(x + U) + (y + U) (x + y) + U
:=
A(x + U) := AX + U
fiir alle x, y E V, A ElK, eine Addition und eine Skalarmultiplikation
fiir V/U wohldefiniert, durch die V/U zu einem Vektorraum iiber IK
wird. V /U heiJ3t der Quotientenvektorraum V nach U.
Beweis: Da U Untervektorraum von V ist, ist x + U genau dann
gleich x' + U, wenn x - x' E U gilt. Daraus ergibt sich leicht die
Wohldefiniertheit der Verkniipfungen. Setzt man U =: 0 E V/U und
-(x+ U) := (-x) + U, so ergibt sich die Giiltigkeit der acht Vektorrau-
maxiome fiir (V/U, +, .) sofort aus der Giiltigkeit der entsprechenden
Axiome fiir V. Also ist (V/U, +, .) ein Vektorraum. D

Unmittelbar aus der Definition folgt, dass V/V nur aus einem Element be-
steht, denn x + V = V fill alle x E V. Also ist V/V der nur aus der
Null bestehende Vektorraum. V / {O} dagegen ist "beinahe dasselbe" wie V:
Durch V --+ V / {O}, V f-+ {v} ist ein Isomorphismus von V nach V / {O}
erkHirt. - Urn nicht bei allen Uberlegungen auf die Definition zuriickgreifen
zu miissen ist es zweckmaJ3ig, sich zwei oder drei Grundtatsachen iiber Quo-
tientenvektorraume direkt zu merken. .

Notiz 1: Die Abbildung 7r : V --+ V /U, V f-+ V + U ist ein Epi-


morphismus mit Kern 7r = U. Man nennt 7r die "Projektion" der
Quotientenbildung.

Notiz 2: 1st V endlichdimensional, so gilt:


dim V/U = dim V - dimU.
100 Kapitel4: Lineare Abbildungen

Lemma: 1st f : V --t W irgendeine lineare Abbildung mit U C Kern f ,


so gibt es genau eine lineare Abbildung
<p: V/U --t W,
fiir die das Diagramm

f
V ------+ W

1 ,
, /'1'
,,"

V/U
kommutativ ist.

BEWEIS: Ein solches <p miisste jedenfalls <p(v + U) = f(v) erfiillen, deshalb
kann es nicht mehrere geben. Andererseits ist <p durch <p( v + U) := f (v)
auch wohldefiniert, denn f (v) = f (v + a) fiir a E U folgt aus der Linearitat
von fund U C Kern f. Schlief3lich folgt die Linearitat von <p aus der von
f, da <p((v+U)+(v' +U)) = f(v+v') = f(v)+ f(v') = <p(v+U)+<p(v' +U),
analogfiir <p('\(v+U)). D

Wozu braucht man Quotientenvektorraume? In der Linearen Algebra I


braucht man sie nicht unbedingt. In der hoheren Mathematik, besonders in
Algebra und Topologie, kommen Quotientenbildungen aber so haufig vor,
dass ich Sie gerne schon einmal mit einer bekannt machen wollte. Von
einem allgemeineren Standpunkt aus gesehen, ist die in dem Lemma aus-
gesprochene so genannte universelle Eigenschajt dcr Quotientenbildung das
Entscheidende: der Quotient V /U ist der natiirliche Lebensraum fiir die auf
V definierten Homomorphismen, welche auf U verschwinden. - Es ware
ganz begreifiich, wenn Ihnen gefiihlsmaJ3ig V und U einstweilen angenehmer
vorkommen als V/U: ein Vektorraum, dessen Vektoren Teilmengen von V
sind? Sie werden aber spater U, V und V/U als gleichberechtigte Partner
("Faser, Totalraum und Basis") in einer geometrischen oder algebraischen
Situation anzusehen lernen, ja oft sogar V /U als das eigentlich niitzliche
Objekt erleben, fiir das V und U nur Vorlaufer und Rohmaterial waren.
4.5 DREHUNGEN UND SPIEGELUNGEN 101

4.5 DREHUNGEN UND SPIEGELUNGEN DES JR.2

EIN ABSCHNITT FUR PHYSIKER

Wir betrachten den euklidischen Vektorraum ]R2 und legen uns die Frage
vor: Welche linearen Abbildungen ]R2 --+]R2 respektieren das Skalarprodukt,
d.h. fUr welche 2 x 2-Matrizen A gilt
(Ax, Ay) = (x, y)
fill alle x, y E ]R2? Wir wollen diese Frage zunachst einmal durch ganz
anschauliche Uberlegungen zu beantworten suchen. Die Spalten sind ja be-
kanntlich die Bilder der Einheitsvektoren. Betrachten wir also die beiden
Einheitsvektoren el = (1,0) und e2 = (0,1). Der Bildvektor von el, also
Ael , muss ebenfalls die Lange 1 haben, denn
II Ael 112= (Ael, Ael) = (el' el) = 1.

(cos 'P, sin 'P)

Den Winkel, den el iiberstreicht, wenn wir es im mathematisch positiven


Sinne nach Ael fiihren (also entgegen dem Uhrzeigersinn) nennen wir 'P.
Dann ist Ael als Spalte geschrieben:

( c~s 'P)
Slll'P

Also wissen wir schon, wie die erste Spalte von A aussehen muss ,

A = (c~s'P
Slll'P
*
*
) .
102 Kapitel 4: Lineare Abbildungen

Was geschieht nun mit e2? Wieder muss II AC2 11= 1, und auBerdem muss
(AC2, ACl) = (C2' Cl) = 0 sein, also AC2 steht senkrecht auf ACI. Deshalb
kommen nur die beiden Moglichkeiten in Frage:

l. Fall

Der Winkel, den AC2 mit Cl bildet, ist also entweder cp + 7r /2 oder cp - 7r /2.
Danun

cos(cp + 2) = - smcp
7r •

7r •
cos(cp- 2) =smcp
7r
sin(cp + 2) = coscp
• 7r
sm( cp - -) = - cos cp
2
gilt (hier muss ich an Ihre Schulkenntnisse appellieren), so ergibt sich fur die
zweite Spalte
( -Sincp) bzw. ( - sin cp )
cos cp ,
cos cp
so dass wir also als Antwort auf unsere Frage erhalten haben:

Satz: Eine 2x2-Matrix A hat die Eigenschaft (Ax, Ay)=(x, y) fur alle
x, y E ]R2 genau daIm, wenn es ein cp gibt, so dass entweder
- Sincp)
cos cp
oder aber A= (c~s
smcp
cp sincp )
- cos cp

gilt.
4.5 DREHUNGEN UND SPIEGELUNGEN 103

Ohne nur anschauliehe Argumente, jedoch Kenntnisse uber Sinus und Co-
sinus voraussetzend, ergibt sich das so: Sei A = (aij) und (Ax,Ay! = (x,y!
fur aIle x, y E ]R2. Wegen

gibt es reelIe Zahlen 'P und 1/; mit a11 = cos 'P, a2l = sin 'P, a22 = cos 1/; ,
a12 = - sin1/;. Dann liefert (Ael' Ae2! = a11 a12 + a2l a22 = 0, dass

- cos 'P sin1/; + sin'P cos 1/; = sin( 'P - 1/)) = 0,

also 'P = 1/; + kn fur geeignetes k E Z. Also gilt entweder cOS'P = cos 1/;
und sin'P = sin 1/; (niimlieh wenn k gerade ist) oder cos'P = - cos 1/; und
sin'P = - sin1/; (niimlich wenn k ungerade ist). Daraus folgt, dass A von
der angegebenen Gestalt sein muss. Dass umgekehrt jede solche Matrix das
Skalarprodukt respektiert, rechnet man sofort nacho Damit ist dann der Satz
bewiesen. 0

Definition: Die Menge alIer in dem obigen Satz genannten reellen


2 x 2-Matrizen bezeiehnet man mit 0(2) (von "orthogonal"), die Teil-
menge
{A E 0(2) I A = (cos'P - sin 'P ) ]R
sin 'P COS'P ,'PE}

wird mit 80(2) bezeiehnet.

Wenn man sich uberlegt, wohin cine gegebene Matrix A E 0(2) die beiden
Einheitsvektoren el, e2 abbildet und daran denkt, dass aus x = Alel + A2e2
auch Ax = A1Ael + A2Ae2 folgt, so kann man sieh leicht den geometrischen
Mechanismus von A klarmachen. Dabei ergibt sieh, dass zwischen den Ma-
trizen aus 80(2) und denen aus 0(2) ,,80(2) ein wesentlieher Unterschied
besteht.
104 Kapitel4: Lineare Abbildungen

Geometrisch, namlich als Abbildung JR2 -+ JR2, beschreibt die Matrix

A= (C?sCP -sincp) E SO(2)


smcp coscp
eine Drehung urn den Nullpunkt, und zwar die Drehung im mathema-
tisch positiven Sinne urn den Winkel cp,

wahrend die Matrix

B = (C?sCP sin cp) E 0(2) " SO(2)


smcp - cos cp
die Spiegelung an der Achse, die gegen JR x 0 mit dem Winkel cp/2
geneigt ist:

,,
,,

'18//
/

/
/

/
// el
:1C2
c;:s=;J

Bitte beachten Sie, dass wir durch


JR 2 -----+ JR 2

(Xl)
X2
-----+ (C?SCP
sm cp
- sincp)
cos cp
(Xl)
X2

eine Drehung des ganzen JR2 urn den Winkel cp bewirken, nicht etwa nur
4.5 DREHUNGEN UND SPIEGELUNGEN 105

eine Drehung des "Koordinatensystems" und Angabe der Koordinaten des


Punktes x "in" dem neuen Koordinatensystem. Das ist ein ganz anderer
Vorgang! Und iiber den wollen wir doch auch noch kurz sprechen.
Das "Einfiihren neuer Koordinatensysteme" kann man, glaube ich, am
besten verstehen, wenn der Vektorraum, dem man ein neues Koordinatensy-
stem geben will, gar kein altes Koordinatensystem zu haben braucht, durch
das man verwirrt werden konnte. Sei Vein 2-dimensionaler reeller Vektor-
raum. Ein "Koordinatensystem" ist durch eine Basis (VI, V2) gegeben. Man
nennt L(V1) und L(V2) die Koordinatenachsen. Dann haben wir den ka-
nonischen Basis-Isomorphismus 1>:]R2 -=. V, (A1,A2) f-+ A1V1 +A2V2. Die
Umkehrabbildung
1>-1 : V ~ ]R2

V f------+ (AI, A2), wobei V = A1V1 + A2V2,


ist dann gerade die Abbildung, die jedem Vektor seine K oordinaten zuordnet.
L(V1)

- Wenn nun, als Spezialfall, V = ]R2 ist und die Basis des "neuen Koor-
dinatensystems" aus der kanonischen Basis durch Drehen urn den Winkel 'P
entsteht, dann ist 1> : ]R2 -=,]R2 die durch

( c~s 'P - sin'P)


Slll'P cos 'P
gegebene Abbildung (wie wir vorhin gerade iiberlegt hatten), und wenn man
sich fiir 1>-1 : ]R2 --+]R2 interessiert, also jedem Vektor aus ]R2 seine "neuen
Koordinaten" zuordnen will, dann ist diese Abbildung gerade durch die Ma-
trix gegeben, die der Drehung urn -'P entspricht, also
COS 'P
( sin'P) .
- sin'P cos 'P
106 Kapitel4: Lineare Abbildungen

4.6 HISTORISCHE NOTIZ

Es gibt ja die versehiedensten Motive fur das Studium der Mathematik. Ohne
Kommentar lasse ieh hier Christian Wolff zu Wort kommen.

~at~emattfd}e5 morrebc.
LEXICON, ~arinnen
a
~b babe btt) mir 1)on :1ugtnb auff
tine uncrfdttlid)t ~egirrbe Nt
SIDal)rl)eit gett>lji 3u trfenntn unb
anberen ~u bienen gefunben. ~a,
ber aIlS id) btl) 3eiten 1)ernal)m,
bit ill aHen ~l)ej(en bee IDlatl)ema, ba9 man btr \)Ratl)emattd tint
unge3l1.1ti/feltt ~el1.1ilibeit ~ufd)reibe, unb abron,
ttef u~ltd)en ~un«· ~ilrter tlerlid) bie ~Igtbra ailS cint rid)tigt .ftun~ 1)er,
erfldrtt, borgene SIDa/)r/)titm ~ucnttltdtn ru/)mt;j)inge'
unb gmaUllbtn fo 1)ielfdltigen unb l1.1itbrigm \)Rei>
gur j)i«orte nungen btr ~eltbrtcn in anberen(!3ad)cn,bie Gur
0" \)Ratl)tmatidnid)tgtl)orm, unb aull ben ~eten
IDlatl)ematinten ~jmllfd)afften ~irnberung, bie barinnen 1)orgenommen l1.1erben,
mir aUd) baaumabl genung bt'grtiffid) l1.1ar, bali
bienlid)e ~ad)rid)ten ert~eiltt,
11.<1> efS auffer berl)Rat!)ematid an tiner l.l6Ui9en ~t,
bie ®d)rifften tt>iji!)citmCl~tntbeilfS feble; (!;rl1.1edte bel) mir
rooirbe rollltft'ie llu~gefU~ret au nnben, bie ~egitrbt Aur ?marl)eit tine 2iebe our \)Rat!)t.
.ng,~~m oob,n: matid unb fonberlid) eine 2u~ 3ur ~Igebra, um
Uuff fatgebt"m I}ttQIU! aegcbln 3ufe!)en, tt>afS bod) bie Urfad)t ret), l1.1arum man
~on in ber l)Ratl)ematid fo grofft ~el1.1ili!)eit I)abe,
~l)riffian ~oIffen, unb nad) l1.1alS 1)or ~tgeln man bafrlbff btndt,
l1.1enn man 1)erborgenc SIDal)rl)titm aum mot<
~. ~. j). uub P. P. O. fd)rine bringeR tt>iU, bamit id) mid) beffo /id)mr
Seipatg, bemli!)cn mod)te aud) auffcr ber !mat!)tmaticf
~el) 30~. \lriebrid) (!;lebitfd)en\1 feci. ~obn. btrgleid)tn ~ett>ip~cit au fud)tn unb bit iBal)r,
1716. Il 3 ~ti'

4.7 LITERATURHINWEIS

Zunaehst weitere Hinweise fur eventuelle Halmos- bzw. Kowalsky-Leser:


(a) Halmos: Der bisher in der Vorlesung behandelte Stoff entspricht in
Halmos' Bueh den Paragraphen 1-12, ferner §§ 21, 22 und §§ 32-37. Soviel
ich sehe kann man diese Paragraphen aueh ruhig in dieser Reihenfolge lesen,
die dazwisehen liegenden einstweilen weglassend.
4.8 UBUNGEN 107

(b) Kowalsky: Der in unserem § 4 neu hinzugekommene Stoff ist in Ko-


walsky's Buch auf den Seiten 49-58 behandelt. Kowalsky schreibt L(X, Y)
statt Rom(X, Y). Die "elementaren Umformungen", die bei K. schon im § 7
vorkommen, erscheinen in unserem Skriptum erst in § 5.

Die Rorer einer Vorlesung wollen vom Dozenten natiirlich gern ein Buch ge-
nannt haben, das leicht zu lesen ist, mit der Vorlesung gut zusammenpasst
und wenig kostet. Diese Bedingungen erfiillte damals wohl das B.I. Roch-
schultaschenbuch [12] von R. Lingenberg am besten.
Einige Abweichungen: Vektoren werden in [12] mit deutschen Buchsta-
ben bezeichnet, lineare Riille durch < ... > oder, wenn es sich urn die li-
neare Riille eines linear unabhangigen n-tupels von Vektoren handelt, mit
« ... ». N atiirlich ist das Skriptum [12] mit insgesamt 156 Seiten viel
knapper geschrieben als das vorliegende.
Reute ware hier natiirlich vor allem der eigentliche Renner unter den seit-
her erschienenen deutschsprachigen Biichern iiber lineare Algebra zu nennen,
namlich die Lineare Algebra [3] von Gerd Fischer.

4.8 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 4.1: Seien V und W Vektorraume iiber lK, sei (VI, ... , V n ) eine
Basis von V und f : V --+ W eine lineare Abbildung. Man beweise: fist
injektiv ¢=} (J (VI), ... , f (V n )) ist linear unabhangig.

AUFGABE 4.2: Sei lK ein Korper und

der Vektorraum der Polynome in einer Unbestimmten t von einem Grade


::; n mit Koeffizienten in lK. 1st f(t) E P n und g(t) E Pm, dann ist das
Produkt f(t)g(t) E P n + m in der naheliegenden Weise erklart. Wenn es Sie
108 Kapitel4: Lineare Abbildungen

start, dass Sie nicht so recht wissen was eine "Unbestimmte" ist und die
ganze Definition von P n fUr Sie deshalb etwas in der Luft hiingt (und ich
hoffe eigentlich, dass sie das start!), dann konnen Sie P n auch einfach als
]]{n+1 definieren, ein Polynom also als (Ao, .. . ,An), Ai ElK, und konnen das
Produkt durch

, ... , 2:: AiJ1j)


i+j=n+m
definieren. Aber nachdem Sie nun wissen, wie man durch eine einfache
Formalisierung der "Unbestimmtheit des Begriffes Unbestimmte" entgehen
kann, konnen Sie auch die obige, sehr bequeme Sprech- und Schreibweise
annehmen.
Wir Hennen (1, t, ... , tn) die kanonische Basis von P n . Man bestimme
die Matrix der linearen Abbildung P3 -7 P 4 , f(t) 1-+ (2 - t)f(t) bezuglich
der kanonischen Basen.

AUFGABE 4.3: Unter einem endlichen Kettenkomplex C versteht man eine


Folge von Homomorphismen

O ~
fn+1 IT fn
v n -------+ h V h
. . . -------+ 1 ------+
Vi0-------+
fo 0

mit der Eigenschaft J; 0 fi+l = 0, d.h. Bild fi+1 C Kern fi. Der Quotienten-
vektorraum
Hi(C) := KernfdBildJ;+1
hei£t die i-te Homologie des Komplexes. Man beweise: Sind alle Yi endlich-
dimensional, so gilt

2:: (- 1r dim Hi (C)


n n
2:: (-1 )i dim Yi =
i=O i=O

DIE *-AUFGABE:

AUFGABE 4*: In dem kommutativen Diagramm

f4 is h h
V4 ---+ V3 ---+ V2 ---+ VI ---+ Vo

surj ·1 '1'4 ":' 1'1'3 1'1'2 ":' 1'1'1 in j ·1 '1'0


W4 ---+ W3 ---+ W2 ---+ WI ---+ Wo
94 93 92 91
4.8 UBUNGEN 109

von Vektorriiumen und Homomorphismen seien die beiden Zeilen "exakt",


d.h. Kern!; = Bildfi+l und Kerngi = Bildgi+l fur i = 1,2,3. Die "senk-
rechten" Homomorphismen mogen die im Diagramm angegebenen Eigen-
schaften haben, also 'P4 surjektiv, 'P3 und 'Pl 1somorphismen, 'Po injektiv.
Man zeige: Unter dies en Umstiinden muss 'P2 ein 1somorphismus sein.

UBUNGEN FUR PHYSIKER:

AUFGABE 4.1P: = Aufgabe 4.1 (fur Mathematiker)

AUFGABE 4.2P: Sei (V, (-, .)) ein euklidischer Vektorraum und f: V --> V
eine lineare Abbildung. Man beweise: Genau dann gilt U(x), f(y)) = (x, y)
fUr alle X,Y E V, wenn Ilf(x)11 = Ilxll fUr alle x E V.

AUFGABE 4.3P: Sei (V, (-, .)) ein zweidimensionaler euklidischer Vektor-
raum, f : V --> V eine orthogonalc linearc Abbildung, d.h. (f(x), f(y)
= (x, y) fur alle x, y E V. Es gebe ferner ein Va E V, Va -I- 0 mit f(vo) = Va,
es sei jedoch f -I- 1d v . Man beweise: 1st (el' e2) eine orthonormale Basis
von V, dann ist die Matrix des Endomorphismus f bezuglich dieser Basis
ein Element von 0(2) " 80(2).
5. Matrizenrechnung

l~ j lb ~?j
§ x@ II W
~ © ;{ 12
+ lLf X~ 1

5.1 MULTIPLIKATION

Wir werden uns gleich ausftihrlich mit der Multiplikation von Matrizen
beschiiJtigen. Zuvor aber ein Wort tiber die Addition und Skalarmultipli-
all ... a' n )
kation in M(m x n, lK). Statt A = ( a~, ... a~n kann man auch kurz
A = (aij)i=l, .. ,m;j=l, .. ,n schreiben oder, wenn auf andere Weise gesagt
wurde, wieviele Zeilen und Spalten A hat, auch einfach A = (aij). Addition
und Skalarmultiplikation geschehen nun elementweise, wie bei r-tupeln:

Definition: Sind (aij) , (b ij ) E M (m x n, lK) und A ElK, so ist


(aij) + (b ij ):= (aij + bij ) E M(mx n,lK) und
A(aij):= (Aaij) E M(m x n,lK).

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_5,


© Springer-Verlag Berlin Heidelberg 2008
5.1 MULTIPLIKATION 111

Notiz 1: M(m x n, OC) wird dadurch zu einem Vektorraum tiber oc.


Da sich dieser Vektorraum offenbar nur durch die Schreibweise der Ele-
mente (im Rechteck statt in einer langen Zeile) von oc mn unterscheidet,
hat er die Dimension mn.
N otiz 2: Die Abbildung M (m x n, OC) --+ Hom(OC n , OC m ), die dadurch
definiert ist, dass manjeder Matrix A die lineare Abbildung OCn --+ OC m ,
X f-+ Ax zuordnet, ist ein Isomorphismus der Vektorraume.

Nun zur Multiplikation. Alles, was hier tiber Matrizen gesagt wird, hat zwei
Seiten: eine begriffiiche und eine mechanisch-rechnerische, je nachdem ob
wir die Matrizen als lineare Abbildungen OCn --+ OC m oder als Zahlenschemata
auffassen. Dieser doppelten Bedeutung wollen wir auch in der Notation durch
eine "Doppelbedeutung" Rechnung tragen:

Vereinbarung: Ftir Matrizen A E M (m x n, OC) bezeichnen wir die


zugehorige lineare Abbildung OC n --+ OC m mit demselben Symbol, also
A : OCn --+ OC m .

N attirlich soll Sie das nicht auf den Gedanken bringen, eine Matrix und
eine lineare Abbildung seien tiberhaupt dasselbe! Aber so naive Warnungen
brauche ich wohl nicht auszusprechen, Sie haben ja schon einige Erfahrung
im Umgang mit Doppelbedeutungen. -
Ein Entschluss zu einer Doppelbedeutung in der Notation bringt gewisse
Verpflichtungen mit sich, es dtirfen ja keine Verwechslungen entstehen. Zum
Beispiel: Wenn wir fUr A, B E M(mxn, OC) die Abbildung A+B : OCn --+ OC m
betrachten: ist das dann die Matrizensumme als lineare Abbildung aufgefasst
oder ist es die Summe der linearen Abbildungen A, B : OC n --+ OC m ? Nun, das
ist eben beide Male ganz dieselbe Abbildung, deshalb besteht hier gar keine
Verwechslungsgefahr, und fUr )'A, ). E OC, gilt das namliche. Ebenso verhalt
es sich nun bei der zu definierenden Matrizenmultiplikation: Das Produkt
zweier Matrizen soll als lineare Abbildung gerade die Hintereinanderanwen-
dung sein:

Was bedeutet das fUr das Ausrechnen der Matrix AB als Zahlenschema?
Nun, zunachst sehen wir einmal, dass man nicht beliebige Matrizen mitein-
ander multiplizieren kann, denn

OC n ~ OC S , OC m ~ OCr
112 Kapitel 5: Matrizenrechnung

kann man ja nur zu AB zusammensetzen, wenn s = mist. Das Matrizen-


produkt definiert also eine Abbildung
M(r x m, lK) x M(m x n, lK) ----+ M(r x n, lK).
Urn nun die Formel fUr AB zu bestimmen, muss man einfach das Bild des
j-ten kanonischen Einheitsvektors berechnen:
ej f--------> Be j ----+ AB ej ,

das ist dann die j-te Spalte von AB:

(vergl. Abschnitt 4.2). Also ist L~n=l aikbkj das i-te Element der j-ten
Spalte von AB. Wir wollen das als Definition des Produkts im Haupttext
verwenden und die Bedeutung als Hintereinanderanwendung linearer Abbil-
dungen notieren:

Definition: DasProdukt AB zweierMatrizen A = (aik) E M(rxm,lK)


und B = (b kj ) E M(m x n,lK) wird durch
m
AB := ( L aikbkj) ~=l,
k=l
.
.. ,r
E M(r x n, lK)
)=l,··,n

definiert.

Notiz 3: Wie man leicht ausrechnen kann, entspricht das Matrizen-


produkt genau dem Zusammensetzen der zugehorigen linearen Abbil-
dungen:

lKn ~ lKm

ist kommutativ.
5.1 MULTIPLIKATION 113

Insbesondere birgt unsere Bezeichnungsvereinbarung keine Verwechs-


lungsgefahr infolge der scheinbar unterschiedlichen Definitionen von
AB als Matrizenprodukt und AB als Zusammensetzung linearer Ab-
bildungen.
Dasselbe gilt auch, wenn wir die Homomorphismen von end-
lich-dimensionalen Vektorriiumen vermoge Basen in diesen Riiumen
durch Matrizen beschreiben: Sind V, W und Y Vektorriiume und
(Vl, ... ,Vn )' (Wl, ... ,Wm ) und (Yl, ... ,Yr) jeweils Basen, so gilt we-
gen der Kommutativitiit des Diagramms
f 9
V ----+ W ----+ Y

~r ~r ~r
B A
OC n ----+ OC m ----+ ocr,
in dem die senkrechten Pfeile die Basisisomorphismen, A und B also
die vermoge dieser Basen zu 9 und f gehorigen Matrizen sind, dass
die Matrix AB gerade dem Homomorphismus gf entspricht.

Es ist gut, sich fill die explizite Berechnung emes Matrizenproduktes das
folgende Schema zu merken:

A B

§ 1
j

Es soll andeuten, dass man das Element, das im Produkt in der i-ten Zeile
und j-ten Spalte steht, mittels der i-ten Zeile von A und der j-ten Spalte
von B berechnet - und zwar durch "Ubereinanderlegen - Multiplizieren
- Aufsummieren", wie es in Abschnitt 4.2 schon bei der Anwendung einer
m x n-Matrix auf ein als Spalte geschriebenes n-tupel vorgekommen war. Fur
die j-te Spalte von AB spielt also von B nur die j-te Spaltc eine Rolle. 1st
z.B. dic j-tc Spalte von B Null, so auch die j-te Spalte von AB. Ahnliches
gilt fur die Zeilen von AB und A. - Noch etwas kann man sich an diesern
114 Kapitel 5: Matrizenrechnung

Schema gut merken: dass namlich die Zeilen von A genau so lang wie die
Spalten von B sein miissen, wenn es moglich sein solI, das Produkt AB zu
bilden, d.h. A muss genau so viele Spalten wie B Zeilen haben.

Notiz 4: Die Matrizenmultiplikation ist assoziativ: (AB)C = A(BC)


und beziiglich der Addition distributiv: A(B + C) = AB + AC und
(A + B)C = AC + BC. Das ergibt sich sofort aus den entsprechenden
Eigenschaften linearer A b bildungen.

Das sind Eigenschaften, die man von einer "Multiplikation" auch erwarten
wiirde. Bei der Matrizenmultiplikation gibt es aber auch ganz schwerwie-
gende Abweichungen von den Rechenregeln, die wir fiir die Multiplikation
von Zahlen kennen, namlich

Bemerkung 1: Die Matrizenmultiplikation ist nicht kommutativ und


nicht "nullteilerfrei", d.h.
(1) Esgibt (quadratische) Matrizen A, B mit AB~BA
(2) Es gibt Matrizen A ~ 0, B ~ 0 mit AB = O.

Beweis: Wahlen wir etwa A = (~ ~), B = (~ ~), so haben wir


gleich ein Beispiel fiir beide Phanomene:

AB = (~ U0 ~) = (~ ~) = 0,
und
BA = (~ ~) (~ ~) = (~ ~) ~ AB
Definition: Eine Matrix A heiBt invertierbar, wenn die zugehorige li-
neare Abbildung ein Isomorphismus ist. Die Matrix der Umkehrabbil-
dung heiBt dann die zu A inverse Matrixund wird mit A-I bezeichnet.

Eine ganze Reihe von Aussagen iiber die inverse Matrix konnen wir auf-
grund unserer bisherigen Kenntnisse iiber lineare Abbildungen einfach aus
dem Armel schiitteln:
5.1 MULTIPLIKATION 115

Bemerkungen 2:
(1) Jede invertierbare Matrix A ist quadratisch, das heiBt
A E M (n x n, lK) .
(2) Sind A, B E M(n x n, lK) und bezeichnet En oder kurz
E E M(n x n, lK) die Matrix der Identitiit lKn --> lKn, d.h.

so ist B genau dann die zu A inverse Matrix, wenn sowohl AB


als auch BA gleich E sind.
Sogar eine dieser beiden Bedingungen geniigt schon:
(3) Sind A, B E M(n x n, lK), also quadratisch, so ist
AB=E~BA=E~B=A-l.

(4) 1st A E M(nxn, lK) invertierbar, so auch A-I, und (A-l )-1 = A.
E M(n x n, lK) invertierbar, so auch AB und es gilt
(5) Sind A, B
(AB)-1 =B- 1A- 1 .

BEWEISE: Invertierbare Matrizen sind quadratisch, weil lKn ;p lK m fiir


n =I m. Behauptung (2) folgt aus Aufgabe 2 des § 1, (4) und (5) sind wohl
sowieso klar:
B A
lKn <=Z lK n <=Z lKn.
B-1 A-1

Bleibt (3). Dass aus B = A-I die anderen beiden Aussagen folgen, wissen
wir schon. Sei also zuniichst AB = E. Dann ist A surjektiv, denn fiir
jedes y E lK n ist A(By) = Ey = y. Nun wenden wir Notiz 5 yom Ende
des Abschnitts 4.1 an: Danach ist A sogar bijektiv! Also existiert A-I, wir
miissen nur noch priifen, ob wirklich A-I = B gilt. Dazu wiirde es geniigen,
wenn wir auBer AB = E auch BA = E wiissten. Es ist aber

Damit haben wir AB = E ~ BA = E gezeigt, und (3) folgt aus (2). 0

Was wir aber nicht so aus dem Armel schiitteln konnen, ist eine Methode
zur expliziten Berechnung von A-I. Darauf werden wir in dem Abschnitt
5.5 zuriickkommen.
116 Kapitel 5: Matrizenrechnung

5.2 RANG EINER MATRIX

In 4.1 hatten wir den Rang einer linearen Abbildung f als dim Bild f de-
finiert. Entsprechend versteht man also auch unter dem Rang einer Matrix
A E M (m x n, OC) die Dimension des Bildes von A : OC n ---> OC m . Diese
Zahl ist gleichzeitig die maximale Lange eines linear unabhangigen r-tupels
von Spalten von A, denn die Spalten, als Bilder der kanonischen Einheits-
vektoren, erzeugen Bild A, nach dem Basiserganzungssatz gibt es also eine
Basis von Bild A, die aus Spalten von A besteht, und ein langeres linear
unabhangiges r-tupel von Spalten kann es dann nicht geben. (Warum?)

Definition: 1st A E M (m x n, OC) , so nennt man


rgA := dim Bild(A : OCn ----> OC m )
den Rang von A. Die Maximalzahl linear unabhangiger Spalten nennt
man den Spaltenrang von A, die Maximalzahllinear unabhangiger Zei-
len den Zeilenrang von A.
N otiz: rg A = Spaltenrang A.
Satz: Spaltenrang A = Zeilenrang A.
BEWEIS: Wir wollen (fiir die Zwecke dieses Beweises) eine Spalte
oder Zeile linear iiberfiiissig nennen, wenn sie aus den iibrigen Spal-
ten bzw. Zeilen linearkombiniert werden kann. Verkleinert man eine
Matrix durch Weglassen einer linear iiberfiiissigen Spalte, so andert
sich natiirlich der Spaltenrang nicht. Wir werden jetzt zeigen, dass
sich dabei auch der Zeilenrang nicht andert. - Angenommen, in ei-
ner Matrix A sei die j-te Spalte linear iiberfiiissig. Dann ist nicht
nur fUr jede Zeile, sondern auch fiir jede Linearkombination von Zei-
len die j-te Komponente linear iiberfiiissig (im eindimensionalen Vek-
torraum OC!). Das ist klar: mit denselben Koeffizienten, mit denen
man die j-te Spalte aus den iibrigen kombiniert, kombiniert man
auch das j-te Element in einer Zeilenkombination aus den iibrigen
Elementen. - Daraus folgt, dass eine Linearkombination von Zeilen
von A genau dann Null ist, wenn die entsprechende Zeilenkombi-
nation der durch Weglassen der j-ten Spalte verkleinerten Matrix
Null ist. Deshalb haben A und die durch Weglassen einer linear
iiberfiiissigen Spalte entstehende Matrix dieselbe Maximalzahl linear
unabhangiger Zeilen, also denselben Zeilenrang. Das war es, was wir
5.3 ELEMENTARE UMFORMUNGEN 117

zunachst beweisen wollten. ~ Ebenso gilt natiirlich, dass das Weglas-


sen einer linear iiberfiiissigen Zeile den Spaltenrang nicht andert (den
Zeilenrang ja sowieso nicht). Nun verkleinern wir unsere Matrix A
durch sukzessives Weglassen linear iiberfiiissiger Zeilen und Spalten so-
lange, bis das nicht mehr geht. Dann erhalten wir eine (vielleicht viel
kleinere) Matrix A', die aber noch denselben Zeilenrang und denselben
Spaltenrang wie A hat. ~ Dass A' keine linear iiberfiiissigen Zeilen
und Spalten hat bedeutet, dass sowohl die Zeilen als auch die Spalten
von A' linear unabhangig sind: Zeilenrang = Zeilenzahl, Spaltenrang
= Spaltenzahl. Dann muss aber A' quadratisch sein, da die Lange eines
linear unabhangigen r-tupels von Vektoren die Dimension des Raumes
nicht iibersteigen kann! Also ist Zeilenrang = Spaltenrang. D

Mit einem anderen Beweis, der etwas mehr Vorbereitung erfordert, dann aber
vielleicht iibersichtlicher ist, beschaftigt sich die Ubungsaufgabe 11.1 im § 11.

5.3 ELEMENTARE UMFORMUNGEN

Die vielleicht praktisch wichtigsten Techniken in der Matrizenrechnung sind


die so genannten "elementaren Zeilenumformungen" und "elementaren Spal-
tenumformungen". In diesem Paragraphen brauchen wir sie zur Rangbestim-
mung, im nachsten zur Determinantenberechnung und in § 7 zur Lasung von
linear en G leichungssystemen.

Definition: Man unterscheidet drei Typen elementarer Zeilenumfor-


mungen einer Matrix A E M(m x n, lK), namlich
Typ 1: Vertauschung zweier Zeilen,
Typ 2: Multiplikation einer Zeile mit einem Skalar Ai- 0, A E lK,
Typ 3: Addition eines beliebigen Vielfachen einer Zeile zu einer an-
deren (nicht derselben!) Zeilc.
Analog sind elementare Spaltenumformungen definiert.
118 Kapitel 5: Matrizenrechnung

Nach einer Serie elementarer Umformungen mag eine Matrix kaum wieder-
zuerkennen sein, beobachten Sie zum Beispiel, wie die folgende 3 x 3-Matrix
durch Umformungen vom Typ 3 gleichsam "abgeriiumt" wird:

Trotz dieser starken Veriinderungen bleibt ein wichtiges Merkmal der Ma-
trix erhalten, niimlich der Rang:

Bemerkung 1: Elementare Umformungen iindern den Rang einer Ma-


trix nicht.

BEWEIS: Elementare Zeilenumformungen iindern offenbar die lineare Hiille


der Zeilen nicht, also erst recht nicht den Zeilenrang, der ja die Dimension
dieser linearen Hiille ist. Entsprechend iindern element are Spaltenumformun-
gen den Spaltenrang nicht. Wegen Zeilenrang = Spaltenrang = Rang folgt
daraus die Richtigkeit der Bemerkung. 0

Diese Bemerkung fiihrt nun zu einem wunderbar einfachen Verfahren zur


Bestimmung des Ranges einer Matrix. Es gibt niimlich Matrizen, denen man
ihren Rang einfach ansehen kann, da braucht man gar nicht mehr zu rechnen.
Ich gebe einmal einen Typ von solchen Matrizen an, Sie konnen sich dann
leicht noch andere ausdenken. Zuvor noch eine Bezeichnung:

Definition: Die Elemente aii in einer Matrix heiBen die Hauptdiagona-


lelemente, von den anderen Elementen aij sagt man, sie stiinden "ober-
halb" bzw. "unterhalb" der Hauptdiagonalen, je nachdem ob i < j oder
i > jist.

Bemerkung 2: 1st A eine Matrix mit m Zeilen, bei der die erst en T
Hauptdiagonalelemente von Null verschieden, die letzten m - T Zeilen
sowie alle Elemente unterhalb der Hauptdiagonalen jedoch gleich Null
sind, so ist rg A = T.
5.3 ELEMENTARE UMFORMUNGEN 119

an
o
*

(Ein * in einer solchen schematischen Angabe einer Matrix bedeutet stets,


dass es fUr die betreffende Aussage keine Rolle spielt, welche Elemente in
dem durch den * bezeichneten Bereich stehen).

BEWEIS DER BEMERKUNG 2: Weglassen der letzten m ~ r Zeilen iindert


den Rang nicht, da Null-Zeilen immer linear iiberfiiissig sind, und die erst en
r Zeilen sind linear unabhiingig, denn aus
AI' (Erste Zeile) +A2' (Zweite Zeile) + ... + Ar . (r-te Zeile) = 0
folgt zuniichst Al = 0 wegen an oF 0, dann A2 = 0 wegen a22 oF 0 usw.
Also ist Zeilenrang = r. D

Das Verfahren zur Rangbestimmung besteht nun einfach darin, eine gegebene
Matrix A durch element are Umformung in die in Bemerkung 2 angegebene
Gestalt zu bringen.

Verfahren zur Bestimmung des Ranges einer Matrix: Sei


A E M(m x n, lK) bereits in der links angegebenen Gestalt:

an an

0
* 0
*
ak-l,k-l ak-l,k-l
a~k *
0 B 0
0 B'

wobei an oF 0, ... ,ak-l,k-l oF 0 gilt und Beine (m~k+ 1) x (n~k+ 1)-


Matrix ist. Ist B = 0, so ist rg A = k ~ 1. Ist B oF 0, so gibt cs also
120 Kapitel 5: Matrizenrechnung

ein ai.i =I- 0 mit i 2: k und j 2: k. Vertauscht man in A notigenfalls die


i-te und k-te Zeile und dann die j-te und k-te Spalte, so erhiilt man
eine Matrix A' mit a~k =I- 0, die durch element are Zeilenumformungen
vom Typ (3) in die rechte Gestalt gebracht werden kann.

Beginnt man dieses Verfahren bei k = 0 (was heiDen soIl, dass die
Matrix zu Beginn keinerlei besondere Bedingungen erfiillen muss ) und
setzt es solange fort, bis die Restmatrix, die zuletzt mit B' bezeichnet
wurde, Null ist bzw. mangels Zeilen oder Spalten nicht mehr vorhanden
ist, so erhiilt man eine Matrix, die die in Bemerkung 2 angegebene
Gestalt hat, deren Rang man also kennt, und der Rang dieser Matrix
ist dann der gesuchte Rang der vorgegebenen Matrix A.

5.4 TEST

(1) Sei A E M(2 x 3,lK), BE M(2 x 3,lK). Dann ist

D A+BEM(2x3,lK)
D A + B E M (4 x 6, lK)
D A+B E M(4 x 9,lK)

(2) Fill welche der folgenden 3 x 3-Matrizen A gilt AB = BA = B fUr aIle


BE M(3 x 3,lK):
5.4 TEST 121
(3) Fur A E M(m x n, lK) gilt:
D A hat m Zeilen und n Spalten
D A hat n Zeilen und m Spalten
D Die Zeilen von A haben die Lange m und die Spalten von A haben
die Lange n

(4) Welches der folgenden Produkte von Matrizen ist Null:

D C1 -1)
-1 (2-2-33)
D (-1-1 11) 2 33)e
D C1 -1)(22)
-1 3 3
(5) Welche der folgenden Eigenschaften hat die Matrizenmultiplikation
nicht:
D Assoziativitat D Kommutativitat D Distributivitat

(6) Fur A E M(n x n, lK) gilt:


D rg A = n ===? A ist invertierbar, aber es gibt invertierbare A mit
rgA oF n
D A ist invertierbar ===? rg A = n, aber es gibt A mit rg A = n, die
nicht invertierbar sind
D rg A = n ~ A invertierbar

(7) Welcher der folgenden Ubergange kann nicht durch eine element are
U mformung geschehen sein:

D
Cn-- un
D
C~) -- c n
D
(~ n-- n ( -1~
122 Kapitel 5: Matrizenrechnung

(8) Sei A E M(m x n, lK), B E M(n x m, lK) also lKn -1lK m !!., lKn. Sei
BA = En (= IdKn als lineare Abbildung). Dann gilt:

Om;:; n, A injektiv, B surjektiv


o m ~ n, A surjektiv, B injektiv
o m = n, A und B invertierbar (bijektiv)

(9) Der Rang der reellen Matrix

ist

o 1 o 3 o 5

(10) FUr A E M(m x n, lK) mit m ~ n gilt stets

o rgA ~ m o m ~ rgA ~ n o n ~ rgA

5.5 WIE INVERTIERT MAN EINE MATRIX?

EIN ABSCHNITT FUR MATHEMATIKER

Es gibt ein schones Rezept zur Matrizeninversion, aber es ist zu empfehlen,


nicht das Rezept auswendig zu lernen, sondern sich dessen Begrundung zu
merken. Denn wenn Sie an die Begrundung auch nur eine vage Erinnerung
behalten, haben Sie eine Chance, das Rezept zu rekonstruieren, aber wenn
Sie ein Detail des Rezepts vergessen, dann ist es eben weg. Also: Denken wir
noch einmal an die Multiplikation von Matrizen. Nehmen wir ruhig gleich
n x n-Matrizen, nur diese kommen ja fur die Inversion in Frage.
5.5 WIE INVERTIERT MAN EINE MATRIX? 123

Was geschieht mit der Produktmatrix AB, wenn man in A (nicht in B!)
zwei Zeilen vertauscht?

~
I
I
I
\
'....

1
A B

Nun, offenbar werden in der Produktmatrix eben dieselben zwei Zeilen ver-
tauscht, denn die i-te Zeile des Produkts entsteht ja aus der i-ten Zeile des
ersten Faktors in der bekannten Weise durch "Kombination" mit den Spal-
ten des zweiten. Ebenso bewirkt die Multiplikation der i-ten Zeile von A
mit >. E lK dasselbe im Produkt, und auch die Addition eines Vielfachen der
i-ten Zeile zur j-ten Zeile iibertriigt sich auf das Produkt. Man darf also
notieren:

Notiz 1: Gilt fill drei Matrizen A, B, G E M(n x n, lK) die Gleichung


AB = G und iiberfiihrt man A und G durch die gleichen elementaren
Zeilenumformungen in Matrizen A' und G', so gilt auch A' B = G' .

Da nun AA- I = E gilt, so heiBt die Nutzanwendung dieser Notiz auf


unser Problem
Notiz 2: Erhiilt man E durch elementare Zeilenumformungen aus A,
so verwandeln dieselben Zeilenumformungen die Matrix E in A-I.

Man muss sich nun also nur noch iiberlegen, wie man eine gegebene invertier-
bare Matrix A durch Zeilenumformungen in die Einheitsmatrix verwandelt.
Dazu noch einmal kurz zur Erinnerung die Typen:
(1) Vertauschung,
(2) Multiplikation,
(3) Addition eines Vielfachen.
124 Kapitel 5: Matrizenrechnung

Verfahren zur Matrizeninversion: Sei A eine nxn-Matrix iiber lK.


Wir versuehen zuerst, falls notig, dureh Vertausehung von Zeilen den
"ersten" Koeffizienten von Null versehieden zu maehen. 1st das nieht
moglieh, so ist die erste Spalte Null und A deshalb nieht invertierbar.
Sei also all i- o. Dann wird all dureh Multiplikation der ersten Zeile
mit A := l/all zu 1. Sodann addieren wir geeignete Vielfaehe der
ersten Zeile zu den anderen Zeilen, urn A in die Form

1
o

zu bringen. Damit ist der erste Sehritt abgesehlossen. - 1m zweiten


Sehritt sueht man die Form

1 0
0 1
0

0 0

zu erreiehen. Dazu wollen wir zuniiehst a22 i- 0, falls das nieht ohnehin
schon gilt, dureh eine Zeilenvertausehung bewirken, ohne jedoeh dabei
die erste Zeile einzubeziehen. 1st das nieht moglieh, so ist die zweite
Spalte ein Vielfaehes der ersten, die Matrix deshalb nieht invertierbar.
Sei also a22 i- o. Dann bringt man die Matrix dureh Multiplikation
in der zweiten Zeile mit 1/a22 und dureh Addition geeigneter Vielfa-
eher der zweiten Zeile zu den iibrigen Zeilen in die gewiinsehte Form,
und der zweite Sehritt ist abgesehlossen. - Entweder iiberfiihrt nun
dieses Verfahren die Matrix A naeh n Sehritten in die Einheitsmatrix
E, oder A stellt sieh als nieht invertierbar heraus. 1st A jedoeh in-
vertierbar, so erhiilt man die gesuehte Matrix A-I, indem man aIle
die elementaren Zeilenumforrnungen, die A in E iiberfiihrt haben, in
derselben Reihenfolge auf E anwendet. Dies wird zweekmiiBig parallel
zu der Verwandlung A ---+ E gesehehen.
5.5 WIE INVERTIERT MAN EINE MATRIX? 125

Es ist wohl nicht ni:itig, den k-ten Schritt genau zu beschreiben. 1st A wirk-
lich invertierbar, dann sichert die lineare Unabhangigkeit der Spalten nach
k - 1 Schritten die Existenz eines Elements aik # 0 mit i 2: k und man
verfahrt dann analog. - Ein Beispiel sollte ich wohl angeben, zum Nach-
rechnen und Vergleichen. Ein solches numerisches Beispiel zu "lesen" ware
nicht sehr sinnvoll.

o 1
1 2
E M(4 x 4, IR)
-1 o
o o
Wir rechnen:

1 o o
Anfang
2 1 o
o o 1
o o o

1. Schritt
o
1
-1
o
1
1
o
-1
~)
l'
1
(-i 0
-1
o
1
o
o
o
o
1
o

~) (-i
o 1 o o
2. Schritt
1 1 1 o
o 1 1 ' -1 1 1
o -1 1 -1 o o

~ -~) ( ~
o -1 -1
3. Schritt ( O~l 1
o 1 l' -1
o
1
-1
1
o o 2 -2 1 1

o o -1
1
o
o
1
~J (-~ -~
0' 0 ~
-2
1

1
2
o o 1 -1 ~ 1
2

Ergebnis: Die Matrix A ist invertierbar und es gilt:


126 Kapitel 5: Matrizenrechnung

-1 -1

-~)
1 1
-1 2 -2
A-I = ( 02 1 1
2 2
1 1
-1 2 2 2

Stimmt's?

5.6 MEHR VBER DREHUNGEN UND SPIEGELUNGEN

EIN ABSCHNITT FUR PHYSIKER

Fur rp E JR fuhren wir als abkurzende Bezeichnungen ein:

A<p := (c~s rp - sin rp) E 80(2)


smrp cos rp

sin rp) E 0(2) " 80(2).


- cosrp

Die Abbildung A<p : JR2 ---+ JR2 ist also die Drehung um den Winkel rp und
B<p die Spiegelung an der gegen JR x 0 um rp/2 geneigten Achse.

Wie verhalten sich nun diese Matrizen bei Multiplikation, d.h. was sind
A<pA,p, A<pB,p, B,pA<p und B<pB,p? Bevor wir rechnen, uberlegen wir uns
jeweils anhand der geometrischen Interpretationen, was herauskommen muss.

Drehen wir erst um den Winkel 1/J, dann um den Winkel rp, so haben wir
insgesamt um den Winkel rp + 1/J gedreht:
5.6 MEHR uBlm OREHUNGEN UNO SPIEGELUNGEN 127

Also musste AcpA,p = Acp+,p sein, und so ist es auch:

- Sin1/J) =
cos 1/J

COS cp cos 1/J - sin cp sin 1/J - cos cp sin 1/J - sin cp cos 1/J )
(
sin cp cos 1/J + cos cp sin 1/J - sin cp sin 1/J + cos cp cos 1/J

cos(cp + 1/J) - sin( cp + '1/)) )


(
sin( cp + 1/J) cos(cp + 1/J) ,

wobei wir, wie auch im folgenden, die "Additionstheoreme" fUr Sinus und
Cosinus, niimlich

sin( cp + 1/J) = sin cp cos 1/J + cos cp sin 1/J


cos (cp + '1/)) = cos cp cos 1/J - sin cp sin '1/)

als bekannt vorausgesetzt haben. - Nun betrachten wir AcpB,p, d.h. wir
spiegeln erst an der Achse mit dem Winkel 1/J /2 und drehen dann urn den
Winkel cp. Was geschieht mit den kanonischen Einheitsvektoren? (Spalten!):
128 Kapite15: Matrizenrechnung

Geometrisch ergibt sich somit A<pB</) = B<p+1jJ. Wer's nicht glaubt, rechne es
aus (Matrizenmultiplikation):

( c~s ip ~ sin ip) (c~s 1/J sin 1/J )


sm ip cos ip sm 1/J ~ cos 1/)

( COS ip cos 1/J ~ sin ip sin 1/J cos ip sin 1/J + sin ip cos 1/J )
~ip=1/J+=ip~1/J ~ip~1/J~=ip=1/J

( cos(ip + 1/J) sin(ip + 1/J)) = B


sin( ip + 1/J) ~ cos( ip + 1/J) <pH·

Wenn wir aber erst urn den Winkel ip drehen und dann an 1/J /2 spiegeln,

(
COS 1/J sin 1/J) (cos ip ~ Sinip) =
sin 1/J ~ cos1/J sinip cos ip

COS 1/J cos ip + sin 1/J sin ip ~ cos 1/J sin ip + sin 1/J cos ip )
(
sin 1/J cos ip ~ cos 1/J sin ip ~ sin 1/J sin ip ~ cos ip cos 1/J

cos(1/J ~ ip) sin(1/J ~ ip)) = B


( cos( 1/) ~ ip)
sin( 1/) ~ ip) ~ 1jJ-<p.

Da im allgemeinen B<p+1jJ f= B1jJ_<p ist, haben wir hier weitere Beispiele von
der Nichtkommutativitiit der Matrizenmultiplikation: A<pB1jJ f= B1jJA<p, so-
fern nur die mit dem Winkel (1/J + ip) /2 gegen IR x 0 geneigte Achse eine
andere ist als die mit dem Winkel (1/J ~ ip) /2 geneigte. - Als letztes wollen
wir sehen, was geschieht, wenn wir zwei Spiegelungen hintereinander anwen-
den: Was ist B<pB1jJ?
5.6 MEHR VBER DREHUNGEN UND SPIEGELUNGEN 129

Sin'l/J)
- cos'l/J -

COS cp cos 'l/J + sin cp sin 'l/J cos cp sin 'l/J - sin cp cos 'l/J )
(
sin cp cos 'l/J - cos cp sin 'l/J sin cp sin 'l/J + cos cp cos 'l/J

cos(cp -1/)) - sin( cp - 'l/J)) = A


(
sin(cp-'l/J) cos(cp-'l/J) <p-'lj;.

Was soll man nun von dies en Formeln im Kopf behalten? Ich schlage vor:
Man soll A<pA'lj; = A<p+'lj; wissen und auBerdem ganz generell fUr Matrizen in
0(2) :

Drehung nach Drehung ist Drehung,


Drehung nach Spiegelung ist Spiegelung,
Spiegelung nach Drehung ist Spiegelung,
Spiegelung nach Spiegelung ist Drehung.

U m jeweils welche Winkel, iiberlegt man sich am besten von Fall zu Fall
neu.
5.7 HISTORISCHE NOTIZ 131

5.7 HISTORISCHE N OTIZ

Was schiitzen Sie wohl, wie alt die Matrizenrechnung ist? 10 Jahre, 100
Jahre, 1000 Jahre? Schon den alten Agyptern bekannt?
Die Matrizenrechnung gibt es seit anderthalb Jahrhunderten, als ihr
Begriinder gilt der englische Mathematiker Arthur Cayley. 1m Jahre 1855
erschienen in Crelles Journal mehrere Noten von Cayley, und in einer davon
wurde zum erstenmal die Bezeichnung Matrizen fiir rechteckige (insbesondere
dort fiir quadratische) Zahlenschemata eingefiihrt:
No.3.
Remarques sur la notation des fonctions algebriques.

Je me sers de la notation
1 u, (3, y,
, (3',
u, y',
a", (3", rTf,

pour representer ce que j'appelle une rnafrice; savoir un systerne de quan-


tites rangees en forme de carre, mais d'ailleurs tout II fait independ(mtes Cje ne
parle pas ici des matrices rectangulaires). CeUe notation me parait tres
commode pour la tMorie des equations lineaire.. ; j'ecris par ex:
(g,r;, 1; ..• ) = u, (3, y "'~I(X'Y'Z ... )
a', {3', r' .. .
u", (3", y" ... \
..........
Drei Jahre spiiter erschien Cayleys grundlegende Arbeit iiber Matrizenrech-
nung. Natiirlich "kannte" man rechteckige Zahlenschemata schon lange
(man denke etwa an Albrecht Diirers Magisches Quadrat, das sich auf seinem
Kupferstich "Melancholie" aus dem Jahre 1514 findet). Aber was hei£t denn
hier "kennen"? Ein rechteckiges Zahlenschema kann sich jeder hinschrei-
ben, der Zahlen kennt. Die mit der Einfiihrung der Matrizen verbundene
gedankliche Leistung Cayleys besteht vor allem darin, dass er als erster die
Matrizen als mathematische Objekte in ihrem eigenen Recht auffasste, mit
denen man algebraische Operationen vornehmen kann. Die leichte Hand, mit
der wir heute neue mathematische Objekte definieren ("Ein Vektorraum ist
ein Tripel (V, +, . ), bestehend aus ... "), haben wir noch nicht lange, und
vorher waren eben Zahlen und geometrische Figuren im Wesentlichen die
einzigen Gegen~tiinde der Mathematik. Vor dies em Hintergrund muss man
die Einfiihrung der Matrizen sehen.
132 Kapitel 5: Matrizenrechnung

5.8 LITERATURHINWEIS

Die Matrizenrechnung ist gewiss sehr wichtig. Trotzdem hielte ich es fill
leicht ubertrieben, wenn Sie jetzt ein gauzes Buch uber Matrizenrechnung
durcharbeiten wollten. Deshalb wird die Brauchbarkeit eines Buches uber
Matrizenrechnung fur Sie davon abhangen, ob es sich zum Nachschlagen
eignet, d.h. ob Sie es auch verstehen konnen, wenn Sie es in der Mitte auf-
schlagen. Unter diesem Gesichtspunkt leicht zuganglich durfte fur Sie das BI-
Taschenbuch [1] von Aitken sein. Einige Bezeichnungsunterschiede: Deter-
minanten (die wir in § 6 behandeln werden), bezeichnet Aitken, wie ubrigens
einige andere Autoren auch, statt mit "det" mit senkrechten Strichen I·· .1.
Die transponierte Matrix einer Matrix A wird mit A' (bei uns in § 6 mit
At) bezeichnet. Au£erdem mochte ich Sie auf zwei Sonderbarkeiten der Ait-
ken'schen Schreibweise aufmerksam machen: Zur Platzersparnis schreibt der
Autor {alj"'" anj} statt

(Verwechslungsgefahr mit unserer Mengenklammer { ... } i), und au£erdem


schreibt er diese Spalte auch als a(j und eine Zeile [bil , ... , bin] als b(i'
(Vergleiche Seite 17 des Buches).
Sehr schon ist das kleine Buch [8] von R. Kochendorffer uber Determi-
nanten und Matrizcn. Kochendorffer schreibt ebenfalls IAI statt det A und
bezeichnet Vektoren mit deutschen Buchstaben.

5.9 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 5.1: Es ist nicht so einfach, zu diesem Paragraphen "begriffiiche"


Aufgaben zu stellen. Begriffiich ist dieser Paragraph ja ganz arm gewesen:
Zusammensetzung und Rang linearer Abbildungen, inverse Abbildung zu
einem Isomorphismus sind uns aus § 4 ja schon bekannt gcwcscn, im § 5 ging
5.9 UBUNGEN 133

es mehr urn das konkrete Rechnen. Sie mussen eben auch einmal wirklich
eine Rangbestimmung durchgefuhrt und eine Matrix invertiert haben. - Die
einzige begrifRiche Aufgabe, die ich doch stellen will, hat auch nur scheinbar
mit Matrizen zu tun. Niimlich: Man beweise: Fur A, B E M(n x n, lK) gilt
rg A + rg B - n ~ rg AB ~ min(rg A, rg B). - Die Dimensionsformel fur
lineare Abbildungen ist hierbei sehr nutzlich.

AUFGABE 5.2: Sei (VI, V2, V3, V4) linear unabhiingig in dem reellen Vektor-
raum V. Man zeige: 1st

WI V2 - V3 + 2V4
W2 VI + 2V2 - v3 - V4
W3 -VI + V2 + V3 + V4,

so ist (WI, W2, W3) linear unabhiingig. - Hierbei hilft nun kein theoretisches
Argument wie in Aufgabe 3.1, hier kommt es auf die Koeffizienten wirklich
an, man muss rechnen. Vorschlag: Zuerst beweisen, dass die lineare Un-
abhiingigkeit von (WI,W2,W3) gleichbedeutend damit ist, dass eine gewisse
reelle Matrix den Rang 3 hat, und dann mit Hilfe des Rangbestimmungsver-
fahrens den Rang dieser Matrix berechnen.

AUFGABE 5.3: Man bestimme, fUr welche )., E IR die reelle Matrix

)., o
1 o
)., 1
o ).,

invertierbar ist und berechne fur diese )., die inverse Matrix A.\I.

DIE *-AUFGABE:

AUFGABE 5*: Sei Vein endlichdimensionaler Vektorraum uber lK und


f :V -+ Vein Endomorphismus. Man beweise: Hat f bezuglich jeder
Basis von V dieselbe Matrix A, d.h. A = <I> -1 f <I> fur alle Isomorphismen
<I> : lK n -=, V, so gibt es ein )., E lK mit f = ).,Id v .
134 Kapitel 5: Matrizenrechnung

UBUNGEN FUR PHYSIKER:

AUFGABE 5.1P: Man gebe zwei Matrizen A, B E M(6 x 6, lR) explizit an,
die folgende Eigenschaften haben: rg A = rg B = 3, AB = O. (Mit der
"Angabe" solcher Matrizen muss naturlich der Beweis (soweit nicht selbst-
verstandlich) verbunden sein, dass A und B die genannten Eigenschaften
wirklich haben!)

AUFGABE 5.2P: = Aufgabe 5.2 (fur Mathematiker)

AUFGABE 5.3P: Es sei


H t := (sin 27ft
cos 27ft
sin%t)
cos %t
fur t E lR.

Man bestimme fur jedes t mit 0 ~ t < 12 den Rang der Matrix H t und
gebe insbesondere an, fUr wieviele dieser t der Rang gleich Eins ist. Bei der
Lasung dieser Aufgabe durfen Sie 1hre Schul- oder sonstigen Kenntnisse uber
die elementaren Eigenschaften der Funktionen sin: lR --+ lR und cos: lR --+ lR
ohne weiteren Kommentar verwenden.
6. Die Determinante

6.1 DIE DETERMINANTE

Jede quadratische Matrix A iiber IK hat eine so genannte "Determinante"


det A ElK. Wir brauchen den Begriff der Determinanten in der linearen Al-
gebra zuniichst fiir einige (mehr theoretische) Uberlegungen im Zusammen-
hang mit der Matrizeninversion und der Lasung linearer Gleichungssysteme.
Spiiter werden wir der Determinante bei der Eigenwerttheorie wieder begeg-
nen. Auf3erhalb der linearen Algebra ist die Determinante zum Beispiel fiir
die Integrationstheorie fiir Funktionen mehrerer Variabler wichtig, weil sie
eng mit dem Begriff des Volumens zusammenhiingt. Damit wollen wir uns
jetzt aber nicht beschiiftigen, sondern wir wollen die Determinante einfach
als einen Gegenstand der Matrizenrechnung betrachten und lernen, was die
Determinante ist und wie man damit umgeht.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_6,


© Springer-Verlag Berlin Heidelberg 2008
136 Kapitel 6: Die Determinante

Satz 1 und dadurch ermoglichte Definition: Es gibt genau eine


Abbildung det : M(n x n, lK) -> lK mit den folgenden Eigenschaften:
(i) det ist linear in jeder Zeile
(ii) 1st der (Zeilen- ) Rang kleiner als n, so ist det A = 0
(iii) detE = 1.
Diese Abbildung det : M(n x n, lK) -> lK heiBt die Determinante, die
Zahl det A E lK heiBt die Determinante von A.

Unter "linear in jeder Zeile" ist dabei folgendes zu verstehen: Sind in


einem Matrix-Schema aIle Zeilen bis auf eine fest vorgegeben, so liefert
jedes Element x E lKn eine Ergiinzung zu einer vollen n x n-Matrix
Ax: man braucht nur dieses Element als die fehlende Zeile einzutragen.
Die Abbildung det : M(n x n, lK) -> lK ist linear in dieser Zeile, wenn
die durch x f--+ det Ax gegebene Abbildung lK n -> lK linear ist.

Diese Definition ist naturlich keine praktische Anleitung zum Ausrechnen


der Determinante einer Matrix. Falls Sie noch die Vorstellung haben, das
Wichtigste, was man uber ein mathematisches Objekt wissen muss, sei eine
"Formel" zum "Ausrechnen", dann befinden Sie sich zwar in Gesellschaft der
meisten gebildeten Laien, aber als angehende Mathematiker sollten Sie sol-
che Vorurteile allmiihlich uber Bord werfen. In den meisten mathematischen
Zusammenhiingen, in denen Sic mit Determinanten in Beruhrung kommen,
handelt es sich eben nicht darum, die Determinante einer bestimmten Ma-
trix auf zwei Stellen hinter dem Komma auszurechnen, sondern darum, die
Eigenschaften der gesamten Abbildung det : M (n x n, lK) -> lK zu kennen.
Das solI aber nicht heiBen, man brauche gar nicht zu wissen, wie man
eine Determinante ausrechnet. Das werden wir noch ausfUhrlich besprechen!
Aber auch die konkreten Berechnungsmethoden versteht man erst, wenn man
mit den allgemeinen Eigenschaften der Determinantenabbildung schon ver-
traut ist.

BEWEIS VON SATZ 1. (a) Beweis der Eindeutigkeit: Wenn det und det'
zwei Abbildungen mit den Eigenschaften (i)-(iii) sind, dann gilt jedenfalls
dct A = det' A fur aIle Matrizen mit rgA < n, wegen (ii). Die Strategie des
Beweises besteht nun darin, die Matrizen A mit rgA = n durch elementare
U mformungen in E zu verwandeln und zu studieren, wie det und ebenso
det' infolge (i) und (ii) auf element are Umformungen reagieren, urn dann aus
det E = det' E, was ja wegen (iii) gilt, auf det A = det' A ruckschlieBen zu
6.1 DIE DETERMINANTE 137

konnen. Dazu dient der folgende Hilfssatz, der auch auBerhalb des Beweises
sehr nutzlich ist.

Hilfssatz: Sei det : M(n x n, lK) --> lK eine Abbildung mit den Eigen-
schaften (i) und (ii). Dann gilt:
(1) Verwandelt man die Matrix A durch Vertauschen zweier Zeilen
in eine Matrix A', so gilt det A' = - det A.
(2) Verwandelt man die Matrix A durch Multiplikation einer Zeile
mit A ElKin eine Matrix A', so gilt det A' = A det A.
(3) Verwandelt man die Matrix A durch Addition eines Vielfachen
einer Zeile zu einer anderen Zeile in cine Matrix A', so gilt
det A = det A' .

BEWEIS DES HILFSSATZES: Die Behauptung (2) folgt direkt aus der Linea-
ritiit von det in den Zeilen.
Zu (3): Zuniichst bilden wir einmal aus A die Matrix A", in dem wir das
Vielfache der einen Zeile nicht zu der anderen Zeile addieren, sondern indem
wir diese andere Zeile durch das bewusste Vielfache ersetzen. Dann ist das
n-tupel der Zeilen von A" nicht linear unabhiingig, also rg A" kleiner als n,
also det A" = O. Aus der Linearitiit in den Zeilen (hier: in der "anderen"
Zeile) folgt dann det A' = det A + det A" = det A . D
Zu (1): Seien die i-te und die j-te die beiden zu vertauschenden Zeilen.
Addiert man in A zur j-ten Zeile die i-te, so bekommt man nach (3) eine
Matrix Al mit det A = det A 1 . Addiert man in A' zur j-ten Zeile die i-
te, so erhiilt man nach (3) eine Matrix A~ mit det A' = det A~. Die so
gebildeten Matrizen Al und A~ unterscheiden sich dann nur in der i-ten
Zeile: in der j-ten steht bei beiden die Summe der i-ten und j-ten Zeile von
A. Wegen der Linearitiit in der i-ten Zeile ist dann det Al + det A~ gleich
der Determinante jener Matrix B, die sowohl in der i-ten als auch in der
j-ten Zeile die Summe der i-ten und j-ten Zeile von A stehen hat. Also
rg B < n, also det Al + det A~ = det A + det A' = 0, also det A = - det A' .
D

Damit ist nun der Hilfssatz bewiesen, und wir fahren im Beweis der Eindeu-
tigkeitsaussage des Satzes 1 fort. Als Folgerung aus dem Hilfssatz erhalten
wir: Wenn det und det ' zwei Abbildungen mit den Eigenschaften (i) und (ii)
sind und die Matrix B aus der Matrix A durch elementare Zeilenumformun-
gen hervorgeht, so gilt, falls det A = det' A ist, auch det B = det' B, und
da man element are Zeilenumformungen auch durch element are Zeilenumfor-
mungen wieder ruckgiingig machen kann, gilt det A = det' A sogar genau
dann, wenn det B = det' B.
138 Kapitel 6: Die Determinante

Angenommen nun, det und det' erflillen (i), (ii) und (iii). Wir wollen
det A = det' A flir aIle A E M (n x n, lK) beweisen. Flir A mit rg A < n ist
das aufgrund von (ii) sowieso klar. Sei also rg A = n. Dann aber lasst sich
A durch element are Zeilenumformungen in E verwandeln, wie die Leser des
Abschnitts 5.5 liber die Matrizeninversion schon wissen. Hier beweisen wir es
nochmals durch Induktion: 1st man mittels elementarer Zeilenumformungen
schon bis daher
1
0

0
*
1

0 B

gekommen (k < n), so kann man durch eventuelle Vertauschung zweier der
letzten n - k Zeilen den Platz (k + 1, k + 1) in der Matrix durch ein von Null
verschiedenes Element besetzen (denn ware die erste Spalte von B Null, so
ware die k+l-te Spalte der ganzen Matrix linear liberfilissig, im Widerspruch
zu Rang = n), und dann kann man mit Umformungen vom Typ (2) und (3)
den Induktionsschritt ausflihren.
Also kann man A in E verwandeln, aus det E = det' E = 1 folgt
det A = det' A, und die Eindeutigkeitsaussage in Satz 1 ist nun bewiesen.

(b) Beweis der Existenz: Die Existenz von det : M(n x n, lK) ---+ lK mit den
Eigenschaften (i)-(iii) beweisen wir durch Induktion. Flir n = 1 ist es klar,
dass det : M (1 xI, lK) ---+ lK, (a) ---+ a diese Eigenschaften hat. Angenommen
nun, wir hatten flir (n - 1) x (n - 1)-Matrizen schon eine Determinante.

Definition: 1st A E M(n x n, lK), so bezeichne Aij die aus A


durch Weglassen der i-ten Zeile und der j-ten Spalte entstehende
(n - 1) x (n - I)-Matrix.

Mit dieser Notation und unserer Induktionsannahme konnen wir jetzt eine
Abbildung det : M(n x n, lK) ---+ lK so erklaren: Wir wahlen ein beliebiges,
aber dann festes j mit 1 ;:;; j ;:;; n und setzen
n
detA:= I:(-I)i+jaijdetAij'
i=l

Wir wollen zeigen, dass diese Abbildung det : M(n x n, lK) ---+ lK die Eigen-
schaften (i)-(iii) hat.
6.1 DIE DETERMINANTE 139

Eigenschaft (i): Urn die Linearitat in der k-ten Zeile von A nachzuweisen,
verifizieren wir, dass jeder einzelne Summand
(-1 r+ j aij det Aij
linear in der k-ten Zeile von A ist. Fur k f i folgt das daraus, daB
det : M(n - 1 x n - 1, lK) ---+ lK
linear in den Zeilen ist, wahrend aij von der k-ten Zeile nicht abhangt:

j-te Spalte

i-te Zeile

k-te Zeile

Fur k = i dagegen hangt A;j von der i-ten Zeile von A nicht ab (die wird
ja gerade weggelassen!), aber nun ist die Abbildung
M(n x n, lK) -------7 lK
A f-----7 aij
linear in der i-ten Zeile von A. Also hat det die Eigenschaft (i). (i)O

Eigenschaft (ii): Sei rg A < n. Dann gibt es eine Zeile, die aus den ande-
ren linearkombiniert werden kann. Daraus folgt, dass man durch element are
Zeilenurnforrnungen vorn Typ (3) diese Zeile zu Null rnachen kann. Eine Ma-
trix mit einer Null-Zeile hat die Determinante Null, das folgt aus der schon
bewiesenen Linearitat. Wir mussten also zeigen, dass element are Zeilenum-
forrnungen vorn Typ (3) die Determinante nicht andern. Wegen der bereits
bewiesenen Linearitat genugt dazu der Nachweis, dass die Deterrninante je-
der Matrix verschwindet, die zwei gleiche Zeilen hat. Diesen Nachweis wollen
wir jetzt fuhren: Wenn A zwei gleiche Zeilen hat, sagen wir die r-te und die
s-te Zeile, dann ist nach Induktionsvoraussetzung
2:( -l)i+j aij det Aij = (-l),,+j aTj det A Tj + (-l)"+j asj det A sj ,
weil alle anderen Summanden nach Induktionsannahme verschwinden, da
die betreffenden Aij zwci gleiche Zeilen haben. Wodurch unterscheiden
sich aber A Tj und Asj? Nun, wenn r und s benachbart sind, dann ist
uberhaupt A Tj = A sj , denn wenn zwei gleiche Zeilen aufeinanderfolgen, so
ist es gleichgultig, ob ich die erste oder die zweite dieser beiden streiche.
140 Kapitel 6: Die Determinante

Liegt zwischen der r-ten und der 8-ten Zeile genau eine andere Zeile, also
Ir - 81 = 2, dann kann man A"j durch eine Zeilenvertauschung in Asj
verwandeln, allgemeiner: Gilt Ir - 81 = t, so kann man A rj durch t - 1
Zeilenvertauschungen in Asj verwandeln. Da nach Induktionsannahme Zei-
lenvertauschung bei (n - 1) x (n - l)-Matrizen zu Vorzeichenwechsel der
Determinante fUhrt, und da wegen der Gleichheit der r-ten und 8-ten Zeile
arj = asj gilt, erhalten wir

detA = (-ly+ja rj detA rj + (-l)s+ja sj detA sj


= (-ly+ j arj det A rj + (-l)s+ja,,)( _ly-s+ 1 det A r ,)
= ((-ly+ j + (-ly+J+l)a rj detArj = O.

(ii) 0

Eigenschaft (iii): Es ist

wobei liij fUr i #- j also Null und fiir i = j Eins ist ("Kronecker-
Symbol"). Deshalb tritt in der Summe det En = I : i ( -1 )i+j liij det Enij
iiberhaupt nur ein einziger von Null verschiedener Summand auf, namlich
(-1 )J+j lij j det E njj , und da Enjj = E n - 1 gilt, ist det En = det E n - 1 = 1.
(iii) 0

Damit ist Satz 1 vollstandig bewiesen.

6.2 BERECHNUNG VON DETERMINANTEN

Lieferte auch der definierende Satz 1 noch keine direkte Berechnungsvor-


schrift fiir die Determinante, so haben wir doch im Verlaufe des Beweises
schon Wege zur konkreten Bestimmung der Determinante kennengelernt, ins-
besondere die "Entwicklungsformel":
6.2 BERECHNUNG VON DETERMINANTEN 141

Sprechweise: Die wiihrend des obigen Beweises gewonnene Bereeh-


nungsformel
n
detA= ~(-l)i+jaijdetAij
i=1

fiir die Determinante einer n x n-Matrix A nennt man die Entwicklung


der Determinante nach der j -ten Spalte.

Da fiir die 1 x 1-Matrizen (a) natiirlich det(a) = a gilt, folgt dureh Entwick-
lung naeh der ersten Spalte fiir 2 x 2-Matrizen die Formel

det (~ ~) = ad - be,

und wenn uns dieses Subtrahieren der iiberkreuz gebildeten Produkte zur Ge-
wohnheit geworden ist, dann reehnen wir aueh die Determinante dreireihiger
Matrizen dureh Entwieklung leieht aus, etwa naeh der erst en Spalte:

wobei dieses Schema natiirlieh den Reehenprozess von

veransehaulichen soIL Aber schon fUr 4 x 4-Matrizen ist die rekursive Be-
reehnung der Determinante naeh der Entwicklungsformel kein okonomisehes
Verfahren mehr. Zwar leistet sie gute Dienste bei maneherlei Uberlegungen,
zum Beispiel zeigt man dureh Induktion und Entwicklung naeh der ersten
Spalte sofort das folgende
142 Kapitel 6: Die Determinante

Lemma: 1st A E M(n x n, lK) eine obere Dreiecksmatrix, d.h. sind


alle Elemente unterhalb der Hauptdiagonalen Null (d.h. aij = 0 fill
i > j),

*
o

so ist die Determinante das Produkt der Hauptdiagonalelemente:


detA = a1l· ... · ann·

Urn aber die Determinante einer groBen wohlgefiillten Matrix numerisch aus-
zurechnen, wird man die Entwicklungsformel nicht direkt anwenden, sondern
die Matrix durch elementare ZeilenumJormungen eben in eine obere Drei-
ecksmatrix verwandeln. Aus dem Hilfssatz in 6.1 wissen wir ja, wie sich die
Determinante dabei verhalt, und wir erhalten als Anwendung des Lemmas:

Berechnungsverfahren fur die Determinante groBer Matrizen:


Urn die Determinante von A E M(n x n, lK) zu bestimmen, verwandle
man A durch elementare Zeilenumformungen der Typen (1) und (3)
(Vertauschungen von Zeilen und Addition von Zeilenvielfachen zu an-
deren Zeilen) in eine obere Dreiecksmatrix

*
o

was ersichtlich stets moglich ist. Hat man dabei r Zeilenvertauschungen


angewandt, so gilt
det A = (-It det A' = (-lr a~l ..... a~n"
6.3 DIE DETERMINANTE DER TRANSPONIERTEN MATRIX 143

6.3 DIE DETERMINANTE DER TRANSPONIERTEN


MATRIX

Ahnlich wie wir im § 5 vom Zeilenrang und vom Spaltenrang gesprochen


haben, miissten wir die durch Satz 1 definierte Determinante eigentlich die
"Zeilendeterminante" nennen, weil in der Bedingung (i) gerade die Zeilen
genannt sind ("linear in jeder Zeile"). Ebenso ki:innten wir eine "Spaltende-
terminante" definieren, die daIm als Abbildung M(n x n, lK) -+ lK linear in
jeder Spalte ware. Es liisst sich aber leicht zeigen, dass die Spaltendetermi-
nante gleich der Zeilendeterminante ist und man deshalb diese Namen gar
nicht einzufiihren braucht und einfach von der Determinante sprechen kann
- ganz ahnlich wie beim Rang. Am best en liisst sich das mit dem Begriff
der "transponierten Matrix" formulieren:

Definition: 1st A = (aij) E M (Tn X n, lK) , so heif3t die durch

- a
a it j '.- ji

definierte Matrix At = (a;j) E M(n x Tn, lK) die transponierte Matrix


von A.

Man erhalt also At aus A, indem man die Zeilen als Spalten schreibt:

,----------, t

usw.
usw.

Man kann sich die Transposition aber auch als "Spiegelung an der Hauptdia-
gonalen" vorstellen, da jedes Matrixelement aij von seincm Platz (i, j) auf
den Spiegelplatz (j, i) versetzt wird:
144 Kapitel 6: Die Determinante

.,.---------; t

'~:~ '~,,"'W
,, "'"

Fasst man die Matrix A E M(m x n, lK) als lineare Abbildung A: lK n ---+ lK m
auf, so ist die 'Iransponierte eine Abbildung in die Gegenrichtung:

lKn ~lKm ,

weil ja At E M(n x m, lK). Damit hiingt auch zusammen, dass die 'Iranspo-
nierte eines Matrizenprodukts (erst B, dann A):

lKr ~ lKm ~ lKn

das Produkt der Transponierten in umgekehrter Reihenfolge

ist (erst At, dann Bt):

Bemerkung: Es gilt (AB)t = Bt At, dcnn fUr C .- AB ist


Cij = I:k aikbkj, cL
also = Cji = I:k ajkbki = I:k b;kaL .

Dass im iibrigen die Transposition linear ist, d.h. (A + B)t = At + Bt und


('\A)t = ,\At erfiillt, und dass (At)t = A gilt, ist klar, und wir brauchen es
nicht hervorzuheben.
In der Sprache der transponierten Matrizen konnen wir nun das Ziel dieses
kleinen Abschnitts so formulieren:

Satz 2: Es gilt detA = detA t fUr alle A E M(n x n,lK).


BEWEIS: Da Zeilenrang und Spaltenrang gleich sind, gilt rgA = rgAt,
und die Einheitsmatrix E ist "symmetrisch", d.h. erfiillt Et = E. We-
gen Satz 1 miissen wir jetzt nur noch zeigen, dass det : M(n xn, lK) ---+ lK
auch linear in den Spalten ist. Aber: dass det linear in der j-ten Spalte
ist, folgt sofort aus der Spaltenentwicklungsformel
det A = I:i (-1) i+j aij det A ij ,
denn Aij hiingt von der j-ten Spalte von A gar nicht ab, diese Spalte
ist ja gerade gestrichen! Damit ist Satz 2 bewiesen. 0
6.4 EINE DETERMINANTENFORMEL FUR DIE INVERSE MATRIX 145

Mit det A = det At erhiilt man aus der Formel fur die Entwicklung nach
einer Spalte die nach einer Zeile:

Notiz: Man kann die Determinante einer n x n-Matrix A auch durch


"Entwicklung nach einer Zeile" berechnen:
n ..
detA= L:(-l)'+J aij detAj'
j=l

Der Unterschied zwischen den Formeln ist mit blof3em Auge kaum zu erken-
nen, er besteht nur darin, dass jetzt uber den Spaltenindex j summiert wird,
wiihrend der Zeilenindex i fest ist: nach der i-ten Zeile wird entwickelt.

6.4 EINE DETERMINANTENFORMEL FUR DIE


INVERSE MATRIX

Die Zeilenentwicklungsformel
n
detA= L:(-l)i+jaijdetAij
j=l

hat eine gewissc A.hnlichkeit mit der Formel fur die Matrizenmultiplikation.
Urn das genauer sagen zu konnen, definieren wir ~u jeder quadratischen Ma-
trix A eine so genannte komplementare Matrix A wie folgt.

Definition: Fur A E M(n x n, lK) werde die durch


aij := (_l)i+j detA ji

gegebenc Matrix A E M(n x n, lK) die zu A komplementar-e Matrix


genannt.
146 Kapitel 6: Die Determinante

Man erhiilt also A aus der Matrix der (n - l)-reihigen Unterdeterminanten


det Aij (erinnere: Aij entsteht aus A durch Streichen der i-ten Zeile und j-
ten Spalte), indem man erstens das Schachbrettvorzeichen (-1) Hj anbringt
und zweitens an der Hauptdiagonalen spiegelt:

det All - det A21 det A31

-detA12 det A22 - det A32

det A13 - det A23 detA33

Nach der Zeilenentwicklungsformel ist dann also det A = L7=1~ai/aji' und


das bedeutet, dass die Diagonalelemente der Produktmatrix AA aIle gleich
det A sind. Was aber steht auBerhalb der Diagonalen? Was ist L7=1 aijajk
fur i of k? Hier sind wir am Kernpunkt der Uberlegung: Die k-te Spalte

der komplementiiren Matrix A merkt es gar nicht, wenn wir die k-te Zeile
von A irgendwie andern, denn ajk = (-1 )J+k det A kj , und A kj entsteht ja
aus A durch Streichen der k-ten Zeile (und j-ten Spalte). Wenn wir also
in A die k-te Zeile durch die i-te ersetzen und die Determinante der so
entstandenen Matrix A' nach der k-ten Zeile entwickeln, so erhalten wir

n
det A' = L aijajk,
j=1

aber det A' ist Null, weil A' zwei gleiche Zeilen hat! Es gilt also
6.5 DETERMINANTE UND MATRIZENPRODUKT 147

Satz 3: 1st A die zu A E M(n x n, JK) komplementiire Matrix, so ist

AA = (detA ... )
detA
und daher gilt fur Matrizen A mit nichtverschwindender Determinante
die Inversenformel
-1 1 ~
A = detAA.

Fur zwei- und dreireihige Matrizen ist das auch ein ganz bequemes Verfahren,
A-I explizit zu bcrcchncn.
Insbesondere: 1st ad - be of 0, so gilt

( a
e
b)
d
-1 1
= ad - be
(d-e

6.5 DETERMINANTE UND MATRIZENPRODUKT

In diesem Abschnitt wollen wir det(AB) = det A . det B fur n x n-Matrizen


beweisen. Daraus wurde insbesondere folgen, dass Matrizen yom Rang n eine
von Null verschiedene Determinante haben, denn nach der Dimensionsformel
dim Kern A + rgA = n ist so eine Matrix invertierbar, und det A of 0 ergiibe
sich aus det A . det A-I = det E = 1. Allerdings wollen wir diese Tatsache
beim Beweis von det(AB) = det A det B benutzen, und deshalb ist es gut,
dass wir sie ja eigentlich auch schon wissen:

Lemma: Eine n x n-Matrix ist genau dann invertierbar, d.h. hat den
Rang n, wenn det A of 0 ist.

BEWEIS: Aus dem definierenden Satz 1 wissen wir schon, daB fUr Matrizcn
mit rgA < n die Determinante verschwindet. Sei also rgA = n. Dann
148 Kapitel 6: Die Determinante

kann man A durch element are Zeilenumformungen in die Einheitsmatrix


verwandeln, das haben wir z.B. beim Beweis des Hilfssatzes in 6.1 gesehen;
die Leser des Abschnittes 5.5 uber die Matrizeninversion wissen es sogar
schon von dort her. Deshalb kann det A nicht Null sein, denn sonst ware
nach dem Hilfssatz in 6.1 auch det E = 1 gleich Null. 0

Satz 4: Fur aIle A, B E M(n x n, IK) gilt:


detAB = detAdetB.

BEWEIS: Wir wollen Satz 4 aus Satz 1 folgern, fast ohne zu rechnen. Dazu
halt en wir B fest und betrachten die Abbildung

f : M(n x n, IK) ---+ IK


A f-------t det AB

Dann ist f linear in den Zeilen von A. Denn wenn ich nur die i-te Zeile von
A andere, dann ruft das in AB ebenfalls nur eine A.nderung der i-ten Zeile
hervor, und bei festgehaltenen ubrigen Zeilen und festgehaltenem B ist

IK n ---+ IKn
(i-te Zeile von A) f-------t (i-te Zeile von AB)

eine lineare Abbildung. Also folgt unsere Zwischenbehauptung aus Eigen-


schaft (i) der Determinante. - 1st rg A < n, so ist auch rg AB < n,
weil Bild AB c Bild A, also ist det AB = f (A) = o. - SchlieBlich gilt
zwar nicht unbedingt f(E) = 1, aber f(E) = det EB = det B, und falls
detB i- 0 ist, so hat die durch A f-+ (detB)-1detAB gegebene Abbildung
die Eigenschaften (i)-(iii) aus Satz 1, also (detB)-1detAB = detA oder
det AB = det A det B. Falls aber det B = 0, so ist nach obigem Lemma
rgB < n, also dim KernB > 0, also erst recht dim Kern AB > 0, da
Kern B C Kern AB, also auch rgAB < n und deshalb det AB = o. Die
Aussage det AB = det A det B ist also in jedem FaIle richtig. 0

Korollar: 1st A invertierbar, d.h. det A i- 0, so ist


det A -1 = (det A) -1,
da detAA- 1 = detAdetA-1 = detE = 1 ist.
6.6 TEST 149

6.6 TEST

(1) Die Determinante ist eine Abbildung


D M(n x n, lK) ---+ M(n - 1 x n - 1, lK), die durch Weglassen der i-ten
Zeile und j-ten Spalte definiert ist
D M(n x n,lK) ---+ lK, die linear in den Zeilen ist , fUr Matrizen mit
nichtmaximalem Rang verschwindet und fUr E den Wert 1 annimmt
D M(n x n, lK) ---+ lKn , die durch eine Linearkombination der Zeilen
gegeben ist, fur A mit rg A < n verschwindet und fur E den Wert
1 annimmt.

(2) Seien A, A'


E M(n x n, lK) und A' gehe aus A durch element are Zei-
lenumformungen hervor. Welche der folgenden Aussagen ist (oder sind)
falsch:
D detA = 0 <¢=} detA' = 0
D detA = detA'
D det A = A det A' fur ein A ElK, A # o.
(3) Welche der folgenden A ussagen ist richtig. Fur A E M (n x n, lK) gilt
D det A = 0 ==? rg A = 0
D det A = 0 <¢=} rg A ~ n - 1
D det A = 0 ==? rg A = n

(4) Welche der folgenden Aussagen ist fur alle A, B, C E M(n x n, lK) und
A E lK richtig:
D det(A+B) = detA+detB
D det AA = A det A
D det((AB)C) = detAdetBdetC

(5) Die Formcl fur die "Entwicklung der Determinante von A = (aij) nach
der i-ten Zeile" heif3t:
n
D det A = 2: (-l)i+j aij det Aij
i=l
n
D detA= 2: (-l)i+jaijdetAji
j=l
n
D detA = 2: (-l)i+jaij detAij
j=l
150 Kapitel 6: Die Determinante

(6) det (i
D 2 D 4 D 6

(7) Sci E E M (n x n, OC) die Einheitsmatrix. Dann ist die transponierte


Matrix Et =

(8) det GD ),
),
),

D 0 D ), D ),3

(9) det ( c~scp - sincp) =


sm cp cos cp

D cos 2cp D 0 D 1

(10) Welche der folgenden Aussagen ist (oder sind) falsch:

D det A = 1 ==? A = E
D det A = 1 ==? A injektiv als Abbildung OC n --+ OC n
D det A = 1 ==? A surjektiv als Abbildung OC n --+ OC n .
6.7 DETERMINANTE EINES ENDOMORPHISMUS 151

6.7 DETERMINANTE EINES ENDOMORPHISMUS

Nicht nur fur n x n- Matrizen, sondern auch fur die Endomorphismen


f : V ---+ V eines n-dimensionalen Vektorraums ist die Determinante
det f E lK
erklart, namlich so: Man nimmt eine Basis (Vl,"" v n ) von V, benutzt den
zugehi::irigen Basisisomorphismus <I>(Vl, ... ,V n ) : Kn ~ V, urn f in eine Matrix
A zu verwandeln:

f
V ----+ V

und setzt det f := det A. Dabei tritt aber wieder einmal ein Wohldefiniert-
heitsproblem auf, denn wir mussen uns doch fragen: andere Basis, andere
Matrix - andere Determinante? Diesen Zweifel behebt das folgende Lemma
und ermi::iglicht dadurch erst die Definition der Determinante eines Endomor-
phismus.

Lemma und Definition: 1st f : V ---+ Vein Endomorphismus ei-


nes n-dimensionalen Vektorraums, und wird f bezuglich einer Basis
(Vl,"" v n ) durch die Matrix A und bczuglich eincr anderen Basis
(v~, ... ,v~) durch die Matrix B beschrieben, so gilt det A = det B =:
detf·

BEWEIS: Wir betrachten noch eine dritte Matrix C, namlich diejenige,


die zwischen den beiden Basisisomorphismen <I> und <I>' vermittelt:

lK n -------+ lKn
C
152 Kapitel 6: Die Determinante

also C := <I>-1 0 <I>'. Dann ist B wegen A = <I>-1 0 f 0 <I> und


B = <I>,-l 0 f 0 <I>' das Matrizenprodukt C- 1 AC:

V~V

]Kn -----+ ]Kn -----+ ]Kn -----+ ]Kn


C A c- 1
und da die Determinante des Produkts gleich dem Produkt der Deter-
minanten ist (vergl. Satz 4 in 6.5), gilt also
det B = det(C- 1 ) det A det C = det A det(C- 1 C) = det A.
o

Fur lineare Abbildungen A : K n ----> K n , die ja durch Matrizen gegeben


sind, behalt det A naturlich seine alte Bedeutung, denn wir ki:innen <I> = 1d
wahlen.
Durch Betrachtung der Diagramme, in denen Endomorphismen und Ma-
trizen durch Basisisomorphismen verbunden sind, kann man leicht von Ei-
genschaften der Matrizendeterminante det : M(n x n, K) ----> K auf Eigen-
schaften der Endomorphismendeterminante det : Hom(V, V) ----> K schlieJ3en.
Als Beispiele notieren wir:

Notiz: 1st Vein n-dimensionaler Vektorraum uber K, so hat die Ab-


bildung Hom(V, V) ----> K, f f-7 det f unter anderem die Eigenschaften:
(1) det f # 0 ~ fist 1somorphismus,
(2) det g f = det g det f ,
(3) detId = 1.

Dass man die Determinante fUr Endomorphismen erklaren kann, ohne dabei
eine Basis besonders auszuzeichnen, ist schon ein Hinweis darauf, dass es auch
einen mehr begriffiichen Zugang zur Determinante gibt, als der hier von uns
begangene, etwas technische Weg uber die Matrizen. Die Determinante ist
"eigentlich" (d.h. in gewissem Sinne) ein Gegenstand der multilinearen Alge-
bra, die Sie erst im zweiten Semester kennenlernen werden. Sie werden dann
ein noch besseres Verstandnis fur den Begriff der Determinante bekommen.
6.8 DIE LEIBNIZSCHE FORMEL 153

Einstweilen wollen wir aber noch eine nutzliche Formel fur die Determinante
von Matrizen kennenlernen.

6.8 DIE LEIBNIZSCHE FORMEL

Die Formel heiJ3t


detA = I: sign(7)a1r(1)· ... · anr(n) ,
TES n

und urn sie zu verstehen, muss man also wissen, was Sn und was sign( 7) fUr
7 E Sn bedeuten solI. Das erstc ist ganz einfach: Sn bczeichnet die Menge
der bijektiven Abbildungen

7: {I, ... , n} ---=--. {I, ... , n},


der so genannten Permutationen der Zahlen von 1 bis n. Wie Sie sicher
wissen, gibt es n! := 1 ·2· .... n solcher Permutationen, denn bei jeder der n
Moglichkeiten, 7(1) festzulegen, behiilt man noch die Auswahl unter (n-l)
Werten fur 7(2), usw. - Etwas mehr ist uber das "Signum" sign(T) = ±1
einer Permutation zu sagen.
Eine Permutation, die weiter nichts tut, als zwei benachbarte Zahlen zu
vertauschen und die ubrigen (n - 2) Zahlen fest zu lassen, wollen wir eine
Nachbarnvertauschung Hennen. Offensichtlich kann man jede Permutation
durch Hintereinanderanwendung endlich vieler Nachbarnvertauschungen her-
beifuhren, manche Bibliotheken weisen ihre Benutzer fiehentlich auf diese
Gefahr hin. Die Hintereinanderanwendung einer geraden Anzahl von Nach-
barnvertauschungen nennt man eine gerade Permutation, die anderen hei£en
ungerade Permutation en, und das Signum einer Permutation ist

{ +1
falls 7 gerade
sign(7) :=
-1 falls 7 ungerade.
Dann ist sign(Id) = + 1, und
sign( iT 07) = sign( iT) • sign( 7),
denn wenn iT und 7 beide gcradc oder beidc ungcradc sind, dann ist iT 0 7
naturlich gerade, und ist nur eines von beiden ungerade, sagen wir iT, so
muss wegen iT = (iT 0 T) 0 7- 1 auch (iT 0 7) ungerade sein, analog fur 7.
154 Kapitel 6: Die Determinante

Diese Uberlegungen sind ja aIle ganz einfach, haben aber auch noch einen
wesentlichen Mangel. Es ist namlich nicht ohne weiteres ersichtlich, ob es
iiberhaupt ungerade Permutationen gibt. ~ Wie? 1st nicht zum Beispiel
eine Nachbarnvertauschung offensichtlich ungerade? ~ 1st schon, aber nicht
offensichtlich. Klarheit schafft erst ein kleiner Trick. Eine Permutation T
wird im Allgemeinen fiir einige Zahlenpaare i < j die Anordnung umkehren:
T(j) < T( i). Wir bezeichnen die Anzahl dieser "Ordnungswidrigkeiten" mit
a(T), also
a(T):= #{(i,j) Ii < j, aber T(j) < T(i)} ,
das Zeichcn # bedeutet "Anzahl". 1st dann (J" eine Nachbarnvertauschung,
so gilt
a((J"OT) =a(T)±l,
denn durch (J" wird entweder eine Ordnungswidrigkeit geschaffen oder eine
aufgehoben. Daraus folgt nun freilich, dass a( T) fUr gerade Permutatio-
nen gerade, fiir ungerade ungerade ist: sign(T) = (_1)a(T) , insbesondere
sind Nachbarnvertauschungen ungerade und ebenso Vertauschungen zweier
nichtbenachbarter Zahlen: liegen namlich r Zahlen zwischen i und j, so ist
die so genannte "Transposition", die nur i und j vertauscht, durch 2r + 1
Nachbarnvertauschungen zu bewirken.
Nun konnen wir die Leibnizformel nicht nur lesen, sondern auch beweisen.
Dazu brauchen wir nur zu zeigen, dass die durch die rcchtc Seite erkliirte
Abbildung M(n x n, K) -+ K die Eigenschaften (i), (ii) und (iii) hat, durch
die nach Satz 1 aus 6.1 die Determinante charakterisiert ist. Ja, wenn wir das
tun, ohne den Determinantenbegriff dabei zu benutzen, so haben wir sogar
einen weiteren Beweis fiir die Existenzaussage in Satz 1 geliefert.
Eigenschaft (i), die Linearitat in den Zeilen, hat offenbar jeder der n!
Summanden, also auch die Summe. Eigenschaft (iii) ist natiirlich auch erfiillt,
denn ist A die Einheitsmatrix, so ist nur ein Summand von Null verschieden,
namlich sign(ld)ol1 ..... 011,11, = 1. Es bleibt also iibrig zu zeigen, dass die
rechte Seite der Leibnizformel verschwindet, sobald der (Zeilen- ) Rang von
A kleiner als n ist. Dazu geniigt es, wie an der analogen Stelle im Beweis
von Satz 1 schon erlautert, dies fill Matrizen A mit zwei gleichen Zeilen zu
beweisen. Seien also die i-te und die j-te Zeile gleich. 1st (J" die i und j
vertauschende Transposition und An die Menge der geraden Permutationen,
so konnen wir die rechte Seite der Leibnizformel als
2:= (sign(T)alT(l)····· anr(n) + sign(T 0 (J")alT<7(l) ..... a n T<7(n))
TEAn

schreiben. Aber alT(u(l)) ..... anT(u(n)) geht aus alT(l) ..... anr(11,) dadurch
hervor, dass man den i-ten Faktor aiT(i) durch aiT(j) und ajT(j) durch ajT(i)
ersetzt. Wegen der Gleichhcit der beiden Zeilen (aik = ajk fiir aIle k) andert
das aber nichts, und die Behauptung folgt aus sign( T 0 (J") = -sign( T) . D
6.10 LITERATURHINWEIS 155

6.9 HISTORISCHE NOTIZ

Wie wenig naheliegend es einst gewesen sein muss, die Matrizen als selbstan-
dige mathematische Gegenstande aufzufassen, geht auch aus der uns heute
vielleicht erstaunenden Tatsache hervor, dass die Theorie der Determinan-
ten wesentlich alter als die der Matrizen selbst ist. Die Determinante ist
von Leibniz im Zusammenhang mit der Losbarkeit von linearen Gleichungs-
systemen erstmals definiert worden, namlich in einem Brief an L'Hospital
vom 28. April 1693. Die Bezeichnung "Determinante" wurde erst von GauB
eingefiihrt. (Disquisitiones arithmeticae, 1801).

6.10 LITERATURHINWEIS

Wenn Sie Bedarf an einer groBen Menge elementarer Ubungsaufgaben mit


Losungen zum Standard-Stoff der linearen Algebra haben, dann ist [l3] fiir
Sie da, der Lineare-Algebra-Band der Schaum's Outline Series, in deutscher
Ubersetzung Schaum Uberblicke/Aufgaben. In dreizehn Kapiteln wird je-
weils erst der Stoff dargeboten, eher knapp und lakonisch, und dann folgt
eine Anzahl, eine Fiille, eine iiberwaltigende Wasserfiut von Aufgaben mit
Losungsbeispielen.
Nach meiner Erfahrung spielt Schaum's Outline Series in unserem Univer-
sitatsunterricht fur Mathematiker keine Rolle und hat eher den Status einer
Art mathematischer Subkultur. Die Serie ist auch fUr einen viel breiteren Be-
nutzerkreis gedacht. Die meisten Aufgaben sind elementare Zahlenbeispiele
fUr die Anwendung von Rezepten, so dass es einem bei fiiichtigem Blattern
richtig schlecht werden kann. Bei niiherem Hinsehen zeigt sich aber, dass
in diesem groBen Aufgabensammelwerk auch viele schone und gar nicht so
triviale Aufgaben enthalten sind, und dass das Ganze geschickt und zielge-
richtet aufgebaut ist.
Ich kann mir verschiedene Benutzergruppen denken, die das Buch gebrau-
chen konnen. Was allerdings ein Studienanfiinger in Mathematik damit ma-
chen solI, ist mir nicht recht klar. Er ertrinkt ja formlich in dem Ubungsma-
terial! Oder sollte er doch genau wissen, was er sucht? Fahndet er etwa nach
156 Kapitel 6: Die Determinante

den Losungen der wochentlich zur Vorlesung gestellten Ubungsaufgaben? -


Ich glaube nicht, daB Sie als Mathematiker dabei oft fUndig werden, und
wenn einmal, dann ist noch die Frage, was es Ihnen nutzt. Besser fahren
Sie mit den offenen und versteckten Losungshinweisen, die Ihre eigenhiindige
Vorlesungsmitschrift enthiilt.

6.11 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 6.1: 1st A E M(n x n, K), so nennt man jede Matrix, die durch
(eventuelles) Weglassen von Zeilen und Spalten entsteht, eine Teilmatrix
von A. Man beweise: Die grosste Zeilenzahl, die bei denjenigen quadra-
tischen Teilmatrizen von A auftritt, deren Determinante nicht verschwindet,
ist gleich dem Rang von A.
Wenn Sie sich den Beweis des Satzes: "Zeilenrang = Spaltenrang" in
Abschnitt 5.2 noch einmal ansehen und an die Beziehung zwischen Rang
und Determinante denken (Lemma in 6.5) werden Sie sicher schnell auf die
Beweisidee kommen.

AUFGABE 6.2: Man berechne die Determinante der reellen n x n-Matrix

Die Entwicklungsformel fUr die Determinante, etwa nach der erst en


Spalte, liefert den Induktionsschritt.

AUFGABE 6.3: Es bezeichne M(n x n, Z) die Menge der n x n-Matrizen mit


ganzzahligen Koeffizienten. Sci A E M(n x n, Z). Man zeige: Es gibt genau
dann ein B E M(n x n, Z) mit AB = E, wenn det A = ±1 ist.
6.11 tiBUNGEN 157

DIE *-AUFGABE:

AUFGABE 6*: Zwei Basen (VI, ... , V n ) und (v~, ... , v~) eines reellen Vektor-
raumes V heiBen gleichorientieTi, wenn der durch f(Vi) := v;, i = 1, ... , n
festgelegte Automorphismus f : V -+ V positive Determinante hat. Die
Menge aller zu einer fest en Basis (VI,"" V n ) gleichorientierten Basen nennt
man eine Orientierung von V. Jeder n-dimensionale reelle Vektorraum V
mit 1 ::; n < 00 hat genau zwei Orientierungen.
Es hat sich iibrigens als praktisch erwiesen, auch dem nulldimensionalen
Vektorraum V = {O} zwei "Orientierungen" zu geben, indem man die beiden
Zahlen ±1 die beiden "Orientierungen" von {O} nennt. Mit der vorliegenden
Aufgabe hat das aber nichts zu tun.
Einen endlichdimensionalen Vektorraum zu orientieren bedeutet, eine der
beiden Orientierungen auszuwahlen, formaler: ein orientierter Vektorraum
ist ein Paar (V, or), bestehend aus einem n-dimensionalen reellen Vektor-
raum V und einer seiner beiden Orientierungen. Die Basen der gewahlten
Orientierung or heiBen dann positiv orientiert.
In der gegenwartigen Aufgabe geht es urn die Unmoglichkeit, alle k-di-
mensionalen Untervektorraume von V so zu orientieren, dass kein plotzliches
"Umschlagen" der Orientierung vorkommt. Man beweise namlich:
Sei 1 ::; k < n und Vein n-dimensionaler reeller Vektorraum, oBdA
V = Rn. Dann ist es unmoglich, alle k-dimensionalen Untervektorraume
U c V gleichzeitig so zu orientieren, dass jede stetige Abbildung
(VI, ... ,Vk): [0,1]-+ V x ... x V,
welche jedem t E [0,1] ein linear unabhangiges k-tupel (VI(t), ... ,Vk(t))
zuordnet und positiv orientiert startet, auch positiv orientiert bleibt, d.h.
dass (VI (t), ... , Vk (t)) fiir jedes t eine positiv orientierte Basis seiner linearen
Hiille ist, sofern das nur fiir t = 0 gilt.

UBUNGEN FUR PHYSIKER:

AUFGABE 6.1P: = Aufgabe 6.1 (flir Mathematiker)

AUFGABE 6.2P: = Aufgabe 6.2 (flir Mathematiker)

AUFGABE 6.3P: Diese Aufgabe nimmt Bezug auf den Abschnitt 3.5. Sie sol-
len namlich, nachdem Sie durch den § 6 nun Determinantenkenner geworden
sind, die Eigenschaft (5/1) in 3.5 aus der Definition (5) ableiten und (7) aus
(5/1) folgern.
7. Lineare G leichungssysteme

7.1 LINEARE G LEICHUNGSSYSTEME

1st A = (aij) E M(m x n, lK) und b = (bt, ... , bm ) E lK m , so heiBt

ein lineares Gleichungssystem fiir (Xl"'" Xn) mit Koeffizienten in lK.


Die Xl, ... , xn sind die Unbekannten des Systems. Sind die bi alle Null,
so nennt man das System homogen.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_7,


© Springer-Verlag Berlin Heidelberg 2008
7.1 LINEARE GLEICHUNGSSYSTEME 159

Wie schon bisher, fassen wir auch hier die Matrix A E M(m x n, lK) als eine
lineare Abbildung A : lKn --+ lK m , x --+ Ax auf. Das Gleichungssystem heiBt
dann Ax = b.

Definition: Unter der Losungsmenge des zu (A, b) gehorigen Glei-


chungssystems verstehen wir

Los(A, b) := {x E lKn I Ax = b}.

Wir hatten statt Los(A, b) naturlich auch A -1 ({b}) oder, wie bei Urbildern
einelementiger Mengen ublich, einfach A -1 (b) schreiben konnen.
Das Gleichungssystem heiBt losbar, wenn die Losungsmenge nicht leer ist,
das brauche ich wahl nicht erst gewichtig zu verkunden.

Wir wollen nun in einer Reihe von Bemerkungen und Notizen das festhalten,
was wir aufgrund unserer Kenntnisse uber lineare Abbildungen und Matri-
zenrechnung sofort uber lineare Gleichungssysteme sagen konnen, ohne uns
anzustrengen.

Bemerkung 1: Ax = b ist genau dann losbar, wenn

a~n ) ( a~l
: = rg :
a mn am 1

BEWEIS: "=;>": Die Spalten von A erzeugen Bild A, ist also bE BildA,
d.h. Ax = b losbar, so liisst sich b aus den Spalten linearkombinieren,
und deshalb andert sich der Spaltenrang von A nicht, wenn man b als
(n + l)-te Spalte hinzufUgt.
"-¢=": Die Spalten der crwcitcrten Matrix (A, b) erzeugen einen Unter-
vcktorraum V c lK m , der sowohl Bild A als auch den Vektor b enthalt.
Aus der Rangbedingung dim V = dim Bild A folgt Bild A = V, also
auch b E BildA. D
160 Kapitel 7: Lineare Gleichungssysteme

Bemerkung 2: 1st Xo E OCn eine Losung, d.h. Axo = b, so gilt


Los(A, b) = Xo + Kern A := {xo +x I x E KernA}.
BEWEIS: 1st x E Kern A, so ist A(xo+x) = Axo+Ax = Axo = b, also
Xo + x E Los(A, b). 1st umgekehrt v E Los(A, b), so ist A(v - xo) =
Av - Axo = b - b = 0, also v - Xo E Kern A, also v = Xo + x fUr ein
geeignetes x E Kern A . D

Los(A, b)
Xo

Kern A
o

N otiz 1: 1st Xo eine Losung und (VI, ... , V r ) eine Basis von Kern
A, so ist Los(A,b) = {xo + AIVI + ... + Arvr I Ai E OC}. Dabei ist
r = dim Kern A = n - rgA.

Die Beziehung dim Kern A = n - rg A folgt aus der Dimensionsformel fur


lineare Abbildungen. Aus Bemerkung 2 ergibt sich weiter

Notiz 2: Ein losbares Gleichungssystem Ax = b ist genau dann ein-


deutig losbar, wenn Kern A = 0, d.h. rg A = n ist.

Fur den wichtigsten Fall, namlich n = m (quadratische Matrix) heiBt das:

Notiz 3: 1st A quadratisch ("n Gleichungen fur n Unbekannte"), so


ist das Gleichungssystem Ax = b genau dann eindeutig losbar, wenn
det A =I 0 ist.

In diesem Falle hiingt also die Losbarkeit gar nicht von b ab: Fur jedes b gibt
es genau eine Losung. Das ist aber auch klar: A : OC n -=, OCn ist ja bijektiv und
die Losung nichts anderes als x = A-I b. Mit diesem "Hauptfall", niimlich
det A =I 0, wollen wir uns jetzt niiher beschiiftigen.
7.2 DIE CRAMERSCHE REGEL 161

7.2 DIE CRAMERSCHE REGEL

1m Falle det A i- 0 gibt es eine explizite Determinantenformel fiir die Lasung


x des Gleichungssystcms Ax = b, und zwar iiberlegt man sich das so. Da
Ax die Linearkombination der Spalten der Matrix mit den Unbekannten
Xl, ... , xn als Koeffizienten ist, kannen wir Ax = b auch in der Form

au) : )
(aln
+ ... + x n ( b:l )
Xl ( :

ani ann bn

schreiben. Wir wollen eine Formel fiir die Unbekannte Xi gewinnen, und
dazu wenden wir nun einen kleinen Trick an. Wir bringen die Spalte b auf
die andere Seite, indem wir sie dort gerade vom i-ten Summanden abziehen.
Dadurch erhalten wir

au) ( Xiali - bl ) ( al n )
Xl ( : + ... + : + ... + Xn : = 0,
~l ~~-~ ~

also sind die Spalten der Matrix

linear abhangig, die Determinante daher Null. Wegen der Linearitat der De-
terminante in der i-ten Spalte folgt daraus

au
aln) (au
Xi det ( : .: - det .:
ani ann ani

wobei also die zweite Matrix aus A hervorgeht, indem man die i-te Spalte
herausnimmt und b dafiir einsetzt. Somit haben wir:
162 Kapitel 7: Lineare Gleichungssysteme

c: : , ]
Satz: 1st det A i- 0 und Ax = b, so gilt

det
Xi = ------~------~----~~-

dote,', ••••••••• :]
fiiri=l, ... ,n.

Das ist die so genannte Oramersche Regel, eine besonders unpraktische Me-
thode zur Berechnung der Losung linearer Gleiehungssysteme. Diese Cra-
mersche Regel ist aber trotzdem von groBem mathematischen Interesse, weil
sie namlich zeigt, wie die Losung sich verandert, wenn man die "Daten" des
Systems, also A und b andert. Mit Hilfe der Entwicklungsformeln oder der
Leibnizformel fiir die Determinante konnen wir zum Beispiel aus der Cra-
merschen Regel schlieBen, dass sieh bei kleiner A.nderung von (A, b) auch x
nur ein wenig andert (Sie wissen schon, wie man das mit c etc. prazisiert),
eine hochst wiehtige Aussage! Mit anderen Worten: Zur Losung eines expli-
zit vorgegebenen Systems ist die Cramersche Regel zwar nieht sehr geeignet,
aber zum Studium der durch (A, b) f-+ X definierten Abbildung

{A E M(n x n,OC) I detA i- O} x OC n ---+ OC n

ist sie sehr niitzlich.

7.3 DER GAUSS'SCHE ALGORITHMUS

Nun sollen Sie aber auch DAB Verfahren zur praktischen Losung von linea-
ren Gleichungssystemen kennenlernen, namlich den GauBschen Algorithmus.
Verandert man ein lineares Gleiehungssystem dadurch, dass man zwei Glel-
chungen vertauscht, eine Gleiehung mit A i- 0 multipliziert oder ein Vielfa-
ches einer Gleichung zu einer anderen addiert, so andert sieh die Losungs-
menge nicht: denn offenbar sind die Losungen des alten Systems auch solche
des neuen, und da man die genannten Vorgange durch ebensolche Vorgange
7.3 DER GAUSS'SCHE ALGORITHM US 163

riickgangig machen kann, gilt auch die Umkehrung. Diese Beobachtung liegt
dem Gauf3schen Algorithmus zugrunde. Wir wollen sie so formulieren:

Notiz: Verandern wir die erweiterte Matrix

durch element are Zeilenumformungen zu einer Matrix

so gilt Los(A, b) = Los(A', b').

Elementare Spaltenumformungen von A verandern dagegen die Losungsmen-


ge: Vertauscht man z.B. die beiden ersten Spalten, so erhalt man aus der
Losungsmenge des neuen Systems die des alten, indem man injedem Losungs-
n-tupel (Xl, ... , Xn) E lKn die beiden erst en Komponenten vertauscht. Man
kann zwar auch Spaltenumformungen zu Hilfe nehmen, urn ein System zu
vereinfachen, aber dann muss man (im Gegensatz zu den Zeilenumformun-
gen) iiber die Umformungen Buch fiihren, urn die Losung am Ende richtig
interpretieren zu konnen.

GauBscher Algorithmus zur Losung linearer Gleichungssysteme. Sei


A E M (n x n, lK), b E lK n und det A i- O. Man beginnt mit der erwei-
terten Matrix

und wendet darauf notigenfalls eine Zeilenvertauschung an, urn an


die Stelle (1, 1) der Matrix ein von Null verschiedenes Element zu
bekommen.
164 Kapitel 7: Lineare Gleichungssysteme

Dann addiert man geeignete Vielfache der ersten Zeile zu den anderen,
urn die Elemente der ersten Spalte, die unterhalb der Hauptdiagonalen
liegen, zu Null zu machen. Damit ist der erste Schritt abgeschlossen.
Nachdem der k-te Schritt abgeschlossen ist (k < n -1), verliiuft der
(k + 1)-te wie folgt:
Durch eventuelle Zeilenvertauschung unter den letzten n - k Zeilen
erreicht man, dass die Stelle (k + 1, k + 1) in der Matrix mit einem von
Null verschiedenen Element besetzt ist. Durch Addition geeigneter Viel-
facher der (k + I)-ten Zeile zu den darunter liegenden, macht man nun
die in der (k + 1)-ten Spalte unterhalb der Hauptdiagonalen stehenden
Elemente zu Null. Damit ist der (k + 1)-te Schritt abgeschlossen.
Nach Abschluss des (n-l)-ten Schrittes hat die Matrix die Gestalt

mit a;i =F 0 fur i = 1, ... , n, und man erhiilt die gesuchte Lasung von
Ax = b, indem man zuerst

setzt und dann die ubrigen Unbekannten sukzessive berechnet:

1
X n -2 = I (b~_2 - a~_2 n Xn - a~_2 n-l Xn-l)
an - 2 ,n-2 ' ,

usw.

Ein Beispiel, zum Selbstrechnen und Vergleichen: Wir wollen folgendes Glei-
chungssystem lasen
7.3 DER GAUSS'SCHE ALGORITHMUS 165

4
-2
Der GauBsche Algorithmus ergibt:

-1 2 1 -2

3 -8 -2 4

1 0 4 -2

-1 2 1 -2

1. Schritt 0 -2 1 -2

0 2 5 -4

-1 2 1 -2

2. Schritt 0 -2 1 -2

0 0 6 -6

Ergebnis:

1
X3 = "6(-6) =-1
1 1
X2 = - - ( - 2 + 1) = -
2 2
1
Xl = -(-2 + 1 - 2· -) = 2.
2

Die Lasung ist also x = (2, ~, -1).

Wo machen wir bci diesem Verfahren eigentlich von der Voraussetzung


detA =1= 0 Gebrauch? Nun, wenn detA = 0 ist, dann kann man entweder
einen der Schritte nicht ausfiihren, weil es nicht maglich ist, das betreffende
Hauptdiagonalelernent von Null verschieden zu erhalten, oder das letzte
Hauptdiagonalelement a~n ergibt sich als Null. Wie man dennoch bcliebige
166 Kapitel 7: Lineare Gleichungssysteme

lineare Gleichungssysteme mittels des Gaui3schen Algorithmus losen kann,


werden wir nach dem Test in Abschnitt 7.5 besprechen.

7.4 TEST

(1) Unter einem linearen Gleichungssystem mit Koeffizienten in lK versteht


man ein Gleichungssystem der folgenden Art:
allXl + ... + alnXl = b1

D mit aij E lK, bi E lK.

D mit aij ElK, bi ElK.

D mit aij E lK, bi E lK.

(2) Schreibt man ein lineares Gleichungssystem kurz als Ax b, so ist


dabei gemeint

D A E M(m x n, lK), b E lK n
D A E M(m x n, lK), b E lK m
D A E M(m x n,lK), bE lKn oder b E lK m (nicht festgelegt).

(3) Ein lineares Gleichungssystem Ax = b heii3t losbar, wenn

D Ax = b fUr alle x E lK n
D Ax = b fur genau ein x E lKn
D Ax = b fur mindestens ein x E lKn.

(4) 1st b eine der Spalten von A, so ist Ax = b


D Auf jeden Falllosbar
D Auf jeden Fall unlosbar
D Manchmallosbar, manchmal unlosbar, hangt von A und b abo
7.4 TEST 167

(5) Sei Ax = b ein Gleichungssystem mit quadratischer Matrix A (n Glei-


chungen fUr n Unbekannte). Dann ist Ax = b
D Eindeutig losbar
D Losbar oder unlosbar, hi:ingt von A, b ab
D Losbar, aber vielleicht nicht eindeutig losbar, hi:ingt von A, b abo

(6) Sei wieder A E M(n x n,lK), also quadratisch. Welche der folgen-
den Bedingungen ist (oder sind) gleichbedeutend mit der eindeutigen
Losbarkeit von Ax = b:
D dim Kern A = 0 D dim Kern A = n D rgA = n

(7) Sei A E M(n x n,lK) und detA = O. Dann ist Ax = b


D Nur losbar fiir b = 0
D Losbar fUr alle b, aber nicht unbedingt eindeutig losbar
D Losbar nur fUr manche b, aber fUr keines der b eindeutig losbar.

(8) Bier ist einmal eine etwas kniffiige Frage: Sie erinnern sich doch noch,
dass fUr n x n- Matrizen gilt: dim Kern A + rg A = n? Gut. Sei nun A
eine n x n-Matrix und Ax = b habe zwei linear unabhiingige Losungen.
Dann ist:
D rg A ~ n, der Fall rg A = n kann vorkommen
D rg A ~ n - 1, der Fall rg A = n - 1 kann vorkommen
D rg A ~ n - 2, der Fall rg A = n - 2 kann vorkommen.

(9) Es sei A eine quadratische Matrix, iiber det A werde jedoch nichts vor-
ausgesetzt. Wenn beim GauB-Verfahren zur Losung eines Gleichungssy-
stems Ax = b schon der erste Schritt nicht ausfiihrbar ist, so bedeutet
das
D A=O
D Die erste Zeile von A ist Null
D Die erste Spalte von A ist Null

(10) Was bedeutet es fiir eine n x n-Matrix A mit det A f 0, dass sich das
GauBsche Verfahren ohne eine einzige Zeilenvertauschung durchfiihren
li:isst?
D A ist obere Dreiecksmatrix (Nullen unterhalb der Hauptdiagonale)
D aii f 0 fiir i = 1, ... , n
D Die Hauptabschnittsdeterminanten det( (aij )i,j=l, ... ,T) sind fiir r =
1, ... ,n von Null verschieden.
168 Kapitel 7: Lineare Gleichungssysteme

7.5 MEHR VBER LINEARE G LEICHUNGSSYSTEME

Jetzt wollen wir einmal den Fall eines Gleichungssystems Ax = b betrach-


ten, fiir das det A i- 0 nicht vorausgesetzt ist, ja bei dem A nicht ein-
mal unbedingt quadratisch sein muss . Sei also A E M(m x n, lK) und
b E lKm. Urn Los(A, b) explizit zu bestimmen, kann man folgenden Weg
(A) ---> (B) ---> (c) ---> (D) einschlagen:

(A): Man legt sich ein Schema wie fiir den GauBschen Algorithmus an und
beginnt auch tatsachlich mit dem GauBschen Algorithmus, gerade so als ware
A quadratisch und det A i- O. Man fiihrt das Verfahren solange durch wie
moglich.
Dann hat man die erweiterte Matrix (A, b) nach t Schritten in eine Matrix
der Form

a~l b'1

0 *
a~t
0
0 B'
0 b'm

verwandelt, wobei also die ersten t Diagonalelemente von Null verschie-


den sind, aber keine Zeilenvertauschung der letzten m - t Zeilen den Platz
(t + 1, t + 1) mit einem von Null verschiedenen Element beset zen kann. Also
ganz leicht zu merken: GauBscher Algorithmus, bis es nicht mehr geht.

(B): Nun versuchen wir den festgefahrenen GauBschen Algorithmus wie-


der fiatt zu kriegen, indem wir Vertauschungen der letzten n - t Spalten
von A auch mit zu Hilfe nehmen. Dariiber miissen wir aber neben unserem
Losungsschema Buch fiihren! Solange die Matrix B' nicht ganz und gar Null
wird, konnen wir so das GauBsche Verfahren noch weiterfiihren und gelangeli
schlieBlich zu einer Matrix der Gestalt
7.5 MEHR VBER LINEARE GLEICHUNGSSYSTEME 169

a"11 b"1

0
*
a"rr

0
b"m

mit a{l i- 0, ... , a~r i- O. Naturlich kann dabei auch m~T = 0 oder n~T = 0
sein.

(C): Hicr entscheidet sich nun, ob uberhaupt eine Lasung existiert: Ja, wenn
b~+l = ... = b':n = 0, nein sonst. Nehmen wir also an, das System sei
lasbar. Dann kannen wir die letzten m ~ T Gleichungen einfach weglassen,
die Lasungsmenge andert sich dadurch nicht. Dann bleibt also ein Gleichungs-
system mit einer erweiterten Matrix del' Form

r k

ubrig, wobei T ("triangular") eine invertierbare obere Dreiecksmatrix

a"11
*
T
o
a"rr

und S = (sij )i=l, ... ,r;j=l, ... ,k eben eine T x k-Matrix ist. Wir schreiben die n
U nbekanntcn dieses Systems als

Yl, ... ,Yr, Zl, ... , Zk

urn daran zu erinnern, dass es nicht unsere ursprunglichen Unbekannten


sind, sondern in diese erst ubergehen, wenn wir die im Laufe
Xl, ... ,X n
170 Kapitel 7: Lineare Gleichungssysteme

des Verfahrens durchgefiihrten Spaltenvertauschungen wieder riickgiingig


machen, was - wenn man es nur nicht vergisst - ja einfach genug ist.
Das Gleichungssystem lautet nun Ty + Sz = b" und ist deshalb leicht
lasbar. Wir verschaffen uns niimlich eine spezielle Lasung Wo E JK.:n da-
von und eine Basis (W1,"" Wk) des Kernes von (T, S), also eine Basis des
Lasungsraums des homogenen Systems Ty + S z = 0, indem wir von dem
Ansatz

Y1 Y11 Y12 Y1k

Yr Yrl Yr2 Yrk

Wo
o W1,·· .,Wk
1
1
k

o 1

ausgehen und dementsprechend Wo aus

a"11 Y1 b"1
*
o
a"rr Yr b"r

und den j-ten Basisvektor aus

a"11 Y1j -Slj

*
o
a"rr Yrj -STj

bestimmen, j = 1, ... , k. Dabei fiingt man natiir lich wie beim Gau£-AIgo-
rithmus mit invertierbarer Matrix jeweils von unten an zu eliminieren, also
y,. := b~/a~r usw. Die W1, ... , Wk liegen dann wirklich im Kern von (T, S) :
OC n -> ocr, sie sind schon im Ansatz linear unabhiingig, und da nach der
7.6 WIEGEN MIT DER KAMERA 171

Dimensionsformel die Kerndimension n - r = kist, bilden sie wirklich eine


Basis.

(D): SchlieBlich verwandeln wir die Vektoren

dadurch in Vektoren

dass wir die Vertauschungen der Koordinaten, die durch die Spaltenvertau-
schungen entstanden sind, wieder riickgiingig machen. Dann ist

Hinweis: Man kann das System natiirlich auch losen, ohne die Spaltenvertau-
schungen dabei vorzunehmen. Das bedeutet aber, dass die Unbekannten, die
wir Yl, ... , Yr und Zl, ... , Zk genannt hatten, bunt durcheinander stehen,
eben in ihrer urspriinglichen Reihenfolge Xl, ... , X n . Statt in der Gestalt
(T, S) ist die Matrix dann in der so genannten Zeilenstufenform.

7.6 WIEGEN MIT DER KAMERA


EIN ABSCHNITT FUR PHYSIKER

Stellen Sie sich vor, wir hiitten einen Billardtisch, der aber statt mit griinem
Tuch mit Millimeterpapier ausgelegt ist. Auf3erdem seien mit Tusche zwei
Koordinatenachsen eingezeichnet:
172 Kapitel 7: Lineare Gleichungssysteme

Uber dem Tisch ist eine Kamera montiert, deren Offnungswinkel den gan-
zen Tisch erfasst und die so justiert ist, dass sic die Tischebene scharf abbil-
det.

Die Kamera hat cine feste Verschlussoffnungszeit to, etwa von der GroBen-
ordnung einer Sekunde, die uns aber nicht genau bekannt ist. Es kommt nur
darauf an, dass sic sich nicht von Aufnahme zu Aufnahme andert, sondern im-
mer to ist. Gegeben seien nun cine Anzahl von Billardkugeln K 0, K I, K 2, ... ,
die durch Farbe oder sonstige Markierung auBerlich unterscheidbar seien. Es
durfen auch ruhig kleinere Kugeln sein, dann konnen wir sie besser lokali-
sieren. Die Kugeln mogen die Massen Mo, M I , ... haben. Die Masse Mo sei
bekannt. Aufgabe ist es, mit den beschriebenen Hilfsmitteln die Massen der
anderen Kugeln zu bestimmen. Und zwar: Wir wollen durch StoBexperimente
und mit Hilfe des Impulserhaltungssatzes ("Conservation of Linear Momen-
tum", vergl. Berkeley Physics Course, Chapter 6) Information uber die be-
teiligten Massen erhalten. Mit der Kamera wollen wir die (Richtung und)
Geschwindigkeit der Kugeln vor und nach dem StoB bestimmen. Die Aus-
wertung der Messdaten fuhrt dann auf lineare Gleichungssysteme, uber de-
ren Losbarkeit wir aus "physikalischen Grunden" schon etwas wissen. Es ist
ganz reizvoll, diese physikalischen Grunde mit den entsprechenden mathe-
mat is chen Grunden zu vergleichen und sich iiberhaupt in jedem Augenblick
der Untersuchung zu fragen, ob man die physikalische und die rein mathe-
matische Argumentation noch auseinanderhalten kann!
Wir betrachten einen einfachen Fall: Bestimmung von MI und M2 mittels
zweier Aufnahmen. Wenn sich die Kugeln K o , KI und K2 ohne Einwirkung
auBerer Krafte mit den Geschwindigkciten Vo, VI, V2 bewegen, dann zusam-
menstossen und nach dem StoB die Geschwindigkeiten 'Wo, 'WI, 'W2 haben, so
gilt nach dem Impulserhaltungssatz

Wenn insbesondere KI und K2 vor dem StoB in Ruhe waren, haben wir
7.6 WIEGEN MIT DER KAMERA 173

Nun konnen wir mit unseren Hilfsmitteln zwar Vi und Wi nieht messen, aber
wir konnen die Wegstreeken messen, die die Kugeln in der Zeit to durehlau-
fen. Dazu verfahren wir so: Wir legen Kl und K2 irgendwo auf den Tisch,
etwa an den Nullpunkt des Koordinatensystems. Dann rollen wir Ko auf Kl
zu und wahrend Ko ront, maehen wir die erste Aufnahme und naeh dem
StaB die zweite.

CD

Ubereinandergelegt und sehematisiert:

Dann konnen wir die Vektoren voto, Wl to, W2tO und woto E ]R2 em ablesen.
Naeh dem Impulserhaltungssatz gilt aueh (multipliziere (*) mit to):

Wir fiihren nun folgende Bezeichnungen fiir die Daten und Messwerte ein:

Mi = Xi gm
WitO = (ali em, a2i em)
Mo(voto - woto) = (b l gm . em, b2 gm . em).

Die Xi, aij, bi sind dann reelle Zahlen und es gilt:


174 Kapitel 7: Lineare Gleichungssysteme

allxl + a12x2 = bl
a2lXI + a22X2 = b2 ,

also ein lineares Gleichungssystem fur die Unbekannten Xl und X2. Aus
physikalischen Grunden wissen wir naturlich von vornherein, dass das Glei-
chungssystem losbar sein muss, wir wissen ja sogar, dass es eine Losung mit
Xl > 0, X2 > 0 haben muss . Bitte beachten Sie, dass es sich dabei urn ein
echt physikalisches Argument handelt (Anwendbarkeit des Impulserhaltungs-
satzes in der vorliegenden Situation), auf mathematischem Wege konnen wir
naturlich uber die Losbarkeit des Gleichungssystems erst entscheiden, wenn
wir

wissen.
Aus mathematischen Grunden konnen wir jedoch sagen, dass das System
eindeutig losbar genau dann ist, wenn die Vektoren wlto und W2tO (das
sind ja die Spalten der Koeffizientenmatrix) linear unabhangig sind, d.h.
nicht in die gleiche oder in einander entgegengesetzte Richtungen zeigen. Der
StoB muss also so ausgefuhrt werden, dass KI und K2 nach verschiedenen
Richtungen fiiegen, sonst konnen wir MI und M2 nicht eindeutig bestimmen.
Insbesondere darf nicht eine Kugel einfach liegenbleiben, denn dann ware
eine Spalte Null, also rgA < 2, also das Gleichungssystem nicht eindeutig
losbar: aus mathematischen Grunden. Physikalisch ist es naturlich auch klar,
dass man uber die Masse einer Kugel nichts herausbekommt, wenn diese
Kugel ganz ruhig an einer Stelle liegt und dabei zweimal fotografiert wird!
Uberlegen Sie doch einmal, warum diesc so offenbar richtige physikalische
Aussage kein logisch einwandfreier Beweis fur die nichteindeutige Losbarkeit
des Gleichungssystems in einem solchen Falle ist. - ?!

Zum Schluss mochte ich Ihnen nun die Frage vorlegen: Welches ist
die kleinste Zahl von StoBexperimenten der oben beschriebenen Art, die
man braucht, urn bei gunstigem Ausgang dieser Experimente ein eindeutig
losbares lineares Gleichungssystem fur die Massen von KI, ... , Kn aufstellen
zu konnen? Nach dem oben Gesagten ist es klar, dass ~ StoBexperimente
genugen konnen, wenn n gerade ist, und nt
l StoBexperimente wenn n
ungerade ist: man braucht dafur die Massen nur immer fUr je zwei Kugeln
zu bestimmen. Aber wenn Experimente mit mehreren Kugeln auf einmal
7.8 LITERATURHINWEIS 175

gemacht werden durfen, geht es daIm mit weniger StoBexperimenten? Kann


man wohl gar Gluck haben und aus einem einzigen StoBexperiment, an dem
aIle Kugeln beteiligt sind, die volle Information uber die Massen erhalten?

7.7 HISTORISCHE N OTIZ

Die Nr. [20] unseres Literaturverzeichnisses nennt eine deutsche Ubersetzung


eines chinesischen Rechenbuches aus dem erst en vorchristlichen Jahrhundert
mit dem Titel "Neun Bucher arithmetischer Technik". Und im Buch VIII
"Rechteckige Tabelle" (!) steht nichts anderes als das GauBsche Verfahren
zur Lasung linearer Gleichungssysteme! Der einzige, nun wahrhaftig unwe-
sentliche Unterschied ist, dass die Chinesen, die ja gewohnt sind von oben
nach unten zu schreiben, die Zeilen der Matrix senkrecht geschrieben haben
und infolgedessen nicht wie wir elementare Zeilenumformungen, sondern ele-
mentare Spaltenumformungen vornehmen, urn die Koeffizientenmatrix auf
Dreiecksgestalt zu bringen.

7.8 LITERATURHINWEIS

Mit Hilfe des GauBschen Verfahrens kannen Sie jedes vorgegebene Glei-
chungssystem numerisch lasen - im Prinzip, so wie jemand im Prinzip Kla-
vierspielen kann, der weiB, welche Taste fiir welche Note angeschlagen werden
muss . In Wirklichkeit sind mit der numerischen Lasung von graBen linea-
ren Gleichungssystemen, wie sie in den Anwendungen vorkommen, schwierige
Prableme verbunden. Es gibt eine ausgedehnte Literatur uber dieses Gebiet
und standig erscheinen neue Forschungsarbeiten.
Urn einen erst en Eindruck von der n'umerischen linear en Algebra zu be-
kommen, soIl ten Sie schon einmal das zweibandige deutschsprachige Stan-
dardwerk [23] von Zurmuhl und Falk zur Hand nehmen. Keine Angst, Sie
176 Kapitel 7: Lineare Gleichungssysteme

sollen es ja jetzt nicht durcharbeiten. Vergessen Sie, dass Sie ein Anfiinger
sind, schlagen Sie einfach den zweiten Band vorne auf und lesen ein paar
Seiten. Der Text wird Sie sogleich in seinen Bann schlagen. Schauen Sie sich
auch an, wovon der erste Band handelt. Wenn Sie die Bande dann wieder
zuruckstellen, wird Ihnen deutlich geworden sein, dass man die theoretischen
Grundtatsachen, welche die Erstsemestervorlesung uber lineare Algebra bie-
tet, fur die Numerik selbstverstandlich kennen muss, dass zum erfolgreichen
professionellen Rechnen aber noch viel mehr gehort, und Sie werden den
Vorlesungen uber numerische Mathematik mit Erwartung entgegensehen.

7.9 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 7.1: Man ermittle durch Rangbestimmungen, ob das folgende re-


elle Gleichungssystem losbar ist und berechne gegebenenfalls die Losungs-
menge:

Xl + 2X2 + 3X3 = 1
4Xl + 5X2 + 6X3 = 2
7Xl + 8X2 + 9X3 = 3
5Xl + 7X2 + 9X3 = 4

AUFGABE 7.2: Man fuhre fUr das folgende reelle Gleichungssystem den
GauJ3schen Algorithmus durch, entscheide dabei ob das Gleichungssystem
losbar ist und bestimme gegebenenfalls die Losungsmenge:

Xl X2 + 2X3 3X4 7
4Xl + 3X3 + X4 9
2Xl 5X2 + X3 -2
3Xl X2 X3 + 2X4 -2

AUFGABE 7.3: Man beweise:


SATZ: 1st U c lKn ein Untervektorraum und X E lK n , so gibt es ein Glei-
chungssystem mit Koeffizienten in lK mit n Gleichungen fur n Unbekannte,
dessen Losungsmenge genau X + U ist.
7.9 UBUNGEN 177

DIE *-AUFGABE:

AUFGABE 7*: Zwei Korper lK, lK' nennt man isomorph (geschrieben lK ~ lK'),
wenn es einen "Korperisomorphismus" f: lK --+ lK' gibt, d.h. eine bijektive
Abbildung mit f(x + y) = f(x) + f(y) und f(xy) = f(x)f(y) fiir alle
x, y E lK. Man beweise: Hat ein lineares Gleichungssystem mit Koeffizienten
in dem Korper lK genau drei Losungen, so ist lK ~ IF 3 .

UmJNGEN FUR PHYSIKER:

AUFGABE 7.1P: Es sei

ein lineares Gleichungssystem mit reellen Koeffizienten. Es sei

( . , . ) : lR n x lR n --+ lR

ein Skalarprodukt, und beziiglich dieses Skalarproduktes mogen die Spaltcn-


vektoren
ali )
ai := ( :. E lR n ,
am
der Koeffizientenmatrix senkrecht auf b stehen. Auf3erdem sei b #- O. Man
beweise: Das Gleichungssystem ist unlosbar.

AUFGABE 7.2P: = Aufgabe 7.2 (fiir Mathematiker)

AUFGABE 7.3P: Man gebe die (mathematischen) Griinde an, aus denen
eine Massenbestimmung nach dem im Absc:hnitt 7.6 gesc:hilderten Verfah-
ren unmoglic:h ist, wenn keine einzige der Massen (auc:h Mo nicht) vorher
bekannt ist.
8. Euklidische Vektorraume

8.1 SKALARPRODUKTE

Wenn man geometrische Probleme studieren will, bei denen auch Langen
oder Winkel eine Rolle spielen, dann reichen die Vektorraumdaten nicht mehr
aus, man muss den Vektorraum mit einer "Zusatzstruktur" versehen. Die
Zusatzstruktur, die man fiir die metrische (oder "euklidische") Geometrie im
reellen Vektorraum braucht, ist das Skalarprodukt, womit nicht die skalare
Multiplikation lR x V ---> V gemeint ist, sondern eine neu zu definierende Art
von Verkniipfung V x V ---> lR, namlich:

Definition: Sei Vein reeller Vektorraum. Ein Skalarprodukt in V ist


eine Abbildung
V xV ----+ lR
(x, y) ----+ (x, y)
mit den folgenden Eigenschaften:

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_8,


© Springer-Verlag Berlin Heidelberg 2008
8.1 SKALARPRODUKTE 179

(i) Bilineariti:it: Fur jedes x E V sind die Abbildungen


(·,x):V---d~ (x,·): V------+lR
und
v f---------7 (v, x) Vf---------7(x,v)
linear.
(ii) Symmetrie: (x, y) = (y, x) fiir alle x, y E V
(iii) Positive Definitheit: (x,x) > 0 fur alle x =I O.

Man sagt kurz: (. , .) ist eine positiv definite symmetrische Bilinearform


auf V. -- Wegen der Symmetrie hi:itte naturlich auch eine der beiden Li-
neariti:itsbedingungen unter (i) genugt.

Definition: Unter einem euklidischen VektorTaum versteht man ein


Paar (V, ( . , . )), bestehend aus einem reellen Vektorraum V und einem
Skalarprodukt (. , .) auf V.

Wir sprechen natiirlich ohne wei teres von einem "euklidischen Vektorraum
V" -- Doppelbedeutung von V, genau so wie wir schon immer kurz V statt
(V, +, . ) schreiben.

Wichtiges Beispiel: Das durch


( . , . ) : lR n x lR n -------+ lR
(x, y) f--------t X1Y1 + ... + XnYn
definierte Skalarprodukt heiJ3t das iibliche oder Standard-Skalarprodukt
auf dem lRn.

Urn aber auch ein ganz anderes Beispiel zu nennen: im reellen Vektorraum
V der stetigen Funktionen von [~1, 1] nach lR ist z.E. durch

J
1

(1,g):= f(x)g(x)dx
-1

ein Skalarprodukt definiert. -- Man kann ubrigens fur jeden reellen Vektor-
raum ein Skalarprodukt einfuhren. Man darf sich jedoch nicht vorstellen, zu
jedem Vektorraum gi:ibe es nur ein ganz bestimmtes Skalarprodukt: Auch fiir
180 Kapitel 8: Euklidische Vektorraume

den En gibt es unendlich viele verschiedene Skalarprodukte En X En -+ E;


das durch (x, y) = X1Yl + ... + xnYn gegebene ist nur das nachstliegende
- zum Beispiel erfullt auch (x, y) f-> (Ax, Ay) die drei Bedingungen an ein
Skalarprodukt, wenn A eine feste invertierbare n x n-Matrix bezeichnet.

Definition: 1st (V, ( . , . ) ein euklidischer Vektorraum und x E V, so


versteht man unter der N arm von x die reelle Zahl II x II := ~ ;; O.

1m En mit dem ublichen Skalarprodukt (x, y) := X1Yl + ... + XnYn bedeutet


das also gerade Ilxll = VXI + ... + x;;.
Als nachstes wollen wir den Offnungs-
winkel zwischen zwei von Null ver-
vxi+x~ schiedenen Elementen x, y E V de-
X2 finieren. (Wohlgemerkt: nicht etwa
"bestimmen" oder "berechnen" son-
dem uberhaupt erst einmal definie-
ren!). Das solI durch die Formel
(x, y) = Ilx1111Y11 cosa(x, y) mit der
zusatzlichen Angabe 0 ;;; a (x, y) ;;; 7r geschehen, aber bevor das eine Defini-
tion fUr a(x, y) werden kann, mussen wir zeigen, dass

1 < (x, y) < 1


= Ilxllllyll -
gilt. Das ist die so genannte Cauchy-Schwarzsche Ungleichung.

Satz 1 (Cauchy-Schwarzsche Ungleichung): In jedem euklidi-


schen Vektorraum V gilt l(x,y)l;;; Ilxllllyll fUr aIle X,y E V.
Beweis: Die Ungleichung ist trivial fUr x = 0 oder y = 0, sei also
x # 0 und y # O. Dann durfen wir aber ebensogut Ilxll = Ilyll = 1
annehmen, denn wenn wir die Cauchy-Schwarzsche Ungleichung fur
Vektoren der Norm 1 bewiesen haben, erhalten wir den allgemeinen
Fall durch Anwendung auf die Vektoren xlllxli und yillyli. Fur
Ilxll = Ilyll = 1 aber ist nur l(x,y)1 ::; 1, d.h. ±(x,y)::; 1 zu zeigen,
und das folgt sofort aus
0::; (x ± y, x ± y) = (x, x) ± 2(x, y) + (y, y) = 2 ± 2(x, y).
D
8.1 SKALARPRODUKTE 181

Satz 2: 1st Vein euklidischer Vektorraum, so hat die Norm II··II:V ----> R
folgende Eigenschaften:
(i) Ilxll;;; 0 fur alle x
(ii) Ilxll = 0 ~ x = 0
(iii) IIAxl1 = IAI . Ilxll fur alle x E V, A E R
(iv) Ilx + yll ~ Ilxll + Ilyll fUr alle x, y E V.
Man nennt (iv) die Dreieeksungleiehung.

Beweis: (i)-(iii) ergeben sich unmittelbar aus der Definition. Zur Drei-
ecksungleichung:
(11xll + Ilyll)2 = IIxl1 2+ 211xlillyll + IIyl12
;;; IIxl1 2+ 2(x, y) + IIyl12 = Ilx + Yl12
wegen der Cauchy-Schwarzschen Ungleichung. Also haben wir
Ilxll + Ilyll ;;; Ilx + YII· 0

Die Ungleichung (iv) heiBt aus folgen- b


dem Grunde "Dreiecksungleichung":

a~
Sind a, b, e E V, so betrachtet man
Iia-bll, Ila-ell und lib-eli als die Sei-
tenliingen des Dreiecks mit den Ecken
e
a , b, e, und die Dreiecksungleichung,
angewandt auf x = a - b, y = b - e
besagt dann Iia - ell ~ Iia - bll + lib - ell, d.h. die Liinge einer Dreiecksseite
ist kleiner oder gleich der Summe der Langen der beiden anderen Dreiecks-
seiten. - Man beachte dabei, dass die Aussage, die Lange der Strecke von
a nach b sei Iia - bll, kein Satz, sondern eine Definition ist.

Definition: Fur von Null verschiedene Elemente x, y eines euklidi-


schen Vektorraums definiert man den OjJnungswinkel a(x,y) zwischen
x und y durch
(x,y)
cosa(x,y) = WM' 0 ~ a(x,y) ~ Jr.
182 Kapitel 8: Euklidische Vektorraume

(Wegen der Cauchy-Schwarzschen Ungleichung ist

1 < (x, y) <1


-=WllYIT='
und da der Cosinus eine bijektive Abbildung
cos: [0, 'if] --+ [ -1, 1]
herstellt, ist a(x, y) auf die oben angegebene Weise wohldefiniert.)

8.2 ORTHOGONALE VEKTOREN

Definition: Zwei Elemente v, w eines euklidischen Vektorraumes


heif3en orthogonal oder senkrecht zueinander (geschrieben v ..l w),
wenn (v, w) = 0 ist.

Nach Definition von a(v, w) bedeutet (v, w) = 0 fUr von Null verschie-
dene Vektoren, dass der Offnungswinkel 90 0 ist. - Die Bezeichnung "or-
thogonal" ist auf viele im Zusammenhang mit euklidischen Vektorriiumen
stehende Begriffe anwendbar (z.B. "orthogonales Komplement", "Ortho-
gonalprojektion", "orthogonale Transformationen", "orthogonale Matrix",
s.u.). Ganz allgemein und vage gesprochen, bedeutet Orthogonalitiit die
"Vertriiglichkeit" mit dem Skalarprodukt. Naturlich mussen wir unbescha-
det einer solchen vagen allgemeinen Erkliirung die Bedeutung des Beiwortes
"orthogonal" fur jeden einzelnen Begriff erst noch exakt definieren.

Definition: 1st Meine Teilmenge des euklidischen Vektorraumes V,


so heif3t M ~ := {v E V I v ..l u fUr alle u E M} das orthogonale
Komplement von M. Statt "v ..l u fur alle 'U E M" schreibt man auch
kurz: v..l M.
8.2 ORTHOGONALE VEKTOREN 183

Bemerkung: M 1- ist ein Untervektorraum von V.


Beweis: M 1- -I- 0, da O..l M, und sind x, y E M 1-, so folgt sofort aus
der Linearitat von (. , u) : V --> lR, dass auch x + y und AX fUr alle
A E lR orthogonal zu M sind. D
Definition: Ein r- tupel (V1,"" v r ) von Vektoren in einem eukli-
dischen Vektorraum heiBt orthonormal oder ein Orthonormalsystem,
wenn Ilvi I = 1, i = 1, ... , r und Vi ..l Vj fUr i -I- j. (Anders aus-
gedruckt: (Vi, Vj) = Oij)'

Anschaulich: Sind x, y, z die drei


"Kantenvektoren" eines am Nullpunkt
des lR 3 sitzendes Wfufels der Kan-
tenlange 1, so ist ( x, y, z) ein ortho-
normales System (paarweise aufein-
ander senkrecht stehende Vektoren
der Lange 1). Aber z.B. auch (x, z)
oder ( z ) alleine sind orthonormale
Systeme: Ein orthonormales System
braucht noch keine Basis zu sein. -
Bei Uberlegungen, die mit einem Orthonormalsystem V1,"" Vr zu tun ha-
ben, kehrt ein kleiner Trick immer wieder, namlich auf beide Seiten einer
Gleichung die Operation (. ,Vi) anzuwenden. Achten Sie einmal bei den
Beweisen der folgenden drei Lemmas darauf.

Lemma 1: Ein Orthonormalsystem ist stets linear unabhangig.


BEWEIS: Sei (V1,' .. ,vr ) orthonormal und A1 V1 + ... + ArVr = O. Dann
ist (A1V1 + ... + ArVr' Vi) = Ai(Vi, Vi) = Ai = 0, fUr i = 1, ... , r, D
Lemma 2 (Entwicklung nach einer Orthonormalbasis): 1st (V1' ... ,vn )
eine orthonormale Basis von V, so gilt fur jedes V E V die "Entwick-
lungsformel"
n
V = L (V, Vi)Vi.
i=l

BEWEIS: Jedenfalls ist V als V = c1 v1 + ... + c n vn darstellbar. Anwen-


dung von (. ,Vi) ergibt (V,Vi) = Ci(Vi,Vi) = Ci. D
184 Kapite18: Euklidische Vektorraume

Lemma 3: 1st (V1, ... , V r ) ein Orthonormalsystem in V und bezeich-


net U := L( V1, ... , v r ) den von dem Orthonormalsystem aufgespannten
Untervektorraum, so liisst sich jedes v E V auf genau eine Weise als
Summe v = u + w mit U E U und w E U ~ schreiben, und zwar ist
r
U = I: (v, Vi)Vi
i=l
und folglich w = v - I:~=l (v, Vi)Vi.

BEWEIS: Dass sich v auf hochstens eine Weise als Summe v = U + w mit
U E U und w E U ~ schreiben lasst, ergibt sich aus der positiven Definit-
heit des Skalarprodukts, denn aus v = U + w = u' + w' mit u, u' E U und
w,w' E U~ folgte (u - u') + (w - w') = 0 und (u - u',w - w') = 0, also
(u - u',u - u') = 0 und daher u - u' = 0 und somit auch w - w' = o.
Das gilt fiir jeden Untervektorraum U von V, ware er auch nicht von einem
endlichen Orthonormalsystem erzeugt. Diese Voraussetzung benutzen wir
jedoch jetzt beim Existenzbeweis. In der Formulierung des Lemmas ist ja
schon ausgesprochen, wie man u definieren solI. Aber selbst wenn wir das
nicht wiissten, so wiirden wir doch den Ansatz u = C1 V1 + ... + CrV r ma-
chen k6nnen und nachrechnen, fiir welche Koeffizienten C1, ... ,Cr der Vektor
w := v - u E U~ ist, namlich genau dann, wenn (w, Vi) = 0 fiir i = 1, ... , r
gilt, d.h. wenn (v, Vi) - (u, Vi) = 0, also wenn (v, Vi) = Ci ist. D

In dies en drei Lemmas war das Orthonormalsystem immer als gegeben vor-
ausgesetzt. Wo aber bekommt man Orthonormalsysteme her? Dafiir gibt es
zum Beispiel das so genannte Erhard Schmidtsche OTthonormalisierungsver-
8.2 ORTHOGONALE VEKTOREN 185

jahren, mit dem man ein beliebiges linear unabhangiges T-tupel von Vektoren
VI, ... ,Vr sukzessive so in ein Orthonormalsystem VI, ... ,Vr verwandelt, dass
jeweils die erst en k Vektoren beider Systeme denselben Raum aufspannen:
Uk := L(Vl, ... , Vk) = L(Vl, ... , Vk)
fiir k = 1, ... , T. Natiirlieh fangt man damit an, dass man den ersten Vektor
VI einfaeh "normiert", d.h. VI := vdllVll1 setzt. Es geniigt aber nicht, die
Vi alle zu normieren, denn dann hatten sie zwar die Lange 1, stiinden aber
noeh nicht senkreeht aufeinander. Vielmehr miissen wir vor dem Normieren
den Vektor Vk+l gemaJ3 obigem Lemma 3 dureh seinen auf Uk senkreeht
stehenden Anteil Wk+l E ut ersetzen. Naeh Induktionsannahme ist ja Uk
von dem Orthonormalsystem (VI' ... ' Vk) aufgespannt, und Lemma 3 liefert
uns deshalb die konkrete Reehenformel
k
Wk+l := Vk+l - 2: (Vk+l, Vi)Vi
i=1
fiir einen Vektor, der senkreeht auf Uk steht und zusammen mit VI, ... , vk
den Raum Uk+l aufspannt, den wir also nur noeh zu normieren brauehen,
urn das gesuehte Vk+l zu erhalten:

Satz (Erhard Schmidtsches Orthonormalisierungsverfahren):


1st (VI' ... ' Vr ) ein linear unabhangiges T- tupel von Vektoren in einem
euklidisehen Vektorraum V, so ist dureh VI := vd IlvIiI und die Re-
kursionsformel
~ Vk+l - 2:7=1 (Vk+l, Vi)Vi
Vk+l := k ~ ~
v
Il k+l - 2:i=1 (Vk+l, Vi)Vill
fiir k = 1, ... , r - 1 ein Orthonormalsystem (VI, ... , Vr ) gegeben, bei
dem jeweils die erst en k Vektoren VI, ... , Vk denselben U ntervektor-
raum aufspannen wie die urspriingliehen VI, . .. , Vk. War insbesondere
(VI, ... ,Vn ) eine Basis von V, so ist (VI, ... ,Vn ) eine Orthonormalbasis
von V.

Insbesondere lasst sich in jedem endliehdimensionalen euklidisehen Vektor-


raum wirklieh cine Orthornorrnalbasis £lnden, und deshalb ist aueh die in
Lemma 3 besproehene eindeutige Zerlegung von V E V in einen U- und
einen U-L-Anteil fiir jeden endliehdimensionalen Untervektorraum U eines
euklidisehen Vektorraums anwendbar. Die Zuordnung V r-+ u nennt man
dabei die Orthogonalprojektion auf U, genauer:
186 Kapitel 8: Euklidische Vektorraume

Korollar und Definition: Sei Vein euklidischer Vektorraum und U


ein endlichdimensionaler Unterraum. Dann gibt es genau eine lineare
Abbildung P u : V --+ U mit P u IU = Id u und Kern P u = U ~. Diese
Abbildung P u heiBt die Orthogonalpmjektion auf U.

\\\ \\ \
\\\0\\\
U

U~

BEWEIS: Jede Abbildung P u mit den geforderten Eigenschaften bewirkte


durch
v = Pu(v) + (v - Pu(v))
die Zerlegung von v in einen U- und einen U ~-Anteil. Deshalb gibt es, selbst
wenn U nicht endlichdimensional ware, hochstens eine solche Abbildung.
Wahlen wir nun in U eine Orthonormalbasis (VI, ... , v r ), so veranlasst uns
Lemma 3 zu der Definition
r
Pu(v) := L (v, Vi)Vi ,
;=1

und die dadurch gegebene lineare Abbildung P u : V --+ U hat offenbar die
gewiinschten Eigenschaften, 0

Korollar: 1st U Untervektorraum eines endlichdimensionalen euklidi-


schen Vektorraumes V und ist U ~ = 0, so ist U = V.
BEWEIS: Pu: V --+ U ist sowieso surjektiv und wegen Kern Pu = U ~
= 0 auch injektiv. Also ist P u bijektiv, und da PulU = Idu ist, muss
U = V sein. 0
8.3 ORTHOGONALE ABBILDUNGEN 187

1m nachsten Abschnitt werden Sie kopfschuttelnd feststellen, dass fur U oF V


die Orthogonalprojektionen nicht orthogonal sind. Anstatt die Terminologie
zu verteidigen, nehme ich mich selber in Schutz und beteuere, unschuldig
daran zu sein.

8.3 ORTHOGONALE ABBILDUNGEN

Definition: Seien V, W euklidische Vektorraume. Eine lineare Abbil-


dung f : V ---+ W heiBt orthogonal odcr isometrisch, wenn
U(v), f(w) = (v, w)
fur alle v, W E V.

Notiz: Eine orthogonale Abbildung ist stets injektiv, denn aus v EKern f
folgt (0,0) = (v, v), also v = O. Insbesondere sind orthogonale Endomor-
phismen endlichdimensionaler euklidischer Raume stets Automorphismen.D

Dabei haben wir wieder einmal benutzt, dass injektive Endomorphismen end-
lichdiemnsionaler Raume nach der Dimensionsformel

dim Kern + dim Bild = dim V

stets auch surjektiv und damit Isomorphismen sind.

Definition: Die Menge der orthogonalen Isomorphismen eines eukli-


dischen Vektorraumes V wird mit O(V) bezeichnet. Statt O(lRn) ,
wobei lR n mit dem ublichen Skalarprodukt versehen ist, schreibt man
kurz O( n). Fasst man die Elemente von O(n) in der ublichen Weise
als reelle n x n-Matrizen auf, O(n) C M(n x n,lR), so heiBen diese
Matrizen orthogonale M atrizen.
188 Kapitel 8: Euklidische Vektorraume

Bemerkung: Seien V, W euklidische Vektorriiume und sei (VI, . .. ,Vn )


eine orthonormale Basis von V. Dann ist eine lineare Abbildung
f : V --+ W genau dann orthogonal, wenn (f(Vl), ... , f(v n )) ein
Orthonormalsystem in Wist.

BEWEIS: 1st f orthogonal, so ist (f(Vi), f(vj)) = (Vi, Vj) = 6ij . 1st um-
gekehrt (f(Vi), f(vj)) = 6ij vorausgesetzt, so folgt fUr V := ~AiVi und
w := ~P,jVj E V, dass (f(v),J(w)) = (f(~AiV;), f(~p,jvj)) = (~Ad(Vi)'
~p,jf(vj)) = ~i~jAiP,Aj = ~i~jAiP,j(Vi' Vj) = (~AiVi' ~P,jVj) = (v, w). D

Korollar: Eine Matrix A E M(n x n, JR.) ist genau dann orthogonal,


wenn die Spalten (= Bilder der kanonischen Einheitsvektoren!) ein
orthonormales System bezuglich des ublichen Skalarprodukts im JR.n
bilden, d.h. wenn AtA = E gilt.

Wenn wir die Spalten von A mit 81, ... ,8 n bezeichnen, dann sind die 8i die
Zeilen von At und das Element von At A in der i-ten Zeile und j- ten Spalte
ist deshalb (8i' 8j):

A'A DDIJ 0
Mittels unserer Kenntnisse iiber invertierbare Matrizen konnen wir daraus
sofort einige Folgerungen ziehen:

Notiz: Fur A E M(n x n, JR.) sind die folgenden Bedingungen


iiquivalent:
(i) A ist orthogonal
(ii) Die Spalten sind ein orthoIlorrnales System
(iii) AtA = E
(iv) A invertierbar und A-I = At
(v) AAt = E
(vi) Die Zeilen sind ein orthonormales System.
8.4 GRUPPEN 189

Notiz und Definition: Aus AtA = E folgt detAtdetA = (detA? =


1, also ist det A = ±1 fiir alle A E O( n). Eine Matrix A E O( n) heiBt
spezielle orthogonale Matrix, wenn det A = +1 ist. Die Menge der
speziellen orthogonalen Matrizen wird mit SO(n) bezeichnet.

8.4 GRUPPEN

Verkniipfen wir zwei orthogonale Matrizen A, B E O(n) durch die Matrizen-


multiplikation, so erhalten wir wieder eine orthogonale Matrix AB E O(n),
es gilt (AB)C = A(BC) fUr alle A, B, C E O(n) (wie ja iiberhaupt fUr
alle Matrizen in M(n x n, JR.)), femer enthiilt O(n) ein bei der Verkniipfung
durch Multiplikation nichts bewirkendes, in diesem Sinne "neutrales" Ele-
ment, niimlich die Einheitsmatrix E, und zu jedem A E O(n) gibt es eine
orthogonale Matrix A-I E O(n) mit AA- I = A-I A = E, eben die "inverse"
Matrix zu A. Wegen dieser Eigenschaften nennt man das Paar
(O(n),O(n) x O(n) -> O(n)),
bestehend aus der Menge O(n) und der durch die Matrizenmultiplikation
gegebene Verkniipfung eine Gruppe. Der Begriff der Gruppe ist von fun-
damentaler Bedeutung in der gesamten Mathematik, nicht etwa nur in der
Algebra, obwohl es ein "algebraischer" Begriff ist. Wie Sie sehen werden,
kommen auch in dem von uns bisher behandelten Stoff schon eine ganze
Reihe von Gruppen vor.

Definiton: Eine Gruppe ist ein Paar (G,'), bestehend aus einer
Menge G und einer Abbildung
·:GxG------+G
(a, b) t--------7 ab ,
so dass die folgenden drei Axiome erfiillt sind:
190 Kapitel 8: Euklidische Vektorraume

(1) Assoziativitat: (ab)c = a(bc) fiir alle a, b, c E G,


(2) Existenz des neutralen Elements: Es gibt ein e E G mit
ae = ea = a fiir alle a E G,
(3) Existenz des Inversen: Zu jedem a E G gibt es ein a- 1 E G mit
aa- 1 = a-1a = e.

Beachten Sie, dass ein voranzustellendes "Axiom (0): Mit a, bEG ist auch
ab E G" nur deshalb iiberfliissig ist, weil es in der Angabe, die Verkniipfung
"." sei eine Abbildung von G x G nach G, ja schon enthalten ist. Wenn
man aber, wie haufig vorkommt, von einer Verkniipfung ausgeht, die defi-
nitionsgemaB eigentlich in eine groBere, G nur enthaltende Menge fiihrt, so
muss man (0) erst noch nachpriifen. Nehmen Sie als Beispiel die Menge
G = {x E lR I ~ < x < 2} mit der Multiplikation reeller Zahlen als Ver-
kniipfung. Die Axiome (1), (2) und (3) waren schon erfiillt, aber trotz-
dem ist (G, . ) keine Gruppe, weil die Verkniipfung gar nieht "in G" bleibt:
3/2·3/2=9/4>2.

Definition: Hat eine Gruppe (G, .) auBerdem noch die Eigenschaft


der "Kommutativitat", d.h. gilt
(4) ab = ba fiir alle a,b E G,
dann heiBt (G, .) eine abelsche Gruppe.
Bemerkung: In einer Gruppe (G, .) gibt es genau ein neutrales Ele-
ment e und zu jedem a E G genau ein inverses Element a- 1 .
Beweis: 1st ea = ae = e' a = ae' = a fill alle a E G, so ist insbeson-
dere ee' = e weil e' neutral und ee' = e' weil e neutral ist, also e = e'.
1st a E G gegeben und sowohl ba = ab = e als auch ca = ac = e, so
ist c = c(ab) = (ca)b = eb = b. D
Bezeichnungsweise: Dass man statt (G, .) auch kurz G schreibt,
ist wohl kaum erwahnenswert. Eher schon, dass man das neutrale Ele-
ment haufig mit 1 bezeiehnet, wie die Zahl Eins. Noch wichtiger: Bei
abelschen Gruppen wird die Verkniipfung oft als "Addition", d.h. als
(a, b) f--t a + b statt als (a, b) f--t ab geschrieben, das neutrale Element
mit 0 und das zu a inverse Element mit -a bezeiehnet. Prinzipiell
konnte man das natiirlieh bei jeder Gruppe tun, aber bei nichtabelschen
Gruppen ist es nicht iiblich.
8.4 GRUPPEN 191

Beispiele:
Beispiel 1: (2, +) ist eine abelsche Gruppe.
Beispiel 2: (lFt, +) ist eine abelsche Gruppe.
Beispiel 3: (lFt" {O}, . ) ist eine abelsche Gruppe.
Beispiel 4: 1st (lK, +, . ) ein Korper, so ist (lK, +) eine abelsche Gruppe.
Beispiel 5: 1st (lK, +, .) ein Korper, so ist (lK" {O}, .) eine abelsche
Gruppe.
Beispiel 6: 1st (V, +, .) ein Vektorraum liber lK, so ist (V, +) eine
abelsche Gruppe.
Beispiel 7: 1st Meine Menge, Bij (M) die Menge der bijektiven Abbil-
dungen 1 : M --+ M und 0 das Zeichen fUr die Zusammensetzung von
Abbildungen, so ist (Bij(M), 0) eine Gruppe. Das neutrale Element ist
die Identitiit.

Sehr hiiufig werden Ihnen Gruppen begegnen, bei denen die Elemente gewisse
bijektive Abbildungen einer Menge M und die Gruppenverknlipfung die Zu-
sammensetzung dieser Abbildungen sind; "Untergruppen" von Bij(M) , ge-
wissermai3en, wie in den folgenden Beispielen 8-10.

Notiz: 1st G c Bij(M) , gilt Id M E G sowie log E G und 1- 1 E G


fUr alle I, 9 E G, so ist (G, 0) eine Gruppe. Beispiele dafUr:

Beispiel 8: GL(V) , die Gruppe der Automorphisrnen eines Vektor-


ramns V iiber lK.
Beispiel 9: GL(n, lK) := GL(lK n ) , die Gruppe der invertierbaren n x n-
Matrizen liber lK. ("General linear group" .)
Beispiel 10: SL(n,lK) = {A E GL(n,lK) I detA = I}. ("Special linear
group" .)
Beispiel 11: O(n), die "orthogonale Gruppe".
Beispiel 12: SO( n), die "spezielle orthogonale Gruppe" .
192 Kapitel 8: Euklidische Vektordiume

8.5 TEST

(1) Ein Skalarprodukt auf einem reeilen Vektorraum ist eine Abbildung
D , :VxV---+lR
D , :V---+VxV
D , :lRxV---+V

(2) Die Eigenschaft des Skalarprodukts, positiv definit zu sein, bedeutet


D (x, y) > 0 ===} x = Y
D (x, x) > 0 ===} x 7'c 0
D (x, x) > 0 fiir aile x E V, x 7'c 0

(3) Welche der folgenden drei Aussagen ist (oder sind) ric:htig
D 1st (. , .) : lR n x lR n ---+ lR ein Skalarprodukt auf dem reeilen Vek-
torraum lRn, so ist (x, y) = X1Yl + ... + XnYn fUr aile x, Y E lRn.
D Dafiir, dass eine Abbildung ( . , . ) : lR n x lR n ---+ lR ein Skalarprodukt
auf dem lR n definiert, ist (ei, ej) = (5ij eine zwar notwendige, aber
nic:ht hinreichende Bedingung.
D Definiert man (x, y) := X1Yl + ... + XnYn fiir aile x, Y E lRn, so ist
dadurch ein Skalarprodukt auf lR n erkliirt.

(4) Unter dem orthogonalen Komplement U~ eines Untervektorraums U


eines euklidischen Vektorraums V versteht man
D U~:= {u E U u..l U}
D U~:= {x E V x..l U}
D U~:= {x E V x..l U und Ilxll = I}

(5) Sei V = lR 2 mit dem "iiblichen" Skalarprodukt. Welches der folgenden


tupel von Elementen von V ist eine orthonormale Basis
D ((1,-1),(-1,-1)) D ((-1,0),(0,-1)) D ((1,0),(0,1),(1,1))

(6) Welche der folgenden Bedingungen an eine lineare Abbildung f : V ---+ W


von einem euklidischen Raum in einen anderen ist gleichbedeutend da-
mit, dass f eine orthogonale Abbildung ist
D U(x), f(y)) > 0 fiir aile x, Y E V
D (x, y) = 0 ~ U(x), f(y)) = 0
D Ilf(x)11 = Ilxll fUr aIle x E V.
8.6 LITERATURHINWEIS 193

(7) Fur welche Untervektorriiume U c V ist die Orthogonalprojektion


Pu : V --+ U eine orthogonale Abbildung
D Fur jedes U D Nur fur U = V D Nur fur U = {O}

(8) Welche der folgenden Matrizen ist (oder sind) orthogonal

D D ( 1 -1)
-1 1
D

(9) Welches ist eine korrekte Begrundung dafur, dass (N, +) keine Gruppe
ist
D Fur naturliehe Zahlen gilt n + m = m + n, das ist aber keines der
Gruppenaxiome, also ist (N, +) keine Gruppe
D Die Verknupfung N x N --+ N, (n, m) f-+ n + mist gar nieht fur
alle ganzen Zahlen definiert, weil die negativen Zahlen nicht zu N
gehoren. Daher ist (N, +) keine Gruppe.
D Das dritte Gruppenaxiom (Existenz des Inversen) ist verletzt, denn
z.E. zu 1 E N gibt es kein n E N mit 1 +n = O. Deshalb ist (N, +)
keine Gruppe.

(10) Fur gerades n, n = 2k > 0 gilt


D SO(2k) c O(k)
D SO(2k) c O(2k), aber SO(2k) i- O(2k)
D SO(2k) = O(2k), weil (_1)2k = 1.

8.6 LITERATURHINWEIS

Wenn es die Umstiinde erlauben, wenn niimlieh der Dozent nieht dureh
miiehtige Servieeforderungen oder dureh eine Studienordnung in seiner Be-
wegungsfreiheit eingesehriinkt ist, dann wird er die Vorlesung uber lineare
Algebra gerne so gestalten, wie es dem rasehen Zusehreiten auf ein besonde-
res Ziel, das er mit seinen Studenten erreichen moehte, am dienliehsten ist.
194 Kapitel 8: Euklidische Vektorraume

Das kann insbesondere einen scharfen Ruck des Vorlesungsinhalts in Rich-


tung Algebra bedeuten. Dass Sie in einer solchen Vorlesung sind, merken Sie
zuerst daran, dass die algebraischen Grundstrukturen wie Gruppen, Ringe
und Korper gleich zu Anfang ausfiihrlich besprochen werden und dann, als
untriigliches Zeichen, anstelle der Vektordiume iiber Korpern die allgemei-
neren Moduln iiber Ringen erscheinen.
In diesem Falle konnen Sie das gegenwartige Skriptum allenfalls noch zur
Erganzung oder als Kontr&'ltprogramm gebrauchen, und so leid es mir auch
tut, Sie als Kaufer oder gar als Leser meines Buches zu verlieren, muss ich
Sie dann doch gleich vor die rechte Schmiede schicken und Ihnen z.B. das
Heidelberger Taschenbuch [ 16] von Oeljeklaus und Remmert empfehlen oder
iiberhaupt das schone, ausfiihrliche, gut lesbare dreibandige Werk [17] von
Scheja und Storch, Lehrbuch der Algebra, Untertitel: Unter Einschluss der
linearen Algebra.

8.7 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 8.1: Man beweise den


Satz von Pythagoras: Bilden die drei
Punkte a, b, c in dem euklidischen
Vektorraum ein rechtwinkliges Drei-
eck, d.h. a - c ~ b - c, dann gilt
Iia - cl1 2 + lib - cl1 2 = Iia - b11 2 .
AUFGABE 8.2: In R3 werde durch (x, y) := 2:::,j=1 aijXiYj ein Skalarprodukt
eingefiihrt, wobei

(Dass hierdurch tatsachlich ein Skalarprodukt gegeben ist, ist nicht Gegen-
stand der Aufgabe, sondern werde angenommen). Man berechne die Cosinus
der Offnungswinkel zwischen den kanonischen Einheitsvektoren des R3.
8.7 UBUNGEN 195

AUFGABE 8.3: Man weise nach, dass diejenigen 2 x 2-Matrizen A E 0(2),


unter deren Koeffizienten nur die Zahlen 0 und ±1 vorkommen, eine nicht-
abelsche Gruppe bilden.

DREI *-AUFGABEN:

AUFGABE 8.1*: Fiir x = (Xl,""X n ) E !R. n , n ~ 2, werde Ixi := maxlxil


,
definiert. Man beweise: Es gibt kein Skalarprodukt (. , . I auf !R. n , fiir das
(x, XI = IxI 2 fiir alle x E !R. n gilt.

AUFGABE 8.2*: Sei V der Vektorraum aller beschriinkten reellen Zahlenfol-


gen, d.h.
V:= {(Xi)i=1,2, .. I Xi E !R. und es gibt ein C E !R. mit IXil < C fUr alle i},
Addition und Skalarmultiplikation sind in der naheliegenden Weise erkliirt.
Dann ist durch

(X,Y I := ~ XnYn
D --2- fiir alle x, Y E V
n=l n

ein Skalarprodukt auf V definiert. (Nachweis fiir (*)-Aufgaben-Loser trivial,


daher nicht Gegenstand der Aufgabe). Man finde einen echten Untervektor-
raum U C V, also U i= V, mit U-L = {o}.

AUFGABE 8.3*: Sei Meine Menge. Man zeige: 1st (Bij(M),o) abelsch, so
hat M weniger als drei Elemente.

UBUNGEN FUR PHYSIKER:

AUFGABE 8.1P: = Aufgabe 8.1 (fiir Mathematiker)

AUFGABE 8.2P: Man bestimme nach dem Erhard Schmidtschen Orthonor-


malisierungsverfahren eine orthonorrnale Basis des Untervektorraums

U := L(( -3, -3,3,3), (-5, -5, 7, 7), (4, -2,0,6))

von !R.4 , wobei !R.4 mit dem iiblichen Skalarprodukt versehen sei.
196 Kapitel 8: Euklidische Vektorraume

AUFGABE 8.3P: Sei Vein euklidischer Vektorraum. Man beweise:

(a) Sind r.p : JR. --> V und 1/J : JR. --> V differenzierbare Abbildungen, so ist
auch (r.p,1/J): JR. --> JR., t f-+ (r.p(t),1/J(t)) differenzierbar und es gilt
d .
dt (r.p(t) , 1/J(t)) = (cp(t), 1/)(t)) + (r.p(t) , 1/)(t))
(b) 1st r.p : JR. --> V differenzierbar und gibt es ein emit 1Ir.p(t) II = c fiir alle
t E JR., so ist r.p(t) -1 cp(t) fUr alle t E JR..

Hinweis: Die Differenzierbarkeit einer Abbildung ("Kurve") von JR. in einen


euklidischen Vektorraum ist genau so definiert wie fiir reellwertige Funktio-
nen, r.p: JR. --> V hei:Bt niimlich bei to differenzierbar, wenn der Limes

lim r.p(t) - r.p(to) =: cp(to)


t~to t - to
des Differenzenquotienten dort existiert, d.h. wenn es einen Vektor v E V
(eben das spiitere cp( to)) gibt, so dass fiir jedes c > 0 ein 6 > 0 existiert, so
dass fUr alle t mit 0 < It - tol < 6 gilt:

II r.p(t~ =:(to) - vii < c.


9. Eigenwerte

9.1 EIGENWERTE UND EIGENVEKTOREN

Definition: Sei Vein Vektorraum iiber lK und f : V --> Vein En-


domorphismus. Unter einem Eigenvektor von f zum Eigenwert A E lK
versteht man einen Vektor v =I 0 aus V mit der Eigenschaft f( v) = Av.

Lemma: 1st A die Matrix von f : V --> V beziiglich einer Basis


(Vl, ... , v n ) von V, so hat A genau dann "Diagonalgestalt", d.h. ist
von der Form

(also Nullen auBerhalb der Diagonalen), wenn Vi Eigenvektor zum Ei-


genwert Ai fiir i = 1, ... , n ist.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_9,


© Springer-Verlag Berlin Heidelberg 2008
198 Kapitel 9: Eigenwerte

Beweis: Die Beziehung zwischen dem Endomorphismus fund der


Matrix A wird bekanntlich durch den Isomorphismus <I> : lKn ---+ V
hergestellt, der ei auf Vi abbildet:
f
V -------7 V

A
lK n -------7 lKn
ist ein kommutatives Diagramm. Die i-te Spalte Aei (die Spalten sind
ja die Bilder der Einheitsvektoren) hat aber genau dann die fragliche
Gestalt, wenn Aei = Aiei gilt, was durch <I> in die gleichbedeutende
Bedingung f(Vi) = AiVi ubersetzt wird: <I> 0 A = f 0 <I> (Diagramm!),
daher Aei = Aiei ~ <I>(Aei) = <I>(Aiei) ~ f(<I>(ei)) = Ai<I>(ei). D

Definition: Endomorphismen, fur die eine Basis aus Eigenvektoren


existiert, heiDen daher diagonalisierbar.

Eine Basis aus Eigenvektoren mochten wir wohl gerne haben, weil der Ope-
rator f darin so einfach - nicht nur aussieht, sondern wirklich - ist. Aller-
dings gibt es nicht fur jeden Endomorphismus eine Basis aus Eigenvektoren.
Hier sind drei ziemlich typische Beispiele, lK := JR und V := JR 2 :

Spiegelung Drehung urn einen Scherung (~~)


Winkel 0 < tp < 7f

Die Spiegelung hat eine Basis (VI, V2) aus Eigenvektoren, die Eigenwerte
sind Al = 1 und A2 = -1, in dieser Basis nimmt die zugehorige Matrix
die Diagonalgestalt (+1 -1) an. Die Drehung urn einen Winkel O<tp<7f
besitzt offenbar uberhaupt keinen Eigenvektor, geschweige eine Basis aus
9.1 EIGENWERTE UND EIGENVEKTOREN 199

Eigenvektoren. Bei der Scherung sind nUl' die Vektoren (i- 0) der x -Achse
Eigenvektoren (zum Eigenwert A = 1), alle anderen "scheren aus", es gibt
also keine Basis aus Eigenvektoren.

Notiz: Ein Vektor v E V,,{O} ist genau dann Eigenvektor von


f: V --> V zum Eigenwert A E lK, wenn v E Kern(f - AId) ist.

Denn f(v) = AV bedeutet f(v) - AV = 0, und f(v) - AV = (f - AId)(v).


Diese in ihrer Trivialitiit so unscheinbare Beobachtung zu machen, verlangt
den kleinen Trick, an die Identitiit Id : V --> V zu denken und v als Id( v) zu
sehen, was manchem Leser hier vielleicht zum ersten Mal begegnet. - Eine
Zahl A E lK ist also genau dann Eigenwert, wenn f - AId nicht injektiv ist,
d.h. wenn der Kern nicht nUl' aus der Null besteht.

Definition: 1st A ein Eigenwert von f, so heiBt der Untervektorraum


E)., := Kern(f - AId)
von V der Eigenraum von f zum Eigenwert A, und seine Dimension
heiBt die geometrische Vielfachheit des Eigenwertes.

Dass Eigenriiume zu verschiedenen Eigenwerten nUl' die Null gemeinsam ha-


ben, ist klar, denn es kann ja nicht f(v) = AV = P,V sein, wenn Ai- p, und
v i- 0 ist. Es gilt aber sogar:

Lemma: Sind VI, ... ,Vr Eigenvektoren zu Eigenwerten Al ... ,Ar von
f, und gilt Ai i- Aj fiir i i- j , so ist (VI, ... , Vr ) linear unabhiingig.

Beweis: Induktionsbeginn: Fiir r = 1 ist (VI) linear unabhiingig, weil


Eigenvektoren nach Definition von Null verschieden sind. Induktions-
annahme: Die Bemerkung sei richtig fiir r = k. Sei nun (VI, ... , Vk+l)
ein (k + l)-tupel von Eigenvektoren zu Eigenwerten AI, ... , Ak+l;
Ai i- Aj fiir i i- j und sei al VI + ... + ak+l Vk+l = O. Durch Anwen-
den von f bzw. dUl'ch Multiplikation mit Ak+l erhiilt man daraus die
beiden Gleichungen
alAlvl+ ... + ak+lAk+lVk+l = 0
alAk+lvl + ... + ak+1Ak+lVk+l = O.
200 Kapitel 9: Eigenwerte

Durch Subtraktion folgt daraus die Gleichung


al(Al ~ Ak+l)Vl + ... + ak(Ak ~ Ak+l)Vk = 0,
die Vk+l nun nicht mehr enthiiJt, und auf die wir deshalb die Induk-
tionsannahme anwenden kCinnen, wonach VI, . .. ,Vk linear unabhangig
sind. Also gilt
al(Al ~ Ak+l) = ... = ak(Ak ~ Ak+l) = 0,
und wegen Ai f Aj fur i f j folgt daraus al = .. = ak = 0, also auch
ak+lvk+l = 0, damit auch ak+l = o. 0

Etwas salopp ausgedruckt: Eigenvektoren zu verschiedenen Eigenwerten sind


linear unabhangig. Insbesondere kann ein Endomorphismus eines n-dimen-
sionalen Vektorraumes hCichstens n verschiedene Eigenwerte haben, und
wenn er wirklich so viele hat, dann ist er gewiss diagonalisierbar. Das ist
aber keine notwendige Bedingung fur die Diagonalisierbarkeit, und genauer
gilt:

Korollar: Sei f : V - t Vein Endomorphismus eines n-dimensionalen


Vektorraumes uber lK, seien AI, . .. ,Ar seine verschiedenen Eigenwerte
und nl, ... , nr deren geometrische Vielfachheiten. Sei ferner jeweils
(i) (i)
(VI , ... , Vni ) eine Basis des Eigenraumes von Ai. Dann ist auch
(vF), ... , v~~), ... , vir), ... , vt»)
linear unabhangig, insbesondere ist die Summe der geometrischen Viel-
fachheiten hCichstens n, und fist genau dann diagonalisierbar, wenn
sie gleich n ist.

Beweis: 1st

so sind nach dem Lemma die ~~~1 a~i)v~i) E EAi gleich Null und weil

(vii), ... ,v~il) linear unabhangig ist, verschwinden also die Koeffizien-
ten a~i). Durch Aneinanderreihung von Basen der Eigenraume entsteht
also, wie behauptet, ein linear unabhangiges (nl + ... + nr )-tupel von
9.2 DAS CHARAKTERISTISCHE POLYNOM 201

Eigenvektoren und daher, falls nl + .. ·+n r = n ist, sogar eine Basis aus
Eigenvektoren. - 1st nun umgekehrt f als diagonalisierbar vorausge-
setzt und bezeichnet mi die Anzahl der Eigenvektoren zum Eigenwert
Ai in einer Basis aus Eigenvektoren, so ist offenbar mi :S ni, also
n = ml+ ... + mr :S nl + ... + nr :S n,
woraus wie behauptet nl + ... + nr = n und nebenbei auch noch
mi = ni folgt. 0

Wir sehen nun schon in groben Zugen, wie man zur Auffindung einer Basis
aus Eigenwerten wird vorgehcn mussen: In einem erst en Schritt suche man
alle A ElK, fur die f - AId nicht injektiv ist - das sind die Eigenwerte. In
einem zweiten Schritt bestimme man fur jeden dieser Eigenwerte AI, .. . , Ar
eine Basis des Eigenraumes Kern(f - Aild). Die Aneinanderreihung dieser
Basen ergibt dann, wenn f uberhaupt diagonalisierbar ist, die gesuchte Basis
von V aus Eigenvektoren von f.

9.2 DAS CHARAKTERISTISCHE POLYNOM

Es sei wieder Vein n-dimensionaler Vektorraum uber lK. Wie stellen wir
praktisch fest, fUr welche A E lK der Endomorphismus f - AId: V -+ V
nicht injektiv, A also ein Eigenwert ist? Aus der Dimensionsformel fur linearc
Abbildungen wissen wir, dass Rang und Kerndimension sich zu n erganzen,
also hat f - A Id genau daIm einen nichttrivialen Kern, wenn rg(f - AId) < n
ist, und das ist bekanntlich genau dann der Fall, wenn die Determinante von
f - AId verschwindet:

Notiz 1: 1st f : V -+ V Endomorphismus eines endlichdimensionalen


Vektorraums uber lK, so ist A E lK genau dann Eigenwert von f, wenn
det(f - AId) = O.
202 Kapitel 9: Eigenwerte

Zum Ausrechnen der Determinante wiihlt man hilfsweise irgend eine Basis
von V und betrachtet die zu f gehorige n x n-Matrix A:

f
V --------+ V

A
lK n --------+ lK n

1st, wie so oft, schon von vornherein V = lK n , so ist dieser Schritt natiirlich
unnotig, weil wir dann ja bei der kanonischen Basis bleiben konnen, beziiglich
der f bereits als eine Matrix A vorliegt. Die Matrix von f - AId ist dann
A - AE, wenn E die Einheitsmatrix bezeichnet. Man erhiilt also A - AE aus
A, indem man von allen Hauptdiagonalelementen A abzieht, und so ergibt
sich nach der Definition der Determinante fUr Endomorphismen (vergl. 6.7)

Notiz 2: Wird f beziiglich einer Basis von V durch die Matrix A


beschrieben, so ist
a11 -A a12 a1n)
a21 a22-A... a2n
det(f - AId) = det (

a~, an2 . .. an~-A


Diese von A abhiingige Determinante nun, die uns wegen der Eigenwerte so
interessiert, ist das so genannte chamkteristische Polynom Pf von f.

LeIllIlla und Definition: 1st f : V --> Vein Endomorphismus


eines n-dimensionalen Vektorraums iiber lK, so gibt es Elemente
ao, ... , an-l E: lK mit Pf(A) := det(f - AId) =
(_l)n An + an_lA n - l + ... + alA + ao
fiir alle A E: lK. Man nennt P f das chamkteristische Polynom von f.

Beweis: Sind A und B n x n-Matrizen, dann ist det(A - AB) jedenfalls


von der Form

fiir geeignete Co, ... ,Cn E: lK, das folgt sofort durch Induktion nach n mittels
der Entwicklungsformel fiir die Determinante: der Induktionsbeginn (n = 1)
9.2 DAS CHARAKTERISTISCHE POLYNOM 203

ist trivial, und entwickeln wir det(A - >'B) etwa nach der ersten Spalte, so
ist ja der i-te Summand gerade
(-1)i+1(ai1- >.b i1 )det(A;1 - >.Bil )
(vergl. die Entwicklungsformel in 6.1), und auf det(A i1 - >.Bi1 ) ki::innen wir
die Induktionsannahme anwenden. - Es bleibt also nur ubrig zu bewei-
sen, dass wir im Speziaifall B := E, mit dem wir ja laut Notiz 2 zu tun
haben, C n = (_l)n setzen durfen. Aber auch das folgt nun durch In-
duktion mittels Entwicklung nach der ersten Spalte: der erste Summand
(al1 ->.) det(A l1 ->.El1 ) , wobei also Au und Ell aus A und E durch Strei-
chung der ersten Zeile und Spalte entstehen, ist nach Induktionsannahme von
der Gestalt (-1) n >. n + Terme mit niedrigeren Potenzen von >., wahrend die
anderen Summanden (-1)1+ iai1 det(A i1 ->.Ei1 ) , nach der obigen Vorbemer-
kung uber A - >'B, ebenfalls nur niedrigere Potenzen von >. beitragen, also
ist det(A - >'E) = det(j - >. Id) von der behaupteten Gestalt. D

Korollar: Die Eigenwerte sind die NuIlstellen des charakteristischen


Polynoms.

Fur ][( = lR oder IC und n = 2 sind die NuIlstellen des charakteristischell


Polynoms Pj(>') = >.2+ a1 >'+ao leicht zu bestimmen: wegen >.2+ a1 >.+ao =
¥ J
(>.+ T j2 - +ao sind es die beiden Zahlen >'1,2 = -~ (a1 ± ai - 4ao) , wie
man etwas lax wohl sagen darf, wenn auch im FaIle ai = 4ao naturlich nur
eine und im FaIle ][( = lR und ai < 4ao gar keine NuIlstelle >. E ][( vorhanden
ist. In konkreten Anwendungen ist sehr oft n = 2. - Uber Polynome im
Allgemeinen ware freilich noch viel zu sagen, fur die konkreten Ziele des
vorliegenden Lineare-Algebra-Skriptums fUr das erste Semester brauchen wir
aber eigentlich nur eines zu wissen, namlich den so genannten

F'undamentalsatz der Algebra: Jedes komplexe Polynom von einem


Grade n:::: 1, d.h. jede Abbildung P: IC -+ IC von der Form
P(z) = cnz n + ... + C1Z + Co,
wobei n :::: 1, Co, ... , Cn E IC und Cn # 0, hat mindestens cine
NuIlstelle.

Fur den Beweis siehe [24].


204 Kapitel 9: Eigenwerte

Korollar: Fur n 2': 1 hat jeder Endomorphismus eines n-dimensiona-


len komplexen Vektorraums mindestens einen Eigenwert.

Von dieser Tatsache werden wir im folgenden § 10 beim Beweis des Satzes von
der Hauptachsentransformation selbstadjungierter Endomorphismen in n-
dimensionalen euklidischen Vektorraumen (insbesondere von symmetrischen
n x n-Matrizen) Gebrauch machen.

9.3 TEST

(1) Damit von den "Eigenwerten" einer linearen Abbildung f V --+ W


uberhaupt gesprochen werden kann, muss f ein

o Epimorphismus (surjektiv)
o 1somorphismus (bijektiv)
o Endomorphismus (V = W)
sein.

(2) v f 0 heiJ3t Eigenvektor zum Eigenwert A, wenn f(v) = AV. Wenn


nun stattdessen f( -v) = AV gilt, dann ist

o -v Eigenvektor zum Eigenwert A


o v Eigenvektor zum Eigenwert - A
o -v Eigenvektor zum Eigenwert - A

(3) 1st f : V --+ Vein Endomorphismus und A ein Eigenwert von f, so


versteht man unter dem Eigenraum E).. von f zum Eigenwert A

o Die Menge aller Eigenvektoren zum Eigenwert A


o Die Menge, die aus allen Eigenvektoren zum Eigenwert A und dem
N ullvektor besteht
o Kern(A1d)
9.3 TEST 205

(4) Welcher der folgenden drei Vektoren ist Eigenvektor von


1 = (~ ~) :]R2 -> ]R2

o o o

(5) Sei 1 : V -> V Endomorphismus eines n-dimensionalen Vektorraums,


A1, ... , Ar die verschiedenen Eigenwerte von 1. Dann gilt:

o dimE).., + ... +dimE)..r = A1 + ... +Ar


o dimE).., + ... + dimE)..r ;:::; n
o dimE).., + ... + dimE)"r > n

(6) Sei 1: V ~ Vein Automorphismus von V und A ein Eigenwert von 1.


Dann ist

o A auch Eigenwert von 1- 1


o -A Eigenwert von 1- 1
o ± Eigenwert von 1- 1

(7) Ein Endomorphismus 1 eines n-dimensionalen Vektorraums ist genau


dann diagonalisierbar, wenn

o 1 n verschiedene Eigenwerte hat


o 1 nur einen Eigenwert A hat und dessen geometrische Vielfachheit
n ist
o n gleich der Summe der geometrischen Vielfachheiten der Eigen-
werte ist

(8) Die Begriffe Eigenwert, Eigenvektor, Eigenraum, geometrische Vielfach-


heit, Diagonalisierbarkeit haben wir fiir Endomorphismen von (gegebe-
nenfalls endlichdimensionalen) Vektorriiumen V erkliirt. Welche wei-
tere "Generalvoraussetzung" machen wir dabei:

o V stets reeller Vektorraum


o V stets euklidischer Vektorraum
o keine besondere weitere Voraussetzung, V Vektorraum iiber lK
206 Kapitel 9: Eigenwerte

(9) Das charakteristische Poly nom von j = (_~ ~) : C 2 -7 C2 ist gegeben


durch

o PfC>"') = A2 + A + 6
o Pf(A) = A2 - A + 6
o Pf(A) = -A+7

(10) Sind j, 9 : V - 7 V Endomorphismen und gibt es ein 'P E G L(V) mit


j = rpgrp-I , so haben j und 9

ODie gleichen Eigenwerte


ODie gleichen Eigenvektoren
ODie gleichen Eigenriiume

9.4 POLYNOME

EIN ABSCHNITT FUR MATHEMATIKER

1st :oc ein beliebiger Karper und betrachtet man Polynome in einer "Unbe-
stimmten" A als Ausdrucke der Form P(A) := CnAn + ... + CIA + Co, wobei
n 2" 0 und die Ci E :oc sind, so muss man zwischen einem Polynom P(A) und
der dadurch definierten polynomialen Abbildung P : :oc -7 :oc unterscheiden,
und zwar nicht nur aus Pedanterie, sondern weil es wirklich vorkommen kann,
dass Polynome mit unterschiedlichen Koeffizienten Co, ... , Cn und co, ... , cm
dieselbe polynomiale Abbildung ergeben. Hier ein Beispiel: 1st :oc := lF2 =
{O, I} der (schon im Abschnitt 2.5 erwiihnte) Karper aus zwei Elementen, so
definieren die beiden Polynome P(A) := A und P(A) := A2 dieselbe polyno-
miale Abbildung IF 2 -7 IF 2, weil eben 0·0 = 0 und 1·1 = 1 gilt. Daraus kann
man viele weitere Beispiele herstellen, analog fur andere endliche Karper. Fur
Karper mit unendlich vielen Elementen gilt aber das
9.4 POLYNOME 207

Lemma vom Koeffizientenvergleich: 1st lK = lR oder IC (allgemei-


ner: ein Korper mit unendlich vielen Elementen) und P : lK --+ lK von
der Form P(A) = CnAn + ... + C1A + Co fur geeignete Co, ... , Cn E lK,
so sind diese Koejfizienten Co, ... ,Cn durch die Abbildung P eindeutig
bestimmt.
Definition: 1st auJ3erdem Cn =I 0, so heiJ3t P ein Polynom vom
Grade n.

Fiir lK = lR oder IC ist Ihnen die Aussage des Lemmas wahrscheinlich aus der
Analysis-Vorlesung schon bekannt. Es gehort aber eigentlich in die Theorie
der linearen Gleichungssysteme. Wiihlt man niimlich n + 1 verschiedene
Elemente A1, ... , An+1 ElK, so bilden die n + 1 Gleichungen
cnA7 + ... + C1Ai + Co = P(Ai),
i = 1, ... , n + 1, ein eindeutig losbares lineares Gleichungssystem fur die
als Unbekannte aufgefassten cn, ... ,co, da die Koeffizientenmatrix des Glei-
chungssystems die von Null verschiedene Determinante

hat (VANDERMONDEsche Determinante, raffinierter Induktionsbeweis).


Also sind die Koeffizienten Co, ... , Cn eines Polynoms hochstens n-ten Gra-
des durch seine Werte an n + 1 verschiedenen Stellen immer eindeutig
bestimmt, insbesondere kann ein Polynom n-ten Grades, n ;::: 1, nicht mehr
als n N ullstellen haben.

1m Folgenden sei der Korper lK stets lR oder IC oder allgemeiner ein


Korper mit unendlich vielen Elementen.

Lemma: 1st P(x) ein Polynom n-ten Grades, n ;::: 1, und AO E lK


eine N ullstelle davon, dann gilt
P(A) = (A - AO)Q(A)
mit einem wohlbestimmten Polynom Q yom Grad n - 1.
208 Kapitel 9: Eigenwerte

Beweis: P(A + AO) ist offenbar ein Polynom n-ten Grades in A mit
einer N ullstelle bei 0, also von der Form
P(A + AO) = anAn + ... + alA = A' (a n An- 1 + ... + a1).
Setzen wir nun A - AO statt A ein, so folgt

Praktisch wird man aber die Koeffizienten bn - 1 , ... , bo von Q besser nicht
auf diesem Wege, sondern direkt durch Koeffizientenvergleich aus P(A) =
(A - AO)Q(A) oder
CnAn + ... + Co = (A - Ao)(bn _ 1An - 1 + ... + bo)
bestimmen, von oben herunter: bn - 1 = Cn als Beginn der Rekursion, die
dann jeweils mit Ck = bk- 1 - Aob k , also bk-1 = Ck + Aob k weitergeht ("Divi-
sion von P d urch den Linearfaktor (A - AO) " ) .
Hat auch Q eine Nullstelle, so konnen wir auch von Q wieder einen Line-
arfaktor abspalten usw., so lange das eben geht. Aus dem Fundamentalsatz
der Algebra folgt daher, dass man ein komplexes Polynom giinzlich in Line-
arfaktoren zerlegen kann, genauer

Korollar und Definition: Jedes komplexe Polynom P zerfiillt in Li-


nearfaktoren, d.h. ist P(A) = CnAn + ... + Co mit Cn oF 0, und sind
A1, ... ,Ar E CC die (paarweise verschiedenen) N ullstellen von P, so gilt
r
P(A) = Cn TI (A - Ai)m i
i=l
mit wohlbestimmten Exponenten ffii ?: 1, welche man die Vielfachhei-
ten der Nullstellen nennt. 1st insbesondere Vein n-dimensionaler kom-
plexer Vektorraum, f : V --+ Vein Endomorphismus und A1,"" Ar
seine verschiedenen Eigenwerte, so gilt
r
Pf(A) := det(j - AId) = (_1)n TI (A - Ai)m i ,
i=l

und die ffii heiDen nun die algebraischen Vielfachheiten der Eigen-
werte Ai, im Unterschied zu deren geometrischen Vielfachheiten
ni := dim Kern(j - Ai ld) , den Dimensionen der Eigenriiume.
9.4 POLYNOME 209

Es ist stets ni <::; mi, denn wenn man eine Basis eines Eigenraumes, sagen
wir zum Eigenwert AI, zu einer Basis von V erganzt, so hat f bezuglich
diesel' Basis eine Matrix del' Gestalt

Al

Al *
A=
0
*

und deshalb kommt in del' Linearfaktorzerlegung von Pj(A) = det(A - AE)


del' Faktor (A-AI) mindestens nl mal vor. - Die geometrische Vielfachheit
kann wirklich kleiner als die algebraische sein, die Scherungsmatrix

ist hierfur ein Beispiel: del' (einzige) Eigenwert Al = 1 hat die geometri-
sche Vielfachheit 1 und die algebraische Vielfachheit 2. - Die Summe del'
algebraischen Vielfachheiten ist offenbar del' Grad von Pj, also n. Da wir
schon wissen (vgl. 9.1), dass ein Endomorphismus genau dann diagonalisier-
bar ist, wenn die Summe seiner geometrischen Vielfachheiten n ist, so folgt
aus ni <::; mi naturlich:

Bemerkung: Ein Endomorphismus eines endlichdimensionalen kom-


plexen Vektorraums ist genau dann diagonalisierbar, wenn die geo-
metrischen Vielfachheiten seiner Eigenwerte mit den algebraischen
ubereinstimmen.
210 Kapitel 9: Eigenwerte

9.5 LITERATURHINWEIS

Diesmal mochte ich Ihnen das Buch [11] von Serge Lang empfehlen.-- Das
vorliegende Skriptum umfasst ja nur ein Semester, und als ich seinerzeit die
Vorlesung als Lineare Algebra II fortsetz;te, da habe ich das Buch von Serge
Lang zur Pflichtlekture erklart und alles das in der Vorlesung besprochen,
was nicht schon im ersten Semester, also im Skriptum behandelt worden war.
Das Buch ist sehr schon und klar, und auJ3erdem kann Ihnen die Vertraut-
heit mit diesem Autor noch oft im Studium nUtzlich sein, da er noch eine
Reihe vorzuglicher Lehrbucher aus anderen Gebieten geschrieben hat.

9.6 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 9.1: Man berechne die Eigenwerte und zugehorigen Eigenraume


fUr die folgenden 2 x 2-Matrizen, und zwar jeweils getrennt fur die FaIle
lK = ]Ft und lK = C:

0 0) (0
( o 1) (0 1) (0 1) (0 -1) ( 0 1)
0 ' 1 0 ' 0 0 ' 4 3 ' 1 0 ' -5 4 .

AUFGABE 9.2: Ein Untervektorraum U von V heiJ3t invariant gegenuber


einem Endomorphismus f, wenn f(U) cU. Man zeige: Die Eigenraume
von fn := f 0 . . . 0 f sind invariant gegenuber f.

AUFGABE 9.3: Es bezeichne ]FtN den Vektorraum der reellen Folgen (a n )n>l.
Man bestimme Eigenwerte und Eigenraume des durch

definierten Endomorphismus f : ]FtN -+ ]FtN.


9.6 UBUNGEN 211

ZWEI *-AUFGABEN:

AUFGABE 9.1*: Da man Endomorphismen von V addieren und zusammen-


set zen kann, hat es einen Sinn, ein durch
P(t) =aO+alt+···+antn , ai ElK
definiertes Polynom P auf einen Endomorphismus anzuwenden:
P(f) = ao + ad + ... + anr : V --+ V.
Man zeige: 1st>.. ein Eigenwert von f, dann ist P(>..) ein Eigenwert von
P(f).

AUFGABE 9.2*: Sei 7r: {l, ... ,n} --+ {l, ... ,n} eine bijektive Abbildung
("Permutation"). Sei f 7r : JRn --+ JRn durch
f7r(Xl, ... , xn) := (X7r(l)' ... ' X7r (n»)
definiert. Man bestimme samtliche Eigenwerte von f7r.

UBUNGEN FUR PHYSIKER:

AUFGABE 9.1P: = Aufgabe 9.1 (fUr Mathematiker)

AUFGABE 9.2P: Der Endomorphismus A : V --+ V des zweidimensionalen


Vektorraums V habe nur einen Eigenwert >.., und E).. sei der zugeh6rige
Eigenraum. Man zeige Aw - >..w E E).. fur aIle w E V.

AUFGABE 9.3P: Es sei V der reeIle Vektorraum der unendlich oft differen-
zierbaren Funktionen f: JR --+ JR. Man bestimme aIle Eigenwerte der zweiten
Ableitung
10. Die Hauptachsen-Transformation

10.1 SELBSTADJUNGIERTE ENDOMORPHISMEN

Der Name Hauptachsentransformationstammt eigentlich aus der Theorie der


Kegelschnitte. Eine Hauptachsentransformation fur das in der obigen Titel-
vignette dargestellte Hyperbelpaar im ]R2 zum Beispiel ware eine orthogonale
Abbildung oder Transformation P: ]R2 --+ ]R2, welche die Koordinatenachsen
in die punktiert gezeichneten Richtungen der beiden "Hauptachsen" des Hy-
perbelpaares bringt. Aber nicht mit dieser geometrischen Aufgabe wollen wir
uns hier beschaftigen, sondern mit einem dem mathematischen Inhalte nach
gleichbedeutenden, in den Anwendungen aber wichtigeren Problem, namlich
zu einem selbstadjungierten Operator in einem endlichdimensionalen eukli-
dischen Vektorraum eine Orthonormalbasis aus Eigenvektoren zu £lnden.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_10,


© Springer-Verlag Berlin Heidelberg 2008
10.1 SELBSTADJUNGIERTE ENDOMORPIIISMEN 213

Definition: Es sei (V, ( . , . )) ein euklidischer Vektorraum. Ein Ope-


rator oder Endomorphismus j : V -> V heiBt selbstadjungiert, wenn
(f(v),w) = (v,j(w))
fUr alle v, w E V gilt.

Zwei unmittelbare Folgerungen aus der Selbstadjungiertheitsbedingung las-


sen die Chancen fur eine orthonormale Basis aus Eigenvektoren zuniichst
sehr gut erscheinen, es gilt niimlich:

Bemerkung 1: Eigenvektoren v und w eines selbstadjungierten Ope-


rators j zu Eigenwerten A '" It stehen senkrecht aufeinander.

BEWEIS: Aus (f(v),w) = (v,j(w)) ergibt sich (AV,W) = (v,p,w) , also


(A - p,)(v, w) = 0 und daher (v, w) = 0 wegen A - p, '" O. 0

Bemerkung 2: 1st v Eigenvektor des selbstadjungierten Operators


j: V -> V, so ist der Untervektorraum
v1. := {w E V I w.l v}
invariant unter j, d.h. es gilt j (v1.) C v1. .

BEWEIS: Aus (w,v) = 0 folgt auch (f(w),v) = 0, denn


(f(w),v) = (w,j(v))
wegen der Selbstadjungiertheit, und (w,j(v)) = (W,AV) = A(W,V) = 0
nach Voraussetzung. 0

Folgt daraus nicht schon die Existenz einer ON-Basis aus Eigenvektoren
durch 1nduktion nach der Dimension des Raumes V? 1st v zuniichst ir-
gend ein Eigenvektor des selbstadjungierten Operators j : V -> V und
dim V = n, so gibt es nach 1nduktionsannahme eine ON-Basis (V1, ... , Vn -1)
aus Eigenvektoren des natiirlich ebenfalls selbstadjungierten Operators
j Iv1. : v1. ---+ v1.,
und wir brauchen nur Vn viii v I zu sctzcn und haben die gewunschte
ON-Basis (V1, ... ,Vn )?
214 Kapitel 10: Die Hauptachsen-Transformation

\
Wir diirften schon so schlieBen, wenn wir nur sicher sein ki:innten, dass es
"irgend einen" Eigenvektor v immer gibt! Das ist nun nicht ebenso trivial wie
die obigen beiden Notizen, aber es ist wahr, und im kommenden Abschnitt
10.2 werden wir es mit beweisen.

10.2 SYMMETRISCHE MATRIZEN

Beziiglich einer Basis (VI, ... , V n ) eines Vektorraumes V iiber OC lasst sich
jeder Endomorphismus f : V -+ V, wie wir wissen, durch eine Matrix
A : oc n -+ OCn beschreiben, namlich vermoge des kommutativen Diagramms

f
V -----+ V

A
OC n -----+ OC n
in dem <P := <P(Vl, ... ,V n ) den von uns so genannten Basisisomorphismus be-
zeichnet, der eben die kanonischen Einheitsvektoren ej auf <p( ej) = Vj ab-
bildet. Verfolgen wir ej auf den beiden Wegen von links unten nach rechts
10.2 SYMMETRISCHE MATRIZEN 215

oben, so sehen wir

f-+ f(vj) bzw.


f-+ 2:~=1 aijVi,
weil niimlich Aej bekanntlich die j-te Spalie von A ist, also muss
n
f(vj) = 2: aijVi
i=1
gelten. Durch diese Formel wird iibrigens die zu f gehorige Matrix oft de-
jinieri, was zwar schnell geht, aber wegen der befremdlichen und motivie-
rungsbediirftigen Stellung der Indices doch nicht so nett ist. - Soviel zur
Erinnerung und zur Einleitung der folgenden

Bernerkung 3: 1st (V, (. ,.)) ein euklidischer Vektorraum und


(VI, ... , Vn ) eine Orthonormalbasis von V, so ist die Matrix A eines
Endomorphismus f : V ----> V durch
aij = (Vi, f(Vj))
gegeben.

BEWEIS: Wie jeden Vektor kann man auch f(Vj) nach der ON-Basis
entwickeln und erhiilt f(vj) = 2:~=1 (Vi, f(Vj))Vi, woraus sich die Be-
hauptung (gelesen fur festes j als Formel fiir die j-te Spalte) ergibt.
D

Korollar: 1st (VI, ... , Vn ) eine Orthonormalbasis des euklidischen Vek-


torraums V, so ist ein Operator f : V ----> V genau dann selbstadjun-
giert, wenn seine Matrix A bezuglich (VI, ... ,vn ) symmeirisch ist, d.h.
aij = aji erfiillt.

Beweis: Wegen aij = (Vi, f(Vj)) ist die Symmetrie jedenfalls notwen-
dig fur die Selbstadjungiertheit. Sie ist aber auch hinreichend, denn
wenn die Selbstadjungiertheitsbedingung fiir die Basisvektoren erfiillt
ist,

was ja eben aji = aij bedeutet, dann auch fur beliebige Vektoren, weil
216 Kapitel 10: Die Hauptachsen-Transformation

das Skalarprodukt bilinear ist:


U(V), w) = U(1', XiVi) , 'f'%Vj)
= 1',1',XiYjU(Vi), Vj)
= 1',1',x iYj(Vi, f(vj))
= (v, f(w)). D

Symmetrische Matrizen und selbstadjungierte Operatoren in endlichdimen-


sionalen euklidischen Riiumen sind also nahe verwandt, und im Spezialfall
V := lR n mit dem Standard-Skalarprodukt (x, y) := 1',xiYi sind sie liberhaupt
dasselbe ~ was man auch ohne obiges Korollar aus
n
(Ax, y) = 2:= aijXiYj
i,j=l

ablesen kann. Allgemeine Aussagen liber selbstadjungierte Operatoren sind


also immer auch Aussagen liber symmetrische Matrizen, und oft ist auch der
umgekehrte Weg gangbar, insbesondere werden wir ihn jetzt gleich beim Be-
weis unserers Haupthilfssatzes fUr die Hauptachsentransformation beschrei-
ten:

Hilfssatz: Jeder selbstadjungierte Endomorphismus eines n-dimensio-


nalen euklidischen Vektorraums V mit n > 0 hat einen Eigenvektor.

Beweis: Es genligt, den Satz fUr symmetrische reelle n x n-Matrizen


A : lR n ----------'> lR n
zu beweisen, denn ist A := <I> 0 f 0 <1>-1 die Matrix cines selbstad-
jungierten Operators f : V --; V beziiglich einer ON-Basis, so ist A
symmetrisch, und ist x E lR n ein Eigenvektor von A zum Eigenwert
.\ E lR, so ist auch v := <I>(x) ein Eigenvektor von f zum Eigenwert .\.
~ Die Eigenwerte sind die N ullstellen des charakteristischen Polynoms.
Wie k6nnen wir zeigen, dass es ein .\ E lR mit PA(.\) = 0 gibt?
Reelle Polynome brauchen in lR keine N ullstelle zu haben, aber wem
wlirde an diesem Punkte der Er6rterung nicht der einzige Existenzsatz
10.2 SYMMETRISCHE MATRIZEN 217

fur Polynom-Nullstellen einfallen, den wir haben, niimlich der Funda-


mentalsatz der Algebra? Danaeh gibt es jedenfalls eine komplexe Zahl
A=,+iwEIC
mit PA(A) = O. Diese komplexe Zahl ist deshalb ein Eigenwert des
dureh dieselbe Matrix A gegebenen Endomorphismus
A : IC n ---------+ IC n
des komplexen Vektorraums ICn, d.h. es gibt einen von Null versehie-
denen Vektor

Z-
_ (~l)
. .
_ (Xl ~. iYl ) EIC
- .
n

Zn Xn + iYn
mit Az = AZ, also A· (x + iy) = (r +iw)(x +iy), oder, naeh Real- und
Imaginiirteilen sortiert:
Ax = ,x - wy und
Ay=,y+wx.
Freilich wissen wir im Augenbliek nieht, ob uns die Betraehtung die--
ses komplexen Eigenvektors etwas helfen kann oder ob wir nicht schon
liingst vom Thema abgeirrt sind. Aber bisher haben wir die Symme-
trie der Matrix A noeh gar nieht ausgenutzt, und bevor wir die beiden
Vektoren x, y E JRn als unbrauehbar beiseite legen, werden wir doeh
wenigstens einmal hinsehreiben, was uns die Symmetriebedingung
(Ax, y) = (x, Ay)
etwa noeh zu sagen hat, niimlieh
(rx - wy, y) = (x"y + wx)
also
,(x, y) - w(y, y) = ,(x, y) + w(x, x)
oder

und da x+iy = Z # 0 war, folgt daraus w = 0, mithin A =, E JR. Also


hat das eharakteristisehe Polynom doeh eine reelle Nullstelle! Na, gut
dass wir diesen letzten Versueh noeh gemaeht haben, denn das wollten
wir ja beweisen. D
218 Kapitel 10: Die Hauptachsen-Transformation

10.3 DIE HAUPTACHSENTRANSFORMATION


FUR SELBSTADJUNGIERTE ENDOMORPHISMEN

Schon in 10.1 hatten wir gesehen, wie aus der Existenz von Eigenvektoren
die Existenz einer Orthonormalbasis aus Eigenvektoren fur selbstadjungierte
Operatoren folgen wurde. Nun, nach bewiesenem Hilfssatz, wollen wir's in
den Haupttext aufnehmen und schrciben

Satz: 1st (V, ( . , . )) ein endlichdimensionaler euklidischcr Vcktorraum


und f : V --> Vein selbstadjungierter Endomorphismus, so gibt es eine
Orthonormalbasis aus Eigenvektoren von f.

Beweis: 1nduktion nach n = dim V. Fur n = 0 ist der Satz trivial


(Ieere Basis). 1nduktionsschluss : Sei n ::;> 1. Nach dem Hilfssatz gibt
es einen Eigenvektor V und nach der 1nduktionsannahme eine Ortho-
normalbasis (VI, ... , Vn-I) aus Eigenvektoren fUr
flv~ : V~ ------> V~.

Setze Vn := ~. Dann ist (VI, ... , v n ) die gesuchte Basis. D

Korollar (Hauptachsentransformation selbstadjungierter Ope-


ratoren): Zu einem selbstadjungierten Endomorphismus f : V --> V
eines n-dimensionalen euklidischen Vektorraumes Hisst sich stets eine
orthogonale Transformation
P : lR n --=---. V
finden ("Hauptachsentransformation"), welche f in eine Diagonalma-
trix D := p-I 0 foP der Gestalt

uberfuhrt, worin AI, ... ,AT die verschiedenen Eigenwerte von f sind,
jeder so oft in der Diagonalen aufgefUhrt, wie es seiner geometrischen
Vielfachheit entspricht.
10.3 FUR SELBSTADJUNGIERTE ENDOMORPHISMEN 219

Urn ein solches P zu erhalten, nimmt man einfach eine Orthonormal-


basis aus Eigenvektoren, so geordnet, dass die Eigenvektoren zum selben
Eigenwert jeweils nebeneinander stehen. Dann hat der Basisisomorphismus
<I>(Vl, ... ,V n ) =: P die gewiinschte Eigenschaft. - Insbesondere fiir V := lR n
mit dem iiblichen Skalarprodukt:

Korollar (Hauptachsentransformation der symmetrischen re-


ellen Matrizen): 1st A eine symmetrische reelle n x n-Matrix, so gibt
es eine orthogonale Transformation P E O(n), so dass D := p- 1 AP
eine Diagonalmatrix mit den Eigenwerten von A in der Diagonalen ist,
jeder so oft aufgefiihrt, wie seine geometrische Vielfachheit angibt.

1m Hinblick auf eine gewisse wichtige Verallgemeinerung schlieBlich, die


Sie in einem spiiteren Semester einmal in der Funktionalanalysis kennenler-
nen werden, wiirde die folgende Fassung gerade die "richtige" sein:

Korollar (Spektraldarstellung selbstadjungierter Operato-


ren): 1st f: V ---> Vein selbstadjungierter Endomorphismus eines
endlichdimensionalen euklidischen Vektorraums, dann gilt
r
f = L: AkPk,
k=l

wobei AI,"" Ar die verschiedenen Eigenwerte sind und Pk: V ---> V


jeweils die Orthogonalprojektion auf den Eigenraum EAk bezeichnet.

\\\ \ \\
\\\0\\\
220 Kapitel 10: Die Hauptachsen-Transformation

Beweis: Es geniigt zu zeigen, dass beide Seiten auf Eigenvektoren von


f dieselbe Wirkung haben, denn es gibt ja eine Basis aus Eigenvekto-
reno Sei also vein Eigenvektor zum Eigenwert Aj. Dann ist f(v) = AjV
und
fiirk=j,
fiirk#j,
weil Eigenvektoren zu verschiedenen Eigenwerten senkrecht aufeinan-
der stehen. Also ist auch ~~=I AkPk(V) = AjV. 0

Wenn man die Hauptachsentransformation praktisch durchzufiihren hat, wird


der selbstadjungierte Endomorphismus meist schon als symmetrische Matrix
A gegeben sein, andernfalls nehme man eine beliebige orthonormale Basis zur
Hand und stelle f durch eine symmetrische Matrix A dar. Das "Rezept"
fiir die Durchfiihrung der Hauptachsentransformation heiBt dann:

Rezept: Sei A eine reelle symmetrische n x n- Matrix. U m eine Haupt-


achsentransformation P E O(n) fiir A aufzufinden, fiihre man die fol-
genden vier Schritte durch:
1. Schritt: Man bilde das charakteristische Polynom
PA(A) := det(A - AE)
und bestimme dessen verschiedene Nullstellen AI, ... , AT' also die Ei-
genwerte von A.
2. Schritt: Fiir jedes k = 1, ... , T bestimme man eine Basis, nen-
nen wir sie (wik), ... , w~~»), des Eigenraumes E Ak , indem man das
GauBsche Verfahren (Abschnitt 7.5) zur Lasung des Gleichungssystems
(A - AkE)x = 0 anwendet.

3. Schritt: Man orthonormalisiere (wik), ... , w~~) mittels des Erhard


Schmidtschen Orthonormalisierungsverfahrens (Abschnitt 8.2) zu einer
· (k)
Ort honormalb aSlS (k»)
VI , ... , V nk •

4. Schritt: Durch Aneinanderreihung dieser Basen cntsteht dann die


· (
Ort honormalb aSlS VI,.·.,Vn ) .-
.- (VI(1) ' ... 'Vnl'···'VI
(1) (r) (r»)
' ... 'Vnr von
V aus Eigenvektoren von A, und man erhiilt Pals die Matrix mit den
Spalten vI, ... , Vn :
10.4 TEST 221

p.- VI V2 .•• Vn

10.4 TEST

(1) Ein Endomorphismus f eines euklidischen Vektorraums heiBt selbstad-


jungiert, wenn
o (f(v), f(w)) = (v, w)
o (v, f(w)) = (f(v), w)
o (f(v), w) = (w, f(v))
fur aIle v, w E V gilt.

(2) Sind A1, ... , Ar Eigenwerte eines selbstadjungierten Endomorphismus,


Ai i- Aj fUr i i- j, und Vi Eigenvektor zu Ai, i = 1, ... , r, dann gilt
fUr i i- j
o vi..l Vj

(3) Sei Vein endlichdimensionaler euklidischer Vektorraum. Die Aussage,


dass fur jeden invariant en Untervektorraum U c V auch Ul- invariant
unter fist, gilt fur
o jeden selbstadjungierten
o jeden orthogonalen
o jeden
Endomorphismus von V.
222 Kapitel 10: Die Hauptachsen-Transformation

(4) Welche der folgenden Matrizen ist symmetrisch

(! D n
0 1 0 1 2 0

G D (~
0 3 0 3 4 0
D D D
2 0 3 0 0 4
4 0 4 0 0 3

(5) Sei A eine reelle n x n-Matrix und Z E en


ein komplexer Eigenvektor,
Z = x + iy mit x, y E JR.n, zu dem reellen Eigenwert A. Sei ferner
y i- o. Dann ist
DyE JR.n Eigenvektor von A zum Eigenwert A
DyE JR.n Eigenvektor von A zum Eigenwert iA
DyE JR.n, falls x i- 0, kein Eigenvektor von A.

(6) Die Hauptachsentransformation fur eine reelle symmetrische Matrix A


auszufuhren, heiJ3t
D Eine symmetrische Matrix P zu £lnden, so dass p- 1 AP Diagonal-
gestalt hat
D Eine orthogonale Matrix P E O(n) zu £lnden, so dass p- 1 AP Dia-
gonalgestalt hat
D Eine invertierbare Matrix P E GL(n, JR.) zu £lnden, so dass p- 1 AP
Diagonalgestalt hat.

(7) Sei Vein n-dimensionaler euklidischer Vektorraum, U C Vein k-


dimensionaler Untervektorraum. Wann ist die Orthogonalprojektion
P u : V ---> U selbstadjungiert?
D Stets
D Nur fUr 0 < k ::; n
D Nur fur 0 ::; k < n

(8) Gibt es ein Skalarprodukt auf JR.2, in dem die Scherung (~ ~) selbst-
adjungiert ist?

D Nein, da (~ ~) nicht diagonalisierbar ist


D Ja, man setze (x, y) := XlYl + .TlY2 + X2Y2
D Ja, das Standard-Skalarprodukt hat bereits diese Eigenschaft
10.4 TEST 223

(9) Sei f : V --> Vein selbstadjungierter Operator und (VI,"" V n ) eine


Basis aus Eigenvektoren mit II Vi II = 1 fur i = 1, ... , n. 1st dann
(VI,"" V n ) bereits eine ON-Basis?

D Ja, nach Definition des Begriffes Orthonormalbasis.


D Ja, da Eigenvektoren selbstadjungierter Operatoren senkrecht auf-
einander stehen
D N ein, da die Eigemiiume nicht eindimensional zu sein brauchen

(10) Hat eine symmetrische reelle n x n- Matrix nUT einen Eigenwert )." dann
ist

D A bereits in Diagonalgestalt
D aij = )., fur alle i, j = 1, ... ,n.
D n= 1

10.5 LITERATURHINWEIS

Welche Bandbreite del' akademische Unterricht in linearer Algebra derzeit in


Deutschland hat, wei£ ich nicht, und ich glaube auch nicht, dass es jemand
anders wei£, denn weI' hiitte gleichzeitig einen Anlass und die Mittel, das
festzustellen? AuBerdem fiihlen sich in jedem Semester Dozenten wieder von
neuem herausgefordert, die Aufgabe in origineller Weise zu losen, und das
ist auch gut so.
Die neueren odeI' giingigen iilteren deutschsprachigen Lehrbucher ergeben
zusammen mit dem, was man gelegentlich so erfiihrt, abel' doch ein gewisses
Bild, und ich mochte vermuten, dass die folgenden Ihnen hiermit empfohlenen
Beispiele einen guten Teil des Spektrums uberdecken.
Etwa denselben Stoff wie im vorliegenden Skriptum, niimlich lineare Al-
gebra ohne analytische Geometrie, behandeln die beiden Biinde [14] von F.
Lorenz. Zwar ist das Niveau etwas hoher angesetzt und der Inhalt, da er fill
zwei Semester gedacht ist, natiirlich etwas urnfangreicher, aber die beiden
Bucher sind sehr schon lesbar.
Die analytische Geometrie finden Sie zum Beispiel in dem Fortsetzungs-
band [4] des schon erwiihnten bekannten Buches [3] von G. Fischer.
224 Kapitel 10: Die Hauptachsen-Transformation

Aueh von R. Walter liegt je ein Band fiir das erste und das zweite Se-
mester vor, [21] und [22]. Hier enthiilt der zweite Band auJ3er analytiseher
Geometrie aueh die z.B. fiir die Vektoranalysis so wiehtige multilineare Al-
gebra.
Das Bueh [15] von Niemeyer und Wermuth, ersehienen in einer Reihe
mit dem Titel Rechnerorientierte Ingenieurmathematik, behandelt, wie die
Autoren im Vorwort formulieren, die grundlegenden Teile der Theorie, sowie
die wichtigsten numerisehen Verfahren der linearen Algebra in einheitliehem
Zusammenhang.
Lineare Algebra und die affine, die euklidisehe, die projektive und die
nichteuklidisehe Geometrie bietet das inhaltsreiehe, niveauvolle Bueh [7] von
W. Klingenberg dar.
Und sehlieJ3lich sei Ihnen das bunte und reichhaltige Bueh [9] von M.
Koeeher empfohlen, mit seinen vielen historisehen Hinweisen und Berichten
und vielen sonst nieht zu findenden interessanten Einzelheiten.

10.6 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 10.1: Man fiihre die Hauptaehsentransformation fiir die symme-

(2 1 1)
trisehe Matrix

A= 1 2-1
1 -1 2

dureh, d.h. man bestimme eine orthogonale Matrix P E 0(3), so dass pt AP


Diagonalgestalt hat.

AUFGABE 10.2: Es sei Vein endliehdimensionaler reeller Vektorraum. Man


zeige, dass ein Endomorphismus f : V ---+ V genau dann diagonalisierbar ist,
wenn ein Skalarprodukt ( . , . ) auf V existiert, fiir welches f selbstadjungiert
ist.
10.6 UBUNGEN 225

AUFGABE 10.3: Sei Vein euklidiseher Vektorraum und U c Vein endlieh-


dimensionaler Untervektorraum. Man zeige, dass die Orthogonalprojektion
Pu : V --+ U selbstadjungiert ist und bestimme ihre Eigenwerte und Ei-
genriiume.

DIE *-AUFGABE:

AUFGABE 10*: Sei Vein endlichdimensionaler euklidiseher Vektorraum.


Man beweise, dass zwei selbstadjungierte Endomorphismen j, 9 : V --+ V
genau dann dureh dieselbe orthogonale Transformation P : lE. n ~ V in
Diagonalgestalt gebraeht werden konnen, wenn sie kommutieren, d.h. wenn
jog = 9 0 j gilt.

UBUNGEN FUR PHYSIKER:

AUFGABE 10.lP: = Aufgabe 10.1 (fill Mathematiker)

AUFGABE 10.2P: Man fUhre die Hauptaehsentransformation fiir die symme-


trisehe Matrix
A = (e~srp sin rp)
smrp - eosrp
dureh.

AUFGABE 10.3P: Man bestimme die Dimension des Untervektorraums


Sym(n, lE.) von M(n x n, lE.).
11. Klassifikation von Matrizen

11.1 WAS HEISST "KLASSIFIZIEREN"?

Urn eine Ubersicht iiber eine groDe und vielleicht komplizierte Gesamtheit
mathematischer Objekte zu erhalten, ist es oft notwendig, gewisse in dem
betreffenden Zusammenhang unwesentliche Eigenschaften dieser Objekte zu
ignorieren und sich dann urn eine Ubersicht dariiber zu bemiihen, wieviele
und welche wesentlich verschiedene Objekte vorkommen. Welche Eigenschaf-
ten man als "wesentlich" und welche man als "unwesentlich" betrachtet,
ist natiirlich weitgehend Willkiir und hangt eben davon ab, welche Art von
Ubersicht man gewinnen mochte. Was solI aber heiDen, einige Eigenschaften
"zu ignorieren"? Und wie formalisiert man die Begriffe "wesentlich gleich"
und "wesentlich verschieden" soweit, dass sie mathematisch praktikabel wer-
den? Gerade diese Formalisierung ist Gegenstand der ersten Definition. Wir
gehen dabei davon aus, dass die zu klassifizierenden Objekte eine Menge M
bilden, eine Menge von Matrizen zum Beispiel oder eine Menge von Teilmen-
gen des ]Rn oder dergleichen.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_11,


© Springer-Verlag Berlin Heidelberg 2008
11.1 WAS HEISST "KLASSIFIZIEREN"? 227

Definition: Sei Meine Menge. Unter einer Aquivalenzrelation auf M


versteht man eine Relation (also formal eine Teilmenge ReM x M,
aber statt (x, y) E R schreibt man x ~ y und spricht von der
"Aquivalenzrelation ~"), welche die folgenden drei Axiome erfuBt:
(1) Refiexivitiit: x ~ x fur aBe x E M
(2) Symmetrie: x ~ y <¢=? y ~ x
(3) Transitivitiit: x ~ y und y ~ z ===? x ~ z.

Beispiel: Sei Vein Vektorraum uber lK, U c Vein Untervektorraum.


Wir definieren ~u auf V durch
x ~u Y :<¢=? x - y E U.
Dann ist ~u eine Aquivalenzrelation.

BEWEIS:

(1) Refiexivitiit: x ~u x, denn x - x = 0 E U.


(2) Symmetrie: x ~u Y <¢=? x - Y E U <¢=? Y - X E U
<¢=? Y ~u x.
(3) Transitivitiit: x ~u Y und y ~u z ===? x - Y E U und
y - z E U ===? (x - y) + (y - z) = x - Z E U also auch
x ~u z. D

Definition: Sei ~ eine Aquivalenzrelation auf M. Fur x E M heiJ3t


die Teilmenge [x 1 := {y I x ~ y} c M die Aquivalenzklasse von x
bezuglich ~.

Bemerkung:

(i) UXEM[xl = M.
(ii) [x 1 n [y 1 i= 0 <¢=? x ~ y <¢=? [x 1 = [y 1

BEWEIS: (i): 1st trivial, weil x E [xl wegen Axiom 1. Zu (ii):


[x 1n [y 1 i= 0 =? Es gibt ein z E [x 1n [y 1
=? Es gibt ein z mit x ~ z und y ~ z
=? Es gibt ein z mit x ~ z und z ~ y (Axiom 2)
=? x ~ y (Axiom 3)
228 Kapitel 11: Klassfikation von Matrizen

Andererseits:
x ~ y => (x~ a -¢==? y ~ a) (Axiome 2,3)
=> [x 1 = [y] (Definition [ .. ]).
Schlicf3lich:
[X]=[Y]=>XE[X]n[y] (Axiom 1)
=>[x]n[y]#0
D

Aus naheliegendem Grund nennt man eine Menge von nichtleeren Teil-
mengen von M, deren je zwei disjunkt sind und deren Vereinigung
ganz Mist, eine Zerlegung von M. Die Menge {[ x] I x E M} der
Aquivalenzklassen ist also z.B. eine solche Zerlegung.

Beispiel: 1st U ein Untervektorraum von V und ~u auf V wie oben


durch x ~u Y :-¢==? x - y E U erkUirt, so sind die Aquivalenzklassen
gerade die "Nebenklassen" von U, d.h. [x] = x + U = {x + u I u E U}.

Obwohl natiirlich hiiufig genug M unendlich viele Elemente hat und ~ die
Menge in unendliche viele Aquivalenzklassen "zerlegt", solI man sich ruhig
vorstellen, dass es im Allgemeinen viel weniger Aquivalenzklassen als Ele-
mente in M gibt. Die extreme Situation in dieser Art bietet die triviale
Aquivalenzrelation M x M, d.h. x ~ y fill aIle x, y EM. Dann gibt es
iiberhaupt nur eine Aquivalenzklasse, und das ist M selbst: [x] = M fiir
aIle x EM.

Definition: 1st ~ eine Aquivalenzrelation auf M, so nennt man die


Menge M / ~ := {[ x 1I x E M} der Aquivalenzklassen den Quotienten
von M nach ~; und die Abbildung 7r : M --+ M / ~, die jeweils x f-+ [x]
abbildet, heif3t die kanonische Projektion der Aquivalenzrelation ~.

Die Wahl einer Aquivalenzrelation auf ],1 ist die Formalisierung der Wahl
des Gesichtspunktes, unter dem man eine Ubersicht ("Klassifikation") iiber
M gewinnen mochte: x ~ y ist unsere Formalisierung von "x und y sind
im wesentlichen gleich". Wie formalisieren wir nun den "Uberblick" selbst?
11.1 WAS HEISST "KLASSIFIZIEREN"? 229

Nun, so ganz genau mochte ich das lieber nicht formalisieren. "Klas-
sifikation" ist eben kein rigoros definierter Terminus, sondern enthalt et-
was von der sprachlichen Unbestimmtheit des Wortes "Ubersicht". Aber
soviel kann man sagen: Eine Klassifikation von M nach ~ besteht in ei-
nem Verstandnis von M/~ und moglichst auch von 7r : M ----> M/~. Ein
ausfiihrlicher Erklarungsversuch mit Bcispielen folgt.

Erkliirungsversuch: Sei ~ eine .Aquivalenzrelation auf einer Menge


M. Die Menge M nach ~ oder, wie man sagt, "bis auf ~" zu klassi-
fizieren heii3t, M/~ und moglichst auch die Abbildung 7r: M ----> M/~
zu "verstehen", zu "durchschauen", zu "iiberblicken", "in den Griff zu
bekommen" etc. Zwei haufige Varianten, dieses zunachst etwas vage
Konzept zu realisieren, sind
(a) Die Klassifikation durch charakteristische Daten
(b) Die Klassifikation durch Reprasentanten.

(a) Klassifikation durch charakteristische Daten: Besteht im


wesentlichen darin, eine "wohlbekannte" Menge D (etwa die Menge Z
der ganzen Zahlen oder dergleichen) und eine Abbildung c : M ----> D
zu finden, so dass aus x ~ y stets c(x) = c(y) folgt, c also eine ,,~­
Invariante" ist und zwar so, dass die deshalb wohldefinierte Abbildung
M/~ ---+D
[x 1 f-------+ c( x)
sogar bijektiv ist. Es gilt dann offenbar insbesondere
x ~ Y <===? c(x) = c(y)
(Injektivitat), und deshalb nennt man c( x) ein "charakteristisches Da-
tum" fiir x beziiglich ~.
Man "versteht" dann M / ~ und 7r in dem Sinne, dass man ja c und
D "versteht" und
M

M/~ ----;;;----> D

kommutativ ist.
230 Kapitel 11: Klassfikation von Matrizen

BEISPIEL: Sei Vein Vektorraum uber lK, und sei lVI die Menge aller end-
lichen Teilmengen von V. Fur X, Y E M werde definiert: X ~ Y :¢=?
Es gibt eine bijektive Abbildung f : X -+ Y. Dann erhalt man eine Klas-
sifikation von M naeh ~ dureh eharakteristisehe Daten, indem man setzt:
D := N und c(X) := Anzahl der in X enthaltenen Elemente.

(b) Klassifikation durch Repdisentanten: Besteht im wesentli-


chen darin, eine "ubersehaubare" Teilmenge Mo C M anzugeben, so
dass 7rIMo : Mo -+ M / ~ bijektiv ist, dass cs also zu jedem x E M
genau ein Xo E Mo mit x ~ Xo gibt.

Man "versteht" dann M / ~ in dem Sinne, dass man von jedem [x 1


einen "Repriisentanten" Xo kennt und weiB, dass versehiedene Re-
prasentanten versehiedene Aquivalenzklassen reprasentieren. Wenn
man noeh angeben kann, wie man zu jedem x EMden zugehorigen
"Reprasentanten" Xo finden kann (x ~ Xo E M o), urn so besser.

BEISPIEL: Wir betraehten die Menge


M:= {(x, U) I x E JR2 und U C JR2 1-dimensionaler Untervektorraum}.

Darin definieren wir eine Relation ~ dureh (x, U) ~ (y, V) :¢=? Es gibt
einen Isomorphismus 'P von JR2 auf sieh mit 'P(x) = y und 'P(U) = V.
Dann ist dureh ~ eine Aquivalenzrelation auf M gegeben. 1st nun Mo C M
die Menge, die aus den drei Elementen ((O,O),JR x 0), ((l,O),JR x 0) und
( (0, 1), JR x 0) besteht,
.x

x=O o x o
so ist, wie man sich leieht uberlegen kann, 7rIMo : Mo -+ M/~ bijektiv, und
zwar ist

(x, U) ~ ((0, O),JR x 0) ¢=? x= 0


(x,U) ~ ((1,O),JR x 0) ¢=? x cI 0, X E U
(x, U) ~ ((0,1), JR x 0) ¢=? x rj U
Damit haben wir eine Klassifikation dureh Repriisentanten durehgefuhrt.
Die folgenden vier Absehnitte 11.2-11.5 handeln von vier Klassifikations-
problemen fur Matrizen.
11.2 DER RANGSATZ 231

11.2 DER RANGSATZ

Bisher haben wir in mehr allgemeiner Weise liber "Aquivalenz" gesprochen.


In der Matrizenrechnung wird das Wort auch in einem engeren Sinne ver-
wendet:

Definition: Zwei m x n-Matrizen A, B E M(m x n, OC) hei13en


iiquivalent (in engerem Sinne), geschrieben A ~ B, wenn es inver-
tierbare Matrizen P und Q gibt, so dass das Diagramm
A
OC n ----> OC m

B
OCn ----> OC m
kommutativ ist, d.h. B = Q-I AP gilt.

Ersichtlich ist hierdurch eine Aquivalenzrelation auf M(m x n, OC) erklart,


man braucht nur die drei de£lnierenden Forderungen - Refiexivitat, Sym-
metrie und Transitivitat - in Gedanken durchzugehen. Es ist dies wohl
die einfachste und grobste Aquivalenzrelation flir Matrizen, die von Interesse
sein kann, die zugehorige Klassi£lkationsaufgabe ist leicht zu losen, es gilt
namlich der

Rangsatz: Zwei m x n-Matrizen A und B sind genau dann im obigen


Sinne iiquivalent, wenn sie denselben Rang haberl.

Beweis: Dass iiquivalente Matrizen denselben Rang haben mlissen ist


klar, da dann BildB durch den Isomorphismus Q gerade auf BildA
abgebildet wird. Sei also nun umgekehrt nur rg A = rg B vorausge-
setzt. Dann £lnden wir P und Q so. Wir wahlen zuerst eine Basis
VI, ... , V n - r von Kern B und erganzen sie zu einer Basis (VI, ... , V n )
von ganz OC n . Dann ist (WI,""W r ) := (BVn-r+I, ... ,Bvn ) eine
232 Kapitel 11: Klassfikation von Matrizen

Basis von BildB, die wir nun zu einer Basis (Wl,"" w m ) von ]Km
erganzen. Analog verfahren wir mit A und erhalten Basen (v~, ... , v~)
und (w~, ... , w;") von ]Kn und ]Km. Seien nun P und Q die Iso-
morphismen, welche die ungestrichenen in die gestrichenen Basen
uberfuhren. Dann gilt Q B = AP fur die Basisvektoren Vl, ... ,Vn und
mithin fur aIle v E ]Kn. 0

Der Rang ist also ein charakteristisches Datum fur die Klassifikation der
m x n-Matrizen bis auf Aquivalenz, und da aIle Range von Null bis zum ma-
ximal moglichen Rang rmax := min(m,n) auch vorkommen konnen, stiftet
der Rang eine Bijektion M(m x n, ]K)/~ ~ {O, ... , rmax}.
Zugleich konnen wir aber auch eine Klassifikation durch Reprasentanten
oder Normalformen, wie man auch sagt, angeben. Wahlen wir zum Beispiel
die m x n-Matrizen von der Gestalt

1
0
1
0 0

mit 0 s: r s: r max = min (m, n) als N ormalformen, so ist jede m x n- Matrix


A zu genau einer dieser Normalformen aquivalent, namlich zu der mit dem
gleichen Rang. Die Redeweise, A in die Normalform zu bringen oder zu
uberfuhren oder dergleichen bedeutet in diesem Zusammenhang eben, inver-
tierbare Matrizen P und Q anzugeben, die uns Q-l AP = E:;xn leisten.
Der Beweis des Rangsatzes zeigt, wie man P und Q finden kann.

11.3 DIE JORDANSCHE NORMALFORM

Interessieren uns n x n-Matrizen als Endomorphismen von ]Kn, so werden


wir mit der graben Klassifikation des vorigen Abschnitts nicht zufrieden sein,
weil sie keine Rucksicht auf die feineren Eigenschaften der Endomorphismen
11.3 DIE JORDANSCHE NORMALFORM 233

nimmt, wie etwa auf die Eigenwerte und das charakteristische Polynom. Viel-
mehr ist der angemessene Aquivalenzbegriff jetzt die so genannte Ahnlichkeit
von Matrizen:

Definition: Zwei n x n-Matrizen A, B heiBen iihnlich, wenn es eine


invertierbare n x n-Matrix P gibt, so dass das Diagramm
A
OC n -----7 OCn

kommutativ ist, d.h. B = p- 1 AP gilt.

Auch Ahnlichkeit definiert offensichtlich eine Aquivalenzrelation. Ahnliche


Matrizen sind erst recht "iiquivalent" im Sinne des vorigen Abschnitts, aber
die Umkehrung gilt nicht, z.B. weil iihnliche Matrizen jeweils dasselbe cha-
rakteristische Polynom haben.
Die Klassifikation der n x n-Matrizen bis auf Ahnlichkeit ist nicht so
einfach wie der Rangsatz, und ich werde das Resultat in diesem Skriptum fur
das erste Semester auch nicht beweiscn, sondcrn nur mittcilcn, und auch das
nur fur den Fall OC := e, also fur die Ahnlichkeitsklassifikation der komplexen
n x n-Matrizen. Aber auch wenn Sie den Beweis erst im zweiten Semester
oder, wenn Sie nicht Mathematik studieren, vielleicht gar nicht kennenlernen
werden, so gewinnen Sie aus dem Satz doch die richtige Vorstellung von den
komplexen Endomorphismen. - Die einzelnen Bausteine der Normalformen
haben folgende Gestalt:

Definition: Sei A eine komplexe Zahl und m 2': 1. Die m x m-Matrix

heiBe das Jordankiistchen der GroBe m zum Eigenwert A.

Als Endomorphismus von em hat J m (>\) ersichtlich nur den einen Eigenwert
A, und die Dimension des Eigenraumes ist die kleinste, die ein Eigenraum
uberhaupt haben kann, niimlich Eins. Fur m 2': 2 ist so ein .Jordankiistchen
234 Kapitel 11: Klassfikation von Matrizen

also nicht diagonalisierbar, ja man konnte sagen: so nichtdiagonalisierbar,


wie eine komplexe m x m-Matrix nur uberhaupt sein kann.

Satz von der Jordanschen Norrnalforrn: 1st A eine komplexe


n x n-Matrix, und sind A1, .. . , AT E C ihre verschiedenen Eigenwerte,
so gibt es fur jedes k = 1, ... , r eindeutig bestimmte positive naturliche
Zahlen nk und

mit der Eigenschaft, dass es eine invertierbare komplexe n x n-Matrix


P gibt, fill die p- 1 AP die "Blockmatrix" ist, welche durch Aneinan-
derreihung der Jordan-Kiistchen
J m (1)(A1), ... ,Jm (1)(A1), ... ,Jm (r)(AT), ... ,Jmnr
(r)(A T)
1 n1 1

liings der Diagonalen entsteht.

Abgesehen davon, dass es fur die Eigenwerte einer komplexen Matrix


keine bestimmte Reihenfolge gibt, liefert uns der Satz also eine Ahnlich-
keitsklassifikation der komplexen n x n-Matrizen durch Repriisentanten
der Normalformen, und die Zuordnung, die jedem Eigenwert die geord-
nete Folge seiner Jordan-Kiistchen-GroBen zuordnet, ist ein charakteri-
stisches Datum. Nur wenn aIle diese KiistchengroBen gleich Eins sind,
ist A diagonalisierbar.

Zum k-ten Eigenwert Ak gehort also eine Blockmatrix, nennen wir sie Bk,
aus nk einzelnen .Tordankiistchen:

Ak 1
.1
Ak
Ak 1 .
1
Ak

Ak 1

1
Ak
11.4 HAUPTACHSENTRANSFORMATION 235

und die gesamte "Jordansche Normalform" von A ist dann

Bl

B2

Br

11.4 NOCHMALS DIE HAUPTACHSEN-


TRANSFORMATION

Auch die Hauptachsentransformation der selbstadjungierten Operatoren in


endlichdimensionalen euklidischen Vektorriiumen lost ein Klassifikationspro-
blem fur Matrizen, niimlich das der Klassifikation der symmetrischen reellen
n x n-Matrizen bis auf orthogonale .Ahnlichkeit:

Definition: Es bezeichne Sym(n, lR) den Vektorraum der symmetri-


schen reellen n x n-Matrizen. Zwei Matrizen A, B E Sym(n, lR) heii3en
orthogonal iihnlich, wenn es eine orthogonale Matrix P E O(n) gibt,
so dass B = p- 1 AP gilt.
236 Kapitel 11: Klassfikation von Matrizen

Orthogonale Ahnlichkeit ist eine Aquivalenzrelation auf Sym(n, lR). Als Ko-
rollar aus dem Satz von der Hauptachsentransformation konnen wir eine
Klassifikation durch Normalformen sofort hinschreiben:

Satz: Jede symmetrische reelle n x n-Matrix A ist zu genau einer


Diagonalmatrix

mit A1 ::; ... ::; An orthogonal iihnlich. Dabei sind A1,"" An die
Eigenwerte von A, jeder so oft aufgefiihrt, wie seine geometrische Viel-
fachheit angibt.

Die Eigenwerte mit ihren geometrischen Vielfachheiten bilden also ein cha-
rakteristisches Datum und stiften eine klassifizierende Bijektion

11.5 DER SYLVESTERSCHE TRAGHEITSSATZ

Auch der Sylvestersche Triigheitssatz ist ein Klassifikationssatz fiir symme-


trische reelle n x n-Matrizen, er lost die Klassifikationsaufgabe fUr die qua-
dratischen Formen auf dem lR n und damit auf jedem n-dimensionalen reellen
Vektorraum V.

Definition: 1st Vein reeller Vektorraum und b : V x V ---> lR eine


sYIIlrnetrische Bilinearform, so heiBt
q : V -------+ lR
v f-------+ b( v, v)
die zu b gehorige quadratische Form auf V.
11.5 DER SYLVESTERSCHE TRAGHEITSSATZ 237

Beachte, dass sich b aus seinem q wieder rekonstruieren liisst, denn


wegen der Bilinearitiit von b ist
b(v + w, v + w) = b(v, v) + b(w, v) + b(v, w) + b(w, w),
wegen der Symmetrie von b also
1
b(v, w) = 2(q(v + w) - q(v) - q(w)).

Daher darf man b auch die zu q gehorige Bilinearform nennen.

Was haben die quadratischen Formen mit Matrizen zu tun? Nun, ist
( VI, ... , v n ) eine Basis von V und schreiben wir v = Xl VI + ... + Xn Vn ,
so ergibt sich, wiederum wegen der Bilinearitiit und Symmetrie von b, dass
n
q(v) = b(v,v) = b(L,XiVi,L,XjVj) = L, b(Vi,Vj)XiXj
. j i,j=l

ist, und deshalb sagt man:

Definition: Die durch aij := b(Vi' Vj) gegebene symmetrische Matrix


A heii3t die Matrix der quadratischen Form q : V ---+ R bezuglich der
Basis (VI, ... ,vn ).

Notation und BeIllerkung: Fur eine symmetrische n x n-Matrix


A E Sym(n, R) bezeichne QA : R n ---+ R die durch
n
QA(X):= L, aijXiXj
i,j=l

gegebenc quadratische Form. 1st A die Matrix von q : V ---+ R


bezuglich (VI, ... , V n ) und <I> der Basisisomorphismus Rn "" V zu
dieser Basis, so ist also

kommutativ.
238 Kapitel 11: Klassfikation von Matrizen

Wozu braucht man eigentlich quadratische Formen? Von den vielen Zwek-
ken, denen quadratische Formen in der Mathematik dienen, mochte ich Sie
jetzt nur auf einen aufmerksam machen, der Ihnen sehr bald, niimlich in
der Analysis-Vorlesung des zweiten Semesters begegnen wird. Aus der Diffe-
rentialrechnung in einer Variablen wissen Sie, welche Information die zweite
Ableitung f"(xo) an einer "kritischen" Stelle (f'(xo) = 0) iiber das Ver-
halt en von f nahe Xo enthiilt: 1st f" (xo) > 0 oder f" (xo) < 0, so hat
die Funktion dort ein lokales Minimum bzw. ein lokales Maximum und nur
wenn f//(xo) = 0 ist, bleibt die Frage unentschieden, und man braucht Zu-
satzinformationen aus den hoheren Ableitungen. In der Differentialrechnung
mehrerer Variabler ist das so iihnlich, aber das Taylorpolynom zweiten Gra-
des an einer kritischen Stelle ist nun nicht mehr einfach f(xo) + trf"(XO)E,2
sondern, in n Variablen

also durch den konstanten Term f(xo) und eine quadratische Form mit der
Matrix
1 [Pf
aij := ----(xo)
2 aXiaXj

gegeben. In einer Variablen sieht man freilich gleich am Vorzeichen von


f"(xo) , wie sich E, f--+ ~f"(xo)e verhiilt. An der symmetrischen Matrix
A, wenn sie nicht zufiillig eine besonders einfache Gestalt hat, sondern voller
Zahlen so dasteht, sieht man zuerst einmal gar nichts. Man braucht dann ein
wenig Theorie der quadratischen Formen, der wir uns nun wieder zuwenden.

Definition: Sei q eine quadratische Form auf dem n-dimensionalen


reellen Vektorraum V. Eine Basis (Vi, ... , V n ) von V, fUr welche die
Matrix A von q die Gestalt

+1
+1
-1

-1 )
o ...
o

(0 :s: r, s und r + s :s: n) annimmt, heif3e eine Sylvester-basis fiir q.


11.5 DER SYLVESTERSCHE TRAGHEITSSATZ 239

In einer solchen Basis ist die quadratische Form dann durchsichtig genug:
q(Xl Vl xi
+ ... + xnvn) = + ... + x; - X;+l - ... - x;+s·

Sylvesterscher Tdi.gheitssatz: Fur eine quadratische Form q auf ei-


nem n-dimensionalen reellen Vektorraum gibt es immer eine Sylvester-
basis, und die Anzahlen r und s der positiven und negativen Eintriige
in der zugehorigen Diagonalmatrix sind unabhiingig von der Wahl der
Sylvesterbasis.

Definition: Man nennt r +s den Rang und r - s die Signatur der


quadratischen Form.

Beweis: a) Existenz der Sylvesterbasis: Eine Sylvesterbasis findet man


durch Induktion nach n, iihnlich wie bei der Hauptachsentransforma-
tion, nur haben wir es jetzt vielleichter: Fur q = 0 ist der Satz trivial,
sei also q i- 0 und v E Vein Vektor mit q(v) = ±1. 1st b die symme-
trische Bilinearform von q, so ist nun
U:={w E Vlb(v,w)=O}
ein (n - 1 )-dimensionaler U ntervektorraum von V, wie aus der Dimen-
sionsformel fur die lineare Abbildung
b(v,·): V -----+ IR.
w f----------> b(v , w)
folgt. Also hat ql U nach Induktionsannahme eine Sylvesterbasis
(Ul' ... ,Un-l), und wir brauchen nur v an der richtigen Stelle ein-
zufugen, urn eine Sylvesterbasis fur ganz V zu erhalten. D

b) Wohlbestimmtheit von r und s: Die Zahl r liisst sich basisunab-


hiingig charakterisieren als die maximale Dimension eines Untervek-
torraums von V, auf dem q positiv definit ist. Urn das einzusehen,
betrachte man zu einer gegebenen Sylvester basis die von den erst en r
und den letzten n - r Basisvektoren aufgespannten Unterriiume V+
und V_,o. Dann ist qlV+ positiv definit, aber jeder hoherdimensionale
Unterraum U schneidet V_,o nach der Dimensionsformel fur Unter-
vektorriiume nichttrivial, also kann dann qlU nicht positiv definit sein.
- Analog ist s die maximale Dimension eines Unterraums, auf dem q
negativ definit ist. D
240 Kapitel 11: Klassfikation von Matrizen

Betrachten wir nun die quadratischen Formen auf dem lRn. Was bedeutet es
fiir zwei Matrizen A, B E Sym(n, lR), dass sich ihre quadratischen Formen
nur urn einen Isomorphismus des lR n unterscheiden, d.h. dass es eine Trans-
formation P E GL(n, lR) gibt, die QA in QB iiberfiihrt, in dem Sinne, dass
das Diagramm

lR n

pr~
~
lR
~
QB
lR n

kommutiert, also QB = QA 0 P gilt? Dafiir ist es praktisch, jedes n-tupel


x E lR n als n x I-Matrix, also als Spalte, und dementsprechend die transpo-
nierte 1 x n-Matrix xt als Zeile zu lesen. Dann ist niimlich:

Bernerkung: Schreibt man x E lR n als Spalte, so ist QA(X) als 1 x 1-


Matrix das Matrizenprodukt
QA(X) = xt. A· x

a1.: 1
=(Xl,""X n ) (
anl

und da fiir die Bildung der transponierten Matrix das Gesetz


(Xy)t = ytx t
gilt, so bedeutet QB = QA 0 P soviel wie
xt Bx = xt pt APx fiir aIle x E lR n
oder
B = ptAP'

So wirkt also eine "Koordinatentransformation" P auf die Matrix einer qua-


dratischen Form.

Wegen QB = QAOP ist B gerade die Matrix von QA beziiglich der Basis, die
aus den Spalten von P besteht. Deshalb erhalten wir aus dem Sylvesterschen
Triigheitssatz das
11.5 DER SYLVESTERSCHE TRAGHEITSSATZ 241

Korollar: Nennen wir zwei symmetrische reelle n x n-Matrizen A und


B aquivalent, wenn sich ihre quadratischen Formen nur urn eine Koor-
dinatentransformation unterscheiden, d.h. wenn es ein P E GL(n, lR)
mit B = pt AP gibt, so ist jedes A E Sym(n, lR) zu genau einer Nor-
malform der Gestalt

T { [+1. "+1 )
S { ~1
~1
o
o
mit 0 ~ T, S und T +S ~ n aquivalent. ("Sylvestersche Normalform".)

Damit haben wir eine Klassifikation durch Reprasentanten. ~ 1m Ge-


gensatz zur Klassifikation der symmetrischen Matrizen bis auf orthogonale
A.hnlichkeit, die wir im vorigen Abschnitt 11.4 betrachtet hatten, gibt es
bei der jetzt studierten A.quivalenzrelation fiir festes n nur endlich viele
A.quivalenzklassen: das Paar (T, s) ist ein charakteristisehes Datum und
stiftet eine Bijektion
Sym(n, lR)/~ ------> {(T, s) E N x NIT + S ~ n}.

Orthogonal ahnliehe symmetrisehe Matrizen A und B haben erst reeht aqui-


valente quadratisehe Formen, denn P E O(n) bedeutet p~l = pt, also ist
mit B = p~l AP dann aueh B = pt AP erfiillt.
Hat man eine symmetrisehe Matrix dureh Hauptaehsentransformation auf
Diagonalgestalt gebraeht, so kann man natiirlieh die Sylvestersehen eharakte-
ristisehen Daten T und s daran ablesen: sie sind gleich den Anzahlen der mit
ihren Vielfaehheiten gezahlten positiven und negativen Eigenwerte von A.
Kennt man die Eigenwerte und ihre Vielfaehheiten ohnehin, so ist das ja
ganz niitzlich zu wissen, aber als praktisehe Methode zur Besehaffung von
T und s ist dieser Weg im Allgemeinen nieht zu cmpfehlcn, denn Eigen-
werte sind meist nieht so leieht zu bereehnen. Deshalb solI nun zum Sehluss
aueh eine bequeme Methode zur Herstellung der Sylvestersehen Normalform
angegeben werden.
242 Kapitel 11: Klassfikation von Matrizen

Dazu erinnern wir uns an die in 5.5 schon genannte Beobachtung, dass
sich element are Zeilenumformungen des linken Faktors eines Matrizenpro-
dukts XY auf die Produktmatrix iibertragen, ebenso Spaltenumformungen
des rechten Faktors. AuBerdem gilt natiirlich: Geht P1 durch eine elemen-
tare Spaltenumformung in P2 iiber, so Pi in Pi durch die entsprechende
Zeilenumformung, denn die Transposition vertauscht ja Zeilen und Spalten.
Fiir die Produktmatrix Pi AP1 bedeutet der Ubergang zu PiAP2 also ge-
rade, dass man die Spaltenumformung und die zugehorige Zeilenumformung
beide durchgefiihrt hat. Wir wollen das die Durchfiihrung der entsprechen-
den symmetrischen elementaren Umformung nennen. - Damit haben wir
aIle Ingredienzen fiir das folgende

Rezept zur Herstellung der Sylvesterschen Normalform: Ver-


wandelt man eine symmetrische reelle Matrix A durch eine endliche
Folge von elementaren symmetrischen Umformungen in eine Sylvester-
sche N ormalform

r {
s {
(+1 .. ·+1
-1
1 =:S,
-1
o
o
so ist dies in der Tat die Sylvestersche N ormalform von A, denn
die aus der Einheitsmatrix E durc:h Anwendung der entsprec:henden
Spaltenumformungen alleine entstehende Matrix P E GL(n, R) leistet
pt AP = S, ihre Spalten bilden also eine Sylvesterbasis fiir A. - 1st
man nicht an P, sondern iiberhaupt nur an r und s interessiert , so
geniigt es ganz einfac:h, A durch elementare symmetrische Umformun-
gen in Diagonalgestalt zu bringen: r und s sind dann die Anzahlen
der positiven und negativen Diagonalelemente.
11.6 TEST 243

11.6 TEST

(1) Welche Eigenschaft(en) einer .Aquivalenzrelation ist (sind) fUr die durch
x ::::; y fiir x, y E lR definierte Relation nicht erfiillt:

D Reflexivitiit D Symmetrie D Transitivitiit

(2) Durch "n ~ m :<¢=? n-m ist gerade" ist auf z:: eine .Aquivalenzrelation
erkliirt. Wieviele Elemente hat Z::/~:

D 1 D 2 D unendlich viele

(3) Haben zwei m x n-Matrizen A und B denselben Rang, so gibt es


invertierbare Matrizen X und Y so dass

D AX =BY D AX=YB D XA=YB

(4) Sind die 2 x 2-Matrizen A = (~ n und B = 0 ~) iihnlich?

D Ja, wegen B = 2 . A
D Ja, da sie denselben Rang haben
D Nein, da sie verschiedene Eigenwerte haben

(' n
(5) Wie sieht die Jordansche Normalform von A =
3
2 aus?

D
(' 2
2) D
(' ;) (' ;)
0
2 D
1
2
244 Kapitel 11: Klassfikation yon Matrizen

(6) 1st die Jordansche Normalform einer reellen symmetrischen n x n-


Matrix A stets eine Diagonalmatrix?

o Ja, denn durch die Hauptachsentransformation wird A in Diagonal-


form gebracht.
o Nein, denn auch cine symmetrische Matrix kann weniger als n Yer-
schiedene Eigenwerte haben. Wegen O(n) # GL(n, q ist das obige
Argument nicht stichhaltig.
ODie Frage hat keinen Sinn und verdient daher keine Antwort, weil
der Satz von der Jordanschen Normalform nicht von reellen, sondern
von komplexen n x n-Matrizen handelt.

(7) Aus einer quadratischen Form q : V -+ lR kann man die zugehorige


symmetrische Bilinearform b durch

o b(v, w) = i(q(v + w) - q(v - w))

o b(v, w) = ~(q(v) + q(w))


o b(v, w) = ~(q(v) + q(w) - q(v - w))
wiedergewinnen.

(8) Wie heiBt die Matrix der durch q(x, y, z) = 4x 2 + 6xz - 2yz + 8z 2
gegebenen quadratischen Form q : lR 3 -+ lR ?

o (~6 -2~ -~)


8 o GJ -0 o (! J -D
(9) 1st der Rang T + 8 einer quadratischen Form q : V -+ lR gleich dem
Rang jeder q bezuglich irgend einer Basis darstellenden Matrix A?

o Ja, denn T + 8 ist jedenfalls der Rang der Sylvestermatrix S von q,


und es gilt S = ptAP.
o Nein, T+8 ist nur der maximale Rang einer q darstellenden Matrix.
o Nein, der Rang von A ist T - 8, weil 8 die Anzahl der Eintrage -1
ist.
11.8 UBUNGEN 245

(10) Es sei A eine symmetrische reelle 2 x 2-Matrix mit detA < O. Wie
sieht die Sylvestersche Normalform von A aus?

D Das ist aufgrund von det A < 0 alleine noch nicht zu entscheiden,
man braucht mindestens eine weitere Information, da zwei Daten r
und s gesucht sind.

11.7 LITERATURHINWEIS

In diesem letzten Literaturhinweis mochte ich Sie auf ein ganz auJ3ergewohn-
liches und schones Buch aufmerksam machen, namlich auf die zweibandige
Lineare Algebra und analytische Geometrie [2] von E. Brieskorn.
Die beiden Bande behandeln eine Fiille von weiterfiihrenden Themen (mit
Schwerpunkt bei den klassischen Gruppen) und historischen Entwicklungen,
wodurch der Leser auf eine Hohe der Einsicht in die Mathematik gefiihrt wird,
die ihm als Anfanger eigentlich noch gar nicht "zusteht". Dabei vergisst der
Autor keineswegs, dass sein Leser ein Anfanger ist, dem es noch an Kennt-
nissen und Erfahrung mangelt, aber er traut ihm zu, alles was verniinftig
erklart wird, auch verstehen zu konnen.
Wenn Sie, als eine erste Stufe der Bekanntschaft mit diesen Banden,
nur die iiblichen linear-algebraischen Grundbegriffe daraus lernen wollen,
so diirfen Sie die Biicher zwar nicht gleich von Anfang bis Ende systema-
tisch durchzulesen versuchen, denn das Werk ist sehr umfangreich, aber Sie
brauchen nur mittels des Inhaltsverzeichnisses zu wahlen, was Sie wiinschen,
und bekommen auch ganz genau und leichtverstandlich erklart, was Vek-
torraume und lineare Abbildungen sind, wie man mit Matrizen rechnet und
line are Gleichungssysteme lost, was Hauptachsentransformation und Jordan-
sche Normalform bedeuten, usw. Sie bereiten sich damit auch den Zugang
zu dem tieferen Gehalt des Ihnen dann schon vertrauten Werkes vor.
246 Kapitel 11: Klassfikation von Matrizen

11.8 UBUNGEN

UBUNGEN FUR MATHEMATIKER:

AUFGABE 11.1: Der Beweis des Rangsatzes in Abschnitt 11.2 handelt ei-
gentlich vom Spaltenrang und macht keinen Gebrauch von der Uberein-
stimmung von Spaltenrang und Zeilenrang. Man zeige, dass der Rangsatz
diese Ubereinstimmung aber als KoroIlar enthiilt. Hinweis: Die Eigenschaft
(Xy)t = yt X t der Transposition von Matrizen (vergl. die Bemerkung in 6.3)
folgt ohne Bezugnahme auf den Rang direkt aus der Definition der transpo-
nierten Matrix und darf deshalb auch herangezogen werden.

AUFGABE 11.2: In dem Satz in Abschnitt 11.3 liber die Jordansche Nor-
malform ist eine Jordan-Matrix mit Eigenwerten >'1, ... , Ar und Jordan-
Kiistchen der GraBen mi
k ) ::::: ... ::::: m~~ zum Eigenwert Ak explizit angege-

ben. Man bestimme die geometrischen und die algebraischen Vielfachheiten


der Eigenwerte dieser Matrix.

AUFGABE 11.3: Flir die Matrix

bestimme man durch symmetrische Umformungen eine invertierbare 3 x 3-


Matrix P, so dass pt AP in Sylvesterscher Normalform ist.

DIE *-AUFGABE:

AUFGABE 11*: Eine Eigenschaft reeller n x n-Matrizen heiBe "offen",


wenn aIle Matrizen A mit dieser Eigenschaft eine offene Teilmenge von
M(n x n, R) = Rn 2 bilden. Man entscheide liber Offenheit oder Nichtoffen-
11.8 UBUNGEN 247

heit der folgenden Eigenschaften:


(a) Invertierbarkeit
(b) Symmetrie
(c) Diagonalisierbarkeit
(d) Rang A ::::: k
(e) Rang A 2: k

UBUNGEN FUR PHYSIKER:

AUFGABE l1.IP: Fur die symmetrische reelle 5 x 5-Matrix

111
111
111
111
111

bestimme man die Diagonalgestalt nach Hauptachsentransformation und die


Sylvestersche Normalform, aber ~ der besonders einfachen Gestalt der Ma-
trix angemessen ~ nicht durch Rechnen, sondern durch bloBes Denken (was
ist BildA, was macht A mit den Vektoren in BildA usw.)

AUFGABE 11.2P: Man bestimme Rang und Signatur der durch


Q(x, y, z) := x 2 + 8xy + 2y2 + 10yz + 3z2 + I2xz
definierten quadratischen Form auf dem IR3.

AUFGABE 11.3P: = Aufgabe 11.3 (fur Mathematiker)


12. Antworten zu den Tests

Die jeweils nachfolgenden Anmerkungen sollen helfen, die Wissensliicken


zu schlief3en, die eine falsche Beantwortung der betreffenden Frage vermuten
liisst.

TEST 1

1 2 3 4 5 6 7 8 9 10

x x x

x x x

x x x x

(1) Definition auf Seite 5 lesen.


(2) Bilder auf Seite 4 ansehen.
(3) Text auf Seite 3lesen (wegen Definition von {a}), Definition des kar-
tesischen Produkts auf Seite 5 lesen, das Bild auf Seite 6 oben ansehen,
b "wandern" lassen, a festhalten.
(4) "Konstant" heif3t nicht, dass bei der Abbildung "nichts geschieht" (das
konnte man von Id M allenfalls sagen), sondern dass alle x E M auf
einen einzigen Punkt abgebildet werden! Definition der konstanten Ab-
bildung auf Seite 10 nachlesen.
(5) Definition von Projektion auf den ersten Faktor (Seite 9) nachsehen.
Gegebenenfalls vorher die des kartesischen Produkts auf Seite 7.
(6) Definition von f(A) und f-l(B) auf Seite 10 nachlesen.
(7) Definition von gf auf Seite 11 lesen. Der Ausdruck g(x) ist gar nicht
erkliirt, weil 9 auf Y definiert ist, und die dritte Antwort ist iiberhaupt
sinnlos.

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9_1,


© Springer-Verlag Berlin Heidelberg 2008
TEST 2 249

(8) Man kann nur auf zweierlei Weise von X nach Y kommen, den Pfei-
len nachgehend. Definition des kommutativen Diagramms auf Seite 12
lesen.
(9) j-I muss ~ f-+ x, also ~ f-+ I/X' also t f-+ t abbilden.

(10) Nicht injektiv, weil z.B. (-1)2 = (+1)2; nicht surjektiv, weil z.B.
-1 -I x 2 fUr alle x E lR. Definition von injektiv und surjektiv auf
Seite 11 nachlesen.

TEST 2

1 2 3 4 5 6 7 8 9 10

x x

x x x

x x x x x

(1) Definition von lR n in § 1, Seite 7 nachlesen.


(2) Zu den Daten eines Vektorraums gehort keine Multiplikation von Vek-
toren untereinander.
(3) (x - yi)(a + bi) "ausdistribuieren" und i 2 = -1 beachten.
(4) Mit "skalarer Multiplikation" (nicht zu verwechseln mit "Skalarpro-
dukt" in einem euklidischen Vektorraum, vergl. 2.4) ist nicht die Mul-
tiplikation der Skalare untereinander gemeint (sonst ware IK x IK -+ IK
die richtige Antwort), sondern die der Skalare mit den Vektoren, also
IKxV-+V.
(5) Definition des reellen Vektorraums auf Seite 22/23 wieder lesen. Ant-
wort 2 ist natiirlich sowieso Unsinn, aber es ist wichtig, sich den Unter-
schied zwischen der erst en und der dritten Antwort klarzumachen!
(6) Definition von X x Y in § 1 wiederholen.
(7) Jeder Untervektorraum von V muss die Null von V enthalten (vergl.
Beweis der Bernerkung in 2.3).
250 Antworten zu den Tests

(8) In allen drei Bcispielen ist zwar U f 0, in den ersten beiden auch
AX E U, falls X E U und A E R, aber nur das erste erflillt x + y E U
flir aIle x, y E U.
(9) In der komplexen Ebene C bilden die imaginaren Zahlen iy = (O,y)
die y-Achse, es gilt also jedenfalls nicht U = C. Die dritte Antwort
ware stichhaltig, wenn danach gefragt gewesen ware, ob U ein Unter-
vektorraum des komplexen Vektorraumes C ist.
(10) Jede Gerade durch den Nullpunkt ist auch ein Untervektorraum, nicht
nur die beiden Achsen.

TEST 3

1 2 3 4 5 6 7 8 9 10

x x x

x x x

x x x x

(1) Definition der linear'en Unabhangigkeit auf Seite 57 nachlesen.


(2) Gegebenenfalls Definition von Basis (Seite 58) und Dimension (Seite
61) nachlesen.
(3) Aus Al vI + A2v2 = 0 folgt stets Al VI + A2v2 + 0 . v3 = 0, also Al =
A2 = O.
(4) (e1,"" en) der dritten Antwort ware auch eine Basis, man nennt sie
nur nicht die kanonische Basis. Falls Sie aber die erste Antwort an-
gekreuzt haben: erst Definition von lK n = lK x ... x lK auf Seite 7
nachlesen, dann die einer Basis, Seite 58.
(5) Wie wir inzwischen schon oft benutzt haben, gilt O· v = 0 (siehe z.B.
Seite 31 unten) und 1· v = v (Axiom 6 auf Seite 23). Deshalb bedeutet
die zweite Aussage nichts flir die VI,"" V n ; und die dritte bedeutet
VI = ... = Vn = O.

(6) Basiserganzungssatz Seite 60 nachlesen und gegebenenfalls liber die


Aussagen liber das O-tupel 0 auf Seite .56 meditieren.
TEST 4 251

(7) Definition der Basis auf Seite 58 und Aussage tiber das O-tupel 0 auf
Seite 56 kombinieren.
(8) Es ist ja Y E Uz -¢=} -y E U2 , deshalb ware auch U1 - U2 nichts
anderes als die Menge aZZer Summen x + ( -y) aus einem Element von
U 1 und einem von U2 .
(9) Um an einem einfachen Beispiel zu sehen, dass die zweite und dritte
Antwort falsch sind, setze man V = R2 und betrachte als U1 , U2 und
U3 die beiden Achsen und die Winkelhalbierende.
(10) Die Dimensionsformel sagt doch hier dim U1 +dim U2 = n+dim U1 nUz
(Satz 3, S. 64), woraus die dritte Antwort als richtig folgt. Dass die
ersten beiden falsch sind, sieht man schon an dem Beispiel V = U 1 = U2
=R.

TEST 4

1 2 3 4 5 6 7 8 9 10

x x x x

x x x x

x x x

(1) Setzt man A = JL = 1 bzw. JL = 0, so er halt man a us der erst en A us-


sage die Linearitat von f (vergl. Definition Seite 81). Umgekehrt folgt
aus der Linearitat auch die in der ersten Antwort formulierte Aussage:
f(AX + JLY) = f(AX) + f(JLY) = Af(x) + JLf(y)· Mit Matrizen haben
lineare Abbildungen wohl etwas zu tun (wenn V und W endlichdimen-
sional sind), aber so wie Antwort 2 kann man das nicht formulieren,
siehe S. 94. Die dritte Antwort nennt zwar einc Eigenschaft linearer
Abbildungen, die allein aber fUr die Linearitat noch nicht ausreicht.
(2) Auch wer nur weiB, was cine lineare Abbildung ist und die Definition
von Kern f vergessen hat, kann erraten, dass die ersten beiden Ant-
worten wohl falsch sein werden: Wegen f(AX) = Af(x) ist 1(0) = 0
(setze A = 0), also wtirde nach den erstcn beiden Antworten stets
Kernf = {O} sein. Vergleiche Notiz 3 und Definition S. 82.
252 Antworten zu den Tests

(3) Hier sind einmal zwei Antworten richtig! Die letzte ist natiirlich Unfug,
weil f()..) gar nicht erkliirt ist. f(-x) = -f(x) folgt aus -v = (-l)v
(vergl. S. 31 unten).

(4) Die erste A ussage impliziert f bijektiv, also f Isomorphismus (vergl.


Ubungsaufgabe 1.2). Die dritte Antwort wiirde richtig, wenn man statt
"jedes n-tupel" schreiben wiirde: "jede Basis" (vergl. Bemerkung 3 auf
Seite 85). Die zweite Antwort sagt ja nichts iiber f aus.

(5) Das kann man natiirlich nicht erraten. Vergleiche Definition auf Seite
87.

(6) Seiten 89 und 90 lesen.

(7) Wenn wir (x,y) als Spalte schreiben, so haben wir doch

und

also ergibt sich die Matrix (_ i i ). (Die Spalten der Matrix sind
die Bilder der Einheitsvektoren).

(8)
f
Vi f---------+ Wi

~ I I~

Definition S. 93 und den nachfolgenden Text lesen.

(9) Die richtige Antwort ist in Notiz 3 (S. 82) begriindet. Die erste Antwort
hart sich zwar so iihnlich wie in Notiz 5 (S. 88) an, aber dafiir miisste
vorausgesetzt werden, dass V und W dieselbe endliche Dimension ha-
ben.

(10) Die Dimensionsformel fiir Abbildungen sagt's, denn hier ist n = 5 und
rgf = 3.
TEST 5 253

TEST 5

1 2 3 4 5 6 7 8 9 10

x x x x x x

x x x

(1) Definition der Matrizenaddition auf Seite 110 nachlesen.

(2) Vergleiche Testfrage (8) aus § 4: (~1 o~ O~) ist die Matrix der Iden-

titiit OC 3 -+ OC3 , und die Zusammensetzung einer Abbildung mit der


Identitiit ergibt immer diese Abbildung. Wenn man das "matrizenrech-
nerisch" einsehen will, wende man die Matrizenmultiplikation (Schema
auf Seite 113) auf unseren Fall an.
Insbesondere erhiilt man Gegenbeispiele zu den anderen beiden Ant-
worten, wenn man fur B die Matrix der Identitiit wiihlt.

(3) Trosten Sie sich, ich muss mir das auch immer erst uberlegen. Vielleicht
kann man es sich so mer ken: der erste Index ist der Zeilenindex, und
dementsprechend gibt in M(m x n, OC) das m die Zeilenzahl an.

(4) Rechnerische Matrizenmultiplikation! Definition auf Seite 112 ansehen,


Text auf Seiten 112 und 113 lesen. Man soUte das aber moglichst bald
auswendig wissen.

(5) Kliirt sich alles auf, wenn ich daran erinnere, was die drei Worte bedeu-
ten? Assoziativitiit: (AB)C = A(BC), Kommutativitiit: AB = BA,
Distributivitiit: A(B + C) = AB + AC und (A + B)C = AC + BC,
jeweils fur alle A, B, C, fur die diese Produkte und Summen erkliirt
sind. Noch nicht? Bemerkung 1 auf Seite 114.

(6) rg A = n bedeutet fur eine Matrix A E M (n x n, OC) , dass A : oc n -+ ocn


surjektiv ist. (Vergl. Definition auf Seite 116). Nun erinnere man sich
daran, dass fur line are Abbildungen von OC n nach OC n Injektivitiit und
Surjektivitiit dasselbe bedeuten (Notiz 5 auf Seite 88).
254 Antworten zu den Tests

(7) rg (~ ~) 2, rg (~ : ) = 1, nun vergleiche Bemerkung 1 auf


Seite 118.

(8) Diese Testfrage ist, im Vergleich zu den anderen, ziemlich schwierig, das
gebe ich zu. Aus BA = E folgt A injektiv und B surjektiv, weil Ax =
Ay ==} BAx = BAy -¢=? x = y, und y = B(Ay). Aber B braucht
nicht injektiv und A nicht surjektiv zu sein, und m > n kann wirklich
vorkommen, Beispiel: Es sei m = 3, n = 2, A(Xl,X2) := (.Tl,X2,X3)
und B(Xl,X2,X3):= (Xl,X2).

(9) Begriff der linearen Unabhangigkeit in § 3 wiederholen. Was bedeu-


tet "Maximalzahllinear unabhangiger Spalten"? (Vergl. Definition auf
Seite 116).

(10) Rang = Zeilenrang = Maximalzahl linear unabhangiger Zeilen: stets


kleiner oder gleich der Zeilenzahl, also rg A :::.; m. (Vergl. Definition,
Notiz und Satz auf Seite 116).

TEST 6

1 2 3 4 5 6 7 8 9 10

x x x

x x x

x x x x

(1) Vergl. Satz 1 und Definition auf Seite 136

(2) det A bleibt bei Zeilenumformungen yom Typ (3) (vergl. Definition
Seite 11 7) unverandert, aber bei Typ (1) andert sich das Vorzeichen,
und bei Typ (2) (Multiplikation einer Zeile mit A '" 0) wird die Deter-
minante mit A multipliziert (vergl. Hilfssatz auf Seite 137). Die erste
und die dritte Aussage sind demnach richtig.

(3) Vergleiche das Lemma auf Seite 147.


TEST 7 255

(4) Gegenbeispiel zur ersten Antwort: A = B = (~ ~), dann det(A+B)


= det (~ ~) = 4, aber det A + det B = 2. Hinweis zur zweiten:
det AA = An det A, denn bei Multiplikation nur einer Zeile mit A mul-
tipliziert sich schon die Determinante mit A. Die Richtigkeit der let:r;ten
folgt aus Satz 4, Seite 148.
(5) Die erste Antwort gibt immerhin eine richtige Gleichung, aber das nennt
man die Entwicklung nach der j-ten Spalte. Vergl. Seite 141 und Notiz
auf Seite 145.

det A = 1 . det 2 . det eU


(6) Entwickelt man nach der erst en Spalte (vergl. Seite 141), so ergibt sich

C-U- = 1 . 4 - 2 . (-1) = 6.

n~O
(7) Definition auf Seite 143.

n
(8)

,gG A
A
A
~l=dd GAA
A

(9) cos 2 cp + sin 2 cp = 1.

(10) Gegenbeispiel zur erst en Aussage: A = (~ ~) =I (~ ~) = E, aber


det A = 2 - 1 = 1. Fiir lineare Abbildungen: A: oc n -> ocn ist injektiv
~ surjektiv ~ Isomorphismus (vergl. Notiz 5, Seite 88); surjektiv
bedeutet rg A = n, und wenn rg A < n ware, so ware det A = 0 (Satz
1 und Definition, Seite 136).

TEST 7

1 2 3 4 5 6 7 8 9 10

x x

x x x

x x x x x x
256 Antworten zu den Tests

(1) Die crsten beiden Beispiele sind auch lineare Gleichungssysteme, aber
sehr spezieller Art und nicht in der ublichen Form geschrieben. Ver-
gleiche Seite 158.

(2) A E M(m x n, lK) hat m Zeilen und n Spalten und vermittelt daher
nach der Definition auf Seite 89 eine Abbildung A : lKn ---+ lKm. Also
Ax E lKm fUr x E lKn , anders gehts nicht.

(3) Vergleiche Seite 159.

(4) Dann ist b in der erweiterten Matrix

(A,b) ~ C]
linear uberflussig (vergl. Anfang des Beweises von Spaltenrang = Zeilen-
rang, Seite 116) und deshalb rg (A) = rg(A, b), vcrgl. nun Bemerkung
1 auf Seite 159. 1st ubrigens die j-te Spalte von A gleich b, so ist
offenbar x =
(0, ... ,0,1, 0,···, °)
'" j-te Stelle

eine L6sung von Ax = b.

°
(5) Warum soUte Ax = b immer l6sbar sein? Fur A = °
E M(n x n,lK)
und b -I- z.E. sicher nicht! Auch bei n Gleichungen fUr n Unbekannte
ist Bemerkung 1 auf Seite 159 in Kraft.

(6) Fur A E M(n x n, lK) gilt: dimKernA = °


-¢==? rgA = n -¢==? A :
lKn ---+ lKn bijektiv (vergleiche Kommentar zur Frage (6) in Test 5).
Dagegen bedeutet dim Kern A = n gerade A = 0.

(7) Gegenbeispiel zu den erst en beiden Antworten: Sei A = (~ ~ ). Dann


ist Ax = b l6sbar fUr b = (~), aber un16sbar fUr b = (~). Ein-
deutig l6sbar kann Ax = b nur sein, wenn Kern A = {O}, vergleiche
Bemerkung 2 auf Seite 160.
TEST 8 257

(8) Auch fiir dim Kern A = 1 kann Xo + Kern A zwei linear unabhangige
Elemente enthalten:

Kern A Los(A, b)

Deshalb kann rg A = n - 1 vorkommen; rg A = n kann aber nicht


vorkommen, sonst ware ja Ax = b eindeutig losbar. Also ist die zweite
Antwort richtig und die anderen beiden sind falsch.
(9) Auch bei A = 0 ist der erste Schritt nicht ausfiihrbar, aber die Unaus-
fiihrbarkeit des erst en Schrittes bedeutet nicht A = 0, sondern nur das
Verschwinden der ersten Spalte.

0: D)
(10) Die erste Bedingung ist nicht notwendig, die zweite weder notwendig

(llcl'pid C~)) noch him,ichend (Bei'pid

TEST 8

1 2 3 4 5 6 7 8 9 10

x x

x x x x

x x x x

(1) Vergleiche Definition auf Seite 178.


(2) Die zweite Aussage ist zwar eine Konsequenz aus der positiven Defini-
theit, aber nicht gleichbedeutend damit. Vergleiche (iii) auf Seite 179.
258 Antworten zu den Tests

(3) Die erste Antwort zu glauben, ist ein von Anfangern scheinbar gern
gemachter Fehler. Es gibt noch viele andere Skalarprodukte auf IRn
auBer dem durch (x, y) = X1Yl + ... + XnYn gegebenen. Und auch die
zweite Aussage ist falsch, weil diese Bedingung weder notwendig noch
hinreichend ist.
(4) Vergleiche Definition auf Seite 182.
(5) Wegen dim IR2 = 2 ist die dritte Antwort von vornherein falsch. Fur die
erste gilt zwar ((1, -1), (-1, -1)) = 0, aber II (1, -1) II = I (-1, -1) II =
J2 i= 1. Vergleiche Definition auf Seite 182.
(6) AuBer fur die Physiker, die das in § 4 als Ubungsaufgabe gerechnet
haben, ist die Richtigkeit der dritten Antwort nicht so leicht zu sehen.
Sie folgt aus (x,y) = i(llx +y11 2 -llx - YI12). Die zweite Antwort ist
ubrigens auch nicht ganz schlecht. Fur solche Abbildungen gilt stets
f(x) = )..;p(x) fUr alle x E V fur ein geeignetes ).. E IR und eine
geeignete orthogonale Abbildung ;p.
(7) Orthogonale Abbildungen sind stets injektiv (vergleiche Notiz auf Seite
187). Deshalb muss jedenfalls Kern P u = U.L = 0 sein, wenn Pu
orthogonal sein solI. Nach dem Korollar auf Seite 186 ist dann U = V,
und Pv = Id v ist tatsachlich orthogonal.
(8) Notiz auf Seite 188.
(9) Die zweite Antwort ist nicht so falsch wie die erste, denn mit der Abwe-
senheit der negativen Zahlen hat es ja zu tun, dass (N, +) keine Gruppe
ist, aber die Formulierung ist trotzdem nicht akzeptabel, denn der De-
finitionsbereich N x N ware schon gut genug fur eine Gruppe (N, +),
verletzt ist etwas ganz anderes, namlich das Axiom (3).
(10) Eine 2k x 2k-Matrix ist keine k x k-Matrix, deshalb muss die erste Ant-
wort falsch sein. Die dritte ist auch nur ein Scherz, denn zu (-I)2k = 1
kann man hier nur sagen: Na und? SO(2k) i= O(2k), weil z.B.

1
TEST 9 259

TEST 9

1 2 3 4 5 6 7 8 9 10

x x x x

x x x x x x

(1) Wenn f(x) = AX einen Sinn haben solI, miissen X und f(x) aus dem-
selben Vektorraum sein. Vergleiche Definition auf Seite 197.
(2) f(-x) = Ax =? f(-x) = (-A)(-X) und f(x) = (-A)X, also sind x
und -x Eigenvektoren zu -.>...
(3) E>-. = Kern(f - AId) enthiilt nicht nur die Eigenvektoren zu .>.., sondern

0 i) (-n n' n
auch den Nullvektor.

(4 ) = (- also ist (_ Eigenvektor zum Eigen-


wertA=l.
(5) Vergleiche Korollar auf Seite 200.
(6) f(x) = AX =? x = r1(.>..x) = .>..rl(x) =? rl(x) = ±x. Beachte,
dass A ganz von selbst Ie 0 ist, sonst wiire f nicht injektiv und konnte
daher auch kein Automorphismus sein.
(7) Alle drei Bedingungen implizieren die Diagonalisierbarkeit (vergleiche
das Korollar auf Seite 200 und natiirlich die Definition auf Seite 198),
aber die erst en beiden sind nicht gleichbedeutend mit der Diagonali-

0~ DR'~R'
sierbarkeit, wie das Gegenbeispiel

f~
zeigt.
(8) Erst auf Seite 207 unten haben wir lK auf lR oder IC eingeschriinkt, urn
gewissen Schwierigkeiten mit Polynomen iiber beliebigen Korpern aus
dem Wege zu gehen.

(9) detC-=-/ _~)=(1-A)(-A)-3(-2)='>"2-A+6.


260 Antworten zu den Tests

(10) Man rechnet leicht nach: v ist genau dann Eigenvektor von f zum
Eigenwert A, wenn ip-l(V) Eigenvektor von 9 zum Eigenwert A ist.

TEST 10

1 2 3 4 5 6 7 8 9 10

x x x x x

x x x x x

x x

(1) Endomorphismen mit der ersten Eigenschaft heiBen orthogonal, wiih-


rend die dritte Eigenschaft gar keine Bedingung an f stellt (Symmetrie
des Skalarprodukts).
(2) Die Ai sind reelle Zahlen, nicht Elemente von V, deshalb ist die erste
Aussage unsinnig. Fur die Richtigkeit der beiden anderen, vergleiche
Notiz 1 auf Seite 213.
(3) Wie in Notiz 2 auf S. 213 zeigt man, dass die erst en beiden Ant-
worten richtig sind: Aus U E U und W E Ul. folgt U(w),u) =
(w, f( u)) = 0 fur selbstadjungiertes und U( w), 1J,) = U- 1f( w), f- 1(1J,))
= (w, f-l(U)) = 0 fur orthogonales f (beachte, dass im letzteren FaIle
f : V --> V und flU : U --> U sogar Isomorphismen sind).
(4) Bei der ersten Matrix ist a14 "I a41, bei der dritten a12 "I a21.
(5) Weil A und A reell sind, folgt aus A(x+iy) = A(x+iy) auch Ax = AX
und Ay = Ay. Die zweite Antwort gilt also nur im Spezialfall A = o.
(6) Vergleiche das Korollar S. 219.
(7) (Puv, w) = (Puv, Pu w ) , weil Puv E U und sich w und Puw nur
urn den zu U senkrechten Anteil von w unterscheiden. Also auch
(Puv, w) = (v, Puw) , die erste Antwort ist richtig. Vergl. § 8 S. 186.
(8) Das erste Argument ist stichhaltig, deshalb braucht man das zweite
nicht erst nachzurechnen. Das dritte ist von vornherein falsch, weil
o 1
(1 1 ) mc
· ht symmetnsc
·h·1St.
TEST 11 261

(9) Die zweite Antwort ware richtig, wenn zusiitzlieh noeh vorausgesetzt
ware, dass die Eigenwerte A1, ... , An alle verschieden seien. Sonst ist
aber der dritte Sehritt im Rezept S. 220 nicht iiberfliissig.

(10) Dureh die Hauptaehsentransformation P wird ja A zu p- 1AP = AE,


also aueh schon vorher: A = PAEP- 1 = AE. Die zweite Antwort ware
nur fUr A = 0 richtig.

TEST 11

1 2 3 4 5 6 7 8 9 10

x x x

x x x x x

x x x

(1) Es gilt x ::;; x fiir alle x, und aus x ::;; y ::;; z folgt x ::; z, aber aus
x ::; y folgt nicht y ::; x: die Symmetrieforderung ist nicht erfiillt.

(2) Es gibt genau zwei A.quivalenzklassen: die eine besteht aus den unge-
raden, die andere aus den geraden Zahlen.

(3) Die zweite Bedingung besagt, dass A und B aquivalent im Sinne der
Definition auf Seite 231 sind, also ist die zweite Antwort naeh dem
Rangsatz riehtig. - Aus der erst en Bedingung wiirde folgen, dass A
und B gleiehes Bild, aus der dritten, dass sie gleichen Kern haben,
beides lasst sieh aus der Gleichheit der Range nieht sehlief3en.

(4) Zwar gilt B = 2A und rg A = rg B = 2, aber beides impliziert nicht


B = p- 1AP. - Wegen det(p- 1AP - AE) = det(p- 1(A - AE)P) =
(detp)-1det(A - AE)detP = det(A - AE) miissen A und P- 1AP
stets dasselbe eharakteristisehe Polynom haben, aber das eharakteristi-
sehe Poly nom von A ist (1 - A?, das von B ist (2 - A)2.
262 Antworten zu den Tests

(5) Das charakteristische Polynom von A ist PA(A) = (2 - A)3, also ist
A = 2 der einzige Eigenwert, also kommen nur die drei angegebenen
Matrizen als die Jordanschen Normalformen infrage. Die Dimension
des Eigenraumes Kern(A - 2 . E) ist aber 1, weil

den Rang 2 hat. Das muss auch fUr die Jordansche Normalform gelten,
also ist nur die dritte Antwort richtig.

(6) Hiitte ein Jordankiistchen der Jordanschen Normalform von A eine


GroBe;::: 2, so wiire A nicht diagonalisierbar, vergl. S. 233 unten. Ge-
rade wegen O(n) c GL(n, lR) c GL(n, q ist das Argument sehr wohl
stichhaltig. - Die sich gewissermaBen "dumm stellende" dritte Ant-
wort wollen wir nicht gelten lassen: es ist doch klar, dass in der Frage
die reellen Matrizen vermogc lR C IC auch als komplexe angesehen wer-
den.

(7) Beachte q(v+w) = b(v+w,v+w) = q(v) +2b(v,w) +q(w).

(8) Schreibt man Xl,.T2,X3 statt X,y,Z, so muss q(x) = L;:,j=laijXiXj


sein, was wegen aij = aji dasselbe wie
3
L; aii X ; + L; 2aijXiXj
i=1 i<.i
ist. Deshalb sind die Koeffizienten vor den Quadraten schon die Matrix-
elemente aii, aber die Koeffizienten vor den gemischten Termen sind
(aij + aji) = 2aij·

(9) Es ist in der Tat so, wie die erste Antwort sagt, denn wenn S und
A beide q : V --+ lR beziiglich Basen beschreiben, so gilt ja fiir die
Basisisomorphismen <1>, I}J : lR n ~ V, dass q 0 <I> = qs und q 0 I}J = qA,
woraus qs = qA 0 I}J-l 0 <I> = qA 0 P folgt. Vergl. S. 237.

(10) Ist (AI A2) die Diagonalgestalt von A nach der Hauptachsentrans-
formation, so ist det A = Al . A2, also hat A einen positiven und einen
negativen Eigenwert, woraus T =S= 1 folgt (vergl. S. 241).
Literaturverzeichnis

[1] AITKEN, A. C.: Determinanten und Matrizen, B.I.-Hochschultaschen-


bucher 293* , Bibliographisches Institut, Mannheim, 1969
[2] BRIESKORN, E.: Lineare Algebra und Analytische Geometrie 1 und II,
Vieweg, Braunschweig 1983 (I), 1985 (II)
[3] FISCHER, G.: Lineare Algebra, 9. Aufiage, Vieweg, Braunschweig, 1989
[4] FISCHER, G.: Analytische Geometrie, 5. Aufiage, Vieweg, Braun-
schweig, 1991
[5] HALMOS, P.R.: Finite-dimensional Vector Spaces, D. van Nostrand,
Princeton, 1958
[6] KITTEL, CH., KNIGHT, W.D., RUDERMAN, M.A.: Mechanics, Berke-
ley Physics Course, Vol. I, McGraw-Hill, New York, 1965
[7] KLINGENBERG, W.: Lineare Algebra und Geometrie, 2. Aufiage, Sprin-
ger Hochschultext, Berlin, 1990
[8] KOCHENDORFFER, R.: Determinanten und Matrizen, B.G. Teubner
Verlagsgesellschaft, Leipzig, 1957
[9] KOECHER, M.: Lineare Algebra und analytische Geometrie, 2. Aufiage,
Springer Grundwissen Mathematik 2, Berlin, 1985
[10] KOWALSKY, H.-J.: Lineare Algebra, Walter de Gruyter, Berlin, New
York,1970
[11] LANG, S.: Linear Algebra, Second Edition, Addison-Wesley, New York,
1971
[12] LINGENBERG, R.: Linearc Algebra, B.I.-Hochschultaschenbuchcr 828/
828a, Bibliographisches Institut, Mannheim, 1969
[13] LIPSCHUTZ, S.: Lineare Algebra - Theorie und Anwendung, McGraw
Hill, New York, 1977
[14] LORENZ, F.: Lineare Algebra 1 und II, B.-I.-Wissenschaftsverlag,
Mannheim, 1988 (I), 1989 (II)
[15] NIEMEYER, H., WERMUTH, E.: Lineare Algebra - Analytische und
numerische Behandlung, Vieweg, Braunschweig, 1987
[16] OELJEKLAUS, E., REMMERT, R.: Lineare Algebra I, Heidelberger Ta-
schenbucher 150, Springer, Berlin-Heidelberg, 1974

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9,


© Springer-Verlag Berlin Heidelberg 2008
264 LITERATURVERZEICHNIS

[17] SCHEJA, G., STORCH, D.: Lehrbuch der Algebra, Teill-3, B.G. Teub-
ner, Stuttgart, 1980 (Teill), 1988 (Teil 2), 1981 (Teil3)
[18] SCHWERDTFEGER, H.: Introduction to Linear Algebra and the Theory
of Matrices, P. Noordhoff N.V., Groningen, 1961
[19] STEINITZ, E.: Bedingt konvergente Reihen und konvexe Systeme, J.
Reine Angew. Math., 143(1913), 128-175
[20] NEUN BUCHER ARITHMETISCHER TECHNIK: Ein chinesisches Rechen-
buch fiir den praktischen Gebrauch aus der friihen Hanzeit (202 v.ChI.
bis 9 n.ChI.), iibersetzt und erliiutert von Kurt Vogel, FriedI. Vieweg
& Sohn, Braunschweig, 1968
[21] WALTER, R.: Einfiihrung in die line are Algebra, 2. Aufiage, Vieweg,
Braunschweig, 1986
[22] WALTER, R.: Lineare Algebra und analytische Geometrie, Vieweg,
Braunschweig, 1985
[23] ZURMUHL, R., FALK, S.: Matrizen und ihre Anwendungen, 5. Aufiage,
Springer, Berlin, 1984 (Teil 1), 1986 (Teil 2)
[24] EBBINGHAUS, H.D., HERMES, H., HIRZEBRUCH, F., KOECHER, M.,
MAINZER, K., NEUKIRCH, J., PRESTEL, A., REMMERT, R.: Zahlen,
2. Aufiage, Grundwissen Mathematik 1, Springer, 1988
Register

abelsche Gruppe 36, 190 Bilinearform


Abbildung 8 - , symmetrische 179
- , konstante 10 Bilinearitat 41
- , lineare 81
- , orthogonale 187
Cantor, Georg
- , zusammengesetzte 11
(1845-1918) 2
Addition
Charakteristik eines
- , komplexe 28
K6rpers 37
- im Vektorraum 22
charakteristisch
Ahnlichkeit von
-e Daten 230
Matrizen 233
- es Polynom 202
Aquivalenz
Cauchy-Schwarzsche
- klasse 227
Ungleichung 180
- relation 227
Cramersche Regel 162
- von Matrizen 231
aufspannen 58
Austauschlemma 60 Determinante 136
Austauschsatz von - eines Endo-
Steinitz 76 morphismus 151
A utomorphismus 82 Diagonalgestalt 197
Diagonalmatrix 197
diagonalisierbar 198
Basis 58 Diagramm 12
- , kanonische 59 - , kommutatives 12
Basiserganzungssatz 60 Dimension
Basisisomorphismus 93 eines Vektorraums 61
Betrag 39, 41 Dimensionsformel
bijektiv 11 - fiir lineare
Bild Abbildungen 87
- einer linearen - fUr Quotienten-
Abbildung 82 raume 99
Bildmenge 10 - fUr U ntervektor-
Bildpunkt 8 raume 64
bilinear 41 Doppelindices 68

K. Jänich, Lineare Algebra, DOI 10.1007/978-3-540-75502-9,


© Springer-Verlag Berlin Heidelberg 2008
266 REGISTER

Drehung 104 general linear group 191


Dreiecksmatrix, geometrische
obere 142 Vielfachheit 199
Dreiecksungleichung 181 G leichungssystem,
Durchschnitt 4 lineares 158
Grad eines Polynoms 207
Graph einer
Eigenraum 199 Abbildung 18
Eigenvektor 197 Gruppe 189
Eigenwert 197 - , abelsche 36, 190
eindeutige Losbarkeit 160
Einheitsmatrix E
oder En 115
Hauptachsentrans-
Eins eines Korpers 35
formation 212, 218, 219
Einschrankung einer
Hauptdiagonale 118
Abbildung 14
homogen 158
Element einer Menge 3
Homologie 108
endlichdimensional 62
Homomorphismus 81
Endomorphismus 82
Hiille, line are 56
- , selbstadjungierter 213
Entwicklung nach einer
Spalte 141
Epimorphismus 82 Identitat 9
Erhard Schmidtsches imaginare Zahlen 29
Orthonormalisierungs- indizierte Indices 68
verfahren 185 injektiv 11
erzeugen 58 inneres Produkt 41
euklidischer Integritatsbereich 55
Vektorraum 179 Intervall 22
inver;.; 13
invertierbare Matrix 114
Fundamentalsatz der Involution 130
Algebra 203 isometrisch 187
isomorphe Korper 177
Isomorphismus 82
GauBscher
Algorithmus 163
ganze Zahl 2 Jordankastchen 233
REGISTER 267

Jordansche Normal- lineare


form 234 - Abbildungen 80
- Riille 56
- G leichungs-
kanonische systeme 158
- Basis 59 Linearkombination 56
- Projektion 228 Li:isbarkeitskriterium 159
kartesisches Produkt 5 Li:isungsmenge 159
Kern 81
Kettenkomplex 108
Koeffizient einer m x n- Matrix 88
Matrix 88 Matrix 88
kommutativ - , komplementare 145
-er Ring 55 - , inverse 114
-es Diagramm 12 - , invertierbare 114
komplexe - , orthogonale 187
- Addition 28 - , quadratische 115
- Multiplikation 28 - , symmetrische 214
- Zahlen 28 - , transponierte 143
-er Vektorraum 29 Matrizeninversion 123
konstante Abbildung 10 Matrizenprodukt 112
Koordinatensystem 105 Menge 2
Ki:irper 34 -,leere 2
- der komplexen Mengendifferenz 5
Zahlen 28 Mengenklammern 3
Ki:irperisomor- Monomorphismus 82
phismus 177 Multiplikation
Kreuzprodukt (= Vektor- - , komplexe 28
produkt) 71 - , skalare 22
- von Matrizen 112

Lange 39, 41
leere Menge 2 n-tupel 21
Leibniz'sche Formel 153 naturliche Zahl 2
linear Nebenklasse 99
- abhangig 57 Norm 39,180
- unabhangig 57 Normalform,
- in jeder Zeile 136 Jordansche 234
268 REGISTER

Null eines Korpers 35 Pythagoras 39


nullteilerfrei 55, 114
Null-tupel 0 56
N ullvektor 23 quadratische
- Form 236
- Matrix 115
Offnungswinkel 181 Quotient nach einer
Orientierung 157 .Aquivalenzrelation 228
orthogonal 182 Quotientenvektorraum 99
iihnlich 235
-e Abbildung 187
-es Komplement 182 ]R2 6
-e Matrizen 187 ]Rn 7
-e Projektion 186 Rang
orthonormal 183 - einer linearen
-e Basis 183 Abbildung 87
- System 183 - einer Matrix 116
Orthonormalisierungs- - einer quadratischen
verfahren 185 Form 239
Ortsvektor 42 Rangbestimmungs-
verfahren 119
Rangsatz 231
Paar (a, b) 5 rationale Zahl 2
Permutation 153 Repriisentanten 230
- , gerade 153 Ring, kommutativer 55
- , ungerade 153
Polynom 207
- , charakteristisches 202 selbstadjungierter
positiv definit 41 Endomorphismus 213
Produkt senkrecht 182
- , inneres 40 Signatur einer
- von Matrizen 112 symmetrischen
von Mengen 5 Matrix 239
Projektion Skalar
- auf den ersten Faktor 9 -bereich 43
- , kanonische 228 -multiplikation 22
- , orthogonale 186 -produkt 41,178
- V -+ V/U 99 Spalte einer Matrix 88
REGISTER 269

Spalten als Bilder der Typen (1) (2) (3)


Einheitsvektoren 92 - von elementaren Zeilen-
Spaltenrang 116 umformungen 117
Spal tenentwickl ungs-
formel 140
Spaltenumformungen 117 Umformungen,
special linear group 191 element are 117
Spektraldarstellung Umkehrabbildung 13
selbstadjungierter Unabhiingigkeit,
Operatoren 219 lineare 57
spezielle orthogonale Unbekannte 158
Matrix 189 unendlichdimensional 62
Spiegelung 104 Ungleichung, Cauchy-
- an der Haupt- Schwarzsche 180
diagonalen 143 Untervektorriiume 31
Standard-Skalar- - , Dimensionsformel
produkt 39 fiir 64
Steinitz, Ernst Urbildmenge 10
(1871-1928) 76
Summe zweier Unter-
vektorriiume 63 vector 38
surjektiv 11 Vektor 20, 38
Sylvesterbasis 239 - , freier 49
Sylvester'scher Vektorprodukt 71
Triigheitssatz 239 Vektorraum
Sylvester'sche - endlich-
Normalform 241 dimensionaler 62
Symmetrie 41 - euklidischer 41, 179
symmetrische - komplexer 29
- Bilinearform 179 - reeller 23
- Matrix 214 - iiber C 30
- iiber lK 30
- iiber einem Karper 35
Teilmenge 4 - iiber lR 30
Teilmengenzeichen C 4 Verfahren zur
transponierte Matrix 143 - Lasung von linearen
Tripel 6 G leichungs-
tupel 6 systemen 162
270 REGISTER

- Matrizeninversion 124 Zahl


- Rangbestimmung 119 - , ganze 2
Vereinigung 5 - , imaginare 29
Vielfachheit - , komplexe 28
- , algebraische 208 - , naturliche 2
- der N ullstelle 208 - , rationale 2
- , geometrische 199 - , reelle 2
Zeile einer Matrix 88
Zeilenrang 116
Zeilenumformungen 118
Winkel 41 Zerlegung einer
wohldefiniert 98 Menge 228
Wolff, Christian Jlusammengesetzte
(1679-1754) 106 Abbildung 11

Das könnte Ihnen auch gefallen