Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
Lineare Algebra
11. Auflage
e 123
Springer-Lehrbuch
Klaus Janich
Lineare Algebra
Elfte Auftage
Mit zahlreichen Abbildungen
~ Springer
Prof. em. Dr. Klaus Jiinich
Fakultat fiir Mathematik
Universitat Regensburg
93040 Regensburg
Deutschland
klaus.jaenich@mathematik.uni-regensburg.de
© Springer-Verlag Berlin Heidelberg 1979. 1981. 1984. 1991. 1993. 1996. 1998.2000.2002.
2004.2008
Dieses Werk ist urheberrechtlich geschiitzt. Die dadurch begriindeten Rechte. insbesondere die
der Ubersetzung. des Nachdrucks. des Vortrags. der Entnahme von Abbildungen und Tabellen.
der Funksendung. der Mikroverfilmung oder der Vervielfaltigung auf anderen Wegen und der
Speicherung in Datenverarbeitungsanlagen. bleiben. auch bei nur auszugsweiser Verwertung, vor-
behalten. Eine Vervielfaltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall
nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesre-
publik Deutschland Yom 9. September 1965 in der jeweils geltenden Fassung zulassig. Sie ist
grundsatzlich vergiitungspfiichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtsgesetzes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Narnen
im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten waren und
daher von jedermann benutzt werden diirften.
Fruher, als Briefe noch vom Brieftriiger gebracht wurden, erfuhr man meist,
wer der Absender ist. Heute weiB ich von einem Leser zum Beispiel nur, dass
er "mark w" heiBt, eine Adresse bei yahoo hat, das Buch sorgfiiltig studiert
haben muss, weil er bemerkte, dass statt Spalte in Zeile 6 Seite 140 eigentlich
Zeile stehen sollte, und dass er ubrigens ein netter Mensch ist, sonst hiitte er
sich nicht die Muhe gemacht, mir das mitzuteilen.
Eine e-mail von M.Kratzsch hat bewirkt, dass mir meine Testfrage (3) auf
S.192 nicht mehr gefiel und ich sie deshalb geiindert habe, Johannes Bosman
hat einen von mir fehlgeleiteten Ruckverweis berichtigt und mir nebenbei
eine handvoll Kommas geschickt, nebst Vorschliigen wo sie hingesetzt werden
sollten, und Marc Spoor meinte, ich solle in Testfrage (5) auf S.205 besser
n-dimensional statt endlichdimensional schreiben. Recht hat er.
Fur diese und einige weitere Hinweise sage ich Dank. GroBe A.nderungen
habe ich nicht vorgenommen, was Sie also - hofIentlich Gutes - uber die
zehnte Aufiage gehort haben mogen, gilt auch fur die jetzige elfte.
Die zehnte Aufiage habe ich zum Anlass genommen, dem Buch ein neues
Layout zu geben: Haupt- und Nebentext, von denen das Vorwort zur ersten
Aufiage spricht, unterscheiden sich jetzt nicht mehr durch die SchriftgroBe,
sondern der Haupttext ist eingerahmt, was mir ubersichtlicher vorkommt.
Hie und da habe ich auch kleine textliche Verbesserungen vorgenommen, an
Inhalt und Charakter des Buches aber nichts geiindert.
Die Urfassung dieses Skriptums entstand fUr die Vorlesung, die ich im WS
1970/71 in Regensburg gehalten habe, im Spiitsommer 1970 habe ich damit
angefangen. Ich war damals dreiJ3ig Jahre alt, noch kein Jahr Professor, die
Lineare Algebra war meine erste Vorlesung vor einem groBen Publikum, und
voller Begeisterung fiir die Aufgabe, den Stoff jedem Horer verstiindlich zu
machen, ging ich an die Arbeit. Die Universitiit war neu, das Wetter war
herrlich - na, Sie sehen schon. Sollte ich wohl jetzt, nur weil es im feinen
TEX-Frack auftreten muB, iiber mein Jugendskriptum einen Grauschleier pe-
dantischer Fiinfzigjiihrigkeit werfen? Fiillt mir doch gar nicht ein.
Trotzdem konnte ich es natiirlich nicht unterlassen, einiges zu verbessern.
Der alte § 10 ist, wie mehrfach gewiinscht, jetzt am SchluB, den alten § 8 habe
ich herausgenommen, die Tests ergiinzt, einige Abschnitte neu geschrieben
und alle jedenfalls durchgesehen und im Einzelnen korrigiert, immer aber
darauf bedacht, nicht die Seele aus dem Buch hinauszuverbessern.
Dieses Skriptum sollte wohl geeignet sein, auch in den langen Monaten
zwischen Abitur und Vorlesungsbeginn schon studiert zu werden, und einem
solchen Leser mochte ich den Hinweis geben, daB in jedem Paragraphen die
Abschnitte vOT'dem Test den Grundkurs darstellen, die Abschnitte danach
die Ergiinzungen. Es geht durchaus an, nach "bestandenem" Test mit dem
niichsten Paragraphen zu beginnen.
Mancherlei Dank habe ich abzustatten. Die urspriingliche Stoffauswahl
fiir das Skriptum ist von einer Vorlesung meines Kollegen Otto Forster beein-
fluBt. In jenem WS 1970/71 las Herr Forster in Regensburg die Analysis I,
aus deren Skriptum das beriihmte Analysisbuch von Forster geworden ist.
1m Jahr zuvor hatte er aber die Lineare Algebra gehalten, und an dieser
Vorlesung habe ich mich damals orientiert.
Herr Kollege Artmann in Darmstadt, der im WS 1983/ 84 mein Buch sei-
ner Vorlesung zugrunde gelegt hatte, war so freundlich gewesen, mir danach
aus der gewonnenen Erfahrung eine Reihe konkreter Anderungsvorschliige
zu machen, die mir jetzt bei der Vorbereitung der Neuauflage sehr hilfreich
waren.
Hier im Hause habe ich vor allem Frau Hert! zu danken, die das TEX-Skript
geschrieben hat und Herrn Michael Prechtel, der zur Losung schwieriger TEX-
Probleme so manche Stunde fiir uns abgezweigt hat. Auch Frau Zirngibl
danke ich fUr Ihre Mithilfe bei der Vorbereitung des Manuskripts. Kurz vor
Ablauf des Termins schlieBlich, wenn sich der FleiB zur Hektik steigert, hiitte
ich ohne den Einsatz meiner Mitarbeiter Martin Lercher und Robert Mandl
VORWORT VII
wie ein Formel-1-Fahrer dagestanden, der wahrend des Rennens seine Reifen
seIber wechseln solI. Ihnen allen sei herzlich gedankt.
Ich will uber die wirklichen oder vermeintlichen Vorzuge meines eigenartigen
Skriptums nicht reden , auch mich fur seine wirklichen oder vermeintlichen
Mangel nicht entschuldigen, sondern einfach nur zwei technische Hinweise
geben, namlich
1.) Der mit groBerer Type geschriebene, etwas eingeruckte "Haupttext"
gibt lakonisch aber vollstandig den Stoff, den ich vermitteln will, er ist
im Prinzip auch fUr sich allein lesbar und verstandlich. Der mit kleinerer
Type bis an den linken Rand geschriebene "Nebentext" besteht aus
Erlauterung, Motivation und Gutem Zureden. Zuweilen habe ich ge-
schwankt und dann mit kleiner Type aber eingeruckt geschrieben.
2.) Einige Abschnitte sind "fUr Mathematiker" oder "fur Physiker" uber-
schrieben. LaBt man jeweils die eine Art dieser Abschnitte aus, so bildet
der Rest ein sinnvolles, lesbares Ganze.
Ich hoffe, daB jeder Benutzer dieses Skriptums etwas fur ihn Brauchbares
darin finden wird, es sei nun Mathematik, Unterhaltung oder Trost.
2. Vektordiume
3. Dimensionen
4. Lineare Abbildungen
5. Matrizenrechnung
6. Die Determinante
7. Lineare Gleichungssysteme
8. Euklidische Vektordiume
9. Eigenwerte
1.1 MENGEN
denn nun eigentlich gemacht wird. - Zunachst also zu den Mengen. Von
Georg Cantor, dem Begriinder der Mengenlehre, stammt die Formulierung:
Eine Menge besteht aus ihren Elementen, kennt man alle Elemente der
Menge, so kennt man die Menge. Die "Zusammenfassung zu einem Gan-
zen" ist also nicht etwa so zu verstehen, dass mit den Elementen noch etwas
besonderes geschehen miisste, bevor sie eine Menge bilden konnten. Die Ele-
mente bilden, sind, konstituieren die Menge - einfach so. Beispiele:
Ob iibrigens die Null als eine natiirliche Zahl gelten soll, ist nicht einheitlich
geregelt, man kann auch N = {I, 2, ... } vereinbaren. Achten Sie darauf,
ob sich Ihre beiden Dozenten in Analysis lund Linearer Algebra I dariiber
verstandigt haben! Dass im vorliegenden Buch Null eine natiirlich Zahl ist,
geht auch auf so eine Verstandigung zuriick.
Es hat sich als sehr zweckmiissig erwiesen, den Mengenbegriff so aufzu-
fassen, dass eine Menge auch aus gar keinem Element bestehen kann. Dies
ist die sogenannte leere Menge, das Zeichen dafiir ist
o= leere Menge.
Als nachstes sollen einige Zeichen oder Symbole eingefiihrt werden, die man
beim Umgang mit Mengen braucht, und zwar
Das Element-Symbol E
Die Mengenklammern { ... }
Das Teilmengenzeichen c
Das Durchschnittszeichen n
Das Vereinigungszeichen U
Das Mengendifferenzzeichen "-
Das Mengenproduktzeichen x
1.1 MENGEN 3
Welche dieser Symbole sind Ihnen schon bekannt? Was stellen sie sich unter
den iibrigen vor, wenn Sie einfach dem Namen nach eine Vermutung ausspre-
chen sollten? - Zum Elementsymbol:
1st Meine Menge und x ein Element von M, so schreibt man x EM.
Entsprechend bedeutet y <j M, dass y kein Element von Mist.
Man kann eine Menge dadurch bezeichnen, dass man ihre Elemente
zwischen zwei geschweifte Klammern schreibt. Dieses Hinschreiben der
Elemente kann auf dreierlei Weise geschehen: Hat die Menge nur ganz
wenige Elemente, so kann man sie einfach alle hinschreiben, durch Kom-
mas getrennt, so ist z.B. {I, 2, 3} die aus den drei Zahlen Eins, Zwei
und Drei bestehende Menge. Auf die Reihenfolge kommt es dabei gar
nicht an, auch nicht darauf, ob einige Elemente vielleicht mehrfach auf-
gefiihrt sind:
{1,2,3} = {3, 1,2} = {3,3,1,2,1}.
Die zweite Moglichkeit ist, Elemente, die man nicht nennt, durch Punkte
anzudeuten: {I, 2, ... , 1O} wird man sofort als {I, 2, 3,4,5,6,7,8,9, 1O}
verstehen, oder auch {I, 2, ... } als die Menge aller positiven ganzen
Zahlen.
Dieses Verfahren sollte man aber nur anwenden, wenn man wirklich sicher
ist, dass jeder Betrachter der Formel weiB, was mit den Punkten gemeint
ist. Was soUte man z.B. mit {37, 50, ... } anfangen? - Die dritte, am
hiiufigsten benutzte und stets korrekte Methode ist diese: Man schreibt nach
der Klammer { zuniichst einen Buchstaben, der die Elemente der Menge
bezeichnen solI, macht dann einen senkrechten Strich und schreibt hinter
diesen Strich genau hin, welches die Elemente sind, die dieser Buchstabe
bezeichnen solI, so konnte man statt {I, 2, 3} etwa schreiben: {x I x ganze
Zahl und 1 ~ x ~ 3}. Gehoren die Elemente, die man beschreiben will, von
vornherein einer bestimmten Menge an, fUr die man einen Namen schon hat,
so notiert man diese Zugehorigkeit links vom senkrechten Strich:
{I, 2, 3} = {x E N 11 ~ x ~ 3}.
Gelesen: "Menge aller x aus N mit 1 kleiner gleich x kleiner gleich drei."
Zusammenfassend:
4 Kapitel 1: Mengen und Abbildungen
1st E eine Eigenschaft, die jedes Element einer Menge X hat oder
nicht hat, so bezeichnet {x E X I x hat die Eigenschaft E} die Menge
Maller Elemente von X, die die Eigenschaft E haben, z.B.:
1"1 = {x E Z I x nicht negativ}.
Zum Teilmengenzeichen:
Sind A und B zwei Mengen, und ist jedes Element von A auch in
B enthalten, so sagt man A sei eine Teilmenge von B und schreibt
AcB.
Insbesondere ist also jede Menge eine Teilmenge von sich selbst: M c M.
Auch ist die leere Menge Teilmenge einer jeden Menge: 0 c M. Fur die
bisher als Beispiele genannten Mengen gilt: 0 c {I, 2, 3} c {I, 2, ... , 1O}
c 1"1 c Z c Q c JR. ~ Auf den Skizzen, die zur Veranschaulichung der
hier erlauterten Begriffe dienen, ist eine Menge meist durch eine mehr oder
weniger ovale geschlossene Linie dargestellt, an
der ein Buchstabe steht. Gemeint ist damit: M
sei die Menge der Punkte auf dem Blatt, die in
dem von der Linie "eingezaunten" Bereich liegen.
Manchmal werden wir auch den Bereich, dessen
Punkte die Elemente einer uns interessierenden
Menge sind, zur groi3eren Deutlichkeit schraffie-
ren. ~ NUll zu Durchschnitt, Vereinigung und
Differenz: Bier handelt es sich urn verschiedene Weisen, aus zwei gegebenen
Mengen A und Beine dritte zu machen. Falls Sie mit Durchschnitt, Ver-
einigung und Differenz nicht sowieso schon bekannt sind, ware es eine gute
Ubung fur Sie, jetzt, bevor Sie weiterlesen, die Definitionen von n, U und
" auf Grund der Bilder zu erraten zu suchen:
AnB AUB
1.1 MENGEN 5
Wie, wenn es nun gar keine Elemente gibt, die "sowohl in A als auch in
B" enthalten sind? Hat es dann einen Sinn, vom Durchschnitt A n B
zu sprechen? Gewiss, denn dann ist eben An B = 0! Ein Beispiel fur
die Nutzlichkeit der leeren Menge. Ware 0 nicht als Menge zugelassen, so
mussten wir schon bei der Definition von AnB den Vorbehalt machen, dass
es ein gemeinsames Element geben muss. Was bedeutet ubrigens A" B = 0?
- Wir wollen uns nun noch, bevor wir zu den Abbildungen kommen, mit
kartesischen Produkten von Mengen beschaftigen. Dazu muss man zunachst
erklaren, was ein (geordnetes) Paar von Elementen sein soll.
Ein Paar besteht in der Angabe eines erst en und eines zweiten Elemen-
tes. Bezeichnet a das erste und b das zweite Element, so wird das Paar
mit (a, b) bezeichnet.
Die Gleichheit (a, b) = (a', b') bedeutet also a = a' und b = b'. Das ist der
wesentliche Unterschied, der zwischen einem Paar und einer zweielementigen
Menge besteht: Beim Paar kommt es auf die Reihenfolge an, bei der Menge
nicht: Es gilt ja stets {a, b} = {b, a}, aber (a, b) = (b, a) gilt nur dann, wenn
a = b ist. Ein weiterer Unterschied ist, dass es keine zweielementige Menge
{a, a} gibt, denn {a, a} hat ja nur das eine Element a. Dagegen ist (a, a)
ein ganz richtiges Paar.
Das Symbol ":=" (analog "=:") bedeutet ubrigens, dass der Ausdruck auf
der Seite des Doppelpunkts durch die Gleichung erst definiert wird, man
braucht also nicht in seinem Gediichtnis zu suchen, ob man ihn schon kennen
soll und weshalb die Gleichung zutrifft. Naturlich sollte das auch aus dem
Text hervorgehen, aber die Schreibweise erleichtert das Lesen. -- Zur Ver-
anschaulichung des kartesischen Produktes benutzt man meist ein Rechteck
und zeichnet A und B als Intervalle unter und links von diesem Rechteck.
Zu jedem a E A und b E B "sieht" man dann das Paar (a, b) als Punkt in
AxB:
B '----_ _ _+-_----' A x B
I
I
I
--------~~------ A
a
Diese Bilder haben naturlich nur eine symbolische Bedeutung; sie geben
die Situation stark vereinfacht wieder, denn A und B sind im allgemei-
nen keine Intervalle. Trotzdem sind solche Zeichnungen als Denk- und An-
schauungshilfe nicht zu verachten. -- Etwas anders verfiihrt man, wenn es
sich nicht um irgend zwei Mengen A und B handelt, sondern speziell um
A = B = JR.. Dann niimlich "zeichnet" man JR.2 := JR. x JR. im allgemeinen,
indem man zwei aufeinander senkrecht stehende Zahlen-Geraden skizziert:
{O} x JR.
(O,y) ------------~(x,y)
- - - + - - - - + - - - - J R . x {O}
(x,O)
Die waagrechte Gerade spielt dabei die Rolle von JR. x {O} C JR. x JR., die
senkrechte Gerade die von {O} x JR.. Ein beliebiges Element (x, y) E JR.2
ergibt sich daIlIl aus (x,O) und (0, y) wie in der Skizze angedeutet.
1.1 MENGEN 7
Analog zur Definition der Paare kann man auch Tripel (a, b, c) und
allgemeiner n-tupel (aI, ... , an) erkliiren. Sind AI, ... , An Mengen, so
heiBt die Menge
Al x ... x An := {(aI, ... , an) I al E AI, ... ,an E An}
das kartesische Produkt der Mengen AI, ... ,An. Besonders oft werden
wir es in diesem Skriptum mit dem Rn (gesprochen: "er-en") zu tun
haben, das ist das kartesische Produkt von n Faktoren R:
R n := R x ... x R.
Der R n ist also die Menge aller n-tupel reeller Zahlen. Zwischen RI und R
besteht natiirlich nur ein ganz formaler Unterschied, wenn man iiberhaupt
einen wahrnehmen will. Zur Veranschaulichung von R3 zeichnet man iihnlich
wie bei R2 die "Achsen" Rx{O}x{O}, {O}xRx{O} und {O}x{O}xR, aber
zweckmiiBigerweise nur halb, sonst wiirde das Bild etwas uniibersichtlich:
{O}x{O}xR
: : (O,y,O)
I /
I I
I
I
I
{O}xRx{O}
(x,O,O) " I
I
I
I
/
__ -Vi
Rx{O}x{O}
Solche Bilder sollen Sie nicht zu der Annahme verleiten, R3 sei "der Raum"
oder dergleichen. R3 ist, wie gesagt, die Menge aller reellen Zahlentripel.
8 Kapitel 1: Mengen und Abbildungen
1.2 ABBILDUNGEN
Was schreibt man hin, wenn man eine Abbildung anzugeben hat? Hier einige
Formulierungen zur Auswahl. Als Beispiel benutzen wir die Abbildung von
Z nach N, die jeder ganzen Zahl ihr Quadrat zuordnet. Dann kann man
etwa schreiben:
Sei f : Z -> N die durch f(x) := x 2 fur
alle x E Z gegebene Abbildung.
Oder etwas kurzer:
Sei f : Z -> N die durch
x f-+ x 2 gegebene Abbildung
Oder, noch kurzer:
Betrachte f : Z -> N
x f-+ x 2 ,
und schliel3lich ist es manchmal gar nicht notig, der Abbildung einen Namen
zu geben, dann schreibt man einfach
Z->N
x f-+ x 2 ,
eine sehr suggestive und praktische Schreibweise. - Die Angabe der Men-
gen X und Y (in unserem Beispiel Z und N) kann man sich jedoch nicht
ersparen, und es ist auch nicht zuliissig, unsere Abbildung einfach x 2 zu nen-
nen: x 2 ist der Wert unserer Abbildung an der Stelle x oder, wie man auch
sagt, das Bild von x unter der Abbildung, aber naturlich nicht die Abbildung
selbst, fUr die mussen wir schon eine andere Bezeichnung wahlen. - Auch
die Addition reeller Zahlen ist eine Abbildung, namlich
lRxlR->lR
(x,Y)f-+x+y.
Man kann (und sonte) sich alle Rechenoperationen in dieser Weise als Ab-
bildungen vorstellen.
1.2 ABBILDUNGEN 9
Eine Abbildung braucht nicht durch eine Formel gegeben sein, man kann
eine Zuordnung auch in Wort en beschreiben. Fur Fallunterscheidungen bei
der Zuordnung benutzt man oft eine geschweifte Klammer, zum Beispiel wird
die Funktion
, (a, b)
I AxE
---------------A
a
10 Kapitel 1: Mengen und Abbildungen
Dabei wird J-1(B) gelesen als "J hoch minus 1 von B". Es ist wichtig zu
beachten, dass wir durch J-1(B) in keiner Weise eine "Umkehrabbildung"
oder dergleichen definiert haben. Das Symbol J- 1 , alleine, ohne ein (B)
dahinter, hat in diesem Zusammenhang gar keinen Sinn. - Die Begriffe der
Bildmenge und Urbildmenge kann man sich gut anhand der Projektion auf
den erst en Faktor eines kartesischen Produktes veranschaulichen:
x x
Die Elemente von J(A) sind gerade die J(x) fill x E A. Es kann aber ohne
weiteres vorkommen, dass auch ein J(z) mit z rj A zu J(A) gehort, niimlich
1.2 ABBILDUNGEN 11
1
J(x) == J(z)
Die Elemente von f- 1 (B) sind gerade jene Elemente von X, die bei der
Abbildung f in B landen. Es kann bei Abbildungen auch vorkommen, dass
kein Element in B landet: dann ist eben f-l(B) = 0.
X -L Y ~ Z
X f---------+ f (x ) f---------+ (g f) (x ) .
Der Grund, warum man 9 in gf (lies 9 nach f) zuerst schreibt, obwohl
man f zuerst anzuwenden hat, ist der, dass das Bild von x unter der zusam-
mengesetzten Abbildung gerade g(f(x)) ist. Wir wollen das so formulieren:
A B
An einem Diagramm k6nnen auch noch mehr Mengen und Abbildungen be-
teiligt sein. Ich will den Begriff aber nicht weiter prazisieren, bei den wenigen
einfachen Diagrammen, die wir zu betrachten haben, wird Ihnen der Sinn der
folgenden Definition immer ganz klar sein:
Das Diagramm
f
X Y
A B
Man liest f- 1 entweder als "f hoch minus 1" oder als "f invers".
f :X ----=----. y.
Aus vielleicht uberflussiger Vorsicht noch eine Bemerkung zum Begriff der
.-f'(II)
Umkehrabbildung. Sei f : X -+ Y eine Abbildung und BeY .
Y ----------
14 Kapitel 1: Mengen und Abbildungen
Sie haben eben gehort, dass nur die bijektiven Abbildungen eine Umkehrab-
bildung besitzen. ErfahrungsgemaB ist jedoch der Aberglaube schwer auszu-
rotten, dass jede Abbildung f "irgendwie" doeh eine Umkehrabbildung habe
und dass das f-I(B) mit dieser Umkehrabbildung etwas zu tun habe. Ich
gebe zu, dass die Schreibweise dazu verleitet, aber es sollte doch moglich sein,
den bijektiven und den nicht-bijektiven Fall auseinanderzuhalten? Wenn f
tatsachlich bijektiv ist, dann hat f-I(B) allerdings mit der Umkehrabbil-
dung zu tun, denn Sie konnen es entweder als f-Urbild von B oder als
f-I_Bild von B auffassen, denn offenbar gilt (f bijektiv vorausgesetzt):
rl(B) = {x E X I f(x) E B} = {j-I(y) lYE B}.
Noeh eine letzte Definition: die der Einschrankung einer Abbildung auf eine
Teilmenge des Definitionsbereiches.
1jlil
y ----------------
1.3 TEST
(2) Welche der unten angegebenen Mengen ist fur jede Wahl der Menge M
leer?
o MUM o MnM
(3) A x B werde wie ublich durch das Rechteck syrnbolisiert. Wie ware
dann {a} x B einzuzeichnen?
o
OJ
o o
B B B
A A A
. f 9 .
(7) Selen X ---> Y ---> Z Abblldungen. Dann ist die Abbildung gf : X --+ Z
definiert durch
o x>--+g(J(x)) o X f-+ f(g(x)) o X f-+ g(x)(J)
(8) Sei
Y
Z
ein kommutatives Diagramm. Dann ist
o h=gf o f = hg o g= fh
16 Kapite11: Mengen und Abbildungen
1.4 LITERATURHINWEIS
Den Leser oder die Leserin des ersten Paragraphen eines Skriptums fiir
das erste Semester stelle ich mir als einen Studienanfanger vor, und einen
solchen wird es vielleicht interessieren, W&'3 ein Professor - in diesem Fane
also ich - iiber das Verhaltnis zwischen Biichern und Vorlesungen so denkt.
Ais ich vor vielen Jahren das Skriptum fiir meine Student en vorbereitete,
aus dem nun dieses Buch geworden ist, nahmen die Lehrbiicher und Skripten
zur linearen Algebra in unserer Institutsbibliothek 1.20 m Regalplatz ein,
heute sind es iiber fiinf Meter. Je nach Temperament kann man das beruhi-
gend odeI' beangstigend £lnden, aber eines hat sich seither nicht geandert: ein
Studienanfanger in Mathematik braucht fiir den Anfang eigentlich gar kein
Lehrbuch, die Vorlesungen sind autark, und die wichtigste Arbeitsgrundlage
des Studenten ist seine eigenhiindige Vorlesungsmitschrift.
Das klingt Ihnen vielleicht wie eine Stimme aus vorgutenbergischen Zei-
ten. Mitschreiben? Unter den fiinf Metern wird sich ja wohl ein Buch £lnden,
in dem der Vorlesungsstoff steht! Und wenn ich nicht mitzuschreiben brau-
che, kann ich viel besser mitdenken, sagen Sie. Und auJ3erdem sagen Sie zu
sich seIber: Mitschreiben? Und wenn ich nun von meinem Platz aus die
1.4 LITERATURHINWEIS 17
Tafelanschrift gar nicht richtig entziffern kann? Oder wenn der Dozent so
schnell schreibt,l) dass ich gar nicht nachkomme? Und wenn ich einmal
krank bin und die Vorlesung nicht besuchen kann? Dann sitze ich da mit
meinen fragmentarischen Notizen.
So plausibel sich diese Argumente auch anhoren, sie sind doch nicht stich-
haltig. Erstens gibt es unter den flinf Metern Bucher in der Regel keines, in
dem "der Vorlesungsstoff" steht, vielmehr ist die graf3e Zahl von Lehrbuchern
und Skripten zur linearen Algebra schon ein Zeichen dafur, dass jeder Dozent
eben gerne seine eigenen Wege geht. Zwar liegt mancher Vorlesung ein Skrip-
tum oder ein ganz bestimmtes Buch zugrunde, dann mussen Sie das Buch
naturlich haben, schon weil sich der Dozent auf Konto des Buches vielleicht
Lucken im Vortrag erlauben wird, aber selbst dann sollten Sie mitschreiben,
und sobald er zwei Bucher ~mr Auswahl stellt, konnen Sie sidler sein, dass
er keinem sehr genau folgen wird. Wenn Sie nicht schnell genug schreiben
konnen, dann mussen Sie es eben trainieren, wenn Sie die Tafelanschrift von
weit hinten nicht erkennen konnen, mussen Sie sich weiter vorn einen Platz
suchen, und wenn Sie krank waren, mussen Sie die Mitschrift eines Kommi-
litonen kopieren.
Weshalb diese Anstrengung? Sie verlieren sonst den Kontakt zum Vor-
tragenden, koppeln sich ab, verstehen bald nichts mehr. Fragen Sie irgend
einen iilteren Studenten, ob er jemals in einer Vorlesung etwas gelernt hat,
in der er nicht mitgeschrieben hat. Es ist, als ob die Information durch Auge
und Ohr erst einmal in die Hand gehen musste, urn im Gehirn richtig anzu-
kommen. Vielleicht hiingt das damit zusammen, dass Sie beim Ausuben von
Mathematik ja auch wieder schreiben mussen. Aber was immer der Grund
sei: Erfahrung sagt's.
Wenn Sie dann in Ihrer Vorlesung richtig Fuf3 gefasst haben, werden Ih-
nen auch Bucher sehr nutzlich sein, und fUr das Studium in den hoheren
Semestern sind sie unentbehrlich, man muss deshalb lernen, mit Buchern
zu arbeiten. Ein Studienanfiinger aber sollte sich durch kein Buch verleiten
lassen, den Kontakt zur Vorlesung leichtfertig aufzugeben.
1) "Der Jiinich schreibt so schnell, so schnell kann ich nicht einmal sprechen" ist
mir als Ausspruch einer Studentin iiberliefert worden.
18 Kapitel 1: Mengen und Abbildungen
1.5 UBUNGEN
f(x)
x x
Man zeichne in der beschriebenen Weise Beispiele von Graphen von Abbil-
dungen f mit den folgenden Eigenschaften:
Der Beweis fiir die Injektivitat von f solI so aussehen: "Seien x, x' E X
und f (x) = f (x'). Dann ist ... . Also ist x = x'. Damit ist f als injektiv
nachgewiesen. "
Das Schema eines Surjektivitatsbeweises ist dagegen dies: "Sei Y E Y.
Dann wahlen wir x = . . .. Dann gilt ... , also f (x) = y. Damit ist f als
surjektiv nachgewiesen."
A B
9
Definition: Sind (Xl, . .. , xn) und (Yl, ... , Yn) n-tupel reeller Zahlen,
so werde deren Summe durch
erkHirt.
Die Summe ist also wieder ein n-tupel reeller Zahlen. Ahnlich kann man
definieren, wie man ein n-tupel (Xl, ... , Xn) mit einer reellen Zahl A zu
multiplizieren hat:
1
9 1+g
Auch fUr M gelten die acht Rechenregeln, die wir vorhin beim Rn
aufgefUhrt hatten. Bezeichnen wir mit 0 das durch O(x) := 0 fUr alle
x E [-1, 1) definierte Element von M und fiir f EMmit - f die durch
(-1) (x) := - f(x) definierte Funktion, so gilt fiir alle f, g, hEM, A, JL E R:
(1) U + g) + h = f + (g + h)
(2) f +9 = 9 + f
(3) f +0 = f
(4) f+(-1)=O
(5) A(JL1) = (AJL)f
(6) If = f
(7) AU + g) = Ai + Ag
(8) (A + JL)f = Ai + JLf
Was also die acht Rechenregeln angeht, so verhalten sich diese Funktionen so
wie die n-tupel reeller Zahlen, obwohl eine einzelne Funktion, als Individuum,
natiirlich etwas ganz anderes als ein n-tupel ist.
heiJ3t ein reeller VektorTaum, wenn fUr die Abbildungen + und . die
folgenden aeht Axiome gelten:
(1) (x+y)+z=x+(y+z)fiirallex,y,zEV.
(2) x + y = y + x fiir alle x, y E V.
(3) Es gibt ein Element 0 E V (genannt "Null" oder "N ullvektor")
mit x + 0 = x fiir alle x E V.
(4) Zu jedem x E V gibt es ein Element -x E V mit x + (-x) = O.
(5) A(J-LX) = (AJ-L)X fiir alle A,J-L E JR, x E V.
(6) Ix = x fiir alle x E V.
(7) A(X + y) = AX + AY fiir alle A E JR, x, Y E V.
(8) (A + J-L)x = AX + J-LX fiir alle A,J-L E JR, x E V.
Zwei Beispiele habe ich Ihnen schon genannt: den Raum (JR n , +, .) der n-
tupel reeller Zahlen und den Raum (M, +, . ) der reellen Funktionen auf dem
Intervall [-1, 1]. A ber noeh viele andere Vektorraume kommen in der Ma-
thematik VOT. Spreehen wir etwa von Funktionenraumen. Dass in unserem
ersten Beispiel die Funktionen auf dem Intervall [ -1, 1] definiert sind, ist fiir
die Vektorraum-Eigensehaft nieht wichtig, aueh die Menge aller reellen Funk-
tionen auf einem beliebigen Definitionsbereich D wird mit der naheliegenden
Addition + und Skalarmultiplikation . zu einem Vektorraum. Interessan-
ter als aile Funktionen auf D zu betraehten ist es aber meist, Funktionen
auf D mit bestimmten wichtigen Eigensehaften zu studieren, und so gibt
es etwa Vektorraume stetiger Funktionen und Vektorraume differenzierbarer
Funktionen und Vektorraume von Losungen homogener linearer Differenti-
algleichungen und viele andere mehr; es ist gar nicht vorhersehbar, welehe
Funktionenraume einem friiher oder spater begegnen konnen. Ahnlieh bei
den n-tupel-Raumen: oft geht es nieht urn den Vektorraum aZZer n-tupel,
sondern etwa urn einen Vektorraum der n-tupel, die ein bestimmtes homo-
genes lineares Gleichungssystem los en. Ferner kommen viele Vektorraume
vor, deren Elemente weder n-tupel noeh Funktionen sind. Einige werden
Sie bald kennenlernen, etwa Vektorraume von Matrizen oder Vektorraume
von Endomorphismen oder Operatoren, andere spater, z.B. den Vektorraum
del' Translationen eines affinen Raumes, Tangentialraume an Flaehen und
an andere Mannigfaltigkeiten, Vektorraume von Differentialformen und Vek-
torraume, unter deren Namen Sie sich jetzt gewiss noeh gar niehts vorstel-
len konnen, wie reelle Kohomologiegruppen oder Lie-Algebren. Und das ist
nur eine Aufzahlung von mehr oder weniger konkreten Beispielen von Vek-
torraumen. Oft hat man aueh mit Vektorraumen zu tun, iiber die man zwar
zusatzliehe, iiber die Axiome hinausgehende Information hat (wie z.B. bei
24 Kapitel 2: Vektorraume
Bevor wir zum niichsten Abschnitt (komplexe Zahlen und komplexe Vek-
torraume) ubergehen, mochte ich Sie auf eine wichtige Eigentumlichkeit ma-
thematischer Bezeichnungsweise aufmerksam machen, namlich auf die hau-
figen Doppelbedeutungen von Symbolen. Zum Beispiel haben wir den Null-
vektor mit 0 bezeichnet. Das soIl natiirlich nicht heiBen, dass die reelle Zahl
Null, die ja auch mit 0 bezeichnet wird, ein Element des Vektorraums sein
soIl, sondern es gibt eben genau einen Vektor in V, dessen Addition "nichts
bewirkt" und dieser heiBt Nullvektor und wird, wie die Zahl Null, mit 0
bezeichnet.
Wurden wir allgemein zulassen, dass ein und dasselbe Symbol innerhalb
eines Beweises, einer Definition oder sonstigen Sinnzusammenhanges ver-
schiedene Bedeutungen haben darf, dann konnten wir uns bald uberhaupt
nicht mehr verstandigen. Und jeder cinzelne solche Fall von Doppelbedeu-
tung ist natilllich eine mogliche Quelle von Verwechslungen, besonders fUr
Anfanger, das kann man gar nicht wegdiskutieren.
Andererseits mussen wir die Tatsache ruhig ins Auge fassen, dass Dop-
pelbedeutungen nicht ganz zu vermeiden sind. Legt man strenge MaBstabe
an, dann ist die mathematische Literatur sogar voll davon. Wollte man Dop-
pelbedeutungen strikt vermeiden, so wurden im Laufe der Zeit auch ganz
einfache Aussagen von ihrem eigenen formalen Ballast erstickt werden. Ich
konnte zwar in diesem Skriptum wegen der begrenzten Stoffmenge eine zeit-
lang aIle Doppelbedeutungen vermeiden, aber dann musste ich einige sehr
sonderbare Bezeichnungsangewohnheiten annehmen, die Ihnen spater bei der
unvermeidlichen Umstellung auf mathematische Normalkost Schwierigkeiten
bereiten willden. Wir wollen jedoeh mit Doppelbedeutungen mogliehst spar-
sam umgehen, FaIle mit wirklieher Verweehslungsgefahr vermeiden und im
ubrigen die vorkommenden FaIle ruhig beim Namen nennen. Den Nullvek-
tor mit 0 zu bezeiehnen ist ganz klar solch ein Fall. Es wird aber stets aus
dem Zusammenhang hervorgehen, ob Zahl oder Vektor gemeint ist. 1st z.B.
x, y E V, X + y = 0 dann ist diese 0 naturlieh der Vektor usw. Einen wei-
teren Fall von Doppelbedeutung moehte ieh gleich ankundigen: Wir werden
im folgenden meist statt "der Vektorraum (V, +, . )" kurz: "der Vektorraum
V" sagen, eine Doppelbedeutung des Symbols V als Vektorraum und die
dem Vektorraum zugrunde liegende Menge dabei bewusst in Kauf nehmend.
26 Kapitel 2: Vektordiume
..
.. . ...
.-
•• • • ••
• .. . - ..
•• •• •• ••
..
•
..
. . .. • •
• • •
.. . . ...
• • • ••
• • ••••
•• • • . ...
2.2 KOMPLEXE ZAHLEN UND KOMPLEXE VEKTORRAUME 27
Eci vielen mathematischen Fragestellungen gleicht der nur mit reellen Zahlen
Arbeitende einem, der Punkteverteilungen auf Linien studiert und kein Sy-
stem darin findet, wahrend der mit komplexen Zahlen Arbeitende sofort sieht,
worum es sich handelt. Die komplexen Zahlen ermoglichen oft entscheidende
Einsichten in die Struktur und Wirkungsweise der "reellen" Mathematik.
28 Kapitel 2: Vektorraume
Die Addition ist also dieselbe wie in dem reellen Vektorraum JR2, aber die
Multiplikation wirkt auf den erst en Blick vi.illig willkiirlich und wie eine von
den Formeln, die man erfahrungsgemaB immer wieder vergisst. Warum de-
finiert man nicht einfach (x,y)(a,b) = (xa,yb), das ware doch wohl am
naheliegendsten? - Das lasst sich am besten erklaren, wenn man vorher
eine andere Schreibweise fUr die Elemente von JR2 einfiihrt.
3i
2i -------------, 3 + 2i
° 1 2 3 4 5
Die Multiplikation in C solI nun folgendes leisten: Erstens solI sie assozia-
tiv, kommutativ und beziiglich der Addition distributiv sein, d.h. fiir alle
2.2 KOMPLEXE ZAHLEN UND KOMPLEXE VEKTORRAUME 29
Dann ist C n := C x ... x C ebenso ein Beispiel fur einen komplexen Vek-
torraum wie JR.n eines fur einen reellen Vektorraum. Die ersten vier Axiome,
die nur mit der Addition in V zu tun haben, werden natiirlich wortlich
ubernommen. Vielleicht ist es besser, die ganze Definition noch einmal hin-
zuschreiben:
DEFINITION: Ein Tripel (V, +, . ), bestehend aus einer Menge V, einer Ab-
bildung + : V x V -7 V, (x, y) f-+ x+y, und einer Abbildung . : C x V -7 V,
(A, x) f-+ AX, heiBt ein komplexer Vektorraum, wenn die folgenden acht
Axiome gelten:
Statt "reeller Vektorraum" sagt man auch "Vektorraum uber JR." und
statt "komplexer Vektorraum" "Vektorraum uber C". Wenn wir von
einem "Vektorraum uber lK" sprechen, so ist im Folgenden gemeint,
dass lK entweder JR. oder C ist. Der Buchstabe lK wurde gewahlt, weil
JR. und C so genannte "Korper" sind.
2.3 UNTERVEKTORRAUME
U x
x+yrjU
und wenn das so ist, dann liefert die Addition in V ja keine Abbildung
U x U ---> U, wie es fiir einen Vektorraum U der Fall sein miisste, sondern
nur eine Abbildung U x U ---> V. Zuniichst miissen wir also fordern, wenn
U durch die V-Addition und V-Skalarmultiplikation zu einem Vektorraum
werden solI, dass fiir alle x, y E U und A E lK gilt: x + y E U, AX E U.
Au£erdem miissen wir U =I- 0 fordern, denn sonst kann Axiom 3 (Existenz
der Null) nicht erfiillt sein. Das geniigt dann aber tatsiichlieh auch. Die
Giiltigkeit der Axiome folgt dann automatisch. Wir werden das als Korollar
aus der folgenden Bemerkung formulieren, davor aber iiberhaupt erst einmal
die Definition:
BEWEIS: Man sollte meinen, dies folgt aus U =I- 0 und AX E U fiir alle
A ElK, X E U, da man ja A = 0 bzw. A = -1 set zen kann. Fiir Funktio-
nenriiume oder n-tupel-Raume ist das auch klar, aber da (V, +, .) irgend
ein uns nieht naher bekannter Vektorraum ist, miissen wir uns nach einem
Beweis fiir O· x = 0 und (-1). x = -x umsehen, denn in den Axiomen steht
nichts davon.
Es gilt aber 0 . x = (0 + 0) . x = O· x + 0 . x nach Axiom (8), also
o = 0 . x + (-0· x) = (0· x + 0 . x) + (-0· x) nach Axiom (4), folglich
o = 0 . x + (0 . x + (- 0 . x)) = 0 . x + 0 = 0 . x nach (1) und (4), also O· x = 0,
wie wir zeigen wollten. Als Folgerung erhalten wir auch die andere Aussage,
denn wir wissen nun 0 = 0 . x = (1 + (-1 )) . x = 1 . x + (- 1) . x = x + (- 1) . x ,
also x + (-1) . x = 0, d.h. (-1). x = -x. 0
32 Kapitel 2: Vektorraume
Geht man nun die acht Axiome in Gedanken an U durch, so sieht man:
2.4 TEST
(2) Welche der folgenden Aussagen ist keines der Axiome des reellen Vek-
torraums:
D Fur alle x, y E V gilt x + y = y + x
D Fur alle x, y, Z E V gilt (x + y) + Z = x + (y + z)
D Fur alle x, y, Z E V gilt (xy)z = x(yz)
2.4 TEST 33
D xa + ybi
D xy + yb + (xb - ya)i
D xa - yb + (xb + ya)i
D VxV->lK D lKxV->V
gegeben.
(5) Welche Formulierung kann korrekt zur Definition des Begriffes reeller
Vektorraum ergiinzt werden:
(6) Welche der folgenden Aussagen ist richtig: 1st Vein Vektorraum iiber
lK, so ist
D {x + y I x E V, Y E V} = V
D {x + y I x E V, Y E V} = V x V
D {AV I A E lK, v E V} = lK x V.
D U = {x R n I Xl = ... = xn}
xn
E
D U = {x E R n I XI =
D U = {X E R n I Xl = I}
2.5 KemPER
AuJ3er R und C gibt cs noch viele andere so genannte "Korper", die man
als Skalarbereiche fUr Vektorraume verwenden kann.
Definition: Ein Korper ist ein Tripel (1IC, +, .) bestehend aus einer
Menge 1IC und zwei Verkniipfungen
+ :1IC x 1IC ---+ 1IC, (A, J-l) >----------+ A + J-l ("Addition") und
. :1IC x 1IC ---+ 1IC, (A, J-l) >----------+ AJ-l ("Multiplikation")
so dass die folgenden Axiome erfUllt sind:
2.5 KORPER 35
Diese neun Eigenschaften imitieren naturlich das Rechnen mit reellen oder
komplexen Zahlen, und als allererste Approximation kann man sich einmal
merken, dass man in einem Korper "genau so" rechnen kann wie in lR oder
IC. - Man kann leicht aus den Axiornen folgern, dass die in (3) und (7)
genannten Elemente 0 und 1 eindeutig bestimmt sind, so dass wir von "der
Null" und "der Eins" des Korpers reden konnen, dass ferner -A und A- 1
eindeutig zu gegebenem A bestimmt sind, dass (-l)A = -A ist und dass
Aj.L = 0 ~ A = 0 oder j.L = 0 und dass (-1)(-1) = 1 ist, vielleicht sollten
wir das einmal fur die Leser des Haupttextes notieren:
1st nun lK irgend ein Korper, so definiert man den Begriff des" Vektor-
mums uber lK" analog dem des reellen Vektorraums: man ersetzt ein-
fach uberall lR durch lK. Wenn in dies em Skriptum von Vektorraumen
uber lK die Rede ist, so ist fur die Leser der Abschnitte fur Mathemati-
ker immer (auch auBerhalb dieser Abschnitte) gemeint, dass lK irgend
ein Korper ist, sofern lK nicht ausdrucklich anders spezifiziert ist. Ins-
besondere gilt alles, was wir obcn schon fur "Vektorraume uber lK"
formuliert haben, fur beliebige Korper, nicht nur wie dort zunachst
angegeben fur lK = lR und lK = C.
36 Kapitel 2: Vektordiume
Ich machtc Ihnen die Definition des Begriffes "Karper" noch in einer anderen
Formulierung geben, in der man sie sich, wie ich finde, besser merken kann.
Der Nachteil dieser Definition ist nur, dass man dazu eine Vorrede braucht,
deshalb habe ich sie im Haupttext nicht benutzt. Also: wenn Sie irgendwo
in der Mathematik einer Verkniipfung begegnen, die durch das Symbol "+ "
bezeichnet wird (und das ist gar nicht selten), so kannen Sie ziemlich sicher
sein, dass die Verkniipfung assoziativ und kommutativ ist, d.h. dass fiir aile
x, y, z, fiir die die Verkniipfung erkliirt ist, gilt: (1) (x + y) + z = x + (y+ z)
und (2) x + y = y + x . Wenn es nun noch ein "neutrales Element" 0 gibt
und zu jedem x ein Negativ, dann nennt man die betreffende Menge zusam-
men mit der Verkniipfung + eine abelsche Cruppe (nach dem norwegischen
Mathematiker Niels Henrik Abel (1802-1829)):
DEFINITION: Eine abelsche Gruppe ist ein Paar (A, +) bestehend aus einer
Menge A und einer Verkniipfung + : A x A -+ A, so dass gilt:
(1) Fiiralle a,b,c E A ist (a+b)+c=a+(b+c).
(2) Fiir aile a, bE A ist a + b = b + a.
(3) Es gibt ein Element 0 E A mit a + 0 = a fiir aile a E A.
(4) Zujedem a E A gibt es ein -a E A mit a+ (-a) = O.
NOTIz: (lK, +, .) ist genau dann ein Karper, wenn (lK, +) und (lK ...... 0, . )
abelsche Gruppen sind und die Verkniipfungen sich in der iiblichen Weise
2.5 KClRPER 37
distributiv verhalten, also A({L + v) = A{L + AV und ({L + V)A = {LA + VA fiir
alle A, {L, v E lK. D
Bei aller Analogie zwischen den Korperaxiomen und den Eigenschaften der
Addition und Multiplikation reeller Zahlen muss man beim Rechnen mit Kor-
perelementen doch auf eine Gefahr achten, und diese Gefahr hangt mit der
Doppelbedeutung von 1 als Zahl und als Korperelement zusammen. Und
zwar: man verwendet fiir das multiplikativ neutrale Element eines Korpers
die Bezeichnung 1, und ebenso bezeichnet man das Element 1 + 1 E lK
mit 2, usw. Dadurch bekommt jedes Symbol fiir eine natiirliche Zahl eine
Doppelbedeutung als Zahl und als Korperelement, und entsprechend hat fiir
A E lK auch nA eine Doppelbedeutung: Fasst man n als natiirliche Zahl
auf, so bedeutet nA := A + ... + A (n Summanden) - das hat nur mit
der Korperaddition zu tun, und dieselbe Schreibweise benutzt man auch fUr
beliebige additiv geschriebene abelsche Gruppen. Fasst man dagegen n als
Korperelement auf, so hat nA eine Bedeutung als Produkt in dem Sinne der
Korpermultiplikation. - Nun macht das aber gar nichts aus, denn wegen
Axiom 9 gilt A + A = lA + lA = (1 + I)A = 2A usw. (hierbei 1 E lK, 2 E lK
gemeint), also ist nA in beiden Interpretationen dasselbe Korperelement.
Aber: das Element nA kann Null sein, obwohl weder die Zahl n noch das
Korperelement A Null sind. Es kann namlich vorkommen, dass 1+·· ·+1 = 0
in lK gilt, fiir eine geeignete Anzahl von Summanden!
Beispiele: Die Korper lR, rc und IQl (Korper der rationalen reel-
len Zahlen) haben alle die Charakteristik 0. Ist peine Primzahl, so
kann man {O, 1, ... ,p - I} zu einem Korper IFp machen, indem man
Summe und Produkt als die Reste der gewohnlichen Summe und des
gewohnlichen Produkts bei der Division durch p erkliirt. (Beispiel:
3 . 4 = 12 in Z, 12 : 7 = 1 Rest 5, also 3 . 4 = 5 in IF 7). Dann hat
°
IFp die Charakteristik p. Insbesondere: Definiert man in IF 2 = {O, I}
durch 0+0 = 0,1+0 = 0+1 = 1,1+1 = und 0·0 = 0·1 = 1·0 = 0,
1 . 1 = 1 eine Addition und eine Multiplikation, so wird IF 2 zu einem
Korper der Charakteristik 2.
Yom mathematischen Standpunkt aus ist diese Frage durch die Definition
des "Vektorraumes" vorerst befriedigend beantwortet. Als Physiker miissen
Sie sich jedoch unter einem etwas anderen Gesichtspunkt wieder damit aus-
einandersetzen, wenn Sie, z.B. im Berkeley Physics Course [6], S. 25 lesen:
"A vector is a quantity having direction as well as magnitude". Wie ist das
gemeint? Was hat das mit dem mathematischen Vektorraum-Begriff zu tun?
Ist es dasselbe, nur in anderen Wort en?
Sehr berechtigte Fragen, aber nicht so einfach zu beantworten. Ganz das-
selbe ist es jedenfalls nicht. - Fiir eine niihere Erkliirung muss ich natiirlich
auf die drei Worte quantity, direction und magnitude, also GroBe, Richtung
und Betrag eingehen. Lassen Sie mich als Vorbereitung zuniichst erliiutern,
was man in der Mathematik unter dem Betrag eines Vektors versteht. Danach
wollen wir zu unserem Problem zuriickkehren und versuchen, eine Briicke
zwischen mathematischem und physikalischem Vektorbegriff zu schlagen.
Vektoren (in dem in der Mathematik gebriiuchlichen Sinne) haben
zuniichst einmal keinen "Betrag", aber wir konnen ihnen einen Betrag
geben. Ob und wie wir das tun, hiingt von den Griinden ab, aus denen wir
2.6 WAS SIND VEKTOREN? 39
Unter dem Betrag oder der Norm oder der Lange eines Vektors x E lR. n
versteht man die Zahl
Ein Vektor e E lR. n heiBt dann ein Einheitsvektor, wenn I eI = 1 gilt. Fur
x i= 0 ist zum Beispiel e := II~II ein Einheitsvektor.
gleich lang, dieses also ein Rechteck ist und x und y senkrecht aufeinander
stehen: (x,y) = 0 ~ x..l y.
o "-----'--'-----------'-'---'----'-' x
Daraus liisst sich aber die elementargeometrische Bedeutung von (x, y) fur
beliebige von Null verschiedene x, y E Rn erschlieBen: set zen wir e:= xl I x II
und e' := y I I y I , und ist ..\e der FuJ3punkt des Lotes von e' auf e,
e'
und bezeichnen wir mit a(x,y) den Winkel zwischen x und y, so dass also
..\ = cosa(x,y) gilt, so ist e..l e' -..\e und daher (e,e') - ..\(e, e) = 0 oder
(e, e') = ..\, d.h. aber
(x, y)
Ilxllllyll = cosa(x,y),
das Skalarprodukt beschreibt also nicht nur die Liingen-, sondern auch die
elementargeometrische Winkelmessung im Rn.
In der Mathematik werden auJ3er dem Rn aber auch noch viele andere re-
elle Vektorriiume betrachtet, und deshalb hat man einen allgemeinen Begriff
eingefiihrt, der die wichtigsten Eigenschaften des Standard-Skalarprodukts
im R n imitiert, niimlich
2.6 WAS SIND VEKTOREN? 41
Oder wie man aueh sagt: einen Vektorraum V, der mit einem Skalarprodukt
versehen oder ausgestattet ist.
Soviel zunachst iiber den Betrag ("magnitude") eines Vektors aus mathe-
matischer Sicht, und ich kehre zu der schwierigen Aufgabe zuriick, auf die
ich mich leichtsinnigerweise eingelassen habe, namlich Ihnen den Unterschied
zwischen mathematischem und physikalischem Vektorbegriff klarzumachen.
Dieser Unterschied hangt damit zusammen, dass es einen Raum gibt, der
in der Physik von iiberragender Bedeutung und gleichsam allgegenwartig ist,
wahrend ihn die lineare Algebra als mathematisches Objekt, also "offiziell"
sozusagen, gar nicht kennt, namlich den realen physikalischen Raum, in dem
wir uns aIle befinden.
Inoffiziell kennt ihn die Mathematik natiirlich recht gut, den Anschau-
ungsraum, aber wenn wir die Punkte im Raum fUr "bestimmte, wohlunter-
schiedene Objekte unserer Anschauung oder unseres Denkens" ausgeben soll-
ten, wiirde uns doch recht mulmig werden. - Uber solche philosophischen
Zimperlichkeiten miissen wir uns jedoch fiir die gegenwartige Diskussion hin-
wegsetzen. Erkennen wir also einmal den Anschauungsraum als geniigend gut
definiert an, sei es, dass wir einen Punkt darin durch seine Abstande zu den
Laborwanden charakterisiert denken, sei es, fiir astronomische Betrachtun-
gen, durch seine Position beziiglich der Fixsterne.
Dadurch wird der Anschauungsraum A nicht zu einem Vektorraum, wo
zum Beispiel ware seine Null? Er hat aber eng mit gewissen Vektorraumen
zu tun. Wahlt man namlich einen Punkt 0 E A willkiirlich aus und ernennt
ihn zum Null- oder Bezugspunkt, so kann man aIle Punkte PEA als so
genannte Ortsvektoren QF bezuglich 0 auffassen, veranschaulicht durch einen
Pfeil von 0 nach P, kann sie mit reellen Zahlen multiplizieren und wie im
"Krafteparallelogramm" zueinander addieren
OP
und erhalt so einen Vektorraum, den wir mit Ao bezeichnen wollen. An ei-
nem festen Raumpunkt 0 betrachtet man in der Physik aber nicht nur Orts-
vektoren, sondern auch elektrische Feldstarkevektoren, Geschwindigkeitsvek-
toren, Kraftvektorcn und viele andere mehr. Mit der physikalisch durch
2.6 WAS SIND VEKTOREN? 43
1) Dieser Gebraueh des Wortes Dimension hat niehts mit dem Dimensionsbegriff
der linearen Algebra zu tun, von dem im nachsten Paragraphen die Rede sein wird, die
Wortgleiehheit ist Zufall.
44 Kapitel 2: Vektordiume
5 sec E lR[ sec], so erhalt man einen Ortsvektor r' = 5 sec· V E Ao. Bezeieh-
nen wir die Menge solcher Produkte in Anlehnung an die Notation fur die
Skalarbereiche, so hatten wir hier also zum Beispiel go [sec] = Ao. 1st all-
gemeiner Vo ein physikaliseher Vektorraum bei 0 mit einem Skalarbereich
lR[ a] und ist lR[ b] ein weiterer Skalarbereieh, so wollen wir
Vo[b]:= {b· v Iv E Vo }
sehreiben. Das ist dann also der physikalisehe Vektorraum mit dem Skalar-
bereich lR[ ab]. Beaehte, dass wir aueh hierbei keine Festlegung einer MaB-
einheit zu treffen haben, denn versehiedene MaBeinheiten unterseheiden sieh
ja nur urn einen von Null versehiedenen reellen Faktor. Auf diese Weise ste-
hen die physikalisehen Vektorraume bei 0 alle miteinander in kanoniseher
Beziehung. Haben Vo und Wo die Skalarbereiche lR[ a] und lR[ b], so ist
Wo = Vo [ ~] und Vo = Wo [ *]. Insbesondere konnen wir sie, wenn wir
2.6 WAS SIND VEKTOREN? 45
Schauen wir von dem jetzt erreichten Standpunkt nochmals auf die Formu-
lierung "A vector is a quantity, having direction as well as magnitude!!, so
konnen wir die Unterschiede zum mathematischen Vekt orb egriff nun deutlich
benennen:
(1) Ein physikalischer Vektor ist "a quantity', eine (physikalische) GroBe.
So allgemein diese Bestimmung auch ist, drilckt sie doch schon eine
andere Auffassung vom Vektor aus, denn die mathematischen Vektor-
raumaxiome enthalten keine, auch nicht die geringste Forderung an
Herkunft oder Eigenschaften der Vektoren.
(2) Ein physikalischer Vektor hat "magnitude", einen Betrag, beim mathe-
matischen Vektor gehort das nieht zur Begriffsbestimmung. Werden
aber doch, durch die Zusatzstruktur eines Skalarprodukts (. , . ), Be-
trage eingefilhrt, so sind das reelle Zahlen und nieht, wie in der Physik,
dimensionsbehaftete physikalische Skalare.
(3) SchlieBlich hat ein physikalischer Vektor "direction", eine Richtung im
(physikalischen) Raum, weil die physikalischen Vektorraume in der oben
beschriebenen engen Beziehung zum Ortsvektorraum stehen. Hierfilr
gibt es beim mathematischen Vektorbegriff ilberhaupt keine Entspre-
chung, weil die Axiome keinerlei Bezug auf den physikalischen Raum
nehmen.
schreiben konnen, denn die Summe aus einem Orts- und einem elektrischen
Vektor hat keinen Sinn!
Vielleicht beginnen Sie sich bei der Aufziihlung dieser Unterschiede zu fra-
gen, ob Sie als Physiker hier noch im richtigen Horsaal sitzen. SolI die lineare
Algebra, soweit sie fiir Physiker relevant ist, nicht gerade die Grundlage fiir
das Rechnen mit physikalischen Vektoren liefern?
SolI sie nicht. Der eigentliche Nutzen der linearen Algebra fill den ange-
henden Physiker liegt niimlich darin, dass die lineare Algebra ein unentbehr-
liches Werkzeug jener hi:iheren Mathematik ist, ohne welche die Physik nicht
auskommt. Schon die Differential- und 1ntegralrechnung in mehreren Varia-
bIen und die Theorie der Differentialgleichungen haben einen betriichtlichen
Bedarf an der von "mathematischen" Vektorriiumen handelnden linearer Al-
gebra, von den mathematischen Methoden der Quantenmechanik oder gar
der modernen theoretischen Physik ganz zu schweigen. Deshalb lernen Sie
line are Algebra und nicht urn das Kriifteparallelogramm besser zu verstehen.
Das bedeutet aber nicht, dass die mathematisch betriebene lineare Algebra
auf das Rechnen mit physikalischen Vektoren nicht anwendbar sei - selbst
dort, wo es sich urn das Skalarprodukt handelt. Dazu nun zum Schluss noch
ein paar Worte.
Unter den physikalischen Vektorriiumen am Punkte 0 ist ein ganz be-
sonders merkwurdiger, niimlich der (im physikalischen Sinne) dimensionslose
Vektorraum, ich erfinde fiir ihn einmal die Bezeichnung
Fiir die Vektoren in diesem Vektorraum ist der physikalische Betrag wirklich
reellwertig. 1st zum Beispiel -; E Ao ein Ortsvektor mit einem Betrag
von 5cm E JR[ em], so hat der dimensionslose Vektor u
:= c~ • -; den
Betrag lui = 10 E JR. Mit der Wahl einer Liingeneinheit hat das nichts zu
tun. Durch diesen zwar physikalisch bestimmten, aber reellwertigen Betrag
Uo ----+ JR ist aber ein ganz richtiges mathematisches Skalarprodukt festgelegt,
d.h. definiert man
---+ ---+ 1 --+ ---+2 --+ ---+2
u·v:=-(Iu+vl-Iu-vl),
4
2.6 WAS SIND VEKTOREN? 47
Fur das praktische Rechnen mit physikalischen Vektoren ist es oft nutzlich,
Koordinaten einzufuhren. - Auch in der mathematischen linearen Algebra
verwendet man 6fters Koordinaten in einem z.B. reellen Vektorraum V. Man
wahlt dazu eine so genannte Basis (vergl. § 3) aus Vektoren V1, .. " Vn von
V und kann dann jeden Vcktor v E V mittcls reeller Zahlen A1,"" An
als v = A1V1 + ... + AnVn ausdrucken. Die A1,"" An heiBen dann die
Koordinaten von v, und die Geraden 9i := {Avi I A E lR}, i = 1, ... , n, die
Koordinatenachsen des Raumes. In der physikalischen Vektorrechnung ist
das ein klein bisschen anders, und wieder ist der dimensionslose physikalische
Vektorraum Uo der Vermittler. Fur die physikalische Koordinatenrechnung
48 Kapitel 2: Vektorraume
nimmt man niimlich eine Basis von Uo, und zwar sind das gewi:ihnlich drei
aufeinander senkrecht stehende Einheitsvektoren fj, Z E Uo, also x,
Ixl = Ifjl = Izl = 1 und
x· fj = fj. z = z· x = O.
Woher? Nun, man wiihlt zum Beispiel im Ortsvektorraum drei aufeinander
senkrecht stehende (und von Null verschiedene) Vektoren R x , R y , Rz E Ao
und setzt
und
x E Uo
->
Wegen Rx E Ao und IRx I E lR[ cm] ist dann etc. Ein in Richtung
von Rx weisender elektrischer Vektor Ex E Eo leistete uns aber denselben
-> ->
Dienst, x ist auch Ex/IExl.
1st dann v
E Uo [ a] irgend ein physikalischer Vektor mit Betrag in einem
Skalarbereich lR[ a] , so liisst er sich in eindeutiger Weise in der Form
im Berkeley Physics Course [6], die anderen haben mit dem Vektorprodukt
zu tun, das wir erst im nachsten Paragraphen betrachten werden. - Be-
achte wieder, dass das EinfUhren von Koordinaten nicht das Einfiihren von
MaBeinheiten voraussetzt.
Mit solchen Grundlagenfragen sind schnell ein paar Stunden verplaudert, und
ich muss Obacht geben, dass mein Buch nicht Schlagseite bekommt. Trotz-
dem sollte ich aber noch darauf eingehen, was die physikalischen Vektorraume
an zwei verschiedenen Punkten 0 und 0' miteinander zu tun haben.
1st Eo derselbe Vektorraum wie EOI? - Nein. Man betrachte es nun
yom mathematischen oder yom physikalischen Standpunkt: ein Vektor am
Punkte 0 ist nicht dasselbe wie ein Vektor am Punkte 0'. Wir konnen aber
durch Translation des Anschauungsraums jeden Ortsvektor und daher auch
jeden anderen physikalischen Vektor im Punkte 0 in einen entsprechenden
Vektor am Punkte 0' verschieben.
Eo
--+
Man sagt dazu auch: E und E' reprasentieren denselben freien Vektor.
Je nach Temperament kann man hierdurch den Begriff des "freien" Vektors
schon fill deflniert ansehen oder aber eine formale Konstruktion zu Hilfe neh-
men und zum Beispiel unter einem freien physikalischen Vektor die Gesamt-
heit der aus einem ("gebundenen") physikalischen Vektor durch Translation
hervorgehenden Vektoren verstehen. Die freien elektrischen Vektoren etwa
bilden dann einen Vektorraum Efrei , und analog haben wir A frei , Ufrei usw.
Einem freien physikalischen Vektor fehlt nur die Angabe eines Ortes, urn zu
einem richtigen physikalischen Vektor zu werden.
50 Kapitel 2: Vektorraume
Wozu braucht man die freien Vektoren? Nun, zum Beispiel ist in der
Physik oftmals nicht ein einzelner Vektor, sondern ein ganzes Vektorfeld von
Interesse. Ein elektrisches Feld auf einem Bereich B C A des Raumes etwa
ordnet jedem Raumpunkt 0 E B einen elektrischen Vektor aus Eo zu.
E :B --+ Efrei
beschreiben. Statt mit den vielen Vektorraumen Eo, 0 E B hat man dann
nUT mit einem zu tun, das ist formal bequemer. Dass man mit dem freien
--+
Vektor E(O) E Efrei zufrieden sein kann, liegt aber nicht daran, dass es auf
einmal unwichtig geworden ware, wo der Feldvektor sitzt, sondern daran,
dass man es ja weii3: bei O.
Auch die dimensionslosen Einheitsvektoren x, z
y, kann man dUTCh
Translation iiberall hinbringen und dann als freie Vektoren auffassen, ein
elektrisches Vektorfeld E: B --+ Efrei schreibt man dann wieder als
--+
E = Exx + EyY + Ezz,
Ex : B --+ R[ volt
em '
1
HISTORISCHE N OTIZ
Zum erst en Mal ernst haft konfrontiert wurden die Mathematiker mit den
komplexen Zahlen im 16. Jahrhundert, und zwar beim Losen von Gleichun-
gen. Die einfachsten Gleichungen, bei denen man auf "Wurzeln negativer
Zahlen" stoi3t, sind die quadratischen Gleichungen. Trotzdem waren es nicht
die quadratischen, sondern die kubischen Gleichungen, welche die Beschiifti-
gung mit den komplexen Zahlen erzwungen haben, und das hat seinen gut en
Grund. Betrachten wir als Beispiel die quadratische Gleichung x 2 + 3 = 2x.
Die Losungsformel fUr diesen Typ von
Gleichungen, die im 16. Jahrhundert Y
liingst bekannt war, ergibt in diesem
Falle x = 1 ± p , und das ist ein
"sinnloser" Ausdruck, denn aus -2
kann man die Wurzel nicht ziehen.
Diese Sinnlosigkeit der Losungsformel
hat die damaligen Mathematiker aber
keineswegs beunruhigt, denn ihr ent-
spricht ja der Umstand, dass die Glei-
chung tatsiichlich keine Losung hat.
x
Der Gedanke: man konnte sich ja den
Zahlbereich kunstlich erweitem, damit
auch die bisher unlosbaren Gleichun-
gen eine Losung bekommen und man so zu einer einheitlichen Theorie der
quadratischen Gleichungen kommt - dieser Gedanke ist durch und durch
modern und er war historisch nicht der Anlass zur Entdeckung der komplexen
Zahlen.
Ganz anders sieht die Sache aus, wenn man etwa die kubische Gleichung
x 3 = 15x+ 4 betrachtet. Auch fur solche Gleichungen hatte man im 16.
Jahrhundert eine Losungsformel gefunden, und in diesem Falle lautet sie
diese Weise hat del' italienische Ingenieur Rafael Bombelli urn 1560 schon
systematisch mit komplexen Zahlen gerechnet. ~ Man muss allerdings dazu
sagen, dass die Mathematiker diesel' "imaginiiren Zahlen" zuniichst gar nicht
so recht froh werden konnten. Einerseits konnte man sie nicht als bloJ3en
Unfug abtun, da man mit ihrer Hilfe ja ganz "richtige" (reelle) Losungen
von Gleichungen bekommen konnte, andererseits "existie1'ten" sie nicht, und
nicht alle Mathematiker haben die Benutzung diesel' "Rechenausdrucke" ak-
zeptiert. Lange Zeit haftete den komplexen Zahlen etwas mysterioses an;
von Leibniz stammt del' Ausspruch, die komplexen Zahlen seien eine Art
Amphibium zwischen Sein und Nichtsein. Restlos entmystifiziert wurden sie
erst 1837 durch den irischen Mathematiker und Physiker Hamilton, del' die
komplexen Zahlen zum erst en Male so einfUhrt, wie wir es heute auch noch
tun: durch Angabe gewisser Rechenregeln fur Paare reelle1' Zahlen.
(Meine Quelle fur diese "Historische Notiz": Helmuth Gericke, Geschichte
des Zahlbegriffs, BI Hochschultaschenbuch 172/172a * , Mannheim 1970).
2.8 LITERATURHINWEIS
Mit dem folgenden Literaturhinweis, den ich aus der Urfassung des Skriptums
ubernehme, wollte ich meine damaligen Horer anregen, einen ersten Versuch
mit englischsprachiger Fachliteratur zu wagen:
Es ist fur den Anfiinger nicht leicht, Bucher zu benutzen, weil jedes Buch
seine eigene Bezeichnungsweise hat und auch in den Definitionen gelegentlich
leichte, abel' irritierende Unterschiede vorkommen. Man bemuht sich schon
urn eine einheitliche Terminologie, abel' gerade in einem Gebiet wie der Li-
nearen Algebra, das in fast allen Bel'eichcn der Mathematik benotigt wird,
sind solche Bezeichnungsunterschiede nicht zu vermeiden. Wenn man ~ nur
als Beispiel ~ daran denkt, dass Lineare Algebra in so verschiedenen Gebie-
ten wie Numerische Losung von Gleichungssystemen, Homologische Algebra,
Differentialtopologie benutzt wil'd, so muss man noch dankbal' sein fUr das
MaJ3 an Einheitlichkeit, das immerhin da ist!
Sich neben del' Vorlesung in ein Buch "einzulesen" erfordert also etwas
Geduld, Papier und Kugelschreiber und ubrigens auch Vertrauen in die Qua-
litiit eines Buches. Dieses Vertrauen durfen Sie gewiss haben bei P.R. Halmos,
2.9 UBUNGEN 53
2.9 UBUNGEN
AUFGABE 2.1: Die in del' Definition des Vektorraums als Axiome festgehal-
tenen Rechenregeln sind natiirlich nicht alle Rechenregeln, die man sich den-
ken kann; im Gegenteil: Bei der Aufstellung eines Axiomensystems ist man
bestrebt, maglichst wenige und maglichst einfache Axiome so auszuwiihlen,
dass man alle anderen Regeln, die man sich fUr den Begriff "wiinscht", aus
den Axiomen folgern kann. So kommt z.B. die Gleichung x + (y - x) = y
nicht als Axiom vor, liisst sich aber aus den Axiomen leicht beweisen:
x + (y - x) = x + (-x + y) (nach Axiom 2)
=(x-x)+y (Axiom 1)
=O+y (Axiom 4)
=y+O (Axiom 2)
=y (Axiom 3).
Das solI aber nicht heiBen, dass Sie zu jeder Seite linearer Algebra noch zehn
Seiten "Zuriickfiihrung auf die Axiome" schreiben miissten. Nach ein wenig
-obung kann angenommen werden, dass Sie die Reduktion Ihrer Rechnungen
54 Kapitel 2: Vektorraume
auf die Axiome jederzeit vornehmen kannten, und sie braucht nicht extra
erwiihnt und beschrieben zu werden. Diese Ubung sollen sie gerade durch
die vorliegende Aufgabe erwerben.
Man beweise: 1st Vein Vektorraum uber IK = lR oder IK = CC, so gilt fur
alle x E V und alle A E IK:
(a) O+x=x
(b) -0=0
(c) AO = 0
(d) Ox = 0
(e) Ax = 0 ¢=} A = 0 oder x = 0
(f) -x = (-l)x
(a) - (f) gelten ubrigens auch fur Vektorriiume uber einem beliebigen Karper.
Die Einschriinkung IK = lR oder CC dient nur zur Verminderung der Schreib-
arbeit bei der Lasung der Aufgabe.
Man beweise: Un: ist genau dann ein Untervektorraum von IK 3 , wenn
a = 0 ist.
I
I
I
I
I
I
/~
AUFGABE 2.3: Sei Vein Vektorraum uber IK und U 1 , U 2 Untervektorriiume
von V. Man zeige: 1st U1 U U2 = V, dann ist U1 = V oder U2 = V. (Dies
ist eine besonders hubsche Aufgabe. Man kann den Beweis in drei Zeilen
unterbring en!)
2.9 U13UNGEN 55
DIE *-AUFGABE:
AUFGABE 2*: Gelten fUr (lK, +, . ) alle Korperaxiome (vergl. Definition auf
Seite 35) mit moglicher Ausnahme des Axioms (8), so nennt man (lK, +, . )
einen "kommutativen Ring mit Einselement". Kann darliber hinaus A/L = 0
nur eintreten wenn A = 0 oder /L = 0 gilt, so ist lK ein "nullteilerfreier kom-
mutativer Ring mit Einselement" oder kurz ein "Integritiitsbereich". Man
beweise: Jeder endliche Integritiitsbereich ist ein Korper.
AUFGABE 2.2P: Sei (el, e2) eine orthonormale Basis in einem zweidimen-
sionalen euklidischen Vektorraum V, d.h. I el II = II e2 II = 1, (el' e2) = 0
und alle Vektoren von V sind von del' Form AIel + A2e2' Sei x = el + e2.
Man beweise: Va := {v E V I (v,x) = a}, a E ]H., ist genau dann ein
Untervektorraum von V, wenn a = 0 ist. Man fertige eine Skizze an, auf
del' el, e2 und VI zu sehen sind.
Sei Vein Vektorraum uber llC, seien VI, . .. 'V 1' E V, also "Vektoren", und
AI, ... ,A1' E llC, also "Skalare". Dann nennt man Al VI + ... + A1'V1' E V eine
Linearkombination der Vektoren V1, ... , V1' .
Die Konvention besagt also, dass man den Nullvektor auch "aus dem
Nichts" linearkombinieren kann. Wenn wir im folgenden von r-tupeln von
Vektoren sprechen, soll das O-tupel 0 als moglicher Fall auch stets zugelassen
sem.
Da die Summe zweier Linearkombinationen von V1, ... , Vr wieder eine
Linearkombination von V1, ... , Vr ist:
und da schlieBlich L( V1, ... , v r ) nicht leer ist, so ist L( V1, ... , v r ) ein U nter-
vektorraum von V. Wir notieren das:
Ein r-tupel (V1, ... , v r ) von Elementen eines Vektorraums V heiBt linear
abhiingig, wenn man einen dieser Vektoren aus den anderen linearkombinie-
ren kann. Diesen Vektor kann man dann ohne Schaden fUr die lineare Rulle
weglassen: die lineare Rulle der rest lichen Vektoren ist dasselbe wie die li-
neare Rulle von (V1, ... ,Vr ). Wenn (V1, ... ,Vr ) nicht linear abhangig ist,
dann nennt man es eben linear unabhiingig. Fur das praktische Umgehen
mit dem Begriff der linearen Unabhangigkeit ist jedoch eine etwas andere,
mehr "technische" Formulierung der Definition zweckmaBig. Wir werden uns
aber gleich anschlieBend davon uberzeugen, dass die beiden Formulierungen
auf dasselbe hinauslaufen.
Definition: Sei Vein Vektorraum uber lK. Ein r-tupel (V1, ... , vr ·)
von Vektoren in V heiBt linear unabhiingig, wenn eine Linearkombina-
tion von (V1, ... , vr ) nur dann Null sein kann, wenn alle "Koeffizien-
ten" verschwinden, d.h. wenn aus A1 V1 + ... + ArVr = 0 stets folgt, dass
A1 = ... = Ar = 0 ist. Das O-tupel 0 ist linear unabhangig.
Definition: Sei Vein Vektorraum iiber lK. Ein n-tupel (VI, ... , V n )
von Vektoren in V heiBt Basis von V, wcnn es linear unabhangig ist
und L(Vl, ... , v n ) = V erfiillt.
1st (VI, ... , V n ) eine Basis, so kann man jedes Element v E V als eine Li-
nearkombination V = Al VI + ... + An Vn schreiben, man kann so den ganzen
Vektorraum mittels der Vektoren VI, . .. ,Vn "erzeugen" oder "aufspannen"
(so nennt man das). Das folgt aber schon alleine aus L(Vl, ... ,Vn ) = V,
warum wird auBerdem noch gefordert, (VI, ... , V n ) solIe linear unabhangig
sein? Nun, diese Bedingung bewirkt gerade, dass sich jedes 1) E V auf genau
eine Weise als Al VI + ... + An Vn schreiben lasst:
In gewissem Sinne kann man sagen, dass man einen Vektorraum kennt, wenn
man eine Basis von ihm kennt. Am R n lasst sich das nicht gut erlautern,
denn den "kennen" wir ja sowieso, aber zur Beschreibung von Untervek-
torriiumen, z.B. Losungsraumen von Gleichungssystemen, ist die Angabe ei-
ner Basis oft das beste Mittel der Beschreibung, darauf werden wir in § 7
(Lineare Gleichungssysteme) zuriickkommen. In erster Linie aber brauchen
wir den Basisbegriff in diesem Skriptum, urn die Matrizenrechnung fill die
lineare Algebra nutzbar zu machen.
C2 = (0,1) e3 = (0,0,1)
° ° el = (1,0)
60 Kapitel 3: Dimensionen
Wir wollen jetzt den Begriff der Dimension eines Vektorraumes einfiihren und
iiber die Dimension von Untervektorraumen und Durchschnitten von Unter-
vektorraumen sprechen. Grundlage dazu ist ein etwas "technischer" Hilfs-
satz, der so genannte Basisergiinzungssatz. Spater, wenn Ihnen die Grund-
begriffe der Linearen Algebra vollig vertraut und geliiufig sind, geht dieser
Satz in Ihren allgemeinen Kenntnissen mit auf und Sie vergessen vielleicht,
dass dieser Sachverhalt einmal einen besonderen Namen hatte und "Basis-
erganzungssatz" hieB. 1m Augenblick ist er aber der Schliissel zu allen in
diesem Paragraphen noch zu behandelnden Begriffen und Ergebnissen (und
iibrigens auch zu den Ubungsaufgaben).
Satz 1: Sind (Vl, ... , v n ) und (Wl, ... , w m ) Basen von V, so ist
n=m.
BEWEIS: AngenorIl1llen, die Basen waren ungleich lang, also n f Tn.
Dann konnten wir durch wiederholtes Anwenden des Austauschlemmas
alle Vektoren der langeren Basis gegen solche der kiirzeren austauschen
3.2 DER DIMENSIONSBEGRIFF 61
und erhielten cine Basis, in der wenigstens cin Vektor doppelt vorkom-
men muss, was wegen der linearen Unabhiingigkeit einer jeden Basis
nieht sein kann. 0
Je zwei Basen ein und desselben Vektorraumes sind also gleieh lang, und
daher ermoglieht der Satz 1 die folgende Definition:
Notiz: dimOCn = n, weil z.B. die kanonisehe Basis die Liinge n hat.
Satz 2: Sei (VI, ... v r ) ein r-tupel von Vektoren in V und r > dim V.
Dann ist (VI, ... , V r ) linear abhiingig.
BEWEIS: 1st (WI, .. " W n ) eine Basis von V, so ist L(wI, ... , w n ) = V,
also erst reeht L(VI, ... ,VnWI, ... ,Wn) = V. Wiire nun (VI, ... ,Vr )
linear unabhiingig, so konnten wir (VI"'" V r ) naeh dem Basisergiin-
zungssatz dureh eventuelle Hinzunahme von Vektoren aus (WI, ... , W n )
ZU einer Basis ergiinzen und erhielten so eine Basis, deren Liinge min-
destens r ist. Das ist ein Widersprueh zu r > dim V . 0
Wenn man also uber lineare Abhiingigkeit oder Unabhiingigkeit eines r-tupels
in V befinden will, dann ist es ratsam, naehzusehen, ob vielleicht r > dim V
ist. Vier Vektoren im R3 sind eben immer linear abhiingig, usw.
Der Satz 2 verhilft uns noeh zu einer anderen Einsieht: dass es niimlieh
Vektorriiume gibt, die keine (endliehe) Basis haben und fUr die deshalb aueh
keine Dimension erkliirt ist. Dazu betraehten wir das Beispiel eines reellen
Vektorraumes, das in § 2 schon vorgekommen war: Sei M der reelle Vektor-
raum der Funktionen auf [~1, 1]. Fur jede ganze Zahl n > 0 sei f n E M
62 Kapitel 3: Dimensionen
IfI
I
I
I
I
I
I
I
I
I
I
I
-1 0: _1_
n+l n
1. 1
Da Adl + ... + Akfk an der Stelle Ht + i~l) den Wert Ai annimmt, ist
fiir jedes k das k-tupel (iI, ... , fk) linear unabhangig . Wenn nun Meine
Basis (VI,"" V n ) hatte, dann miisste (naeh Satz 2) k :::; n sein, und zwar
fUr alle k > 0, was offenbar nicht maglieh ist. -
Man kann einen erweiterten Basisbegriff einfUhren, bei dem aueh un-
endliehe Basen zugelassen sind, und es liisst sich dann beweisen, dass jeder
Vektorraum eine Basis besitzt. Darauf wollen wir hier nicht weiter eingehen,
sondern uns nur die Spreehweise zu eigen machen:
Definition: Besitzt V fUr kein n, 0 :::; n < 00, eine Basis (VI, . .• , V n ),
so hei£t Vein unendlichdimensionaler Vektorraum, und man schreibt
dim V = 00.
Ais letzten Gegenstand dieses Paragraphen wollen wir nun die Dimensionen
von Untervektorriiumen endliehdimensionaler Vektorraume behandeln. Ais
Antwort auf die allernaheliegendste Frage haben wir
BEWEIS: 1st (VI"'" Vr ) linear unabhangig, dann ist r :::; dim V nach
dem Satz 2. Also gibt es ein graBtes r, fiir welches man ein linear un-
abhangiges r- tupel (VI"'" v r ) in U £lnden kann. Fiir ein solches r-
tupel gilt dann aber auc:h L( VI, ... , Vr ) = U, denn fiir jedes u E U ist
(Vl,""V r ,u) linear abhangig, also gibt es eine nichttriviale Linearkom-
bination Al vI + ... + Arvr + AU = 0, und darin ist A cf 0, denn sonst
ware Al vI + ... + Arvr = 0 cine nichttriviale Linearkombination. Also ist
u = -"':Vl- ... - ~Vr E L(Vl, ... ,Vr ). Damit haben wir (Vl, .. "V r ) als
Basis von U erkannt, also ist U endlic:hdimensional. 0
3.2 DER DIMENSIONSBEGRIFF 63
Eine Basis (VI"'" V r ) von U ist natiirlich genau dann auch Basis von
V, wenn U = V ist. In jedem Fall aber ki:innen wir nach dem Basis-
erganzungssatz (VI"'" V r ) zu einer Basis von V erganzen - man wende
den Basiserganzungssatz auf (VI, ... , Vr, WI, ... W n ) an, wo (WI"'" W n ) eine
Basis von V ist. 1m Falle U i- V muss (VI, . .. V r ) dabei echt verlangert wer-
den, woraus sich ergibt
Es kommt also auch auf die gegenseitige Lage der beiden Untervektorraume
zueinander an. Wie kann man das prazisieren? Dazu ftihren wir den Begriff
der Summe zweier Untervektorriiume ein:
Die Summe U1 +U2 ist natiirlich wieder ein Untervektorraum. Urn sich etwas
an diesen neuen Begriff zu gewi:ihnen, uberlege man sich zum Beispiel, warum
die Aussagen U + U = U, U + {O} = U und U C U + U' richtig sind -
und wer noch etwas mehr Zeit hat, sollte sich auch U + U' = U -¢=? U' c U
klarmachen.
Dannist (V1, ... ,Vr,Wl, ... ,WSlZ1, ... ,Zt) eine Basis von U1 +U2 • Warum?
Nun: offenbar ist £(V1, ... , Zt) = U1 + U2 , wir mussen nur zeigen, dass
( V1, ... , Zt) linear unabhangig ist. Sei also
),1 V1+ ... + ),rVr + {l1 W1 + ... + {lsWs + V1Z1 + ... + VtZt = O.
Dann ware V1Z1 + ... + VtZt E U1 n U2 , denn aus U2 ist es sowieso und dass
es in U 1 liegt, folgt aus V1Z1 + ... + VtZt = -),lV1 - ... - {lsw s . Dann ware
aber V1 Zl + ... + VtZt = a1 V1 + ... + a r Vr fur geeignete a1,"" a r , weil
(Vl, ... ,vr ) Basis von U1 nU2 ist. Darausfolgt, daB all die v'sund a's Null
sind, namlich wegen der linearen U nabhangigkeit von (V1,"" V r , Zl, ... , Zt) ,
3.3 TEST 65
also ist
A1Vl + ... + ArVr + JL1 W l + ... + JLsWs = 0,
und daher verschwinden auch die A'S und die JL's. Also ist (Vi' ... ' Zt) li-
near unabhiingig und damit eine Basis, wie wir zeigen wollten. Nun wis-
sen wir also: dimU1 n U2 = T, dimU1 = T + S, dimU2 = T + t und
dim(U1 + U2 ) = T + S + t, und daraus folgt die zu beweisende Formel
dim(U1 n U2 ) + dim(U1 + U2 ) = dim U1 + dim U2 .
o
3.3 TEST
(1) Fur welches der folgenden Objekte hat die Aussage einen Sinn, es sei
"linear abhiingig" bzw. "linear unabhiingig":
o Ein n-tupel (Vi, ... , V n ) von Elementen eines Vektorraums.
o Ein n-tupel (Vb ... ' V n ) von reellen Vektorriiumen.
o Eine Linearkombination Ai Vi + ... + An Vn .
(2) Seien Vl, ... ,Vn E V. Wasbedeutet L(Vl, ... ,Vn )=V:
o Jede Linearkombination Ai Vi + ... + AnVn ist Element von V.
o Jedes Element von V ist Linearkombination Ai Vi + ... + AnVn.
o Die Dimension von V ist n.
(3) Falls (Vi, V2, V3) ein linear unabhiingiges Tripel von Vektoren in V ist,
dann ist
o (Vi, V2) linear abhiingig.
o (Vl,V2) fur manche (Vl,V2,V3) linear abhiingig, fur andere linear
unabhiingig.
o (Vi, V2) stets linear unabhiingig.
o 1st L(Wl, ... , w s ) = V, dann kann man (WI, ... , Ws ) zu einer Basis
von V ergiinzen.
o 1st (WI, ... , W s ) linear unabhiingig, dann gibt es eine Basis, die aus
Vektoren von (WI, ... , W s ) besteht.
o 1st L(Wl, ... , Ws ) = V, dann gibt es eine Basis, die aus Vektoren
von (WI, ... , W s ) besteht.
o hat die Basis (0) 0 hat die Basis 0 o hat gar keine Basis
o U - U = {O}
o (U 1 - U2 ) + U2 = U1
o U1 - U2 = U1 + U2
o (Ul + U2 ) + U3 = U1 + (U2 + U3 )
o U 1 n (U2 + U3 ) = (U1 n U2 ) + (U1 n U3 )
o U1 + (U2 n U3 ) = (U1 + U2 ) n (U1 + U3 )
Wenn man eine Auswahl von Vektoren aus (WI, ... , w s ) beschreiben
will, dann muss man "indizierle Indices" benutzen: Jedes k-tupel,
das aus Vektoren von (WI, ... , W s ) zusammengestellt ist, muss sich
ja als (Wi" ... , Wik) schreiben lassen, wobei die i", ganze Zahlen mit
1 ::; i", ::; 5 sind. Wenn man auf3erdem noch will, dass keines der Wi
mehrfach benutzt werden darf, muss man voraussetzen, dass die in
paarweise verschieden sind, also io: # i(3 fur a # f3.
Die zweite Stelle, die wir formal "ausfuhren" wollen, betrifft die Behauptung,
aus WI, ... ,Wn+1 E L(Vl, ... ,Vr ) folge
Eigentlich ist das ja klar, denn jedes Al vI + ... + ArVr E L( VI ... , V r ) kann
man als Linearkombination Al VI + ... + ArVr + OWl + ... + OWn+l von
(VI' ... ' Wn+l) schreiben, und wenn umgekehrt
gegeben ist, so brauchen wir uns nUT die Wi als Linearkombinationen der
Vi vorzustellen und sehen, dass auch V eine Linearkombination der Vi ist.
Wenn wir das aber wirklich hinschreiben wollen, mussen wir diesmal "Dop-
pelindices" verwenden, denn:
Fur eine Linearkombination von (VI, ... , V r , WI, ... , W n +l) gilt daher
V = Al vI + .. +A r V r +f-i1 WI + .. +f-in+l W n +l
= Al VI + .. +Ar V r+f-i1 (A11 VI + .. +AlrV r)+ .. +f-in+l (A n +l,1 VI + .. +An+l,rVr)
und indem wir die Terme mit demselben Vi jeweils zusammenfassen, erhalten
wir
also ist L( VI, ... , V,., WI, ... , W n +l) = L( VI, ... , v r )." - Beachten Sie, dass
wir nicht hatten schreiben konnen Wi = Ai, VI + ... + Air V r . - Der Schluss
des Beweises musste dann so lauten: "Nach Induktionsannahme gibt es also
ein k und paarweise verschiedene ganze Zahlen in, 0: = 1, ... , k ~ 1 mit
1 :::; in :::; n + 1, in =I i, so dass (VI, ... , V r , Wi, Wi, , ... , Wik _,) eine Basis von
V ist, womit wir die gewunschte Ergiinzung von (VI, ... , V r ) ZU einer Basis
von V gefunden haben. D"
linear abhangig. Also ist (VI, ... , Vi-I, Wj, VHl, ... , V n ) eine Basis. D
70 Kapitel 3: Dimensionen
Urn es beschreiben und berechnen zu konnen, muss man wissen, welche Or-
thonormalbasen X, y, z von U "rechts-" und welche "linkshiindig" sind:
weisen x, y, z in dieser Reihenfolge in die Richtung von Daumen, Zeigefin-
gcr und Mittelfinger der rechten Hand, so ist (x, y, z) rechtshiindig. Oder:
3.5 DAS VEKTORPRODUKT 71
weist der rechte Daumen in die Richtung von i, und weisen die Finger der
leicht gekriimmten Hand dann jenen Drehsinn, der x durch eine Vierteldre-
hung urn die i-Achse in fj iiberfiihrt, so ist (x, fj, i) rechtshandig.
i i
links han dig rechtshandig
Der Beweis ist nicht nur eine mathematische Pfiichtiibung, sondern wir wer-
den dabei das Vektorprodukt auch rechnerisch und geometrisch naher ken-
72 Kapitel 3: DiInensionen
nenlernen. Wir beginnen mit der Bemerkung, dass wegen der Schiefsymme-
trie j edenfalls stets
(3) ; x; = 0
sein muss, und dass fur eine rechtshandige Orthonormalbasis (x, fj, z) wegen
(2) die Formeln
xxfj -fj x X z,
(4) fjxz -z x fj x,
zxx -xx z fj
fur jede Verknupfung gelten mussen, welche (1) und (2) erfullt. Damit kennen
wir aber das Produkt fUr die Basisvektoren und wegen der Bilinearitat sogar
fur aIle Vektoren! Es ist namlich jetzt klar, dass nur die durch die Definition
(5' ) -+ -+
u x v = det
(ui x
uy
Vy uV zz )
Y Z
wollen nicht so tun, als seien wir schon Determinantenkenner, sondern aus
(5) ganz elementar die Formel
(6) (17 x 1l) . (17' x 1l') = (17 . 17')(1l . 1l') - (17 . 1l')(1l . 17')
ableiten. Man kann sie entweder nachrechnen oder sich so uberlegen: beide
Seiten der zu beweisenden Gleichung (6) sind in jeder der vier Variablen
linear, also brauchen wir (6) nur fUr u, u', v, v' E {x, y, z} nachzuprufen.
Fur 17 = 1l oder 17' = 1l' sind sowieso beide Seiten Null, also diirfen wir
17 i= 1l und 17' i= 1l' annehmen, aus Symmetriegrunden bleiben deshalb fUr
(17, 1l, 17', 1l') oBdA nur noch die beiden Falle (x, y,x, y) und (x,y,y,z) zu
prufen ubrig, im erst en sind beide Seiten 1, im zweiten Null, und (6) ist schon
verifiziert. - Determinantenkenner werden (6) gerne als
---> --->,
u·u u·v
--+ --+ --+ I ---+ , ( ---> --->')
(6' ) (u x v) . (u x v ) = det
---> --->, ---> --->,
v·u v·v
lesen. - Ahnliche nutzliche Formeln, die aus (5) folgen, sind zum Beispiel
Wie die Formel (6) beweist man sie entweder durch Rechnen oder beruft sich
auf die Linearitat in den drei Faktoren, deretwegen man ohne Beschrankung
der Allgemeinheit 17, 1l, W E {x, y, z} voraussetzen darf. Fur 17 = 1l = W
sind beide Formeln trivialerweise richtig, also bleiben aus Symmetriegrunden
die FaIle (x, x, y) und (x, y, z) fur (u, V, iii) zu verifizieren ubrig, usw. - Fur
Determinantenkenner ist (7) naturlich auch sofort aus (5") klar.
Urn den Beweis unseres Satzes zu vollenden, mussen wir noch zeigen, dass
aus (5) auch (2) folgt. Seien jetzt also 17 und 1l zwei aufeinander senkrecht
stehende Einheitsvektoren. Nach (6) ist 117 x 111 = 1, nach (7) steht 17 x 1l
senkrecht auf 17 und 1l. Weshalb aber ist (17, 1l, 17 x 1l) rechtshandig?
Fur Leser, die mit dem Orientierungsbegriff vertraut sind und in U nur
einen orientierten 3-dimensionalen euklidischen Vektorraum sehen, folgt das
74 Kapitel 3: Dimensionen
aus (5/1), angewandt auf :u; = 1l x v,denn die Determinante ist dann posi-
tiv, was im mathematischen Sinne die Rechtshandigkeit von (1l, v, 1l xv)
bedeutet , da (x, fj, z) als rechtshandig vorausgesetzt war.
Mit der physikalisch definierten Rechtshandigkeit argumentieren wir so:
Sei :u; der Einheitsvektor, der (1l, v) zu einem rechtshandigen Orthonor-
malsystem erganzt, also :u; = ±1l x v, wir wissen nur das Vorzeichen noch
nicht. Wir konnen aber (x, fj, z) durch eine kontinuierliche Drehung ("der
rechten Hand") in (1l,v,:U;) iiberfiihren. Bezeichne (1l(t),v(t),:U;(t)) das
v
gedrehte System zum Zeitpunkt t. Dann ist stets 1l (t) x (t) = ±:U; (t) , also
11l(t) x v(t) - :U;(t) I entweder 0 oder 2. Dieser Betrag ist aber anfangs Null
x
wegen x fj = Z, und er hangt wegen der Stetigkeit der Drehung und nach
Auskunft der Formel (5) (wegen der Bilinearitat von x) stetig von tab, also
ist er auch am Ende Null, woraus 1l x v
= :u; folgt. 0
Damit ist der Satz bewiesen und das Vektorprodukt U xU -+ U definiert,
und wir haben dabei auch gelernt, dass es bilinear ist und die Eigenschaften
(1) - (8) hat. -
Mit dem Vektorprodukt in U ist nun aber in kanonischer Weise das Vek-
torprodukt von beliebigen physikalischen Vektoren durch
U[ a 1 x U[ b 1 - - - + U[ ab 1
(a 1l, bv) f-------> ab(1l x v)
definiert und seine Eigenschaften ergeben sich sofort aus denen des Vektor-
produkts in dem orientierten 3-dimensionalen euklidischen Vektorraum U,
der hier wieder die Verbindung zwischen abstrakter linearer Algebra und
physikalischer Vektorrechnung aufrecht erhalt.
Einen noch nicht orientierten abstrakten 3-dimensionalen euklidischen
Vektorraum muss man erst orientieren, bevor man wie oben das Vektorpro-
dukt erklaren kann. Dazu muss man eine Basis willkiirlich fiir "rechtshandig"
oder "positiv orientiert" erklaren; welche anderen dann auch als rechtshandig
gelten, ergibt sich aus Determinanten- oder Drehungsbedingungen, auf die ich
hier nicht eingehen will. 1m Zahlentripelraum R3 nennt man iiblicherweise
die kanonische Basis (el' e2, e3) positiv orientiert, das Vektorprodukt im R3
ist nach (5) deshalb durch
Zum Sehluss wollen wir aus (6) und (7) noeh die ubliehe geometrisehe Be-
sehreibung des Vektorprodukts ableiten. Aus (6) folgt fUr 11 = 11' =I- 0 und
77 = 77' =I- 0, dass
gilt. Fur Ortsvektoren 11,77 E Ao ist das gerade der FHieheninhalt des von
11 und 77 aufgespannten Parallelogramms, 111 x 771 E JR[ em 2 ]:
und man nennt 11111771 sina(11, 77) deshalb aueh in anderen FiiJlen den Fla-
eheninhalt des Parallelogramms, also aueh wenn 11, 77 keine Ortsvektoren
und 11111771 deshalb in einem anderen Skalarbereich oder, in der mathemati-
sehen linearen Algebra, in JR liegt. - Naeh (7) steht 11 x 77 senkreeht auf
11 und 77, und ist 11 x 77 =I- 0, so folgt ahnlieh wie oben, dass (11, 77, 11 x 77)
reehtshandig ist, wenn man dicscn Begriff in der naheliegenden Weise von
Orthonormalbasen auf beliebige Basen ausdehnt. Man kann also sagen:
HrSTORISCHE N OTIZ
Der folgende Satz wird in Lehrbiichern der Linearen Algebra gewi:ihnlich der
"Austauschsatz von Steinitz" genannt (vergl. z.E. Kowalsky [10], Seite 37)
SATZ: Hat ein Vektorraum V eine Basis aus p Vektoren und ist (VI, ... , v r )
linear unabhiingig in V, dann gibt es auch eine Basis von V aus p Vektoren,
unter denen VI, ... ,Vr alle vorkommen.
Wir haben dies en Satz in § 3 natiirlich mitbewiesen: denn dass iiberhaupt
eine Basis existiert, die VI, ... ,Vr enthiilt, folgt aus dem Basisergiinzungssatz,
und dass diese Basis die Liinge p hat, folgt aus Satz 1. Bei Steinitz steht
dieser Satz in einer Arbeit vom Jahr 1913 und lautet dort
"Besitzt der Modul M cine Basis von p Zahlen, und enthiilt er r linear
unabhiingige Zahlen f3I, ... ,f3r so besitzt er auch eine Basis von p Zahlen,
unter denen die Zahlen f31, ... ,f3r siimtlich vorkommen."
Wenn man Steinitz' Terminologie in unsere iibersetzt, erhiilt man gerade
den oben erwiihnten Satz. - Ein unter Mathematikern gelegentlich zitiertes
bon mot besagt: Wenn ein Satz nach jemanden benannt ist, so ist das ein
Zeichen dafiir, dass der Betreffende dies en Satz nicht als erster bewiesen hat.
So scheint es auch in diesem Falle zu sein: 1ch habe in dem Buch [18] von
H. Schwerdtfeger auf Seite 23 die FuBnote gefunden: "This theorem (Aus-
tauschsatz) is usually ascribed to E. Steinitz alone. It has been pointed out,
however, by H.G. Forder in his book 'The Calculus of Extensions', Cam-
bridge 1941, p. 219, that H. Grassmann has published this theorem in 1862,
i.e. 52 years before Steinitz."
Nun, Ernst Steinitz, der von 1871 bis 1928 lebte und ein bedeutender AI-
gebraiker war, hiitte sidler keine Prioritiitsanspriiche auf diesen Satz gelten
machen wollen. Die Arbeit [19], in der der Satz vorkommt, heiBt "Be-
dingt konvergente Reihen und konvexe Systeme", erschienen im Journal fiir
die reine und angewandte Mathematik (dem so genannten "Crelle-Journal")
Band 143 (1913), der zweite Teil dieser Arbeit erschien dann im Band 144.
Zu Beginn dieser Arbeit, bevor er sein eigentliches Thema in Angriff nimmt,
gibt Steinitz eine kurze Einfiihrung in die Grundbegriffe der linearen Alge-
bra, in der auch der bewusste "Austauschsatz" steht. Er entschuldigt sich
dafiir noch mit den Worten: "Die Grundlagen der n-dimensionalen Geome-
trie, welche hier iiberall gebraucht werden, hiitten als bekannt vorausgesetzt
3. LITERATURHINWEIS 77
werden ki:innen. leh habe es aber vorgezogen, sie noehmals abzuleiten. Da-
bei kommt natiirlieh alles auf die Darstellung an. leh glaube, dass die hier
gewahlte ihre Vorziige besitzt und darum nieht iiberfliissig erseheinen wird."
Sie tun also Steinitz gewiss unreeht, wenn Sie nur im Gedaehtnis behalten:
"Steinitz? Aeh ja, der den Austausehsatz bewiesen hat!" Es ist doeh aueh
klar, dass eine so einfaehe Saehe wie der Austausehsatz 1913 nieht mehr
als bemerkenswertes wissensehaftliehes Resultat gelten konnte; Sie brauehen
nur daran zu denken, dass z.B. in den Jahren ab 1905 die Relativitatstheorie
konzipiert wurde!
Sie werden die Namen vieler Mathematiker dadureh kennenlernen, dass
Begriffe und Satze naeh ihnen benannt sind. Ziehen Sie daraus nieht allzu
viele Schliisse auf diese Mathematiker und den Wissensstand ihrer Zeit.
Manehmal ist ein Satz unter dem Niveau seines Namens (wie hier beim Stei-
nitzsehen Austausehsatz), manehmal dagegen ist ein tiefer Satz der moder-
nen Mathematik naeh einem alten Mathematiker benannt, der vielleieht nur
einen ganz einfaehen Spezialfall davon bewiesen hatte. Das ist es, was ich
Ihnen eigentlieh in dieser "Historisehen Notiz" erzahlen wollte.
3.7 LITERATURHINWEIS
Diesmal solI der Literaturhinweis Ihnen helfen, sieh mit dem Bueh Lineare
Algebra von H.-J. Kowalsky [10] anzufreunden. Unser § 3 entsprieht etwa
den §§ 5 und 6 in Kowalsky's Bueh. Fangen Sie ruhig auf Seite 29 an zu lesen,
gravierende Untersehiede in der Terminologie gibt es nieht. Dass Vektoren
mit deutsehen Buehstaben bezeiehnet werden, wird Sie nieht sti:iren. Statt c
sehreibt der Autor C;;;, so dass er einfach c schreiben kann wo wir ~ schreiben
miissen. Untervektorraum heii3t Unterraum, und U C;;; IX bedeutet , dass U
"Unterraum" von X ist. Bei der Bezeiehnung von Mengen steht {x: ... } wo
wir {xl ... } sehreiben wiirden. Die Menge der Linearkombinationen wird
statt dureh L( .. . ) dureh [ ... ] bezeiehnet (vergl. Definition 5b und 5.3 auf
S. 31 in [10]), und wird fUr beliebige Mengen statt wie bei uns fiir r-tupel
definiert (Definition 6b auf S. 33), eine Basis ist dann auch eine Menge und
kein n-tupel: diese Unterschiede muss man nun doch beaehten und im Auge
behalten. Unendliehe Basen sind aueh zugelassen, man kann dann zeigen,
dass in diesem Sinne jeder Vektorraum eine Basis hat. - leh glaube, dass
Sie nun die §§ 5 und 6 in Kowalsky's Buch ohne weitere Vorbereitung lesen
ki:innen.
78 Kapitel 3: Dimensionen
3.8 UBUNGEN
die Lange dim V haben kann. Man beweise nun: In jedem unendlichdimen-
sionalen Raum V gibt es eine unendliche Folge VI, V2, ... von Vektoren, so
dass fur jedes r das r-tupel (VI, ... , V r ) linear unabhangig ist.
DIE *-AUFGABE:
AUFGABE 3*: Aus einem komplexen Vektorraum V kann man stets dadurch
einen reellen machen, dass man die Skalarmultiplikation C x V --+ V einfach
auf JR. x V einschrankt. Da die Begriffe "lineare Rulle" und "Dimension" bei
dieser Einschrankung einen anderen Sinn annehmen, wollen wir L e , dime
bzw. L/Ji., dim/Ji. schreiben, je nachdem ob V als komplexer oder reeller Vek-
torraum aufgefasst wird. Aufgabe: Man bestimme fill jedes n 2: 0, fur welche
Zahlenpaare (r, s) es einen komplexen Vektorraum und Vektoren vI, ... , Vn
darin gibt, so dass r = dim/Ji. Lc( VI, ... ,Vn ) und s = dim/Ji. L/Ji. (VI, ... ,Vn ).
AUFGABE 3.3P: Wir betrachten im JR.3 die beiden Geraden gl und g2, die
durch
gi := {Pi + tVi I t E JR.}, i = 1,2
beschrieben sind, wobei
PI := (1,1,2)
P2 := (0, ~1, 3)
VI := (2,0,1)
V2 := (1,1,1)
Wie groB ist der Abstand a zwischen YI und Y2?
Diese Aufgabe hat mit dem Vektorprodukt zu tun, denn sind qI E gl und
q2 E g2 die beiden Punkte auf den Geraden mit dem geringsten Abstand,
also I q2 ~ qI II = a, so steht ja q2 ~ qI E JR.3 senkrecht auf beiden Geraden,
d.h. auf deren Richtungen VI und V2. (Zur Kontrolle: die dritte und vierte
Stelle nach dem Komma heii3en 1 und 2).
4. Lineare Abbildungen
Bisher haben wir immer einen Vektorraum V betrachtet und darin irgend-
welche Objekte studiert: r-tupel linear unabhiingiger Vektoren oder Unter-
vektorriiume oder Basen etc. Jetzt wollen wir zwei Vektorriiume V und W
betrachten und Beziehungen zwischen Vorgiingen in V und Vorgiingen in
W studieren. Solche Beziehungen werden durch so genannte "lineare Abbil-
dungen" oder "Homomorphismen" hergestellt. Eine Abbildung f : V ---> W
heiJ3t linear, wenn sie mit den Vektorraum-Verknupfungen + und . in V
und W "vertriiglich" ist, d.h. wenn es gleichgultig ist, ob ich zwei Elemente
in Verst addiere und dann die Summe abbilde oder ob ich sie erst abbilde
und dann ihre Bilder addiere - entsprechend fur die skalare Multiplikation.
-
f:R2-7R2, (x,y)r--.(x-y,y-x)
82 Kapitel 4: Lineare Abbildungen
BEWEIS: Dass f- 1 wieder bijektiv ist, wissen wir schon aus § 1, wir mussen
uns daher nur noch davon iiberzeugen, dass f- 1 aueh linear ist. Die Ele-
mente w, w' E W, die wir jetzt zu betrachten haben, durfen wir ja als
w = f(v) und w' = f(v ' ) schreiben. Deshalb ist
rl(w+w') = r1(f(v)+ f(v ' )) = r1(f(v+v')) = v+v' = r1(w)+ r1(w' )
und ebenso
Dann haben diese Bilder in W dieselben "linearen Eigenschaften" wie die ur-
sprunglichen Objekte in V! "Lineare Eigenschaften" sind dabei diejenigen,
etwas vage gesprochen, die sich mittels der Vektorraumdaten Menge, Ad-
dition, Skalarmultiplikation formulieren lassen. Beispiel: Seien U1 , U2 zwei
Untervektorraume von V, und U 1 n U2 habe die Dimension fUnf. Dann hat
auch der Untervektorraum 'P(UI ) n 'P(U2 ) von W die Dimension funf. Oder:
1st (VI"'" V r ) ein linear unabhangiges T- tupel von Vektoren in V, dann ist
auch ('P( VI), •.• , 'P( V r )) ein linear unabhangiges T-tupel von Vektoren in W.
Beispiele nicht linearer Eigenschaften: Sei zum Beispiel V = ]R2. Dann
ist jedes x E Vein Zahlenpaar. 1st nun 'P : V ---> W ein 1somorphismus,
so braucht 'P(x) keineswegs ein Zahlenpaar zu sein, W kann ja etwa ein
Vektorraum sein, dessen Elemente Funktionen sind oder dergleichen. Oder:
Sei V = W =]R2. Sei U C]R2 ein Kreis: U = {(XI,X2) E ]R21 xi+x~ = I}.
1st 'P : ]R2 ---> ]R2 ein 1somorphismus, so braucht deshalb 'P(U) C ]R2 kein
Kreis zu sein: ]R2 ---> ]R2, (Xl, X2) ---> (2XI' X2) ist z.B. ein 1somorphismus:
U __---r-_ '1'( U)
'I'
Wir wollen hier nicht versuchen, den Begriff "lineare Eigenschaft" formaler
zu fassen. 1m Laufe der Zeit werden Sie viele Beispiele von "isomorphie-
invariant en" Eigenschaften kenncnlernen. - Man kann aber nicht nur Vek-
torraume, sondern auch lineare Abbildungen durch 1sornorphisrnen in Bezie-
hung zueinander set zen. Stellen Sie sich vor, wir seien an einer bestimmten
84 Kapitel4: Lineare Abbildungen
f
V V
V' V'
f'
fUr die wir die analogen Fragen sofort beantworten konnen. Diese Antworten
lassen sich dann mittels <I> auf f, an dem wir ja eigentlich interessiert sind,
tibertragen: ist z.B. v' E V' ein Eigenvektor von f' mit f' (v') = AV ' ,
dann gilt fUr v := <I>(v /) auch f(v) = AV usw. - Damit soll unsere kleine
Plauderei tiber die Bedeutung des Isomorphiebegriffes aber beendet sein, und
wir wenden uns wieder den Details unseres § 4 zu.
Wir wollen jetzt V als endlichdimensional annehmen und einige damit zu-
sammenhangende allgemeine Aussagen tiber lineare Abbildungen f : V ---> W
notieren. Wem bisher zuwenige Beispiele von linearen Abbildungen vorge-
kommen sind, der wird sich durch die folgende Bemerkung reichlich entscha-
digt finden.
BEWEIS: Bei solchen "es gibt genau ein"-Aussagen ist es meistens zweck~
ma£ig, den Beweis der Existenz ("es gibt ein") und den der Eindeutigkeit
("es gibt hochstens ein") getrennt zu fUhren. Und zwar fangt man am besten
mit der Eindeutigkeit an, denn bei den Uberlegungen dazu ("angenommen,
es gabe zwei. Dann ware . .. ") bekommt man manchmal eine Idee fUr den
4.1 LINEARE ABBILDUNGEN 85
BEWEIS: Wenn Sic die Definition der Begriffe "Basis" und "Isomorphismus"
sich ins Gediichtnis rufen, dann die Spitze Ihres Kugelschreibers aufs Pa-
pier set zen und die Hand ein klein wenig bewegen, kommt der Beweis ganz
von seiber heraus. Die Terminologie denkt fiir Sie! Wir miissen bald da-
mit aufhoren, solche Beweise jedesmal aufzuschreiben. Diesen noch, zum
Abgewohnen. Also:
(a) "=}": Sei also f ein Isomorphismus. Wir priifen zuerst die lineare U n-
abhiingigkeitvon (f(v1), ... ,f(vn )) in W. Sei Al!(V1)+"'+An f(vn) =0.
Dann ist wegen der Linearitiit von f auch f(A1V1 + ... + AnVn) = O. Da
f injektiv ist und f(O) = 0 gilt, muss A1V1 + ... + AnVn = 0 sein. Da
(V1, ... , v n ) linear unabhiingig ist, folgt daraus A1 = ... = An = 0, also ist
(f(V1)"'" f(v n )) linear unabhiingig.
Nun priifen wir, dass L(f(V1), ... ,f(vn )) = Wist. Sei WE W. Da f
surjektiv ist, gibt es ein v E V mit f(v) = w. Da L(V1, ... , v n ) = V gilt,
gibt es A1"'" An E lK mit v = A1 V1 + ... + An Vn . Da f linear ist, gilt
W = f(v) = Al!(V1) + ... + Anf(v n ). Also kann jedes Element von W aus
(f(V1)"'" f(v n )) linearkombiniert werden. "=}" 0
(b) ".;=": Sei also (f (V1)' ... , f (v n )) eine Basis von W. Wir priifen zuerst
die Injektivitiit von f. Sei f( v) = O. Da (V1, ... , vn ) eine Basis von V ist,
gibt es A1, ... An E lK mit v = A1 V1 + ... + An Vn . Dann ist wegen der Linea-
ritiit von f auch A1f(V1)+"'+A n f(v n ) = 0, und weil (f(v1),···,f(vn))
linear unabhiingig ist, folgt daraus A1 = ... = An = 0, also v = 0, also ist f
injektiv.
Nun priifen wir die Surjektivitiit von f. Sei W E W. Da (f(V1)"'" f(vn))
ganz W erzeugt, gibt es A1"'" An mit W = Al!(V1) + ... + Anf(vn). Sei
v = A1 V1 + ... + An Vn . Dann gilt wegen der Linearitiit:
Auch das ist sehr bemerkenswert. "Bis auf Isomorphie", wie man sagt, gibt
es nur einen n-dimensionalen Vektorraum iiber lK. Trotzdem wiire es nicht
4.1 LINEARE ABBILDUNGEN 87
sinnvoll, nur den Kn zu studieren, denn es laufen uns andere konkrete Vek-
torraume ungefragt iiber den Weg (Losungsraume, Funktionenraume, Tan-
gentialraume usw.), und schon urn sie zu verstehen und mit dem Kn in
Beziehung zu setzen, brauchen wir den allgemeinen Vektorraumbegriff.
Wenn man in der Linearen Algebra mit mehreren Vektorraumen gleich-
zeitig zu tun hat ist es oft sehr niitzlich, eine Dimensionsformel zu haben, die
einem die Dimensionen der einzelnen Riiume miteinander in Beziehung setzt.
In § 3 hatten wir z.B. eine solche Dimensionsformel fUr Untervektorraume
U1 , U2 von V bewiesen:
BEWEIS: Wir erganzen eine Basis (V1, ... , Vk) von Kern f zu einer
Basis (V1, ... , Vk, Vk+1,"" vn ) von ganz V und set zen Wi = f(Vk+i)
fUr i = 1, ... , n - k. Wenn wir zeigen konnen, dass (W1, ... , Wn-k)
eine Basis von Bild fist, dann haben wir dim Bild f = n - k gezeigt
und sind fertig. - Jedenfalls ist
f()..l V 1 + ... + AnVn) = )..k+1 W 1 + ... + )..nWn-k
und daher Bildf = L(W1, ... ,Wn -k). AuBerdem ist (W1, ... ,Wn -k)
linear unabhangig, denn aus, sagen wir, Q1 W1 + ... + Qn-kWn-k = 0
wiirde Q1 Vk+1 + ... + Qn-kVn EKern f folgen, also
Q1 Vk+1 + ... + Qn-kVn = )..1 V1 + ... + )..kVk
fiir geeignete )..l, ... ,)..k, aber (V1, ... ,Vn ) ist linear unabhangig,
und deshalb ware Q1 = ... = Qn-k = )..1 = ... = )..k = O.
Also ist (W1, ... , Wn-k) tatsachlich eine Basis von Bild f, und zu
dim Kern f = k wissen wir jetzt auch noch rgf = n - k. D
88 Kapitel 4: Lineare Abbildungen
Das kommt einfach daher, dass injektiv "dim Kern f = 0" und surjektiv
"n - rg f = 0" bedeutet, aber wegen der Formel dim Kern f = n - rg f gilt.
4.2 MATRIZEN
C"
a," )
amI ......... a mn
Die aij E lK nennt man auch die Koeffizienten der Matrix. Die waag-
recht geschriebenen n-tupel
Spalte
Zeile 1-----+-1-----/
4.2 MATRIZEN 89
Mit Hilfe von Matrizen lassen sich eine Reihe wichtiger mathematischer Be-
griffsbildungen beschreiben und numerisch handhaben, im Bereich der linea-
ren Algebra zum Beispiel lineare Abbildungen, lineare Gleichungssysteme,
quadratische Formen und Hyperfliichen zweiter Ordnung. In der Differenti-
alrechnung in mehreren Variablen begegnen Ihnen Jacobi-Matrix und Hesse-
Matrix als Beschreibungen der hoherdimensionalen erst en und zweiten Ab-
leitung und spiiter einmal lernen Sie, wie Lie-Gruppen und Lie-Algebren
durch Matrizengruppen und Matrizenalgebren "dargestellt" werden. Jetzt
aber interessieren uns die Matrizen wegen ihrer Bedeutung fUr die linearen
Abbildungen.
Es gibt eine sehr suggestive andere Schreibweise fUr dieses "Anwenden" einer
Matrix A auf ein Element x E lKn.
(I)
Die rechte Seite scheint, bei fiuchtigem Hinsehen, rechteckig zu sein, beachten
Sie aber, dass es wirklich keine m x n-Matrix ist, sondern nur ein m-tupel,
als Spalte geschrieben! Ein Element von lK m eben, wie es sein solI.
Bevor wir uns etwas niiher mit diesen Abbildungen lK n --+ lK m , X 1--+ Ax
beschiiftigen wollen, noch eine Bemerkung zur bloBen Schreibweise, zum Ge-
wohnen an die vielen Indices. Formeln mit vielen Indices, so wie die obige
90 Kapitel 4: Lineare Abbildungen
Definition von Ax, kann man sich ja eigentlich nur merken, wenn man ir-
gendwelche Gedachtnisstiitzen dafiir hat. Eine solche Gedachtnisstiitze stellt
diese Vorstellung dar:
J...- ... \
zweiten
legt man die Spalte x nacheinander auf die Zeilen von A, indem man
sie so urn 90 0 dreht, wie einen Stab. Dann multipliziert man die dabei
iibereinander zu liegen kommenden Elemente aij und Xj miteinander und
summiert jeweils auf: ailXl + ... + ainXn' Natiirlich muss man sich dabei
merken, dass aij in der i-ten Zeile und j-ten Spalte steht, nicht umgekehrt.
Der erste Index heiBt der Zeilenindex, der zweite der Spaltenindex. (Viel-
leicht merkt man sich das, wenn man daran denkt, dass man gewohnt ist, in
Zeilen zu lesen und die Zeilen daher, als die niiherliegende Unterteilung der
Matrix, den ersten Index fiir sich beanspruchen konnen?)
Jeder Matrix die zugehorige lineare Abbildung IKn --+ IK m zuzuordnen defi-
niert also eine bijektive Abbildung M (m x n, IK) --+ Hom(IKn, IKm)! Deshalb
kann man die m x n-Matrizen auch als die linearen Abbildungen von IKn
nach IKm interpretieren oder auffassen.
, ... ,
gelten: Aej = Eej, j = 1, ... , n. Was ist aber Aej? Aej ist genau die
j-te Spalte von A! Also haben A und E dieselben Spalten und sind daher
gleich.
92 Kapitel4: Lineare Abbildungen
OD 1
also haben wir aij = (Aej)i = (Bej)i = bij fur aIle j l, ... ,n und
i = l, ... ,m, also A = B. o
(b) BEWEIS DER EXISTENZ: Fur jede m x n-Matrix A gilt, wie wir beim
Eindeutigkeitsbeweis gerade gesehen haben, dass die Bilder der kanonischen
Einheitsvektoren ej E ][{n bei der Abbildung
][{n -----+ ][{m
X f---------+ Ax
gerade die Spalten der Matrix sind.
DIE SPALTEN
SIND DIE BILDER DER
KANONISCHEN EINHEITSVEKTOREN
ist uberhaupt ein llutzlicher Merkvers fur die Matrizenrechnung. Wenn nun
Ax = f(x) seill solI, so mussen wir A so definieren, dass
4.2 MATRIZEN 93
A:= ( :
VmI
und haben damit immerhin schon eine Matrix, fiir die Aej = f( ej),
j = 1, ... , n gilt. Wegen der Linearitat von fund der durch x f-+ Ax
gegebenen Abbildung folgt daraus aber
A(AIeI + ... + Anen) = f(AIeI + ... + Anen)
fUr beliebige Aj ElK, und da (el, ... , en) eine Basis von lK n ist, bedeutet
das Ax = f(x) fur alle x E lKn. D
Was hat das alles mit den linearen Abbildungen eines Vektorraumes V in
einen Vektorraum W zu tun? Nun dies: Wenn V und Wendlichdimensional
sind und wir Basen (VI, ... , V n ) und (WI, •.• , wrn) in V und W wahlen, dann
konnen wir sofort jede lineare Abbildung in die Matrizensprache ubersetzen.
Dazu notieren wir zunachst:
Definition: 1st Vein Vektorraum uber lK, und ist (VI, ... , V n ) eine
Basis von V, so nennen wir
lK n ----=---. V
(AI, ... , An) f-----+ Al VI + ... + AnVn
den kanonischen Basisisomorphismus. Falls eine Bezeichnung benotigt
wird, schreiben wir «>(Vl, ... ,V n ) fur diesen 1somorphismus.
A
lK m
bestimmte Matrix A E M (m x n, lK) die zu 1 beziiglich der beiden
gewahlten Basen gehorige Matrix.
4.3 TEST
D {w E W I f(O) = w}
D {f(v)lv=O}
D {vEVlf(v)=O}
(3) Welche der folgenden Aussagen sind richtig: 1st f :V -+ W eine lineare
Abbildung, so gilt:
D f(O) = 0
D f( -x) = - f(x) fUr aIle x E V
D f(>.v) = f(>.) + f(v) fur aIle>. E lK, v E V
(6) C-~) C)
(n
=
D D D
96 Kapitel 4: Lineare Abbildungen
R2 -------+ R2
(x,y) -------+ (x+y,y~x)
ist durch die folgende Matrix gegeben ("Die Spalten sind die ... ")
o
C~D o o
(: D
1
o A= 1
1
0n
0
o A= 1
0
(~ ~)
0
o A= 0
0
(9) Eine line are Abbildung f :V --> Wist genau dann injektiv, wenn
o f surjektiv ist,
o dimKernf = 0,
o rgf = 0 ist.
o dimKernf 2: 3
o dim Kern f null, eins oder zwei, jeder dieser FaIle kann vorkommen
o dimKernf = 2
4.4 QUOTIENTENVEKTORRAUME 97
4.4 QUOTIENTENVEKTORRAUME
x+U=x'+U
(x + U) + (y + U) := (x + y) + U,
miissen wir uns fragen, ob (x + U) + (y + U) dadurch wirklich wohldefi-
niert ist. Es kann niimlich vorkommen, dass x + U = x' + U ist, obwohl
x # x' ist! Erst wenn wir gezeigt haben, dass aus x + U = x' + U und
y + U = y' + U auch (x + y) + U = (x' + y') + U folgt, diirfen wir sagen,
dass durch (x + U) + (y + U) := (x + y) + U fiir alle x, y E V wirklich eine
Verkniipfung V /U x V /U -+ V /U definiert ist. Wollen wir das also nachwei-
sen: Sei x+U = x' +U und y+U = y' +U. Daraus folgt x+O = x E x' +U,
y E y' + U, also gibt es a, b E U mit x = x' + a, y = y' + b, also ist
(x + y) +U = (x' + a) + (y' + b) + U
= ((x' + y') + (a + b)) + U
= {x' + y' + a + b + u I U E U}.
(x + y) + U = {x' + y' + (a + b + u) I U E U}
= {x' + y' + u ' I u ' E U}
= (x' + y') + U .
Sind die acht Axiome eines Vektorraums fiir (V/U, +, . ) erfiillt? Fill die
Axiome (1), (2) und (5)-(8) folgt aus der Giiltigkeit fiir (V, +, .) so fort die
fiir (V/U, +, . ). Axiom (3) ist fiir (V/U, +, . ) erfiillt mit U =: 0 E V /U und
(4) mit -(x + U) := (-x) + U. Also wird V/U auf diese Weise tatsiichlich
zu einem Vektorraum iiber TIC
4.4 QUOTIENTENVEKTORRAUME 99
Unmittelbar aus der Definition folgt, dass V/V nur aus einem Element be-
steht, denn x + V = V fill alle x E V. Also ist V/V der nur aus der
Null bestehende Vektorraum. V / {O} dagegen ist "beinahe dasselbe" wie V:
Durch V --+ V / {O}, V f-+ {v} ist ein Isomorphismus von V nach V / {O}
erkHirt. - Urn nicht bei allen Uberlegungen auf die Definition zuriickgreifen
zu miissen ist es zweckmaJ3ig, sich zwei oder drei Grundtatsachen iiber Quo-
tientenvektorraume direkt zu merken. .
f
V ------+ W
1 ,
, /'1'
,,"
V/U
kommutativ ist.
BEWEIS: Ein solches <p miisste jedenfalls <p(v + U) = f(v) erfiillen, deshalb
kann es nicht mehrere geben. Andererseits ist <p durch <p( v + U) := f (v)
auch wohldefiniert, denn f (v) = f (v + a) fiir a E U folgt aus der Linearitat
von fund U C Kern f. Schlief3lich folgt die Linearitat von <p aus der von
f, da <p((v+U)+(v' +U)) = f(v+v') = f(v)+ f(v') = <p(v+U)+<p(v' +U),
analogfiir <p('\(v+U)). D
Wir betrachten den euklidischen Vektorraum ]R2 und legen uns die Frage
vor: Welche linearen Abbildungen ]R2 --+]R2 respektieren das Skalarprodukt,
d.h. fUr welche 2 x 2-Matrizen A gilt
(Ax, Ay) = (x, y)
fill alle x, y E ]R2? Wir wollen diese Frage zunachst einmal durch ganz
anschauliche Uberlegungen zu beantworten suchen. Die Spalten sind ja be-
kanntlich die Bilder der Einheitsvektoren. Betrachten wir also die beiden
Einheitsvektoren el = (1,0) und e2 = (0,1). Der Bildvektor von el, also
Ael , muss ebenfalls die Lange 1 haben, denn
II Ael 112= (Ael, Ael) = (el' el) = 1.
( c~s 'P)
Slll'P
Also wissen wir schon, wie die erste Spalte von A aussehen muss ,
A = (c~s'P
Slll'P
*
*
) .
102 Kapitel 4: Lineare Abbildungen
Was geschieht nun mit e2? Wieder muss II AC2 11= 1, und auBerdem muss
(AC2, ACl) = (C2' Cl) = 0 sein, also AC2 steht senkrecht auf ACI. Deshalb
kommen nur die beiden Moglichkeiten in Frage:
l. Fall
Der Winkel, den AC2 mit Cl bildet, ist also entweder cp + 7r /2 oder cp - 7r /2.
Danun
cos(cp + 2) = - smcp
7r •
7r •
cos(cp- 2) =smcp
7r
sin(cp + 2) = coscp
• 7r
sm( cp - -) = - cos cp
2
gilt (hier muss ich an Ihre Schulkenntnisse appellieren), so ergibt sich fur die
zweite Spalte
( -Sincp) bzw. ( - sin cp )
cos cp ,
cos cp
so dass wir also als Antwort auf unsere Frage erhalten haben:
Satz: Eine 2x2-Matrix A hat die Eigenschaft (Ax, Ay)=(x, y) fur alle
x, y E ]R2 genau daIm, wenn es ein cp gibt, so dass entweder
- Sincp)
cos cp
oder aber A= (c~s
smcp
cp sincp )
- cos cp
gilt.
4.5 DREHUNGEN UND SPIEGELUNGEN 103
Ohne nur anschauliehe Argumente, jedoch Kenntnisse uber Sinus und Co-
sinus voraussetzend, ergibt sich das so: Sei A = (aij) und (Ax,Ay! = (x,y!
fur aIle x, y E ]R2. Wegen
gibt es reelIe Zahlen 'P und 1/; mit a11 = cos 'P, a2l = sin 'P, a22 = cos 1/; ,
a12 = - sin1/;. Dann liefert (Ael' Ae2! = a11 a12 + a2l a22 = 0, dass
also 'P = 1/; + kn fur geeignetes k E Z. Also gilt entweder cOS'P = cos 1/;
und sin'P = sin 1/; (niimlieh wenn k gerade ist) oder cos'P = - cos 1/; und
sin'P = - sin1/; (niimlich wenn k ungerade ist). Daraus folgt, dass A von
der angegebenen Gestalt sein muss. Dass umgekehrt jede solche Matrix das
Skalarprodukt respektiert, rechnet man sofort nacho Damit ist dann der Satz
bewiesen. 0
Wenn man sich uberlegt, wohin cine gegebene Matrix A E 0(2) die beiden
Einheitsvektoren el, e2 abbildet und daran denkt, dass aus x = Alel + A2e2
auch Ax = A1Ael + A2Ae2 folgt, so kann man sieh leicht den geometrischen
Mechanismus von A klarmachen. Dabei ergibt sieh, dass zwischen den Ma-
trizen aus 80(2) und denen aus 0(2) ,,80(2) ein wesentlieher Unterschied
besteht.
104 Kapitel4: Lineare Abbildungen
,,
,,
'18//
/
/
/
/
// el
:1C2
c;:s=;J
(Xl)
X2
-----+ (C?SCP
sm cp
- sincp)
cos cp
(Xl)
X2
eine Drehung des ganzen JR2 urn den Winkel cp bewirken, nicht etwa nur
4.5 DREHUNGEN UND SPIEGELUNGEN 105
- Wenn nun, als Spezialfall, V = ]R2 ist und die Basis des "neuen Koor-
dinatensystems" aus der kanonischen Basis durch Drehen urn den Winkel 'P
entsteht, dann ist 1> : ]R2 -=,]R2 die durch
Es gibt ja die versehiedensten Motive fur das Studium der Mathematik. Ohne
Kommentar lasse ieh hier Christian Wolff zu Wort kommen.
~at~emattfd}e5 morrebc.
LEXICON, ~arinnen
a
~b babe btt) mir 1)on :1ugtnb auff
tine uncrfdttlid)t ~egirrbe Nt
SIDal)rl)eit gett>lji 3u trfenntn unb
anberen ~u bienen gefunben. ~a,
ber aIlS id) btl) 3eiten 1)ernal)m,
bit ill aHen ~l)ej(en bee IDlatl)ema, ba9 man btr \)Ratl)emattd tint
unge3l1.1ti/feltt ~el1.1ilibeit ~ufd)reibe, unb abron,
ttef u~ltd)en ~un«· ~ilrter tlerlid) bie ~Igtbra ailS cint rid)tigt .ftun~ 1)er,
erfldrtt, borgene SIDa/)r/)titm ~ucnttltdtn ru/)mt;j)inge'
unb gmaUllbtn fo 1)ielfdltigen unb l1.1itbrigm \)Rei>
gur j)i«orte nungen btr ~eltbrtcn in anberen(!3ad)cn,bie Gur
0" \)Ratl)tmatidnid)tgtl)orm, unb aull ben ~eten
IDlatl)ematinten ~jmllfd)afften ~irnberung, bie barinnen 1)orgenommen l1.1erben,
mir aUd) baaumabl genung bt'grtiffid) l1.1ar, bali
bienlid)e ~ad)rid)ten ert~eiltt,
11.<1> efS auffer berl)Rat!)ematid an tiner l.l6Ui9en ~t,
bie ®d)rifften tt>iji!)citmCl~tntbeilfS feble; (!;rl1.1edte bel) mir
rooirbe rollltft'ie llu~gefU~ret au nnben, bie ~egitrbt Aur ?marl)eit tine 2iebe our \)Rat!)t.
.ng,~~m oob,n: matid unb fonberlid) eine 2u~ 3ur ~Igebra, um
Uuff fatgebt"m I}ttQIU! aegcbln 3ufe!)en, tt>afS bod) bie Urfad)t ret), l1.1arum man
~on in ber l)Ratl)ematid fo grofft ~el1.1ili!)eit I)abe,
~l)riffian ~oIffen, unb nad) l1.1alS 1)or ~tgeln man bafrlbff btndt,
l1.1enn man 1)erborgenc SIDal)rl)titm aum mot<
~. ~. j). uub P. P. O. fd)rine bringeR tt>iU, bamit id) mid) beffo /id)mr
Seipatg, bemli!)cn mod)te aud) auffcr ber !mat!)tmaticf
~el) 30~. \lriebrid) (!;lebitfd)en\1 feci. ~obn. btrgleid)tn ~ett>ip~cit au fud)tn unb bit iBal)r,
1716. Il 3 ~ti'
4.7 LITERATURHINWEIS
Die Rorer einer Vorlesung wollen vom Dozenten natiirlich gern ein Buch ge-
nannt haben, das leicht zu lesen ist, mit der Vorlesung gut zusammenpasst
und wenig kostet. Diese Bedingungen erfiillte damals wohl das B.I. Roch-
schultaschenbuch [12] von R. Lingenberg am besten.
Einige Abweichungen: Vektoren werden in [12] mit deutschen Buchsta-
ben bezeichnet, lineare Riille durch < ... > oder, wenn es sich urn die li-
neare Riille eines linear unabhangigen n-tupels von Vektoren handelt, mit
« ... ». N atiirlich ist das Skriptum [12] mit insgesamt 156 Seiten viel
knapper geschrieben als das vorliegende.
Reute ware hier natiirlich vor allem der eigentliche Renner unter den seit-
her erschienenen deutschsprachigen Biichern iiber lineare Algebra zu nennen,
namlich die Lineare Algebra [3] von Gerd Fischer.
4.8 UBUNGEN
AUFGABE 4.1: Seien V und W Vektorraume iiber lK, sei (VI, ... , V n ) eine
Basis von V und f : V --+ W eine lineare Abbildung. Man beweise: fist
injektiv ¢=} (J (VI), ... , f (V n )) ist linear unabhangig.
start, dass Sie nicht so recht wissen was eine "Unbestimmte" ist und die
ganze Definition von P n fUr Sie deshalb etwas in der Luft hiingt (und ich
hoffe eigentlich, dass sie das start!), dann konnen Sie P n auch einfach als
]]{n+1 definieren, ein Polynom also als (Ao, .. . ,An), Ai ElK, und konnen das
Produkt durch
O ~
fn+1 IT fn
v n -------+ h V h
. . . -------+ 1 ------+
Vi0-------+
fo 0
mit der Eigenschaft J; 0 fi+l = 0, d.h. Bild fi+1 C Kern fi. Der Quotienten-
vektorraum
Hi(C) := KernfdBildJ;+1
hei£t die i-te Homologie des Komplexes. Man beweise: Sind alle Yi endlich-
dimensional, so gilt
DIE *-AUFGABE:
f4 is h h
V4 ---+ V3 ---+ V2 ---+ VI ---+ Vo
AUFGABE 4.2P: Sei (V, (-, .)) ein euklidischer Vektorraum und f: V --> V
eine lineare Abbildung. Man beweise: Genau dann gilt U(x), f(y)) = (x, y)
fUr alle X,Y E V, wenn Ilf(x)11 = Ilxll fUr alle x E V.
AUFGABE 4.3P: Sei (V, (-, .)) ein zweidimensionaler euklidischer Vektor-
raum, f : V --> V eine orthogonalc linearc Abbildung, d.h. (f(x), f(y)
= (x, y) fur alle x, y E V. Es gebe ferner ein Va E V, Va -I- 0 mit f(vo) = Va,
es sei jedoch f -I- 1d v . Man beweise: 1st (el' e2) eine orthonormale Basis
von V, dann ist die Matrix des Endomorphismus f bezuglich dieser Basis
ein Element von 0(2) " 80(2).
5. Matrizenrechnung
l~ j lb ~?j
§ x@ II W
~ © ;{ 12
+ lLf X~ 1
5.1 MULTIPLIKATION
Wir werden uns gleich ausftihrlich mit der Multiplikation von Matrizen
beschiiJtigen. Zuvor aber ein Wort tiber die Addition und Skalarmultipli-
all ... a' n )
kation in M(m x n, lK). Statt A = ( a~, ... a~n kann man auch kurz
A = (aij)i=l, .. ,m;j=l, .. ,n schreiben oder, wenn auf andere Weise gesagt
wurde, wieviele Zeilen und Spalten A hat, auch einfach A = (aij). Addition
und Skalarmultiplikation geschehen nun elementweise, wie bei r-tupeln:
Nun zur Multiplikation. Alles, was hier tiber Matrizen gesagt wird, hat zwei
Seiten: eine begriffiiche und eine mechanisch-rechnerische, je nachdem ob
wir die Matrizen als lineare Abbildungen OCn --+ OC m oder als Zahlenschemata
auffassen. Dieser doppelten Bedeutung wollen wir auch in der Notation durch
eine "Doppelbedeutung" Rechnung tragen:
N attirlich soll Sie das nicht auf den Gedanken bringen, eine Matrix und
eine lineare Abbildung seien tiberhaupt dasselbe! Aber so naive Warnungen
brauche ich wohl nicht auszusprechen, Sie haben ja schon einige Erfahrung
im Umgang mit Doppelbedeutungen. -
Ein Entschluss zu einer Doppelbedeutung in der Notation bringt gewisse
Verpflichtungen mit sich, es dtirfen ja keine Verwechslungen entstehen. Zum
Beispiel: Wenn wir fUr A, B E M(mxn, OC) die Abbildung A+B : OCn --+ OC m
betrachten: ist das dann die Matrizensumme als lineare Abbildung aufgefasst
oder ist es die Summe der linearen Abbildungen A, B : OC n --+ OC m ? Nun, das
ist eben beide Male ganz dieselbe Abbildung, deshalb besteht hier gar keine
Verwechslungsgefahr, und fUr )'A, ). E OC, gilt das namliche. Ebenso verhalt
es sich nun bei der zu definierenden Matrizenmultiplikation: Das Produkt
zweier Matrizen soll als lineare Abbildung gerade die Hintereinanderanwen-
dung sein:
Was bedeutet das fUr das Ausrechnen der Matrix AB als Zahlenschema?
Nun, zunachst sehen wir einmal, dass man nicht beliebige Matrizen mitein-
ander multiplizieren kann, denn
OC n ~ OC S , OC m ~ OCr
112 Kapitel 5: Matrizenrechnung
(vergl. Abschnitt 4.2). Also ist L~n=l aikbkj das i-te Element der j-ten
Spalte von AB. Wir wollen das als Definition des Produkts im Haupttext
verwenden und die Bedeutung als Hintereinanderanwendung linearer Abbil-
dungen notieren:
definiert.
lKn ~ lKm
ist kommutativ.
5.1 MULTIPLIKATION 113
~r ~r ~r
B A
OC n ----+ OC m ----+ ocr,
in dem die senkrechten Pfeile die Basisisomorphismen, A und B also
die vermoge dieser Basen zu 9 und f gehorigen Matrizen sind, dass
die Matrix AB gerade dem Homomorphismus gf entspricht.
Es ist gut, sich fill die explizite Berechnung emes Matrizenproduktes das
folgende Schema zu merken:
A B
§ 1
j
Es soll andeuten, dass man das Element, das im Produkt in der i-ten Zeile
und j-ten Spalte steht, mittels der i-ten Zeile von A und der j-ten Spalte
von B berechnet - und zwar durch "Ubereinanderlegen - Multiplizieren
- Aufsummieren", wie es in Abschnitt 4.2 schon bei der Anwendung einer
m x n-Matrix auf ein als Spalte geschriebenes n-tupel vorgekommen war. Fur
die j-te Spalte von AB spielt also von B nur die j-te Spaltc eine Rolle. 1st
z.B. dic j-tc Spalte von B Null, so auch die j-te Spalte von AB. Ahnliches
gilt fur die Zeilen von AB und A. - Noch etwas kann man sich an diesern
114 Kapitel 5: Matrizenrechnung
Schema gut merken: dass namlich die Zeilen von A genau so lang wie die
Spalten von B sein miissen, wenn es moglich sein solI, das Produkt AB zu
bilden, d.h. A muss genau so viele Spalten wie B Zeilen haben.
Das sind Eigenschaften, die man von einer "Multiplikation" auch erwarten
wiirde. Bei der Matrizenmultiplikation gibt es aber auch ganz schwerwie-
gende Abweichungen von den Rechenregeln, die wir fiir die Multiplikation
von Zahlen kennen, namlich
AB = (~ U0 ~) = (~ ~) = 0,
und
BA = (~ ~) (~ ~) = (~ ~) ~ AB
Definition: Eine Matrix A heiBt invertierbar, wenn die zugehorige li-
neare Abbildung ein Isomorphismus ist. Die Matrix der Umkehrabbil-
dung heiBt dann die zu A inverse Matrixund wird mit A-I bezeichnet.
Eine ganze Reihe von Aussagen iiber die inverse Matrix konnen wir auf-
grund unserer bisherigen Kenntnisse iiber lineare Abbildungen einfach aus
dem Armel schiitteln:
5.1 MULTIPLIKATION 115
Bemerkungen 2:
(1) Jede invertierbare Matrix A ist quadratisch, das heiBt
A E M (n x n, lK) .
(2) Sind A, B E M(n x n, lK) und bezeichnet En oder kurz
E E M(n x n, lK) die Matrix der Identitiit lKn --> lKn, d.h.
(4) 1st A E M(nxn, lK) invertierbar, so auch A-I, und (A-l )-1 = A.
E M(n x n, lK) invertierbar, so auch AB und es gilt
(5) Sind A, B
(AB)-1 =B- 1A- 1 .
Bleibt (3). Dass aus B = A-I die anderen beiden Aussagen folgen, wissen
wir schon. Sei also zuniichst AB = E. Dann ist A surjektiv, denn fiir
jedes y E lK n ist A(By) = Ey = y. Nun wenden wir Notiz 5 yom Ende
des Abschnitts 4.1 an: Danach ist A sogar bijektiv! Also existiert A-I, wir
miissen nur noch priifen, ob wirklich A-I = B gilt. Dazu wiirde es geniigen,
wenn wir auBer AB = E auch BA = E wiissten. Es ist aber
Was wir aber nicht so aus dem Armel schiitteln konnen, ist eine Methode
zur expliziten Berechnung von A-I. Darauf werden wir in dem Abschnitt
5.5 zuriickkommen.
116 Kapitel 5: Matrizenrechnung
In 4.1 hatten wir den Rang einer linearen Abbildung f als dim Bild f de-
finiert. Entsprechend versteht man also auch unter dem Rang einer Matrix
A E M (m x n, OC) die Dimension des Bildes von A : OC n ---> OC m . Diese
Zahl ist gleichzeitig die maximale Lange eines linear unabhangigen r-tupels
von Spalten von A, denn die Spalten, als Bilder der kanonischen Einheits-
vektoren, erzeugen Bild A, nach dem Basiserganzungssatz gibt es also eine
Basis von Bild A, die aus Spalten von A besteht, und ein langeres linear
unabhangiges r-tupel von Spalten kann es dann nicht geben. (Warum?)
Mit einem anderen Beweis, der etwas mehr Vorbereitung erfordert, dann aber
vielleicht iibersichtlicher ist, beschaftigt sich die Ubungsaufgabe 11.1 im § 11.
Nach einer Serie elementarer Umformungen mag eine Matrix kaum wieder-
zuerkennen sein, beobachten Sie zum Beispiel, wie die folgende 3 x 3-Matrix
durch Umformungen vom Typ 3 gleichsam "abgeriiumt" wird:
Trotz dieser starken Veriinderungen bleibt ein wichtiges Merkmal der Ma-
trix erhalten, niimlich der Rang:
Bemerkung 2: 1st A eine Matrix mit m Zeilen, bei der die erst en T
Hauptdiagonalelemente von Null verschieden, die letzten m - T Zeilen
sowie alle Elemente unterhalb der Hauptdiagonalen jedoch gleich Null
sind, so ist rg A = T.
5.3 ELEMENTARE UMFORMUNGEN 119
an
o
*
Das Verfahren zur Rangbestimmung besteht nun einfach darin, eine gegebene
Matrix A durch element are Umformung in die in Bemerkung 2 angegebene
Gestalt zu bringen.
an an
0
* 0
*
ak-l,k-l ak-l,k-l
a~k *
0 B 0
0 B'
Beginnt man dieses Verfahren bei k = 0 (was heiDen soIl, dass die
Matrix zu Beginn keinerlei besondere Bedingungen erfiillen muss ) und
setzt es solange fort, bis die Restmatrix, die zuletzt mit B' bezeichnet
wurde, Null ist bzw. mangels Zeilen oder Spalten nicht mehr vorhanden
ist, so erhiilt man eine Matrix, die die in Bemerkung 2 angegebene
Gestalt hat, deren Rang man also kennt, und der Rang dieser Matrix
ist dann der gesuchte Rang der vorgegebenen Matrix A.
5.4 TEST
D A+BEM(2x3,lK)
D A + B E M (4 x 6, lK)
D A+B E M(4 x 9,lK)
D C1 -1)
-1 (2-2-33)
D (-1-1 11) 2 33)e
D C1 -1)(22)
-1 3 3
(5) Welche der folgenden Eigenschaften hat die Matrizenmultiplikation
nicht:
D Assoziativitat D Kommutativitat D Distributivitat
(7) Welcher der folgenden Ubergange kann nicht durch eine element are
U mformung geschehen sein:
D
Cn-- un
D
C~) -- c n
D
(~ n-- n ( -1~
122 Kapitel 5: Matrizenrechnung
(8) Sei A E M(m x n, lK), B E M(n x m, lK) also lKn -1lK m !!., lKn. Sei
BA = En (= IdKn als lineare Abbildung). Dann gilt:
ist
o 1 o 3 o 5
Was geschieht mit der Produktmatrix AB, wenn man in A (nicht in B!)
zwei Zeilen vertauscht?
~
I
I
I
\
'....
1
A B
Nun, offenbar werden in der Produktmatrix eben dieselben zwei Zeilen ver-
tauscht, denn die i-te Zeile des Produkts entsteht ja aus der i-ten Zeile des
ersten Faktors in der bekannten Weise durch "Kombination" mit den Spal-
ten des zweiten. Ebenso bewirkt die Multiplikation der i-ten Zeile von A
mit >. E lK dasselbe im Produkt, und auch die Addition eines Vielfachen der
i-ten Zeile zur j-ten Zeile iibertriigt sich auf das Produkt. Man darf also
notieren:
Man muss sich nun also nur noch iiberlegen, wie man eine gegebene invertier-
bare Matrix A durch Zeilenumformungen in die Einheitsmatrix verwandelt.
Dazu noch einmal kurz zur Erinnerung die Typen:
(1) Vertauschung,
(2) Multiplikation,
(3) Addition eines Vielfachen.
124 Kapitel 5: Matrizenrechnung
1
o
1 0
0 1
0
0 0
zu erreiehen. Dazu wollen wir zuniiehst a22 i- 0, falls das nieht ohnehin
schon gilt, dureh eine Zeilenvertausehung bewirken, ohne jedoeh dabei
die erste Zeile einzubeziehen. 1st das nieht moglieh, so ist die zweite
Spalte ein Vielfaehes der ersten, die Matrix deshalb nieht invertierbar.
Sei also a22 i- o. Dann bringt man die Matrix dureh Multiplikation
in der zweiten Zeile mit 1/a22 und dureh Addition geeigneter Vielfa-
eher der zweiten Zeile zu den iibrigen Zeilen in die gewiinsehte Form,
und der zweite Sehritt ist abgesehlossen. - Entweder iiberfiihrt nun
dieses Verfahren die Matrix A naeh n Sehritten in die Einheitsmatrix
E, oder A stellt sieh als nieht invertierbar heraus. 1st A jedoeh in-
vertierbar, so erhiilt man die gesuehte Matrix A-I, indem man aIle
die elementaren Zeilenumforrnungen, die A in E iiberfiihrt haben, in
derselben Reihenfolge auf E anwendet. Dies wird zweekmiiBig parallel
zu der Verwandlung A ---+ E gesehehen.
5.5 WIE INVERTIERT MAN EINE MATRIX? 125
Es ist wohl nicht ni:itig, den k-ten Schritt genau zu beschreiben. 1st A wirk-
lich invertierbar, dann sichert die lineare Unabhangigkeit der Spalten nach
k - 1 Schritten die Existenz eines Elements aik # 0 mit i 2: k und man
verfahrt dann analog. - Ein Beispiel sollte ich wohl angeben, zum Nach-
rechnen und Vergleichen. Ein solches numerisches Beispiel zu "lesen" ware
nicht sehr sinnvoll.
o 1
1 2
E M(4 x 4, IR)
-1 o
o o
Wir rechnen:
1 o o
Anfang
2 1 o
o o 1
o o o
1. Schritt
o
1
-1
o
1
1
o
-1
~)
l'
1
(-i 0
-1
o
1
o
o
o
o
1
o
~) (-i
o 1 o o
2. Schritt
1 1 1 o
o 1 1 ' -1 1 1
o -1 1 -1 o o
~ -~) ( ~
o -1 -1
3. Schritt ( O~l 1
o 1 l' -1
o
1
-1
1
o o 2 -2 1 1
o o -1
1
o
o
1
~J (-~ -~
0' 0 ~
-2
1
1
2
o o 1 -1 ~ 1
2
-1 -1
-~)
1 1
-1 2 -2
A-I = ( 02 1 1
2 2
1 1
-1 2 2 2
Stimmt's?
Die Abbildung A<p : JR2 ---+ JR2 ist also die Drehung um den Winkel rp und
B<p die Spiegelung an der gegen JR x 0 um rp/2 geneigten Achse.
Wie verhalten sich nun diese Matrizen bei Multiplikation, d.h. was sind
A<pA,p, A<pB,p, B,pA<p und B<pB,p? Bevor wir rechnen, uberlegen wir uns
jeweils anhand der geometrischen Interpretationen, was herauskommen muss.
Drehen wir erst um den Winkel 1/J, dann um den Winkel rp, so haben wir
insgesamt um den Winkel rp + 1/J gedreht:
5.6 MEHR uBlm OREHUNGEN UNO SPIEGELUNGEN 127
- Sin1/J) =
cos 1/J
COS cp cos 1/J - sin cp sin 1/J - cos cp sin 1/J - sin cp cos 1/J )
(
sin cp cos 1/J + cos cp sin 1/J - sin cp sin 1/J + cos cp cos 1/J
wobei wir, wie auch im folgenden, die "Additionstheoreme" fUr Sinus und
Cosinus, niimlich
als bekannt vorausgesetzt haben. - Nun betrachten wir AcpB,p, d.h. wir
spiegeln erst an der Achse mit dem Winkel 1/J /2 und drehen dann urn den
Winkel cp. Was geschieht mit den kanonischen Einheitsvektoren? (Spalten!):
128 Kapite15: Matrizenrechnung
Geometrisch ergibt sich somit A<pB</) = B<p+1jJ. Wer's nicht glaubt, rechne es
aus (Matrizenmultiplikation):
( COS ip cos 1/J ~ sin ip sin 1/J cos ip sin 1/J + sin ip cos 1/J )
~ip=1/J+=ip~1/J ~ip~1/J~=ip=1/J
Wenn wir aber erst urn den Winkel ip drehen und dann an 1/J /2 spiegeln,
(
COS 1/J sin 1/J) (cos ip ~ Sinip) =
sin 1/J ~ cos1/J sinip cos ip
COS 1/J cos ip + sin 1/J sin ip ~ cos 1/J sin ip + sin 1/J cos ip )
(
sin 1/J cos ip ~ cos 1/J sin ip ~ sin 1/J sin ip ~ cos ip cos 1/J
Da im allgemeinen B<p+1jJ f= B1jJ_<p ist, haben wir hier weitere Beispiele von
der Nichtkommutativitiit der Matrizenmultiplikation: A<pB1jJ f= B1jJA<p, so-
fern nur die mit dem Winkel (1/J + ip) /2 gegen IR x 0 geneigte Achse eine
andere ist als die mit dem Winkel (1/J ~ ip) /2 geneigte. - Als letztes wollen
wir sehen, was geschieht, wenn wir zwei Spiegelungen hintereinander anwen-
den: Was ist B<pB1jJ?
5.6 MEHR VBER DREHUNGEN UND SPIEGELUNGEN 129
Sin'l/J)
- cos'l/J -
COS cp cos 'l/J + sin cp sin 'l/J cos cp sin 'l/J - sin cp cos 'l/J )
(
sin cp cos 'l/J - cos cp sin 'l/J sin cp sin 'l/J + cos cp cos 'l/J
Was soll man nun von dies en Formeln im Kopf behalten? Ich schlage vor:
Man soll A<pA'lj; = A<p+'lj; wissen und auBerdem ganz generell fUr Matrizen in
0(2) :
U m jeweils welche Winkel, iiberlegt man sich am besten von Fall zu Fall
neu.
5.7 HISTORISCHE NOTIZ 131
Was schiitzen Sie wohl, wie alt die Matrizenrechnung ist? 10 Jahre, 100
Jahre, 1000 Jahre? Schon den alten Agyptern bekannt?
Die Matrizenrechnung gibt es seit anderthalb Jahrhunderten, als ihr
Begriinder gilt der englische Mathematiker Arthur Cayley. 1m Jahre 1855
erschienen in Crelles Journal mehrere Noten von Cayley, und in einer davon
wurde zum erstenmal die Bezeichnung Matrizen fiir rechteckige (insbesondere
dort fiir quadratische) Zahlenschemata eingefiihrt:
No.3.
Remarques sur la notation des fonctions algebriques.
Je me sers de la notation
1 u, (3, y,
, (3',
u, y',
a", (3", rTf,
5.8 LITERATURHINWEIS
Die Matrizenrechnung ist gewiss sehr wichtig. Trotzdem hielte ich es fill
leicht ubertrieben, wenn Sie jetzt ein gauzes Buch uber Matrizenrechnung
durcharbeiten wollten. Deshalb wird die Brauchbarkeit eines Buches uber
Matrizenrechnung fur Sie davon abhangen, ob es sich zum Nachschlagen
eignet, d.h. ob Sie es auch verstehen konnen, wenn Sie es in der Mitte auf-
schlagen. Unter diesem Gesichtspunkt leicht zuganglich durfte fur Sie das BI-
Taschenbuch [1] von Aitken sein. Einige Bezeichnungsunterschiede: Deter-
minanten (die wir in § 6 behandeln werden), bezeichnet Aitken, wie ubrigens
einige andere Autoren auch, statt mit "det" mit senkrechten Strichen I·· .1.
Die transponierte Matrix einer Matrix A wird mit A' (bei uns in § 6 mit
At) bezeichnet. Au£erdem mochte ich Sie auf zwei Sonderbarkeiten der Ait-
ken'schen Schreibweise aufmerksam machen: Zur Platzersparnis schreibt der
Autor {alj"'" anj} statt
5.9 UBUNGEN
es mehr urn das konkrete Rechnen. Sie mussen eben auch einmal wirklich
eine Rangbestimmung durchgefuhrt und eine Matrix invertiert haben. - Die
einzige begrifRiche Aufgabe, die ich doch stellen will, hat auch nur scheinbar
mit Matrizen zu tun. Niimlich: Man beweise: Fur A, B E M(n x n, lK) gilt
rg A + rg B - n ~ rg AB ~ min(rg A, rg B). - Die Dimensionsformel fur
lineare Abbildungen ist hierbei sehr nutzlich.
AUFGABE 5.2: Sei (VI, V2, V3, V4) linear unabhiingig in dem reellen Vektor-
raum V. Man zeige: 1st
WI V2 - V3 + 2V4
W2 VI + 2V2 - v3 - V4
W3 -VI + V2 + V3 + V4,
so ist (WI, W2, W3) linear unabhiingig. - Hierbei hilft nun kein theoretisches
Argument wie in Aufgabe 3.1, hier kommt es auf die Koeffizienten wirklich
an, man muss rechnen. Vorschlag: Zuerst beweisen, dass die lineare Un-
abhiingigkeit von (WI,W2,W3) gleichbedeutend damit ist, dass eine gewisse
reelle Matrix den Rang 3 hat, und dann mit Hilfe des Rangbestimmungsver-
fahrens den Rang dieser Matrix berechnen.
AUFGABE 5.3: Man bestimme, fUr welche )., E IR die reelle Matrix
)., o
1 o
)., 1
o ).,
invertierbar ist und berechne fur diese )., die inverse Matrix A.\I.
DIE *-AUFGABE:
AUFGABE 5.1P: Man gebe zwei Matrizen A, B E M(6 x 6, lR) explizit an,
die folgende Eigenschaften haben: rg A = rg B = 3, AB = O. (Mit der
"Angabe" solcher Matrizen muss naturlich der Beweis (soweit nicht selbst-
verstandlich) verbunden sein, dass A und B die genannten Eigenschaften
wirklich haben!)
Man bestimme fur jedes t mit 0 ~ t < 12 den Rang der Matrix H t und
gebe insbesondere an, fUr wieviele dieser t der Rang gleich Eins ist. Bei der
Lasung dieser Aufgabe durfen Sie 1hre Schul- oder sonstigen Kenntnisse uber
die elementaren Eigenschaften der Funktionen sin: lR --+ lR und cos: lR --+ lR
ohne weiteren Kommentar verwenden.
6. Die Determinante
BEWEIS VON SATZ 1. (a) Beweis der Eindeutigkeit: Wenn det und det'
zwei Abbildungen mit den Eigenschaften (i)-(iii) sind, dann gilt jedenfalls
dct A = det' A fur aIle Matrizen mit rgA < n, wegen (ii). Die Strategie des
Beweises besteht nun darin, die Matrizen A mit rgA = n durch elementare
U mformungen in E zu verwandeln und zu studieren, wie det und ebenso
det' infolge (i) und (ii) auf element are Umformungen reagieren, urn dann aus
det E = det' E, was ja wegen (iii) gilt, auf det A = det' A ruckschlieBen zu
6.1 DIE DETERMINANTE 137
konnen. Dazu dient der folgende Hilfssatz, der auch auBerhalb des Beweises
sehr nutzlich ist.
Hilfssatz: Sei det : M(n x n, lK) --> lK eine Abbildung mit den Eigen-
schaften (i) und (ii). Dann gilt:
(1) Verwandelt man die Matrix A durch Vertauschen zweier Zeilen
in eine Matrix A', so gilt det A' = - det A.
(2) Verwandelt man die Matrix A durch Multiplikation einer Zeile
mit A ElKin eine Matrix A', so gilt det A' = A det A.
(3) Verwandelt man die Matrix A durch Addition eines Vielfachen
einer Zeile zu einer anderen Zeile in cine Matrix A', so gilt
det A = det A' .
BEWEIS DES HILFSSATZES: Die Behauptung (2) folgt direkt aus der Linea-
ritiit von det in den Zeilen.
Zu (3): Zuniichst bilden wir einmal aus A die Matrix A", in dem wir das
Vielfache der einen Zeile nicht zu der anderen Zeile addieren, sondern indem
wir diese andere Zeile durch das bewusste Vielfache ersetzen. Dann ist das
n-tupel der Zeilen von A" nicht linear unabhiingig, also rg A" kleiner als n,
also det A" = O. Aus der Linearitiit in den Zeilen (hier: in der "anderen"
Zeile) folgt dann det A' = det A + det A" = det A . D
Zu (1): Seien die i-te und die j-te die beiden zu vertauschenden Zeilen.
Addiert man in A zur j-ten Zeile die i-te, so bekommt man nach (3) eine
Matrix Al mit det A = det A 1 . Addiert man in A' zur j-ten Zeile die i-
te, so erhiilt man nach (3) eine Matrix A~ mit det A' = det A~. Die so
gebildeten Matrizen Al und A~ unterscheiden sich dann nur in der i-ten
Zeile: in der j-ten steht bei beiden die Summe der i-ten und j-ten Zeile von
A. Wegen der Linearitiit in der i-ten Zeile ist dann det Al + det A~ gleich
der Determinante jener Matrix B, die sowohl in der i-ten als auch in der
j-ten Zeile die Summe der i-ten und j-ten Zeile von A stehen hat. Also
rg B < n, also det Al + det A~ = det A + det A' = 0, also det A = - det A' .
D
Damit ist nun der Hilfssatz bewiesen, und wir fahren im Beweis der Eindeu-
tigkeitsaussage des Satzes 1 fort. Als Folgerung aus dem Hilfssatz erhalten
wir: Wenn det und det ' zwei Abbildungen mit den Eigenschaften (i) und (ii)
sind und die Matrix B aus der Matrix A durch elementare Zeilenumformun-
gen hervorgeht, so gilt, falls det A = det' A ist, auch det B = det' B, und
da man element are Zeilenumformungen auch durch element are Zeilenumfor-
mungen wieder ruckgiingig machen kann, gilt det A = det' A sogar genau
dann, wenn det B = det' B.
138 Kapitel 6: Die Determinante
Angenommen nun, det und det' erflillen (i), (ii) und (iii). Wir wollen
det A = det' A flir aIle A E M (n x n, lK) beweisen. Flir A mit rg A < n ist
das aufgrund von (ii) sowieso klar. Sei also rg A = n. Dann aber lasst sich
A durch element are Zeilenumformungen in E verwandeln, wie die Leser des
Abschnitts 5.5 liber die Matrizeninversion schon wissen. Hier beweisen wir es
nochmals durch Induktion: 1st man mittels elementarer Zeilenumformungen
schon bis daher
1
0
0
*
1
0 B
gekommen (k < n), so kann man durch eventuelle Vertauschung zweier der
letzten n - k Zeilen den Platz (k + 1, k + 1) in der Matrix durch ein von Null
verschiedenes Element besetzen (denn ware die erste Spalte von B Null, so
ware die k+l-te Spalte der ganzen Matrix linear liberfilissig, im Widerspruch
zu Rang = n), und dann kann man mit Umformungen vom Typ (2) und (3)
den Induktionsschritt ausflihren.
Also kann man A in E verwandeln, aus det E = det' E = 1 folgt
det A = det' A, und die Eindeutigkeitsaussage in Satz 1 ist nun bewiesen.
(b) Beweis der Existenz: Die Existenz von det : M(n x n, lK) ---+ lK mit den
Eigenschaften (i)-(iii) beweisen wir durch Induktion. Flir n = 1 ist es klar,
dass det : M (1 xI, lK) ---+ lK, (a) ---+ a diese Eigenschaften hat. Angenommen
nun, wir hatten flir (n - 1) x (n - 1)-Matrizen schon eine Determinante.
Mit dieser Notation und unserer Induktionsannahme konnen wir jetzt eine
Abbildung det : M(n x n, lK) ---+ lK so erklaren: Wir wahlen ein beliebiges,
aber dann festes j mit 1 ;:;; j ;:;; n und setzen
n
detA:= I:(-I)i+jaijdetAij'
i=l
Wir wollen zeigen, dass diese Abbildung det : M(n x n, lK) ---+ lK die Eigen-
schaften (i)-(iii) hat.
6.1 DIE DETERMINANTE 139
Eigenschaft (i): Urn die Linearitat in der k-ten Zeile von A nachzuweisen,
verifizieren wir, dass jeder einzelne Summand
(-1 r+ j aij det Aij
linear in der k-ten Zeile von A ist. Fur k f i folgt das daraus, daB
det : M(n - 1 x n - 1, lK) ---+ lK
linear in den Zeilen ist, wahrend aij von der k-ten Zeile nicht abhangt:
j-te Spalte
i-te Zeile
k-te Zeile
Fur k = i dagegen hangt A;j von der i-ten Zeile von A nicht ab (die wird
ja gerade weggelassen!), aber nun ist die Abbildung
M(n x n, lK) -------7 lK
A f-----7 aij
linear in der i-ten Zeile von A. Also hat det die Eigenschaft (i). (i)O
Eigenschaft (ii): Sei rg A < n. Dann gibt es eine Zeile, die aus den ande-
ren linearkombiniert werden kann. Daraus folgt, dass man durch element are
Zeilenurnforrnungen vorn Typ (3) diese Zeile zu Null rnachen kann. Eine Ma-
trix mit einer Null-Zeile hat die Determinante Null, das folgt aus der schon
bewiesenen Linearitat. Wir mussten also zeigen, dass element are Zeilenum-
forrnungen vorn Typ (3) die Determinante nicht andern. Wegen der bereits
bewiesenen Linearitat genugt dazu der Nachweis, dass die Deterrninante je-
der Matrix verschwindet, die zwei gleiche Zeilen hat. Diesen Nachweis wollen
wir jetzt fuhren: Wenn A zwei gleiche Zeilen hat, sagen wir die r-te und die
s-te Zeile, dann ist nach Induktionsvoraussetzung
2:( -l)i+j aij det Aij = (-l),,+j aTj det A Tj + (-l)"+j asj det A sj ,
weil alle anderen Summanden nach Induktionsannahme verschwinden, da
die betreffenden Aij zwci gleiche Zeilen haben. Wodurch unterscheiden
sich aber A Tj und Asj? Nun, wenn r und s benachbart sind, dann ist
uberhaupt A Tj = A sj , denn wenn zwei gleiche Zeilen aufeinanderfolgen, so
ist es gleichgultig, ob ich die erste oder die zweite dieser beiden streiche.
140 Kapitel 6: Die Determinante
Liegt zwischen der r-ten und der 8-ten Zeile genau eine andere Zeile, also
Ir - 81 = 2, dann kann man A"j durch eine Zeilenvertauschung in Asj
verwandeln, allgemeiner: Gilt Ir - 81 = t, so kann man A rj durch t - 1
Zeilenvertauschungen in Asj verwandeln. Da nach Induktionsannahme Zei-
lenvertauschung bei (n - 1) x (n - l)-Matrizen zu Vorzeichenwechsel der
Determinante fUhrt, und da wegen der Gleichheit der r-ten und 8-ten Zeile
arj = asj gilt, erhalten wir
(ii) 0
wobei liij fUr i #- j also Null und fiir i = j Eins ist ("Kronecker-
Symbol"). Deshalb tritt in der Summe det En = I : i ( -1 )i+j liij det Enij
iiberhaupt nur ein einziger von Null verschiedener Summand auf, namlich
(-1 )J+j lij j det E njj , und da Enjj = E n - 1 gilt, ist det En = det E n - 1 = 1.
(iii) 0
Da fiir die 1 x 1-Matrizen (a) natiirlich det(a) = a gilt, folgt dureh Entwick-
lung naeh der ersten Spalte fiir 2 x 2-Matrizen die Formel
det (~ ~) = ad - be,
und wenn uns dieses Subtrahieren der iiberkreuz gebildeten Produkte zur Ge-
wohnheit geworden ist, dann reehnen wir aueh die Determinante dreireihiger
Matrizen dureh Entwieklung leieht aus, etwa naeh der erst en Spalte:
veransehaulichen soIL Aber schon fUr 4 x 4-Matrizen ist die rekursive Be-
reehnung der Determinante naeh der Entwicklungsformel kein okonomisehes
Verfahren mehr. Zwar leistet sie gute Dienste bei maneherlei Uberlegungen,
zum Beispiel zeigt man dureh Induktion und Entwicklung naeh der ersten
Spalte sofort das folgende
142 Kapitel 6: Die Determinante
*
o
Urn aber die Determinante einer groBen wohlgefiillten Matrix numerisch aus-
zurechnen, wird man die Entwicklungsformel nicht direkt anwenden, sondern
die Matrix durch elementare ZeilenumJormungen eben in eine obere Drei-
ecksmatrix verwandeln. Aus dem Hilfssatz in 6.1 wissen wir ja, wie sich die
Determinante dabei verhalt, und wir erhalten als Anwendung des Lemmas:
*
o
- a
a it j '.- ji
Man erhalt also At aus A, indem man die Zeilen als Spalten schreibt:
,----------, t
usw.
usw.
Man kann sich die Transposition aber auch als "Spiegelung an der Hauptdia-
gonalen" vorstellen, da jedes Matrixelement aij von seincm Platz (i, j) auf
den Spiegelplatz (j, i) versetzt wird:
144 Kapitel 6: Die Determinante
.,.---------; t
'~:~ '~,,"'W
,, "'"
Fasst man die Matrix A E M(m x n, lK) als lineare Abbildung A: lK n ---+ lK m
auf, so ist die 'Iransponierte eine Abbildung in die Gegenrichtung:
lKn ~lKm ,
weil ja At E M(n x m, lK). Damit hiingt auch zusammen, dass die 'Iranspo-
nierte eines Matrizenprodukts (erst B, dann A):
Mit det A = det At erhiilt man aus der Formel fur die Entwicklung nach
einer Spalte die nach einer Zeile:
Der Unterschied zwischen den Formeln ist mit blof3em Auge kaum zu erken-
nen, er besteht nur darin, dass jetzt uber den Spaltenindex j summiert wird,
wiihrend der Zeilenindex i fest ist: nach der i-ten Zeile wird entwickelt.
Die Zeilenentwicklungsformel
n
detA= L:(-l)i+jaijdetAij
j=l
hat eine gewissc A.hnlichkeit mit der Formel fur die Matrizenmultiplikation.
Urn das genauer sagen zu konnen, definieren wir ~u jeder quadratischen Ma-
trix A eine so genannte komplementare Matrix A wie folgt.
der komplementiiren Matrix A merkt es gar nicht, wenn wir die k-te Zeile
von A irgendwie andern, denn ajk = (-1 )J+k det A kj , und A kj entsteht ja
aus A durch Streichen der k-ten Zeile (und j-ten Spalte). Wenn wir also
in A die k-te Zeile durch die i-te ersetzen und die Determinante der so
entstandenen Matrix A' nach der k-ten Zeile entwickeln, so erhalten wir
n
det A' = L aijajk,
j=1
aber det A' ist Null, weil A' zwei gleiche Zeilen hat! Es gilt also
6.5 DETERMINANTE UND MATRIZENPRODUKT 147
AA = (detA ... )
detA
und daher gilt fur Matrizen A mit nichtverschwindender Determinante
die Inversenformel
-1 1 ~
A = detAA.
Fur zwei- und dreireihige Matrizen ist das auch ein ganz bequemes Verfahren,
A-I explizit zu bcrcchncn.
Insbesondere: 1st ad - be of 0, so gilt
( a
e
b)
d
-1 1
= ad - be
(d-e
Lemma: Eine n x n-Matrix ist genau dann invertierbar, d.h. hat den
Rang n, wenn det A of 0 ist.
BEWEIS: Aus dem definierenden Satz 1 wissen wir schon, daB fUr Matrizcn
mit rgA < n die Determinante verschwindet. Sei also rgA = n. Dann
148 Kapitel 6: Die Determinante
BEWEIS: Wir wollen Satz 4 aus Satz 1 folgern, fast ohne zu rechnen. Dazu
halt en wir B fest und betrachten die Abbildung
Dann ist f linear in den Zeilen von A. Denn wenn ich nur die i-te Zeile von
A andere, dann ruft das in AB ebenfalls nur eine A.nderung der i-ten Zeile
hervor, und bei festgehaltenen ubrigen Zeilen und festgehaltenem B ist
IK n ---+ IKn
(i-te Zeile von A) f-------t (i-te Zeile von AB)
6.6 TEST
(4) Welche der folgenden Aussagen ist fur alle A, B, C E M(n x n, lK) und
A E lK richtig:
D det(A+B) = detA+detB
D det AA = A det A
D det((AB)C) = detAdetBdetC
(5) Die Formcl fur die "Entwicklung der Determinante von A = (aij) nach
der i-ten Zeile" heif3t:
n
D det A = 2: (-l)i+j aij det Aij
i=l
n
D detA= 2: (-l)i+jaijdetAji
j=l
n
D detA = 2: (-l)i+jaij detAij
j=l
150 Kapitel 6: Die Determinante
(6) det (i
D 2 D 4 D 6
(8) det GD ),
),
),
D 0 D ), D ),3
D cos 2cp D 0 D 1
D det A = 1 ==? A = E
D det A = 1 ==? A injektiv als Abbildung OC n --+ OC n
D det A = 1 ==? A surjektiv als Abbildung OC n --+ OC n .
6.7 DETERMINANTE EINES ENDOMORPHISMUS 151
f
V ----+ V
und setzt det f := det A. Dabei tritt aber wieder einmal ein Wohldefiniert-
heitsproblem auf, denn wir mussen uns doch fragen: andere Basis, andere
Matrix - andere Determinante? Diesen Zweifel behebt das folgende Lemma
und ermi::iglicht dadurch erst die Definition der Determinante eines Endomor-
phismus.
lK n -------+ lKn
C
152 Kapitel 6: Die Determinante
V~V
Dass man die Determinante fUr Endomorphismen erklaren kann, ohne dabei
eine Basis besonders auszuzeichnen, ist schon ein Hinweis darauf, dass es auch
einen mehr begriffiichen Zugang zur Determinante gibt, als der hier von uns
begangene, etwas technische Weg uber die Matrizen. Die Determinante ist
"eigentlich" (d.h. in gewissem Sinne) ein Gegenstand der multilinearen Alge-
bra, die Sie erst im zweiten Semester kennenlernen werden. Sie werden dann
ein noch besseres Verstandnis fur den Begriff der Determinante bekommen.
6.8 DIE LEIBNIZSCHE FORMEL 153
Einstweilen wollen wir aber noch eine nutzliche Formel fur die Determinante
von Matrizen kennenlernen.
und urn sie zu verstehen, muss man also wissen, was Sn und was sign( 7) fUr
7 E Sn bedeuten solI. Das erstc ist ganz einfach: Sn bczeichnet die Menge
der bijektiven Abbildungen
{ +1
falls 7 gerade
sign(7) :=
-1 falls 7 ungerade.
Dann ist sign(Id) = + 1, und
sign( iT 07) = sign( iT) • sign( 7),
denn wenn iT und 7 beide gcradc oder beidc ungcradc sind, dann ist iT 0 7
naturlich gerade, und ist nur eines von beiden ungerade, sagen wir iT, so
muss wegen iT = (iT 0 T) 0 7- 1 auch (iT 0 7) ungerade sein, analog fur 7.
154 Kapitel 6: Die Determinante
Diese Uberlegungen sind ja aIle ganz einfach, haben aber auch noch einen
wesentlichen Mangel. Es ist namlich nicht ohne weiteres ersichtlich, ob es
iiberhaupt ungerade Permutationen gibt. ~ Wie? 1st nicht zum Beispiel
eine Nachbarnvertauschung offensichtlich ungerade? ~ 1st schon, aber nicht
offensichtlich. Klarheit schafft erst ein kleiner Trick. Eine Permutation T
wird im Allgemeinen fiir einige Zahlenpaare i < j die Anordnung umkehren:
T(j) < T( i). Wir bezeichnen die Anzahl dieser "Ordnungswidrigkeiten" mit
a(T), also
a(T):= #{(i,j) Ii < j, aber T(j) < T(i)} ,
das Zeichcn # bedeutet "Anzahl". 1st dann (J" eine Nachbarnvertauschung,
so gilt
a((J"OT) =a(T)±l,
denn durch (J" wird entweder eine Ordnungswidrigkeit geschaffen oder eine
aufgehoben. Daraus folgt nun freilich, dass a( T) fUr gerade Permutatio-
nen gerade, fiir ungerade ungerade ist: sign(T) = (_1)a(T) , insbesondere
sind Nachbarnvertauschungen ungerade und ebenso Vertauschungen zweier
nichtbenachbarter Zahlen: liegen namlich r Zahlen zwischen i und j, so ist
die so genannte "Transposition", die nur i und j vertauscht, durch 2r + 1
Nachbarnvertauschungen zu bewirken.
Nun konnen wir die Leibnizformel nicht nur lesen, sondern auch beweisen.
Dazu brauchen wir nur zu zeigen, dass die durch die rcchtc Seite erkliirte
Abbildung M(n x n, K) -+ K die Eigenschaften (i), (ii) und (iii) hat, durch
die nach Satz 1 aus 6.1 die Determinante charakterisiert ist. Ja, wenn wir das
tun, ohne den Determinantenbegriff dabei zu benutzen, so haben wir sogar
einen weiteren Beweis fiir die Existenzaussage in Satz 1 geliefert.
Eigenschaft (i), die Linearitat in den Zeilen, hat offenbar jeder der n!
Summanden, also auch die Summe. Eigenschaft (iii) ist natiirlich auch erfiillt,
denn ist A die Einheitsmatrix, so ist nur ein Summand von Null verschieden,
namlich sign(ld)ol1 ..... 011,11, = 1. Es bleibt also iibrig zu zeigen, dass die
rechte Seite der Leibnizformel verschwindet, sobald der (Zeilen- ) Rang von
A kleiner als n ist. Dazu geniigt es, wie an der analogen Stelle im Beweis
von Satz 1 schon erlautert, dies fill Matrizen A mit zwei gleichen Zeilen zu
beweisen. Seien also die i-te und die j-te Zeile gleich. 1st (J" die i und j
vertauschende Transposition und An die Menge der geraden Permutationen,
so konnen wir die rechte Seite der Leibnizformel als
2:= (sign(T)alT(l)····· anr(n) + sign(T 0 (J")alT<7(l) ..... a n T<7(n))
TEAn
schreiben. Aber alT(u(l)) ..... anT(u(n)) geht aus alT(l) ..... anr(11,) dadurch
hervor, dass man den i-ten Faktor aiT(i) durch aiT(j) und ajT(j) durch ajT(i)
ersetzt. Wegen der Gleichhcit der beiden Zeilen (aik = ajk fiir aIle k) andert
das aber nichts, und die Behauptung folgt aus sign( T 0 (J") = -sign( T) . D
6.10 LITERATURHINWEIS 155
Wie wenig naheliegend es einst gewesen sein muss, die Matrizen als selbstan-
dige mathematische Gegenstande aufzufassen, geht auch aus der uns heute
vielleicht erstaunenden Tatsache hervor, dass die Theorie der Determinan-
ten wesentlich alter als die der Matrizen selbst ist. Die Determinante ist
von Leibniz im Zusammenhang mit der Losbarkeit von linearen Gleichungs-
systemen erstmals definiert worden, namlich in einem Brief an L'Hospital
vom 28. April 1693. Die Bezeichnung "Determinante" wurde erst von GauB
eingefiihrt. (Disquisitiones arithmeticae, 1801).
6.10 LITERATURHINWEIS
6.11 UBUNGEN
AUFGABE 6.1: 1st A E M(n x n, K), so nennt man jede Matrix, die durch
(eventuelles) Weglassen von Zeilen und Spalten entsteht, eine Teilmatrix
von A. Man beweise: Die grosste Zeilenzahl, die bei denjenigen quadra-
tischen Teilmatrizen von A auftritt, deren Determinante nicht verschwindet,
ist gleich dem Rang von A.
Wenn Sie sich den Beweis des Satzes: "Zeilenrang = Spaltenrang" in
Abschnitt 5.2 noch einmal ansehen und an die Beziehung zwischen Rang
und Determinante denken (Lemma in 6.5) werden Sie sicher schnell auf die
Beweisidee kommen.
DIE *-AUFGABE:
AUFGABE 6*: Zwei Basen (VI, ... , V n ) und (v~, ... , v~) eines reellen Vektor-
raumes V heiBen gleichorientieTi, wenn der durch f(Vi) := v;, i = 1, ... , n
festgelegte Automorphismus f : V -+ V positive Determinante hat. Die
Menge aller zu einer fest en Basis (VI,"" V n ) gleichorientierten Basen nennt
man eine Orientierung von V. Jeder n-dimensionale reelle Vektorraum V
mit 1 ::; n < 00 hat genau zwei Orientierungen.
Es hat sich iibrigens als praktisch erwiesen, auch dem nulldimensionalen
Vektorraum V = {O} zwei "Orientierungen" zu geben, indem man die beiden
Zahlen ±1 die beiden "Orientierungen" von {O} nennt. Mit der vorliegenden
Aufgabe hat das aber nichts zu tun.
Einen endlichdimensionalen Vektorraum zu orientieren bedeutet, eine der
beiden Orientierungen auszuwahlen, formaler: ein orientierter Vektorraum
ist ein Paar (V, or), bestehend aus einem n-dimensionalen reellen Vektor-
raum V und einer seiner beiden Orientierungen. Die Basen der gewahlten
Orientierung or heiBen dann positiv orientiert.
In der gegenwartigen Aufgabe geht es urn die Unmoglichkeit, alle k-di-
mensionalen Untervektorraume von V so zu orientieren, dass kein plotzliches
"Umschlagen" der Orientierung vorkommt. Man beweise namlich:
Sei 1 ::; k < n und Vein n-dimensionaler reeller Vektorraum, oBdA
V = Rn. Dann ist es unmoglich, alle k-dimensionalen Untervektorraume
U c V gleichzeitig so zu orientieren, dass jede stetige Abbildung
(VI, ... ,Vk): [0,1]-+ V x ... x V,
welche jedem t E [0,1] ein linear unabhangiges k-tupel (VI(t), ... ,Vk(t))
zuordnet und positiv orientiert startet, auch positiv orientiert bleibt, d.h.
dass (VI (t), ... , Vk (t)) fiir jedes t eine positiv orientierte Basis seiner linearen
Hiille ist, sofern das nur fiir t = 0 gilt.
AUFGABE 6.3P: Diese Aufgabe nimmt Bezug auf den Abschnitt 3.5. Sie sol-
len namlich, nachdem Sie durch den § 6 nun Determinantenkenner geworden
sind, die Eigenschaft (5/1) in 3.5 aus der Definition (5) ableiten und (7) aus
(5/1) folgern.
7. Lineare G leichungssysteme
Wie schon bisher, fassen wir auch hier die Matrix A E M(m x n, lK) als eine
lineare Abbildung A : lKn --+ lK m , x --+ Ax auf. Das Gleichungssystem heiBt
dann Ax = b.
Wir hatten statt Los(A, b) naturlich auch A -1 ({b}) oder, wie bei Urbildern
einelementiger Mengen ublich, einfach A -1 (b) schreiben konnen.
Das Gleichungssystem heiBt losbar, wenn die Losungsmenge nicht leer ist,
das brauche ich wahl nicht erst gewichtig zu verkunden.
Wir wollen nun in einer Reihe von Bemerkungen und Notizen das festhalten,
was wir aufgrund unserer Kenntnisse uber lineare Abbildungen und Matri-
zenrechnung sofort uber lineare Gleichungssysteme sagen konnen, ohne uns
anzustrengen.
a~n ) ( a~l
: = rg :
a mn am 1
BEWEIS: "=;>": Die Spalten von A erzeugen Bild A, ist also bE BildA,
d.h. Ax = b losbar, so liisst sich b aus den Spalten linearkombinieren,
und deshalb andert sich der Spaltenrang von A nicht, wenn man b als
(n + l)-te Spalte hinzufUgt.
"-¢=": Die Spalten der crwcitcrten Matrix (A, b) erzeugen einen Unter-
vcktorraum V c lK m , der sowohl Bild A als auch den Vektor b enthalt.
Aus der Rangbedingung dim V = dim Bild A folgt Bild A = V, also
auch b E BildA. D
160 Kapitel 7: Lineare Gleichungssysteme
Los(A, b)
Xo
Kern A
o
N otiz 1: 1st Xo eine Losung und (VI, ... , V r ) eine Basis von Kern
A, so ist Los(A,b) = {xo + AIVI + ... + Arvr I Ai E OC}. Dabei ist
r = dim Kern A = n - rgA.
In diesem Falle hiingt also die Losbarkeit gar nicht von b ab: Fur jedes b gibt
es genau eine Losung. Das ist aber auch klar: A : OC n -=, OCn ist ja bijektiv und
die Losung nichts anderes als x = A-I b. Mit diesem "Hauptfall", niimlich
det A =I 0, wollen wir uns jetzt niiher beschiiftigen.
7.2 DIE CRAMERSCHE REGEL 161
au) : )
(aln
+ ... + x n ( b:l )
Xl ( :
ani ann bn
schreiben. Wir wollen eine Formel fiir die Unbekannte Xi gewinnen, und
dazu wenden wir nun einen kleinen Trick an. Wir bringen die Spalte b auf
die andere Seite, indem wir sie dort gerade vom i-ten Summanden abziehen.
Dadurch erhalten wir
au) ( Xiali - bl ) ( al n )
Xl ( : + ... + : + ... + Xn : = 0,
~l ~~-~ ~
linear abhangig, die Determinante daher Null. Wegen der Linearitat der De-
terminante in der i-ten Spalte folgt daraus
au
aln) (au
Xi det ( : .: - det .:
ani ann ani
wobei also die zweite Matrix aus A hervorgeht, indem man die i-te Spalte
herausnimmt und b dafiir einsetzt. Somit haben wir:
162 Kapitel 7: Lineare Gleichungssysteme
c: : , ]
Satz: 1st det A i- 0 und Ax = b, so gilt
det
Xi = ------~------~----~~-
dote,', ••••••••• :]
fiiri=l, ... ,n.
Das ist die so genannte Oramersche Regel, eine besonders unpraktische Me-
thode zur Berechnung der Losung linearer Gleiehungssysteme. Diese Cra-
mersche Regel ist aber trotzdem von groBem mathematischen Interesse, weil
sie namlich zeigt, wie die Losung sich verandert, wenn man die "Daten" des
Systems, also A und b andert. Mit Hilfe der Entwicklungsformeln oder der
Leibnizformel fiir die Determinante konnen wir zum Beispiel aus der Cra-
merschen Regel schlieBen, dass sieh bei kleiner A.nderung von (A, b) auch x
nur ein wenig andert (Sie wissen schon, wie man das mit c etc. prazisiert),
eine hochst wiehtige Aussage! Mit anderen Worten: Zur Losung eines expli-
zit vorgegebenen Systems ist die Cramersche Regel zwar nieht sehr geeignet,
aber zum Studium der durch (A, b) f-+ X definierten Abbildung
Nun sollen Sie aber auch DAB Verfahren zur praktischen Losung von linea-
ren Gleichungssystemen kennenlernen, namlich den GauBschen Algorithmus.
Verandert man ein lineares Gleiehungssystem dadurch, dass man zwei Glel-
chungen vertauscht, eine Gleiehung mit A i- 0 multipliziert oder ein Vielfa-
ches einer Gleichung zu einer anderen addiert, so andert sieh die Losungs-
menge nicht: denn offenbar sind die Losungen des alten Systems auch solche
des neuen, und da man die genannten Vorgange durch ebensolche Vorgange
7.3 DER GAUSS'SCHE ALGORITHM US 163
riickgangig machen kann, gilt auch die Umkehrung. Diese Beobachtung liegt
dem Gauf3schen Algorithmus zugrunde. Wir wollen sie so formulieren:
Dann addiert man geeignete Vielfache der ersten Zeile zu den anderen,
urn die Elemente der ersten Spalte, die unterhalb der Hauptdiagonalen
liegen, zu Null zu machen. Damit ist der erste Schritt abgeschlossen.
Nachdem der k-te Schritt abgeschlossen ist (k < n -1), verliiuft der
(k + 1)-te wie folgt:
Durch eventuelle Zeilenvertauschung unter den letzten n - k Zeilen
erreicht man, dass die Stelle (k + 1, k + 1) in der Matrix mit einem von
Null verschiedenen Element besetzt ist. Durch Addition geeigneter Viel-
facher der (k + I)-ten Zeile zu den darunter liegenden, macht man nun
die in der (k + 1)-ten Spalte unterhalb der Hauptdiagonalen stehenden
Elemente zu Null. Damit ist der (k + 1)-te Schritt abgeschlossen.
Nach Abschluss des (n-l)-ten Schrittes hat die Matrix die Gestalt
mit a;i =F 0 fur i = 1, ... , n, und man erhiilt die gesuchte Lasung von
Ax = b, indem man zuerst
1
X n -2 = I (b~_2 - a~_2 n Xn - a~_2 n-l Xn-l)
an - 2 ,n-2 ' ,
usw.
Ein Beispiel, zum Selbstrechnen und Vergleichen: Wir wollen folgendes Glei-
chungssystem lasen
7.3 DER GAUSS'SCHE ALGORITHMUS 165
4
-2
Der GauBsche Algorithmus ergibt:
-1 2 1 -2
3 -8 -2 4
1 0 4 -2
-1 2 1 -2
1. Schritt 0 -2 1 -2
0 2 5 -4
-1 2 1 -2
2. Schritt 0 -2 1 -2
0 0 6 -6
Ergebnis:
1
X3 = "6(-6) =-1
1 1
X2 = - - ( - 2 + 1) = -
2 2
1
Xl = -(-2 + 1 - 2· -) = 2.
2
7.4 TEST
D A E M(m x n, lK), b E lK n
D A E M(m x n, lK), b E lK m
D A E M(m x n,lK), bE lKn oder b E lK m (nicht festgelegt).
D Ax = b fUr alle x E lK n
D Ax = b fur genau ein x E lKn
D Ax = b fur mindestens ein x E lKn.
(6) Sei wieder A E M(n x n,lK), also quadratisch. Welche der folgen-
den Bedingungen ist (oder sind) gleichbedeutend mit der eindeutigen
Losbarkeit von Ax = b:
D dim Kern A = 0 D dim Kern A = n D rgA = n
(8) Bier ist einmal eine etwas kniffiige Frage: Sie erinnern sich doch noch,
dass fUr n x n- Matrizen gilt: dim Kern A + rg A = n? Gut. Sei nun A
eine n x n-Matrix und Ax = b habe zwei linear unabhiingige Losungen.
Dann ist:
D rg A ~ n, der Fall rg A = n kann vorkommen
D rg A ~ n - 1, der Fall rg A = n - 1 kann vorkommen
D rg A ~ n - 2, der Fall rg A = n - 2 kann vorkommen.
(9) Es sei A eine quadratische Matrix, iiber det A werde jedoch nichts vor-
ausgesetzt. Wenn beim GauB-Verfahren zur Losung eines Gleichungssy-
stems Ax = b schon der erste Schritt nicht ausfiihrbar ist, so bedeutet
das
D A=O
D Die erste Zeile von A ist Null
D Die erste Spalte von A ist Null
(10) Was bedeutet es fiir eine n x n-Matrix A mit det A f 0, dass sich das
GauBsche Verfahren ohne eine einzige Zeilenvertauschung durchfiihren
li:isst?
D A ist obere Dreiecksmatrix (Nullen unterhalb der Hauptdiagonale)
D aii f 0 fiir i = 1, ... , n
D Die Hauptabschnittsdeterminanten det( (aij )i,j=l, ... ,T) sind fiir r =
1, ... ,n von Null verschieden.
168 Kapitel 7: Lineare Gleichungssysteme
(A): Man legt sich ein Schema wie fiir den GauBschen Algorithmus an und
beginnt auch tatsachlich mit dem GauBschen Algorithmus, gerade so als ware
A quadratisch und det A i- O. Man fiihrt das Verfahren solange durch wie
moglich.
Dann hat man die erweiterte Matrix (A, b) nach t Schritten in eine Matrix
der Form
a~l b'1
0 *
a~t
0
0 B'
0 b'm
a"11 b"1
0
*
a"rr
0
b"m
mit a{l i- 0, ... , a~r i- O. Naturlich kann dabei auch m~T = 0 oder n~T = 0
sein.
(C): Hicr entscheidet sich nun, ob uberhaupt eine Lasung existiert: Ja, wenn
b~+l = ... = b':n = 0, nein sonst. Nehmen wir also an, das System sei
lasbar. Dann kannen wir die letzten m ~ T Gleichungen einfach weglassen,
die Lasungsmenge andert sich dadurch nicht. Dann bleibt also ein Gleichungs-
system mit einer erweiterten Matrix del' Form
r k
a"11
*
T
o
a"rr
und S = (sij )i=l, ... ,r;j=l, ... ,k eben eine T x k-Matrix ist. Wir schreiben die n
U nbekanntcn dieses Systems als
Wo
o W1,·· .,Wk
1
1
k
o 1
a"11 Y1 b"1
*
o
a"rr Yr b"r
*
o
a"rr Yrj -STj
bestimmen, j = 1, ... , k. Dabei fiingt man natiir lich wie beim Gau£-AIgo-
rithmus mit invertierbarer Matrix jeweils von unten an zu eliminieren, also
y,. := b~/a~r usw. Die W1, ... , Wk liegen dann wirklich im Kern von (T, S) :
OC n -> ocr, sie sind schon im Ansatz linear unabhiingig, und da nach der
7.6 WIEGEN MIT DER KAMERA 171
dadurch in Vektoren
dass wir die Vertauschungen der Koordinaten, die durch die Spaltenvertau-
schungen entstanden sind, wieder riickgiingig machen. Dann ist
Hinweis: Man kann das System natiirlich auch losen, ohne die Spaltenvertau-
schungen dabei vorzunehmen. Das bedeutet aber, dass die Unbekannten, die
wir Yl, ... , Yr und Zl, ... , Zk genannt hatten, bunt durcheinander stehen,
eben in ihrer urspriinglichen Reihenfolge Xl, ... , X n . Statt in der Gestalt
(T, S) ist die Matrix dann in der so genannten Zeilenstufenform.
Stellen Sie sich vor, wir hiitten einen Billardtisch, der aber statt mit griinem
Tuch mit Millimeterpapier ausgelegt ist. Auf3erdem seien mit Tusche zwei
Koordinatenachsen eingezeichnet:
172 Kapitel 7: Lineare Gleichungssysteme
Uber dem Tisch ist eine Kamera montiert, deren Offnungswinkel den gan-
zen Tisch erfasst und die so justiert ist, dass sic die Tischebene scharf abbil-
det.
Die Kamera hat cine feste Verschlussoffnungszeit to, etwa von der GroBen-
ordnung einer Sekunde, die uns aber nicht genau bekannt ist. Es kommt nur
darauf an, dass sic sich nicht von Aufnahme zu Aufnahme andert, sondern im-
mer to ist. Gegeben seien nun cine Anzahl von Billardkugeln K 0, K I, K 2, ... ,
die durch Farbe oder sonstige Markierung auBerlich unterscheidbar seien. Es
durfen auch ruhig kleinere Kugeln sein, dann konnen wir sie besser lokali-
sieren. Die Kugeln mogen die Massen Mo, M I , ... haben. Die Masse Mo sei
bekannt. Aufgabe ist es, mit den beschriebenen Hilfsmitteln die Massen der
anderen Kugeln zu bestimmen. Und zwar: Wir wollen durch StoBexperimente
und mit Hilfe des Impulserhaltungssatzes ("Conservation of Linear Momen-
tum", vergl. Berkeley Physics Course, Chapter 6) Information uber die be-
teiligten Massen erhalten. Mit der Kamera wollen wir die (Richtung und)
Geschwindigkeit der Kugeln vor und nach dem StoB bestimmen. Die Aus-
wertung der Messdaten fuhrt dann auf lineare Gleichungssysteme, uber de-
ren Losbarkeit wir aus "physikalischen Grunden" schon etwas wissen. Es ist
ganz reizvoll, diese physikalischen Grunde mit den entsprechenden mathe-
mat is chen Grunden zu vergleichen und sich iiberhaupt in jedem Augenblick
der Untersuchung zu fragen, ob man die physikalische und die rein mathe-
matische Argumentation noch auseinanderhalten kann!
Wir betrachten einen einfachen Fall: Bestimmung von MI und M2 mittels
zweier Aufnahmen. Wenn sich die Kugeln K o , KI und K2 ohne Einwirkung
auBerer Krafte mit den Geschwindigkciten Vo, VI, V2 bewegen, dann zusam-
menstossen und nach dem StoB die Geschwindigkeiten 'Wo, 'WI, 'W2 haben, so
gilt nach dem Impulserhaltungssatz
Wenn insbesondere KI und K2 vor dem StoB in Ruhe waren, haben wir
7.6 WIEGEN MIT DER KAMERA 173
Nun konnen wir mit unseren Hilfsmitteln zwar Vi und Wi nieht messen, aber
wir konnen die Wegstreeken messen, die die Kugeln in der Zeit to durehlau-
fen. Dazu verfahren wir so: Wir legen Kl und K2 irgendwo auf den Tisch,
etwa an den Nullpunkt des Koordinatensystems. Dann rollen wir Ko auf Kl
zu und wahrend Ko ront, maehen wir die erste Aufnahme und naeh dem
StaB die zweite.
CD
Dann konnen wir die Vektoren voto, Wl to, W2tO und woto E ]R2 em ablesen.
Naeh dem Impulserhaltungssatz gilt aueh (multipliziere (*) mit to):
Wir fiihren nun folgende Bezeichnungen fiir die Daten und Messwerte ein:
Mi = Xi gm
WitO = (ali em, a2i em)
Mo(voto - woto) = (b l gm . em, b2 gm . em).
allxl + a12x2 = bl
a2lXI + a22X2 = b2 ,
also ein lineares Gleichungssystem fur die Unbekannten Xl und X2. Aus
physikalischen Grunden wissen wir naturlich von vornherein, dass das Glei-
chungssystem losbar sein muss, wir wissen ja sogar, dass es eine Losung mit
Xl > 0, X2 > 0 haben muss . Bitte beachten Sie, dass es sich dabei urn ein
echt physikalisches Argument handelt (Anwendbarkeit des Impulserhaltungs-
satzes in der vorliegenden Situation), auf mathematischem Wege konnen wir
naturlich uber die Losbarkeit des Gleichungssystems erst entscheiden, wenn
wir
wissen.
Aus mathematischen Grunden konnen wir jedoch sagen, dass das System
eindeutig losbar genau dann ist, wenn die Vektoren wlto und W2tO (das
sind ja die Spalten der Koeffizientenmatrix) linear unabhangig sind, d.h.
nicht in die gleiche oder in einander entgegengesetzte Richtungen zeigen. Der
StoB muss also so ausgefuhrt werden, dass KI und K2 nach verschiedenen
Richtungen fiiegen, sonst konnen wir MI und M2 nicht eindeutig bestimmen.
Insbesondere darf nicht eine Kugel einfach liegenbleiben, denn dann ware
eine Spalte Null, also rgA < 2, also das Gleichungssystem nicht eindeutig
losbar: aus mathematischen Grunden. Physikalisch ist es naturlich auch klar,
dass man uber die Masse einer Kugel nichts herausbekommt, wenn diese
Kugel ganz ruhig an einer Stelle liegt und dabei zweimal fotografiert wird!
Uberlegen Sie doch einmal, warum diesc so offenbar richtige physikalische
Aussage kein logisch einwandfreier Beweis fur die nichteindeutige Losbarkeit
des Gleichungssystems in einem solchen Falle ist. - ?!
Zum Schluss mochte ich Ihnen nun die Frage vorlegen: Welches ist
die kleinste Zahl von StoBexperimenten der oben beschriebenen Art, die
man braucht, urn bei gunstigem Ausgang dieser Experimente ein eindeutig
losbares lineares Gleichungssystem fur die Massen von KI, ... , Kn aufstellen
zu konnen? Nach dem oben Gesagten ist es klar, dass ~ StoBexperimente
genugen konnen, wenn n gerade ist, und nt
l StoBexperimente wenn n
ungerade ist: man braucht dafur die Massen nur immer fUr je zwei Kugeln
zu bestimmen. Aber wenn Experimente mit mehreren Kugeln auf einmal
7.8 LITERATURHINWEIS 175
7.8 LITERATURHINWEIS
Mit Hilfe des GauBschen Verfahrens kannen Sie jedes vorgegebene Glei-
chungssystem numerisch lasen - im Prinzip, so wie jemand im Prinzip Kla-
vierspielen kann, der weiB, welche Taste fiir welche Note angeschlagen werden
muss . In Wirklichkeit sind mit der numerischen Lasung von graBen linea-
ren Gleichungssystemen, wie sie in den Anwendungen vorkommen, schwierige
Prableme verbunden. Es gibt eine ausgedehnte Literatur uber dieses Gebiet
und standig erscheinen neue Forschungsarbeiten.
Urn einen erst en Eindruck von der n'umerischen linear en Algebra zu be-
kommen, soIl ten Sie schon einmal das zweibandige deutschsprachige Stan-
dardwerk [23] von Zurmuhl und Falk zur Hand nehmen. Keine Angst, Sie
176 Kapitel 7: Lineare Gleichungssysteme
sollen es ja jetzt nicht durcharbeiten. Vergessen Sie, dass Sie ein Anfiinger
sind, schlagen Sie einfach den zweiten Band vorne auf und lesen ein paar
Seiten. Der Text wird Sie sogleich in seinen Bann schlagen. Schauen Sie sich
auch an, wovon der erste Band handelt. Wenn Sie die Bande dann wieder
zuruckstellen, wird Ihnen deutlich geworden sein, dass man die theoretischen
Grundtatsachen, welche die Erstsemestervorlesung uber lineare Algebra bie-
tet, fur die Numerik selbstverstandlich kennen muss, dass zum erfolgreichen
professionellen Rechnen aber noch viel mehr gehort, und Sie werden den
Vorlesungen uber numerische Mathematik mit Erwartung entgegensehen.
7.9 UBUNGEN
Xl + 2X2 + 3X3 = 1
4Xl + 5X2 + 6X3 = 2
7Xl + 8X2 + 9X3 = 3
5Xl + 7X2 + 9X3 = 4
AUFGABE 7.2: Man fuhre fUr das folgende reelle Gleichungssystem den
GauJ3schen Algorithmus durch, entscheide dabei ob das Gleichungssystem
losbar ist und bestimme gegebenenfalls die Losungsmenge:
Xl X2 + 2X3 3X4 7
4Xl + 3X3 + X4 9
2Xl 5X2 + X3 -2
3Xl X2 X3 + 2X4 -2
DIE *-AUFGABE:
AUFGABE 7*: Zwei Korper lK, lK' nennt man isomorph (geschrieben lK ~ lK'),
wenn es einen "Korperisomorphismus" f: lK --+ lK' gibt, d.h. eine bijektive
Abbildung mit f(x + y) = f(x) + f(y) und f(xy) = f(x)f(y) fiir alle
x, y E lK. Man beweise: Hat ein lineares Gleichungssystem mit Koeffizienten
in dem Korper lK genau drei Losungen, so ist lK ~ IF 3 .
( . , . ) : lR n x lR n --+ lR
AUFGABE 7.3P: Man gebe die (mathematischen) Griinde an, aus denen
eine Massenbestimmung nach dem im Absc:hnitt 7.6 gesc:hilderten Verfah-
ren unmoglic:h ist, wenn keine einzige der Massen (auc:h Mo nicht) vorher
bekannt ist.
8. Euklidische Vektorraume
8.1 SKALARPRODUKTE
Wenn man geometrische Probleme studieren will, bei denen auch Langen
oder Winkel eine Rolle spielen, dann reichen die Vektorraumdaten nicht mehr
aus, man muss den Vektorraum mit einer "Zusatzstruktur" versehen. Die
Zusatzstruktur, die man fiir die metrische (oder "euklidische") Geometrie im
reellen Vektorraum braucht, ist das Skalarprodukt, womit nicht die skalare
Multiplikation lR x V ---> V gemeint ist, sondern eine neu zu definierende Art
von Verkniipfung V x V ---> lR, namlich:
Wir sprechen natiirlich ohne wei teres von einem "euklidischen Vektorraum
V" -- Doppelbedeutung von V, genau so wie wir schon immer kurz V statt
(V, +, . ) schreiben.
Urn aber auch ein ganz anderes Beispiel zu nennen: im reellen Vektorraum
V der stetigen Funktionen von [~1, 1] nach lR ist z.E. durch
J
1
(1,g):= f(x)g(x)dx
-1
ein Skalarprodukt definiert. -- Man kann ubrigens fur jeden reellen Vektor-
raum ein Skalarprodukt einfuhren. Man darf sich jedoch nicht vorstellen, zu
jedem Vektorraum gi:ibe es nur ein ganz bestimmtes Skalarprodukt: Auch fiir
180 Kapitel 8: Euklidische Vektorraume
Satz 2: 1st Vein euklidischer Vektorraum, so hat die Norm II··II:V ----> R
folgende Eigenschaften:
(i) Ilxll;;; 0 fur alle x
(ii) Ilxll = 0 ~ x = 0
(iii) IIAxl1 = IAI . Ilxll fur alle x E V, A E R
(iv) Ilx + yll ~ Ilxll + Ilyll fUr alle x, y E V.
Man nennt (iv) die Dreieeksungleiehung.
Beweis: (i)-(iii) ergeben sich unmittelbar aus der Definition. Zur Drei-
ecksungleichung:
(11xll + Ilyll)2 = IIxl1 2+ 211xlillyll + IIyl12
;;; IIxl1 2+ 2(x, y) + IIyl12 = Ilx + Yl12
wegen der Cauchy-Schwarzschen Ungleichung. Also haben wir
Ilxll + Ilyll ;;; Ilx + YII· 0
a~
Sind a, b, e E V, so betrachtet man
Iia-bll, Ila-ell und lib-eli als die Sei-
tenliingen des Dreiecks mit den Ecken
e
a , b, e, und die Dreiecksungleichung,
angewandt auf x = a - b, y = b - e
besagt dann Iia - ell ~ Iia - bll + lib - ell, d.h. die Liinge einer Dreiecksseite
ist kleiner oder gleich der Summe der Langen der beiden anderen Dreiecks-
seiten. - Man beachte dabei, dass die Aussage, die Lange der Strecke von
a nach b sei Iia - bll, kein Satz, sondern eine Definition ist.
Nach Definition von a(v, w) bedeutet (v, w) = 0 fUr von Null verschie-
dene Vektoren, dass der Offnungswinkel 90 0 ist. - Die Bezeichnung "or-
thogonal" ist auf viele im Zusammenhang mit euklidischen Vektorriiumen
stehende Begriffe anwendbar (z.B. "orthogonales Komplement", "Ortho-
gonalprojektion", "orthogonale Transformationen", "orthogonale Matrix",
s.u.). Ganz allgemein und vage gesprochen, bedeutet Orthogonalitiit die
"Vertriiglichkeit" mit dem Skalarprodukt. Naturlich mussen wir unbescha-
det einer solchen vagen allgemeinen Erkliirung die Bedeutung des Beiwortes
"orthogonal" fur jeden einzelnen Begriff erst noch exakt definieren.
BEWEIS: Dass sich v auf hochstens eine Weise als Summe v = U + w mit
U E U und w E U ~ schreiben lasst, ergibt sich aus der positiven Definit-
heit des Skalarprodukts, denn aus v = U + w = u' + w' mit u, u' E U und
w,w' E U~ folgte (u - u') + (w - w') = 0 und (u - u',w - w') = 0, also
(u - u',u - u') = 0 und daher u - u' = 0 und somit auch w - w' = o.
Das gilt fiir jeden Untervektorraum U von V, ware er auch nicht von einem
endlichen Orthonormalsystem erzeugt. Diese Voraussetzung benutzen wir
jedoch jetzt beim Existenzbeweis. In der Formulierung des Lemmas ist ja
schon ausgesprochen, wie man u definieren solI. Aber selbst wenn wir das
nicht wiissten, so wiirden wir doch den Ansatz u = C1 V1 + ... + CrV r ma-
chen k6nnen und nachrechnen, fiir welche Koeffizienten C1, ... ,Cr der Vektor
w := v - u E U~ ist, namlich genau dann, wenn (w, Vi) = 0 fiir i = 1, ... , r
gilt, d.h. wenn (v, Vi) - (u, Vi) = 0, also wenn (v, Vi) = Ci ist. D
In dies en drei Lemmas war das Orthonormalsystem immer als gegeben vor-
ausgesetzt. Wo aber bekommt man Orthonormalsysteme her? Dafiir gibt es
zum Beispiel das so genannte Erhard Schmidtsche OTthonormalisierungsver-
8.2 ORTHOGONALE VEKTOREN 185
jahren, mit dem man ein beliebiges linear unabhangiges T-tupel von Vektoren
VI, ... ,Vr sukzessive so in ein Orthonormalsystem VI, ... ,Vr verwandelt, dass
jeweils die erst en k Vektoren beider Systeme denselben Raum aufspannen:
Uk := L(Vl, ... , Vk) = L(Vl, ... , Vk)
fiir k = 1, ... , T. Natiirlieh fangt man damit an, dass man den ersten Vektor
VI einfaeh "normiert", d.h. VI := vdllVll1 setzt. Es geniigt aber nicht, die
Vi alle zu normieren, denn dann hatten sie zwar die Lange 1, stiinden aber
noeh nicht senkreeht aufeinander. Vielmehr miissen wir vor dem Normieren
den Vektor Vk+l gemaJ3 obigem Lemma 3 dureh seinen auf Uk senkreeht
stehenden Anteil Wk+l E ut ersetzen. Naeh Induktionsannahme ist ja Uk
von dem Orthonormalsystem (VI' ... ' Vk) aufgespannt, und Lemma 3 liefert
uns deshalb die konkrete Reehenformel
k
Wk+l := Vk+l - 2: (Vk+l, Vi)Vi
i=1
fiir einen Vektor, der senkreeht auf Uk steht und zusammen mit VI, ... , vk
den Raum Uk+l aufspannt, den wir also nur noeh zu normieren brauehen,
urn das gesuehte Vk+l zu erhalten:
\\\ \\ \
\\\0\\\
U
U~
und die dadurch gegebene lineare Abbildung P u : V --+ U hat offenbar die
gewiinschten Eigenschaften, 0
Notiz: Eine orthogonale Abbildung ist stets injektiv, denn aus v EKern f
folgt (0,0) = (v, v), also v = O. Insbesondere sind orthogonale Endomor-
phismen endlichdimensionaler euklidischer Raume stets Automorphismen.D
Dabei haben wir wieder einmal benutzt, dass injektive Endomorphismen end-
lichdiemnsionaler Raume nach der Dimensionsformel
BEWEIS: 1st f orthogonal, so ist (f(Vi), f(vj)) = (Vi, Vj) = 6ij . 1st um-
gekehrt (f(Vi), f(vj)) = 6ij vorausgesetzt, so folgt fUr V := ~AiVi und
w := ~P,jVj E V, dass (f(v),J(w)) = (f(~AiV;), f(~p,jvj)) = (~Ad(Vi)'
~p,jf(vj)) = ~i~jAiP,Aj = ~i~jAiP,j(Vi' Vj) = (~AiVi' ~P,jVj) = (v, w). D
Wenn wir die Spalten von A mit 81, ... ,8 n bezeichnen, dann sind die 8i die
Zeilen von At und das Element von At A in der i-ten Zeile und j- ten Spalte
ist deshalb (8i' 8j):
A'A DDIJ 0
Mittels unserer Kenntnisse iiber invertierbare Matrizen konnen wir daraus
sofort einige Folgerungen ziehen:
8.4 GRUPPEN
Definiton: Eine Gruppe ist ein Paar (G,'), bestehend aus einer
Menge G und einer Abbildung
·:GxG------+G
(a, b) t--------7 ab ,
so dass die folgenden drei Axiome erfiillt sind:
190 Kapitel 8: Euklidische Vektorraume
Beachten Sie, dass ein voranzustellendes "Axiom (0): Mit a, bEG ist auch
ab E G" nur deshalb iiberfliissig ist, weil es in der Angabe, die Verkniipfung
"." sei eine Abbildung von G x G nach G, ja schon enthalten ist. Wenn
man aber, wie haufig vorkommt, von einer Verkniipfung ausgeht, die defi-
nitionsgemaB eigentlich in eine groBere, G nur enthaltende Menge fiihrt, so
muss man (0) erst noch nachpriifen. Nehmen Sie als Beispiel die Menge
G = {x E lR I ~ < x < 2} mit der Multiplikation reeller Zahlen als Ver-
kniipfung. Die Axiome (1), (2) und (3) waren schon erfiillt, aber trotz-
dem ist (G, . ) keine Gruppe, weil die Verkniipfung gar nieht "in G" bleibt:
3/2·3/2=9/4>2.
Beispiele:
Beispiel 1: (2, +) ist eine abelsche Gruppe.
Beispiel 2: (lFt, +) ist eine abelsche Gruppe.
Beispiel 3: (lFt" {O}, . ) ist eine abelsche Gruppe.
Beispiel 4: 1st (lK, +, . ) ein Korper, so ist (lK, +) eine abelsche Gruppe.
Beispiel 5: 1st (lK, +, .) ein Korper, so ist (lK" {O}, .) eine abelsche
Gruppe.
Beispiel 6: 1st (V, +, .) ein Vektorraum liber lK, so ist (V, +) eine
abelsche Gruppe.
Beispiel 7: 1st Meine Menge, Bij (M) die Menge der bijektiven Abbil-
dungen 1 : M --+ M und 0 das Zeichen fUr die Zusammensetzung von
Abbildungen, so ist (Bij(M), 0) eine Gruppe. Das neutrale Element ist
die Identitiit.
Sehr hiiufig werden Ihnen Gruppen begegnen, bei denen die Elemente gewisse
bijektive Abbildungen einer Menge M und die Gruppenverknlipfung die Zu-
sammensetzung dieser Abbildungen sind; "Untergruppen" von Bij(M) , ge-
wissermai3en, wie in den folgenden Beispielen 8-10.
8.5 TEST
(1) Ein Skalarprodukt auf einem reeilen Vektorraum ist eine Abbildung
D , :VxV---+lR
D , :V---+VxV
D , :lRxV---+V
(3) Welche der folgenden drei Aussagen ist (oder sind) ric:htig
D 1st (. , .) : lR n x lR n ---+ lR ein Skalarprodukt auf dem reeilen Vek-
torraum lRn, so ist (x, y) = X1Yl + ... + XnYn fUr aile x, Y E lRn.
D Dafiir, dass eine Abbildung ( . , . ) : lR n x lR n ---+ lR ein Skalarprodukt
auf dem lR n definiert, ist (ei, ej) = (5ij eine zwar notwendige, aber
nic:ht hinreichende Bedingung.
D Definiert man (x, y) := X1Yl + ... + XnYn fiir aile x, Y E lRn, so ist
dadurch ein Skalarprodukt auf lR n erkliirt.
D D ( 1 -1)
-1 1
D
(9) Welches ist eine korrekte Begrundung dafur, dass (N, +) keine Gruppe
ist
D Fur naturliehe Zahlen gilt n + m = m + n, das ist aber keines der
Gruppenaxiome, also ist (N, +) keine Gruppe
D Die Verknupfung N x N --+ N, (n, m) f-+ n + mist gar nieht fur
alle ganzen Zahlen definiert, weil die negativen Zahlen nicht zu N
gehoren. Daher ist (N, +) keine Gruppe.
D Das dritte Gruppenaxiom (Existenz des Inversen) ist verletzt, denn
z.E. zu 1 E N gibt es kein n E N mit 1 +n = O. Deshalb ist (N, +)
keine Gruppe.
8.6 LITERATURHINWEIS
Wenn es die Umstiinde erlauben, wenn niimlieh der Dozent nieht dureh
miiehtige Servieeforderungen oder dureh eine Studienordnung in seiner Be-
wegungsfreiheit eingesehriinkt ist, dann wird er die Vorlesung uber lineare
Algebra gerne so gestalten, wie es dem rasehen Zusehreiten auf ein besonde-
res Ziel, das er mit seinen Studenten erreichen moehte, am dienliehsten ist.
194 Kapitel 8: Euklidische Vektorraume
8.7 UBUNGEN
(Dass hierdurch tatsachlich ein Skalarprodukt gegeben ist, ist nicht Gegen-
stand der Aufgabe, sondern werde angenommen). Man berechne die Cosinus
der Offnungswinkel zwischen den kanonischen Einheitsvektoren des R3.
8.7 UBUNGEN 195
DREI *-AUFGABEN:
(X,Y I := ~ XnYn
D --2- fiir alle x, Y E V
n=l n
AUFGABE 8.3*: Sei Meine Menge. Man zeige: 1st (Bij(M),o) abelsch, so
hat M weniger als drei Elemente.
von !R.4 , wobei !R.4 mit dem iiblichen Skalarprodukt versehen sei.
196 Kapitel 8: Euklidische Vektorraume
(a) Sind r.p : JR. --> V und 1/J : JR. --> V differenzierbare Abbildungen, so ist
auch (r.p,1/J): JR. --> JR., t f-+ (r.p(t),1/J(t)) differenzierbar und es gilt
d .
dt (r.p(t) , 1/J(t)) = (cp(t), 1/)(t)) + (r.p(t) , 1/)(t))
(b) 1st r.p : JR. --> V differenzierbar und gibt es ein emit 1Ir.p(t) II = c fiir alle
t E JR., so ist r.p(t) -1 cp(t) fUr alle t E JR..
A
lK n -------7 lKn
ist ein kommutatives Diagramm. Die i-te Spalte Aei (die Spalten sind
ja die Bilder der Einheitsvektoren) hat aber genau dann die fragliche
Gestalt, wenn Aei = Aiei gilt, was durch <I> in die gleichbedeutende
Bedingung f(Vi) = AiVi ubersetzt wird: <I> 0 A = f 0 <I> (Diagramm!),
daher Aei = Aiei ~ <I>(Aei) = <I>(Aiei) ~ f(<I>(ei)) = Ai<I>(ei). D
Eine Basis aus Eigenvektoren mochten wir wohl gerne haben, weil der Ope-
rator f darin so einfach - nicht nur aussieht, sondern wirklich - ist. Aller-
dings gibt es nicht fur jeden Endomorphismus eine Basis aus Eigenvektoren.
Hier sind drei ziemlich typische Beispiele, lK := JR und V := JR 2 :
Die Spiegelung hat eine Basis (VI, V2) aus Eigenvektoren, die Eigenwerte
sind Al = 1 und A2 = -1, in dieser Basis nimmt die zugehorige Matrix
die Diagonalgestalt (+1 -1) an. Die Drehung urn einen Winkel O<tp<7f
besitzt offenbar uberhaupt keinen Eigenvektor, geschweige eine Basis aus
9.1 EIGENWERTE UND EIGENVEKTOREN 199
Eigenvektoren. Bei der Scherung sind nUl' die Vektoren (i- 0) der x -Achse
Eigenvektoren (zum Eigenwert A = 1), alle anderen "scheren aus", es gibt
also keine Basis aus Eigenvektoren.
Lemma: Sind VI, ... ,Vr Eigenvektoren zu Eigenwerten Al ... ,Ar von
f, und gilt Ai i- Aj fiir i i- j , so ist (VI, ... , Vr ) linear unabhiingig.
Beweis: 1st
so sind nach dem Lemma die ~~~1 a~i)v~i) E EAi gleich Null und weil
(vii), ... ,v~il) linear unabhangig ist, verschwinden also die Koeffizien-
ten a~i). Durch Aneinanderreihung von Basen der Eigenraume entsteht
also, wie behauptet, ein linear unabhangiges (nl + ... + nr )-tupel von
9.2 DAS CHARAKTERISTISCHE POLYNOM 201
Eigenvektoren und daher, falls nl + .. ·+n r = n ist, sogar eine Basis aus
Eigenvektoren. - 1st nun umgekehrt f als diagonalisierbar vorausge-
setzt und bezeichnet mi die Anzahl der Eigenvektoren zum Eigenwert
Ai in einer Basis aus Eigenvektoren, so ist offenbar mi :S ni, also
n = ml+ ... + mr :S nl + ... + nr :S n,
woraus wie behauptet nl + ... + nr = n und nebenbei auch noch
mi = ni folgt. 0
Wir sehen nun schon in groben Zugen, wie man zur Auffindung einer Basis
aus Eigenwerten wird vorgehcn mussen: In einem erst en Schritt suche man
alle A ElK, fur die f - AId nicht injektiv ist - das sind die Eigenwerte. In
einem zweiten Schritt bestimme man fur jeden dieser Eigenwerte AI, .. . , Ar
eine Basis des Eigenraumes Kern(f - Aild). Die Aneinanderreihung dieser
Basen ergibt dann, wenn f uberhaupt diagonalisierbar ist, die gesuchte Basis
von V aus Eigenvektoren von f.
Es sei wieder Vein n-dimensionaler Vektorraum uber lK. Wie stellen wir
praktisch fest, fUr welche A E lK der Endomorphismus f - AId: V -+ V
nicht injektiv, A also ein Eigenwert ist? Aus der Dimensionsformel fur linearc
Abbildungen wissen wir, dass Rang und Kerndimension sich zu n erganzen,
also hat f - A Id genau daIm einen nichttrivialen Kern, wenn rg(f - AId) < n
ist, und das ist bekanntlich genau dann der Fall, wenn die Determinante von
f - AId verschwindet:
Zum Ausrechnen der Determinante wiihlt man hilfsweise irgend eine Basis
von V und betrachtet die zu f gehorige n x n-Matrix A:
f
V --------+ V
A
lK n --------+ lK n
1st, wie so oft, schon von vornherein V = lK n , so ist dieser Schritt natiirlich
unnotig, weil wir dann ja bei der kanonischen Basis bleiben konnen, beziiglich
der f bereits als eine Matrix A vorliegt. Die Matrix von f - AId ist dann
A - AE, wenn E die Einheitsmatrix bezeichnet. Man erhiilt also A - AE aus
A, indem man von allen Hauptdiagonalelementen A abzieht, und so ergibt
sich nach der Definition der Determinante fUr Endomorphismen (vergl. 6.7)
fiir geeignete Co, ... ,Cn E: lK, das folgt sofort durch Induktion nach n mittels
der Entwicklungsformel fiir die Determinante: der Induktionsbeginn (n = 1)
9.2 DAS CHARAKTERISTISCHE POLYNOM 203
ist trivial, und entwickeln wir det(A - >'B) etwa nach der ersten Spalte, so
ist ja der i-te Summand gerade
(-1)i+1(ai1- >.b i1 )det(A;1 - >.Bil )
(vergl. die Entwicklungsformel in 6.1), und auf det(A i1 - >.Bi1 ) ki::innen wir
die Induktionsannahme anwenden. - Es bleibt also nur ubrig zu bewei-
sen, dass wir im Speziaifall B := E, mit dem wir ja laut Notiz 2 zu tun
haben, C n = (_l)n setzen durfen. Aber auch das folgt nun durch In-
duktion mittels Entwicklung nach der ersten Spalte: der erste Summand
(al1 ->.) det(A l1 ->.El1 ) , wobei also Au und Ell aus A und E durch Strei-
chung der ersten Zeile und Spalte entstehen, ist nach Induktionsannahme von
der Gestalt (-1) n >. n + Terme mit niedrigeren Potenzen von >., wahrend die
anderen Summanden (-1)1+ iai1 det(A i1 ->.Ei1 ) , nach der obigen Vorbemer-
kung uber A - >'B, ebenfalls nur niedrigere Potenzen von >. beitragen, also
ist det(A - >'E) = det(j - >. Id) von der behaupteten Gestalt. D
Von dieser Tatsache werden wir im folgenden § 10 beim Beweis des Satzes von
der Hauptachsentransformation selbstadjungierter Endomorphismen in n-
dimensionalen euklidischen Vektorraumen (insbesondere von symmetrischen
n x n-Matrizen) Gebrauch machen.
9.3 TEST
o Epimorphismus (surjektiv)
o 1somorphismus (bijektiv)
o Endomorphismus (V = W)
sein.
o o o
o PfC>"') = A2 + A + 6
o Pf(A) = A2 - A + 6
o Pf(A) = -A+7
9.4 POLYNOME
1st :oc ein beliebiger Karper und betrachtet man Polynome in einer "Unbe-
stimmten" A als Ausdrucke der Form P(A) := CnAn + ... + CIA + Co, wobei
n 2" 0 und die Ci E :oc sind, so muss man zwischen einem Polynom P(A) und
der dadurch definierten polynomialen Abbildung P : :oc -7 :oc unterscheiden,
und zwar nicht nur aus Pedanterie, sondern weil es wirklich vorkommen kann,
dass Polynome mit unterschiedlichen Koeffizienten Co, ... , Cn und co, ... , cm
dieselbe polynomiale Abbildung ergeben. Hier ein Beispiel: 1st :oc := lF2 =
{O, I} der (schon im Abschnitt 2.5 erwiihnte) Karper aus zwei Elementen, so
definieren die beiden Polynome P(A) := A und P(A) := A2 dieselbe polyno-
miale Abbildung IF 2 -7 IF 2, weil eben 0·0 = 0 und 1·1 = 1 gilt. Daraus kann
man viele weitere Beispiele herstellen, analog fur andere endliche Karper. Fur
Karper mit unendlich vielen Elementen gilt aber das
9.4 POLYNOME 207
Fiir lK = lR oder IC ist Ihnen die Aussage des Lemmas wahrscheinlich aus der
Analysis-Vorlesung schon bekannt. Es gehort aber eigentlich in die Theorie
der linearen Gleichungssysteme. Wiihlt man niimlich n + 1 verschiedene
Elemente A1, ... , An+1 ElK, so bilden die n + 1 Gleichungen
cnA7 + ... + C1Ai + Co = P(Ai),
i = 1, ... , n + 1, ein eindeutig losbares lineares Gleichungssystem fur die
als Unbekannte aufgefassten cn, ... ,co, da die Koeffizientenmatrix des Glei-
chungssystems die von Null verschiedene Determinante
Beweis: P(A + AO) ist offenbar ein Polynom n-ten Grades in A mit
einer N ullstelle bei 0, also von der Form
P(A + AO) = anAn + ... + alA = A' (a n An- 1 + ... + a1).
Setzen wir nun A - AO statt A ein, so folgt
Praktisch wird man aber die Koeffizienten bn - 1 , ... , bo von Q besser nicht
auf diesem Wege, sondern direkt durch Koeffizientenvergleich aus P(A) =
(A - AO)Q(A) oder
CnAn + ... + Co = (A - Ao)(bn _ 1An - 1 + ... + bo)
bestimmen, von oben herunter: bn - 1 = Cn als Beginn der Rekursion, die
dann jeweils mit Ck = bk- 1 - Aob k , also bk-1 = Ck + Aob k weitergeht ("Divi-
sion von P d urch den Linearfaktor (A - AO) " ) .
Hat auch Q eine Nullstelle, so konnen wir auch von Q wieder einen Line-
arfaktor abspalten usw., so lange das eben geht. Aus dem Fundamentalsatz
der Algebra folgt daher, dass man ein komplexes Polynom giinzlich in Line-
arfaktoren zerlegen kann, genauer
und die ffii heiDen nun die algebraischen Vielfachheiten der Eigen-
werte Ai, im Unterschied zu deren geometrischen Vielfachheiten
ni := dim Kern(j - Ai ld) , den Dimensionen der Eigenriiume.
9.4 POLYNOME 209
Es ist stets ni <::; mi, denn wenn man eine Basis eines Eigenraumes, sagen
wir zum Eigenwert AI, zu einer Basis von V erganzt, so hat f bezuglich
diesel' Basis eine Matrix del' Gestalt
Al
Al *
A=
0
*
ist hierfur ein Beispiel: del' (einzige) Eigenwert Al = 1 hat die geometri-
sche Vielfachheit 1 und die algebraische Vielfachheit 2. - Die Summe del'
algebraischen Vielfachheiten ist offenbar del' Grad von Pj, also n. Da wir
schon wissen (vgl. 9.1), dass ein Endomorphismus genau dann diagonalisier-
bar ist, wenn die Summe seiner geometrischen Vielfachheiten n ist, so folgt
aus ni <::; mi naturlich:
9.5 LITERATURHINWEIS
Diesmal mochte ich Ihnen das Buch [11] von Serge Lang empfehlen.-- Das
vorliegende Skriptum umfasst ja nur ein Semester, und als ich seinerzeit die
Vorlesung als Lineare Algebra II fortsetz;te, da habe ich das Buch von Serge
Lang zur Pflichtlekture erklart und alles das in der Vorlesung besprochen,
was nicht schon im ersten Semester, also im Skriptum behandelt worden war.
Das Buch ist sehr schon und klar, und auJ3erdem kann Ihnen die Vertraut-
heit mit diesem Autor noch oft im Studium nUtzlich sein, da er noch eine
Reihe vorzuglicher Lehrbucher aus anderen Gebieten geschrieben hat.
9.6 UBUNGEN
0 0) (0
( o 1) (0 1) (0 1) (0 -1) ( 0 1)
0 ' 1 0 ' 0 0 ' 4 3 ' 1 0 ' -5 4 .
AUFGABE 9.3: Es bezeichne ]FtN den Vektorraum der reellen Folgen (a n )n>l.
Man bestimme Eigenwerte und Eigenraume des durch
ZWEI *-AUFGABEN:
AUFGABE 9.2*: Sei 7r: {l, ... ,n} --+ {l, ... ,n} eine bijektive Abbildung
("Permutation"). Sei f 7r : JRn --+ JRn durch
f7r(Xl, ... , xn) := (X7r(l)' ... ' X7r (n»)
definiert. Man bestimme samtliche Eigenwerte von f7r.
AUFGABE 9.3P: Es sei V der reeIle Vektorraum der unendlich oft differen-
zierbaren Funktionen f: JR --+ JR. Man bestimme aIle Eigenwerte der zweiten
Ableitung
10. Die Hauptachsen-Transformation
Folgt daraus nicht schon die Existenz einer ON-Basis aus Eigenvektoren
durch 1nduktion nach der Dimension des Raumes V? 1st v zuniichst ir-
gend ein Eigenvektor des selbstadjungierten Operators j : V -> V und
dim V = n, so gibt es nach 1nduktionsannahme eine ON-Basis (V1, ... , Vn -1)
aus Eigenvektoren des natiirlich ebenfalls selbstadjungierten Operators
j Iv1. : v1. ---+ v1.,
und wir brauchen nur Vn viii v I zu sctzcn und haben die gewunschte
ON-Basis (V1, ... ,Vn )?
214 Kapitel 10: Die Hauptachsen-Transformation
\
Wir diirften schon so schlieBen, wenn wir nur sicher sein ki:innten, dass es
"irgend einen" Eigenvektor v immer gibt! Das ist nun nicht ebenso trivial wie
die obigen beiden Notizen, aber es ist wahr, und im kommenden Abschnitt
10.2 werden wir es mit beweisen.
Beziiglich einer Basis (VI, ... , V n ) eines Vektorraumes V iiber OC lasst sich
jeder Endomorphismus f : V -+ V, wie wir wissen, durch eine Matrix
A : oc n -+ OCn beschreiben, namlich vermoge des kommutativen Diagramms
f
V -----+ V
A
OC n -----+ OC n
in dem <P := <P(Vl, ... ,V n ) den von uns so genannten Basisisomorphismus be-
zeichnet, der eben die kanonischen Einheitsvektoren ej auf <p( ej) = Vj ab-
bildet. Verfolgen wir ej auf den beiden Wegen von links unten nach rechts
10.2 SYMMETRISCHE MATRIZEN 215
BEWEIS: Wie jeden Vektor kann man auch f(Vj) nach der ON-Basis
entwickeln und erhiilt f(vj) = 2:~=1 (Vi, f(Vj))Vi, woraus sich die Be-
hauptung (gelesen fur festes j als Formel fiir die j-te Spalte) ergibt.
D
Beweis: Wegen aij = (Vi, f(Vj)) ist die Symmetrie jedenfalls notwen-
dig fur die Selbstadjungiertheit. Sie ist aber auch hinreichend, denn
wenn die Selbstadjungiertheitsbedingung fiir die Basisvektoren erfiillt
ist,
was ja eben aji = aij bedeutet, dann auch fur beliebige Vektoren, weil
216 Kapitel 10: Die Hauptachsen-Transformation
Z-
_ (~l)
. .
_ (Xl ~. iYl ) EIC
- .
n
Zn Xn + iYn
mit Az = AZ, also A· (x + iy) = (r +iw)(x +iy), oder, naeh Real- und
Imaginiirteilen sortiert:
Ax = ,x - wy und
Ay=,y+wx.
Freilich wissen wir im Augenbliek nieht, ob uns die Betraehtung die--
ses komplexen Eigenvektors etwas helfen kann oder ob wir nicht schon
liingst vom Thema abgeirrt sind. Aber bisher haben wir die Symme-
trie der Matrix A noeh gar nieht ausgenutzt, und bevor wir die beiden
Vektoren x, y E JRn als unbrauehbar beiseite legen, werden wir doeh
wenigstens einmal hinsehreiben, was uns die Symmetriebedingung
(Ax, y) = (x, Ay)
etwa noeh zu sagen hat, niimlieh
(rx - wy, y) = (x"y + wx)
also
,(x, y) - w(y, y) = ,(x, y) + w(x, x)
oder
Schon in 10.1 hatten wir gesehen, wie aus der Existenz von Eigenvektoren
die Existenz einer Orthonormalbasis aus Eigenvektoren fur selbstadjungierte
Operatoren folgen wurde. Nun, nach bewiesenem Hilfssatz, wollen wir's in
den Haupttext aufnehmen und schrciben
uberfuhrt, worin AI, ... ,AT die verschiedenen Eigenwerte von f sind,
jeder so oft in der Diagonalen aufgefUhrt, wie es seiner geometrischen
Vielfachheit entspricht.
10.3 FUR SELBSTADJUNGIERTE ENDOMORPHISMEN 219
\\\ \ \\
\\\0\\\
220 Kapitel 10: Die Hauptachsen-Transformation
p.- VI V2 .•• Vn
10.4 TEST
(! D n
0 1 0 1 2 0
G D (~
0 3 0 3 4 0
D D D
2 0 3 0 0 4
4 0 4 0 0 3
(8) Gibt es ein Skalarprodukt auf JR.2, in dem die Scherung (~ ~) selbst-
adjungiert ist?
(10) Hat eine symmetrische reelle n x n- Matrix nUT einen Eigenwert )." dann
ist
D A bereits in Diagonalgestalt
D aij = )., fur alle i, j = 1, ... ,n.
D n= 1
10.5 LITERATURHINWEIS
Aueh von R. Walter liegt je ein Band fiir das erste und das zweite Se-
mester vor, [21] und [22]. Hier enthiilt der zweite Band auJ3er analytiseher
Geometrie aueh die z.B. fiir die Vektoranalysis so wiehtige multilineare Al-
gebra.
Das Bueh [15] von Niemeyer und Wermuth, ersehienen in einer Reihe
mit dem Titel Rechnerorientierte Ingenieurmathematik, behandelt, wie die
Autoren im Vorwort formulieren, die grundlegenden Teile der Theorie, sowie
die wichtigsten numerisehen Verfahren der linearen Algebra in einheitliehem
Zusammenhang.
Lineare Algebra und die affine, die euklidisehe, die projektive und die
nichteuklidisehe Geometrie bietet das inhaltsreiehe, niveauvolle Bueh [7] von
W. Klingenberg dar.
Und sehlieJ3lich sei Ihnen das bunte und reichhaltige Bueh [9] von M.
Koeeher empfohlen, mit seinen vielen historisehen Hinweisen und Berichten
und vielen sonst nieht zu findenden interessanten Einzelheiten.
10.6 UBUNGEN
(2 1 1)
trisehe Matrix
A= 1 2-1
1 -1 2
DIE *-AUFGABE:
Urn eine Ubersicht iiber eine groDe und vielleicht komplizierte Gesamtheit
mathematischer Objekte zu erhalten, ist es oft notwendig, gewisse in dem
betreffenden Zusammenhang unwesentliche Eigenschaften dieser Objekte zu
ignorieren und sich dann urn eine Ubersicht dariiber zu bemiihen, wieviele
und welche wesentlich verschiedene Objekte vorkommen. Welche Eigenschaf-
ten man als "wesentlich" und welche man als "unwesentlich" betrachtet,
ist natiirlich weitgehend Willkiir und hangt eben davon ab, welche Art von
Ubersicht man gewinnen mochte. Was solI aber heiDen, einige Eigenschaften
"zu ignorieren"? Und wie formalisiert man die Begriffe "wesentlich gleich"
und "wesentlich verschieden" soweit, dass sie mathematisch praktikabel wer-
den? Gerade diese Formalisierung ist Gegenstand der ersten Definition. Wir
gehen dabei davon aus, dass die zu klassifizierenden Objekte eine Menge M
bilden, eine Menge von Matrizen zum Beispiel oder eine Menge von Teilmen-
gen des ]Rn oder dergleichen.
BEWEIS:
Bemerkung:
(i) UXEM[xl = M.
(ii) [x 1 n [y 1 i= 0 <¢=? x ~ y <¢=? [x 1 = [y 1
Andererseits:
x ~ y => (x~ a -¢==? y ~ a) (Axiome 2,3)
=> [x 1 = [y] (Definition [ .. ]).
Schlicf3lich:
[X]=[Y]=>XE[X]n[y] (Axiom 1)
=>[x]n[y]#0
D
Aus naheliegendem Grund nennt man eine Menge von nichtleeren Teil-
mengen von M, deren je zwei disjunkt sind und deren Vereinigung
ganz Mist, eine Zerlegung von M. Die Menge {[ x] I x E M} der
Aquivalenzklassen ist also z.B. eine solche Zerlegung.
Obwohl natiirlich hiiufig genug M unendlich viele Elemente hat und ~ die
Menge in unendliche viele Aquivalenzklassen "zerlegt", solI man sich ruhig
vorstellen, dass es im Allgemeinen viel weniger Aquivalenzklassen als Ele-
mente in M gibt. Die extreme Situation in dieser Art bietet die triviale
Aquivalenzrelation M x M, d.h. x ~ y fill aIle x, y EM. Dann gibt es
iiberhaupt nur eine Aquivalenzklasse, und das ist M selbst: [x] = M fiir
aIle x EM.
Die Wahl einer Aquivalenzrelation auf ],1 ist die Formalisierung der Wahl
des Gesichtspunktes, unter dem man eine Ubersicht ("Klassifikation") iiber
M gewinnen mochte: x ~ y ist unsere Formalisierung von "x und y sind
im wesentlichen gleich". Wie formalisieren wir nun den "Uberblick" selbst?
11.1 WAS HEISST "KLASSIFIZIEREN"? 229
Nun, so ganz genau mochte ich das lieber nicht formalisieren. "Klas-
sifikation" ist eben kein rigoros definierter Terminus, sondern enthalt et-
was von der sprachlichen Unbestimmtheit des Wortes "Ubersicht". Aber
soviel kann man sagen: Eine Klassifikation von M nach ~ besteht in ei-
nem Verstandnis von M/~ und moglichst auch von 7r : M ----> M/~. Ein
ausfiihrlicher Erklarungsversuch mit Bcispielen folgt.
M/~ ----;;;----> D
kommutativ ist.
230 Kapitel 11: Klassfikation von Matrizen
BEISPIEL: Sei Vein Vektorraum uber lK, und sei lVI die Menge aller end-
lichen Teilmengen von V. Fur X, Y E M werde definiert: X ~ Y :¢=?
Es gibt eine bijektive Abbildung f : X -+ Y. Dann erhalt man eine Klas-
sifikation von M naeh ~ dureh eharakteristisehe Daten, indem man setzt:
D := N und c(X) := Anzahl der in X enthaltenen Elemente.
Darin definieren wir eine Relation ~ dureh (x, U) ~ (y, V) :¢=? Es gibt
einen Isomorphismus 'P von JR2 auf sieh mit 'P(x) = y und 'P(U) = V.
Dann ist dureh ~ eine Aquivalenzrelation auf M gegeben. 1st nun Mo C M
die Menge, die aus den drei Elementen ((O,O),JR x 0), ((l,O),JR x 0) und
( (0, 1), JR x 0) besteht,
.x
x=O o x o
so ist, wie man sich leieht uberlegen kann, 7rIMo : Mo -+ M/~ bijektiv, und
zwar ist
B
OCn ----> OC m
kommutativ ist, d.h. B = Q-I AP gilt.
Basis von BildB, die wir nun zu einer Basis (Wl,"" w m ) von ]Km
erganzen. Analog verfahren wir mit A und erhalten Basen (v~, ... , v~)
und (w~, ... , w;") von ]Kn und ]Km. Seien nun P und Q die Iso-
morphismen, welche die ungestrichenen in die gestrichenen Basen
uberfuhren. Dann gilt Q B = AP fur die Basisvektoren Vl, ... ,Vn und
mithin fur aIle v E ]Kn. 0
Der Rang ist also ein charakteristisches Datum fur die Klassifikation der
m x n-Matrizen bis auf Aquivalenz, und da aIle Range von Null bis zum ma-
ximal moglichen Rang rmax := min(m,n) auch vorkommen konnen, stiftet
der Rang eine Bijektion M(m x n, ]K)/~ ~ {O, ... , rmax}.
Zugleich konnen wir aber auch eine Klassifikation durch Reprasentanten
oder Normalformen, wie man auch sagt, angeben. Wahlen wir zum Beispiel
die m x n-Matrizen von der Gestalt
1
0
1
0 0
nimmt, wie etwa auf die Eigenwerte und das charakteristische Polynom. Viel-
mehr ist der angemessene Aquivalenzbegriff jetzt die so genannte Ahnlichkeit
von Matrizen:
Als Endomorphismus von em hat J m (>\) ersichtlich nur den einen Eigenwert
A, und die Dimension des Eigenraumes ist die kleinste, die ein Eigenraum
uberhaupt haben kann, niimlich Eins. Fur m 2': 2 ist so ein .Jordankiistchen
234 Kapitel 11: Klassfikation von Matrizen
Zum k-ten Eigenwert Ak gehort also eine Blockmatrix, nennen wir sie Bk,
aus nk einzelnen .Tordankiistchen:
Ak 1
.1
Ak
Ak 1 .
1
Ak
Ak 1
1
Ak
11.4 HAUPTACHSENTRANSFORMATION 235
Bl
B2
Br
Orthogonale Ahnlichkeit ist eine Aquivalenzrelation auf Sym(n, lR). Als Ko-
rollar aus dem Satz von der Hauptachsentransformation konnen wir eine
Klassifikation durch Normalformen sofort hinschreiben:
mit A1 ::; ... ::; An orthogonal iihnlich. Dabei sind A1,"" An die
Eigenwerte von A, jeder so oft aufgefiihrt, wie seine geometrische Viel-
fachheit angibt.
Die Eigenwerte mit ihren geometrischen Vielfachheiten bilden also ein cha-
rakteristisches Datum und stiften eine klassifizierende Bijektion
Was haben die quadratischen Formen mit Matrizen zu tun? Nun, ist
( VI, ... , v n ) eine Basis von V und schreiben wir v = Xl VI + ... + Xn Vn ,
so ergibt sich, wiederum wegen der Bilinearitiit und Symmetrie von b, dass
n
q(v) = b(v,v) = b(L,XiVi,L,XjVj) = L, b(Vi,Vj)XiXj
. j i,j=l
kommutativ.
238 Kapitel 11: Klassfikation von Matrizen
Wozu braucht man eigentlich quadratische Formen? Von den vielen Zwek-
ken, denen quadratische Formen in der Mathematik dienen, mochte ich Sie
jetzt nur auf einen aufmerksam machen, der Ihnen sehr bald, niimlich in
der Analysis-Vorlesung des zweiten Semesters begegnen wird. Aus der Diffe-
rentialrechnung in einer Variablen wissen Sie, welche Information die zweite
Ableitung f"(xo) an einer "kritischen" Stelle (f'(xo) = 0) iiber das Ver-
halt en von f nahe Xo enthiilt: 1st f" (xo) > 0 oder f" (xo) < 0, so hat
die Funktion dort ein lokales Minimum bzw. ein lokales Maximum und nur
wenn f//(xo) = 0 ist, bleibt die Frage unentschieden, und man braucht Zu-
satzinformationen aus den hoheren Ableitungen. In der Differentialrechnung
mehrerer Variabler ist das so iihnlich, aber das Taylorpolynom zweiten Gra-
des an einer kritischen Stelle ist nun nicht mehr einfach f(xo) + trf"(XO)E,2
sondern, in n Variablen
also durch den konstanten Term f(xo) und eine quadratische Form mit der
Matrix
1 [Pf
aij := ----(xo)
2 aXiaXj
+1
+1
-1
-1 )
o ...
o
In einer solchen Basis ist die quadratische Form dann durchsichtig genug:
q(Xl Vl xi
+ ... + xnvn) = + ... + x; - X;+l - ... - x;+s·
Betrachten wir nun die quadratischen Formen auf dem lRn. Was bedeutet es
fiir zwei Matrizen A, B E Sym(n, lR), dass sich ihre quadratischen Formen
nur urn einen Isomorphismus des lR n unterscheiden, d.h. dass es eine Trans-
formation P E GL(n, lR) gibt, die QA in QB iiberfiihrt, in dem Sinne, dass
das Diagramm
lR n
pr~
~
lR
~
QB
lR n
a1.: 1
=(Xl,""X n ) (
anl
Wegen QB = QAOP ist B gerade die Matrix von QA beziiglich der Basis, die
aus den Spalten von P besteht. Deshalb erhalten wir aus dem Sylvesterschen
Triigheitssatz das
11.5 DER SYLVESTERSCHE TRAGHEITSSATZ 241
T { [+1. "+1 )
S { ~1
~1
o
o
mit 0 ~ T, S und T +S ~ n aquivalent. ("Sylvestersche Normalform".)
Dazu erinnern wir uns an die in 5.5 schon genannte Beobachtung, dass
sich element are Zeilenumformungen des linken Faktors eines Matrizenpro-
dukts XY auf die Produktmatrix iibertragen, ebenso Spaltenumformungen
des rechten Faktors. AuBerdem gilt natiirlich: Geht P1 durch eine elemen-
tare Spaltenumformung in P2 iiber, so Pi in Pi durch die entsprechende
Zeilenumformung, denn die Transposition vertauscht ja Zeilen und Spalten.
Fiir die Produktmatrix Pi AP1 bedeutet der Ubergang zu PiAP2 also ge-
rade, dass man die Spaltenumformung und die zugehorige Zeilenumformung
beide durchgefiihrt hat. Wir wollen das die Durchfiihrung der entsprechen-
den symmetrischen elementaren Umformung nennen. - Damit haben wir
aIle Ingredienzen fiir das folgende
r {
s {
(+1 .. ·+1
-1
1 =:S,
-1
o
o
so ist dies in der Tat die Sylvestersche N ormalform von A, denn
die aus der Einheitsmatrix E durc:h Anwendung der entsprec:henden
Spaltenumformungen alleine entstehende Matrix P E GL(n, R) leistet
pt AP = S, ihre Spalten bilden also eine Sylvesterbasis fiir A. - 1st
man nicht an P, sondern iiberhaupt nur an r und s interessiert , so
geniigt es ganz einfac:h, A durch elementare symmetrische Umformun-
gen in Diagonalgestalt zu bringen: r und s sind dann die Anzahlen
der positiven und negativen Diagonalelemente.
11.6 TEST 243
11.6 TEST
(1) Welche Eigenschaft(en) einer .Aquivalenzrelation ist (sind) fUr die durch
x ::::; y fiir x, y E lR definierte Relation nicht erfiillt:
(2) Durch "n ~ m :<¢=? n-m ist gerade" ist auf z:: eine .Aquivalenzrelation
erkliirt. Wieviele Elemente hat Z::/~:
D 1 D 2 D unendlich viele
D Ja, wegen B = 2 . A
D Ja, da sie denselben Rang haben
D Nein, da sie verschiedene Eigenwerte haben
(' n
(5) Wie sieht die Jordansche Normalform von A =
3
2 aus?
D
(' 2
2) D
(' ;) (' ;)
0
2 D
1
2
244 Kapitel 11: Klassfikation yon Matrizen
(8) Wie heiBt die Matrix der durch q(x, y, z) = 4x 2 + 6xz - 2yz + 8z 2
gegebenen quadratischen Form q : lR 3 -+ lR ?
(10) Es sei A eine symmetrische reelle 2 x 2-Matrix mit detA < O. Wie
sieht die Sylvestersche Normalform von A aus?
D Das ist aufgrund von det A < 0 alleine noch nicht zu entscheiden,
man braucht mindestens eine weitere Information, da zwei Daten r
und s gesucht sind.
11.7 LITERATURHINWEIS
In diesem letzten Literaturhinweis mochte ich Sie auf ein ganz auJ3ergewohn-
liches und schones Buch aufmerksam machen, namlich auf die zweibandige
Lineare Algebra und analytische Geometrie [2] von E. Brieskorn.
Die beiden Bande behandeln eine Fiille von weiterfiihrenden Themen (mit
Schwerpunkt bei den klassischen Gruppen) und historischen Entwicklungen,
wodurch der Leser auf eine Hohe der Einsicht in die Mathematik gefiihrt wird,
die ihm als Anfanger eigentlich noch gar nicht "zusteht". Dabei vergisst der
Autor keineswegs, dass sein Leser ein Anfanger ist, dem es noch an Kennt-
nissen und Erfahrung mangelt, aber er traut ihm zu, alles was verniinftig
erklart wird, auch verstehen zu konnen.
Wenn Sie, als eine erste Stufe der Bekanntschaft mit diesen Banden,
nur die iiblichen linear-algebraischen Grundbegriffe daraus lernen wollen,
so diirfen Sie die Biicher zwar nicht gleich von Anfang bis Ende systema-
tisch durchzulesen versuchen, denn das Werk ist sehr umfangreich, aber Sie
brauchen nur mittels des Inhaltsverzeichnisses zu wahlen, was Sie wiinschen,
und bekommen auch ganz genau und leichtverstandlich erklart, was Vek-
torraume und lineare Abbildungen sind, wie man mit Matrizen rechnet und
line are Gleichungssysteme lost, was Hauptachsentransformation und Jordan-
sche Normalform bedeuten, usw. Sie bereiten sich damit auch den Zugang
zu dem tieferen Gehalt des Ihnen dann schon vertrauten Werkes vor.
246 Kapitel 11: Klassfikation von Matrizen
11.8 UBUNGEN
AUFGABE 11.1: Der Beweis des Rangsatzes in Abschnitt 11.2 handelt ei-
gentlich vom Spaltenrang und macht keinen Gebrauch von der Uberein-
stimmung von Spaltenrang und Zeilenrang. Man zeige, dass der Rangsatz
diese Ubereinstimmung aber als KoroIlar enthiilt. Hinweis: Die Eigenschaft
(Xy)t = yt X t der Transposition von Matrizen (vergl. die Bemerkung in 6.3)
folgt ohne Bezugnahme auf den Rang direkt aus der Definition der transpo-
nierten Matrix und darf deshalb auch herangezogen werden.
AUFGABE 11.2: In dem Satz in Abschnitt 11.3 liber die Jordansche Nor-
malform ist eine Jordan-Matrix mit Eigenwerten >'1, ... , Ar und Jordan-
Kiistchen der GraBen mi
k ) ::::: ... ::::: m~~ zum Eigenwert Ak explizit angege-
DIE *-AUFGABE:
111
111
111
111
111
TEST 1
1 2 3 4 5 6 7 8 9 10
x x x
x x x
x x x x
(8) Man kann nur auf zweierlei Weise von X nach Y kommen, den Pfei-
len nachgehend. Definition des kommutativen Diagramms auf Seite 12
lesen.
(9) j-I muss ~ f-+ x, also ~ f-+ I/X' also t f-+ t abbilden.
(10) Nicht injektiv, weil z.B. (-1)2 = (+1)2; nicht surjektiv, weil z.B.
-1 -I x 2 fUr alle x E lR. Definition von injektiv und surjektiv auf
Seite 11 nachlesen.
TEST 2
1 2 3 4 5 6 7 8 9 10
x x
x x x
x x x x x
(8) In allen drei Bcispielen ist zwar U f 0, in den ersten beiden auch
AX E U, falls X E U und A E R, aber nur das erste erflillt x + y E U
flir aIle x, y E U.
(9) In der komplexen Ebene C bilden die imaginaren Zahlen iy = (O,y)
die y-Achse, es gilt also jedenfalls nicht U = C. Die dritte Antwort
ware stichhaltig, wenn danach gefragt gewesen ware, ob U ein Unter-
vektorraum des komplexen Vektorraumes C ist.
(10) Jede Gerade durch den Nullpunkt ist auch ein Untervektorraum, nicht
nur die beiden Achsen.
TEST 3
1 2 3 4 5 6 7 8 9 10
x x x
x x x
x x x x
(7) Definition der Basis auf Seite 58 und Aussage tiber das O-tupel 0 auf
Seite 56 kombinieren.
(8) Es ist ja Y E Uz -¢=} -y E U2 , deshalb ware auch U1 - U2 nichts
anderes als die Menge aZZer Summen x + ( -y) aus einem Element von
U 1 und einem von U2 .
(9) Um an einem einfachen Beispiel zu sehen, dass die zweite und dritte
Antwort falsch sind, setze man V = R2 und betrachte als U1 , U2 und
U3 die beiden Achsen und die Winkelhalbierende.
(10) Die Dimensionsformel sagt doch hier dim U1 +dim U2 = n+dim U1 nUz
(Satz 3, S. 64), woraus die dritte Antwort als richtig folgt. Dass die
ersten beiden falsch sind, sieht man schon an dem Beispiel V = U 1 = U2
=R.
TEST 4
1 2 3 4 5 6 7 8 9 10
x x x x
x x x x
x x x
(3) Hier sind einmal zwei Antworten richtig! Die letzte ist natiirlich Unfug,
weil f()..) gar nicht erkliirt ist. f(-x) = -f(x) folgt aus -v = (-l)v
(vergl. S. 31 unten).
(5) Das kann man natiirlich nicht erraten. Vergleiche Definition auf Seite
87.
(7) Wenn wir (x,y) als Spalte schreiben, so haben wir doch
und
also ergibt sich die Matrix (_ i i ). (Die Spalten der Matrix sind
die Bilder der Einheitsvektoren).
(8)
f
Vi f---------+ Wi
~ I I~
(9) Die richtige Antwort ist in Notiz 3 (S. 82) begriindet. Die erste Antwort
hart sich zwar so iihnlich wie in Notiz 5 (S. 88) an, aber dafiir miisste
vorausgesetzt werden, dass V und W dieselbe endliche Dimension ha-
ben.
(10) Die Dimensionsformel fiir Abbildungen sagt's, denn hier ist n = 5 und
rgf = 3.
TEST 5 253
TEST 5
1 2 3 4 5 6 7 8 9 10
x x x x x x
x x x
(2) Vergleiche Testfrage (8) aus § 4: (~1 o~ O~) ist die Matrix der Iden-
(3) Trosten Sie sich, ich muss mir das auch immer erst uberlegen. Vielleicht
kann man es sich so mer ken: der erste Index ist der Zeilenindex, und
dementsprechend gibt in M(m x n, OC) das m die Zeilenzahl an.
(5) Kliirt sich alles auf, wenn ich daran erinnere, was die drei Worte bedeu-
ten? Assoziativitiit: (AB)C = A(BC), Kommutativitiit: AB = BA,
Distributivitiit: A(B + C) = AB + AC und (A + B)C = AC + BC,
jeweils fur alle A, B, C, fur die diese Produkte und Summen erkliirt
sind. Noch nicht? Bemerkung 1 auf Seite 114.
(8) Diese Testfrage ist, im Vergleich zu den anderen, ziemlich schwierig, das
gebe ich zu. Aus BA = E folgt A injektiv und B surjektiv, weil Ax =
Ay ==} BAx = BAy -¢=? x = y, und y = B(Ay). Aber B braucht
nicht injektiv und A nicht surjektiv zu sein, und m > n kann wirklich
vorkommen, Beispiel: Es sei m = 3, n = 2, A(Xl,X2) := (.Tl,X2,X3)
und B(Xl,X2,X3):= (Xl,X2).
TEST 6
1 2 3 4 5 6 7 8 9 10
x x x
x x x
x x x x
(2) det A bleibt bei Zeilenumformungen yom Typ (3) (vergl. Definition
Seite 11 7) unverandert, aber bei Typ (1) andert sich das Vorzeichen,
und bei Typ (2) (Multiplikation einer Zeile mit A '" 0) wird die Deter-
minante mit A multipliziert (vergl. Hilfssatz auf Seite 137). Die erste
und die dritte Aussage sind demnach richtig.
C-U- = 1 . 4 - 2 . (-1) = 6.
n~O
(7) Definition auf Seite 143.
n
(8)
,gG A
A
A
~l=dd GAA
A
TEST 7
1 2 3 4 5 6 7 8 9 10
x x
x x x
x x x x x x
256 Antworten zu den Tests
(1) Die crsten beiden Beispiele sind auch lineare Gleichungssysteme, aber
sehr spezieller Art und nicht in der ublichen Form geschrieben. Ver-
gleiche Seite 158.
(2) A E M(m x n, lK) hat m Zeilen und n Spalten und vermittelt daher
nach der Definition auf Seite 89 eine Abbildung A : lKn ---+ lKm. Also
Ax E lKm fUr x E lKn , anders gehts nicht.
(A,b) ~ C]
linear uberflussig (vergl. Anfang des Beweises von Spaltenrang = Zeilen-
rang, Seite 116) und deshalb rg (A) = rg(A, b), vcrgl. nun Bemerkung
1 auf Seite 159. 1st ubrigens die j-te Spalte von A gleich b, so ist
offenbar x =
(0, ... ,0,1, 0,···, °)
'" j-te Stelle
°
(5) Warum soUte Ax = b immer l6sbar sein? Fur A = °
E M(n x n,lK)
und b -I- z.E. sicher nicht! Auch bei n Gleichungen fUr n Unbekannte
ist Bemerkung 1 auf Seite 159 in Kraft.
(8) Auch fiir dim Kern A = 1 kann Xo + Kern A zwei linear unabhangige
Elemente enthalten:
Kern A Los(A, b)
0: D)
(10) Die erste Bedingung ist nicht notwendig, die zweite weder notwendig
TEST 8
1 2 3 4 5 6 7 8 9 10
x x
x x x x
x x x x
(3) Die erste Antwort zu glauben, ist ein von Anfangern scheinbar gern
gemachter Fehler. Es gibt noch viele andere Skalarprodukte auf IRn
auBer dem durch (x, y) = X1Yl + ... + XnYn gegebenen. Und auch die
zweite Aussage ist falsch, weil diese Bedingung weder notwendig noch
hinreichend ist.
(4) Vergleiche Definition auf Seite 182.
(5) Wegen dim IR2 = 2 ist die dritte Antwort von vornherein falsch. Fur die
erste gilt zwar ((1, -1), (-1, -1)) = 0, aber II (1, -1) II = I (-1, -1) II =
J2 i= 1. Vergleiche Definition auf Seite 182.
(6) AuBer fur die Physiker, die das in § 4 als Ubungsaufgabe gerechnet
haben, ist die Richtigkeit der dritten Antwort nicht so leicht zu sehen.
Sie folgt aus (x,y) = i(llx +y11 2 -llx - YI12). Die zweite Antwort ist
ubrigens auch nicht ganz schlecht. Fur solche Abbildungen gilt stets
f(x) = )..;p(x) fUr alle x E V fur ein geeignetes ).. E IR und eine
geeignete orthogonale Abbildung ;p.
(7) Orthogonale Abbildungen sind stets injektiv (vergleiche Notiz auf Seite
187). Deshalb muss jedenfalls Kern P u = U.L = 0 sein, wenn Pu
orthogonal sein solI. Nach dem Korollar auf Seite 186 ist dann U = V,
und Pv = Id v ist tatsachlich orthogonal.
(8) Notiz auf Seite 188.
(9) Die zweite Antwort ist nicht so falsch wie die erste, denn mit der Abwe-
senheit der negativen Zahlen hat es ja zu tun, dass (N, +) keine Gruppe
ist, aber die Formulierung ist trotzdem nicht akzeptabel, denn der De-
finitionsbereich N x N ware schon gut genug fur eine Gruppe (N, +),
verletzt ist etwas ganz anderes, namlich das Axiom (3).
(10) Eine 2k x 2k-Matrix ist keine k x k-Matrix, deshalb muss die erste Ant-
wort falsch sein. Die dritte ist auch nur ein Scherz, denn zu (-I)2k = 1
kann man hier nur sagen: Na und? SO(2k) i= O(2k), weil z.B.
1
TEST 9 259
TEST 9
1 2 3 4 5 6 7 8 9 10
x x x x
x x x x x x
(1) Wenn f(x) = AX einen Sinn haben solI, miissen X und f(x) aus dem-
selben Vektorraum sein. Vergleiche Definition auf Seite 197.
(2) f(-x) = Ax =? f(-x) = (-A)(-X) und f(x) = (-A)X, also sind x
und -x Eigenvektoren zu -.>...
(3) E>-. = Kern(f - AId) enthiilt nicht nur die Eigenvektoren zu .>.., sondern
0 i) (-n n' n
auch den Nullvektor.
0~ DR'~R'
sierbarkeit, wie das Gegenbeispiel
f~
zeigt.
(8) Erst auf Seite 207 unten haben wir lK auf lR oder IC eingeschriinkt, urn
gewissen Schwierigkeiten mit Polynomen iiber beliebigen Korpern aus
dem Wege zu gehen.
(10) Man rechnet leicht nach: v ist genau dann Eigenvektor von f zum
Eigenwert A, wenn ip-l(V) Eigenvektor von 9 zum Eigenwert A ist.
TEST 10
1 2 3 4 5 6 7 8 9 10
x x x x x
x x x x x
x x
(9) Die zweite Antwort ware richtig, wenn zusiitzlieh noeh vorausgesetzt
ware, dass die Eigenwerte A1, ... , An alle verschieden seien. Sonst ist
aber der dritte Sehritt im Rezept S. 220 nicht iiberfliissig.
TEST 11
1 2 3 4 5 6 7 8 9 10
x x x
x x x x x
x x x
(1) Es gilt x ::;; x fiir alle x, und aus x ::;; y ::;; z folgt x ::; z, aber aus
x ::; y folgt nicht y ::; x: die Symmetrieforderung ist nicht erfiillt.
(2) Es gibt genau zwei A.quivalenzklassen: die eine besteht aus den unge-
raden, die andere aus den geraden Zahlen.
(3) Die zweite Bedingung besagt, dass A und B aquivalent im Sinne der
Definition auf Seite 231 sind, also ist die zweite Antwort naeh dem
Rangsatz riehtig. - Aus der erst en Bedingung wiirde folgen, dass A
und B gleiehes Bild, aus der dritten, dass sie gleichen Kern haben,
beides lasst sieh aus der Gleichheit der Range nieht sehlief3en.
(5) Das charakteristische Polynom von A ist PA(A) = (2 - A)3, also ist
A = 2 der einzige Eigenwert, also kommen nur die drei angegebenen
Matrizen als die Jordanschen Normalformen infrage. Die Dimension
des Eigenraumes Kern(A - 2 . E) ist aber 1, weil
den Rang 2 hat. Das muss auch fUr die Jordansche Normalform gelten,
also ist nur die dritte Antwort richtig.
(9) Es ist in der Tat so, wie die erste Antwort sagt, denn wenn S und
A beide q : V --+ lR beziiglich Basen beschreiben, so gilt ja fiir die
Basisisomorphismen <1>, I}J : lR n ~ V, dass q 0 <I> = qs und q 0 I}J = qA,
woraus qs = qA 0 I}J-l 0 <I> = qA 0 P folgt. Vergl. S. 237.
(10) Ist (AI A2) die Diagonalgestalt von A nach der Hauptachsentrans-
formation, so ist det A = Al . A2, also hat A einen positiven und einen
negativen Eigenwert, woraus T =S= 1 folgt (vergl. S. 241).
Literaturverzeichnis
[17] SCHEJA, G., STORCH, D.: Lehrbuch der Algebra, Teill-3, B.G. Teub-
ner, Stuttgart, 1980 (Teill), 1988 (Teil 2), 1981 (Teil3)
[18] SCHWERDTFEGER, H.: Introduction to Linear Algebra and the Theory
of Matrices, P. Noordhoff N.V., Groningen, 1961
[19] STEINITZ, E.: Bedingt konvergente Reihen und konvexe Systeme, J.
Reine Angew. Math., 143(1913), 128-175
[20] NEUN BUCHER ARITHMETISCHER TECHNIK: Ein chinesisches Rechen-
buch fiir den praktischen Gebrauch aus der friihen Hanzeit (202 v.ChI.
bis 9 n.ChI.), iibersetzt und erliiutert von Kurt Vogel, FriedI. Vieweg
& Sohn, Braunschweig, 1968
[21] WALTER, R.: Einfiihrung in die line are Algebra, 2. Aufiage, Vieweg,
Braunschweig, 1986
[22] WALTER, R.: Lineare Algebra und analytische Geometrie, Vieweg,
Braunschweig, 1985
[23] ZURMUHL, R., FALK, S.: Matrizen und ihre Anwendungen, 5. Aufiage,
Springer, Berlin, 1984 (Teil 1), 1986 (Teil 2)
[24] EBBINGHAUS, H.D., HERMES, H., HIRZEBRUCH, F., KOECHER, M.,
MAINZER, K., NEUKIRCH, J., PRESTEL, A., REMMERT, R.: Zahlen,
2. Aufiage, Grundwissen Mathematik 1, Springer, 1988
Register
Lange 39, 41
leere Menge 2 n-tupel 21
Leibniz'sche Formel 153 naturliche Zahl 2
linear Nebenklasse 99
- abhangig 57 Norm 39,180
- unabhangig 57 Normalform,
- in jeder Zeile 136 Jordansche 234
268 REGISTER