fr Physiker
<kaplan@ma.tum.de>
WS 2010/11
Teil I
Lineare Algebra
Inhaltsverzeichnis
I Lineare Algebra
1 Einleitung
1.1 Worum geht's?
i
1
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Lineare Gleichungssysteme
2.1 2.2 2.3 2.4 2.5 2.6 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lsungsstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3 4 6 6 7 9
3 Nave Mengenlehre
3.1 3.2 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beziehungen zwischen Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
11 11
4 Aussagen
4.1 4.2 4.3 Junktoren und Wahrheitstafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beweistechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
13 14 14
17
17 18 19
21
21 21 23 23
7 Gruppen
7.1 7.2 7.3 7.4 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Symmetrische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gruppen-Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
27 28 29 31
33
33 34
9 Matrizenrechnung
9.1 9.2 9.3 9.4 Gleichheit, Addition, Vielfache, Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einige besondere Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i
37
37 37 39 41
10 Vektorrume
10.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Wichtige Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
43 43 45 47 49 53
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
55 57 59 63 66 68 69
Hom(V, W )
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
71 72 73 76 77 78 79
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
81 82 86 91
13.4 Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14 Bilinearformen
14.1 Matrixdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
99
99
14.2 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 14.3 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 14.4 Denitheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
15 Euklidische Vektorrume
15.2 Norm
105
15.5 Orthogonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 15.6 Orthogonale Unterrume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 15.7 Abstnde von Teilrumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
16 Unitre Vektorrume
16.2 Matrixdarstellung und Basiswechsel 16.3 Hermitesche Formen 16.4 Norm, Metrik, CSU
115
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 ii
17 Normale Endomorphismen
17.2 Orthogonale und unitre Endmorphismen
119
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
17.1 Adjungierte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 17.3 Der Satz von Schur und seine Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 17.4 Normalformen normaler Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
iii
iv
1 Einleitung
Algebra
Analysis
Der zentrale Begri der Analysis ist der Grenzwert. Er erlaubt den bergang von der Sekante zur Tangente, vom Dierenzenquotienten zur Ableitung, von der Summe zum Integral. Darauf baut die Dierential- und Integralrechnung auf. Mit Hilfe von Dierential- oder Integralgleichungen lassen sich Naturvorgnge hervorragend modellieren.
Lineare Algebra
Die lineare Algebra ist, wie der Name bereits sagt, ein Teilgebiet der Algebra . In der Algebra geht es um die grundlegenden Strukturen, wie Gruppen, Ringe und Krper, die Grundrechenarten in diesen Strukturen, und die Ausung der in diesem Zusammenhang entstehenden Gleichungen. In der linearen Algebra betrachtet man vorerst nur den einfachsten Fall linearer Gleichungen, in denen die zu berechnenden Unbestimmten nur linear vorkommen.
Das Studium linearer Gleichungen zeigt, dass deren Lsungsmengen selbst auch wieder mathematische Struktur besitzen, was auf die Begrie Vektorraum fhrt. Die Untersuchung von Vektorrumen und Abbildungen zwischen diesen zeigt, dass diese neuen Begrie weit ber das Lsen von Gleichungssystemen hinaus eine zentrale Bedeutung in vielen mathematischen Disziplinen haben.
Bei vielen Naturgesetzen ist die Linearitt grundlegende Eigenschaft (siehe einleitende Beispiele, erstes bungsblatt etc.) Von Haus aus nichtlineare Probleme werden oft im ersten Schritt linearisiert und knnen so mit Linearer Algebra behandelt werden Viele numerische Verfahren beruhen ebenfalls auf linearer Approximation, lineare Optimierung ist weitgehend eine Anwendung der linearen Algebra Somit ist die Lineare Algebra fr die Physik ein selbstverstndliches Werkzeug zur Mathematisierung der Theorie Whrend in der Schule meist Geometrie sehr aus der Anschauung heraus betrieben wird, wird in der Wissenschaft deduktiv vorgegangen, d.h. die untersuchten Strukturen werden axiomatisch beschrieben und Folgerungen daraus werden untersucht.
Ein Axiom (von griech. aximata=Grundsatz oder Forderung) nennt man eine Aussage, die grundlegend ist und deshalb nicht innerhalb ihres Systems begrndet werden kann bzw. muss. Sie dient als Grundlage fr eine deduktive Theorie und kann deshalb nicht selber durch diese Theorie begrndet werden. Wenn eine Theorie aus begrndeten Stzen bestehen soll, so muss es notwendigerweise solche Axiome geben, denn sonst wrde die Argumentation nie enden: Jeder Satz, den ich zur Begrndung anfhrte, bedrfte wieder einer Begrndung usw. Daher ist ein Axiom etwas ganz anderes als eine Vermutung.
Beispiel 1.1.1.
1
n + 1
Ein Axiomensystem fr eine mathematische Theorie muss widerspruchsfrei sein, d.h. aus ihm darf nicht gleichseitig ein Satz und sein logisches Gegenteil ableitbar sein. Weiterhin muss ein Axiomensystem vollstndig sein, d.h. alle Stze der Theorie mssen aus ihm logisch abzuleiten sein. Aus konomischen Grnden fordert man auerdem meist die Unabhngigkeit von Axiomensystem, d.h. keines der Axiome soll aus den anderen herleitbar sein.
Das Wort
Algebra kommt aus dem Arabischen. Es geht zurck auf ein Werk des Muhammad ibn Musa al-Chwarismi (aus der
Region sdstlich des Kaspischen Meeres, heute Usbekistan), 780 bis ca. 850 n.Chr, der zur Zeit des Kalifen al-Ma'mun (813-833) in Bagdad arbeitete. Er verfasste ein Lehrbuch mit Titel al-jabr wa-lmuqabala (frei bersetzt: Regeln der Wiedereinsetzung und Reduktion). Hier geht es um die Umformung und Lsung von linearen und quadratischen Gleichungen. Das Wort al-jabr (hier als Wiedereinsetzung bersetzt) hat sich bis heute als Algebra erhalten. Aus dem Namen des Autors al-Chwarismi wurde dann brigens unser
2 Lineare Gleichungssysteme
2.1 Grundlagen
Beispiel 2.1.1.
Wasserrohre sind in den Punkten
r1 , . . . , r5
Abbildung 1:
liebig festgelegt).
Verbundene Wasserrohre
r1 , . . . , r5 :
A : r1 + r2 = 20 B : r2 + 10 = r4 r2 r4 = 10 C : r3 + r4 r5 = 0 D : r1 + 20 = r3 r1 r3 = 20
Im vorliegenden Fall wird man wohl recht schnell die Lsung sehen, es stellen sich aber die Fragen,
r1 = 0, r2 = 20, r3 = 20, r4 = 30
und
r1 = 50
wie man diese systematisch berechnen kann, ob es noch mehr (oder auch mal keine) Lsungen gibt und wie die Lsungen solch eines Systems allgemein aussehen. Ein System von Gleichungen der Gestalt
Denition 2.1.2.
+ + +
+ ... + ...
. . .
+ +
a1n xn a2n xn
= =
b1 b2
. . .
(2.1)
+ ...
+ amn xn
= bm
die Koezientstammen
aij
mit
1im
x1 , . . . , xn die zu berechnenden Unbestimmten, 1 j n und die auf der rechten Seite stehenden bi mit 1 i m Krper K . Mit Hilfe des Summenzeichens kann man auch kompakter
und
n
aij xj = bi
j=1
fr
i = 1, . . . , m
schreiben.
Ein Krper ist dabei eine mathematische Struktur, die bentigt wird, um die entsprechenden Rechenoperationen zur Aufstellung und Lsung eines LGS auszufhren. Fr den Anfang sei Man ist an der Lsungsmenge des LGS interessiert, d.h. an
K = R.
L := {(x1 , . . . , xn ) K n
Diese Lsungsmenge kann natrlich auch leer sein.
mit (2.1)} .
Nachdem in vielen Anwendungen solche lineare Gleichungssysteme durchaus auch mal mit hunderten (oder viel mehr) von Variablen und Gleichungen auftreten und man dann solche Arbeiten gerne dem Computer berlsst, muss man also einen eektiven Algorithmus formulieren, um damit noch zurecht zu kommen.
Zur Lsung des LGS nimmt man quivalenzumformungen vor, d.h. Umformungen, die die Lsungsmenge des Systems nicht verndern. Diese erkennt man daran, dass sie sich ohne Informationsverlust wieder vollstndig rckgngig machen lassen 3
Das sind genau die folgenden Umformungen: (i) Vertauschen zweier Gleichungen, (ii) Beidseitige Multiplikation einer Gleichung mit einer Zahl
= 0,
(iii) Addition eines beliebigen Vielfachen einer Gleichung zu einer anderen Gleichung.
2.2 Lsungsstrategie
Wenn in (2.1) die Unbestimmte Ist
x1
a11 , . . . , am1 = 0.
a11 = 0
und
= 0,
1-te
und die
1-te
Zeile
a 1 x1
a 2 x2 a12 x2
+ +
...
. . .
+ +
a n xn a1n xn
= =
b
. . .
-te Zeile
...
. . .
b1
. . .
am1 x1
am2 x2
+ ...
+ amn xn
= bm
Um kein Durcheinander mit den Indizes zu bekommen, geht man weiterhin von der Gestalt (2.1) der Gleichung aus und nimmt an, dass gleich so nummeriert wurde, dass Wegen
a11 = 0
ist.
a11 = 0
a11
x1 a21 x1 am1 x1
+ + +
a12 a11 x2
a22 x2 am2 x2
+ ... + ...
. . .
+ + +
a1n a11 xn
a2n xn amn xn
= = =
b1 a11
b2
. . .
+ ...
bm
Nun verwendet man mehrere Umformungen vom Typ (iii), um mit Hilfe der ersten Gleichung die Variable
x1
aus den anderen Gleichungen zu eliminieren. Dazu geht man so vor: Subtrahiere das Subtrahiere das
der 1.Zeile von der 2.Zeile der 1.Zeile von der 3.Zeile
...
der 1.Zeile von der
Subtrahiere das
m.Zeile
x1
+ ... + ...
. . .
+ + +
= =
b1 b2
. . .
(2.2)
...
= bm
mit
a12 =
a12 a11 ,
. . . , a1n =
a1n a11 ,
b1 =
b1 a11 und
a12 b1 a22 = a22 a21 a11 , a23 = a23 a21 a23 , . . . , b2 = b2 a21 a11 a11
usw.
Beispiel 2.2.1
Das LGS im Beispiel mit den Wasserrohren sieht etwas schner ge-
r1 r1
r2 r2 r3 r3 +
4
r4 r4
r5
= 20 = 20 = 10 = 0
Da links oben schon r1 steht, ist in den Schritten 1 und 2 nichts zu tun. Fr Schritt 2 subtrahiert man die 1.Gleichung von der 2.Gleichung:
r1
+ r2 r2 r2
r3 r3 r4 + r4 2
bis
r5 m
= = = =
20 40 10 0 r1 )
2.2 unverndert und rechnet
Ab jetzt lsst man die 1.Gleichung des LGS (und damit die 1.Variable sinngem mit dem Teilsystem aus Gleichungen Aus genauso weiter.
a22 x2 am2 x2
wird (falls
a23 x3
+ ...
. . .
+ +
= =
b2
. . .
+ ... x3 ) +
bm b2
. . .
x2
x2
...
. . .
...
+ amn xn
= bm
x1
+ a12 x2 x2
+ +
+ +
... ...
. . .
+ +
a1n xn a2n xn
= b1 = b2
. . .
+ ...
+ amn xn
= bm
Setzt man dieses Verfahren entsprechend fort, so kommt man auf eine Stufenform (wird noch genau deniert) aus der man dann sehr schn das Ergebnis ablesen kann.
Beispiel 2.2.2
.
r3 r3 r4 + r4 r5 = = = = 20 40 10 0
r1
+ r2 r2 r2
r2 r2
r1 nur noch in der 1.Gleichung vorkommt, wendet man sich jetzt der nchsten Variablen zu. Diese kommt in der 2.Zeile auch vor (muss also nicht hochgetauscht werden). Da der Koezient von
in der 2.Gleichung
1.
Gleichung vertauschen:
r1
+ r2 r2 r2
+ r3 r3 r4 + r4 r5
= 20 = 40 = 10 = 0 = 20 = 40 = 50 = 0 1
und subtrahiert dann
Nun subtrahiert man die 2.Gleichung von der 3.Gleichung und erhlt:
r1
+ r2 r2
+ r3 r3 r3
r4 + r4
r5
r3 in der 3.Gleichung weiter, d.h. man multipliziert mit die 3.Gleichung von der 4.Gleichung:
Entsprechend geht es nun mit
r1
+ r2 r2
+ r3 r3
+ r4 r5
Damit sind die beschriebenen Eliminationsschritte erledigt, die angekndigte Stufenform ist erreicht. An der letzten Zeile kann man immerhin schon mal ablesen, dass r5 nur die eindeutige Lsung der anderen Zeilen gestaltet sich dagegen etwas schwieriger.
5
2.3 Matrixschreibweise
Denition 2.3.1.
Man schreibt Ein rechteckiges Zahlenschema aus
heit
mn-Matrix.
oder kurz
A = (aij ) 1im
(aij ),
wenn
und
m n-Matrizen
(oft auch
Denition 2.3.2.
Ax = b.
Dabei heit
die Koezientenmatrix,
x = (xj )1jn K n
sonst inhomogen. Besonders konomisch fr das Lsen des LGS (2.1) ist die Schreibweise mit der erweiterten m(n+1) Koezientenmatrix (A|b) K .
Beispiel 2.3.3
Ar = b
mit
1 1 1 0 A = 0 1 0 0 1 1 1 0 (A|b) = 0 1 0 0
0 1 0 1 0 1 0 1
0 0 1 1 0 0 1 1
0 20 20 0 4 R45 , b = 10 R , 0 1 0 r1 20 0 r2 0 20 R46 , r = r3 R5 0 10 r4 1 0 r5
Elementare Zeilenumformungen
Die Lsungsmenge eines LGS ndert sich nicht, wenn man an der erweiterten Koezientenmatrix die folgenden Umformungen in beliebiger Reihenfolge ausfhrt: (I) Vertauschen zweier Zeilen (II) Multiplikation einer Zeile mit einer Konstanten (III) Addition des
K \ {0}
-fachen
einer Zeile,
Mit diesen elementaren Zeilenumformungen kann man nun nach dem zuvor Gesagten jede Matrix (erweitert oder nicht) in Stufenform bringen.
Denition 2.4.1.
Eine
m n-Matrix A K mn j1
.. .
0
j2 j3
j4 j5
..........
Pivotspalten) ungleich Null und unterhalb der Treppenlinie stehen ausschlielich Nullen.
6
Denition 2.4.2.
Es sei
K ein Krper. Eine Matrix A K mn O = (0) 1im ist oder wenn gilt
1jn
A,
i.Z.
Rang(A) = r)
mit
1 r m,
1, . . . , r
jeweils nicht nur Nullen und in den Zeilen mit den Indizes
r + 1, . . . , m
ausschlielich
i mit 1 i r sei ji der kleinste Index jener Spalte, in der ein Element ungleich ji := min{j | aij = 0} (also 1 ji n). Fr diese Indizes gilt die Stufenbedingung j1 < j2 < . . . < jr .
Es empehlt sich, die elementaren Zeilenumformungen auf dem Weg zur Zeilenstufenform jeweils mitzuschreiben.
Z2 Z2 4Z1 ,
so heit das: Die neue zweite Zeile (Z2 ) sei die alte zweite Zeile minus
4-fache =!).
der ersten Zeile, d.h. es handelt sich um eine elementare Zeilenumformung vom Typ (iii).
Fr den bergang von einer Koezientenmatrix zur nchsten schreibt man meistens nicht
oder
(jedenfalls
Beispiel 2.4.3
20 1 1 0 0 0 20 1 1 0 0 0 1 0 1 0 0 20 Z2 Z2 Z1 0 1 1 0 0 40 Z3 Z3 +Z2 0 1 0 1 0 1 0 10 0 1 0 10 0 0 1 1 1 0 0 1 1 1 0 0 1 1 0 0 0 20 1 1 0 0 0 20 0 1 1 0 0 40 Z4 Z4 +Z3 0 1 1 0 0 40 0 0 1 1 0 50 0 0 1 1 0 50 0 0 0 1 1 1 0 0 0 0 1 50
(A|c) =
10 0 0 0 0 5 6
5 2 3 4 5 4
5 7 9
m = 4, n = 8 und r = Rang(A) = 3 bzw. Rang(A|c) = 4 ab. Ax = c ist nicht lsbar, denn seine vierte Gleichung lautet 0x1 + . . . + 0x8 = 9, d.h. sie ist durch keine Belegung der xi erfllbar, denn 0 x = 0 fr alle x in jedem Krper. Dies sieht man sofort aus der Zeilenstufenform an br+1 = b4 = 0 bzw. Rang(A|c) > Rang(A). 1 0 0 0 0 0 5 6 18 5 2 3 4 5 10 Beispiel 2.5.2. Es sei (A|b) = 4 12 0 Es ist m = 4, n = 8, r = Rang(A) = 3 = Rang(A|b), d.h. es ergibt sich nicht wie im letzten Beispiel ein direkter
Aus dieser Zeilenstufenform liest man Das Gleichungssystem
21.10.10
Widerspruch. Das LGS ist lsbar, man kann jeweils nach den Pivotelementen ausen.
x2 ,
x3 , x5 , x6
und
x7
x8 x4 x1
= =
3 2
= 1 = 18
2 5 x5 2 5 x5
3 5 x6 3 5 x6
4 5 x7 4 5 x7
x8
= = 5x7
5x7
6x8
x1
bzw.
= = = (1) + 3 ( 2 x5 ) 5 +
3 ( 5 x6 )
5x7 +
4 ( 5 x7 )
x4 x8
x1 x2 x3 x4 x5 x6 x7 x8
= = = = = = = = (1) +
x2
5x7 x3 ( 2 x5 ) 5 x5 + ( 3 x6 ) 5 x6 +
4 ( 5 x7 )
x7
0 0 5 0 0 0 x1 0 0 1 0 0 x2 0 0 1 0 0 0 x3 0 2 3 4 x4 1 = + x2 0 + x3 0 + x5 5 + x6 5 + x7 5 1 0 0 0 0 x5 0 0 0 x 0 0 1 0 6 0 0 0 x7 0 0 1 0 0 3 x8 0 0 0
blicherweise benennt man die verbleibenden Variablen um
0 5 0 0 0 0 x1 0 0 x2 0 1 0 0 0 0 x3 0 0 0 1 x4 1 3 4 2 = + 1 0 + 2 0 + 3 5 + 4 5 + 5 5 x5 0 0 0 0 0 1 x 0 0 0 6 1 0 0 x7 0 0 0 0 0 1 x8 3 0 0 0 0 0
mit
i K .
(hier z.B.
K = Q).
0 5 0 x1 0 0 0 0 0 x2 0 0 0 1 0 0 x3 0 0 0 1 x4 1 3 4 2 = + Q0 + Q0 + Q 5 + Q 5 + Q 5 x5 0 0 0 0 0 1 x 0 0 0 6 1 0 0 x7 0 0 0 0 0 1 x8 3 0 0 0 0 0
Den Prozess elementarer Zeilenumformungen bis hin zur Zeilenstufenform nennt man meist Vorwrtselimination den Vorgang des Ablesens und Einsetzens von der letzten Gleichung bis hin zur ersten Rckwrtssubstitution und beides zusammen wird meist Gau-Algorithmus (nach
Abbildung 2: .
In 2.4.3 ist die Zeilenstufenform
Beispiel 2.5.3
1 0 0 0
1 1 0 0
0 1 1 0
0 0 1 0
8
0 0 0 1
20 40 50 50
LGS lsbar.
r5 = 50 , r3 = 50 r4 , r2 = 40 r3 , r1 = 20 r2 .
Rckwrtssubstitution liefert
:= r4 R
zusammen
1 30 r1 1 r2 10 r3 = 50 + 1 1 r4 0 0 50 r5
Fr Da
= 30 erhlt man z.B. die bereits in 2.1.1 erwhnte Lsung r1 = 0, r2 = 20, r3 = 20, r4 = 30 und r1 = 50. R unendlich viele Werte annehmen kann, gibt es neben dieser Lsung unendlich viele andere Lsungen
Fr einige Anwendungen ist es sinnvoll, nach der Vorwrtselimination noch eine Rckwrtselimination durchzufhren, d.h. dafr zu sorgen, dass auch in den Spalten ber den Pivotelementen nur Nullen stehen.
dieses LGS.
Dies erreicht man durch elementare Zeilenumformungen startend mit dem letzten Pivotelement die bisher erreichte Stufenform zu zerstren Die Matrix aus 2.5.2 lsst sich z.B. so noch weiter vereinfachen, indem man mit der
ar,jr , ohne
und die
darber eliminiert
Das Endprodukt nach abgeschlossener Rckwrtselimination heit auch reduzierte Zeilenstufenform der Matrix
Beispiel 2.5.4
1 0 0 0
1 0 1 1 0 1 0 0
0 0 1 0
0 0 0 1
20 40 50 50
berechnet worden. Mit weiteren elementaren Zeilenumformungen erreicht man die reduzierte Zeilenstufenform:
1 Z2 Z2 Z3 0 0 0
1 1 0 0
0 0 1 0
0 1 1 0
0 0 0 1
20 10 Z1 Z1 +Z2 50 50
1 0 0 1 0 0 0 0
0 0 1 0
1 1 1 0
0 0 0 1
30 10 50 50
An der reduzierten Zeilenstufenform kann man das Ergebnis ohne Rckwrtssubstitution direkt ablesen!
Ax = 0
Es hat zumindest immer die so genannte triviale Lsung grer als der Rang der Matrix
x = (0, . . . , 0).
ist nicht lsbar
Ein inhomogenes LGS kann dagegen unlsbar sein, und zwar genau dann, wenn der Rang der erweiterten Matrix
ist, i.Z.
Ax = b
Beweis: Die Aussage ber das homogene LGS ist durch Einsetzen zu berprfen.
Es gilt fr alle
A und b, dass Rang(A|b) Rang(A) := r. Ist Rang(A|b) > Rang(A), so liest man an r + 1-ten Zeile der Zeilenstufenform einen Widerspruch ab (vgl. 2.5.1), d.h. das LGS ist nicht lsbar. Ist Rang(A|b) = Rang(A), so kann man sofort ein Ergebnis ablesen (vgl. 2.5.2), d.h. im Widerspruch
Satz 2.6.2.
n j=1 aij xj = 0 , i = 1, . . . , m die Bedingung m < n, d.h. gibt es weniger Gleichungen als Unbekannte, so gibt es eine Lsung mit mindestens n m freien Parametern.
Ax = 0
Lsst sich die Anzahl der Gleichungen mittels elementarer Zeilenumformungen auf eine Zeilenstufenform mit
Rang(A) = r m m n-Matrix
ist
n r.
Beweis: Die Anzahl der Stufen in einer Zeilenstufenform, und somit auch die Anzahl der Pivotelemente, in einer
Rang(A) = r m.
Somit gibt es
nr nm
Folgerung 2.6.3.
Aus den beiden vorhergehenden Stzen fasst man die folgenden Lsungskriterien fr ein LGS
n
Ax = b
j=1
aij xj = bi , i = 1, . . . , m
zusammen:
hat Lsung
n r-parametrige r = n m
eine so genannte
Satz 2.6.4.
Es seien
(y1 , . . . , yn ) K n
aij yj = bi , i = 1, . . . , m .
j=1
Ist
(z1 , . . . , zn ) K n
aij zj = bi , i = 1, . . . , m ,
j=1
so folgt d.h.
n j=1
homogenen Gleichung.
Ist dagegen
(w1 , . . . , wn ) K n
aij wj = 0 , i = 1, . . . , m ,
j=1
so ist
(w1 + y1 , . . . , wn + yn ) K n
n
aij (wj + yj ) =
j=1 j=1
aij wj +
j=1
aij yj = 0 + bi = bi , i = 1, . . . , m .
10
3 Nave Mengenlehre
3.1 Grundbegrie
Georg Cantor (1845-1918) gab die folgende
Denition 3.1.1.
Eine Menge ist jede Zusammenfassung von bestimmten, wohlunterschiedenen Objekten unse-
rer Anschauung oder unseres Denkens welche die Elemente dieser Menge genannt werden zu einem Ganzen.
Das Wort Denition sollte hier in Anfhrungszeichen stehen, da der zu erklrende Begri mittels weiterer undenierte Begrie erlutert wird. Eine echte Denition dagegen darf nur bereits denierte Begrie zu Grunde legt.
Der so eingefhrte Mengenbegri fhrt schnell zu Unklarheiten und logischen Widersprchen. Spter wurde von Ernst Zermelo (1871-1953) und Adolf Fraenkel (1891-1965) eine axiomatische Begrndung der Mengenlehre geliefert, die bisher noch zu keinen Widersprchen gefhrt hat (siehe etwa http://mathworld.wolfram.com/Zermelo-FraenkelAxioms.html)
Dies soll hier nicht weiter vertieft werden. Mit einigen Vorsichtsmanahmen kann man ganz gut mit der Cantorschen Auassung leben.
Eine Menge
Beispiel:
a1 , a2 , . . .
der Menge
M.
Schreibweise:
M = {a1 , a2 , . . . }
die genau den Ele-
E fr die Objekte aus der Grundmenge G, M zukommt: Schreibweise: M := {x | x G erfllt E} oder M := {x G | x erfllt E}. Beispiel: M := {x N | 3 teilt x}.
Nach Bertrand Russel (1872-1970) ist das folgende Beispiel (das so genannte Russelsche Paradoxon) benannt
Es sei
M := {x | x
Denition.
x x} /
d.h. die Menge aller Mengen, die sich nicht selbst enthalten. Das ist eine Menge nach der Cantorschen
Aber es gilt:
M M M M /
M M M M. /
Die Bezeichnung Paradoxon ist also etwas irrefhrend, denn es handelt sich um einen dicken logischen
und
Mengen.
oder
Obermenge von
A,
in Zeichen
A B : B
heien gleich, i.Z.
xA
gilt
xB.
A = B,
wenn gilt
A = B : A B
Das Zeichen
und
B A.
Mit Hilfe von so genannten Quantoren und Junktoren (s. entsprechender Abschnitt) lassen sich solche Aussagen kompakter, aber auch erst mal schwieriger lesbar, notieren. 11
Vorsicht: Verschiedene Schreibweisen je nach Autor: bei vielen (bei mir auch): bei anderen:
von Verwechslungen:
Denition 3.2.2.
man
|M |. |M |
heit
M.
|M | = .
Diese Denition ist noch recht schwammig und kann erst mit Hilfe von Abbildungen genauer gefasst werden.
Der Begri der Kardinalitt lsst sich so verfeinern, dass man noch verschiedene Typen von Unendlich unterscheiden kann, etwa
|N| = |Q|
oder
|N| = |R|.
12
4 Aussagen
4.1 Junktoren und Wahrheitstafeln
Denition 4.1.1.
{1, 0}
Eine Aussage ist ein Element der Menge
{wahr,
falsch} (auch
{w, f }, {true,
false} oder
etc. geschrieben).
Eine Aussageform ist eine Abbildung einer (oft nicht explizit angegebenen) Menge in diese zweielementige Menge.
Beispiel 4.1.2.
28
ist durch
27
ist durch
durch
x = 28
eine falsche, fr
und
zwei Aussagen, so lassen sich mittels so genannter Junktoren (=Verbinder) neue Aussagen
A AB AB AB A B
Die Wahrheitswerte der so zusammengesetzten Aussagen werden mit Hilfe einer Wahrheitstabelle angegeben, in der zu jeder wahr-falsch-Kombination der beteiligten Aussagen der Wahrheitswert der zusammengesetzten Aussage angegeben wird.
Denition 4.1.3.
A w w f f B w f w f
A f f w w B
AB w f f f
AB w w w f A
AB w f w w A.
A B w f f w B
Behauptung. Ist die Implikation
Denition 4.1.4.
hinreichend fr
AB und B
heit
Voraussetzung und
notwendig fr
ber Wahrheitstafeln kann man (bungen) nun einfache Rechenregeln fr diese Junktoren beweisen, z.B.:
A B
lsst sich auch durch die davor eingefhrten Junktoren denieren als
A B ,
denieren knnen
(A B) : (A B) A B
steht fr
ABB A
AB
geschrieben), also
(A B) : (A B B A)
Satz 4.1.5
Fr Aussagen
und
gilt
(4.1) (4.2)
(A B) (A B)
A w w f f
B w f w f
A f f w w
AB w f f f
(A B) B f f w w w f w w
13
A B f w w w
4.2 Quantoren
Aus Aussageformen kann man durch so genannte Quantoren Aussagen machen.
Denition 4.2.1.
: w f
falls falls
(x M : A(x)) :=
f A(M ), / f A(M ).
Beispiel 4.2.2.
A(x) die Aussageform Die Quersumme der Zahl x ist durch 3 teilbar und M die Menge Dann ist A(x) fr alle x M wahr, d.h. A(M ) = {w}. Die Aussage x M : A(x) (in Worten: Fr alle Vielfachen von 3 gilt, dass ihre Quersumme durch 3 teilbar ist), ist also wahr. Fr die Grundmenge M = {27, 28, 29} ist dagegen A(M ) = {w, f } (nmlich wahr fr 27 und falsch fr 28, 29), also die Aussage x M : A(x) falsch.
Es sei aller Vielfachen von
3.
Denition 4.2.3.
: w f
falls falls
(x M : A(x)) :=
w A(M ), w A(M ). /
Die Quersumme der Zahl
Beispiel 4.2.4.
x
ist durch
Fr die Grundmenge
teilbar ist
M = {27, 28, 29} und die Aussageform A(x) A(M ) = {w, f }, also die Aussage x M : A(x) wahr.
Dieses Beispiel zeigt insbesondere, dass das mathematische es gibt ein bedeutet es gibt mindestens ein. Mchte man ausdrcken, dass es genau ein Element mit der angegebenen Eigenschaft gibt, so versieht man den Existenzquantor
1:
Beispiel 4.2.5. 1 p prim: 19 < p 28. Folgerung 4.2.6. Aus der Denition der
Beispiel 4.2.7.
Fr alle Es gibt ein
teilbar
teilbar ist.
Die Verneinung der (falschen) Aussage Es gibt eine natrliche Zahl ist die (wahre) Aussage Fr alle natrlichen Zahlen
n n
mit ist
n < 4
n 4. (A B) (B A)
Satz 4.2.8.
Beweis: mit einfacher Tabelle wie zuvor oder so:
(A B) (A B) (A B) (B A) ((B) (A)) (B A)
(4.2)
4.3 Beweistechniken
AB
B A
(3) Widerspruchsbeweis:
A,
Eine axiomatische Denition der natrlichen Zahlen ist nach Giuseppe Peano (1858-1932) benannt, der diese Axiome aufbauend auf Arbeiten von Richard Dedekind (1831-1916) erstmals formuliert und benutzt hat:
Eines der Peano-Axiome ist das so genannte Induktionsprinzip, mit dem die Induktion begrndet wird:
Satz 4.3.1.
Zahl sei.
Es sei
A(n)
n a,
wobei
A(n)
ist fr alle
na
ist richtig.
A(n)
fr alle
mit
ank
A(k + 1). nN
Das Prinzip der vollstndigen Induktion ndet Anwendung, wenn Behauptungen des Typs Fr alle gilt
...
bewiesen werden.
Genauso wie bei der Begrndung der vollstndigen Induktion kann man aber auch vorgehen, um mathematische Objekte Man gibt
O(n)
rekursiv zu denieren:
an und ein Verfahren, wie man jeweils
O(a), . . . , O(b)
O(n)
aus den
O(k)
mit
k < n
erhlt.
Wegen des eben gezeigten Prinzips der vollstndigen Induktion ist damit
O(n)
na
deniert.
15
16
Im Folgenden seien
und
schen diesen Mengen werden verdeutlicht durch so genannte Venn-Diagramme (nach John Venn (1834-1923) ), die auch eulersche Kreise genannt werden (nach
Diese Darstellung kann beim Nachweis von Rechengesetzen etwas die Vorstellung untersttzen, nicht aber den formalen Beweis ersetzen, der mit Hilfe der eingefhrten Junktoren oder mit Wahrheitstabellen gefhrt wird!
Abbildung 3:
Venn-Diagramm
Mit den eingefhrten Quantoren knnte man 3.2.1 jetzt auch in der folgenden Form schreiben:
A B : x A : x B , A = B : A B B A .
Daraus folgt
A = B (A = B) (A B B A) (A B) (B A) (x A : x B) (x B : x A) / /
(4.1)
4.2.6
Abbildung 4:
Ungleiche Mengen
Einige wichtige Mengen, die im folgenden Sto noch mit sehr viel mehr mathematischem Leben gefllt werden, sind
N :={1, 2, 3, . . . } N0 :={0, 1, 2, . . . }
Menge der natrlichen Zahlen, Menge der natrlichen Zahlen und Menge der ganzen Zahlen,
0,
Z :={0, 1, 1, 2, 2, . . . }
Q :={x | a Z b N : x = R :={x | x
Menge der reellen Zahlen,
a } b
C :={z | a R b R : z = a + i b i2 = 1}
Menge der komplexen Zahlen,
:={x | x = x}
leere Menge.
Jede Menge enthlt zwei triviale Teilmengen, nmlich die leere Menge und sich selbst. Man beachte:
sind transitiv:
ABB C AC
bzw.
ABB C AC
Denition 5.1.1.
Es sei
P(A) := {M | M A}
aller Teilmengen von
A.
5.2 Operationen
Denition 5.2.1.
und
ist
A B := {x | x A x B}
Abbildung 5:
Mengendurchschnitt
Denition 5.2.2.
und
ist
A B := {x | x A x B}
Abbildung 6:
Mengenvereinigung
Denition 5.2.3.
und
ist
A \ B := {x | x A x B}
Abbildung 7:
Mengendierenz
Denition 5.2.4.
Ist
A G,
so nennt man
die Dierenz
G\A
in
G,
in Zeichen:
A := G \ A = {x G | x A} .
Oft ndet man auch die Schreibweise
fr
A.
Abbildung 8:
Mengenkomplement
Denition 5.2.5.
und
ist
B := (A \ B) (B \ A)
Abbildung 9:
Symmetrische Dierenz
Die Mengenoperationen kann man auch mit Hilfe von Wahrheitstabellen recht kompakt darstellen: Man untersucht die Wahrheitswerte der Aussage
x M.
Statt
xM w f
M w f
18
A f f w w B f w f w AB f f f w C AB f w w w A\B f f w f AB f w w f G
gilt:
Satz 5.2.6.
Fr beliebige Teilmengen
A, B
und
eines Grundbereichs
(A B) C =A (B C) (A B) C =A (B C) (AB)C =A(BC)
Assoziativgesetze
Satz 5.2.7.
Fr beliebige Teilmengen
A, B
und
eines Grundbereichs
gilt:
A B =B A A B =B A AB =BA
Kommutativgesetze
Satz 5.2.8.
Fr beliebige Teilmengen
A, B
und
eines Grundbereichs
gilt:
A (B C) =(A B) (A C) A (B C) =(A B) (A C)
Distributivgesetze
Satz 5.2.9.
Fr beliebige Teilmengen
A, B
und
eines Grundbereichs
gilt:
A A =A A A =A ( A) = A =A
Idempotenzgesetze
Satz 5.2.10.
Fr beliebige Teilmengen
A, B
Satz 5.2.11.
Fr beliebige Teilmengen
A, B
und
eines Grundbereichs
gilt:
(A B) = A B =A B = A B (A B) = A B =A B = A B
sen oder mit Hilfe einer geeigneten Wahrheitstabelle. Einige Rechengesetze werden in den bungen gezeigt.
De Morgansche Regeln
Praktisch alle aufgezhlten Rechengesetze lassen sich durch einfaches Nachrechnen ber Junktoren bewei-
und
nichtleere Mengen,
a, a A
und
b, b B .
Man krzt ab
Mit Hilfe der Axiome der Mengenlehre (Zermelo-Fraenkel) kann man dann zeigen:
a=a b=b.
Das neu denierte Objekt
(a, b)
{b, a})
= (b, a)).
Da wir nicht in die axiomatische Mengenlehre einsteigen wollen, sollte man diese Denition eines geordneten Paares gleich wieder vergessen. 19
Mit der folgenden etwas schwammigen Denition kann man ganz gut zurecht kommen; es ist aber gut zu wissen, dass sich das auch axiomatisch korrekt einfhren lsst.
Denition 5.3.1.
von Elementen
Es seien und
aA
A und B nichtleere Mengen, a, a A und b, b B . Ein geordnetes Paar oder Tupel b B wird (a, b) geschrieben. Zwei solche Tupel heien gleich, wenn sie elementweise (a, b) = (a , b ) : a = a b = b .
bereinstimmen, i.Z.
Denition 5.3.2.
und
Es seien
und
(a, b)
mit
aA
bB
und
B,
i.Z.
A B := {(a, b) | a A b B} .
Denition 5.3.3.
Es seien A1 , A2 , . . . An mit n N und n 2 nichtleere Mengen. Man betrachtet n-Tupel (a1 , a2 , . . . , an ) von Elementen ai Ai fr i = 1, . . . , n. Zwei solche n-Tupel heien gleich, wenn sie elementweise bereinstimmen, i.Z.
(a1 , a2 , . . . , an ) = (a1 , a2 , . . . , an ) : ai = ai
i {1, 2, . . . , n}
heit
Denition 5.3.4.
n-faches
n-faches
Bei also
n-fachen kartesischen Produkten einer Menge mit sich selbst benutzt man auch die Potenzschreibweise, An := A A .
n-mal
R3
fr alle
3-Tupel
n 1-Matrix K n1
oder eine
1 n-Matrix K 1n
n-Tupel
des
Kn
identiziert werden. Fr das sptere Rechnen mit Matrizen kommt es aber auf die Schreibweise als Spalte oder als Zeile an.
Beispiel 5.3.5.
Fr
A = {1, 2, 3}
und
B = {a, b}
ist
A B ={(1, a), (1, b), (2, a), (2, b), (3, a), (3, b)} , B 2 ={(a, a), (a, b), (b, a), (b, b)} .
Satz 5.3.6.
Sind
A1 , A2 , . . . An
20
k -nre)
Relation auf
k N und A1 , . . . , Ak A1 Ak .
(lies:
R A1 Ak
heit
k -stellige
Da diese Denition ziemlich abstrakt ist, schreibt man bei den am hugsten verwendeten binren Relationen oft statt (etwa
steht in Relation zu
b)
und verwendet fr
Beispiel 6.1.2.
A = A1 = A2 = {1, 2, 3}
ist z.B.
a, b A
(a, b) R
oder
aRb
a = b.
Beispiel 6.1.3.
Fr
A = A1 = A2 = A3 = {1, 2, 3, 4, 5, 6}
Denition 6.1.4.
zeichnungen fr
Es sei
R A2
: a A : (a, a) R : a A : (a, a) R / : a, b A : (a, b) R (b, a) R : a, b A : (a, b) R (b, a) R a = b / : a, b A : (a, b) R (b, a) R / : a, b, c A : (a, b) R (b, c) R (a, c) R
25.10.10
R A2
heit
A : R A : R A : R
Beispiel 6.2.2.
(etwa mit
A = N): aa a A a b [b a a = b] a, b A a b b c a c a, b, c A
ist reexiv ist antisymmetrisch ist transitiv
Beispiel 6.2.3.
(etwa mit
< <
Beispiel 6.2.4.
Es sei
M := {a, b}
und
A := P(M ).
Die Relation
R =,
oder ausfhrlich
R := {(X, Y ) A2 | X Y } ,
auf
Ausgeschrieben sieht
so aus:
R = {(, ), (, {a}), (, {b}), (, {a, b}), ({a}, {a}), ({a}, {a, b}), ({b}, {b}), ({b}, {a, b}), ({a, b}, {a, b}), } . {a, b} y` y iii ii yy ii yy i yy y pp x` pp xx pp xx pp x p xxx
C
Dies kann man auch graphisch ber ein Pfeildiagramm veranschaulichen. Dabei steht jeweils
{a}
{b}
fr
R:
Abbildung 10:
Da insbesondere das bekannte Gleichheitszeichen fr eine Menge als Verallgemeinerungen des Gleichheitszeichens auassen.
reexiv, symmetrisch und transitiv hat, also eine quivalenzrelation ist, kann man quivalenzrelationen
R0 :={(a, a) | a A} , R1 :=A A
Denition 6.2.5.
Es sei
aA
und
A.
Die Menge
[a]R := {b A | (a, b) R}
(oder kurz
[a]
geschrieben, wenn
bezglich
R.
Beispiel 6.2.6.
Satz 6.2.7.
(1)
aA
Es sei
A.
Dann gilt
[a]R = A, a, b A a, b A
ist ist
aRa a A gilt a [a]R a A und somit die Behauptung. [a]R = [b]R , so ist wegen b [b]R auch b [a]R und somit (a, b) R. (2) : Nun sei (a, b) R und c [b]R . Dann ist (b, c) R. Zusammen mit (a, b) R und der Transitivitt von R folgt (a, c) R, und damit c [a]R , d.h. [b]R [a]R . Da R symmetrisch ist, ist auch (b, a) R und man folgert vllig analog, dass [a]R [b]R ist, also insgesamt die
(1) : Ist Gleichheit der beiden Mengen.
Wegen
a, b A mit [a]R [b]R = und [a]R = [b]R . dann gibt es ein c aus dem Schnitt c gilt (a, c) R und (b, c) R bzw. (wegen der Symmetrie) (c, b) R. Dann folgt wegen der Transitivitt (a, b) R, was aber nach (2) [a]R = [b]R zur Folge hat, also einen Widerspruch
(3) Angenommen, es existieren von
[a]R
und
[b]R
und fr dieses
zur Annahme. 22
Denition 6.2.8.
Es sei
P P(A) \ {} A=
XP
A,
wenn gilt
(6.1)
X, Y P : X = Y X Y =
(6.2)
Oft ndet man fr Partitionen auch die abkrzende, an (6.1) angelehnte, Schreibweise mit einem Punkt ber dem Vereinigungszeichen als Hinweis auf (6.2):
A=
XP
(lies:
X P ).
6.3 Restklassen
Oft ist es sinnvoll, jeweils eine ganze quivalenzklasse als ein einziges Objekt zu betrachten und nur mit einem besonders einfachen Vertreter aus jeder quivalenzklasse zu arbeiten.
Denition 6.3.1.
Es sei
A.
Die Menge
A/R := {[a]R | a A}
heit Faktormenge von
nach
R.
6.4 Abbildungen
Denition 6.4.1.
von Es seien
und
f AB
nach
B,
wenn gilt
aA
gibt es ein
bB
mit
(a, b) f ,
(a, b1 ) f
und
(a, b2 ) f
so ist
b1 = b2 . f.
Die Menge Fr
D(f ) := A
ist der so genannte Denitionsbereich der Abbildung im Fall einer Abbildung ein
zu jedem
f (a) = b,
b B
mit
(a, b) f
Die Menge
W (f ) := {b B | a A : (a, b) f }
der Wertebereich von
f.
Abbildung 11:
Abbildung
von
in
23
Denition 6.4.2.
ist.
Eine Funktion
f (a1 ) = b
und
f (a2 ) = b
a1 = a2
Injektive Abbildung
W (f ) = {b B | a A : (a, b) f } = B
ist.
Surjektive Abbildung
Abbildung 14:
Bijektive Abbildung
Interpretiert man eine Abbildung gem ihrer ursprnglichen Denition als Menge von Tupeln, so nennt man diese auch den Graphen der Abbildung.
R R
Aus der Denition der Abbildung folgt, dass jeder Schnitt parallel zur dung hchstens einmal schneiden kann.
y -Achse
Beispiel 6.4.5.
Die Abbildung
f:
ist weder injektiv, noch surjektiv. Der zugehrige Wertebereich ist
x x2 RR
W (f ) = R+ {0} = {x R | x 0}
24
Abbildung 15:
Graph von
Beispiel 6.4.6.
Die Abbildung
f:
ist bijektiv (also
x x3 RR
W (f ) = R).
Abbildung 16:
Graph von
Beispiel 6.4.7.
Die Abbildung
f:
ist surjektiv (also
x x3 x RR
W (f ) = R),
Abbildung 17:
Graph von
Beispiel 6.4.8.
Die Abbildung
f:
ist injektiv, nicht aber surjektiv, mit
x ex = exp(x) RR
W (f ) = R+ = {x R | x > 0}
Abbildung 18:
Graph von
Denition 6.4.9.
Ist
f :M N
U M,
so heit
f (U ) := {f (x) | x U } N
die Bildmenge von
f.
Insbesondere ist
f (M ) = W (f ).
Fr alle
M1 , M2 M
Beispiel fr
f (M1 M2 )
und
f (M1 ) f (M2 )
heit
f :M N gf :
g:N R
m g(f (m)) M R g.
Man beachte die Reihenfolge der Ausfhrung von rechts
und
d.h. erst
f,
dann
g!
Denition 6.4.11.
f:
M N mn
25
f 1 :
N M f (m) m
Es gilt
f 1 f = idM , f f 1 = idN .
wobei
id
f :M N
injektiv, so ist
f : M f (M )
mit
mM
sogar
bijektiv und somit invertierbar, d.h. injektive Abbildungen kann man auf Ihrem Bild umkehren.
Denition 6.4.12.
ist die Abbildung
f :M N
U M
f |U :
U N u f (u) P N.
Das Urbild von
Denition 6.4.13.
ist die Menge
Es sei
f :M N
f 1 (P ) := {m M | f (m) P } .
Man beachte, dass bei dieser Schreibweise das Symbol
f 1
nicht notwendig
bijektiv ist, also mglicherweise gar keine Umkehrabbildung besitzt. Der Unterschied wird durch die Schreibweise deutlich, etwa bei
f 1 (a)
und
f 1 ({a}).
Mit Hilfe bijektiver Abbildungen kann man jetzt noch genauere Aussagen ber die Mchtigkeit von Mengen machen:
Denition 6.4.14.
Bijektion
Eine Menge
n N,
i.Z.
|N | = n,
wenn es eine
f : {1, . . . , n} N
gibt. Allgemeiner haben zwei beliebige Mengen
und
f :M N
gibt.
26
7 Gruppen
7.1 Grundbegrie
Denition 7.1.1.
(1) (2) (3) Eine nichtleere Menge
2
: GG G
a, b, c G : a (b c) = (a b) c e G a G : e a = a a G a G : a a = e (G, ),
Assoziativitt
aus
dem Zusammenhang klar ist, spricht man aber auch einfach von der Gruppe man eine innere Verknpfung von G. (G, ) heit abelsch oder kommutativ, wenn (4) gilt
G.
Wegen
: GG G
nennt
a, b G : a b = b a
Kommutativitt
(N, +)
oder
(N0 , +)
dagegen nicht.
Das Gleiche gilt auch bei den anderen bekannten Krpern, wie
(Q \ {0}, ). R oder C.
Im endlichen Fall kann man die Wirkung einer inneren Verknpfung auf einer Menge mit Hilfe
({1, 1}, ) 1 1 1 1 1
1 1 1
Praktisch fr das Verstndnis von Verknpfungstafeln ist der folgende kleine Satz, der hier ohne Beweis angegeben wird:
Satz 7.1.5.
vorkommt.
Die Verknpfungstafel einer endlichen Menge mit einer assoziativen inneren Verknpfung ist genau
dann eine Gruppentafel, wenn in jeder Zeile und jeder Spalte der Tafel jedes Element der Menge hchstens einmal
Satz 7.1.6.
Es sei
(G, )
eG
e
gilt
a e = a a G,
ist auch rechtsneutral. Deshalb spricht man auch einfach von einem neutralen
(2) Aus
a a=e
a a = e,
ist auch rechtsinvers. Deshalb spricht man auch einfach von einem inversen
(3) Es gibt genau ein neutrales Element Bereits aus (4) Zu jedem
meist
e G.
fr ein
xa=a
oder
ax=a
aG
folgt
x = e.
a,
aG
a G.
sonst
Deshalb ist es mglich, diesem Inversen ein eigenes Symbol zu geben: in additiven Gruppen schreibt man
a1 .
Die Beweise kann man fast in jedem Buch ber Algebra oder Lineare Algebra nachlesen oder als einfache bung selber machen. Hier wird nur als Beispiel fr die Vorgehensweise Punkt (2) des Satzes bewiesen. ber den Gleichheitszeichen werden die Nummern der verwendeten Axiome vermerkt.
2 Das
Symbol
ist hier beliebig gewhlt und hat nicht unbedingt etwas mit der Komposition von Abbildungen zu tun
27
aG
(2)
ein
a G
(3)
mit
a a = e.
Zu diesem
a G
a G
mit
a a = e.
a a = e (a a ) = (a a ) (a a ) =
(1)
= a (a a) a = a e a = a (e a ) = =a a =e
(3)
(3)
(2)
Fasst man die ursprngliche Denition der Gruppe und den soeben zitierten Satz zusammen, so erhlt man:
Satz 7.1.7.
(1) (2) (3)
26.10.10
Eine Menge
:GGG
a, b, c G : a (b c) = (a b) c 1 e G a G : e a = a e = a a G 1 a
1
G : a
a=aa
=e
Inverses Element
Die Tatsache, dass sich das neutrale Element und das Inverse jeweils so schn abelsch verhalten, darf aber nicht dazu verleiten, das fr alle Element anzunehmen. Bei nicht-abelschen Gruppen gilt immer noch
ab=ba
fr die meisten
a, b G.
Satz 7.1.8.
(1) (2) (3) (4)
Es sei
(G, )
a G :
1 1
= a.
1
a, b G : (a b)
= b1 a1 .
a, b G 1 x G : x a = b. a, b G 1 y G : a y = b.
Die Beweise sind einfache bungen unter Verwendung der Gruppengesetze. So folgt etwa die erste Behauptung aus der Eindeutigkeit des inversen Elements:
a1
a1 .
Von
a1
a,
Die Punkte (3) und (4) ermglichen das eindeutige Lsen von Gleichungen ber Gruppen.
Verknpfung von
A(X) die Menge aller Abbildungen : X X , so ist die Komposition eine innere A(X). idX .
ist gerade so deniert:
(A(X), )
S(X)
: X X,
so ist
(S(X), )
nach 7.1.8(2) und dem soeben Gesagten eine Gruppe, denn jetzt sind ja alle Elemente invertierbar.
Denition 7.2.1.
Es sei
S(X) die Menge aller bijektiven Abbildungen : X X . (S(X), ) X oder die symmetrische Gruppe von X . X = {1, 2, . . . , n} schreibt man statt S({1, 2, . . . , n}) krzer Sn . X
eine Menge und
28
Sn
1 (1)
2 (2)
... ...
n (n)
Beispiel 7.2.2.
Mit Hilfe dieser Schreibweise kann man z.B. die Komposition von Abbildungen schnell berechnen
1 2 1 2 1 2
Fr endliches
2 3 2 3 2 1
3 1
1 3 2 1 2 3
n k=1
2 1 3 3 3 1 k,
3 2 = =
, 1 3 1 1 2 2 2 3 3 1 3 2 ,
3 1 1 2 3 1 3 2 n! :=
X S3
ist
|S(X)| = |X|!
(mit
Beispiel 7.2.3.
In
1 2
2 3
3 1
y =
1 3
2 2
3 1
, (1 2 3) 3 1 2
1 2 2 1
von
indem man beidseitig von links (die Gruppe ist nicht abelsch!) mit dem Inversen multipliziert:
(1 2 3) 2 3 1
(s. 7.2.2)
1 3
2 1
3 2
1 2
2 3
3 1
y =
1 3
2 1
3 2
1 3
2 2
3 1
y =
3 3
7.3 Gruppen-Homomorphismen
Denition 7.3.1.
phismus, wenn gilt Eine Abbildung
f : G1 G2
(G1 , )
in die Gruppe
(G2 , )
heit Homomor-
a, b G1 : f (a b) = f (a) f (b) .
Ein surjektiver Homomorphismus heit Epimorphismus, ein injektiver Monomorphismus und ein bijektiver Isomorphismus. Ist
G1 = G2 ,
Es ist
Beispiel 7.3.2.
a, b Z
gilt
fn (x) := n x
nN
(Z, +)
fn (a + b) = n (a + b) = n a + n b = fn (a) + fn (b)
Homomorphismen, die wir hier erstmals fr Gruppen kennengelernt haben, sind ein wesentliches mathematisches Hilfsmittel. Ein Homomorphismus ist generell eine strukturerhaltende Abbildung. Neben Gruppen-Homomorphismen werden wir in diesem Kurs vor allem mit Vektorraum-Homomorphismen zu tun haben.
Sn
1, . . . , n
vertauscht,
1 1
2 2
3 5
4 4
5 3
S5
Jede Permutation aus Sn lsst sich als Produkt (=Komposition) von Transpositionen schreiben. m Diese Transpositionen und ihre Anzahl m sind nicht eindeutig, wohl aber die Zahl (1) .
Statt eines Beweises wird hier nur ein Beispiel gegeben: 29
Beispiel 7.3.6.
1 3 2 2 3 4 4 1 = = 1 4 1 1 2 2 2 3 3 3 3 2 4 1 4 4 1 3 1 1 2 2 2 2 3 1 3 4 4 4 4 3 1 2 2 1 3 3 4 4
also
1 1
2 4
3 3
4 2
m = 2, 4, 6, . . . ,
(1)m = 1.
Denition 7.3.7.
sgn :
Sn {1, 1}
i<j (j)(i) ji
Da
eine bijektive Abbildung ist, stehen nicht nur im Nenner von sgn() die Dierenzen aller verschiede1 bis n (jeweils grere minus kleinere Zahl), sondern im Zhler stehen genau die gleichen sgn()
immer vollstndig zu
Dierenzen (diese allerdings durch Vertauschungen manchmal auch mit negativem Ergebnis). Deshalb ist klar, dass sich der auf den ersten Blick kompliziert aussehende Bruch fr oder
krzen lsst.
Denition 7.3.8.
Es seien
i, j, n N .
mit
1 i, j n, Sn .
Ein Tupel
(i, j)
mit
j >i
und
sgn()
sgn():
Folgerung 7.3.9.
sgn() = (1)#
Fehlstnde von
Beispiel 7.3.10.
Fr die Permutation
=
ergibt sich durch Einsetzen in die Formel
1 4
2 1
3 5
4 2
5 3
sgn() =
(3 4)(3 1)(3 5)(3 2)(2 4)(2 1)(2 5)(5 4)(5 1)(1 4) = 1 (5 1)(5 2)(5 3)(5 4)(4 1)(4 2)(4 3)(3 1)(3 2)(2 1) (1, 5), (3, 5), (1, 4), (3, 4), (1, 2). sgn() = 1. n2
sogar surjektiv,
Da die Anzahl dieser Fehlstnde ungerade ist, sieht man auch so:
Satz 7.3.11.
Die Abbildung
sgn( ) =
i<j
( )(j) ( )(i) = ji ( )(j) ( )(i) (j) (i) = (j) (i) ji ((j)) ((i)) (j) (i) = sgn() sgn() (j) (i) ji i<j
30
=
i<j
=
i<j
7.4 Untergruppen
Denition 7.4.1. Satz 7.4.2.
U
Eine nichtleere Teilmenge
U G
einer Gruppe
(G, ),
eine
G. U G
ist genau dann eine Untergruppe von
(G, ),
wenn gilt
u v 1
u, v U .
u v 1 U ist, so folgt auch u u1 = e U . Setzt man in u v U fr u dieses neutrale Element e ein, so folgt v 1 U fr jedes v U . 1 Fr w U ist somit auch w U und deshalb auch u(w1 )1 = uw U , d.h. ist eine innere Verknpfung von U . Diese ist natrlich assoziativ, da sie auf ganz G assoziativ ist.
Beweis: Wenn allgemein 1
u, v U u v U
und
u1 U . 1 1 2 2 2 3 3 1 3 3 1 2 1 3 2 3 2 1 3 1 3 2 1 3 2 1 3 2 e= 1 1 2 2 3 3
ist
Beispiel 7.4.3.
,
und
S3 ,
denn
1 2
Denition 7.4.4.
Es sei f : G1 G2 ein Homomorphismus von der Gruppe (G1 , ) in die Gruppe Das Urbild des neutralen Elements e2 G2 heit der Kern des Homomorphismus
(G2 , ).
Kern(f ) := f 1 ({e2 })
Satz 7.4.5.
f : G1 G2 G1 .
Wegen
G1 .
Beweis: Es sei
e1 G1
e1 f 1 ({e2 }). 3 Der Kern von f ist also sicher nicht nun a, b Kern(f ), also f (a) = e2 = f (b), so folgt
leer.
a1 Kern(f ). Der Untergruppentest zeigt also, dass es sich um eine Untergruppe handelt.
31
32
+ : R R R, : R R R
heit Ring, falls gilt (1) (2) (3)
(R, +)
a, b, c R : a (b c) = (a b) c
Strich
a, b, c R : a (b + c) = a b + a c
(a + b) c = a c + b c
1 R a R : 1 a = a
(5) Wenn zustzlich gilt
heit
a, b R : a b = b a
heit
kommutativer Ring
1. 1.
Mehr dazu im Abschnitt ber Krper.
n N>1
1. R
oder
Das Gleiche gilt auch bei den anderen bekannten Krpern, wie
C.
a, b R
gilt
Beweis:
(2)
(a) b.
Denition 8.1.6.
mit
1=0
k K \ {0} K : k = 1
Zusammen mit den Axiomen, die ein kommutativer Ring mit
(K, +)
(K \ {0}, ). 1
k K \ {0}
und
(R, +, )
sind Krper.
An der Stelle sollte man sich klarmachen, dass ein Krper genau das bietet, was man fr den GauAlgorithmus bentigt:
Mit den beiden Verknpfungen + und sind elementare Umformungen vom Typ (ii) und (iii) erst mglich. Beidseitige Multiplikation einer Gleichung mit einer Zahl denn dieses
ist invertierbar.
Insbesondere kann man eine Zeile mit dem Inversen des Pivotelements multiplizieren (bzw. durch dieses Element teilen), also ein Pivotelement
1
0
herstellen.
4 bzgl. + gibt es auf jeden Fall ein neutrales Element, 5 die Addition ist in jedem Fall kommutativ!
das mit
bezeichnet wird
33
R2
+
Beweis: Der
Krper ist.
: :
R2
ist oensichtlich nicht leer und beide Verknpfungen sind innere Verknpfungen weil
Die Addition geschieht einfach elementweise und ist deshalb klarerweise auch assoziativ. Das neutrale Element der Addition ist
(0, 0),
zu jedem
(a, b) R2
(a, b) = (a, b)
Auch die etwas ungewohnte Multiplikation ist assoziativ, was man mit etwas Schreibarbeit nachweisen kann:
(a1 , a2 ) , (b1 , b2 ) R2
(1, 0)
Wegen
(a1 , a2 )
ist jedes von
a2 a1 , a2 + a2 a2 + a2 1 1 2 2 (a1 , a2 ) R2
verschiedene Element
(a1 , a2 )1 =
a1 a2 , a2 + a2 a2 + a2 1 1 2 2
Der im letzten Satz eingefhrte Krper hat einige wichtige Eigenschaften und wird deshalb noch etwas genauer untersucht.
Wegen
(a1 , 0) (a1 , 0)
(b1 , 0) (b1 , 0)
= =
mit
aR
(a, 0)
Insbesondere ist bei dieser Schreibweise der Multiplikation. Fr das Element lsbaren)
d.h.
(0, 1)
R i
nicht
Dieses Krperelement bezeichnet man meist mit dem Buchstaben der Strom ist) und nennt es die imaginre Einheit. 34
(E-Techniker schreiben
j,
weil
schon
(a, b) R2
auch
a+ib
i wie eine Unbestimmte, nutzt aber die Eigenschaft i2 = 1 aus, wenn mal eine grere
bentigt wird.
Denition 8.2.2.
heit Krper der komplexen Zahlen. Fr
C := {a + ib | a, b R , i2 = 1}
z = a+ib C heit Re(z) := a der Realteil von z und Im(z) := b der Imaginrteil z . Skizziert man komplexe Zahlen als Vektoren bzw. Punkte (a, b) in einem kartesischen Koordinatensystem, so nennt 2 man R Gausche Zahlenebene. Die Lnge eines Vektors in der Gauschen Zahlenebene heit Betrag der komplexen Zahl,
von i.Z.
a2 + b2 .
(r, )
von
(a, b)
ist der von der positiven reellen Achse entgegen dem Uhrzeigersinn gemessene Winkel
Satz 8.2.3.
Die Abbildung
k:
CC a + ib a ib z1 , z2 C:
a + ib.
a + ib = a ib
k(a + ib).
In der Gauschen Zahlenebene entspricht die Konjugation einer Spiegelung an der reellen Achse. Obige Rechenregeln lauten umgeschrieben und noch erweitert auf die Inversen: 35
Folgerung 8.2.5.
z1 + z2 z1 z2 = z1 + z2 = z1 z2 , z1 z2 z1 , z2 = z1 z2 z1 = z2 , , z zz = z = |z|
2
Besonders ntzlich fr das Rechnen mit Potenzen komplexer Zahlen ist der folgende Satz, der hier ohne Beweis (kommt sicher irgendwann in der Analysis) mitgeteilt wird:
Satz 8.2.6.
2.11.10
n N :
und
sin( + ) = cos() sin( ) + sin() cos( ) cos( + ) = cos() cos( ) sin() sin( ) ,
und damit
z z = r r (cos( + ) + i sin( + )) z
bewirkt in der Gauschen Zahlenebene eine Drehstreckung (Lnge mal
r,
Satz 8.2.7.
Fr alle
z+z 2 zz 2i
z, w C
gilt:
Re(z) = Im(z) =
Punkte sind eine einfache bung, der letzte Punkt wird bei der Besprechung der Norm
Abbildung 20:
Algebraische Strukturen
36
9 Matrizenrechnung
9.1 Gleichheit, Addition, Vielfache, Transposition
Denition 9.1.1.
heien gleich, i.Z. Es sei
A = (aij )1im K mn
1jn bij fr 1 i
und
B = (bij ) 1ip K pq
1jq
A = B,
Es sei
wenn gilt
m = p, n = q
und
aij =
und
1 j n.
Denition 9.1.2.
Denition 9.1.3.
Es sei
A = (aij )1im K mn
1jn
sei
Satz 9.1.4.
Es sei
ein Krper.
(K mn , +)
K,
Die nur mit dem Nullelement des Krpers gefllte Nullmatrix und zu jedem
0 :=
(0)1im
(K mn , +)
A = (aij )1im K mn
1jn
1jn Element A
= (aij )1im K mn .
1jn
Denition 9.1.5.
Es sei
A = (aij )1im K mn
1jn
ist
A := (aij ) 1in K nm
1jm
mit
aij = aji
fr
1in
Transponierte von
A.
... ...
. . .
...
... ...
. . .
...
Satz 9.1.6.
(1) (2) (3)
t
Es sei
ein Krper. Fr
A, B K mn
gilt
(A + B) = tA + tB , ( A) = tA, A = A.
t t
Denition 9.1.7.
Es sei
A K nn
mit
A=A
heit symmetrisch.
Die folgenden speziellen Matrizen werden immer wieder gebraucht und teilweise mit eigenen Namen versehen. Dabei sei jeweils
ein Krper. 37
Die Einheitsmatrix
1n
1 0 0 1 0 0 := . . . . . . 0 0
0 0 1
.. .
... ...
.. .. . .
0 0
.. .. . .
...
0 0 0 . K nn . . 0 1
ij :=
1 i=j : 0 i=j
1n = (ij ) 1in
1jn
Die Einsermatrizen
. . . Eij := i . . . . . .
0 ... 1
0
. . . . . . . . .
K mn
0
Obere Dreiecksmatrizen
0 0 0 . . . 0 0 0
wobei
...
K nn . . . (aij ) 1in K nn
1jn
mit
aij = 0
fr
...
K nn 0 (aij ) 1in K nn
1jn
mit
wobei
steht, oder
aij = 0
fr
i j.
Die Nullmatrix
0 0 O := 0 . . . 0 . . . K
0 0 0 0
0 0 0 0
...
0 0 0 K mn . . . 0 0 0 0 K nn 0
Untere Dreiecksmatrizen
0 0 0
... ...
.. .
...
wobei
steht, oder
(aij ) 1in K nn
1jn
mit
aij = 0
fr
i < j.
38
0 . . . K
0 0 0 0 0
...
0 0 0 K nn . . . 0 (aij ) 1in K nn
1jn
mit
wobei
steht, oder
aij = 0
fr
i j.
9.3 Multiplikation
Denition 9.3.1.
Es sei
ein Krper. Fr
sei
A B := C = (cik )1im K mp
1kp
mit
cik :=
j=1
aij bjk .
Spalte gerechnet:
a11
...
. . .
a1n
ai1 am1
Insbesondere gilt fr eine
...
. . .
...
ain amn
t
cik
x1
...
xn
K n)
am2 . . .
Ax = b
x = x1
...
xn
eine
1 n-Matrix
(=Zeilenvektor), so gilt
x B = x1 b11 + + xn bn1
n n
,..., xj bjp
x1 b1p + + xn bnp
=
j=1
xj bj1
,...,
j=1
Es sei speziell
x = ei = (ij )1jn (Kronecker-Symbol) einer der so genannten kanonischen Einheitsvektoren, d.h. ein Vektor mit 0 in allen Positionen und nur einer 1 an der i-ten Stelle.
liefert dann gerade die
A ei
i-te
Spalte von
A.
39
(ei ) B
die
i-te
Zeile von
B.
z1 , . . . , zm K 1n
A,
AB =
z1
. . .
z1 B
. B = . . . zm B zm
Sind
s1 , . . . , sp K n1
B,
A B = A s1
...
sp = A s1
und
...
A sp .
gilt:
Satz 9.3.2.
(1) (2) (3) (4) (5)
Fr
A, A1 , A2 K mn , K , B , B1 , B2 K np
(1. Distributivgesetz), (2. Distributivgesetz),
C K pq
(A1 + A2 ) B = A1 B + A2 B A (B1 + B2 ) = A B1 + A B2
(A B) = ( A) B = A ( B), (A B) C = A (B C)
t
(Assoziativgesetz),
(A B) = tB tA. K bewiesen. Hier wird (1) (2) A1 = (aij ), A2 = (aij ) und B = (bij ): (A1 + A2 ) B = (aij + aij ) (bij ) =
j=1 (1) (2) n (1) (2)
Beweis: All diese Gesetze werden durch Einsetzen in die Denition der Matrizenmultiplikation und Verwendung
der entsprechenden Rechengesetze im zugrunde liegenden Krper gesetz (1) als Beispiel gezeigt. Dazu seien nur das 1. Distributiv-
j=1
n (1)
n (2)
aij bjk =
aij bjk +
j=1 j=1
(1) (aij )
(bij ) +
(2) (aij )
(bij ) =
= A1 B + A2 B
Speziell fr
K nn 0
sind
und
Die Nullmatrix
1 2
1 2
0 1
0 0
1 2
0 0
0 1
0 1
0 1
0 0
1 2
1 2
1 2 1 2 1 1 1 1 = 0 0 0 0
Satz 9.3.3. (K nn , +, )
X in sich zwar eine innere, assoziative Verknpfung mit idX , die Menge A(X) all dieser Abbildungen ist aber blicherweise keine Gruppe, weil F
die Menge aller Abbildungen der Gestalt
Nun sei
X = Kn
und
fA :
mit einer festen
Kn Kn x Ax
(n n)-Matrix A K nn .
fA fB
ist wieder in
F. F.
Die Hintereinanderausfhrung solcher Abbildungen wird gerade durch das Matrizenprodukt beschrieben. Wegen
idK n = f1n
Es sind nicht alle Abbildungen dieses Typs invertierbar (s. etwa das vorangegangene Beispiel mit den Nullteilern) Es ist also
(F, )
keine Gruppe.
Deshalb betrachtet man die Menge aller invertierbaren Abbildungen aus sition eine Gruppe
F.
GL(n, K) := {fA | fA
die so genannte allgemeine lineare Gruppe (englisch:
ist invertierbar} ,
Eine Abbildung
fA F
B K nn
bzw. ein
fB F
mit
heit die zu
B = A1 .
Da
fA
und
GL(n, K) := {A K nn | A
schreiben.
ist invertierbar} ,
Statt invertierbar sagt man auch regulr, eine nicht invertierbare Matrix heit auch singulr.
Beispiel 9.4.1.
Es ist
1 0 1 0
1 1 1 1
GL(2, R), 1 0 1 1
denn
= 12
1 0
1 1
1 0
1 1
Beispiel 9.4.2.
Es ist
i 1 i 1
1 i 1 i
= , 1 2
1 2 i 1
i 1 1 i
1 i
also
GL(2, C) A, B GL(n, K)
und
Satz 9.4.3.
Es sei
n N.
Fr beliebige
41
C, D K nn
gilt:
AA1 = A1 A = 1n , AC = 1n C = A1 , DA = 1n D = A1 , A1 (AB)
1 1
= A,
= B 1 A1 ,
hat die eindeutige Lsung
X, Y K np AX = Y GL(n, K)
X = A1 Y .
Beweis: Da
eine muliplikative nichtabelsche Gruppe ist, sind die hier aufgelisteten Eigenschaften Nur der letzte Punkt erweitert nicht zwingend quadratische Matrizen sind. von links Es ist durch Einsetzen klar, dass
direkte Folgerungen der Gruppendenition 7.1.1 und der Stze 7.1.6 und 7.1.8. 7.1.6(4) etwas, da
X, Y A
1
X = A1 Y
Multiplikation mit
Lsung, so ist
0 = AX AX = A(X X ). A
nicht
Satz 9.4.4.
invertierbar.
Es sei
A K nn
A eine Nullspalte, so ist fr jede Matrix B K nn die i-te Spalte von BA eine BA = 1n ein. Entsprechend ist die j -te Zeile von AB eine Nullzeile, wenn die j -te A GL(n, K)
gibt es
verschwindet.
A1 GL(n, K)
mit
A A1 = 1n . n
LGSe handelt:
Fasst man diese Matrizengleichung spaltenweise auf, so sieht man, dass es sich um
A (i-te
Wegen
Spalte von
A1 ) = i-te
Spalte von
1n = e i
fr
i = 1, . . . , n .
A GL(n, K)
sind diese
Rechenschema:
(A|1n )
(1n | B )
=A1
42
10 Vektorrume
10.1 Grundlagen
Denition 10.1.1.
Verknpfung in Es seien
4.11.10
und
V = eine Menge, und K ein Krper. Ferner seien + : V V V eine innere : K V V eine uere Verknpfung von V mit K . V heit ein K -Vektorraum (oder
0 + v = v v V .
mit
(V4 ) v V v V
v + v = 0 ( = v). v
(V1 )-(V4 )
(V5 )-(V8 )
regeln, dass die Multiplikation mit Skalaren ordentlich mit der Addition in dieser Gruppe zu-
sammenwirkt.
Folgerung 10.1.2.
(VR1 ) (V, +) (VR2 )
Es sei
V = eine Menge mit einer inneren Verknpfung + : V V V : K V V . V heit ein K -Vektorraum, wenn gilt:
Die Multiplikation mit Skalaren ist auf folgende Weise mit (a) (b) (c) (d)
(V, +)
vertrglich
( + ) v = v + v , K, v V . () v = ( v) , K, v V . (v + w) = v + w K, v, w V . 1 v = v v V .
k 0 := 0
fr alle
k K
fr jeden
Beispiel 10.2.2.
Jeder Krper
K -Vektorraum,
einfach die Krpermultiplikation verwendet. Man spricht in diesem Zusammenhang auch von dem eindimensionalen arithmetischen
K -Vektorraum. K
ist das
Beispiel 10.2.3.
Fr jeden Krper
n-fache
kartesische Produkt
V = Kn
K -Vektorraum.
n-dimensionalen
arithmetischen
K-
Beispiel 10.2.4.
Ist
ein Krper,
V := K S = {f | S K} .
Dann ist
f, g V, s S f V, k K, s S
ein
K -Vektorraum.
Vektorrume des Typs 10.2.4 spielen auch in der Analysis eine wichtige Rolle, etwa mit Statt ganz also
Beispiel 10.2.5.
K = S = R,
V = RR .
{f : R R | f
(oft mit
ist stetig}
C(R, R)
{f : R R | f
Beispiel 10.2.6.
Ist
S = N0 ,
V := K N0 = {f | N0 K} ,
so kann man diese Abbildungen auch durch Angabe all ihrer Bilder eindeutig beschreiben, etwa in der Gestalt
(f (0), f (1), f (2), f (3), . . . ). Meist schreibt N Die Element von V := K 0 heien Folgen
(a0 , a1 , a2 , a3 , . . . ) mit f (i) =: ai K fr i N0 . und bilden mit den in 10.2.4 eingefhrten Abbildungen einen
(a0 , a1 , a2 , . . . ) + (b0 , b1 , b2 , . . . ) = (a0 + b0 , a1 + b1 , a2 + b2 , . . . ) , k(a0 , a1 , a2 , a3 , . . . ) = (ka0 , ka1 , ka2 , ka3 , . . . ) k K, (a0 , a1 , a2 , . . . ), (b0 , b1 , b2 , . . . ) K N0 .
Beispiel 10.2.7.
(f (1), . . . , f (n)).
man
Ist
S = {1, 2, . . . , n} (a1 , . . . , an )
mit
mit
n N,
gen wie im letzten Beispiel wieder durch Angabe all ihrer Bilder eindeutig beschreiben, etwa in der Gestalt Schreibt man stattdessen wieder
f (i) =: ai K
i {1, 2, . . . , n},
so sieht
K {1,2,...,n} = K n ,
was nochmals zeigt, dass die Schreibweise
KS
ein
Satz 10.2.8.
(1) (2) (3) (4)
Es sei
K -Vektorraum.
Dann gilt:
0 v = 0 v V . 0 = 0 K. v = 0 = 0 v = 0 K , v V . () v = v = (v) K , v V .
Auch hier wurden nochmal zur Deutlichkeit die Vektoren fett geschrieben. Die gezeigten Rechenregeln zeigen aber, dass das nicht ntig ist. Selbst den Skalar
und den Nullvektor muss man nicht durch die Schreibweise unterscheiden, denn es
rechnet sich mit beiden ganz hnlich und aus dem Zusammenhang ist jeweils klar, was gemeint ist. Ab jetzt wird deshalb fr Vektoren keine besondere Schreibweise mehr verwendet.
Denition 10.2.9.
Es seien
ein Krper,
ein
K -Vektorraum
und
U V.
Die Menge
heit Untervek-
torraum (oder einfach Unterraum, Teilraum oder auch linearer Teilraum), falls gilt:
44
Folgerung 10.2.10.
(U3 )
mit
Damit ist U (mit den gleichen Verknpfungen wie in V ) ebenfalls ein Vektorraum, denn = 1 garantiert u U und mit (U2 ) ist das gerade der Untergruppentest, d.h. (U, +) ist eine Untergruppe von (V, +). Wegen (U3 ) ist diese Untergruppe auch bzgl. der Multiplikation mit Skalaren abgeschlossen. Da die Regeln (VR2 ) in V gelten, gelten sie auch in U .
Beispiel 10.2.11.
U := {(x, 2x) R2 | x R} = R 1 2 R2 ,
denn
U = , 1 1 1 , 2 2 2 1 2 U 1 1 2 U 1 1 + 2 2 2 R . U
und
Beispiel 10.2.12.
Die Analysis liefert mit Stzen wie Die Summe stetiger Funktionen ist wieder stetig die
Begrndung, dass die Teilmengen C(R, R) := {f : R R | f ist stetig} oder R von V = R (und viele hnliche Gebilde) Untervektorrume von V sind.
{f : R R | f
ist dierenzierbar}
Satz 10.2.13.
Beweis: Es sei
Der Durchschnitt beliebig vieler Unterrume eines Vektorraumes ist ein Unterraum.
und
D :=
U U
Da
U.
nicht leer. Fr fr jedes
fr alle
U U.
Da
ka D
fr jedes
U ein k K.
Beispiel 10.2.14.
Abbildung 21:
10.3 Erzeugendensysteme
Denition 10.3.1.
Es seien
ein Krper,
ein
K -Vektorraum, M V V
mit
und
U := {U | U
UVR von
45
M U}
V,
die
Lin (M ) :=
U U
U.
Lin (M )
fr jedes
M V
Lin (M )
ist.
Die Denition eines Erzeugendensystems hat zwar viele Vorteile, ist aber nicht sonderlich geeignet, wenn man die Elemente aus
Lin (M )
Denition 10.3.2.
und
Es seien K ein Krper und v1 , . . . , vn V endlich viele Vektoren eines K -Vektorraumes V n M V eine nichtleere Teilmenge von V . Jeder Vektor v = i=1 ci vi mit ci K heit Linearkombination von v1 , . . . , vn . Ein Vektor v heit Linearkombination der Menge M , wenn er Linearkombination von endlich vielen Vektoren v1 , . . . , vn M ist.
Satz 10.3.3.
von
Es sei
M V
und
M.
Dann gilt
Lin (M ) = M .
Beweis:
V,
denn
M M =
Mit Mit Da
v, w M v M
ist auch
v + w M ,
ist auch
denn
und
v+w
eine.
und
kK
kv M .
M M und Lin (M ) der kleinste M umfassende Teilraum von V ist, folgt Lin (M ) M . Andrerseits enthlt Lin (M ) als Vektorraum insbesondere alle Linearkombinationen von Vektoren aus M und somit auch M , d.h. M Lin (M ), d.h. M = Lin (M ).
Denition 10.3.4.
Es seien
ein Krper,
ein
K -Vektorraum U
U U
und
V.
ist
U := Lin
U U
. U1 + + Un .
Ist
U = {U1 , . . . , Un },
In
Beispiel 10.3.5.
Dann gilt
1 0 1 0 ,v= i ,w= 1 . 0 i 1 Lin (u) + Lin (v) + Lin (w) = Lin (u, v), denn u iv = w. C3 u=
Satz 10.3.6.
Es seien K ein Krper, V ein K -Vektorraum und U = {U1 , . . . , Un } eine Menge von (paarweise verschiedenen) Teilrumen von V . Der Summenraum U1 + U2 + + Un besteht genau aus den Vektoren v V , n die sich in der Form v = i=1 ui mit ui Ui schreiben lassen. Beweis: Da
gibt
M := u1 , . . . , um
U U
darstellen, d.h. es
v = d1 u1 + + dm um .
Diese Vektoren kann man so nummerieren, dass die ersten in sind. einem einzigen
8.11.10
U1 ,
die nchsten in
U2
Un
Da dies alles Untervektorrume sind, kann man aber diese Grppchen auch jeweils zusammenfassen zu
u1 U1 , u2 U2
usw. bis
un Un .
Dies zeigt die eine Hlfte der Behauptung, die andere ist
eh klar.
46
10.4 Basen
Beispiel 10.4.1. v1 := (3, 0) , v2 := (0, 2) , v3 := (2, 3) ,
des ist ein Erzeugendensystem von
R2
(x, y) =
Diese Darstellung ist aber nicht eindeutig:
x 3
4 v1 +
y 2
9 v2 + 6v3
w := (1, 0) w = 1 v1 3
kombination von
oder
w = 1 v3 3 v2 . 2 4
Man versteht das Problem besser, wenn man sich klar macht, dass sich der Nullvektor als nichttriviale Linear-
v1 , v2 , v3
darstellen lsst:
1 w = 1 v 1 = 1 v3 3 v2 3 v1 + 3 v2 1 v3 = 0 3 2 4 4 2
Denition 10.4.2.
Es seien
ein beliebiger
K -Vektorraum. Vektoren v1 , . . . , vn V
heien
linear unabhngig, wenn der Nullvektor nur die so genannte triviale Linearkombination
0 = 0 v1 + + 0 vn
n
ci vi mit ci K zwingend c1 = c2 = = cn = 0 folgt. i=1 Gibt es dagegen auch nichttriviale Linearkombinationen der 0, so heien v1 , . . . , vn linear abhngig. 0=
Eine Teilmenge
M V
linear
Beispiel 10.4.3.
Linearkombination
0.
Dagegen ist
{v1 , v2 }
und
{v3 }
linear unabhngig.
Beispiel 10.4.4.
vi ci vi (leere Summe) setzt man blicherweise gleich dem Nullvektor. Da jeder Vektorraum den Nullvektor enthlt, gilt Lin () = {0}, d.h. auch fr
die leere Menge gilt 10.3.3, das Erzeugnis der leeren Menge ist der nulldimensionalen Vektorraum
{0}.
Satz 10.4.5.
Es seien
ein beliebiger
K -Vektorraum.
Dann gilt:
(1) Teilmengen linear unabhngiger Mengen in (2) Obermengen linear abhngiger Mengen in (3) Ein einzelner Vektor
Beweis: in der bung
v V \ {0}
Satz 10.4.6.
und
Es seien
K ein Krper und V ein beliebiger K -Vektorraum. Eine aus mindestens zwei Vektoren M V ist genau dann linear abhngig, wenn ein Vektor m M existiert, der sich als von M \ {m} schreiben lsst, d.h. wenn es endlich viele ci K und vi M gibt mit vi = m
n
m=
i=1
ci vi . 1
bei
n n i=1 ci vi , so folgt 0 = i=1 ci vi m. Da dies wegen der Linearkombination ist, sind v1 , . . . , vn , m und somit M linear abhngig.
Beweis: : Ist
: 0= Ist
m=
r i=1
vr
Denition 10.4.7.
Vektorraumes
ein beliebiger
eines
K-
V,
wenn gilt
47
(1) (2)
Lin (B) = V , B
ist linear unabhngig.
Beispiel 10.4.8. Nach 10.4.4 ist klar, dass eine Basis des nulldimensionalen Vektorraumes V = {0} ist. Beispiel 10.4.9. Fr jede Zahl k K \ {0} ist {k} eine Basis des eindimensionalen arithmetischen K Vektorraumes unabhngig.
K,
denn jedes
k K
darstellen und
{k}
Beispiel 10.4.10.
Laut 10.4.3 sind {v1 , v2 , v3 } linear abhngig, also keine Basis {v1 , v2 }, {v1 , v3 }, {v2 , v3 }, {v1 }, {v2 } und {v3 } sind dagegen linear unabhngig. {v1 , v2 }, {v1 , v3 }
und und
des
R2 .
Die Mengen
Die drei zweielementigen Mengen 2 des R . Die einelementigen Mengen 2 nicht Basen des R .
{v2 , v3 }
R2 ,
{v1 }, {v2 }
{v3 } Kn
R2 ,
sind also
Beispiel 10.4.11.
Im arithmetischen Vektorraum
e1 : = (1, 0, 0, . . . , 0, 0, 0) e2 : = (0, 1, 0, . . . , 0, 0, 0)
. . .
e1 , . . . , e n
heien kanonische
Satz 10.4.12.
(1)
Es seien
ein Krper,
ein
V.
Eine Basis ist ein linear unabhngiges Erzeugendensystem.
(2)
Lin (B) = V , B
aber fr jedes
gilt
Lin (C) = V .
Eine Basis ist ein minimales Erzeugendensystem.
(3)
ist
linear abhngig.
dargestellt werden.
V = {0}, d.h. es ist nur die quivalenz der Punkte (1)-(3) zu zeigen. V hat nur und sich selbst. Fr sind die Aussagen (1)-(3) wahr, fr V falsch. Dies zeigt die Behauptung. Nun sei also V = {0}. Statt der insgesamt 6 zu zeigenden quivalenzen, d.h. 12 Implikationen, kann man sich die
Beweis: Zuerst der einfache Fall
die Teilmengen Arbeit deutlich erleichtern, wenn man eine geeignete Teilmenge dieser Implikationen zeigt und die Transitivitt von ausnutzt, etwa
(1) (4)
bzw.
(4) (1).
Die anderen Beweise nden sich zum Nachlesen praktisch in jedem Buch nmlich
(4),
vV
Lin (B) = V ,
d.h.
ci , di K
mit
v V als Linearkombination von B darstellen, die Darstellung ist aber nicht ci = di fr mindestens ein i zwischen 1 und n und bi B (paarweise
n n
ci bi = v =
i=1
Daraus folgt aber sofort
di bi .
i=1
n i=1 (ci
di )bi = 0,
B.
Dann ist
48
10.5 Existenz
Jeder Vektorraum besitzt ein Erzeugendensystem (z.B. sich selbst). Die Frage, ob jeder Vektorraum auch eine Basis besitzt, ist aber keineswegs einfach zu beantworten. Die Antwort lautet ja, zum Nachweis ist aber ein ziemliches mathematische Geschtz ntig, das so genannte Zornsche Lemma.
6
Man startet von unten, d.h. von der linear unabhngigen Menge
zunahme von Vektoren so zu erweitern, dass die neue Menge jeweils linear unabhngig bleibt. Bei diesem Prozess kommt man irgendwann bei einer Menge an, die selbst noch linear unabhngig ist, aber durch die Hinzunahme eines jeden beliebigen Vektors linear abhngig werden wrde (hierzu braucht man im unendlichen Fall das Zornsche Lemma). Nach 10.4.12(3) ist solch eine maximale linear unabhngige Menge eine Basis des betrachteten Vektorraums.
Denition 10.5.1.
mit
Es seien
ein
K -Vektorraum. Besitzt V
EV
Lin (E) = V ,
so heit
Man startet von oben, d.h. von dem endlichen Erzeugendensystem endlichdimensionalen Vektorraumes gibt. Ist Ist
E,
linear abhngig, so wirft man mit Hilfe von 10.4.6 unntige Vektoren aus
einem minimalen Erzeugendensystem anlangt. Nach 10.4.12(2) ist solch ein minimales Erzeugendensystem dann eine Basis des betrachteten Vektorraums
Satz 10.5.2
(Basissatz)
von
mit
K ein Krper, V ein K -Vektorraum und A V linear unabhngig. A B , d.h. A lsst sich zu einer Basis B von V ergnzen.
Beweis: Man geht prinzipiell wie bei dem Beweis mit dem Zornschen Lemma vor (s. S.49), startet aber nicht
mit
A.
Es seien
ein Krper,
K -Vektorraum
mit einer
B = {b1 , . . . , bn }.
Besitzt
bV
b = 1 b1 + 2 b2 + + n bn
mit man
1 , . . . , n K und j = 0 fr ein j zwischen 1 und n, so erhlt man eine andere Basis B von V , bj gegen dieses b austauscht, d.h. B := {b1 , . . . , bj1 , b, bj+1 , . . . , bn } ist auch eine Basis von V .
wenn
b = 1 b1 + 2 b2 + + n bn B,
so
1 = 0. nun v = 1 b1 + 2 b2 + + n bn
1 1 b
vV
= 1 b1 +
1 1 b
1 b1 =
6 Das
1 2 1 n 1 b2 + + 1 bn 1 2 1 n 1 1 b2 1 bn = 1 b
n 1 i i=2 1 bi
Wort Lemma kommt aus dem Lateinischen (und das wiederum von dem griechischen Wort lambanein - nehmen)
und bedeutet alles, was man nimmt. In der Mathematik wird das meist fr einen Hilfssatz bei Beweisfhrungen benutzt. Im vorliegenden Fall ist das etwas untertrieben, denn es handelt sich um eines der Grundaxiome der Mengenlehre. Zusammen mit der Zermelo-Fraenkel-Mengenlehre kann man zeigen, dass dieses Lemma zu anderen wesentlichen Grundstzen, wie dem oder dem beiden anderen.
Auswahlaxiom Wohlordnungssatz beweisbar quivalent ist, d.h. man setzt jeweils einen dieser Stze als Axiom voraus und folgert die
49
1 b1
v = 1 b1 + 2 b2 + + n bn = =
d.h. jedes von
1 1 b
n 1 i i=2 1 bi
n i=2
i bi =
1 1 b
n i=2 (i
1 i 1 )bi
vV
B = {b, b2 , . . . , bn }
darstellen,
ist Erzeugendensystem
V. B
ist auch linear unabhngig, denn es gilt
Dieses
1 b + 2 b2 + + n bn = 0 1 1 b1 +
i=2
und daraus folgt wegen der linearen Unabhngigkeit von Wegen
(1 i + i )bi = 0
b1 = 0
und
1 = 0
liest man
1 = 0
linear
unabhngig.
B = {b1 , . . . , bn }. Sn , so dass V
ist.
Sind
K -Vektorraum
k n
k : Fr k = 1 ist die Aussage des Satzes gerade die Aussage des kleinen Austauschsatzes,
k > 1 und wir gehen von der Induktionsvoraussetzung k 1 n und einer Basis B := {a1 , . . . , ak1 , b(k) , . . . , b(n) } aus, wobei Sn sei. Wre k 1 = n, so wre schon {a1 , . . . , ak1 } eine Basis von V , was aber nicht mglich ist, denn nach Voraussetzung ist {a1 , . . . , ak } linear unabhngig. Es ist also k 1 < n k n. Bezglich der Basis B von V besitzt ak V die eindeutige Darstellung
k1 n
ak =
i=1
i ai +
i=k
i b(i)
mit
1 , . . . , n K .
Null verschieden sein, denn sonst den zugehrigen Basisvektor
In dieser Darstellung muss mindestens einer der Koezienten ergbe sich ein Widerspruch zur linearen Unabhngigkeit von Ist nun etwa
k , . . . , n von {a1 , . . . , ak }.
b(
) der Basis
k n und = 0, so kann man nach dem kleinen Austauschsatz B gegen ak austauschen und erhlt so eine neue Basis. {a1 , . . . , ak1 , b(k) , . . . , b(
1) , ak , b( +1) , . . . , b(n) }
k,
= .
Der Steinitzsche Austauschsatz gibt jetzt direkt Auskunft ber die Gre von Basen. Sind nmlich
V,
so folgt
B : k n, B : n k.
sind gleichmchtig!
d.h. es gilt
k = n;
K -Vektorraumes V
Der Austauschsatz lsst sich (bei entsprechender Umformulierung) auf den Fall unendlicher Basen ausdehnen. Damit kann man dann auch zeigen, dass je zwei unendliche Basen die gleiche Kardinalitt besitzen. Dies ermglicht die folgende Denition 50
Denition 10.5.6.
{b1 , . . . , bn }.
Es seien
Dann heit
K ein Krper und V ein endlich erzeugter K -Vektorraum mit einer Basis B = dim(V ) := |B| = n die Dimension von V . Ist V nicht endlich erzeugt, so wurde bereits er dann unendlichdimensional heit. In diesem Fall schreibt man dim(V ) = . dim({0}) = 0, dim(K n ) = n,
denn die Basis
von
{0}
hat
Elemente. hat
{e1 , . . . , en }
Elemente.
11.11.10
man kann nicht einmal eine Basis explizit angeben. ein endlich erzeugter
Es seien
K -Vektorraum,
also
dim(V ) < .
Fr jeden
von
gilt dann
(2) Ist
U =V.
dim(U ) = n, so besitzt U eine Basis {b1 , . . . , bn }, die sich nach dem Basisergnzungssatz 10.5.3 V erweitern lsst. Somit ist die Kardinalitt der Basis (=Dimension) von V grer oder gleich {b1 , . . . , bn } U, V
von
U. V
erweitern lsst. Ist nun aber auch
(2) Wieder geht man von einer Basis einer Basis von ist auch schon eine Basis von
U aus, die sich nach dem Basisergnzungssatz 10.5.3 zu dim(V ) = n, so ist da nichts mehr zu tun, d.h. {b1 , . . . , bn } xV B V
V.
Wenn
eine gleiche Basis besitzen, sind sie natrlich gleich. bezglich einer Basis eine Basis von von eindeutig.
Nach 10.4.12(4) ist die Darstellung eines jeden Vektors Ist insbesondere
endlichdimensional und
B = {b1 , . . . , bn } i bi
mit
V,
vV
v=
i=1
1 , . . . , n K . vV
eindeutig festgelegt durch das
Fr eine fest vereinbarte Reihenfolge der Basisvektoren ist also jedes zugehrige
Um die Reihenfolge der Basisvektoren deutlich zu machen, schreibt man auch von einer geordneten Basis von
V. V
ein endlichdimensionaler
Denition 10.5.11.
Es seien
ein Krper,
n
K -Vektorraum
B = (b1 , . . . , bn )
V.
Ist
v=
i=1
i bi B,
mit
1 , . . . , n K
vV
bezglich
so heit
v/B :=
die Koordinatendarstellung von
. . . n
Kn
bezglich
B.
eine geordnete Basis
n-dimensionalen K -Vektorraum
B K n!
Mit dem Dimensionsbegri ist man nun in der Lage, den bisher schwammig eingefhrten Rang einer Matrix sauber zu denieren. Dazu betrachtet man eine beliebige Matrix
... ...
. . .
...
Die Zeilenvektoren
z1 := a11
von
a12
...
a1n , . . . , zm := am1 A
am2
...
amn
s1 :=
von
a11
. . .
a1n
. , . . . , sm := . . amn am1 A
(i) Vertauschen zweier Zeilen (ii) Multiplikation einer Zeile mit einer Konstanten (iii) Addition des
K \ {0}
-fachen
einer Zeile,
an der Matrix aus, so bleiben die Zeilen der Matrix ein Erzeugendensystem des Zeilenraumes Typ (i) und (ii) ist das ohne Beweis klar, bei Typ (iii) eine leichte bungsaufgabe).
Z(A)
(bei
Somit kann man das Gau-Verfahren als bergang von dem ursprnglich gegebenen Erzeugendensystem des Zeilenraumes zu einer Basis des Zeilenraumes interpretieren, denn die Zeilenstufenform am Ende des Umformungsprozesses ist ein minimales Erzeugendensystem und somit eine Basis. Die lineare Unabhngigkeit der verbleibenden Zeilen sieht man auch direkt an den Pivotspalten.
gewesen,
wobei eben nicht klar war, ob diese Zahl berhaupt eindeutig bestimmt ist.
Mit obiger berlegung kann man jetzt den Rang einer Matrix sauber denieren:
Denition 10.5.12.
Es seien
A K mn .
A,
i.Z.
Rang(A),
ist
Rang(A) := dim(Z(A)) .
Die gleichen berlegungen kann man natrlich auch fr den Spaltenraum anstellen. Die Anzahl der Spalten in der resultierenden Spaltenstufenform ist dann die Dimension des Spaltenraumes. Im Gegensatz zu dem gerade eingefhrten Zeilenrang der Matrix
A.
Damit stellt sich die Frage, wie sich Zeilen- und Spaltenrang zueinander verhalten. Diese wird durch den folgenden Satz auf sehr einfache Weise beantwortet, denn die beiden Rnge sind immer gleich.
Satz 10.5.13.
Es seien
A K mn .
Dann gilt
dim(Z(A)) = dim(S(A)) .
Beweis: Wird nachgetragen im Abschnitt ber lineare Abbildungen.
52
Ist
ein
K -Vektorraum
und
W V
V,
v w : v w W
eine quivalenzrelation auf
deniert.
[v]
von
ist
[v] = v + W
W V
Im geometrischen Zusammenhang nennt man die Nebenklasse auch einen aner Raum:
[v]
eines Untervektorraumes
von
Denition 10.6.1.
es ein
Eine Teilmenge
eines
vV
X = v + W := {u V | w W : u = v + w} .
Satz 10.6.2.
Es sei
X =v+W v X
K -Vektorraumes V .
Dann gilt:
gilt:
X = v + W.
von
mit
X = v+W = v +W
, so gilt
W =W
und
Beweis:
(1) Wegen v X = v + W gibt es ein w W mit v = v + w v = v w . X v + W : Es sei x X = v + W . Dann gibt es ein w W mit x = v + w. Einsetzen von v = v w x = v w + w = v + (w w ) v + W .
W
Dann gibt es eine
liefert
X v + W : Es sei x v + W . x = v + w + w v + W.
W
wW
mit
x = v + w.
Einsetzen von
v = v+w
liefert
(2) X X W : Man betrachtet die Dierenz x x von zwei beliebigen Elementen x, x X = v + W . Dann gibt es w, w W mit x = v + w und x = v + w , d.h. es ist x x = (v + w) (v + w ) = w w W . Deniert
man
X X := {x x | x, x X} , X X W ist. X X W : Nimmt man anders herum ein w W , so sieht man sofort, dass w X X x = v + w X = v + W und x = v X = v + W . Dies zeigt die andere Inklusion, also
so ist damit gezeigt, dass ist: man nehme etwa
W = X X := {x x | x, x X} . W =W
Wegen : Macht man die gleiche berlegung nochmal mit
X = v +W
W = X X , wW
mit
15.11.10
also zusammen
W =W
. insbesondere gilt
v v + W,
Denition 10.6.3.
tervektorraum
D(X)
mit
X = v + D(X)
und
K -Vektorraumes V . Der eindeutig bestimmte Unv V heit der Dierenzraum, Richtungsraum oder
Tangentialraum von
X.
Man setzt
dim(X) := dim(D(X)) .
Denition 10.6.4.
heit Gerade.
Es sei
K K
X X
der Dimension
1 2
eines
K -Vektorraumes V K -Vektorraumes V n1
Denition 10.6.5.
heit Ebene.
Es sei
der Dimension
eines
Denition 10.6.6.
von
Es seien
ein Krper,
ein
K -Vektorraum. 0 Punkt7 .
der Dimension
7 Diese
53
Aus der Theorie der linearen Gleichungssysteme folgt, dass man eine Hyperebene in einem
n-dimensionalen K -Vektorraum V als Lsung einer inhomogenen linearen Gleichung tax = a1 x1 + a2 x2 + + an xn = b n mit b K und a = (a1 , a2 , . . . , an ) K \ {0} beschreiben kann. n 1-dimensionalen
anen Teilraum beschreibt; eine Gerade im
R3
Denition 10.6.7.
heien
Es seien
und
parallel, in Zeichen
, wenn
X , X zwei ane Unterrume eines K -Vektorraumes V . D(X) D(X ) D(X ) D(X) ist. W
und
Dann
verschiedene Dimension
haben geht nmlich die Transitivitt verloren und somit ist die Parallelitt keine quivalenzrelation mehr.
Abbildung 22:
54
Denition 11.1.1.
Es seien
V, W
zwei
8
K -Vektorrume.
Eine Abbildung
f :V W
heit
fr alle und
v1 , v2 V ,
vV
k K. V
nach
wird mit
Hom(V, W )
bezeichnet.
Die folgenden Beispiele zeigen einige Standard-Homomorphismen und damit insbesondere auch die Existenz linearer Abbildungen.
Beispiel 11.1.2.
linear:
Es seien
V, W f:
zwei
K -Vektorrume. .
V W v0
Beispiel 11.1.3.
R
in
Es sei
V = C (R, R)
von
R.
Dann ist
:
eine lineare Abbildung.
V V d f dx f
Beispiel 11.1.4.
von
Es seien
und
in einen Krper
K,
also
T Mengen mit = S T . Weiterhin sei V der Vektorraum aller Abbildungen V = K T und analog W = K S . Weiterhin seien f V , also f : T K , und f |S : SK x f (x)
auf
S.
Dann ist
:
eine lineare Abbildung.
V W f f |S
Da es jetzt wieder um Abbildungen geht, spielen auch wieder die Begrie injektiv, surjektiv und bijektiv eine Rolle (wiederholen!):
Denition 11.1.5.
f :V W
Es seien
V, W
zwei
K -Vektorrume.
heit Epimorphismus.
f : V W heit Monomorphismus. f : V W heit Isomorphismus. Ein Homomorphismus f : V V heit Endomorphismus. Ein Isomorphismus f : V V heit Automorphismus. Statt Hom(V, V ) schreibt man kurz End(V ).
Ein injektiver Homomorphismus Ein bijektiver Homomorphismus
Wie schon bei Gruppen, ist auch bei Vektorrumen der Kern eines Homomorphismus das Urbild des neutralen Elements:
8 Das
55
Bereits im Abschnitt ber Gruppen ist gezeigt worden, dass der Kern eine Untergruppe des Urbildes ist:
Satz 11.1.7.
Es seien
Untervektorraum von
K V.
ein Krper,
V, W
zwei
K -Vektorrume
und
f Hom(V, W ).
Dann ist
Kern(f )
ein
Beweis: Leichte bung (kleine Abwandlung des entsprechenden Beweises 7.4.5 fr Gruppen, jetzt mit dem
Untervektorraum-Test 10.2.9 statt mit dem Untergruppen-Test 7.4.2).
Satz 11.1.8.
f
ist injektiv
zwei
K -Vektorrume
und
f Hom(V, W ).
Dann gilt:
Beweis: Wegen
ist
Ist ein
f (0) = 0 = f (v),
f,
Beispiel 11.1.9.
V = C (R, R)
V V d f dx f
End(V ) .
Wegen Kern(f ) = R = {0} ist f nicht injektiv (es sind genau die Konstanten, die die Ableitung 0 haben). Da man jedes Element von C (R, R) integrieren kann ( Analysis), besitzt jedes Element ein Urbild bzgl. x d (g(x) = 0 f (y) dy ist ein Urbild von dx g(x) = f (x)), d.h. ist surjektiv. Dies kann nur in unendlich groen Mengen passieren. Es wird noch gezeigt werden, dass sich die Aussage von endlichen Mengen auf endlichdimensionale Vektorrume erweitern lsst.
Satz 11.1.10.
Es seien
ein Krper,
m, n N
und
A K mn .
Dann ist
fA :
Kn Km v Av
Hom(K n , K m ) .
Beispiel 11.1.11.
Abbildungsmatrix
fA
R2
A=
gegeben. Ein Vektor
0 1
1 0
v2 abgebildet. v1 Aus der Schulmathematik wei man vielleicht noch, dass dieser Vektor die gleiche Lnge wie
v = ( v1 ) v2
orthogonal steht.
Deshalb handelt es sich um eine Drehung um 2 . Die Drehrichtung erkennt man, wenn man etwa das Bild fA (e1 ) = e2 betrachtet, d.h. es geht entgegen dem Uhrzeigersinn.
Wendet man fA zweimal hintereinander auf einen Vektor v an (also Drehung um bzw. Spiegelung am Ur2 sprung), so ist dies wieder eine lineare Abbildung mit der Abbildungsmatrix A , denn
1 0
0 v = 12 v = v , 1
9
A4 = 1 2 .
gibt,
9 Man
f,
zu der es ein
kN
mit
f k = id
idempotent.
56
Satz 11.1.12.
(1) (2) Ist
Es seien
ein Krper,
V, W
zwei
K -Vektorrume
und
Hom(V, W ).
Dann gilt
(U ) W
mit
dim((U ))
M = , so ist Lin (M ) = {0}, also (Lin (M )) = {0} und (M ) = , also auch Lin ((M )) = {0}. n M = und m1 , . . . , mn M . Dann gilt fr eine beliebige Linearkombination i=1 i mi von
n n
M:
i mi
i=1
=
i=1
i (mi ) ,
d.h. das Bild einer Linearkombination unter einer linearen Abbildung ist eine Linearkombination der Bilder. Liest man die Gleichung dagegen von rechts nach links, so sieht man dass auch jede Linearkombination von Bildern aus (2) Da
ist. Da bekanntlich die Menge aller Linearkombinationen und somit folgt mit Hilfe des bereits bewiesenen
einer Menge identisch mit dem Erzeugnis dieser Menge ist, folgt der erste Teil der Behauptung.
ist, gilt
Lin (U ) = U
ist.
von
U.
Es ist
dim(U ) = |B|
Somit ist
und
(B)
(U ).
ein Krper,
V, W
zwei
K -Vektorrume
und
f Hom(V, W ).
Bild(f ) := f (V ) W
und ist nach dem vorhergehenden Satz ein Untervektorraum von Der Rang der linearen Abbildung
W .10
Rang(f ) := dim(Bild(f )) .
fA :
mit einem aus allen
Kn Km v Av
gerade
A K mn , so folgt aus der Denition des Matrizenprodukts, dass der Bildraum von fA Linearkombinationen der Spalten von A besteht. Rang(fA ) = dim(Bild(fA )) = dim(S(A)) = Rang(A) .
Es gilt also
fA
stimmen also
Da sich noch herausstellen wird, dass sich jede lineare Abbildung zwischen endlichdimensionalen Vektorrumen wie
fA
mit Hilfe eines Matrizenprodukts schreiben lsst, ist diese Erkenntnis von groer Tragweite.
ist bekanntlich
Kern(f ) := f 1 ({0})
V.
Es gilt
Satz 11.2.2.
Es seien 1
und
Y W
ein Untervek-
10 englisch: Im(f )
57
Beweis: Es seien
Linearitt von
X := f 1 (Y )
auch
und
x, x1 , x2 X , k K .
Dann gilt
f (x1 ), f (x2 ) Y
besteht den Untervektorraumtest (damit ist auch der Beweis, dass der Kern ein Untervektorraum ist,
Denition 11.2.3.
f
Es seien
ein Krper,
V, W
zwei
K -Vektorrume
und
f Hom(V, W ).
Def(f ) := dim(Kern(f )) .
Satz 11.2.4.
gilt
Es seien
ein Krper,
V, W
zwei
K -Vektorrume, f Hom(V, W )
und
dim(V ) < .
Dann
B = {b1 , . . . , bn }
von
Kern(f )
zu einer Basis
mit und
B = {b1 , . . . , bm }
ergnzen.
f (B )
0=
i=1
heit
i f (bi ) = f
i=1
i bi
m i=1
i bi Kern(f )
i bi =
i=1
Da Da
i bi
i=1 i=1
i bi
i=1
i bi = 0
B =B B f (B ) linear
Die
18.11.10
Beweis: Ist f := fA : x Ax die durch A gegebene lineare dim(Bild(f )). Andererseits ist dim(Kern(f )) = nZeilenrang(A) Mit dem Dimensionssatz dim(Kern(f )) + dim(Bild(f )) = n und somit dim(Bild(f )) =Zeilenrang(A) =Spaltenrang(A).
= dim(S(A)) =
dim(Kern(f )) = n dim(Bild(f ))
eine Basis von
Satz 11.2.5.
(1) surjektiv (2) injektiv falls
Es seien ist
ein Krper,
und
zwei
K -Vektorrume
und
V.
Die Abbildung
f Hom(V, W )
Lin (f (B)) = W
dim(W )<
falls
Rang(f ) = dim(W ).
ist injektiv und
f (B)
linear unabhngig
dim(V )<
(3) bijektiv
f (B) W
falls
Rang(f ) = dim(V ) =
dim(W ).
58
Beweis: (1)
11
und somit
i f (bi ) | i K , M N, M i bi | i K , M N, M
iM f surj.
endlich
=f
endlich
=f (V ) = W . Rang(f ) := dim f (V ) = dim W folgt Rang(f ) = dim W aus der Surjektivitt. Aus dim f (V ) = dim W folgt nur im endlichdimensionalen Fall f (V ) = W und damit die Surjektivitt von f (siehe 11.5.22); im -dimensionalen Fall stimmt das i.A. nicht! (2) wurde teilweise schon in 11.1.8 erledigt,
Wegen weitere Teile werden in den bungen gezeigt.
f surj.
Der im letzten Punkt festgestellte Sachverhalt, dass Vektorrume genau dann isomorph sind, wenn sie gleiche Dimension haben, gilt sogar im
-dimensionalen
Ist V = W endlichdimensional, so ist fr ein injektives f nach Rang(f ) = dim(W ) und somit nach 11.2.5(1) f surjektiv. Entsprechend folgt aus Es gilt also:
Kern(f ) = {0},
surjektiv, dass fr
V =W
endlichdimensional
Folgerung 11.2.6.
Dann gilt:
Es sei
ist injektiv
V.
11.3 Matrixdarstellung
Ein
K -Vektorraum V
mit
m := dim(V ) <
K -Vektorraum
Es sei Es sei
B = (b1 , . . . , bm )
V.
B :
K m V (x1 , . . . , xm )
x i bi
i=1
(also insbesondere
B (ej ) = bj ) .
ist ein Isomorphismus, d.h.
Das so denierte
und
Km
endlichdimensionaler
K -Vektorraum K -Vektorraum
mit
m := dim(V ) n := dim(W )
B= C=
W ein (c1 , . . . , cn ).
Es sei
endlichdimensionaler
mit
f Hom(V, W ).
Es sei
:= 1 f B C
Da
bzw.
f = C 1 B
ebenfalls linear ( bung).
1 C
bung),f und
11 Ist B
vereinbart damit
Indexmenge N unendlich (mglicherweise sogar berabzhlbar), so whlt man ein geeignetes g V N und nennt man eine Familie in V und bi ein Element dieser Familie zum Index i.
59
Vy
B
GW G
Km
Als lineare Abbildung ist
Kn
1 C
durch die Bilder aller Basisvektoren einer geordneten Basis eindeutig festgelegt. E (m) = (e1 , . . . , em ) von K m und einen Vektor
m (m) (m) t
v1
v2 . . .
vm
m =1 t
ve
(m)
K m, vm
so gilt:
( v1
v2 . . .
) = (
=1
ve
(m)
)=
=1
v (e
(m)
),
(m)
(m)
v1
. . .
v1
. . .
E (n) .
des
K n ),
so gilt:
) = A
vm
Wegen
vm
bedeutet das also fr die ursprnglich betrachtete lineare Abbildung
f (v) = C 1 (v) . B
Ist nun
vb
B = (b1 , . . . , bm ) Km .
von
V,
so ist
1 (v) = 1 ( B B
=1
v b )=
=1
ve
(m)
v1
v2
...
vm
1 (v) = ( B f
v1
. . .
v1
. . .
w1
. . .
) = A
=:
vm
Damit ergibt sich fr insgesamt
vm
wn
f (v) = C ( 1 (v) B
w1
. . .
) = C (
we
=1
(n)
)=
=1
w c =: w
wn
Fr kann man auch
v/B
B. w/C = A v/B
Die Matrix
(11.1)
V,
W.
60
Denition 11.3.1.
bzw.
Die Matrix
A K nm
B, C
von
f Hom(V, W )
Diese Schreibweise ist in der Literatur nicht einheitlich: Einige andere Schreibweisen mit der gleichen Bedeutung sind etwa
M (f )B C
oder C M (f )B .
Die Schreibweise ist sehr einprgsam, was auf der folgenden Seite farblich unterstrichen wird.
v=
i=1
vi bi V
w=
j=1
w j cj W
x11 + x22
bung).
ist etwa
n = 1-dimensionalen R-Vektorraumes R C := 1
=c1
ist
R14
h(b1 )/C = (1) , h(b2 )/C = (0) , h(b3 )/C = (0) , h(b4 )/C = (1) .
Mit diesen Vektoren als Spalten ergibt sich
C [h]B
= 1
1 X
Mchte man nun also z.B. zuerst bezglich der Basis Wegen
h(X)
fr
X = (1 1) 1 1
und somit
1 1 1 1
= (2)
Damit ist
h(X) =
j=1
yj cj = y1 c1 = 2 1 = 2 = y ,
22.11.10
61
Beispiel 11.3.3.
Es sei
f:
Da die Ableitung linear ist, ist Schreibt man
f linear. p R[z]2 aus als p = az 2 + bz + c mit a, b, c R, so ist f (p(z)) = 2az + 2b. Da es sich bei f um einen Endomorphismus handelt, nimmt man blicherweise die gleiche Basis und Bildbereich. Eine mgliche Basis des m = 3-dimensionalen R-Vektorraumes R[z]2 ist etwa B := z 2 , z , 1
=b1 =b2 =b3
fr Denitions-
R33
f (b1 )/B =
Mit diesen Vektoren als Spalten ergibt sich
0 2 0
, f (b2 )/B =
0 0 2
, f (b3 )/B =
0 0 0
0 [f ]B = 2 B 0
Mchte man nun also z.B.
0 0 2
0 0 0
berechnen, so muss man
f (q) fr q(z) = z 2 3z + 2 mit Hilfe der Matrixdarstellung q zuerst bezglich der Basis B darstellen. Wegen q = b1 3b2 + 2b3 gilt 1 q/B = 3 2 und somit 0 1 0 0 0 [f ]B q/B = 2 0 0 3 = 2 B 6 2 0 2 0
Damit ist
3
f (q) =
j=1
qj bj = 2z 6 .
Aus der Darstellungsmatrix B [f ]B von f kann man nun auch weitere Informationen ber f ablesen: Da oensichtlich Rang(B [f ]B ) = 2 ist, folgt Rang(f ) = dim(Bild(f )) = 2. Da die Bildpolynome von Grad
einen
Ebenfalls wegen Rang(B [f ]B ) = Rang(f ) ist weder injektiv noch surjektiv. Der
=2
Def(f ) = dim(Kern(f )) = 1,
d.h.
Kern(f )
0 [f ]B x = 0 2 B 0
62
0 0 2
0 0 x = 0 0
hier also
Kern(f ) = Lin (e3 ) = Lin (1) ndert man die Denition ab auf
= R.
f:
so erhlt man entsprechend
f
C B
C = (z, 1)
R[z]1
f surjektiv
11.4 Basiswechsel
Ist
V =W
von
B = B,
so ist insbesondere
interessant.
B,
d.h. fr jedes
vV
gilt (11.2)
f End(V )
von
Aus
w/ = [f ]B v/ = B [f ]B v/ B B B
wird durch Einsetzen von (11.2)
w/ = B [f ]B B [id]B v/B B
und durch nochmalige Transformation
(11.3)
Wegen
v/ = B [id]B v/B B
ist
bzw.
v/B = B [id]B v/ B
v V
T = B [id]B
invertierbar mit
B [f ]B
Denition 11.4.1.
invertierbares
Die Einsteinsche Summenkonvention ist eine Konvention zur Notation mathematischer Ausdrcke. Sie wird in der Tensorrechnung und insbesondere in der theoretischen Physik verwendet. Mit der Summenkonvention werden Summenzeichen zur Verbesserung der bersicht einfach weggelassen und stattdessen wird ber doppelt auftretende Indizes summiert: 63
Im einfachsten Fall der Summenkonvention gilt: ber doppelt auftretende Indizes innerhalb eines Produkts
wird summiert.
So ist z.B. fr Mit der
A = (aij ) K mn die i-te Zeile des Matrizenproduktes Ax bekanntlich (Ax)i = einfachen Summenkonvention knnte man kurz schreiben (Ax)i = aij xj .
n k=1
n j=1
aij xj .
Das ist natrlich fehleranfllig, da man wissen muss, von wo bis wo zu summieren ist. Bei z.B.
m i=1
ki k ij
knnte
ki k ij
gemeint sein.
In der Relativittstheorie gilt als zustzliche Regel: Summiert wird nur, wenn der Index sowohl als oberer
(Ax)i = ai xj . j
bzgl. einer Basis
B = (b1 , . . . , bn ) von V x=
n j=1
sieht
xj K
fr
j = 1, . . . , n
bzw.
x/B =
x1 . . . xn
statt bisher
x j bj .
T = (tij )1i,jn =
n
bj/ ,
B
j = 1, . . . , n
schreiben
bj =
i=1
tij i b
oder in Summennotation
bj = ti i . jb xi
von
xi
von
x/ B
x/B
und
xi =
j=1
tij xj
oder in Summennotation
xi = t i xj . j ti j
hat,
Betrachtet man die umrandeten Gleichungen, so sieht man, dass man beide Male die gleichen
i einmal aber fr die Umrechnung B B , das andere Mal fr B B , d.h. die x entgegengesetzt=kontravariant zu den bj .
Noch allgemeiner kann man einen Basiswechsel beschreiben, wenn man wieder von einer linearen Abbildung
f :V W
Dann gilt
und
von
und
und
von
wechselt.
C [f ]B
= C [idW ]C C [f ]B B [idV ]B
von
T := C [idW ]C
C [f ]B
auf
und
S := B [idV ]B
von
auf
= T C [f ]B S 1 . N. Matrizen A, A K nm = T AS 1 gibt.
heien quivalent, wenn es
Es seien
invertierbare Matrizen
x11 + x22
und
ist bereits aus 11.3.2 bekannt. Jetzt soll auf die beiden neuen von
B :=
und
R22
C :=
bergegangen werden.
2
=1 c
von
64
Wegen
1 = b1 , 2 = b1 + b2 , 3 = b1 + b2 + b3 b b b
Wegen
c1 = 2 = 2c1
gilt
1
C [id R ]C
= (2)
bzw.
T = C [id R ]C = (C [id R ]C )
1 =( ) 2
X = 4 b
ist
und somit
y/ = C [h]B X/ = C B
Damit ist
1
1 2
1 2
1 2
= (1) .
h(X) =
j=1
yj cj = y1 c1 = 1 2 = 2 = y
Beispiel 11.4.4.
f:
Die Abbildung
=1 b =2 b =3 b
B := 4 , 2z , z 2
1 = 4b3 , 2 = 2b2 , 3 = b1 b b b
id R[z]2
0 = 0 4
0 2 0
1 0 = T 1 . 0
[f ]B =B [f ]B = B id R[z]2 =B id R[z]2 0 0 =0 1 0 2 2 0 1 0 0
[f ]B B id R[z]2 B = B B 1 B [f ]B B id R[z]2 B = T [f ]B B 1 0 0 0 0 0 1 0 4 0 2 00 0 4
65
2 0
T 1 = 1 0 0 = 0 0 1 0 0 0 0
11.5
Hom(V, W )
Es seien
Satz 11.5.1.
und
zwei
K -Vektorrume. Hom(V, W ) ist mit der blichen Summe K -Vektorraum. Sind V , W endlichdimensional, so gilt
f, g Hom(V, W )
und
v, v1 , v2 V , k, k , c K ,
nach
Schreibarbeit, aber nicht sonderlich schwer und wird in den bungen erledigt (5.6). Fr den Nachweis der Dimensionsformel im endlichdimensionalen Fall whlt man zwei Basen und
C = (c1 , . . . , cn ) von V und W und betrachtet die linearen Abbildungen fij 1, . . . , n, die wie folgt durch die Bilder der Basisvektoren eindeutig bestimmt sind: fij (bi ) := cj , fij (b ) := 0
Diese Abbildungen sind linear unabhngig: fr
mit
= i.
ij fij = 0
i=1 j=1 j=1 i=1 n
ij fij (bk ) = 0 1 k m kj cj = 0 1 k m
j=1
fr
kj = 0
Die
j = 1, . . . , n , k = 1, . . . , m .
so ist dieses
fij
f Hom(V, W ),
kj K
f (bk ) =
n j=1
kj cj .
fij
f (bk ) = f =
kj cj =
j=1 m n j=1 i=1
ij fij (bk ) k = 1, . . . , m
ij fij ,
i=1 j=1
d.h.
25.11.10
Da es
nm
verschiedene Basisvektoren
fij . fij
dim(Hom(V, W )) = n m. Hom(V, K)
heit der Dualraum
Denition 11.5.2.
von
Es seien K ein Krper und V ein K -Vektorraum. V := . Die Elemente von V heien Linearformen oder Lineare Funktionale.
endlichdimensional, so betrachtet man nochmal die Basis aus dem Beweis von 11.5.1.
Zu zwei Basen
B = (b1 , . . . , bm )
von
und
C = (1)
von
fi
mit
i = 1, . . . , m
fi (bi ) := 1 , fi (bj ) := 0
Wegen dieser Eigenschaft schreibt man
fr
i=j.
bi
statt
fi :
66
Denition 11.5.3.
eine Basis von
Es seien
V.
Fr
und
B = (b1 , . . . , bn )
1 0
fr
i=j
sonst
Satz 11.5.4. Es seien K ein Krper (b1 , . . . , bn ). Dann ist B := b1 , . . . , bn dim V = dim V , also V V . =
und
ein endlichdimensionaler K -Vektorraum mit einer Basis B = V , die so genannte Dualbasis von B . Insbesondere gilt
B := {b1 , . . . , bn } mit oberen Indizes geschrieben wurde, verwendet man fr die Koordin i i untere Indizes, also fr y V etwa y = i=1 yi b oder kurz y = yi b mit Summenkonvention. x = xj bj :
x=
n
n j=1
x j bj :
n n
bi (x) = bi (
j=1
x j bj ) =
j=1
xj bi (bj ) =
j=1
i xj j = xi
Vorsicht: Fr
dim V =
bilden die
bi
V :
Die durch
f : bi 1
fr alle
Linearform lsst sich z.B. nicht als Linearkombination von deniert und erst recht keine Linearkombination)!
Ist
y V
und
B = (b1 , . . . , bn ) x V
Basis von
V,
= 1
x1 . . . xn
...
, dass
n K 1n . y(x)/ =
n j=1
Damit gilt fr
x/B =
(1)
j xj
oder kurz
y(x) = j xj .
Wechselt man auf die Basis
B = 1 , . . . , n b b y(x)/
(1)
von
V,
x/ = B
...
n K 1n ,
dass
n i=1
i xi
oder kurz
y(x) = i xi .
x1 . . . xn
j xj = i xi ,
xi = ti xj : j xj = i ti xj . j j
xV
j = ti i , j
d.h. die
bj =
ti i , also kovariant. jb
Es sei
Denition 11.5.5.
Ein Element von
ein
K -Vektorraum
mit
Ein Tensor 1.Stufe ist eine Gre, deren einfach indizierte Komponenten beschriebenen Wechsel zwischen den Basen
bj = ti i jb
B = (b1 , . . . , bn )
und
ein bestimmtes
v =
ti v j , im kovarianten Fall j
vj = t i v i . j
Vektoren sind kontravariante Tensoren 1.Stufe. Linearformen sind kovariante Tensoren 1.Stufe. Im Fall arithmetischer Vektorrume gilt gerade
V = Km
und
W = Kn
E (m)
und
E (n)
= Eji K nm .
12 i
wird.
j ist das bekannte Kroneckersymbol das hier nur fr die sptere Verwendung der Summenkonvention etwas anders geschrieben
67
Dies zeigt
Hom(K m , K n ) K nm . =
Der zugehrige Isomorphismus ist die Abbildung einer linearen Abbildung auf ihre darstellende Matrix. Dieser Zusammenhang verdeutlicht auch nochmals die hergeleitete Dimensionsformel. Ist
V = Km
und
W =K
E (m)
und
(1)
gilt gerade
(1)
bj
E (m)
= t(ej ) K 1m ,
also
Betrachtet man den Spezialfall von Endomorphismen, also Elementen von Komposition dieser Abbildungen betrachten.
man zustzlich zu + und dem skalaren Vielfachen, mit denen das ein Vektorraum ist, auch noch die
In dem zu
End(V )
K mm
f, g End(V )
von
V)
[f g]B = [f ]B [g]B .
(Man beachte: weder
End(V )
bzw.
K mm
1m ).
V,
in Zeichen:
(End(V ), +, )
(Einselement
idV
11.6 Translationen
Denition 11.6.1.
Es seien
ein Krper,
ein
K -Vektorraum, a V V V xx+a V.
Dann gilt:
und
ta :
Dieses ta heit Translation oder Verschiebung von
Satz 11.6.2.
Es seien
ein Krper,
ein
K -Vektorraum.
(1) ta ist eine Permutation von V a V , (2) ta tb = ta+b = tb ta a, b V , 1 (3) (ta ) = ta a V , idV = t0 , (4) Ist T := {ta | a V }, so ist f : V T mit
f (a) = ta
f (a + b) = ta+b = ta tb .
Beweis: (1) ta (x) = ta (y) a + x = a + y x = y , d.h. ta ist injektiv, ta (x a) = (x a) + a = x, d.h. ein beliebiges x V hat das Urbild x a, ta ist also surjektiv. Damit ist ta eine Bijektion von V in sich, also eine Permutation von V . (2) ta tb (x) =ta (tb (x)) = ta (x + b) = (x + b) + a = x + (b + a) =
= x + (a + b) = (x + a) + b = tb (x + a) = tb (ta (x)) =
=ta+b (x)
=tb ta (x) .
(3) denn t0 (x) = x x V t0 = idV . (4) Es ist f (a) = f (b) ta = tb ta (x) = tb (x) x V x + b = x + a x V a = b, also f injektiv. Da die Surjektivitt direkt aus der Denition klar ist, ist f also bijektiv. Die Eigenschaft f (a + b) = ta tb folgt direkt aus der Denition zusammen mit dem oben gezeigten ta+b = ta tb . Nach dem vorhergehenden Punkt gilt
Da die Komposition von Abbildungen bekanntlich assoziativ ist, ist wegen 11.6.2(2)-(3) Gruppe. 68
(V, +) f
nach
(T, ),
Da dieser Homomorphismus sogar bijektiv ist, handelt es sich bei beiden betrachteten Gruppen sind isomorph:
(V, +) (T, ). =
ein Krper,
V und W zwei K -Vektorrume. Eine Abbildung g : V W heit t : W W und eine lineare Abbildung f : V W gibt mit g = t f . GW V e ee ee e t g=tf e e2 W
f
t = t0 = idW ,
so hat man
g = f,
V =W
f = idV ,
in
Aus den Eigenschaften von Homomorphismen folgt sofort, dass die Bilder aner Teilrume
g : R2 R2
gegeben durch
g(x) =
Dies ist eine ane Abbildung mit
3 0
0 4 x+ 3 6
t = ta , a =
4 6
und
f = fA , A =
3 0
0 3
g(
2 )= 3
2 15
, g(
2 )= 3
4 2 , g( )= 2 3
:=w
8 12
was
geometrisch macht:
Abbildung 23:
Zentrische Streckung
69
Satz 11.7.4.
mit
Es seien K ein Krper, V und W zwei K -Vektorrume und g1 , g2 : V W zwei ane Abbildungen g1 = ta f1 , g2 = tb f2 und a, b W , f1 , f2 Hom(V, W ). Dann gilt: Ist g1 (x) = g2 (x) x V , so ist f1 = f2 und a = b. Beweis: Ist
g1 (x) = g2 (x) x V ,
so ist
Da
ta
f1 (0) = t1 tb f2 (0) . a
Da fr die linearen Abbildungen
f1
und
f2
gilt
f1 (0) = 0 = f2 (0),
folgt daraus
0 = t1 tb (0) = ta (b) = b a b = a , a
d.h. die Translationsanteile der beiden anen Abbildungen sind identisch. Setzt man dies in die ursprngliche Gleichung ein, so ergibt sich
g1 g2 (x) = (ta f1 ) (tb f2 )(x) = f1 (f2 (x) + b) + a = = f1 (f2 (x)) + f1 (b) + a = f1 f2 (x) + (f1 (b) + a) = = tc g(x)
mit
c = f1 (b) + a f1
und
und
g = f1 f2 . f1 f2
linear ist, ist
Da mit
f2
auch
g1 g2
Da nicht alle anen Abbildungen invertierbar sind, bildet die Menge aller anen Abbildungen von sich trotz der gezeigten Eigenschaften sicher keine Gruppe. Betrachtet man aber nur die invertierbaren anen Abbildungen von zusammen mit der Komposition von Abbildungen eine Gruppe:
in
Komposition ist immer assoziativ, Hintereinanderausfhrung bijektiver Abbildungen ist bijektiv, Identitt ist eine ane Abbildung
Denition 11.7.5.
bezeichnet (auch
Es seien
ein
K -Vektorraum.
in sich heit Anitt. Die Gruppe aller Anitten mit der Komposition wird mit
A(V )
bzw.
V (A(V ), )
GA(V )
fr ane Gruppe).
Da Translationen grundstzlich invertierbar sind, ist eine ane Abbildung von Anitt, wenn ihr linearer Anteil invertierbar ist. Die ane Abbildung (zentrische Streckung) aus 11.7.3 ist ein Element von ist das
3-fache
der Identitt.
Satz 11.7.6.
Es seien
und
W V,
zwei
so sind
K -Vektorrume und g : V W eine ane Abbildung. g(X) und g(X ) parallele Teilrume von W .
es oder
und
X = a+U
und
so bezeichnet, dass
a, a V und Untervektorrume U und U von V U U . Der Einfachheit halber seien die Rume
Die Bilder der beiden anen Rume unter der anen Abbildung
g = tb f sind g(X) = (f (a) + b) + f (U ) und g(X ) = (f (a ) + b) + f (U ). Dies sind ane Teilrume von W , denn f (a) + b, f (a ) + b W und f (U ) und f (U ) sind nach 11.1.12 Untervektorrume von W . Da U ein Untervektorraum von U ist, ist auch f (U ) ein Untervektorraum von f (U ), d.h. auch die anen Rume f (X) und f (X ) sind parallel.
Vorsicht: Machen Sie keine falschen Umkehrungen dieses Satzes! Nichtparallele ane Rume knnen durch eine ane Abbildung parallel werden.
29.11.10
70
f:
R2 R2 x y
a c
b d
x y
a, b, c, d R
untersucht.
fA End(R2 )
mit
A=
a b . c d
fA
(und damit
A)
ad bc = 0
ist.
A = ( a11 a21
invertierbar
D:A=
so wei man demnach, dass
a11 a21
a12 a22
D(A) = 0
ist.
Da
D auch interpretieren als Abbildung R2 R2 R der Spalten von A (oder analog fr die Zeilen von A), die je nach linearer Abhngigkeit oder Unabhngigkeit Werte = 0 oder = 0 liefert, also etwa
Spalten von linear abhngig sind, so kann man die Abbildung
D:
a11 , a21
=b
a12 a22
=d
Die Abbildung
ist linear in allen Komponenten, d.h. in allen Spalten (oder analog Zeilen) von
A:
Die Linearitt in der 1. Spalte sieht man etwa, indem man die 2. Spalte festhlt, und in der 1. Spalte den blichen Linearittstest macht:
b, c, d R2 , R. D
(also 2.Spalte von
A)
b, d, e R2 , R.
Es seien
ein Krper,
ein
K -Vektorraum
und
n-Linearform
(Bilinearform fr
D : R 2 R2 R,
D(b, d) = b1 d2 b2 d1 ,
D(d, b) = b2 d1 b1 d2 =
13 singulr=nicht
71
a11 a21 0
im
a12 a22 0
R3
( a11 ) a21
aufgespannten Parallelogramms.
und
( a12 ) a22
und obige Beispiele haben schon mal einige wesentlich Eigenschaften der
Determinante angedeutet.
12.2 Determinante
Denition 12.2.1.
Es seien
1, n N
und
eine
det(A) :=
Sn
sgn()
i=1
ai(i)
von Leibniz (1646 - 1716)). Oft schreibt man Klammern durch senkrechte Striche ersetzt.
A. Diese Formel ist auch unter dem Namen Leibniz-Regel bekannt (nach Gottfried Wilhelm |A| fr det(A); bei ausgeschriebenen Matrizen werden die runden
Beispiel 12.2.2.
n=1 n=2
Nr.
sgn() +
n i=1
ai,(i)
1 2 det
0 1 = a11 a21
Abbildung 24:
n=3
Merkregel Sarrus
22
Nr.
#Fehlst.
sgn() + + +
n i=1
ai,(i)
0 1 1 2 2 3
a11 a22 a33 a11 a23 a32 a12 a21 a33 a12 a23 a31 a13 a21 a32 a13 a22 a31
a13 a23 = + a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a33 a a a a a a a a a
12 21 33 13 22 31
72
11 23 32
Abbildung 25:
n4
Merkregel Sarrus
33
n = 4 ist |Sn | = n! = 24, es gibt aber nur 8 Diagonalen in der Matrix A (Diagonalen wie oben im n = 2 oder n = 3 gemeint). Schon aus dieser berlegung folgt, dass eine Sarrus-Regel wie fr n = 2 oder n = 3 im Fall n = 4 nicht existiert. Auch fr alle greren n N ist n! = 2n und somit eine Berechnung der
Im Fall Fall Determinante la Sarrus nicht mglich. Die Berechnung grerer Determinanten mit der Leibniz-Regel wre auch wegen der sam. Dies zeigt, dass man insbesondere fr
n!
n>3
1, n N
und
Dann gilt
det A = det A .
Beweis: Laut Denition gilt
n
a(i)i =
Sn n
aj1 (j) =
det tA =
Sn
sgn()
i=1
sgn()
j=1
=
Sn
aj (j) =
Sn
sgn( )
aj (j) =
sgn( 1 )
j=1
j=1
= det A
Satz 12.3.2.
R ein kommutativer Ring mit 1, n N, A = (aij )1i,jn Rnn , Sn und bij := ai(j) fr 1 i, j n, also B = (bij )1i,jn Rnn die quadratische Matrix, die aus A durch die Spaltenpermutation entsteht. Dann gilt
Es seien
det B =
Sn
sgn( )
i=1
bi (i)
n
=
Sn
sgn( )
i=1
ai( (i))
=
Sn
sgn( 1 )
i=1
ai(i)
( := )
Satz 12.3.3.
Rn
Es seien
und
v1 , . . . , v , . . . , v n
vi =
a1i
a2i
. . . ani
fr
i = 1, . . . , n
)+a ))
und
n ( (
v =
a1
a2
...
an
so gilt
sgn()(a
ai(i) =
i=1 i=
n ( )
i=1 i=
ai(i) +
Sn
sgn()a
( )
ai(i) =
=
Sn
sgn()a
i=1 i=
73
Satz 12.3.4.
Rn
Es seien
R ein kommutativer Ring mit 1, n N, N mit 1 n, r R und v1 , . . . , v , . . . , vn det(v1 , ..., r v , ..., vn ) = r det(v1 , ..., v , ..., vn ) .
t
vi =
a1i
a2i
...
ani
fr
i = 1, . . . , n,
n ( )
so gilt
ai(i) =
sgn() r a
n
i=1 i=
=r
Sn
sgn()
i=1
ai(i)
Arbeitet man ber einem Grundkrper dass die Determinante als Abbildung sich um eine Multilinearform.
K (statt ber dem Ring R), so zeigen die Stze 12.3.3 und 12.3.4, K n K n K in jeder Komponente linear ist, d.h. es handelt
Mit 12.3.1 folgt, dass diese Aussagen jeweils auch zeilenweise gelten. Multipliziert man jede Spalte einer quadratischen Matrix 12.3.4:
A Rnn
r R,
so folgt mit
det(rA) = r det(A).
Aus der Multilinearitt folgt, dass die Determinante einer Matrix mit einer Nullzeile oder -spalte verschwindet.
Satz 12.3.5.
Es seien
Hat
zwei identische
det A = 0. i
und
von
die Matrix, und damit auch ihre Determinante, gleich. Andererseits gilt nach 12.3.2, dass sich bei dieser Vertauschung das Vorzeichen der Determinante um Vergleich der beiden Aussagen liefert
sgn
= 1
ndert.
oder
R),
det A = det A, also 2 det A = 0. Ist R ein Krper mit 2 = 0 (also etwa det A = 0 ab. In Krpern mit 2 = 0, etwa in Z2 , oder in Ringen mit Nullteilern,
etwa
Z6 , kann man so nicht argumentieren. Auch dort gilt der Satz aber, man muss nur etwas mehr Mathematik
mit
zum Beweis verwenden [siehe z.B. Fischer, 2000, , S.194]. Die Aussage fr Zeilen folgt daraus mit 12.3.1.
Satz 12.3.6. Es seien R ein kommutativer Ring mit 1, n N, , m N v1 , . . . , v , . . . , vm , . . . , vn Rn Spaltenvektoren. Dann gilt
= m n, r R
und
Mit 12.3.2, 12.3.4, und 12.3.6 kann man nun zusammenfassend die Wirkung elementarer Umformungen auf Determinanten auisten:
Elementare Umformung
Typ I: Typ II: Typ III: Vertauschen zweier Zeilen (oder Spalten) Multiplikation einer Zeile (oder Spalte) mit einer Konstanten Addition
R des -fachen
74
Beispiel 12.3.7.
2 3
4 1
Z2 2Z2 3Z1
2 0
ist eine korrekte Kombination aus den beiden elementaren Zeilenumformungen der den Wert der Determinante verndert:
Wendet man dies auf eine Determinante an, so bersieht man leicht den Faktor
2 3
4 1
Z2 2Z2 12.3.4
1 2 2 6
4 2
Z2 Z2 3Z1 12.3.6
1 2 2 0
4 10
Beispiel 12.3.8.
Ein weiterer Stolperstein ist die verschiedene Verwendung skalarer Vielfacher bei Matrizen
2
aber
1 3
2 4
2 6
4 8
, 1 2 = 3 4 4 8
2
bzw.
1 3
2 2 = 3 4 4
1 4 = 6 4 1 3
2 2 = 6 8 4 . 8
2 2 = 6 4
Was hat man nun davon, wenn man eine Determinante durch elementare Zeilenumformungen auf Zeilenstufenform gebracht hat (Spalten analog, das wird im Folgenden nicht jeweils extra dazugesagt)? Entsteht eine Nullzeile, so ist die Determinante=
0,
Entsteht keine Nullzeile oder -spalte, so ist die Zeilen- oder Spaltenstufenform eine Dreiecksmatrix. Die Determinante solch einer Dreiecksmatrix ist einfach das Produkt der Diagonalelemente. Dies sieht man an der Leibniz-Formel:
det(A) =
Sn
sgn()
i=1
mit
ai,(i)
und
(Leibniz)
Ist nmlich
= id ,
1in
(i) < i.
n i=1
Da das zugehrige
ai,(i) bei einer oberen Dreiecksmatrix = 0 ist, ist der gesamte Summand sgn() = id
gehrt:
ai,(i) =
0.
Von der gesamten Formel bleibt also nur der Summand, der zu
det(A) =
i=1
ai,i .
Beispiel 12.3.9.
4 1 7 5 2 8 6 1 3 = 4 10 7 2 5 8 3 1 6 = 0 10 0 2 3 6 3 1 6 = 0 11 0 2 3 0 3 6 = 3 1 =0
ist.
Wir haben bereits gesehen, dass die Determinante einer Matrix mit einer Nullzeile oder -spalte Weiterhin wurde bereits gezeigt, dass die Determinante Spalten enthlt.
=0
Mit der nun bekannten Wirkung elementarer Umformungen an quadratischen Matrizen auf deren Determinanten, kann man diese Aussagen nun noch deutlich verallgemeinern:
Satz 12.3.10.
Es seien
ein Krper,
nN
und
A K nn .
Dann gilt:
det(A) = 0 A
Beispiel 12.3.11. A
Raum eine Dimension D.h.
Rang A < n
ist.
Dies ist wiederum genau dann der Fall, wenn der von den Zeilen (oder Spalten) der Matrix
aufgespannte
<n
hat.
ist genau dann singulr, wenn die Zeilen (oder Spalten) von
Ist dies der Fall, so lsst sich mit Hilfe elementarer Zeilenumformungen eine Nullzeile (bzw. mit Hilfe elementarer Spaltenumformungen eine Nullspalte) herstellen. Ist
dagegen regulr,
14
so ist
Rang A = n, = 0 bringen. =0
d.h.
= 0.
det A = 0
ist.
1 i, j n A entsteht. (ij) Der Eintrag in der k -ten Zeile und -ten Spalte dieser Matrix wird mit (A )k, bezeichnet. A(ij) (ij) chungsmatrix zum Eintrag aij = (A)ij von A, det(A ) Minor zu aij . i+j Der Faktor (1) det(A(ij) ) heit der Kofaktor oder das algebraische Komplement von aij . 1 2 3 2 3 Z22 Beispiel 12.4.2. Fr A := 4 5 6 Z33 ist A(21) = 8 9 7 8 9
mit aus
i, j N j -ten Spalte
nn ein kommutativer Ring mit 1, n N und A R . (ij) (n1)(n1) sei A R diejenige Matrix, die durch Streichen der i-ten Zeile und
heit Strei-
Es sei
Sn
fr
1 n
k (k) = k + 1
deniert ist.
fr fr fr
=
besitzt die Fehlstnde
1 2 1 2
... ...
1 1
+1
+1 +2
... ...
n1 n
Da das
Mit solchen Permutationen lsst sich der bergang von beschreiben. Es gilt:
fr
1 k, n 1 .
Satz 12.4.3.
Es sei
A K nn
und
1 i n. det(A) =
Dann gilt:
n
Beweis: Ist
Sn
(i) = j ,
1 (i) = 1 (j) = n j j
Da
1 i (n) = n j
sgn
sgn(1 i ) = sgn(1 ) sgn() sgn(i ) = sgn(j ) sgn() sgn(i ) j j =(1)nj sgn() (1)ni = (1)i+j sgn() .
14 regulr=invertierbar
76
Fr eine Permutation
Sn
mit
(i) = j
:= 1 i , j
d.h. man kann solch ein dann zu diesem
umschreiben zu
= j 1 i
und es gilt
sgn( ) = (1)i+j sgn(). Nun kann man jeweils alle Sn mit (i) = j bndelt und
bergeht:
det(A) =
Sn n
sgn()
=1
,( )
=
j=1 n
Sn (i)=j
sgn()
=1
a
n
,( )
=
j=1
Sn (n)=n
(1)i+j sgn( )
=1 n1
,j 1 ( ) i
=
j=1 n
(1)i+j
Sn (n)=n
sgn( )
k=1
ai (k),j (k) =
j=1 n1
(1)i+j
Sn (n)=n
sgn( )aij
k=1
ai (k),j (k) =
=
j=1
(1)i+j aij
Sn1
sgn()
k=1
(A(ij) )k,(k) =
j=1
In der vorliegenden Version beschreibt der Laplacesche Entwicklungssatz die Entwicklung einer Matrix
Wegen
det(A) = det(tA)
det(A) =
det(A(ij) ) .
fr ein
mit
1 j n.
Beispiel 12.4.4.
Durch Entwicklung nach einer Zeile wird aus einer Determinanten (Spalte analog).
n (n 1) (n 2) (n 2)-Determinanten
Deshalb sollte man nicht einfach drauos entwickeln, sondern erst die entsprechende Zeile mit geeigneten elementaren Umformungen vereinfachen:
Beispiel 12.4.5.
4 1 7 5 2 8 6 4 3 = 1 10 7 3 0 6 6 3 0 = 6 11 6 1 =3 11 6 2 = 3. 11
1, n N, A, B Rnn .
Dann gilt
Beweis: Mit
ist, gilt
und
C = (cij )1i,jn ,
n n
wobei
cij =
n k=1
aik bkj
fr
1 i, j n
det(A B) =
Sn
sgn()
i=1
ci,(i) =
n Sn n
sgn()
i=1 k=1
aik bk,(i)
n
Ausmult.
=
Sn
sgn()
n k1 ,k2 ,...,kn =1 i=1 n
sgn()
k1 ,k2 ,...,kn =1 Sn n n i=1
ai,ki
i=1
bki ,(i) =
kj = (j) n
=
k1 ,k2 ,...,kn =1 i=1 n
ai,ki
Sn
sgn()
j=1
bkj ,(j) =
k1 ,k2 ,...,kn =1 i=1 n 12.3.2
=
Sn i=1
sgn( )
Sn i=1
Satz 12.5.2.
Es seien
ein Krper,
nN
und
A GL(n, K).
Dann gilt:
det(A1 ) = det(A)1 .
Beweis:
det(A1 ) = det(A)1 .
Satz 12.5.3.
Beweis:
Es seien
ein Krper,
nN
und
A, B K nn
det(A) = det(B).
hnlich zu
B S GL(n, K) : A = S 1 BS
12.5.1 12.5.2
det A = det(S 1 BS) = det(S 1 ) det B det S = = det(S)1 det S det B = det B .
Ist
K -Vektorraumes V D
von
mit
dim V = n,
die Abbildungsmatrix
[f ]C . V
ndert sich zwar die Matrix zu
[f ]D ,
[f ]C . det([f ]C ) = det([f ]D ). f
ab, nicht von der
Die Determinante der Abbildungsmatrix hngt also nur von dem Endomorphismus speziell gewhlten Basis von
V. f
und deniert:
Denition 12.5.4.
Es seien
ein Krper,
ein
K -Vektorraum
mit
dim V = n N
und
f End(V ).
det(f ) := det([f ]B )
fr eine beliebige Basis
von
ein Krper,
n N, A GL(n, K) LGS Ax = b
und
b K n.
Sind
s1 , s2 , . . . , sn
A,
xi =
xi
i-ten
Spalte).
Ax eingesetzt und dann wird die Determinante im Zhler Fr die k -te Komponente gilt:
n n
(Ax)k =
i=1
aki xi =
n i=1 n
aki
aki
i=1 =1
(1)
+i
b det(A( i) ) =
1 = det(A)
=1
b k det(A) = bk
=1
denn der Ausdruck in der inneren Summe ist gerade die Entwicklung der Matrix, die aus -ten Zeile durch die
k=
k=
, so betrachtet man eine Matrix mit 2 gleichen Zeilen, d.h. deren Determinante ist
0.
Die Bedeutung der Cramerschen Regel ist relativ gering (trotzdem wird sie leider oft in der Schule dem Gau-Verfahren vorgezogen):
sie kann wegen des Einsatzes der Determinante nur fr Systeme mit quadratischer Koezientenmatrix verwendet werden, sie kann wegen der Determinante im Nenner nur im Fall eindeutigen Lsung), ihre Anwendung ist in den meisten Fllen mit deutlich mehr Aufwand verbunden als z.B. das normale Gau-Verfahren; so muss man bereits fr ein
3 3-LGS
vier
3 3-Determinanten
berechnen!
In der bung wird ein Beispiel fr die sinnvolle Verwendung der Cramerschen Regel besprochen. Fr den Nachweis der linearen Unabhngigkeit von Vektoren oder das Lsen linearer Gleichungssysteme spielen Determinanten eher eine untergeordnete Rolle, weil das Gau-Verfahren viel einfacher ist. Ihre volle Bedeutung wird sich erst im nchsten Kapitel ber Eigenwerte und Eigenvektoren herausstellen.
1, n N aii .
und
Die Spur
Spur(A) :=
i=1
In den bungen (6.1 & 6.4) wurde nachgerechnet, dass sich die Spur einer Abbildungsmatrix beim Basiswechsel in Vektorrumen nicht ndert. Somit ist die Spur eine Invariante von Endomorphismen.
Denition 12.7.2.
eine beliebige Basis
Es seien
ein Krper,
ein
K -Vektorraum
mit
dim V = n N
und
f End(V ).
Fr
von
Spur(f ) := Spur([f ]B ) .
79
80
Massen an
Federn:
k.
0 und y2 = 0. Beide Federn haben die gleiche m. Dann sind die Bewegungsgleichungen
Abbildung 26:
gekoppelte Pendel
d Ein Punkt ber den Ortskoordinaten bedeutet dabei die Ableitung dt nach der Zeit, d.h. ist die Geschwindigkeit, y die Beschleunigung der Masse mit der Koordinate y .
Das Problem bei diesen Gleichungen ist nicht nur, dass es sich um Dierentialgleichungen handelt (d.h.
y, y,
Dierentialgleichungssystem vor, d.h. mehrere Funktionen und ihre Ableitungen werden miteinander verknpft. Mit
m=k=1
y1 y2
2 1
1 1
y1 y2
B:=
Deshalb spricht man von einem linearen Dierentialgleichungssystem. Es wre einem schon sehr geholfen, wenn man solche Systeme entkoppeln knnte, d.h. wenn man aus einem System mit
Variablen
Die Idee dazu stammt aus der linearen Algebra. Entkopplung von Gleichungen mit
x1 , . . . , x n
A
auf ein entkoppeltes System
fhrt. Das heit
x1 . . . xn
..
0
x1 . . . xn
x1 = 1 x1 , x2 = 2 x2 , . . . , xn = n xn ,
sin,
cos).
Wendet man solch eine lineare Transformation im letzten Beispiel an, so ergibt sich
A
und somit
x1 x2
y1 y2
x1 x2
y1 y2
x1 x2
y1 y2
x1 x2 x1 x2
2 1
1 x A 1 1 x2 2 1 0
= A1
0
1 x A 1 x2 1 0 A! = 2
1
@ 1
Die hieraus resultierende Fragestellung kam bereits im Abschnitt ber lineare Abbildungen vor. 81
Gesucht ist eine hnlichkeitstransformation mit einer invertierbaren Matrix Matrix Diagonalgestalt hat.
A,
f :
x Bx.
Das Problem lsst sich deshalb auch so beschreiben: gesucht wird eine Basis, bzgl. der die Abbildungsmatrix der linearen Abbildung
Diagonalgestalt hat.
Beispiel 13.1.2.
A=
gilt
1 1 + 2 5 1 1 5 2 2 2 1 1 3 2 + 1 5 2 0
A1 B A =
d.h. die durch die Matrix
0 1 3 2 5 2
bzgl. der kanonischen Basis gegebene lineare Abbildung hat bezglich der Basis
1 + 1 5 2 2 1
Diagonalgestalt.
1 2 1 5 2 1 y1 (0) = 0, y2 (0) = 1,
Den Rest des Beispiels erledigt nun die Analysis. Fr die Anfangswerte ergibt sich z.B. die Lsung:
y1 (0) = 0, y2 (0) = 0
1 1 2t + 2t 5 1 1 2 10 5 cos
1 2t
+ 1t 5 2
Abbildung 27:
Gekoppelte Pendel
ein Krper,
ein
f,
wenn es ein
K -Vektorraum K gibt,
und
f End(V ).
Ein Vektor
v V \{0}
so dass
f (v) = v .
Das
von
V,
so gilt
Eigenvektor und
A. f (0) = 0,
ist aber nie ein
f End(V )
die Eigenschaft
Beispiel 13.2.2.
Man betrachte Vektoren bei einer Spiegelung an einer Ebene durch den Ursprung im
82
R3 :
Abbildung 28:
1
Aus der Geometrie der Abbildung klar, dass die Vektoren in der Ebene (auer sind und die Vektoren, die orthogonal auf der Ebene stehen (auer
0)
0),
1.
Bisher ist noch nicht geklrt, ob es immer Eigenwerte und -vektoren gibt, und, falls das der Fall ist, wie man diese berechnet. Man kann aber schon mal untersuchen, was fr die wnschenswerte Diagonalgestalt alles ntig wre:
Denition 13.2.3.
Endomorphismus
Es seien
ein Krper,
ein endlichdimensionaler
von
2 1
1 1 K
Es seien
ein Krper,
ein endlichdimensionaler
K -Vektorraum
und
Endo-
Beweis: Es sei
B = (b1 , . . . , bn )
V, 0 0
.. .. . .
bezglich der
[f ]B
1 0 . [f ]B = . . . . . 0
Fr die Vektoren in
0 2
.. .
... ...
.. .. . .
...
0 0 . . . = diag(1 , . . . , n ) . 0 n
heit das
1 , . . . , n .
[f ]B = diag(1 , . . . , n ) .
Es seien
Satz 13.2.6.
ein Krper,
ein endlichdimensionaler
f,
wenn gilt
det(f idV ) = 0 .
Beweis: Laut Denition gilt fr einen EV
und
Fr festes
idV ist auch f idV ein Endomorphismus von V . K ist (f idV )(v) = 0 ein homogenes LGS und
v = 0.
Die triviale Lsung ist aber uninteressant, denn denitionsgem ist ein Eigenvektor von Null verschieden. 83
v und also Eigenvektor und zugehriger Eigenwert, wenn v (f idV )(v) = 0 ist.
eine nichttriviale (=
0) Lsungen
Nichttriviale Lsungen eines homogenen LGS existieren genau dann, wenn der Rang der Koezientenmatrix (bzw. des zugehrigen Homomorphismus) nicht voll ist, hier also genau dann, wenn Dafr gibt es aber bereits ein Kriterium mit Hilfe von Determinanten aus 12.3.10:
f idV GL(V ) /
ist.
9.12.10
die Matrix zu
A = [f ]B , so ist C := A1n
eine Summe von Produkten
f idV
bzw. von
C.
ein Polynom in
det(f idV )
vom Grad
ist.
-Potenz
cii =
i=1 i=1
d.h. der Leitterm des Polynoms ist
-Potenz n1
(1)n1
i=1
Den konstanten Term eines Polynoms bekommt man, indem man fr die Variable Der konstante Term von
det(f idV )
ist also
det(f ) = det(A).
det(f idV ) =(1)n n + (1)n1 Spur(f )n1 + + det(f ), det(A 1n ) =(1) + (1)
n n n1
bzw.
(13.1) (13.2)
Spur(A)
n1
+ + det(A)
Denition 13.2.7.
A K nn .
Es seien
ein Krper,
ein endlichdimensionaler
K -Vektorraum, f End(V )
und
Dann heit
bzw.
A () := det(A 1n )
das charakteristische Polynom der Matrix
A. f () = 0
bzw.
A () = 0
Die Lsungen der charakteristischen Gleichung, bzw. die Nullstellen (Wurzeln genannt) des charakteristischen Polynoms (falls vorhanden - hngt vom Krper
bzw.
A.
Beispiel 13.2.8.
B=
bzw. lineare Abbildung
2 1
1 1
f = fB und ihre Diagonalisierung. Dazu braucht man die Eigenwerte und -vektoren und startet deshalb mit der charakteristischen Gleichung B () = det 2 1
84
1 1
= 0.
B () = + 3 + 1 = 0 1,2
3 = 2
. n=2
zu
Das charakteristische Polynom htte man dabei auch mit (13.2) berechnen knnen, was im Fall
B () = 2 Spur(B) + det(B)
wird. Hier ist Zu den zwei
(B 12 )x = 0 = 1,2
3 5 2
ein. Nach der Vorarbeit mit den Eigenwerten wei man, das diese Gleichung genau fr Lsungen besitzt.
nichttriviale
2 1 1
1 1 1
1+ 5 2
1
1+ 5 2
1+ 5 2
0 1
1+ 5 2
1 =
x = 2 2 1 1 1 2 =
1 1
mit
=0 0 1
1 5 2
1 5 2 1 5 2
1 5 2
2 =
3+ 5 2
x =
Die beiden Eigenvektoren
mit
=0
v1 :=
zu den verschiedenen Eigenwerte
1+ 5 2
und
v2 :=
1 5 2
1 und 2 sind linear unabhngig, bilden also eine Basis des R2 . Wechselt man von der kanonischen Basis auf die Basis C := (v1 , v2 ) aus Eigenvektoren, so wird aus der Abbildungsmatrix B = [f ]E
die sehr viel einfachere Matrix Es seien
[f ]C = diag(1 , 2 ).
ein endlichdimensionaler
Satz 13.2.9.
ein Krper,
K -Vektorraum, n N
und
A, B K nn
A, B K nn
S GL(n, K)
mit
A = S 1 BS .
Damit folgt
12.5.1
det(S) det(B 1n ) =
Da die charakteristischen Polynome gleich sind, stimmen auch deren Nullstellen, das sind die Eigenwerte von bzw.
B,
det A
und
det B
bzw.
Spur A
und
A Spur B
A ()
und
B ().
Satz 13.2.10.
(i) Wenn (ii) Wenn
Es seien
ein Krper,
ein endlichdimensionaler
K -Vektorraum
und
f End(V ).
f ()
in Linearfaktoren.
f () in Linearfaktoren zerfllt und seine Wurzeln (=Eigenwerte von sind, so ist f diagonalisierbar. f
diagonalisierbar, so gibt es eine Basis
f)
paarweise verschieden
von mit
mit
[f ]B = diag(1 , . . . , n )
85
1 , . . . , n K .
f () = det(diag(1 , . . . , n )) = (1 ) . . . (n )
(ii) Ist nun Lsung jedem dieser Eigenwerte die Gleichung
f () = (1 ) . . . (n ) mit paarweise verschiedenen Eigenwerten 1 , . . . , n K , so hat zu (f i idV )(v) = 0 bzw. ([f ]B i 1n )v = 0 mindestens eine nichttriviale vi , einen Eigenvektor zu i . Wenn man jetzt noch zeigen kann, dass v1 , . . . , vn linear unabhngig sind,
1 , . . . , m paarweise verschiedene Eigenwerte von f , 1 m n und v1 , . . . , vm zugehrige {v1 , . . . , vm } ist linear unabhngig. Dieser Teil wird mit Induktion nach m gezeigt: Fr m = 1 ist v1 = 0 linear unabhngig. Nun sei m > 1 und v1 , . . . , vm1 gem Induktionsvoraussetzung linear unabhngig. Man macht den blichen
Eigenvektoren. Dann gilt: Ansatz
k vk = 0
k=1
Dann sind zwei Flle zu unterscheiden: Ist
m = 0,
also
m1
k vk = 0 ,
k=1
so ist nach Induktionsvoraussetzung k = 0 fr k = 1, . . . , m 1, v1 , . . . , vm sind linear unabhngig. Ist m = 0, so kann man ausen nach vm und erhlt also zusammen
k = 0
fr
k = 1, . . . , m,
d.h.
vm =
Da
1 m
m1
k vk
k=1
(13.3)
vm
Eigenvektor von
zum Eigenwert
ist, folgt
f (vm ) = m vm f ( 1 m
m1
1 m
m1
k vk ) = m vm
k=1
k f (vk ) = m vm
k=1
(13.3)
1 m
m1
k k vk = m
k=1
1 m
m1
k vk
k=1
m1
k=1
Da nach Induktionsvoraussetzung Wegen dann
(m k )k vk = 0
v1 , . . . , vm1 linear unabhngig sind, folgt (m k )k = 0 fr k = 1, . . . m1. m m = k fr k = 1, . . . , m 1 heit das k = 0 fr k = 0, . . . , m 1. Einsetzen in k=1 k vk = 0 fhrt aber auf m vm = 0, was wegen vm = 0 nicht sein kann. Die Annahme m = 0 ist also falsch.
Die Menge aller Lsungen dieses linearen homogenen Gleichungssystems bilden bekanntlich einen Vektorraum (bung 4.4) Dieser Vektorraum ist mindestens eindimensional, denn nur die Lsung
hat.
Denition 13.3.1.
Eigenwert
Es seien
ein Krper,
ein
K -Vektorraum
und
f End(V ).
zum
ist
gf (i ) := dim(Ef (i ))
i .
Bevor man an die Berechnung von Eigenvektoren geht, braucht man erst einmal die Eigenwerte. Diese sind als Nullstellen des charakteristischen Polynoms je nach Gre von Krper ziemlich schwierig zu bekommen. Der folgende Fundamentalsatz der Algebra gibt Auskunft darber, wie viele Nullstellen man erwarten kann. Der erste vollstndige Beweis fr den Fundamentalsatz der Algebra wurde 1799 von Johann Carl Friedrich
Satz 13.3.2.
Hat
p(z) C[z]
durch
p(z)
z z1
p1 (z) C[z]
mit
p(z) =
deg p1 = n 1.
Satz erneut anwenden, d.h. es gibt ein
n 2, so ist p1 nichtkonstant und man kann den p2 (z) C[z] mit p(z) = (z z1 )(z z2 ) p2 (z).
z2 C
und
p(z) C[z] mit dem Grad deg(p(z)) = n eine (bis auf die Reihenfolge)
(13.4)
und
Ist
zi
Damit folgt, dass die nichtreellen Nullstellen von eine Nullstelle von
auftreten: Ist
z1 C \ R
z z 1
2
von
z1 + z 1 = 2 Re z1 , z1 z 1 = |z1 | R
R[x].
5ten Grades hat somit z.B. 1, 3 oder 5 reelle Nullstellen (entsprechend der Vielfachheit
gezhlt), die jeweils restlichen Nullstellen sind paarweise konjugierte, echt komplexe Nullstellen(das wird auch oft in der Analysis mit dem Zwischenwertsatz gezeigt).
n i i=0 pi z Z[z], also pi Z fr i = 0, . . . , n a mit n = deg p 1, also pn = 0. Hat p(z) eine rationale Nullstelle b (mit a Z, b N), so ist a ein Teiler des konstanten Terms p0 und b ein Teiler des Leitkoezienten pn .
(Merkregel fr rationale Wurzeln)
Satz 13.3.3
Es sei
p(z) =
Beweis: Hat
p(z)
a b , so hat
p(z)
den Linearfaktor
a b
Q[z]
bzw.
bz a Z[z].
Beispiel 13.3.4.
p(z) = z 5 3z 4 z 3 + 3z 2 2z + 6 Z[z] p0 = 6, also gem Merkregel 13.3.3: a {6, 3, 2, 1}. deg p = 5 und p5 = 1, also gem Merkregel 13.3.3: b {1}. a Zusammen liefert das b {6, 3, 2, 1}.
Es ist Es ist
87
Damit kann durch gezieltes Probieren recht schnell herausnden, ob das Polynom solche Nullstellen hat. Im vorliegenden Fall ist z.B. Linearfaktor
z3
p(z) = z4 z2 2 . z3
Macht man mit dem verbleibenden Polynom den gleichen Test nochmal, so stellt sich heraus, dass keiner der untersuchten rationalen Kandidaten eine Nullstelle ist, d.h. ber den rationalen Zahlen hat das Polynom keine weiteren Linearfaktoren (es knnte aber sehr wohl noch in 2 quadratische Faktoren zerfallen). Damit ist man bei einem Polynom 4.Grades blicherweise auch schon am Ende seines Lateins, denn die so genannten Cardanischen Formeln (nach Gerolamo Cardano (1501 - 1576)) fr Polynome dritten und vierten Grades sind so aufwndig, dass man sie selbst in einigen Formelsammlungen nicht ndet (ab dem Grad 5 gibt es keine Formeln mehr). blicherweise berlsst man diese Arbeit einem CAS (Computeralgebra-System). Im vorliegenden Fall hat man Glck, weil es sich um eine so genannte biquadratische Gleichung handelt, d.h. 2 man kann durch die Substitution z = x zu einer quadratischen Gleichung bergehen und diese dann mit der Mitternachtsformel faktorisieren:
x2 x 2 =0 x1,2 =
1 2
dort nichtnegativ. 2 Der Faktor z 2 lsst sich aber zerlegen in Die vollstndige Faktorisierung von
2). 2)(z 2 + 1) .
ber
lautet somit
p(z) = (z 3)(z
2)(z +
Nimmt man nun aber die komplexen Zahlen zu Hilfe, so zerfllt auch noch (gem der Aussage des Fundamen2 talsatzes) der letzte Faktor z + 1 in die Linearfaktoren (z i)(z + i), so dass man insgesamt
p(z) = (z 3)(z
als vollstndige Faktorisierung von Das Polynom 5.Grades
2)(z + 5
ber
hat.
C 0
4 3
die
einfachen Wurzeln
Das in diesem Beispiel behandelte Polynom tritt z.B. auf als das charakteristische Polynom der
3 0 0 0 0
0 2
4 3 1 3 2
1 3
0 0
0 0
0 0 0 0 0 0 0 1 1 0
Je nach zugrundeliegendem Krper hat sie also die Eigenwerte: ber ber
13.12.10
ber
Q R C
: 3, : 3, 2 , : 3, 2, i .
mit dem Grad
p(z) C[z]
deg(p(z)) = n
Fasst man hier gleiche Faktoren in Potenzen zusammen, so erhlt man eine Zerlegung
p(z) = a(z w1 )1 (z w2 )2 (z w )
mit paarweise verschiedenen Wurzeln
(13.5) mit
w1 , . . . , w C
88
und Exponenten
1 , . . . , N
1 + + =
n = deg(p).
Auch diese Zerlegung ist bis auf Reihenfolge der Faktoren eindeutig bestimmt.
Denition 13.3.5. In (13.5) heit i die Vielfachheit der Wurzel wi von p. Ist p(z) = f (z) das charakteristische Polynom eines Endomorphismus f , so ist i = wi Eigenwert von f und i heit die algebraische Vielfachheit dieses Eigenwerts. i.Z. af (i ) = i . Denition 13.3.6.
Eine
n n-Matrix
der Gestalt
c 0 . . J = . 0 0 0
mit
1 c
.. .
0 1
.. .
0 0
.. .
...
.. .
0 ... ...
c 0 0
1 c 0
0 0 . . . 0 1 c c.
cK
heit nach Marie Ennemond Camille Jordan (1838 - 1922) Jordan-Block zu Da der Jordan-Block zu
Beispiel 13.3.7.
c 0 . . J () = det . 0 0 0
d.h.
0 1
.. .
0 0
.. .
...
.. .
0 ... ...
c 0 0 =c ...
. .. .
1 c 0
0 0 . . . = (c )n , 0 1 c
0 0 . . . 0 0 0
1 0
.. .
0 1
.. .
0 0
..
0 ... ...
0 0 0
1 0 0
Da dieses LGS schon in Zeilenstufenform vorliegt, ist klar, dass es eine eindimensionale Lsung gibt, nmlich
1 0 . . . 0 1 0 . . . 0
v=R
bzw.
EJ (c) = Lin
1-dimensionalen
Es seien
1. n > 1 sicher nicht genug linear unabhngige sind fr n > 1 nicht diagonalisierbar. K -Vektorraum
und
Satz 13.3.8.
morphismus
ein Krper,
ein endlichdimensionaler
f End(V ).
Der Endo-
ist genau dann diagonalisierbar, wenn die beiden folgenden Punkte erfllt sind
f ()
zerfllt ber
in Linearfaktoren.
von
gilt:
af (i ) = gf (i ) B
Geom. Vielfachheit
von
mit
[f ]B = diag(1 , . . . , 1 , 2 , . . . , 2 , . . . , k , . . . , k )
n1 Stck
mit und und
n2 Stck
fr
nk Stck
1 , . . . , k K i = j
fr
kn n1 + + nk = n .
i=j
mit
n1 , . . . , n k N
89
f () = (1 )n1 . . . (k )nk ,
was Teil (i) mit
n1 = af (1 ),
...,
nk = af (k )
zeigt.
[f ]B 1 1n = diag(0, . . . , 0, 2 1 , . . . , 2 1 , . . . , k 1 , . . . , k 1 )
af (1 )
und
af (2 )
af (k )
i = j fr i = j ist der Rang n af (1 ), d.h. die Lsung des LGS ([f ]B 1 1n )v1 = 0, das ist gerade Ef (1 ), hat die Dimension af (1 ). Somit ist die Vielfachheit af (1 ) des Eigenwerts 1 im charakteristischen Polynom (seine algebraische Vielfachheit) gleich der Dimension des zugehrigen Eigenraums (der geometrischen Vielfachheit gf (1 )). Nach (i) gibt es die Eigenwerte 1 , . . . , k mit den Vielfachheiten af (1 ) , . . . , af (k ) und af (1 ) + + af (k ) = n, d.h. zhlt man die Eigenwerte entsprechend ihrer Vielfachheit, so gibt es gerade n Stck. Die zugehrigen Eigenrume Ef (i ) haben nach (ii) die Dimension gf (i ) = af (i ). Man kann also zu jedem dieser
Eigenrume eine entsprechend groe Basis angeben:
(1)
(1)
sei eine geordnete Basis von sei eine geordnete Basis von
Ef (1 ) , Ef (2 ) ,
(2)
(2)
(v1 , . . . , vaf (k ) )
Es gengt zu zeigen, dass
(k)
(k)
Ef (k ) .
(1)
(1)
(2)
(2)
(k)
(k)
ist. Da das
n Vektoren sind, reicht der Nachweis der linearen Unabhngigkeit. Dazu betrachtet
(1) (1) (k) (k) (k) (k)
(13.6)
(1) (1)
f idV
v (j) Ef (j )
j > 1, j = 1.
(13.7)
(f 2 idV ) . . . (f k idV )
beidseitig auf Gleichung (13.6) anwendet. Zusammen mit (13.7) fhrt das auf
(1) (1)
(1)
(1)
(1) (1)
(1)
(1)
(1)
(1)
verschwinden fr j = 1, . . . , k und jeweils i = 1, . . . , j , d.h. (1) (1) (2) (2) (k) (k) {v1 , . . . , vaf (1 ) , v1 , . . . , vaf (2 ) , . . . , v1 , . . . , vaf (k ) } ist eine Basis von V aus usw. d.h. alle gonalisierbar! 90
ci
(j)
Eigenvektoren,
13.4 Jordan-Normalform
Beispiel 13.4.1.
Der Jordan-Block
c
0
1 c
. . . .
0 1
. . .
0 0
. .
...
. .
0 0
. . .
. . J = . 0
aus 13.3.7 hat den nalen Eigenraum
0 0
0 ... ...
c 0 0
1 c 0
0
1 c
d.h. es ist
aJ (c) = n.
Geom. Vielfachheit fr
gJ (c) = 1 <
Alg. Vielfachheit
aJ (c) = n
n > 1,
d.h.
ist nicht diagonalisierbar. Aus dem Beweis von 13.3.8 folgt, dass fr jeden Eigenwert
Folgerung 13.4.2.
1
gilt
Geometrische Vielfachheit
gf ()
Algebraische Vielfachheit
af ()
Beispiel 13.4.3.
10 8 2
Das charakteristische Polynom ist
f End(R3 ) durch 18 42 17 47 . 5 15
die Abbildungsmatrix
f () = 3 + 8 2 20 + 16 = ( 4) ( 2) , f
hat den doppelten Eigenwert
2,
also
af (2) = 2
4,
also
af (4) = 1.
2 6 Ef (2) = R 5 , Ef (4) = R 3 , 1 1
d.h. die geometrischen Vielfachheiten der beiden Eigenwerte sind Fr den doppelten Eigenwert Satz nicht diagonalisierbar.
gf (2) = 1 = gf (4). 2 ist also die geometrische Vielfachheit zu klein, d.h. f ist nach dem vorhergehenden 3 Es gibt somit keine Basis des R aus Eigenvektoren von f . Trotzdem kann es sich
lohnen, wenn man so viele linear unabhngige Eigenvektoren nimmt, wie man bekommen kann (im vorliegenden 3 Fall 2), und zu einer Basis des R ergnzt. Im vorliegenden Fall kann man z.B. noch als dritten Basisvektor e2 ergnzen. Bezglich der neuen Basis
2 6 0 B = 3 , 5 , 1 1 0 1
gilt dann
4 [f ]B = 0 0
0 2 0
3 2 , 2
was immer noch deutlich besser als die ursprnglich gegebene Matrix ist. Noch etwas schner wird die Darstellung, wenn man die beiden Eigenvektoren wie folgt zu einer Basis ergnzt
2 6 3 B = 3 , 5 , 1 , 1 1 0
denn bezglich dieser Basis gilt
[f ]B
4 = 0 0
91
0 2 0
0 1 . 2
Die so genannte Jordan-Normalform (letzte Matrix im vorhergehenden Beispiel) ist in vielen Fllen die bestmgliche Darstellung.
Denition 13.4.4.
ein ist:
Es seien
mN
und Jordan-Blcke
K ein Krper und n N. Eine Matrix A K nn heit Jordan-Matrix, falls es (13.3.6) J1 , J2 , . . . , Jm gibt, so dass A von der folgenden Blockdiagonalgestalt J1 J2 A= .. . Jm
J1 , J2 ,
...,
Jm
einer Jordan-Matrix
A (13.4.4)
mssen nicht
Beispiel 13.4.5.
2 2 1 0 2
0
2 1 0 2
2 2
0
K
0
2 1 0 0 2 1 0 0 2
2 1 0 2
2 1 0 0 2 1 0 0 2
0
2.
5 5-Jordan-Matrizen
ein Krper,
Denition 13.4.6.
B = (b1 , b2 , . . . , bn )
Es seien von
ein
V K
n-dimensionaler K -Vektorraum und f End(V ). Eine Basis f , falls [f ]B eine Jordan-Matrix ist.
und
Satz 13.4.7.
ber
Es seien
ein
n-dimensionaler K -Vektorraum
f End(V ).
Zerfllt
f ()
in Linearfaktoren, so besitzt
eine Jordan-Basis.
Beweis: Fr diesen wichtigen Satz gibt es unzhlige Beweise. Auch der krzeste mir bekannte Beweis[siehe etwa
Hartl, 1988] erfordert aber etwa eine Vorlesungswoche und ist noch dazu nicht konstruktiv. Ich gebe hier deshalb nur einen Algorithmus zur Berechnung und keinen Beweis an.
In einer Jordan-Normalform stehen in der Diagonalen alle Eigenwerte entsprechend ihrer Vielfachheit. Betrachtet man etwa die Matrizen in 13.4.5, so sieht man, dass jeweils die erste Spalte eines Jordan-Blocks zu einem Eigenvektor in der zugehrigen Jordan-Basis gehrt. Man liest fr jeden Eigenwert
ab:
gA (i ) =
i . K.
Es
seien
ein Krper,
nN
und
A K nn
fr
HA (, k) := Kern Ak
k {0, 1, 2, . . . } . ,
die Elemente von
HA (, k) heit Hauptraum k -ter Stufe von A zum Eigenwert heien Hauptvektoren k -ter Stufe von A zum Eigenwert .
Insbesondere ist der Hauptraum
16.12.10
HA (, k) \ HA (, k 1)
die Haupt-
1-ter
HA (, 1) = EA (),
vektoren
1-ter
Satz 13.4.9.
es ein
ein Krper,
nN
und
A K nn
K.
Dann gibt
mit
0 = dim (HA (, 0)) < dim (HA (, 1)) < < dim (HA (, ))
Ab da wird die Folge der Dimensionen stationr:
Kern(B
),
denn fr
x Kern(B )
gilt
dim Kern(B i ) dim Kern(B i+1 ). Gilt fr ein mal dim Kern(B ) = dim Kern(B Kern(B +1 ), so folgt sogar B +1 x = 0 B x = 0 und damit x Kern(B
+2 +2
+1
),
also
Kern(B ) =
) B B
+2 +1
x=BB
+1
+1
x = 0
+1
x = B B x = 0 x Kern(B
),
), und somit mit Induktion dim Kern(B +k ) = dim Kern(B ) n fr k N.Da alle genannten Rume Unterrume des K sind, sind alle hier betrachteten Dimensionen n, d.h.
also insbesondere
dim Kern(B
) = dim Kern(B
Man kann zeigen, dass die Dimension von Der Hauptraum von
HA (, )
aA ()
ist.
ter Stufe umfasst alle Hauptrume anderer Stufen. Er wird deshalb einfach Hauptraum
zum Eigenwert
Denition 13.4.10.
Fr
Es seien seien
k {0, 1, 2, . . . }
K.
rk ,
ck ).
Fr jeden Eigenwert
Folgerung 13.4.11.
(A, ) = . . .
von
Satz 13.4.12.
A ()
ber
Es seien
ein Krper,
nN
und
AK
nn
i K
A i
ck (A, i ) =
zum Eigenwert
A.
Folgerung 13.4.13.
wert
Zusammen mit einer frheren Bemerkung zur Anzahl der Jordan-Blcke zu einem Eigenn
heit das
gA (i ) =
k=1
ck (A, i )
ber
in Linearfaktoren zerfllt.
, sodass
Jordan-Matrix ist.
Setze
; Berechne
Berechne Setze
fr
c = c (A, ) gem 13.4.10 fr = 1, 2, . . . ; D := fr = 1, 2, . . . , max{ | c = 0}; = max{ | c = 0}, . . . , 2, 1 Berechne Basen B 1 von HA (, 1) und B von HA (, ); Whle b1 , . . . , bc B , sodass B 1 D {b1 , . . . , bc } lin. unabh.; i = 1, . . . , c j = 1, . . . , Fge bi an B an; Setze D j+1 D j+1 {bi }; bi (A 1n )bi ;
tue
fr fr
tue tue
um;
T :=Matrix
als Spalten
93
Beispiel 13.4.14.
Es sei
A :=
329 150
149 50
131 45 52 45 22 45
172 75 57 25 26 45 68 45 8 45
49 150 31 50 1 45 13 45 62 45
R55
A (z) = z 5 + 10 z 4 40 z 3 + 80 z 2 80 z + 32 = (z 2) , aA (2) = 5 und A besitzt gem 13.4.7 eine Jordan-Basis. Die zugehrige Jordan-Normalform hat 2 in der Hauptdiagonalen. Zuerst betrachtet man wie blich A2 := A 2 15 und berechnet daraus r1 (A, 2) := Rang(A2 ) = 3, also gA (2) = 5 3 = 2. Aus der erreichten Zeilenstufenform liest man nun den
d.h. es ist fnfmal die Hauptraum 1.Stufe bzw. Eigenraum
15 16
4 1 , 0 0 0
ab. Es gibt also gA (2) = 2 Jordan-Blcke zum Eigenwert 2, die damit die Gren 1 und 4 oder 2 und 3 haben 2 2 2 mssen. Nun betrachtet man A2 := (A 2 5 ) und berechnet deren Rang r2 (A, 2) := Rang(A2 ) = 1. Der zugehrige 5 1-dimensionale Kern dieser Matrix ist der Hauptraum 2.Stufe
1 0 0 0 0 0 1 0 HA (2, 2) = Lin 1 , 1 , 0 , 0 2 1 0 0 0 0 0 1 0 A3 := (A 2 15 )3 = 0 ist der Rang r3 (A, 2) := Rang(A2 ) = 0 und somit der 2 3 5 k einfach Hauptraum, HA (2, 3) = R . Damit ist auch A2 = 0 fr k 3 und somit folgt
Wegen Hauptraum 3.Stufe, oder
wie das 3.Beispiel in 13.4.5. Man liest des Algorithmus startet deshalb mit
B2 =
1 0 0 0 0 0 1 0 0 0 {0 , 0 , 1 , 0 , 0} , 0 0 0 1 0 0 0 0 0 1
94
0 1 0 0 0 0 1 0 {1 , 1 , 0 , 0} 2 1 0 0 0 1 0 0 0
b1 , . . . , bc B zu whlen, sodass B 1 D {b1 , . . . , bc } linear unabhngig ist. Wegen c3 = 1 und D3 = , ist hier also ein b1 B3 zu whlen, sodass B2 {b1 } linear unabhngig ist. b1 = e3 leistet das Gewnschte. Mit diesem b1 HA (2, 3) \ HA (2, 2) kommt man nun in die Doppelschleife fr i und j . Dort wird b1 zuerst zu der bisher leeren geordneten Basis B hinzugefgt, d.h. wir haben jetzt B = (e3 ) und auerdem merkt man sich b1 in der bisher leeren Menge D3 , d.h. jetzt ist D3 = {e3 }, damit man in spteren Durchlufen noch wei, dass dieser Vektor aus HA (2, 3) schon verbraucht ist. In der inneren j -Schleife werden nun die bi mehrfach mit A 1n multipliziert. Das Ergebnis wird im Programm jeweils auch wieder bi genannt, was vielleicht etwas verwirrend ist. Zur Unterscheidung der Vektoren werden die (nur hier) mit bi , bi , bi , . . . bezeichnet. Man nennt bi , bi , bi , . . . auch eine Jordan-Kette zu .
Wegen
bi HA (, k) = Kern (A 1n )
folgt
k1
bi = (A 1n ) bi Kern (A 1n )
Fr die berechneten Vektoren gilt
bi = A bi bi bi + bi = A bi bi = A bi bi bi + bi = A bi
. . . Der letzte berechnete Vektor in dieser Kette ist in Nimmt man also Block
. . . , bi , bi , bi
Kern (A n ) = EA (). in der Reihenfolge in eine Basis, so gehrt zu diesen Basisvektoren der Jordan 0 . . . 0 0 0 1
.. .
0 1
.. .
0 0
.. .
...
.. .
0 ... ...
0 0
1 0
0 0 . . . 0 1
D2 und D1 , d.h. jetzt ist D2 = {b1 } und D1 = der berechneten Reihenfolge der geordneten Basis B zu, d.h. jetzt ist = 2
weiter. Zuerst wird eine
B1
von
16 4 0 1 B1 = { 1 , 0 } 2 1 0 1 0 c2 (A, 2) = 1 ist nun b1 B2 zu whlen, sodass Mit den bereits bekannten D2 und B2 heit dies
Wegen
B1 D2 {b1 }
lin. unabh.
Der Vektor
b1 =
Dieser Vektor wird an die geordneten Basis Auerdem wird inneren tun. Es ist der folgende Endstand erreicht
B angehngt und zu der Menge D2 hinzugefgt. b1 = (A 2 15 ) b1 EA (2) berechnet und an B angehngt und zu D1 hinzugefgt. Die 3 Schleifen fr , i und j sind damit abgearbeitet, denn fr = 1 ist wegen c1 (A, 2) = 0 nichts mehr zu
34 1 10 75 7 4 10 25 8 D1 ={ 1 , 45 }, D2 3 2 16 3 45 2 16 3 45
Die zu berechnende Jordan-Basis ergibt sich jetzt durch Umkehr der Reihenfolge aus onsmatrix
T =
1 10 7 10 1 3 2 3 2 3
0 0 1 1 0
34 75 4 25 8 45 16 45 16 45
0 0 1 0 0
Mit diesem
gilt endlich
T 1 AT =
20.12.10
2 1 0 2
2 1 0 0 2 1 0 0 2
Beispiel 13.4.15.
Wie so oft bei Algorithmen, gibt es natrlich alle mglichen Sonderflle, in denen das ein-
facher und schneller geht. Ein besonderer Fall wird in diesem Beispiel gezeigt: Es sei
A :=
689 250
Es ist
A (z) = z 5 + 7 z 4 19 z 3 + 25 z 2 16 z + 4 = (z 2) (z 1) ,
d.h. es ist
aA (2) = 2, aA (1) = 3.
87 20
51 40 9 20
Da beide Eigenrume eindimensional sind, gibt es zu jedem Eigenwert einen Jordan-Block, d.h. die Gestalt der Jordan-Normalform steht fest:
Ist
2 1 0 2
1 1 0 0 1 1 0 0 1
0
b1 EA (2)
und
A2 b2 = b1 A1 b4 = b3 A1 b5 = b4 . 1-dimensionale
Lsungsrume, aus
Diese inhomogenen linearen Gleichungssysteme haben jeweils mindestens denen man sich jeweils nur eine Lsung auswhlt. Hier erhlt man z.B.
3 4
375 32
28467 256
87 20
3/4 29 4 0 0 0
141 20 T = 1 2 1 1
51 40 9 20 1 2
375 32
28467 256
0
35 4 125 8 55 4
1 1
Dieses Verfahren funktioniert hier nur deshalb, weil es zu beiden Eigenwerten jeweils nur einen Jordan-Block und somit jeweils nur eine Jordan-Kette gibt. Somit kann man bei einem Eigenvektor starten und die Jordan-Kette in anderer Richtung als im Algorithmus durchlaufen. Hat man dagegen mehrdimensionale Eigenrume, so geht dieses Verfahren nicht mehr so direkt, weil man nicht wei, bei welchem Eigenvektor man starten kann. So ist z.B. fr
2 A = 0 0
der Eigenraum
1 2 0
0 0 2 b = e1 + e3
oder
b = e3
das LGS
23.12.10
A2 x = b
lsbar.
97
98
14 Bilinearformen
14.1 Matrixdarstellung
Es seien Dimension und
: V V K; (x, y) (x, y) eine Bilinearform (12.1.1) auf einem K -Vektorraum V B = (b1 , . . . , bn ) eine geordnete Basis von V . v=
n i=1
endlicher
Betrachtet man analog zu linearen Abbildungen die Bilder der Basisvektoren wegen der Bilinearitt fr zwei beliebige Vektoren
v i bi
n
und
w=
aij n j=1
:= (bi , bj ), wj bj aus V
so gilt dann
(v, w) = (
i=1
d.h.
v i bi ,
j=1
w j bj ) =
i=1
vi
j=1
aij wj ,
(14.1)
aij := (bi , bj )
Denition 14.1.1.
Es seien
und
ein Krper, n N, V ein n-dimensionaler K -Vektorraum, B = (b1 , . . . , bn ) : V V K; (x, y) (x, y) eine Bilinearform. Die Matrix
GB () := ((bi , bj ))1i,jn
heit Grammatrix (auch Formmatrix oder Strukturmatrix) von
(14.1) zeigt nun, dass man mit Hilfe der Grammatrix schreiben kann:
(v, w) =
v/B GB () w/B .
Wegen der bekannten Rechengesetze fr Matrizen prft man nun leicht nach, dass anders herum fr jede beliebige Matrix
A K nn A
die Abbildung
(v, w)
v/B A w/B
Kn
ist.
gehrige Bilinearform.
Beispiel 14.1.2.
A = 1n
im
Rn
vAw = tv 1n w = tvw = v1 w1 + v2 w2 + + vn wn ,
Satz 14.1.3.
Eine Bilinearform
eines
K -Vektorraumes V
fr alle
vV
gilt
(v, w) = 0
w V v = 0.
eine
Satz 14.1.4.
Es seien
ein Krper,
und
n N, V ein n-dimensionaler K -Vektorraum, B = (b1 , . . . , bn ) : V V K; (x, y) (x, y) eine Bilinearform. Dann gilt Rang GB () = n
ist nicht ausgeartet.
Beweis: Angenommen, Rang G () = m < n. Dann ist mit w V die Menge der Vektoren G () w/ ein B B B m-dimensionaler Teilraum des K n . Ist C = (c1 , . . . , cm ) eine Basis dieses Raumes, so ist (v, w) = 0 fr alle w V gleichbedeutend mit
(c1 )
. . .
v/B c1
c2
...
cm = 0
v/ = 0 . B t (cm )
m < n hat, gibt es einen n m-dimensionalen Lsungsraum v 's, also insbesondere immer von 0 verschiedene Lsungen, d.h. ist ausgeartet. Ist Rang G () = n, so ist die Menge aller G () w /B ganz V . Deshalb ist (v, w) = 0 fr alle w V B B t gleichbedeutend mit v/B 1n = 0, d.h. es gibt nur die Lsung v = 0 und ist nicht ausgeartet.
Da die Koezientenmatrix dieses LGS den Rang fr die 99
14.2 Basiswechsel
Wie bei linearen Abbildungen interessiert man sich nun fr das Verhalten der Grammatrix beim Basiswechsel und fr Basen bezglich derer die Grammatrix besonders einfach aussieht.
von
(invertierbaren) Transformationsmatrix
V zu einer T := B [idV ]C
Basis
von
beschrieben:
oder kurz
GC () = tT GB () T .
Zwei Matrizen
Denition 14.2.1.
A= T BT
t
A, B K nn
T K nn
mit
Satz 14.2.2.
Genauso wie man sich bei den quivalenzklassen hnlicher Matrizen mglichst einfache Vertreter aussucht (Diagonalgestalt, Dreiecksgestalt oder Jordan-Normalform), stellt sich auch fr quivalenzklassen kongruenter Matrizen das Normalformenproblem.
Mit Hilfe von Elementarmatrizen kann man jetzt einiges zu Kongruenzumformungen sagen: Ist
eine invertierbare Matrix, so kann man diese als Produkt von Elementarmatrizen schreiben.
T bewirkt eine Folge von elemenT von links bewirkt die analogen
Es seien
A K nn .
Die Zeilenumformungen werden gleichzeitig in einer gleichgroen Einheitsmatrix mitprotokolliert (analog knnte man natrlich auch die elementaren Spaltenumformungen mitprotokollieren):
(A|1n )
Ist
(A |T ) A = T A tT
A die Grammatrix einer Bilinearform bezglich der Basis B , also A = GB (), so ist A = GC () und T = B [id]C , d.h. man kann aus T direkt die neue Basis ablesen.
Fr eine spezielle Klasse von Bilinearformen wird das Normalformenproblem fr kongruente Matrizen durch den so genannten Sylvesterschen Trgheitssatz sehr schn beantwortet werden. 100
Beispiel 14.2.3.
1 2 3 1 0 0 4 5 6 0 1 0 7 8 9 0 0 1 1 2 4 1 0 0 3 6 4 1 0 6 12 7 0 1 2 0 1 0 0 3 0 4 1 0 0 0 1 2 1 0 0 1 4 1 0 4 1 2 1 7
=T Z2 Z2 4Z1 Z3 Z3 7Z1
und und
S2 S2 4S1 S3 S3 7S1
=A=G ()
= T =B [id]C
=A =G ()
C
ein Krper,
ein
K -Vektorraum
und
:V V K
(u, v) = (v, u)
u, v V . K -Vektorraum
und
Satz 14.3.2.
Es seien
K V
ein Krper,
ein endlichdimensionaler
: V V K
eine
von
ist genau dann symmetrisch, wenn die zugehrige Grammatrix bezglich einer t symmetrisch ist: symmetrisch G () = GB () . B
u, w V : (u, w) = (w, u) = GB () =
t t t
u GB () w = w GB () u
t t
u GB () w = tw
GB () u
GB () .
Denition 14.3.3.
Es seien
ein Krper,
ein
K -Vektorraum
und
: V V K
eine symmetrische
q :
die zu
V K v (v, v)
q (v) = 2 q (v)
fr alle
K, v V ;
daher
u, v V
gilt
q (u + v) =(u + v, u + v) = (u, u + v) + (v, u + v) = =(u, u) + (u, v) + (v, u) + (v, v) = =q (u) + q (v) + 2(u, v) .
Ist (14.2)
endlichdimensional und
von
V,
A = (aij ) = GB ()
n
die zu
so ist
q(v) = tvAv =
i=1
2 aii vi + 1i<jn
2aij vi vj .
Dies ist ein Polynom in mehreren Variablen, also eine Summe von so genannten Termen der Gestalt
mit
a K, r N
und
i j N0
fr
j = 1, . . . , r
und Unbestimmten
v1 , . . . , v r .
101
i1 + + ir .
Haben alle Terme eines Polynoms gleichen Grad, so heit das Polynom homogen. Eine quadratische Form liefert also ein homogenes Polynom vom Grad Aus
n 2 1i<jn 2aij vi vj liest man ab, dass sich jedes homogene quadratische Polynom i=1 aii vi + t umschreiben lsst in die Gestalt vAv , also eine quadratische Form ist:
q(v) =
2 vi
liefern fr
i = 1, . . . , n
die Diagonalelemente
aii aij
der
vi vj
werden fr
1i<jn
je zur Hlfte in
und
aji
bernommen.
Beispiel 14.3.4.
quadratischen Form
q(X) = x
x z A y z
mit
Satz 14.3.5.
Es seien
1 + 1 = 0, V
ein
K -Vektorraum
q:V K
eine quadratische
die zu
zugehrige symmetrische
Beweis: Ist
q = q
u, v V
= .
Fr symmetrische Bilinearformen kann man mit Kongruenztransformationen eine besonders
Beispiel 14.3.6.
1 4 7 1 0 0 1 0 0 1 0 0
10.1.11
4 6 8
1 0 0 0 1 0 0 0 1 0 0 1 0 10 20 4 1 20 40 7 0 0 0 1 0 10 0 4 1 0 0 1 2 7 8 9 0 1 0
Z2 Z2 4Z1 Z3 Z3 7Z1
und und
S2 S2 4S1 S3 S3 7S1
0 0 1 0 0 1
Z3 Z3 2Z2
und
S3 S3 2S2
Z2
Z 2 10
und
S2
S 2 10
1 1
4 10
0 1 0 0 1 0 4 0 10 10 0 1 2 1 1 0 0 1 4 7 1 0 0 4 6 8 10 7 8 9 2 1 0
4 10
1 10
1 2 = 1
1 0 0
0 1 0
0 0 0
Satz 14.3.7
15
Es seien
n-dimensionalen R-Vektorraumes V .
1 n+
GB () = 0 0
15 Benannt
nach
Mal das Wort Matrix im heutigen Sinne verwendete. Dieser Satz hier war allerdings schon davor
James Joseph Sylvester (1814 - 1897) , der u.a. in seiner Arbeit On a New Class of Theorems (1850) zum ersten Carl Gustav Jacob Jacobi (1804
- 1851) bekannt.
102
Dabei seien
n+ bzw. n Einheitsmatrizen der Gre n+ bzw. n und 0n0 eine n0 n0 -Nullmatrix. Die restlichen Nullen bezeichnen Nullmatrizen passender Gre. Die Zahlen n+ , n , n0 N (n+ + n + n0 = n)
sind durch die Bilinearform eindeutig bestimmt. Beweis: Der Beweis wird durch Induktion nach der Dimension
trivial. Nun sei auch
n1
n1
bewiesen.Ist
n von V gefhrt. Fr n = 0 ist die Aussage (v, v) = 0 fr alle v V , so gilt wegen 14.3.5
1 ((v + w, v + w) (v, v) (w, w)) = 0 2 fr alle v, w V , d.h. ist die Nullform und G () = 0 fr jede Basis B von V . B 1 v1 . Wegen Gibt es dagegen ein v1 V mit (v1 , v1 ) = 0, so setzt man w1 := (v, w) =
|(v1 ,v1 )|
folgt
(w1 , w1 ) =
Nun sei also
(v1 , v1 ) = 1 . |(v1 , v1 )|
W := {w V | (w1 , w) = 0}. Da eine Bilinearform von V ist, ist (w1 , w) eine Linearform von V , W der Kern dieser Linearform. Insbesondere ist W ein Untervektorraum von V . Wegen (w1 , w1 ) = 1 ist (w1 , w) nicht die Nullform, d.h. es ist Bild (w1 , w) = R und deshalb dim W = n 1. In bung 8.9 wurde Lin (w1 ) W = V gezeigt. Nach Induktionsvoraussetzung hat W eine Basis (w2 , . . . , wn ) mit den geforderten Eigenschaften. Deshalb ist B = (w1 , w2 , . . . , wn ) eine Basis von V mit den gesuchten Eigenschaften.
14.4 Denitheit
Denition 14.4.1.
Es seien K = R und eine symmetrische Bilinearform des n-dimensionalen R-Vektorraumes V . Das nach 14.3.7 eindeutig bestimmte Tripel (n+ , n , n0 ) heit die Signatur der symmetrischen Bilinearform . Eine reelle symmetrische Bilinearform mit n+ = n = dim V heit positiv denit. Die Matrix GB () aus dem Trgheitssatz heit die Sylvester-Normalform von .
Beispiel 14.4.2.
denit. Die Summe
Die in 14.3.6 betrachtete Bilinearform hat die Signatur ist der Rang jeder Grammatrix von
(1, 1, 1)
n+ + n
hier also
2.
Eine symmetrische Bilinearform heit nach bisheriger Denition positiv denit, wenn sie als SylvesterNormalform die Einheitsmatrix (Signatur Bezglich der zugehrigen Basis
(dim V, 0, 0))
besitzt.
gilt dann
(v, v) =
d.h.
(v, v)
(v, v) = 0.
Damit wird die bisherige Denition ber die Normalform nun erweitert auf Bilinearformen ber beliebigen reellen Vektorrumen:
in einem reellen Vektorraum V (nicht zwingend end(v, v) > 0 v V \ {0} . Analog heit positiv semidenit, wenn gilt (v, v) 0 v V , negativ denit, wenn (v, v) < 0 v V \ {0} und negativ semidenit, wenn (v, v) 0 v V . Hat keine diese Eigenschaften, d.h. gibt es v V mit (v, v) > 0 und w V mit (w, w) < 0, so heit indenit.
Eine symmetrische Bilinearform lichdimensional) heit positiv denit, wenn gilt
Denition 14.4.3.
Fr eine positiv semidenite Bilinearform gilt Fr eine negativ denite Bilinearform ist
n = 0,
bzw.
n+ + n0 = n.
Fr den Nachweis der positiven Denitheit sind damit schon zwei Kriterien bekannt: Direktes Nachrechnen von
(v, v) > 0
fr
v=0
Umrechnung auf die Sylvester-Normalform mit Hilfe von Kongruenzumformungen. Dabei muss am Schluss nicht unbedingt die genaue Sylvester-Normalform mit
1, 0
in der Diagonalen
sein; irgendeine Diagonalgestalt und Betrachtung der Vorzeichen in der Diagonalen reicht schon. 103
Satz 14.4.4.
Dann besitzt Eigenwerte, Beweis: Ist
dieses und
Es sei V ein n-dimensionaler R-Vektorraum mit Basis B und eine symmetrische Bilinearform. A := GB () genau n reelle (nicht notwendig verschiedene, entsprechend ihrer Vielfachheit gezhlte) d.h. jede reelle symmetrische n n-Matrix hat n reelle Eigenwerte!
eine symmetrische Bilinearform mit der ebenfalls symmetrischen Formmatrix Algebra 13.3.2 so gilt
A Rnn ,
so hat
(v, v) = t(v) Av =
denn
= R,
(v) v = |v1 |2 + + |vn |2 = 0. A Rnn symmetrisch. Dann besitzt das charakteristische Polynom A () = Koezienten i fr i = 0, . . . , n und n reelle Nullstellen (also reelle Eigenwerte 1 , . . . , n )
Es sei
n i i=0 i und A ist
Satz 14.4.5.
nur reelle
genau dann positiv denit, wenn eine der folgenden Bedingungen erfllt ist:
j = 0, . . . , n 1,
det(Ak ) > 0 fr k = 1, . . . , n, wobei Ak die Teilmatrix von A sei, die aus den ersten k Zeilen und Spalten A besteht. det(Ak ) heit Hauptunterdeterminante oder Hauptminor von A. Dieser Punkt ist auch >
zu
unter dem Namen Hurwitz-Kriterium bekannt (nach Adolf Hurwitz (1859 - 1919))
Damit lassen sich die aufgelisteten Kriterien auch zum Nachweis der negativen Denitheit verwenden. Der Beweis dieses Satzes erfordert einige Hilfsmittel, die in der Vorlesung noch nicht behandelt wurden, und wird deshalb vorerst weggelassen.
104
15 Euklidische Vektorrume
15.1 Skalarprodukt
Denition 15.1.1.
Bilinearform. Dann heit
R-Vektorraum und : V V R eine positiv denite symmetrische V und V Euklidischer Vektorraum. Ist eine Bilinearform sogar ein Skalarprodukt, so schreibt man auch x|y statt (x, y) (in der Schule oder bei Ingenieuren oft x y ). Um zu betonen, dass man einen Euklidischen Vektorraum hat, schreibt man auch (V, ) bzw. (V, | ).
Es seien
ein
Skalarprodukt auf
Beispiel 15.1.2. Das bereits aus der Schule bekannte so genannte reelle kanonische Skalarprodukt v|w := t v 1n w = tvw im Rn ist ein Skalarprodukt gem obiger Denition, der (Rn , | ) ein Euklidischer Vektorraum. Beispiel 15.1.3.
Es sei
V = R[x]3
3.
Dann ist
p|q :=
1
p(x)q(x) dx
ein Skalarprodukt,
(V, | )
15.2 Norm
Denition 15.2.1.
Es sei
(V, | )
:
heit die zu
V x
R x|x
Beispiel 15.2.2.
Rn
x =
x|x =
x2 + x2 + + x2 . n 1 2
Satz 15.2.3
V
gilt
Es sei
(V, | )
x, y
| x|y | x y .
Das Gleichheitszeichen gilt genau dann, wenn
und
v = x|x y y|x x .
Es gilt:
0 v
=
2
x|x y y|x x| x|x y y|x x = y|x x| x|x y x|x y| y|x x + y|x x| y|x x =
2
+ y|x
2
x|x =
y . v = 0
und somit
| y|x | x
Gilt in der letzten Zeile das Gleichheitszeichen, so folgt in der ersten Zeile
y|x x = 0
man
also
und
linear abhngig.
Sind umgekehrt
und
v = x|x y x = y , so bekommt
Satz 15.2.4.
(N1 ) x 0
Es sei
(V, | )
die zu
x V , x = 0 x = 0, x V, R, x, y V
(Dreiecksungleichung)
(N2 ) x = || x
(N3 ) x + y x + y
Beweis: Die ersten beiden Eigenschaften folgen direkt aus der Bilinearitt und positiven Denitheit des Skalarprodukts, die dritte aus der CSU:
x+y
+ 2 x|y + y
( x + y )2 = x
Wegen
+2 x
y + y
x|y | x|y | x
x+y
( x + y )2
x+y x + y
wegen der Monotonie des Quadrats bzw. der Wurzel fr positive Werte. Wegen der Bemerkung am Ende des Beweises der CSU kann die Gleichheit hier nur dann eintreten, wenn
und
(N3 )
13.1.11
benstehende Skizze klar sein sollte. Die Eigenschaften (N1 )-(N3 ) werden allgemein zur Denition einer Norm verwendet. Es gibt Normen, die sich nicht durch ein Skalarprodukt
als
x =
x|x
denieren lassen: fr
x := max{|xi | | 1 i n}
esse.
dim V = n
Abbildung 29:
Dreiecksungleichung
Diese Normen sind aber in der Linearen Algebra meist nicht von Inter-
15.3 Metrik
Denition 15.3.1.
Es sei
(V, | )
d:
heit die zu
V V (x, y)
R xy
V.
ein Euklidischer Vektorraum und
Folgerung 15.3.2.
gilt:
(V, | )
die zu
(D1 ) d(P, Q) 0, d(P, Q) = 0 P = Q, (D2 ) d(P, Q) = d(Q, P ), (D3 ) d(P, R) d(P, Q) + d(Q, R)
fr alle Punkte
P, Q, R V . (D1 )-(D3 )
werden allgemein zur Denition einer Metrik verwendet. als
Die Eigenschaften
d(x, y) = x y
denieren lassen.
Diese sind aber in der Linearen Algebra meist nicht von Interesse. 106
x|y x y
1.
Deshalb ist der Arcuscosinus dieses Ausdruckes deniert, was man nun verwendet, um den Winkelbegri beruhend auf Skalarprodukt und Norm allgemein in Euklidischen Vektorrumen zu denieren:
Denition 15.4.1.
Norm
Es sei
|
und
von
ist
x|y . x y
Wegen der gezeigten Eigenschaften von Skalarprodukt und Norm folgen fr den so denierten Winkel die erwarteten Eigenschaften.
Weiterhin hat der so denierte Winkel (auch in hherer Dimension) die erwarteten additiven Eigenschaften Fr den Beweis braucht man den Cosinus mit seinen Additionstheoremen (siehe z.B. Fischer [2000], S.277).
Abbildung 30:
Winkel-Additivitt
Es sei (V, | ) ein Euklidischer Vektorraum. Zwei Vektoren x, y V heien orthogonal | , wenn x|y = 0 ist. Sind v1 , . . . , vm V \ {0} so heit {v1 , . . . , vm } ein Orthogonalsystem, falls vi |vj = 0 fr beliebige i = j mit 1 i, j m. Ist zustzlich vi |vi = 1 fr 1 i m, so spricht man von einem Orthonormalsystem. Mit Hilfe des Kronecker-Symbols kann man ein Orthonormalsystem kurz durch vi |vj = ij fr beliebige 1 i, j m beschreiben. bezglich
Denition 15.4.2.
Satz 15.4.3.
Es sei
Jedes Orthogonalsystem
mit
0 = vk |
i=1
Wegen
i vi =
i=1
i vk |vi = k vk |vk
vk |vk > 0
heit das
k = 0.
Ist
m = n = dim V ,
so spricht man deshalb auch von einer Orthogonalbasis bzw. einer Orthonormalbasis.
{v1 , . . . , vn }
(V, | )
Vektor Vektor
Der erste Schritt dazu ist die orthogonale Zerlegung eines gegebenen Vektors
anderen Vektor
auf
a)
und einen
Satz 15.4.4.
Es seien gilt
(V, | ) ein Euklidischer Vektorraum, O, A, B V Punkte mit O = A, a = OA, b = OB . Dann existiert L OA mit LB a und es a|b ba :=OL = 2a a b :=LB = b ba a
Abbildung 31:
107
Orthogonale
Zerlegung
Beweis:
a|b = a|b a
a|b a
2a
= a|b
a|b a
2
a|a = 0 b a a
= a
2
Da oensichtlich
ba a
und
ba + b = b a
15.5 Orthogonalisierung
man z.B.
w1 := v1
w1 w2
{w1 , w2 }
folgt
{w1 , w2 }
Die gleiche Grundidee wird nun weiter verfolgt, um eine Orthogonalbasis von Dazu wird die orthogonale Projektion von dann von
v3
in die von
w1
und
w2
v3
subtrahiert:
v3
in
v3
auf
w1
und von
Der Vektor
w1 |v3 w1
2
w1 +
w2 |v3 w2
2
w2
Lin (w1 , w2 ).
Der Vektor
Lin (w1 , w2 ), w1
und
Abbildung 32:
w2 :
2
Orthogonale
Projektion
w1 |w3 = w1 |v3
w1 |v3 w1
2
w1 |w1
w1
2
w2 |v3 w2
w1 |w2 =
=0
= w1 |v3 w1 |v3 = 0
und analog
w2 |w3 = 0. {w1 , . . . , wn }
von
Diese Grundidee lsst sich rekursiv fortsetzen und endet bei einer orthogonalen Basis
{v1 , . . . , vn }.
Das gesamte Verfahren ist nach Jorgen Pedersen Gram (1850 - 1916) und Erhard Schmidt (1876 - 1959) benannt:
{v1 , . . . , vn }.
i1
Dann ist
wi := vi
j=1
wj |vi wj (
w1 w1 2
wj
fr
i = 1, . . . , n )
eine Orthonormalbasis von
bezglich
, bzw.
,...,
108
wn wn
V.
i=1
i=3
ist in der Herleitung gemacht worden. Der noch fehlende Induktionsschritt von
wj w wj |vi wj
2
fr
i1
w |wi = w |vi
j=1
w |wj = w |vi
w |w
=0
Folgerung 15.5.2.
(V, | )
(und natrlich auch eine Orthonormalbasis). Beweis: Man wende das Gram-Schmidtsche Orthogonalisierungsverfahren auf eine beliebige Basis von
(und normiere gegebenenfalls).
an
Folgerung 15.5.3.
Vektorraumes
(V, | )
fahren auf diese Basis an. Die bereits orthogonalen Basisvektoren von
Satz 15.5.4.
raumes
Es sei
(V, | ).
v/B
Beweis: Ist
mit einem
v=
mit
bj
n i=1
bj |v = bj |
i=1
v i bi =
i=1
vi bj |bi = vj bj |bj = vj .
U1 U2 ,
Ist
u1 u2
(V, | )
heien orthogo-
Denition 15.6.2.
Komplement von
U U := {v V | u|v = 0
fr alle
u U}
Satz 15.6.3.
Dann gilt (
(V, | ).
und
U .
{b1 , . . . , bm } v/B =
von
{b1 , . . . , bm , bm+1 , . . . , bn }
von
ergnzen. Fr jedes
b1 |v . . . bm |v bm+1 |v . . . bn |v
B :=
109
d.h.
bm+1 , . . . , bn ,
also
U = Lin (bm+1 , . . . , bn ) .
Daraus folgt direkt der erste und dritte Teil der Behauptung. Teil 2 folgt aus der Denition von
U .
(V, | ) ein Euklidischer Vektorraum, M d(p, M ) von p und M ist deniert durch
und
pV
d(p, M ) := inf{d(p, m) | m M } .
Von besonderem Interesse sind dabei die Abstnde, bei denen (Abstand Punkt-Gerade)
Satz 15.7.2
Es seien
(V, | )
u, v, p V , v = 0
und
G = {u + v | R}
d(p, G) =
Dieser Wert wird erreicht fr
up
u p|v v
2
p u|v v
2
d.h. im Geradenpunkt
p,G
=u+
p u|v v p
2
v.
p,G steht orthogonal auf
Das Inmum aus 15.7.1 ist also ein Minimum. Die Verbindungsgerade von d.h. der krzeste Abstand ist das Lot, Beweis: in der bung
p,G der Lotfupunkt.
und
G,
Da man jetzt wei, dass der krzeste Abstand das Lot ist, kann man diesen Abstand z.B. auch so berechnen (vgl. Skizze):
d(p, G) = (p u) , v
was nach Einsetzen der Formel aus 15.4.4 auf den gleichen Ausdruck fhrt.
Abbildung 33:
mit
Abstand
Punkt-Gerade
Ist
U = Lin (u1 , . . . , uk )
1 < k < n 1,
V = U U (15.6.3)
jedes
p V
eindeutig zerlegen in
p = pU + p . U
U U
Bereits bei der Herleitung des Gram-Schmidtschen Orthogonalisierungsverfahrens war gezeigt worden, dass die orthogonale Projektion Projektionen von
pU
eines Punktes
in einen Unterraum
pU =
j=1
uj |p uj
2
uj .
Dies kann man nun zur Berechnung des Abstandes eines Punktes zu 110
verwenden:
Satz 15.7.3.
Es sei
Orthogonalbasis
(V, | )
mit der
j=1
uj |p uj
2 2
Beweis: Fr beliebiges
uU
gilt
pu
= pU + p u U
2
= pU + p u|pU + p u = U U
= pU u|pU u + p |p = U U = pU u
Das Gleichheitszeichen wird dabei fr mit
+ p U
p U
2 p U
pU = u angenommen, p U = p
2 2
pu
. Zusammen
+ pU
= p
2 p U
pU
2
d(p, U ) =
p U
=
k
pU
2 2
j=1
uj |p uj
2
uj
j=1
uj |p uj
Denition 15.8.1.
g1 = u1 + Rw1
und
g2 = u2 + Rw2
in
(V, | )
sei
) <(w1 , w2 ) ) <(w1 , w2 )
) <(g1 , g2 ) :=
w1 |w2 0 sonst .
falls
Zusammen mit der Denition des Winkels zwischen Vektoren folgt (Winkel zwischen Geraden)
Folgerung 15.8.2
| w1 |w2 | . w1 w2 2
Winkel zwischen
17.1.11
Geraden
| N |w | ) <(Rw, RN ) = arccos . 2 2 N w
111
Abbildung 35:
Winkel zwischen
Denition 15.8.4.
(V, | ) ein endlichdimensionaler Euklidischer VektorH : N |x p = 0, H : N |x p = 0 zwei Hyperebenen (also p, p , N, N V , N, N = 0). Der Winkel zwischen den Hyperebene H und H wird deniert als der Winkel zwischen den Geraden RN und RN :
Es seien raum und
) ) <(H, H ) := <(RN, RN ) = arccos
| N |N | . N N
Abbildung 36:
Winkel zwischen
15.9 Volumen
Denition 15.9.1.
Fr
mN
und Vektoren
a1 , . . . , am
(V, | )
heit
P (a1 , . . . , am ) := {1 a1 + + m am | 0 i 1
(m-dimensionales, falls
i = 1, . . . , m} R3
auch Spat.
a1 , . . . , am
Um einen sinnvollen Volumenbegri fr Parallelotope einzufhren, verwendet man Grundideen der mathematischen Matheorie, wie z.B.:
Sind
M1 , M2 , . . . , Mn
endlich viele paarweise disjunkte Parallelotope, so ist das Volumen von deren
Vereinigungsmenge die Summe der einzelnen Volumina (Additivitt). Die Verschiebung eines beliebigen Parallelotops ndert nicht dessen Volumen (Bewegungsinvarianz). Ein gleichseitiges orthogonales Parallelotop mit der Kantenlnge Volumen
(ON-System
a1 , . . . , am )
hat das
(Normiertheit).
Fr Strecken (=1-dimensionale Parallelotope) ist solch ein Volumenbegri bereits bekannt, nmlich die Lnge (Metrik). Um diesen Volumenbegri in hhere Dimension zu bertragen, verwendet man das nach Bonaventura
m-dimensionale
Parallelotope in Schnitte
m 1-
P (a1 , . . . , am ) =
0m 1
P (a1 , . . . , am1 ) + m am .
Fr m N und Vektoren a1 , . . . , am eines Euklidischen Vektorraumes (V, | ) bezeichne (a1 , . . . , am ) (oder einfach Vol (a1 , . . . , am ), wenn das Skalarprodukt klar ist) das Volumen des Parallelo| tops P (a1 , . . . , am ) bezglich des Skalarproduktes | . Dieses Volumen wird rekursiv deniert durch Vol (a1 ) = a1 = a1 |a1 und fr m 2:
Denition 15.9.2.
Vol
Satz 15.9.3.
Es seien
(V, | )
mN
und
a1 , . . . , a m V .
Dann ist
Vol
(a1 , . . . , am ) =
Den Satz beweist man mit Induktion aus 15.9.2 und mit Hilfe von 15.7.3 ([siehe z.B. Koecher, 1997]). 112
Folgerung 15.9.4.
im
Rn
gilt
( ai |aj )1i,jm = tA A ,
wobei
a1 , a2 , . . . , am
sei.
Damit folgt fr
m = n: Vol
|
(a1 , a2 , . . . , am ) =
det(tA A) =
det(A)2 = |det(A)| ,
also der bereits bei der Einfhrung der Determinante erwhnte Spezialfall.
Neben den Parallelotopen sind besonders das von zwei Vektoren aufgespannte Dreieck und das von drei Vektoren aufgespannte Tetraeder (=Pyramide aus Dreieckschen) fr die Flchen- bzw. Volumenmessung interessant.
Das Dreieck hat die halbe Flche des von den gleichen Vektoren aufgespannten Parallelogramms, das Tetraeder ein Sechstel des Volumens des von den gleichen Vektoren aufgespannten Spats.
113
114
16 Unitre Vektorrume
16.1 Sesquilinearformen
gilt etwa Das kanonische reelle Skalarprodukt lsst sich nicht direkt auf
bertragen: Mit
v = (0) 1
und
w = (0) i
ww = 0
0 i
= 1
vw = 0
0 i
=i
d.h. die Eigenschaften des Skalarproduktes, die darauf aufbauende Begrie wie Norm und Winkel erst ermglichen, sind nicht erfllt:
Es ist nicht
ww 0,
und somit kann man weder die Norm mit diesem Produkt denieren, noch die CSU 15.2.3 formulieren. Die Eigenschaft
w|w 0
kann man auf den komplexen Fall hinberretten, wenn man statt mit
vw
mit
v|w := (v) w
ja
rechnet.
Dieses so genannte kanonische komplexe Skalarprodukt ist allerdings keine Bilinearform mehr, denn es gilt
v|w :=
gilt
v w = t(v) w = v|w
und
fr
R.
Denition 16.1.1.
(SF1 )
Es sei
ein
C-Vektorraum.
Eine Abbildung
: V V C
heit Sesquilinearform
16
, wenn
u, v, w V
u, w V , c C
u, v, w V
u, w V , c C
In der Literatur ist nicht einheitlich, in welcher Komponente der Sesquilinearform die volle Linearitt, und in welcher die halbe Linearitt (man ndet auch die Bezeichnung konjugiert linear oder semilinear dafr) vorliegt. Das macht auch keinen wesentlichen Unterschied, man sollte nur darauf gefasst sein.
Wie eine Bilinearform kann man auch eine Sesquilinearform durch ihre Grammatrix beschreiben. Die Herleitung kann man vom reellen Fall fast wrtlich bernehmen, muss nur jeweils wegen den Strich in die erste Komponente bringen:
(cu, v) = c(u, v)
eine
Es sei
V.
Mit
B = (b1 , . . . , bn )
oder kurz
(v, w) = t(v) A w,
wenn
Das kanonische komplexe Skalarprodukt bekommt man daraus mit der Einheitsmatrix als Grammatrix. Auch beim Basiswechsel lsst sich alles mit einem Strich zustzlich auf den komplexen Fall bertragen:
GC () =
mit der Transformationsmatrix
B [idV ]C
GB () B [idV ]C =
T GB () T
T = B [idV ]C .
16 sesquilinear
heit
1 1 -mal 2
linear
115
Denition 16.3.1.
arform
Es seien
ein
C-Vektorraum
und
: V V C u, v V .
(u, v) = (v, u)
Folgerung 16.3.2.
, S.105]:
(v, v) = (v, v)
v V ,
d.h
(v, v) R!
Etwas mhsamer zu sehen, aber auch richtig, ist die Umkehrung dieser Aussage [siehe z.B. Lorenz, 2005,
Satz 16.3.3.
dass
(u, u) R
fr alle
uV,
so ist
Hermitesch.
v, w V : (v, w) (w, v) GB () =
t
= =
t t
(v) GB () w = t(v) GB () w = tw GB () v w GB () v = tw GB () v
GB () .
GB ()
Hermitesch ist.
oder
AH . A
adjungierte Matrix.
Eine Matrix ist also Hermitesch, wenn sie mit ihrer Adjungierten bereinstimmt. Fr die Adjungierte beweist man leicht die folgenden Analogien zur Transponierten:
t(AB) = tB tA
t
(AB) = B A , (A )
1
A1
= A1
Wegen 16.3.2 kann man analog zu 14.3.3 auch im komplexen Fall zu einer Hermiteschen Form
des
C-Vektorraumes V
q :
betrachten.
V R v (v, v)
Es gilt
fr alle
und
v V.
Auch der Trgheitssatz von Sylvester 14.3.7 und die Denition der Denitheit 14.4.1 lassen sich damit auf den komplexen Fall bertragen:
Satz 16.3.4.
Es sei
K = C und B , so dass
n-dimensionalen C-Vektorraumes V .
Dann
1 n+
GB () = 0 0
Dabei seien
1 n 0
0 0 . 0n0
n+ bzw. n Einheitsmatrizen der Gre n+ bzw. n und 0n0 eine n0 n0 -Nullmatrix. Die restlichen Nullen bezeichnen Nullmatrizen passender Gre. Die Zahlen n+ , n , n0 N (n+ + n + n0 = n)
Denition 16.3.5.
Es seien
K =C
und
Das nach 16.3.4 eindeutig bestimmte Tripel Hermitesche Form mit n+ Sylvester-Normalform von
(n+ , n , n0 )
= n = dim V .
Wie im reellen Fall lsst sich das verallgemeinern: eine Hermitesche Form (nicht zwingend endlichdimensional) heit positiv denit, wenn gilt
(v, v) 0 v V , (v, v) 0 v V .
wenn gilt
in einem komplexen Vektorraum V (v, v) > 0 v V \{0} , positiv semidenit, (v, v) < 0 v V \ {0} und negativ semidenit, wenn
bedeuten Kongruenzumformungen, dass man elementare
Beispiel 16.3.6.
Z2 Z2 iZ1 1 i 1 i 1 0 0 Z3 Z3 + (1 i)Z1 und 0 1 0 i 3 2i S2 S2 +iS1 1 + i 2i 5 0 0 1 S3 S3 + (1 + i)S1 1 0 0 1 0 0 Z3 Z3 + ( 1 + 3 i)Z2 2 2 0 und 2 1 + 3i i 1 0 1 3 S3 S3 + ( 2 2 i)S2 1i 0 1 0 1 3i 3 Z Z 1 0 0 1 0 0 Z2 2 Z3 3 2 2 0 2 0 und i 1 0 S2 S3 3 3 S2 2 S3 2 0 0 2 5 2 i 1 + 2 i 1 2 2 1 0 0 1 0 0 2 0 1 0 i 2 2 0 2 0 0 1 5 4 2 3 4 2 i 42 + 3 4 2 i 22 1 0 0 1 i 1 i t 0 1 0 =S i 3 2i S mit 0 0 1 1 + i 2i 5 1 0 0 t 2 i 2 0 =S= T 2 2 3 2 2 3 2 2 5 2 4 4 i 4 + 4 i 2 T = B [idV ]C =
t
S = 0 0 c1/B
i 2 2 2 2
5 2 4 2 4
0 c2/B
3 2 4 i 3 4 2 i 2 2
c3/B
20.1.11
Satz 16.3.7.
besitzt
Es sei
A := GB ()
genau
n-dimensionaler C-Vektorraum mit Basis B und eine Hermitesche Form. Dann n reelle (nicht notwendig verschiedene, entsprechend ihrer Vielfachheit gezhlte) Hermitesche n n-Matrix hat n reelle Eigenwerte!
ein
ein
Denition 16.4.2.
(V, | )
:
und analog zu 15.3.1 die zu
V x
V
117
R x|x
d:
V V (x, y)
R xy
Die so denierte Norm erfllt sinngem 15.2.4 (unitr statt Euklidisch und
C),
Auch die Cauchy-Schwarz-sche Ungleichung 15.2.3 gilt im komplexen Fall (im Beweis sind einige Striche fr das Konjugierte hinzuzufgen):
Satz 16.4.3.
Es sei
(V, | )
x, y V
gilt
| x|y | x y .
Das Gleichheitszeichen gilt genau dann, wenn
und
Man kann aber auch im komplexen Fall von Orthogonalitt reden: Zwei Vektoren hier orthogonal bezglich
x, y V
heien auch
, wenn
x|y = 0
ist.
Anwendungen der Orthogonalitt, wie etwa 15.5.4, gelten auch im komplexen Fall. Auch orthogonale Teilrume kann man entsprechend 15.6.1 einfhren und z.B. mit dem Gram-Schmidtschen Orthogonalisierungsverfahren 15.5.1 Orthogonalbasen berechnen. Wegen dieser weitgehenden bereinstimmung zwischen Euklidischen und unitren Vektorrumen spricht man als berbegri von einem Innenproduktraum mit dem inneren Produkt
In der Analysis (dann meist der unendlichdimensionale Fall) spricht man nach David Hilbert (1862 - 1943) auch von einem Prhilbertraum. Fr den zugrundeliegenden Krper
oder
K,
um
nicht dauernd die beiden Krper auisten zu mssen. Betrachtet man in einem Prhilbertraum ist bekanntlich die Abbildung
(V, | ) :
das Skalarprodukt
v|w
zweier Vektoren
v, w V ,
so
v
eine Linearform, also ein Element von
V K w v|w
V . v| =
v fr die Linearform
Deshalb hat sich vor allem in der Quantenmechanik die Diracsche Schreibweise und
|w = w
eingebrgert.
(engl.:
bracket).
118
17 Normale Endomorphismen
17.1 Adjungierte
Im Folgenden wird studiert, wie sich Endomorphismen mit einem gegebenen Skalarprodukt vertragen.
Beispiel 17.1.1.
End(C ).
n
Es sei
v|w = t(v) w
t
Cn
und
f (x) = Ax
Dann gilt
f (v)|w =
wobei
f (v) w = A
f End(Cn ) f
adjungierte Matrix
Denition 17.1.2.
heit zu
(V, | )
ein Innenproduktraum,
f End(V ). v, w V .
Der Endomorphismus
f End(V )
Satz 17.1.3.
End(V ) V.
Es sei
(V, | )
B = (b1 , . . . , bn )
vV
v/B =
n i=1
b1 |v
. . .
v|b1
. . .
bzw.
v=
i=1
v|bi bi .
bn |v
und somit
v|bn
f (v) =
v|bi f (bi ) ,
also
f (v)|w =
i=1 n
=
i=1
v| f (bi )|w bi = v|
i=1
f (bi )|w bi =
= v|f (w)
Ist nun
g End(V )
v, w V ,
v|(f g)(w) = 0 v V ,
dass
(f g)(w) = 0 w V ,
was die Eindeutigkeit zeigt.
also
f g = 0 f = g ,
f End(V )
f End(V )
B = (b1 , . . . , bn )
V.
119
wV
ab
f (w) =
i=1
also
f (bj ) =
i=1
f (bi )|bj bi
f (bj )/ = B
f (bn )|bj
Fr die Abbildungsmatrix heit das
[f ]B =
f (b1 )|b1
. . .
... ...
f (b1 )|bn
. . .
f (bn )|b1
Es gilt gem 15.5.4:
f (bn )|bn
f (bj ) =
n i=1
bi |f (bj ) bi =
n i=1
f (bj )|bi bi
[f ]B =
f (b1 )|b1
. . .
... ...
f (bn )|b1
. . .
f (b1 )|bn
Damit ist gezeigt:
f (bn )|bn
[f ]B = ([f ]B )
fr eine Orthonormalbasis
B.
(17.1)
Vorsicht: Wegen der Verwendung von 15.5.4 ist das ohne die Bedingung fr die Basis i.A. falsch!
(V, | )
f End(V )
heit
v, w V . f End(V )
heit unitr,
Denition 17.2.2.
wenn gilt
Es sei
(V, | )
v, w V .
adjungierten Abbildung
v, w V .
f (f (w)) = w
w V f f = id f = f 1 .
(17.2)
Vorsicht: Wegen der Verwendung von 17.1 gilt das wieder nur fr eine ONB Eine Matrix
B!
Denition 17.2.3.
A Rnn
t
AA = 1n tA = A1 .
Eine Matrix
A Cnn
A A = 1n A = A1 .
120
Folgerung 17.2.4.
Ein Endomorphismus
dann orthogonal, wenn die zugehrige Abbildungsmatrix bezglich einer Orthonormalbasis orthogonal ist. Ein Endomorphismus
eines endlichdimensionalen unitren Vektorraumes ist genau dann unitr, wenn die
Aus
AA =
1n
folgt, dass eine quadratische reelle Matrix genau dann orthogonal ist, wenn ihre Spal-
Rn
eine Orthonormalbasis
A A =
1n , dass eine quadratische komplexe Matrix genau dann unitr ist, wenn
Cn
eine Orthonor-
folgt aus
AA = 1n
(17.3)
det(A) = 1. A
folgt aus
A A = 1 n
12.3.1
= det(A A) = det(1n ) = 1 ,
| det(A)| = 1.
ein Innenproduktraum und
Es sei Ist
(V, | )
f End(V )
vV
so gilt
1. Kern f = {0}.
0,
d.h.
Solch ein Endomorphismus ist nach 11.1.8 injektiv, im endlichdimensionalen Fall nach 11.2.6 sogar bijektiv. Ein orthogonaler oder unitrer Endomorphismus eines endlichdimensionalen Innenproduktraumes ist also ein Automorphismus.
Denition 17.2.5.
Es sei
(V, | )
f End(V )
heit
lngentreu, wenn
v = f (v)
v V,
fr alle
abstandstreu, wenn
v, w V ,
fr alle
v, w V . V
Folgerung 17.2.6.
Es sei
Es sei
(V, | )
(V, | )
Satz 17.2.7.
Es seien
Es seien
(V, | )
(V, | ) ein Euklidischer Vektorraum und f End(V ) lngentreu. Dann ist f f End(V ) lngentreu. Dann ist f unitr. |
lautet die Polarisierungsformel 14.3.5
v|w =
1 2
v+w
In der bung 12.5 wird fr den komplexen Fall die entsprechende Formel
v|w =
nachgerechnet. Damit folgt jeweils aus
1 4
v+w
vw v V,
i v + iw
+ i v iw
v = f (v)
fr alle
fr alle
v, w V
gilt.
Denition 17.2.8.
0
ist.
Es sei
B = (b1 , . . . , bn ) eine Basis eines R-Vektorraumes V . Vektoren a1 , . . . , an V heien B , wenn det(a1/B , . . . , an/B ) > 0 ist, negativ orientiert, wenn det(a1/B , . . . , an/B ) <
Ist f End(V ) mit f (v) /B = A v/B , so folgt det(f (a1 )/B , . . . , f (an )/B ) = det(A a1/B , . . . , A an/B ) = det(A) det(a1/B , . . . , an/B ) , d.h. fr det(A) > 0 hat (f (a1 ), . . . , f (an )) die gleiche Orientierung wie (a1 , . . . , an ), entgegengesetzte Orientierung.
fr
det(A) < 0
die
Denition 17.2.9.
wenn
Es sei
ein endlichdimensionaler
R-Vektorraum.
Ein
f End(V )
heit orientierungstreu,
det(f ) > 0
Denition 17.2.10.
jedes Parallelotop
f End(V )
Satz 17.2.11.
Ein Endomorphismus
(V, )
ist genau
|det(f )| = 1
ist.
Beweis: Aus Zeitgrnden werden Details weggelassen. Man zeigt, dass sich bei Anwendung eines
auf ein Parallelotop
f End(V )
P (b1 , . . . , bm )
das Volumen um
|det f |
ndert, also
Die folgenden Menge bilden jeweils zusammen mit der Matrizenmultiplikation Gruppen: Denition Bezeichnung Lineare Gruppe Eigenschaften Invertierbare Endomorphismen Spezielle lineare Gruppe Orthogonale Gruppe Volumen- und orientierungstreue Endomorphismen Abstandstreue Endomorphismen des Spezielle orthogonale Gruppe Unitre Gruppe
GL(n, K) := {A K
nn
} | det(A) = 0}
Rn Rn
Cn Cn
(V, | )
f End(V )
v, w V f = f
f = f .
Fr die Abbildungsmatrix A eines selbstadjungierten Endomorphismus bezglich einer OrA = A , d.h. im reellen Fall ist A symmetrisch, im komplexen Fall Hermitesch.
eines
n-dimensionalen
(V, | )
122
Satz 17.3.4.
mes
Es sei
n-dimensionalen
Euklidischen Vektorrau-
(V, | ).
Denition 17.3.5.
mit
Es sei (V, | ) ein endlichdimensionaler Innenproduktraum mit der Basis B , f End(V ) A := [f ]B . Fr K = R heit f bzw. A orthogonal trigonalisierbar, wenn es eine Orthonormalbasis C von V gibt, so dass A := [f ]C Dreiecksgestalt hat, oder gleichbedeutend, wenn es eine orthogonale Transformationsmatrix T = B [id]C gibt, so dass A := [f ]C Dreiecksgestalt hat, also
t
T = T 1
T 1 AT = tT AT = A .
T = B [id]C
f bzw. A fr K = C unitr trigonalisierbar, wenn es eine Orthonormalbasis C von V A := [f ]C Dreiecksgestalt hat, oder gleichbedeutend, wenn es eine unitre Transformationsmatrix gibt, so dass A := [f ]C Dreiecksgestalt hat, also T = T 1
(unitre Matrix) und
T 1 AT = T AT = A . A
sogar eine Diagonalma-
Entsprechend spricht man von orthogonaler bzw. unitrer Diagonalisierbarkeit, wenn trix ist.
Ein Endomorphismus
eines
K=R
Eigenwerte in
n.
Fr
n=1
n1
1 K
b1 Ef (1 ) \ {0}
nehmen (da kann man ohne Einschrnkung der Allgemeinheit gleich einen normierten Vertreter nehmen, also
b1 = 1).
{b1 }
C = (b1 , c2 , . . . , cn )
1 0 [f ]C = . . . 0
mit einer
...
D
...
(n 1) (n 1)-Matrix D.
1 0 f () = det . . . 0
= f () . 1
D 1n1
W.
Nach
bezglich
D (). Die Matrix D W := Lin (c2 , . . . , cn ) mit V = Lin (b1 ) Induktionsvoraussetzung gibt es deshalb zu g eine geordnete Orthonormalbasis (b2 , . . . , bn ) von W , der g obere Dreiecksgestalt hat. Es gibt also eine Transformationsmatrix T mit 2 ... 0 3 ... . .. .. 1 . . . T DT = . .. .. . . 0 ... 0 n
ber
f ()
von
Dabei sind
2 , . . . , n
D,
(b2 , . . . , bn )
von
beschreibt, ist
T 1 = T .
1 0 ... 0 0 . . . 0
1 ... 0 . . . 0
1 0 ... 0 0 . . . 0
1 ... 0 . . . 0
T DT
1 0 2 . . . .. ... . .. . 0 ...
... ...
..
. 0 n
Denition 17.3.7.
Es sei
(V, | )
f End(V )
heit normal,
wenn er mit seinem adjungierten Endomorphismus vertauschbar ist, d.h. wenn gilt
f f = f f .
Entsprechend heit eine Matrix
A Knn
A A = A A .
Wegen 17.1 folgt, dass eine Abbildung genau dann normal ist, wenn ihre Abbildungsmatrix
bezglich einer ON-Basis normal ist. Normale Endomorphismen sind ein Oberbegri fr einige der bisher untersuchten Endo-
f f f
: f = f 1 : f = f : f = f
f f = idV = f f f f = f2 = f f f f = f 2 = f f
(17.5)
d.h. orthogonale, unitre, selbstadjungierte und schiefadjungierte Endomorphismen sind normal. Der folgende Satz rechtfertigt die Einfhrung dieses Sammelbegris:
Satz 17.3.10.
K=R
hat. Da
eines
Eigenwerten in
n-dimensionalen Innenproduktraumes (V, | ) ist fr R hat, bzw. unitr diagonalisierbar fr K = C. ON-Basis C von V , so dass [f ]C obere Dreiecksgestalt
[f ]C
@ @ = [f ]C ([f ]C ) = ([f ]C ) [f ]C = @ @ @ @ @ @
Die Beweisidee sieht nun so aus, dass man diese Produkte von Dreiecksmatrizen auf beiden Seiten ausrechnet und die Elemente der Hauptdiagonalen miteinander vergleicht. Dazu sei
j
Die Diagonalelemente von
[f ]C ([f ]C )
sind
aij aij
i=1
fr
j = 1, . . . , n,
([f ]C ) [f ]C
sind
aji aji
i=j
fr
j = 1, . . . , n.
|aij | =
i=1 i=1
aij aij =
i=j n
aji aji =
i=j n
|aji |
fr
j = 1, . . . , n. j=2
Fr
j=1
liest man ab
|a11 | =
n i=1
|a1i |
i=2
|a1i | = 0,
, also
also
a1i = 0
fr
i = 2, . . . , n.
Fr
liest man ab
|a12 | + |a22 | =
=0 i=2
|a2i |
|a2i |
i=3
a2i = 0
fr
i = 3, . . . , n.
. . . usw., fr
j=n
folgt schlielich
an1,n = 0. [f ]C
verschwinden, d.h.
[f ]C
Folgerung 17.3.11.
V ein n-dimensionaler Euklidischer Vektorraum und f End(V ) selbstadjungiert, so A := [f ]B Rnn bezglich einer Orthonormalbasis B von V symmetrisch. Nach 17.5 sind f bzw. A normal und besitzen nach 14.4.4 n reelle Eigenwerte. Somit sind f bzw. A nach 17.3.10
Ist orthogonal diagonalisierbar.
124
Folgerung 17.3.12.
V
Eigenwerte in
Beispiel 17.3.13.
17 8 A := 8 80 32 4
bzw. der Endomorphismus
32 4 R33 . 65 A = tA
ist
fA : x Ax
des
R3
fA
ist.
1,2 = 81
3 = 0
Da Da
A A
1,2 = 81
auch ein
2-dimensionaler
Eigenraum. nach 17.3.10 orthogonal diagonalisierbar ist, sind die Eigenrume sogar orthogonal zueinander, hier also
EA (81) EA (0)
EA (81) = EA (0)
Man kann also EA (81) wie blich berechnen, sollte aber besser die Orthogonalitt zu Hilfe nehmen: 0 4 zu EA (0) orthogonal ist, liegt dieser Vektor in EA (81). Da z.B. 1 Ein 3.Eigenvektor von A bzw. 2.Eigenvektor aus EA (81) lsst sich natrlich ebenso bestimmen. Da aber insgesamt alle Eigenvektoren paarweise orthogonal sein sollen, muss der auch zu dem oben gewhlten 1.Eigenvektor aus Im
EA (81) orthogonal sein. R3 geht das z.B. mit dem Vektorprodukt (in hherer Dimension mit dem Skalarprodukt): 0 17 0 17 8 1 4 = 8 EA (81) = Lin 4 , 8 1 32 1 32 4
Fr die neue ONB aus Eigenvektoren muss man noch normieren und erhlt
Mit dieser orthogonalen Matrix
8 9 1 9 4 9
1 0 9 17 4 8 17 153 17 17 32 1 17 17 153 17
0 T 1 AT = tT AT = 0 0
Die Wahl der Vektoren aus
0 81 0
0 0 . 81
1 8 1 8 36 8 EA (0) = Lin 1 8 1 = 6 4 4 4 4 63
erhlt man z.B.
EA (81)
T =
8 9 1 9 4 9
1 9 8 9 4 9
4 9 4 9 7 9
125
Beispiel 17.3.14.
64 A := 8 32 i
bzw. der Endomorphismus bzw. ist.
8 1 4 i
32 i 4 i C33 . 16 A=
t
fA : x Ax
des
C3
A = A
ist
Hermitesch
fA
1,2 = 0 81
und
3 = 81
Wie im letzten Beispiel ist es gnstig, zuerst den Eigenraum zu dem einfachen Eigenwert Hier ergibt sich
zu berechnen.
A A
1,2 = 0
auch ein
2-dimensionaler
Eigenraum. nach 17.3.10 unitr diagonalisierbar ist, sind die Eigenrume sogar orthogonal zueinander, hier also
EA (0) EA (81)
EA (0) = EA (81)
Man kann also EA (0) wie blich berechnen, sollte aber besser wieder die Orthogonalitt (jetzt komplexes Skalarprodukt!) zu Hilfe nehmen: i zu EA (81) orthogonal ist, liegt dieser Vektor in EA (0). Da z.B. v2 := 0 2 Ein 3.Eigenvektor von A bzw. 2.Eigenvektor aus EA (0) lsst sich natrlich ebenso bestimmen. Da aber insgesamt alle Eigenvektoren paarweise orthogonal sein sollen, muss der auch zu dem oben gewhlten 1.Eigenvektor aus
EA (0) 3 Im C
orthogonal sein. geht das nicht mit dem Vektorprodukt! Man setzt also an
v1 |v3 = v2 |v3 = 0.
LGS fr
v3 .
Es folgt
2 i 2 v3 = 20 EA (81) = Lin 0 , 20 i 2 i
Fr die neue ONB aus Eigenvektoren muss man noch normieren und erhlt
T :=
8 9 i 1 9 i 4 9
1 5 i 5 0 2 5 5
2 45 5 4 5 9 1 45 i 5
81 T 1 AT = T AT = 0 0
0 0 0 0 . 0 0
Beispiel 17.3.15.
1 1 4 A := 9 8
bzw. der Endomorphismus ist
8 4 1
4 7 R33 . 4 A tA =
fA : x Ax
des
R3
13
1
orthogonal, also auch normal nach 17.5. Gem 17.4 haben alle Eigenwerte von der also
den Betrag
det A = 1. Da da charakteristische Polynom vom Grad 3 ist, gibt es mindestens einen reellen Eigenwert, 1 1 ist. Hier ist 1 = 1, 2,3 = 9 5 2i 14 und det A = 1, also fA SO(3), d.h. A ist (neben SO(3)
sind Drehungen, Drehachse ist der Eigenraum zum Eigenwert
dem blichen lngen-, abstands-, winkel- und volumentreu) orientierungstreu aber nicht reell orthogonal diagonalisierbar. Die Elemente der alle Eigenwerte von gezeigt wurde.
126
1.
Da nicht
in
liegen, ist
nur ber
Satz 17.4.1
torraumes
[f ]B =
..
0
1 1
1 1
.. .
0
f
s s f
s s f
nach 17.3.10
Hat das charakteristische Polynom des Endomorphismus orthogonal diagonalisierbar. Hat das reelle charakteristische Polynom von
zwei konjugiert komplexe Eigenwerte, dann gehren dazu auch konjugiert komplexe Eigenvek-
17
v, w
V.
0 = v + iw|v iw = v|v + v|iw + iw|v + iw|iw = = v|v w|w i( v|w + w|v ) v|v = w|w , v|w = w|v .
Ist (17.6)
v + iw
1 = v + iw|v + iw = v|v + v|iw + iw|v + iw|iw = = v|v + w|w + i( v|w w|v ) 1 = v|v + w|w , v|w = w|v .
Aus 17.6 und 17.7 zusammen folgt (17.7)
v|v =
d.h.
2v
und
2w
Aus
f (v) = v w , f (w) = w + v ,
17 Benutzt
man
(17.8)
mit komplexem Argument, so ist das streng genommen eine neue Funktion
f auf V := {v + iw | v, w V }.
Es
nennt.
127
bekommt
Folgerung 17.4.2.
torraumes auch
Es sei f ein schiefadjungierter Endomorphismus eines n-dimensionalen Euklidischen Vek(V, | ). Solch ein f hat nur rein komplexe Eigenwerte j = ij (bung 13.7; dabei kann durchaus = 0 sein). Damit sieht die Normalform laut Spektralsatz so aus:
[f ]B =
..
0
0
0 1 1 0
.. .
s 0
0 s
Folgerung 17.4.3.
raumes
Es sei f ein orthogonler Endomorphismus eines n-dimensionalen Euklidischen Vektor(V, | ). Gem 17.4 haben alle Eigenwerte von f den Betrag 1. Deshalb kann man bei denen statt = + i auch schreiben = cos + i sin . Somit sieht die Normalform so aus:
[f ]B =
..
0
1 1 0
0
..
0
0
mit
..
.
cos s sin s sin s cos s
Es seien
c = cos(), s = sin()
0 < < 2 , = . R2
und
R3 :
Normalform
Typ
EWe um
det
1 -1
sonst
1 0 1 0 1 0
0 1 0 1 0 1
idR2 =Drehung
Spiegelung an
1,1 1,-1
x-Achse
an
f 2 = idR2 ,
involutorisch
Punktspiegelung
-1,-1
f 2 = idR2 ,
involutorisch
0=
Drehung um
c is
1
c s s c
Drehung um
= 0,
Abbildung 39:
R2
128
Normalform
Typ
EWe um
det
1 -1
sonst
idR3 =Drehung
Spiegelung an
Ebene
1,1,1 1,1,-1
x yx-Achse, 0,
f 2 = idR3 ,
involutorisch
Drehung um
Winkel
1,-1,-1
f 2 = idR3 ,
involutorisch
-1,-1,-1 -1
Punktspiegelung an
Drehspiegelung um
f 2 = idR3 ,
involutorisch
Drehung um
Winkel
x-Achse,
1, c i s 1, c i s
cos()
Spur A1 2
= =
xy z -Ebene,
-1
Drehspiegelung
Achse, Winkel
cos()
Spur A+1 2
Abbildung 40:
R3
Beispiel 17.4.4.
1 1 4 A= 9 8
Es war bereits gezeigt worden, dass Die zugehrigen Eigenrume sind
8 4 1
4 7 R33 . 4 1 = 1, 2,3 =
1 9
fA SO(3)
5 2i 14
hat.
2 EA (1) = Lin 3 , EA 1
1 5 2i 14 9
2 3i14 = Lin 3 2i 14 . 13 C3
EA (1) ist (als reeller Vektorraum) die Drehachse der Drehung fA . Die berechneten komplexen Eigenrume sind bezglich des kanonischen komplexen Skalarprodukts im
gonal zueinander.
ortho-
Gem Vorberlegung stellt man sich aus dieser komplexen Basis eine reelle ON-Basis zusammen, indem man die reellen Eigenvektoren normiert bernimmt und von den konjugiert komplexen Eigenvektoren jeweils den normierten Real- und Imaginrteil bernimmt:
B = (b1 , b2 , b3 )
des
R3
T := (b1 , b2 , b3 ),
1 T 1 AT = tT AT = 0 0
129
0 0 5 2 14 9 9 2 14 5 9 9
Die entspricht dem 5.Eintrag in Abbildung 40 mit direkt aus der ursprnglichen Matrix
mit der
130
Abbildungsverzeichnis
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 Verbundene Wasserrohre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Carl Friedrich Gau Ungleiche Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einfaches Venn-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Durchnitt zweier Mengen Vereinigung zweier Mengen Komplement 3 8 17 17 18 18 18 18 18 22 23 24 24 24 24 25 25 25 25 36 45 54 69 72 73 81 82 83
von
in
B .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Injektive Abbildung Bijektive Abbildung Graph von Graph von Graph von Graph von
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . und Streckungsfaktor
Surjektive Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
x x2 . . x x3 . . x x3 x x ex . .
Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vereinigung von Vektorrumen Parallele ane Teilrume Die Sarrus-Regel fr Die Sarrus-Regel fr gekoppelte Pendel Gekoppelte Pendel Dreiecksungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
w 2 2-Matrizen 3 3-Matrizen
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Winkel-Additivitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Orthogonale Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Orthogonale Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Abstand Punkt-Gerade mit orthogonaler Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Winkel zwischen Geraden Winkel zwischen Gerade und Hyperebene Winkel zwischen Gerade und Hyperebene
Dreiecksche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Tetraedervolumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Normalformen orthogonaler Endomorphismen des Normalformen orthogonaler Endomorphismen des
R2 R3
. . . . . . . . . . . . . . . . . . . . . . . . . 128 . . . . . . . . . . . . . . . . . . . . . . . . . 129
Literatur
Gerd Fischer. Lineare Algebra. Grundkurs Mathematik, 12.Auage. Vieweg Studium, Braunschweig/Wiesbaden, 2000. ISBN 3-528-87217-9. Johann Hartl. Ein einfacher Induktionsbeweis fr die Existenz der Jordan-Normalform. Archiv der Mathematik, 50:323327, 1988. ISSN 0003-889X. URL
http://dx.doi.org/10.1007/BF01190226.
10.1007/BF01190226.
Max Koecher. Lineare Algebra und analytische Geometrie. Springer Lehrbuch, 4., erg. u. aktualisierte Au., Korr. Nachdruck. Springer-Verlag, Berlin, Heidelberg, ..., 1997. ISBN 978-3-540-62903-0. Falko Lorenz. Lineare Algebra II. Hochschultaschenbuch. Spektrum Akademischer Verlag; Auage: 3., berarb. A.; 4., korr. Nachdr. 2005., Heidelberg, Berlin, 2005.
131
132
Index
K -Vektorraum, 43 Hom(V, W ), 55 n-Linearform, 71 n-Tupel, 20
quivalenzklasse, 22 quivalenzrelation triviale, 22 quivalenzumformungen, 3 hnlich, 63 quivalent, 64 Gau-Algorithmus, 8 Abbildung, 23 ane, 69 bijektive, 24 Graph einer, 24 injektive, 24 inverse, 26 lineare, 55 bijektive, 58 Bild, 57 Defekt, 58 injektive, 58 Matrixdarstellung, 61 Rang, 57 surjektive, 58 Restriktion, 55 surjektive, 24 abelsch, 27 Abstand Punkt-Gerade, 110 abstandstreu, 121 adjungiert, 119 Adjungierte, 116 ane Abbildung, 69 ane Gruppe, 70 aner Teilraum, 53 aner Unterraum, 53 Anitt, 70 Algebra, 1 Lineare, 1 algebraische Vielfachheit, 89 Algorithmus, 1, 3 Allquantor, 14 Analysis, 1 antisymmetrisch, 21 Argument, 35 Assoziativgesetz der Matrizenrechnung, 40 Assoziativgesetze, 19 Assoziativitt, 27, 28 asymmetrisch, 21 Aussage, 13 hinreichend, 13 notwendige, 13 Aussageform, 13 De Morgansche Regeln, 13, 19 deduktiv, 1 Defekt, 58 einer linearen Abbildung, 58 denit negativ, 103, 117 positiv, 103, 117 Denitionsbereich, 23 Determinante, 72 eines Endomorphismus, 78 diagonalisierbar, 83 Dierentialgleichungssystem, 81 Dierenzraum, 53 Dimension von Cardanische Formeln, 88 charakteristisches Polynom, 84 CSU Cauchy-Schwarzsche Ungleichung, 105, 118 Basis, 47 geordnete, 51 kanonische, 48 Behauptung, 13 Betrag, 35, 105 Beweis direkter, 14 indirekter, 14 Induktions-, 15 konstruktiver, 15 Widerspruchs-, 15 bijektiv, 24, 58 Bild, 57 einer linearen Abbildung, 57 Bildbereich, 23 Bildmenge, 25 Bilinearform, 71 alternierende, 71 nicht ausgeartete, 99 symmetrische, 101 zu Auswahlaxiom, 49 Automorphismus, 29, 55 Axiom, 1 axiomatisch, 1 Axiomensystem, 1
gehrige, 99
V,
51
disjunkte Vereinigung, 23 Distributivgesetz der Matrizenrechnung, 40 Distributivgesetze, 19 Drehspiegelung, 129 Drehstreckung, 36 Drehung, 56, 128, 129 133
Dreieck, 113 Dreiecksungleichung, 36, 106 Dualbasis, 67 Dualraum, 66 Ebene, 53 Eigenraum, 86 verallgemeinerter, 93 Eigenvektor, 82 Eigenwert, 82 Vielfachheit geometrische, 86 Einheit imaginre, 34 Einheitsmatrix, 38 Einheitsvektoren kanonische, 39, 48 Einschrnkung, 26 Einsermatrizen, 38 Einsteinsche Summenkonvention, 63 Elementare Zeilenumformungen, 6 Elemente, 11 endlichdimensional, 49 Endmorphismus adjungierter Abbildungsmatrix, 120 orthogonaler Abbildungsmatrix, 120 Determinante, 121 Eigenwerte, 121 unitrer Abbildungsmatrix, 120 Determinante, 121 Eigenwerte, 121 Endomorphismenring, 68 Endomorphismus, 55 abstandstreu, 121 adjungierter, 119 diagonalisierbarer, 83 lngentreu, 121 normaler, 124 orthogonal diagonalisierbarer, 123 orthogonal trigonalisierbarer, 123 orthogonaler, 120 selbstadjungierter, 122 unitr diagonalisierbarer, 123 unitr trigonalisierbarer, 123 unitrer, 120 winkeltreu, 121 Epimorphismus, 29, 55 Ergnzung quadratische, 103 Erzeugendensystem, 46 Euklidische Lnge, 105 Euklidischer Vektorraum, 105 Existenzquantor, 14 Faktormenge, 23 Fakultt, 29
Familie, 59 Fehlstand, 30 Folgen ber Form hermitesche, 116 quadratische, 101 Formel von de Moivre, 36 Formel von de Moivre, 36 Formeln Cardanische, 88 Formmatrix, 99 freie Variable, 7 Fundamentalsatz der Algebra, 87 Funktion, 23 bijektive, 24 injektive, 24 surjektive, 24 Funktionale Lineare, 66 Gausche Zahlenebene, 35 gebundene Variable, 7 General Linear Group, 41 Gerade, 53 Winkel zu Hyperebene, 111 gerade Permutation, 30 Geraden Winkel zwischen, 111 gleiche Machtigkeit, 26 Gleichung charakteristische, 84 Gleichung der Hyperebene, 54 Gleichungssystem lineares, 3 homogenes, 6 inhomogenes, 6 rechte Seite, 6 Grad, 102 Grammatrix, 99, 115 Graph einer Abbildung, 24 Gruppe, 27, 28 abelsche, 27 ane, 70 allgemeine lineare, 41 der Permutationen, 28 inverses Element, 28 inverses Element, 27 kommutative, 27 lineare, 122 neutrales Element, 27, 28 orthogonale, 122 spezielle lineare, 122 spezielle orthogonale, 122 spezielle unitre, 122 symmetrische, 28 unitre, 122 Verknpfungstafel einer, 27 134
K,
44
Gruppen, 1 Hlle lineare, 46 Hauptminor, 104 Hauptraum, 92, 93 Hauptunterdeterminante, 104 Hauptvektoren, 92 hermitesch, 116 hinreichend, 13 homogen, 6, 102 Homomorphismus, 29 Krper-, 35 Vektorraum-, 55 Hurwitz-Kriterium, 104 Hyperebene, 53 Gleichung der, 54 Hyperebenen Winkel zwischen, 112 idempotent, 56 Idempotenzgesetze, 19 identische Abbildung, 26 imaginr, 34 imaginre Einheit, 34 Imaginrteil, 35 indenit, 103 Indexmenge, 59 Induktion vollstndige, 15 Induktionsprinzip, 15 inhomogen, 6 Inhomogenitt, 6 injektiv, 24, 58 Innenproduktraum, 118 innere Verknpfung, 27 Invariante, 78 inverse Abbildung, 26 inverse Matrix, 41 Inverses Element, 27, 28 inverses Element einer Gruppe, 27 involutorisch, 128 irreexiv, 21 Isomorphismus, 29, 55 Jordan-Basis, 92 Jordan-Block, 89 Jordan-Kette, 95 Jordan-Matrix, 92 Jordan-Normalform, 92 Junktoren, 13 Krper, 1, 3, 33 der komplexen Zahlen, 35 Krper der komplexen Zahlen, 35 Krperautomorphismus, 87 kanonische Basis, 48 kanonische Einheitsvektoren, 48
Kardinalitt, 12 Kardinalitat, 26 von Mengen, 26 Gleichheit, 26 Kern, 31 Koezienten, 3 Koezientenmatrix, 6 erweiterte, 6 Kofaktor, 76 Kommutativgesetze, 19 Kommutativitt, 27 Komplement, 18 algebraisches, 76 orthogonales, 109 Komposition, 25 Matrizenprodukt und, 41 kongruent, 100 konjugiert linear, 115 konjugiert komplex, 35 konjugiert Komplexe, 35 kontravariant, 64, 67 Koordinatendarstellung, 51 kovariant, 67 Kreuzprodukt, 20
n-faches,
20
Kronecker-Symbol, 38, 39, 107 Kroneckersymbol, 67 Lnge, 105 euklidische, 105 lngentreu, 121 Lsung triviale, 9 Lemma Zornsches, 49 LGS, 3 allgemeine Lsung des homogenen, 10 allgemeine Lsung des inhomogenen, 10 spezielle Lsung des inhomogenen, 10 linear, 55 konjugiert, 115 linear abhngig, 47 linear unabhngig, 47 Lineare Funktionale, 66 lineare Hlle, 46 linearer Raum, 43 linearer Teilraum, 44 Linearformen, 66 Linearkombination der Menge von Lot, 110 Lotfupunkt, 110 Mchtigkeit, 12 Machtigkeit, 26 von Mengen, 26 Gleichheit, 26 Mathematiker 135
M , 46 v1 , . . . , vn , 46
Cantor, Georg (1845-1918), 11 Cardano, Gerolamo (1501 - 1576), 88 Cavalieri, Bonaventura Francesco (1598 - 1647), 112 Dedekind, Richard (1831-1916), 15 Euler, Leonhard (1701-1783), 17 Fraenkel, Adolf (1891-1965), 11 Gau, Johann Carl Friedrich (1777 - 1855), 87 Gau, Johann Carl Friedrich (1777-1855), 8 Gram, Jorgen Pedersen (1850 - 1916), 108 Hilbert, David (1862 - 1943), 118 Hurwitz, Adolf (1859 - 1919), 104 Jacobi, Carl Gustav Jacob (1804 - 1851), 102 Jordan, Marie Ennemond Camille (1838 - 1922), 89 Peano, Giuseppe (1858-1932), 15 Russel, Bertrand (1872-1970), 11 Schmidt, Erhard (1876 - 1959), 108 Sylvester, James Joseph (1814 - 1897), 102 Venn, John (1834-1923), 17 von Leibniz, Gottfried Wilhelm (1646 - 1716), 72 Zermelo, Ernst (1871-1953), 11 Matrix, 6 hermitesche, 116 inverse, 41 Jordan-, 92 Koezienten-, 6 normale, 124 Null-, 37 orthogonale, 120 quadratische, 10 Rang, 52 Spaltenrang, 52 Spaltenraum, 52 Spur, 79 Streichungs-, 76 symmetrische, 37 unitre, 120 Zeilenrang, 52 Zeilenraum, 52 Matrixdarstellung, 61 Matrizen hnliche, 63 quivalente, 64 Diagonal-, 37 Dreiecksechte obere, 37 echte untere, 37 obere, 37 untere, 37 Einser-, 37 Gleichheit, 37 kongruente, 100 Multiplikation von, 39 Ring der, 40 Skalares Vielfaches, 37 Summe, 37 Matrizenprodukt
Komposition und, 41 Menge, 11 leere, 17 Mengen Dierenz von, 18 Durchschnitt von, 18 Gleichheit von, 11 Rechengesetze, 19 Symmetrische Dierenz von, 18 Vereinigung von, 18 Mengengleichheit, 11 Metrik, 106, 117 Minor, 76 modus ponens, 14 modus tollens, 14 Monomorphismus, 29, 55 Multilinearform, 71 Nebenklasse, 53 negativ denit, 103, 117 negativ orientiert, 122 negativ semidenit, 103, 117 Neutrales Element, 27, 28 neutrales Element einer Gruppe, 27 nicht ausgeartet, 99 Norm, 105, 117 normal, 124 notwendig, 13 Nullabbildung, 55 Nullmatrix, 7, 37 Nullstelle rationale Merkregel, 87 nullteilerfrei, 40 Obermenge, 11 Ordnung teilweise irreexive, 21 reexive, 21 orientierungstreu, 122 orthogonal, 107, 109, 118, 120 orthogonal trigonalisierbar, 123 Orthogonalbasis, 107 orthogonale Projektion, 107 Orthogonalisierungsverfahren Gram-Schmidtsches, 108 Orthogonalsystem, 107 Orthonormalbasis, 107 Orthonormalsystem, 107 Paar geordnetes, 20 Paradoxon Russelsches, 11 parallel, 54 Parallelepiped, 112 Parallelotop, 112, 122 136
Volumen, 112 Partition, 23 Permutation gerade, 30 Schreibweise, 29 Pivotelemente, 6 Pivotspalten, 6, 7 Polarkoordinaten, 35 Polynom charakteristisches, 84 ganzzahliges rationale Wurzeln, 87 in mehreren Variablen, 101 Wurzeln, 84 positiv denit, 103, 117 positiv orientiert, 122 positiv semidenit, 103, 117 Potenzmenge, 17 Prhilbertraum, 118 Produkt
binren, 21 Restriktion, 26 einer Abbildung, 55 Richtungsraum, 53 Ring, 33, 68 kommutativer, 33 mit Einselement, 33 Ring mit Einselement, 33 Ringe, 1 schiefadjungiert, 122 Schnittwinkel, 111 selbstadjungiert, 122 semidenit negativ, 103, 117 positiv, 103, 117 semilinear, 115 Sesquilinearform, 115 Signatur, 103, 117 Signum, 30 singulr, 41, 75 Skalar, 37 Skalarprodukt, 105, 117 kanonisches komplexes, 115 reelles kanonisches, 105 Skalarprodukt, kanonisches reelles, 99 Skalarprodukt, Standard-, 99 Spaltenrang, 52 Spaltenraum, 52 Spann, 46 Spat, 112 Spektralstze, 127 Spiegelung, 128, 129 Spur, 79 eines Endomorphismus, 79 Staelform, 6 Standard-Skalarprodukt, 99 Standardbasis, 48 Streckung zentrische, 69 Streckungsfaktor, 69 Streichungsmatrix, 76 Strukturmatrix, 99 Stufenbedingung, 7 Stufenform, 5 Summe von Vektorrumen, 46 Summenkonvention, 63 Summenraum, 46 surjektiv, 24, 58 Sylvester-Normalform, 103, 117 Symbole
n-faches
kartesisches, 20
inneres, 118 kartesisches, 20 Produktabbildung, 25 Punkt, 53 Punktspiegelung, 128, 129 quadratische Ergnzung, 103 quadratische Form, 101, 116 quadratische Matrix, 10 Quantor, 14 Rckwrtselimination, 9 Rckwrtssubstitution, 8 Rang, 7, 52, 57 einer linearen Abbildung, 57 Raum linearer, 43 Realteil, 35 Rechengesetze fr Mengendierenzen, 19 reduzierte Zeilenstufenform, 9 reexiv, 21 Regeln de Morgansche, 13, 19 regulr, 41 rekursiv, 15 Relation, 21
k -nre, 21 k -stellige, 21
quivalenz-, 21 binre, 21 antisymmetrische, 21 asymmetrische, 21 irreexive, 21 reexive, 21 symmetrische, 21 transitive, 21 Relationen
20
20
1n , 37
GL(n, K), 41, HA (, k), 92 , 13 N, 17 N0 , 17 O(n), 122 Q, 17 R, 17 Rang(A), 7 , 13 SL(n, K), 122 SO(n), 122 SU(n), 122 U(n), 122 Z, 17 |M |, 12 |z|, 35
.
, 23
122
a1 , 27 af (i ), 89 b , 107 a d(p, M ), 110 f, _U 26 f (U ), 25 f 1 , 26 fA , 41 gf (i ), 86 n, 29 C(R, R), 44 A(V ), 70 GA(V ), 70 C [f ]B , 61 End(V ), 68 det(A), 72 End(V ), 55 Hom(V, W ), 55 Kern(f ), 56
, 54 symmetrisch, 21 symmetrische Gruppe, 28 Tangentialraum, 53 Teilmenge, 11 Teilmengen triviale, 17 Teilrume ane parallel, 54 Teilraum, 44 aner, 53 linearer, 44 Tensor 0.Stufe, 67 1.Stufe, 67 kontravariant, 67 kovariant, 67 Terme gemischtquadratische, 102 reinquadratische, 102 Termen, 101 Tetraeder, 113 Trgheitssatz von Sylvester, 100 transitiv, 17, 21 Translation, 68 Transponierte, 37 Transposition, 29 triviale Lsung, 9 triviale Linearkombination, 47 Tupel, 20 Unbestimmten, 3 unendlichdimensional, 49, 51 Ungleichung Cauchy-Schwarzsche, 105, 118 unitr, 120 unitr trigonalisierbar, 123 138
Zornsche Lemma, 49
P,
26
Vektorraum, 1 arithmetischer
n-dimensionaler,
Dimension, 51 Euklidischer, 105
43
eindimensionaler, 43
Homomorphismus, 55 nulldimensionale, 43 unitrer, 117 Vereinigung disjunkte, 23 Verknpfung innere, 27 Verknpfungstafel, 27 Verschiebung, 68 Vielfachheit, 89 algebraische, 89 geometrische, 86 Volumen, 112 Parallelotop, 112 volumentreu, 122 Voraussetzung, 13 Vorwrtselimination, 8 Wahrheitstabelle, 13 Wertebereich, 23 Winkel, 107 zwischen Gerade und Hyperebene, 111 zwischen Geraden, 111 zwischen Hyperebenen, 112 winkeltreu, 121 Wohlordnungssatz, 49 Wurzeln, 84 eines Polynoms, 84 Zahlen ganze, 17 komplexe, 17 natrliche, 17 rationale, 17 reelle, 17 Zahlenebene Gausche, 35 Zeilenrang, 52 Zeilenraum, 52 Zeilenstufenform, 6, 7 Zeilenumformungen elementare, 6 zentrische Streckung, 69 Zentrum, 69 Zerlegung orthogonale, 107 139
140