Sie sind auf Seite 1von 146

Mathematik

fr Physiker

Dr. Michael Kaplan

<kaplan@ma.tum.de>

WS 2010/11

Teil I

Lineare Algebra

Inhaltsverzeichnis
I Lineare Algebra
1 Einleitung
1.1 Worum geht's?

i
1
1

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 Lineare Gleichungssysteme
2.1 2.2 2.3 2.4 2.5 2.6 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Lsungsstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3
3 4 6 6 7 9

Matrixschreibweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Elementare Zeilenumformungen und Zeilenstufenform . . . . . . . . . . . . . . . . . . . . . . . .

Von der Zeilenstufenform zur Lsung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rang, Lsbarkeit und Struktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 Nave Mengenlehre
3.1 3.2 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beziehungen zwischen Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11
11 11

4 Aussagen
4.1 4.2 4.3 Junktoren und Wahrheitstafeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beweistechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13
13 14 14

5 Rechnen mit Mengen


5.1 5.2 5.3 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das kartesische Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17
17 18 19

6 Relationen und Funktionen


6.1 6.2 6.3 6.4 Binre Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Besondere binre Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Restklassen Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21
21 21 23 23

7 Gruppen
7.1 7.2 7.3 7.4 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Symmetrische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gruppen-Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27
27 28 29 31

8 Ringe und Krper


8.1 8.2 Grundbegrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33
33 34

9 Matrizenrechnung
9.1 9.2 9.3 9.4 Gleichheit, Addition, Vielfache, Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einige besondere Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i

37
37 37 39 41

10 Vektorrume
10.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Wichtige Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43
43 43 45 47 49 53

10.3 Erzeugendensysteme 10.4 Basen

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10.5 Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.6 Ane Teilrume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11 Lineare und ane Abbildungen


11.1 Homomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Rang und Defekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Matrixdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.5

55
55 57 59 63 66 68 69

Hom(V, W )

und der Dualraum

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11.6 Translationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.7 Ane Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12 Determinante und Spur


12.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Einfache Rechenregeln fr die Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 Der Laplacesche Entwicklungsssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5 Der Produktsatz und seine Folgen 12.6 Die Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

71
71 72 73 76 77 78 79

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

12.7 Die Spur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13 Eigenwerte und Eigenvektoren


13.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Grundlegende Denitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.3 Algebraische und geometrische Vielfachheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81
81 82 86 91

13.4 Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14 Bilinearformen
14.1 Matrixdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

99
99

14.2 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 14.3 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 14.4 Denitheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

15 Euklidische Vektorrume
15.2 Norm

105

15.1 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

15.3 Metrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 15.4 Winkel und Orthogonalitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

15.5 Orthogonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 15.6 Orthogonale Unterrume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 15.7 Abstnde von Teilrumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

15.8 Winkel zwischen Teilrumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 15.9 Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

16 Unitre Vektorrume
16.2 Matrixdarstellung und Basiswechsel 16.3 Hermitesche Formen 16.4 Norm, Metrik, CSU

115
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

16.1 Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 ii

17 Normale Endomorphismen
17.2 Orthogonale und unitre Endmorphismen

119
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

17.1 Adjungierte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 17.3 Der Satz von Schur und seine Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 17.4 Normalformen normaler Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

iii

iv

1 Einleitung
Algebra

1.1 Worum geht's?


Am Beginn des Studiums der Mathematik stehen traditionell zwei Vorlesungen, die Analysis und die Lineare

Analysis
Der zentrale Begri der Analysis ist der Grenzwert. Er erlaubt den bergang von der Sekante zur Tangente, vom Dierenzenquotienten zur Ableitung, von der Summe zum Integral. Darauf baut die Dierential- und Integralrechnung auf. Mit Hilfe von Dierential- oder Integralgleichungen lassen sich Naturvorgnge hervorragend modellieren.

Lineare Algebra

Die lineare Algebra ist, wie der Name bereits sagt, ein Teilgebiet der Algebra . In der Algebra geht es um die grundlegenden Strukturen, wie Gruppen, Ringe und Krper, die Grundrechenarten in diesen Strukturen, und die Ausung der in diesem Zusammenhang entstehenden Gleichungen. In der linearen Algebra betrachtet man vorerst nur den einfachsten Fall linearer Gleichungen, in denen die zu berechnenden Unbestimmten nur linear vorkommen.

Das Studium linearer Gleichungen zeigt, dass deren Lsungsmengen selbst auch wieder mathematische Struktur besitzen, was auf die Begrie Vektorraum fhrt. Die Untersuchung von Vektorrumen und Abbildungen zwischen diesen zeigt, dass diese neuen Begrie weit ber das Lsen von Gleichungssystemen hinaus eine zentrale Bedeutung in vielen mathematischen Disziplinen haben.

Bei vielen Naturgesetzen ist die Linearitt grundlegende Eigenschaft (siehe einleitende Beispiele, erstes bungsblatt etc.) Von Haus aus nichtlineare Probleme werden oft im ersten Schritt linearisiert und knnen so mit Linearer Algebra behandelt werden Viele numerische Verfahren beruhen ebenfalls auf linearer Approximation, lineare Optimierung ist weitgehend eine Anwendung der linearen Algebra Somit ist die Lineare Algebra fr die Physik ein selbstverstndliches Werkzeug zur Mathematisierung der Theorie Whrend in der Schule meist Geometrie sehr aus der Anschauung heraus betrieben wird, wird in der Wissenschaft deduktiv vorgegangen, d.h. die untersuchten Strukturen werden axiomatisch beschrieben und Folgerungen daraus werden untersucht.

Ein Axiom (von griech. aximata=Grundsatz oder Forderung) nennt man eine Aussage, die grundlegend ist und deshalb nicht innerhalb ihres Systems begrndet werden kann bzw. muss. Sie dient als Grundlage fr eine deduktive Theorie und kann deshalb nicht selber durch diese Theorie begrndet werden. Wenn eine Theorie aus begrndeten Stzen bestehen soll, so muss es notwendigerweise solche Axiome geben, denn sonst wrde die Argumentation nie enden: Jeder Satz, den ich zur Begrndung anfhrte, bedrfte wieder einer Begrndung usw. Daher ist ein Axiom etwas ganz anderes als eine Vermutung.

Beispiel 1.1.1.

1

Jede natrliche Zahl

hat einen Nachfolger

n + 1

ist ein Axiom der Arithmetik.

Ein Axiomensystem fr eine mathematische Theorie muss widerspruchsfrei sein, d.h. aus ihm darf nicht gleichseitig ein Satz und sein logisches Gegenteil ableitbar sein. Weiterhin muss ein Axiomensystem vollstndig sein, d.h. alle Stze der Theorie mssen aus ihm logisch abzuleiten sein. Aus konomischen Grnden fordert man auerdem meist die Unabhngigkeit von Axiomensystem, d.h. keines der Axiome soll aus den anderen herleitbar sein.

Das Wort

Algebra kommt aus dem Arabischen. Es geht zurck auf ein Werk des Muhammad ibn Musa al-Chwarismi (aus der

Region sdstlich des Kaspischen Meeres, heute Usbekistan), 780 bis ca. 850 n.Chr, der zur Zeit des Kalifen al-Ma'mun (813-833) in Bagdad arbeitete. Er verfasste ein Lehrbuch mit Titel al-jabr wa-lmuqabala (frei bersetzt: Regeln der Wiedereinsetzung und Reduktion). Hier geht es um die Umformung und Lsung von linearen und quadratischen Gleichungen. Das Wort al-jabr (hier als Wiedereinsetzung bersetzt) hat sich bis heute als Algebra erhalten. Aus dem Namen des Autors al-Chwarismi wurde dann brigens unser

Algorithmus als Begri fr exaktes Rechenverfahren.


1

2 Lineare Gleichungssysteme
2.1 Grundlagen
Beispiel 2.1.1.
Wasserrohre sind in den Punkten

wie skizziert verbunden. Bei

20 min , Der Fluss in Litern pro Minute in den anderen


Wasser eingeleitet mit Rohren wird mit

A, B , C und A, B und D wird 10 min und 20 min .

r1 , . . . , r5

benannt (Richtung be-

Abbildung 1:

liebig festgelegt).
Verbundene Wasserrohre

Da Wasser inkompressibel ist, fhrt dies auf

Gleichungen in den 5 Unbekannten

r1 , . . . , r5 :

A : r1 + r2 = 20 B : r2 + 10 = r4 r2 r4 = 10 C : r3 + r4 r5 = 0 D : r1 + 20 = r3 r1 r3 = 20
Im vorliegenden Fall wird man wohl recht schnell die Lsung sehen, es stellen sich aber die Fragen,

r1 = 0, r2 = 20, r3 = 20, r4 = 30

und

r1 = 50

wie man diese systematisch berechnen kann, ob es noch mehr (oder auch mal keine) Lsungen gibt und wie die Lsungen solch eines Systems allgemein aussehen. Ein System von Gleichungen der Gestalt

Denition 2.1.2.

a11 x1 a21 x1 am1 x1


enten

+ + +

a12 x2 a22 x2 am2 x2

+ ... + ...
. . .

+ +

a1n xn a2n xn

= =

b1 b2
. . .
(2.1)

+ ...

+ amn xn

= bm
die Koezientstammen

heit lineares Gleichungssystem (LGS). Dabei sind

aij

mit

1im

einem zugrunde gelegten

x1 , . . . , xn die zu berechnenden Unbestimmten, 1 j n und die auf der rechten Seite stehenden bi mit 1 i m Krper K . Mit Hilfe des Summenzeichens kann man auch kompakter
und
n

aij xj = bi
j=1

fr

i = 1, . . . , m

schreiben.

Ein Krper ist dabei eine mathematische Struktur, die bentigt wird, um die entsprechenden Rechenoperationen zur Aufstellung und Lsung eines LGS auszufhren. Fr den Anfang sei Man ist an der Lsungsmenge des LGS interessiert, d.h. an

K = R.

L := {(x1 , . . . , xn ) K n
Diese Lsungsmenge kann natrlich auch leer sein.

mit (2.1)} .

Nachdem in vielen Anwendungen solche lineare Gleichungssysteme durchaus auch mal mit hunderten (oder viel mehr) von Variablen und Gleichungen auftreten und man dann solche Arbeiten gerne dem Computer berlsst, muss man also einen eektiven Algorithmus formulieren, um damit noch zurecht zu kommen.

Zur Lsung des LGS nimmt man quivalenzumformungen vor, d.h. Umformungen, die die Lsungsmenge des Systems nicht verndern. Diese erkennt man daran, dass sie sich ohne Informationsverlust wieder vollstndig rckgngig machen lassen 3

Das sind genau die folgenden Umformungen: (i) Vertauschen zweier Gleichungen, (ii) Beidseitige Multiplikation einer Gleichung mit einer Zahl

= 0,

(iii) Addition eines beliebigen Vielfachen einer Gleichung zu einer anderen Gleichung.

2.2 Lsungsstrategie

Wenn in (2.1) die Unbestimmte Ist

x1

berhaupt vorkommt, so ist einer der Koezienten

a11 , . . . , am1 = 0.

a11 = 0

und

= 0,

so tauscht man im ersten Schritt die

1-te

und die

-te Gleichung (Umformung

vom Typ (i)). Dies fhrt auf

1-te

Zeile

a 1 x1

a 2 x2 a12 x2

+ +

...
. . .

+ +

a n xn a1n xn

= =

b
. . .

-te Zeile

...
. . .

b1
. . .

am1 x1

am2 x2

+ ...

+ amn xn

= bm

Um kein Durcheinander mit den Indizes zu bekommen, geht man weiterhin von der Gestalt (2.1) der Gleichung aus und nimmt an, dass gleich so nummeriert wurde, dass Wegen

a11 = 0

ist.

a11 = 0

darf man die erste Gleichung durch

a11

dividieren (Umformung (ii)). Alle anderen Glei-

chungen bleiben gleich:

x1 a21 x1 am1 x1

+ + +

a12 a11 x2

a22 x2 am2 x2

+ ... + ...
. . .

+ + +

a1n a11 xn

a2n xn amn xn

= = =

b1 a11

b2
. . .

+ ...

bm

Nun verwendet man mehrere Umformungen vom Typ (iii), um mit Hilfe der ersten Gleichung die Variable

x1

aus den anderen Gleichungen zu eliminieren. Dazu geht man so vor:  Subtrahiere das  Subtrahiere das 

a21 -fache a31 -fache am1 -fache

der 1.Zeile von der 2.Zeile der 1.Zeile von der 3.Zeile

...
der 1.Zeile von der

 Subtrahiere das

m.Zeile

Dies fhrt auf die folgende Gestalt des LGS:

x1

a12 x2 a22 x2 am2 x2

+ ... + ...
. . .

+ + +

a1n xn a2n xn amn xn

= =

b1 b2
. . .

(2.2)

...

= bm

mit

a12 =

a12 a11 ,

. . . , a1n =

a1n a11 ,

b1 =

b1 a11 und

a12 b1 a22 = a22 a21 a11 , a23 = a23 a21 a23 , . . . , b2 = b2 a21 a11 a11

usw.

Beispiel 2.2.1

(Fortsetzung von 2.1.1)

Das LGS im Beispiel mit den Wasserrohren sieht etwas schner ge-

schrieben und in abgenderter Reihenfolge so aus:

r1 r1

r2 r2 r3 r3 +
4

r4 r4

r5

= 20 = 20 = 10 = 0

Da links oben schon r1 steht, ist in den Schritten 1 und 2 nichts zu tun. Fr Schritt 2 subtrahiert man die 1.Gleichung von der 2.Gleichung:

r1

+ r2 r2 r2

r3 r3 r4 + r4 2
bis

r5 m

= = = =

20 40 10 0 r1 )
2.2 unverndert und rechnet

Ab jetzt lsst man die 1.Gleichung des LGS (und damit die 1.Variable sinngem mit dem Teilsystem aus Gleichungen Aus genauso weiter.

a22 x2 am2 x2
wird (falls

a23 x3

+ ...
. . .

+ +

a2n xn amn xn a2n xn =

= =

b2
. . .

+ am3 x3 + a23 x3 am3 x3 + +

+ ... x3 ) +

bm b2
. . .

x2

berhaupt vorkommt, sonst analog mit

x2

...
. . .

...

+ amn xn

= bm

Damit hat man bisher insgesamt

x1

+ a12 x2 x2

+ +

a13 x3 a23 x3 am3 x3

+ +

... ...
. . .

+ +

a1n xn a2n xn

= b1 = b2
. . .

+ ...

+ amn xn

= bm

Setzt man dieses Verfahren entsprechend fort, so kommt man auf eine Stufenform (wird noch genau deniert) aus der man dann sehr schn das Ergebnis ablesen kann.

Beispiel 2.2.2

(Fortsetzung von 2.2.1)

.
r3 r3 r4 + r4 r5 = = = = 20 40 10 0

r1

+ r2 r2 r2

Nachdem die 1.Variable

r2 r2

r1 nur noch in der 1.Gleichung vorkommt, wendet man sich jetzt der nchsten Variablen zu. Diese kommt in der 2.Zeile auch vor (muss also nicht hochgetauscht werden). Da der Koezient von
in der 2.Gleichung

ist, multipliziert man diese mit

1.

Wahlweise knnte man auch die 2. und die 3.

Gleichung vertauschen:

r1

+ r2 r2 r2

+ r3 r3 r4 + r4 r5

= 20 = 40 = 10 = 0 = 20 = 40 = 50 = 0 1
und subtrahiert dann

Nun subtrahiert man die 2.Gleichung von der 3.Gleichung und erhlt:

r1

+ r2 r2

+ r3 r3 r3

r4 + r4

r5

r3 in der 3.Gleichung weiter, d.h. man multipliziert mit die 3.Gleichung von der 4.Gleichung:
Entsprechend geht es nun mit

r1

+ r2 r2

+ r3 r3

+ r4 r5

= 20 = 40 = 50 = 50 50 besitzt. Die Interpretation

Damit sind die beschriebenen Eliminationsschritte erledigt, die angekndigte Stufenform ist erreicht. An der letzten Zeile kann man immerhin schon mal ablesen, dass r5 nur die eindeutige Lsung der anderen Zeilen gestaltet sich dagegen etwas schwieriger.
5

2.3 Matrixschreibweise
Denition 2.3.1.
Man schreibt Ein rechteckiges Zahlenschema aus

a11 a21 A= am1


(oder nur

a12 a22 am2 m

m mal n Elementen eines Krpers K . . . a1n . . . a2n K mn , . . . . . . amn n


klar sind).

heit

mn-Matrix.

oder kurz

A = (aij ) 1im

(aij ),

wenn

und

1jn K mn ist die Menge aller

m n-Matrizen

mit Eintrgen aus

(oft auch

Mm,n (K)). A = (aij ) 1im K mn


1jn

Denition 2.3.2.

Das LGS (2.1) schreibt man abkrzend als

Ax = b.

Dabei heit

die Koezientenmatrix,

x = (xj )1jn K n

der Vektor aus den Unbekannten und

rechte Seite oder Inhomogenitt. Das LGS heit homogen, wenn

b = (bi )1im K m die b1 = b2 = = bm = 0 ist (kurz b = 0),

sonst inhomogen. Besonders konomisch fr das Lsen des LGS (2.1) ist die Schreibweise mit der erweiterten m(n+1) Koezientenmatrix (A|b) K .

Beispiel 2.3.3

(Fortsetzung von 2.2.2)

Das Wasserrohr-Beispiel ist ein inhomogenes LGS

Ar = b

mit

1 1 1 0 A = 0 1 0 0 1 1 1 0 (A|b) = 0 1 0 0

0 1 0 1 0 1 0 1

0 0 1 1 0 0 1 1

0 20 20 0 4 R45 , b = 10 R , 0 1 0 r1 20 0 r2 0 20 R46 , r = r3 R5 0 10 r4 1 0 r5

2.4 Elementare Zeilenumformungen und Zeilenstufenform



Mit der erweiterten Koezientenmatrix kann man nun genauso rechnen, wie mit dem damit verbundenen LGS. Die drei bereits formulierten erlaubten Umformungen werden deshalb jetzt nochmal fr (erweiterte) Koezientenmatrizen notiert.

Elementare Zeilenumformungen
Die Lsungsmenge eines LGS ndert sich nicht, wenn man an der erweiterten Koezientenmatrix die folgenden Umformungen in beliebiger Reihenfolge ausfhrt: (I) Vertauschen zweier Zeilen (II) Multiplikation einer Zeile mit einer Konstanten (III) Addition des

K \ {0}

-fachen

einer Zeile,

beliebig, zu einer anderen.

Mit diesen elementaren Zeilenumformungen kann man nun nach dem zuvor Gesagten jede Matrix (erweitert oder nicht) in Stufenform bringen.

Denition 2.4.1.

Eine

m n-Matrix A K mn j1

heit in Zeilenstufenform (oder Staelform), wenn sie von

folgender Gestalt ist:


.. .

0
j2 j3

j4 j5

..........

Dabei sind die Elemente an den mit

markierten Stellen (diese heien Pivotelemente, die zugehrigen Spalten

Pivotspalten) ungleich Null und unterhalb der Treppenlinie stehen ausschlielich Nullen.
6

Denition 2.4.2.

Es sei

gleich der Nullmatrix

K ein Krper. Eine Matrix A K mn O = (0) 1im ist oder wenn gilt
1jn

heit in Zeilenstufenform, wenn sie entweder

(1) Es gibt eine Zahl Indizes

(den Rang von

A,

i.Z.

Rang(A) = r)

mit

1 r m,

so dass in den Zeilen mit den

1, . . . , r

jeweils nicht nur Nullen und in den Zeilen mit den Indizes

r + 1, . . . , m

ausschlielich

Nullen stehen. (2) Fr jeden Zeilenindex Null steht, d.h.

i mit 1 i r sei ji der kleinste Index jener Spalte, in der ein Element ungleich ji := min{j | aij = 0} (also 1 ji n). Fr diese Indizes gilt die Stufenbedingung j1 < j2 < . . . < jr .
Es empehlt sich, die elementaren Zeilenumformungen auf dem Weg zur Zeilenstufenform jeweils mitzuschreiben.

Notiert man etwa das

Z2 Z2 4Z1 ,

so heit das: Die neue zweite Zeile (Z2 ) sei die alte zweite Zeile minus

4-fache =!).

der ersten Zeile, d.h. es handelt sich um eine elementare Zeilenumformung vom Typ (iii).

Fr den bergang von einer Koezientenmatrix zur nchsten schreibt man meistens nicht

oder

(jedenfalls

Beispiel 2.4.3

(Fortsetzung von 2.3.3)

20 1 1 0 0 0 20 1 1 0 0 0 1 0 1 0 0 20 Z2 Z2 Z1 0 1 1 0 0 40 Z3 Z3 +Z2 0 1 0 1 0 1 0 10 0 1 0 10 0 0 1 1 1 0 0 1 1 1 0 0 1 1 0 0 0 20 1 1 0 0 0 20 0 1 1 0 0 40 Z4 Z4 +Z3 0 1 1 0 0 40 0 0 1 1 0 50 0 0 1 1 0 50 0 0 0 1 1 1 0 0 0 0 1 50

2.5 Von der Zeilenstufenform zur Lsung


Beispiel 2.5.1.
Es sei

(A|c) =

10 0 0 0 0 5 6

5 2 3 4 5 4

5 7 9

m = 4, n = 8 und r = Rang(A) = 3 bzw. Rang(A|c) = 4 ab. Ax = c ist nicht lsbar, denn seine vierte Gleichung lautet 0x1 + . . . + 0x8 = 9, d.h. sie ist durch keine Belegung der xi erfllbar, denn 0 x = 0 fr alle x in jedem Krper. Dies sieht man sofort aus der Zeilenstufenform an br+1 = b4 = 0 bzw. Rang(A|c) > Rang(A). 1 0 0 0 0 0 5 6 18 5 2 3 4 5 10 Beispiel 2.5.2. Es sei (A|b) = 4 12 0 Es ist m = 4, n = 8, r = Rang(A) = 3 = Rang(A|b), d.h. es ergibt sich nicht wie im letzten Beispiel ein direkter
Aus dieser Zeilenstufenform liest man Das Gleichungssystem

21.10.10

Widerspruch. Das LGS ist lsbar, man kann jeweils nach den Pivotelementen ausen.

j1 = 1, j2 = Die zugehrigen Variablen x1 ,


Pivotspalten sind

4 und j3 = 8. x4 , x8 nennt man

auch gebundene Variable, whrend die restlichen Variablen

x2 ,

x3 , x5 , x6

und

x7

so genannte freie Variable sind.

Aus der Zeilenstufenform ergibt sich (von unten nach oben)

x8 x4 x1

= =

3 2

= 1 = 18

2 5 x5 2 5 x5

3 5 x6 3 5 x6

4 5 x7 4 5 x7

x8

= = 5x7

5x7

6x8

x1
bzw.

= = = (1) + 3 ( 2 x5 ) 5 +
3 ( 5 x6 )

5x7 +
4 ( 5 x7 )

x4 x8

Ausfhrlich ist das

x1 x2 x3 x4 x5 x6 x7 x8

= = = = = = = = (1) +

x2

5x7 x3 ( 2 x5 ) 5 x5 + ( 3 x6 ) 5 x6 +
4 ( 5 x7 )

x7

Dies kann man auch spaltenweise zusammenfassen

0 0 5 0 0 0 x1 0 0 1 0 0 x2 0 0 1 0 0 0 x3 0 2 3 4 x4 1 = + x2 0 + x3 0 + x5 5 + x6 5 + x7 5 1 0 0 0 0 x5 0 0 0 x 0 0 1 0 6 0 0 0 x7 0 0 1 0 0 3 x8 0 0 0
blicherweise benennt man die verbleibenden Variablen um

0 5 0 0 0 0 x1 0 0 x2 0 1 0 0 0 0 x3 0 0 0 1 x4 1 3 4 2 = + 1 0 + 2 0 + 3 5 + 4 5 + 5 5 x5 0 0 0 0 0 1 x 0 0 0 6 1 0 0 x7 0 0 0 0 0 1 x8 3 0 0 0 0 0
mit

i K .

(hier z.B.

K = Q).

Man schreibt deshalb auch

0 5 0 x1 0 0 0 0 0 x2 0 0 0 1 0 0 x3 0 0 0 1 x4 1 3 4 2 = + Q0 + Q0 + Q 5 + Q 5 + Q 5 x5 0 0 0 0 0 1 x 0 0 0 6 1 0 0 x7 0 0 0 0 0 1 x8 3 0 0 0 0 0

Den Prozess elementarer Zeilenumformungen bis hin zur Zeilenstufenform nennt man meist Vorwrtselimination den Vorgang des Ablesens und Einsetzens von der letzten Gleichung bis hin zur ersten Rckwrtssubstitution und beides zusammen wird meist Gau-Algorithmus (nach

Johann Carl Friedrich Gau (1777-1855) zur Lsung linearer


Gleichungssysteme genannt.

Abbildung 2: .
In 2.4.3 ist die Zeilenstufenform

Carl Friedrich Gau

Beispiel 2.5.3

(Fortsetzung von 2.4.3)

1 0 0 0

1 1 0 0

0 1 1 0

0 0 1 0
8

0 0 0 1

20 40 50 50

berechnet worden. Es ist Wegen Man liest ab

m = 4, n = 5. Rang(A) = 4 = Rang(A|b) ist das

LGS lsbar.

r5 = 50 , r3 = 50 r4 , r2 = 40 r3 , r1 = 20 r2 .
Rckwrtssubstitution liefert

r5 =50 , r3 = 50 r4 , r2 = 40 (50 r4 ) = 10 + r4 , r1 =20 r2 = 20 (10 + r4 ) = 30 r4 ,


oder mit

:= r4 R

zusammen

1 30 r1 1 r2 10 r3 = 50 + 1 1 r4 0 0 50 r5

Fr Da

= 30 erhlt man z.B. die bereits in 2.1.1 erwhnte Lsung r1 = 0, r2 = 20, r3 = 20, r4 = 30 und r1 = 50. R unendlich viele Werte annehmen kann, gibt es neben dieser Lsung unendlich viele andere Lsungen
Fr einige Anwendungen ist es sinnvoll, nach der Vorwrtselimination noch eine Rckwrtselimination durchzufhren, d.h. dafr zu sorgen, dass auch in den Spalten ber den Pivotelementen nur Nullen stehen.

dieses LGS.

Dies erreicht man durch elementare Zeilenumformungen startend mit dem letzten Pivotelement die bisher erreichte Stufenform zu zerstren Die Matrix aus 2.5.2 lsst sich z.B. so noch weiter vereinfachen, indem man mit der

ar,jr , ohne

in der 8.Spalte die

und die

darber eliminiert

Das Endprodukt nach abgeschlossener Rckwrtselimination heit auch reduzierte Zeilenstufenform der Matrix

Beispiel 2.5.4

(Fortsetzung von 2.5.3)

In 2.4.3 ist die Zeilenstufenform

1 0 0 0

1 0 1 1 0 1 0 0

0 0 1 0

0 0 0 1

20 40 50 50

berechnet worden. Mit weiteren elementaren Zeilenumformungen erreicht man die reduzierte Zeilenstufenform:

1 Z2 Z2 Z3 0 0 0

1 1 0 0

0 0 1 0

0 1 1 0

0 0 0 1

20 10 Z1 Z1 +Z2 50 50

1 0 0 1 0 0 0 0

0 0 1 0

1 1 1 0

0 0 0 1

30 10 50 50

An der reduzierten Zeilenstufenform kann man das Ergebnis ohne Rckwrtssubstitution direkt ablesen!

2.6 Rang, Lsbarkeit und Struktur


Satz 2.6.1.
(A|b)
Ein homogenes LGS

Ax = 0

ist immer lsbar.

Es hat zumindest immer die so genannte triviale Lsung grer als der Rang der Matrix

x = (0, . . . , 0).
ist nicht lsbar

Ein inhomogenes LGS kann dagegen unlsbar sein, und zwar genau dann, wenn der Rang der erweiterten Matrix

ist, i.Z.

Ax = b

Rang(A|b) > Rang(A)


der zur

Beweis: Die Aussage ber das homogene LGS ist durch Einsetzen zu berprfen.
Es gilt fr alle

A und b, dass Rang(A|b) Rang(A) := r. Ist Rang(A|b) > Rang(A), so liest man an r + 1-ten Zeile der Zeilenstufenform einen Widerspruch ab (vgl. 2.5.1), d.h. das LGS ist nicht lsbar. Ist Rang(A|b) = Rang(A), so kann man sofort ein Ergebnis ablesen (vgl. 2.5.2), d.h. im Widerspruch

Annahme ist das LGS lsbar. 9

Satz 2.6.2.

n j=1 aij xj = 0 , i = 1, . . . , m die Bedingung m < n, d.h. gibt es weniger Gleichungen als Unbekannte, so gibt es eine Lsung mit mindestens n m freien Parametern.

Gilt fr das homogene LGS

Ax = 0

Lsst sich die Anzahl der Gleichungen mittels elementarer Zeilenumformungen auf eine Zeilenstufenform mit

Rang(A) = r m m n-Matrix
ist

Gleichungen umformen, so ist die Anzahl der Parameter im Ergebnis gleich

n r.

Beweis: Die Anzahl der Stufen in einer Zeilenstufenform, und somit auch die Anzahl der Pivotelemente, in einer

Rang(A) = r m.

Somit gibt es

nr nm

Spalten ohne Pivotelemente, zu denen die

Variablen frei gewhlt werden knnen.

Folgerung 2.6.3.

Aus den beiden vorhergehenden Stzen fasst man die folgenden Lsungskriterien fr ein LGS
n

Ax = b
j=1

aij xj = bi , i = 1, . . . , m

zusammen:

Ax = b Rang(A)<Rang(A| b) r =Rang(A)=Rang(A| b)< n r =Rang(A)=Rang(A| b)= n


Der letzte Fall ist wegen quadratische Matrix mit

hat Lsung

keine Lsung eine

n r-parametrige r = n m

eine eindeutige Lsung wenn ist, d.h. wenn

r min{m, n} nur mglich, m = n ist oder mehr Zeilen als


ein Krper,

eine so genannte

Spalten hat. Dann gilt fr die

Satz 2.6.4.

Es seien

Lsungen des inhomogenen LGS

A = (aij ) K mn und 0 = b = (b1 , . . . , bm ) K m . Ax = b und des zugehrigen homogenen LGS Ax = 0: +


Allgemeine Lsung des homogenen LGS

Spezielle Lsung des inhomogenen LGS Beweis: Es sei

Allgemeine Lsung des inhomogenen LGS

(y1 , . . . , yn ) K n

eine spezielle Lsung des inhomogenen LGS, d.h.

aij yj = bi , i = 1, . . . , m .
j=1
Ist

(z1 , . . . , zn ) K n

eine beliebige Lsung des inhomogenen LGS, also

aij zj = bi , i = 1, . . . , m ,
j=1
so folgt d.h.

aij (yj zj ) = 0 , i = 1, . . . , m , (y1 z1 , . . . , yn zn ) K n ist eine Lsung der


n

n j=1

homogenen Gleichung.

Ist dagegen

(w1 , . . . , wn ) K n

eine beliebige Lsung des homogenen LGS, also

aij wj = 0 , i = 1, . . . , m ,
j=1
so ist

(w1 + y1 , . . . , wn + yn ) K n
n

eine Lsung des inhomogenen LGS, denn

aij (wj + yj ) =
j=1 j=1

aij wj +
j=1

aij yj = 0 + bi = bi , i = 1, . . . , m .

10

3 Nave Mengenlehre
3.1 Grundbegrie
Georg Cantor (1845-1918) gab die folgende

Denition 3.1.1.

Eine Menge ist jede Zusammenfassung von bestimmten, wohlunterschiedenen Objekten unse-

rer Anschauung oder unseres Denkens  welche die Elemente dieser Menge genannt werden  zu einem Ganzen.
Das Wort Denition sollte hier in Anfhrungszeichen stehen, da der zu erklrende Begri mittels weiterer undenierte Begrie erlutert wird. Eine echte Denition dagegen darf nur bereits denierte Begrie zu Grunde legt.

Der so eingefhrte Mengenbegri fhrt schnell zu Unklarheiten und logischen Widersprchen. Spter wurde von Ernst Zermelo (1871-1953) und Adolf Fraenkel (1891-1965) eine axiomatische Begrndung der Mengenlehre geliefert, die bisher noch zu keinen Widersprchen gefhrt hat (siehe etwa http://mathworld.wolfram.com/Zermelo-FraenkelAxioms.html)

Dies soll hier nicht weiter vertieft werden. Mit einigen Vorsichtsmanahmen kann man ganz gut mit der Cantorschen Auassung leben.

Eine Menge

wird meist auf eine der 3 folgenden Arten gegeben:

(1) Durch eine unmissverstndliche verbale Formulierung:

Beispiel:

sei die Menge der im WS 2010/2011 an der TU Mnchen eingeschriebenen Studenten.

(2) Durch Aufzhlen (falls mglich, bei

geht das z.B. nicht!) der Elemente

a1 , a2 , . . .

der Menge

M.

Schreibweise:

M = {a1 , a2 , . . . }
die genau den Ele-

(3) Durch eine charakteristische Eigenschaft menten von

E fr die Objekte aus der Grundmenge G, M zukommt: Schreibweise: M := {x | x G erfllt E} oder M := {x G | x erfllt E}. Beispiel: M := {x N | 3 teilt x}.

Nach Bertrand Russel (1872-1970) ist das folgende Beispiel (das so genannte Russelsche Paradoxon) benannt

Es sei

M := {x | x
Denition.

ist eine Menge und

x x} /

d.h. die Menge aller Mengen, die sich nicht selbst enthalten. Das ist eine Menge nach der Cantorschen

Aber es gilt:

M M M M /

M M M M. /

Die Bezeichnung Paradoxon ist also etwas irrefhrend, denn es handelt sich um einen dicken logischen

Widerspruch! Deshalb wurde die Zermelo-Fraenkel-Theorie ntig.

3.2 Beziehungen zwischen Mengen


Denition 3.2.1.
A B, A
und wenn gilt Es seien

und

Mengen.

heit Teilmenge von fr alle

oder

Obermenge von

A,

in Zeichen

A B : B
heien gleich, i.Z.

xA

gilt

xB.

A = B,

wenn gilt

A = B : A B
Das Zeichen

und

B A.

steht abkrzend fr wird deniert als. . . 

Mit Hilfe von so genannten Quantoren und Junktoren (s. entsprechender Abschnitt) lassen sich solche Aussagen kompakter, aber auch erst mal schwieriger lesbar, notieren. 11

Vorsicht: Verschiedene Schreibweisen je nach Autor: bei vielen (bei mir auch): bei anderen:

A B A B A B A B A = B Ich schreibe, falls ich einmal A = B habe, zur Vermeidung A B A B A = B .


Fr eine endliche Menge

von Verwechslungen:

Denition 3.2.2.
man

bezeichnet man die Anzahl der Elemente mit

|M |. |M |

heit

die Mchtigkeit oder Kardinalitt von

M.

Fr Mengen mit einer nicht endlichen Anzahl von Elementen schreibt

|M | = .
Diese Denition ist noch recht schwammig und kann erst mit Hilfe von Abbildungen genauer gefasst werden.

Der Begri der Kardinalitt lsst sich so verfeinern, dass man noch verschiedene Typen von Unendlich unterscheiden kann, etwa

|N| = |Q|

oder

|N| = |R|.

Das wird hier aber nicht vertieft.

12

4 Aussagen
4.1 Junktoren und Wahrheitstafeln
Denition 4.1.1.
{1, 0}
Eine Aussage ist ein Element der Menge

{wahr,

falsch} (auch

{w, f }, {true,

false} oder

etc. geschrieben).

Eine Aussageform ist eine Abbildung einer (oft nicht explizit angegebenen) Menge in diese zweielementige Menge.

Beispiel 4.1.2.

Die Aussage Die Quersumme von

28

ist durch

teilbar ist falsch.

Die Aussage Die Quersumme von

27

ist durch

teilbar ist wahr.

A(x) :=Die Quersumme von x ist x = 27 eine wahre Aussage liefert.


Sind

durch

teilbar ist eine Aussageform, die z.B. fr

x = 28

eine falsche, fr

und

zwei Aussagen, so lassen sich mittels so genannter Junktoren (=Verbinder) neue Aussagen

zusammenstellen: Junktor Negation Konjugation Disjunktion Implikation quivalenz Bedeutung Zeichen

A A und B A oder B wenn A, dann B


nicht

genau dann, wenn

A AB AB AB A B

Die Wahrheitswerte der so zusammengesetzten Aussagen werden mit Hilfe einer Wahrheitstabelle angegeben, in der zu jeder wahr-falsch-Kombination der beteiligten Aussagen der Wahrheitswert der zusammengesetzten Aussage angegeben wird.

Denition 4.1.3.
A w w f f B w f w f

A f f w w B

AB w f f f

AB w w w f A

AB w f w w A.

A B w f f w B
Behauptung. Ist die Implikation

Denition 4.1.4.

Bei einer Implikation

wahr, so nennt man

hinreichend fr

AB und B

heit

Voraussetzung und

notwendig fr

ber Wahrheitstafeln kann man (bungen) nun einfache Rechenregeln fr diese Junktoren beweisen, z.B.:

A B

lsst sich auch durch die davor eingefhrten Junktoren denieren als

A B ,

d.h. man htte

denieren knnen

(A B) : (A B) A B
steht fr

ABB A

(letzteres auch als

AB

geschrieben), also

(A B) : (A B B A)

Satz 4.1.5

(De Morgansche Regeln)

Fr Aussagen

und

gilt
(4.1) (4.2)

((A B)) ((A B))


Beweis:

(A B) (A B)

A w w f f

B w f w f

A f f w w

AB w f f f

(A B) B f f w w w f w w
13

A B f w w w

4.2 Quantoren
Aus Aussageformen kann man durch so genannte Quantoren Aussagen machen.

Denition 4.2.1.

Der fr alle-Quantor

: w f
falls falls

(x M : A(x)) :=

f A(M ), / f A(M ).

Beispiel 4.2.2.

A(x) die Aussageform Die Quersumme der Zahl x ist durch 3 teilbar und M die Menge Dann ist A(x) fr alle x M wahr, d.h. A(M ) = {w}. Die Aussage x M : A(x) (in Worten: Fr alle Vielfachen von 3 gilt, dass ihre Quersumme durch 3 teilbar ist), ist also wahr. Fr die Grundmenge M = {27, 28, 29} ist dagegen A(M ) = {w, f } (nmlich wahr fr 27 und falsch fr 28, 29), also die Aussage x M : A(x) falsch.
Es sei aller Vielfachen von

3.

Denition 4.2.3.

Der es existiert-Quantor

: w f
falls falls

(x M : A(x)) :=

w A(M ), w A(M ). /
Die Quersumme der Zahl

Beispiel 4.2.4.
x
ist durch

Fr die Grundmenge

teilbar ist

M = {27, 28, 29} und die Aussageform A(x) A(M ) = {w, f }, also die Aussage x M : A(x) wahr.

Dieses Beispiel zeigt insbesondere, dass das mathematische es gibt ein bedeutet es gibt mindestens ein. Mchte man ausdrcken, dass es genau ein Element mit der angegebenen Eigenschaft gibt, so versieht man den Existenzquantor

mit einer kleinen tiefgestellten

1:

Beispiel 4.2.5. 1 p prim: 19 < p 28. Folgerung 4.2.6. Aus der Denition der

beiden Quantoren folgt:

(x M : A(x)) = (x M : A(x)) (x M : A(x)) = (x M : A(x))

Beispiel 4.2.7.
Fr alle Es gibt ein

Die Verneinung der (falschen) Aussage ist die Quersumme durch

x {27, 28, 29}

teilbar

ist die (wahre) Aussage

x {27, 28, 29},

dessen Quersumme nicht durch

teilbar ist.

Die Verneinung der (falschen) Aussage Es gibt eine natrliche Zahl ist die (wahre) Aussage Fr alle natrlichen Zahlen

n n

mit ist

n < 4

n 4. (A B) (B A)

Satz 4.2.8.
Beweis: mit einfacher Tabelle wie zuvor oder so:

(A B) (A B) (A B) (B A) ((B) (A)) (B A)
(4.2)

4.3 Beweistechniken

Die folgenden Beweistechniken werden unterschieden: (1) Direkter Beweis:

AB

(modus ponens), (modus tollens), 14

(2) Indirekter Beweis:

B A

(3) Widerspruchsbeweis:

ist falsch, also gilt

A,

(4) vollstndige Induktion, (5) Konstruktiver Beweis (bei Existenzaussagen).

Eine axiomatische Denition der natrlichen Zahlen ist nach Giuseppe Peano (1858-1932) benannt, der diese Axiome aufbauend auf Arbeiten von Richard Dedekind (1831-1916) erstmals formuliert und benutzt hat:

Eines der Peano-Axiome ist das so genannte Induktionsprinzip, mit dem die Induktion begrndet wird:

Satz 4.3.1.
Zahl sei.

Es sei

A(n)

eine Aussage ber alle natrlichen Zahlen

n a,

wobei

eine fest gewhlte natrliche

A(n)

ist fr alle

na

richtig, wenn die folgenden 2 Bedingungen erfllt sind:

(I1 ) A(a) (I2 )

ist richtig.

Aus der Annahme der Gltigkeit von

A(n)

fr alle

mit

ank

folgt stets die Gltigkeit von

A(k + 1). nN

Das Prinzip der vollstndigen Induktion ndet Anwendung, wenn Behauptungen des Typs Fr alle gilt

...

bewiesen werden.

Genauso wie bei der Begrndung der vollstndigen Induktion kann man aber auch vorgehen, um mathematische Objekte Man gibt

O(n)

rekursiv zu denieren:
an und ein Verfahren, wie man jeweils

O(a), . . . , O(b)

O(n)

aus den

O(k)

mit

k < n

erhlt.

Wegen des eben gezeigten Prinzips der vollstndigen Induktion ist damit

O(n)

fr alle natrlichen Zahlen

na

deniert.

15

16

5 Rechnen mit Mengen


5.1 Grundlagen

Im Folgenden seien

und

zwei Mengen. Die eingefhrten Operationen zwi-

schen diesen Mengen werden verdeutlicht durch so genannte Venn-Diagramme (nach John Venn (1834-1923) ), die auch eulersche Kreise genannt werden (nach

Leonhard Euler (1701-1783) ).

Diese Darstellung kann beim Nachweis von Rechengesetzen etwas die Vorstellung untersttzen, nicht aber den formalen Beweis ersetzen, der mit Hilfe der eingefhrten Junktoren oder mit Wahrheitstabellen gefhrt wird!

Abbildung 3:
Venn-Diagramm

Mit den eingefhrten Quantoren knnte man 3.2.1 jetzt auch in der folgenden Form schreiben:

A B : x A : x B , A = B : A B B A .
Daraus folgt

A = B (A = B) (A B B A) (A B) (B A) (x A : x B) (x B : x A) / /
(4.1)

4.2.6

Abbildung 4:
Ungleiche Mengen

Einige wichtige Mengen, die im folgenden Sto noch mit sehr viel mehr mathematischem Leben gefllt werden, sind

N :={1, 2, 3, . . . } N0 :={0, 1, 2, . . . }

Menge der natrlichen Zahlen, Menge der natrlichen Zahlen und Menge der ganzen Zahlen,

0,

Z :={0, 1, 1, 2, 2, . . . }

Q :={x | a Z b N : x = R :={x | x
Menge der reellen Zahlen,

a } b

Menge der rationalen Zahlen,

ist eine Dezimalbruch (endlich oder unendlich)}

C :={z | a R b R : z = a + i b i2 = 1}
Menge der komplexen Zahlen,

:={x | x = x}

leere Menge.

Jede Menge enthlt zwei triviale Teilmengen, nmlich die leere Menge und sich selbst. Man beachte:

{a} {a} , {a} {a} , a {a} , {a} = {{a}} . /


bzw.

sind transitiv:

ABB C AC

bzw.

ABB C AC

Denition 5.1.1.

Es sei

eine Menge. Die Menge

P(A) := {M | M A}
aller Teilmengen von

heit Potenzmenge von

A.

Beispiel 5.1.2. A = {0, 1} P(A) = {, {0}, {1}, {0, 1}}.


17

5.2 Operationen
Denition 5.2.1.

Der Durchschnitt oder einfach Schnitt zweier Mengen

und

ist

A B := {x | x A x B}

Abbildung 5:
Mengendurchschnitt

Denition 5.2.2.

Der Vereinigung zweier Mengen

und

ist

A B := {x | x A x B}

Abbildung 6:
Mengenvereinigung

Denition 5.2.3.

Die Dierenz der beiden Mengen

und

ist

A \ B := {x | x A x B}

Abbildung 7:
Mengendierenz

Denition 5.2.4.
Ist

Teilmenge einer Menge

(oft Grundmenge genannt), also

A G,

so nennt man

die Dierenz

G\A

auch das Komplement von

in

G,

in Zeichen:

A := G \ A = {x G | x A} .
Oft ndet man auch die Schreibweise

fr

A.

Abbildung 8:
Mengenkomplement

Denition 5.2.5.

Die symmetrische Dierenz der beiden Mengen

und

ist

B := (A \ B) (B \ A)

Abbildung 9:
Symmetrische Dierenz

Die Mengenoperationen kann man auch mit Hilfe von Wahrheitstabellen recht kompakt darstellen: Man untersucht die Wahrheitswerte der Aussage

x M.

Statt

xM w f

schreibt man krzer

M w f

und kann so alle Operationen in einer Tabelle darstellen:

18

A f f w w B f w f w AB f f f w C AB f w w w A\B f f w f AB f w w f G
gilt:

Satz 5.2.6.

Fr beliebige Teilmengen

A, B

und

eines Grundbereichs

(A B) C =A (B C) (A B) C =A (B C) (AB)C =A(BC)

Assoziativgesetze

Satz 5.2.7.

Fr beliebige Teilmengen

A, B

und

eines Grundbereichs

gilt:

A B =B A A B =B A AB =BA

Kommutativgesetze

Satz 5.2.8.

Fr beliebige Teilmengen

A, B

und

eines Grundbereichs

gilt:

A (B C) =(A B) (A C) A (B C) =(A B) (A C)

Distributivgesetze

Satz 5.2.9.

Fr beliebige Teilmengen

A, B

und

eines Grundbereichs

gilt:

A A =A A A =A ( A) = A =A

Idempotenzgesetze

Satz 5.2.10.

Fr beliebige Teilmengen

C eines Grundbereichs G gilt: (A \ B) C =(A C) \ (B C) A \ (B C) =(A \ B) (A \ C) Rechengesetze fr Mengendierenzen (A \ B) B =A B A \ (B C) =(A \ B) (A \ C)


und

A, B

Satz 5.2.11.

Fr beliebige Teilmengen

A, B

und

eines Grundbereichs

gilt:

(A B) = A B =A B = A B (A B) = A B =A B = A B
sen oder mit Hilfe einer geeigneten Wahrheitstabelle. Einige Rechengesetze werden in den bungen gezeigt.

De Morgansche Regeln

Praktisch alle aufgezhlten Rechengesetze lassen sich durch einfaches Nachrechnen ber Junktoren bewei-

5.3 Das kartesische Produkt



Es seien

und

nichtleere Mengen,

a, a A

und

b, b B .

Man krzt ab

(a, b) := {{a}, {a, b}}. (a, b) = (a , b ) =

Mit Hilfe der Axiome der Mengenlehre (Zermelo-Fraenkel) kann man dann zeigen:

a=a b=b.
Das neu denierte Objekt

(a, b)

nennt man ein geordnetes Paar, denn im Gegensatz zu Mengen ({a, b}

{b, a})

kommt es hier auf die Reihenfolge an ((a, b)

= (b, a)).

Da wir nicht in die axiomatische Mengenlehre einsteigen wollen, sollte man diese Denition eines geordneten Paares gleich wieder vergessen. 19

Mit der folgenden etwas schwammigen Denition kann man ganz gut zurecht kommen; es ist aber gut zu wissen, dass sich das auch axiomatisch korrekt einfhren lsst.

Denition 5.3.1.
von Elementen

Es seien und

aA

A und B nichtleere Mengen, a, a A und b, b B . Ein geordnetes Paar oder Tupel b B wird (a, b) geschrieben. Zwei solche Tupel heien gleich, wenn sie elementweise (a, b) = (a , b ) : a = a b = b .

bereinstimmen, i.Z.

Denition 5.3.2.
und

Es seien

und

nichtleere Mengen. Die Menge aller geordneten Paare

(a, b)

mit

aA

bB

heit kartesisches Produkt oder Kreuzprodukt der Mengen

und

B,

i.Z.

A B := {(a, b) | a A b B} .

Denition 5.3.3.

Es seien A1 , A2 , . . . An mit n N und n 2 nichtleere Mengen. Man betrachtet n-Tupel (a1 , a2 , . . . , an ) von Elementen ai Ai fr i = 1, . . . , n. Zwei solche n-Tupel heien gleich, wenn sie elementweise bereinstimmen, i.Z.

(a1 , a2 , . . . , an ) = (a1 , a2 , . . . , an ) : ai = ai

i {1, 2, . . . , n}
heit

Denition 5.3.4.
n-faches

Die Menge aller geordneten

Kreuzprodukt der Mengen

n-Tupel (a1 , a2 , . . . , an ) A1 , A2 , . . . , An , i.Z.

n-faches

kartesisches Produkt oder

A1 A2 An := {(a1 , a2 , . . . , an ) | ai Ai i {1, 2, . . . , n}} .

Bei also

n-fachen kartesischen Produkten einer Menge mit sich selbst benutzt man auch die Potenzschreibweise, An := A A .
n-mal

Die Schreibweise Eine

R3

fr alle

3-Tupel

reeller Zahlen ist ja bereits aus der Schule bekannt.

n 1-Matrix K n1

oder eine

1 n-Matrix K 1n

knnen prinzipiell mit einem

n-Tupel

des

Kn

identiziert werden. Fr das sptere Rechnen mit Matrizen kommt es aber auf die Schreibweise als Spalte oder als Zeile an.

Beispiel 5.3.5.

Fr

A = {1, 2, 3}

und

B = {a, b}

ist

A B ={(1, a), (1, b), (2, a), (2, b), (3, a), (3, b)} , B 2 ={(a, a), (a, b), (b, a), (b, b)} .

Satz 5.3.6.

Sind

A1 , A2 , . . . An

nichtleere endliche Mengen, so gilt

|A1 A2 An | = |A1 | |A2 | |An | .


Beweis: durch einfaches Abzhlen.

20

6 Relationen und Funktionen


6.1 Binre Relationen
Denition 6.1.1.
(oder
Es seien

k -nre)

Relation auf

k N und A1 , . . . , Ak A1 Ak .
(lies:

Mengen. Eine Teilmenge

R A1 Ak

heit

k -stellige

Da diese Denition ziemlich abstrakt ist, schreibt man bei den am hugsten verwendeten binren Relationen oft statt (etwa

(a, b) R lieber aRb =, >, , || etc.)


Fr

steht in Relation zu

b)

und verwendet fr

meist ein spezielles Zeichen

Beispiel 6.1.2.

A = A1 = A2 = {1, 2, 3}

ist z.B.

R = {(1, 1), (2, 2), (3, 3)}


eine binre Relation. Da zwei Elemente schreibt man statt

a, b A

oenbar genau dann in Relation stehen, wenn sie gleich sind,

(a, b) R

oder

aRb

in diesem Fall wohl suggestiver gleich ist

a = b.

Beispiel 6.1.3.

Fr

A = A1 = A2 = A3 = {1, 2, 3, 4, 5, 6}

R := {(a, b, c) A3 | a2 + b2 = c2 } = {(3, 4, 5), (4, 3, 5)}


die ternre Relation, die gerade die pythagoreischen Tripel enthlt.

Denition 6.1.4.
zeichnungen fr

Es sei

eine Menge und

R A2

eine binre Relation. Es werden die folgenden Zusatzbe-

vereinbart: reexiv irreexiv symmetrisch antisymmetrisch asymmetrisch transitiv

: a A : (a, a) R : a A : (a, a) R / : a, b A : (a, b) R (b, a) R : a, b A : (a, b) R (b, a) R a = b / : a, b A : (a, b) R (b, a) R / : a, b, c A : (a, b) R (b, c) R (a, c) R
25.10.10

6.2 Besondere binre Relationen


Denition 6.2.1.
Eine binre Relation

R A2

heit

reexive teilweise Ordnung auf

A : R A : R A : R

ist reexiv, transitiv, und antisymmetrisch,

irreexive teilweise Ordnung auf quivalenzrelation auf

ist irreexiv und transitiv, ist reexiv, transitiv und symmetrisch.

Beispiel 6.2.2.
(etwa mit

Die teilweise reexive Ordnung auf

A ist eine Verallgemeinerungen der blichen -Beziehungen


d.h. d.h. d.h.

A = N): aa a A a b [b a a = b] a, b A a b b c a c a, b, c A
ist reexiv ist antisymmetrisch ist transitiv

Beispiel 6.2.3.
(etwa mit

Die teilweise irreexive Ordnung auf

A ist eine Verallgemeinerungen der blichen <-Beziehungen


d.h. d.h.

A = N): a < b b < c a < c a, b, c A a<ba=b a, b A


21

< <

ist transitiv, ist irreexiv.

Beispiel 6.2.4.

Es sei

M := {a, b}

und

A := P(M ).

Die Relation

R =,

oder ausfhrlich

R := {(X, Y ) A2 | X Y } ,
auf

ist eine reexive Halbordnung.

Ausgeschrieben sieht

so aus:

R = {(, ), (, {a}), (, {b}), (, {a, b}), ({a}, {a}), ({a}, {a, b}), ({b}, {b}), ({b}, {a, b}), ({a, b}, {a, b}), } . {a, b} y` y iii ii yy ii yy i yy y pp x` pp xx pp xx pp x p xxx

C
Dies kann man auch graphisch ber ein Pfeildiagramm veranschaulichen. Dabei steht jeweils

{a}

{b}

fr

R:

Abbildung 10:

Diagramm der Relation

Da insbesondere das bekannte Gleichheitszeichen fr eine Menge als Verallgemeinerungen des Gleichheitszeichens auassen.

von Zahlen die drei Eigenschaften

reexiv, symmetrisch und transitiv hat, also eine quivalenzrelation ist, kann man quivalenzrelationen

Auf jeder Menge

kann man stets die folgenden zwei trivialen quivalenzrelationen denieren:

R0 :={(a, a) | a A} , R1 :=A A

Denition 6.2.5.

Es sei

aA

und

eine quivalenzrelation auf

A.

Die Menge

[a]R := {b A | (a, b) R}
(oder kurz

[a]

geschrieben, wenn

klar ist) heit quivalenzklasse von

bezglich

R.

Beispiel 6.2.6.

Fr die beiden trivialen quivalenzrelationen gilt

[a]R0 = {a} , [a]R1 = A a A .

Satz 6.2.7.
(1)
aA

Es sei

eine quivalenzrelation auf einer Menge

A.

Dann gilt

[a]R = A, a, b A a, b A
ist ist

(2) Fr alle (3) Fr alle

[a]R = [b]R (a, b) R, [a]R [b]R = [a]R = [b]R .

Beweis: (1)   ist klar laut Denition 6.2.5.


(2)

aRa a A gilt a [a]R a A und somit die Behauptung. [a]R = [b]R , so ist wegen b [b]R auch b [a]R und somit (a, b) R. (2)   : Nun sei (a, b) R und c [b]R . Dann ist (b, c) R. Zusammen mit (a, b) R und der Transitivitt von R folgt (a, c) R, und damit c [a]R , d.h. [b]R [a]R . Da R symmetrisch ist, ist auch (b, a) R und man folgert vllig analog, dass [a]R [b]R ist, also insgesamt die
(1)   : Ist Gleichheit der beiden Mengen.

  Wegen

a, b A mit [a]R [b]R = und [a]R = [b]R . dann gibt es ein c aus dem Schnitt c gilt (a, c) R und (b, c) R bzw. (wegen der Symmetrie) (c, b) R. Dann folgt wegen der Transitivitt (a, b) R, was aber nach (2) [a]R = [b]R zur Folge hat, also einen Widerspruch
(3) Angenommen, es existieren von

[a]R

und

[b]R

und fr dieses

zur Annahme. 22

Denition 6.2.8.

Es sei

eine nichtleere Menge. Ein

P P(A) \ {} A=
XP

heit Partition von

A,

wenn gilt
(6.1)

X, Y P : X = Y X Y =

(6.2)

Oft ndet man fr Partitionen auch die abkrzende, an (6.1) angelehnte, Schreibweise mit einem Punkt ber dem Vereinigungszeichen als Hinweis auf (6.2):

A=
XP

(lies:

ist die disjunkte Vereinigung der Mengen

X P ).

6.3 Restklassen

Oft ist es sinnvoll, jeweils eine ganze quivalenzklasse als ein einziges Objekt zu betrachten und nur mit einem besonders einfachen Vertreter aus jeder quivalenzklasse zu arbeiten.

Dazu deniert man

Denition 6.3.1.

Es sei

eine quivalenzrelation auf einer Menge

A.

Die Menge

A/R := {[a]R | a A}
heit Faktormenge von

nach

R.

6.4 Abbildungen
Denition 6.4.1.
von Es seien

und

Mengen. Eine binre Relation

f AB

heit Abbildung oder Funktion

nach

B,

wenn gilt

(1) Fr jedes (2) Ist

aA

gibt es ein

bB

mit

(a, b) f ,

(a, b1 ) f

und

(a, b2 ) f

so ist

b1 = b2 . f.

Die Menge Fr

D(f ) := A

ist der so genannte Denitionsbereich der Abbildung im Fall einer Abbildung ein

zu jedem

(a, b) f schreibt man a A mindestens Schreibweise f (a) kann auch B

f (a) = b,

denn durch (1) wird garantiert, dass es

b B

mit

(a, b) f

gibt. Wegen (2) ist dies sogar eindeutig, d.h. die

keine Verwirrung stiften.

Die Menge

heit Bildbereich und

W (f ) := {b B | a A : (a, b) f }
der Wertebereich von

f.

Abbildung 11:

Abbildung

von

in

23

Denition 6.4.2.
ist.

Eine Funktion

heit injektiv, wenn aus

f (a1 ) = b

und

f (a2 ) = b

stets folgt, dass

a1 = a2

Abbildung 12: Denition 6.4.3.


Eine Funktion

Injektive Abbildung

heit surjektiv, wenn

W (f ) = {b B | a A : (a, b) f } = B
ist.

Abbildung 13: Denition 6.4.4.


Eine Funktion

Surjektive Abbildung

heit bijektiv, wenn sie injektiv und surjektiv ist.

Abbildung 14:

Bijektive Abbildung

Interpretiert man eine Abbildung gem ihrer ursprnglichen Denition als Menge von Tupeln, so nennt man diese auch den Graphen der Abbildung.

Handelt es sich um eine Abbildung

R R

oder von Teilmengen, so kann man diese Tupel in einem

entsprechend gewhlten kartesischen Koordinatensystem visualisieren.

Aus der Denition der Abbildung folgt, dass jeder Schnitt parallel zur dung hchstens einmal schneiden kann.

y -Achse

den Graphen einer Abbil-

Beispiel 6.4.5.
Die Abbildung

f:
ist weder injektiv, noch surjektiv. Der zugehrige Wertebereich ist

x x2 RR

W (f ) = R+ {0} = {x R | x 0}
24

Abbildung 15:
Graph von

Beispiel 6.4.6.
Die Abbildung

f:
ist bijektiv (also

x x3 RR

W (f ) = R).

Abbildung 16:
Graph von

Beispiel 6.4.7.
Die Abbildung

f:
ist surjektiv (also

x x3 x RR

W (f ) = R),

nicht aber injektiv oder bijektiv.

Abbildung 17:
Graph von

Beispiel 6.4.8.
Die Abbildung

f:
ist injektiv, nicht aber surjektiv, mit

x ex = exp(x) RR

W (f ) = R+ = {x R | x > 0}

Abbildung 18:
Graph von

Denition 6.4.9.

Ist

f :M N

eine Abbildung und

U M,

so heit

f (U ) := {f (x) | x U } N
die Bildmenge von

unter der Abbildung


gilt

f.

Insbesondere ist

f (M ) = W (f ).

Fr alle

M1 , M2 M

f (M1 M2 ) = f (M1 ) f (M2 ). ,


sondern nur

Es gilt dagegen nicht allgemein das Entsprechende fr

f (M1 M2 ) f (M1 ) f (M2 ).

Abbildung 19: Denition 6.4.10.


Fr zwei Abbildungen

Beispiel fr

f (M1 M2 )
und

f (M1 ) f (M2 )
heit

f :M N gf :

g:N R

m g(f (m)) M R g.
Man beachte die Reihenfolge der Ausfhrung von rechts

die Produktabbildung oder Komposition von nach links

und

g f (m) = g(f (m)),

d.h. erst

f,

dann

g!

Denition 6.4.11.

Eine bijektive Abbildung

f:

M N mn
25

kann man umkehren, d.h es gibt die so genannte inverse Abbildung

f 1 :

N M f (m) m

Es gilt

f 1 f = idM , f f 1 = idN .
wobei

id

die identische Abbildung auf der jeweiligen Menge bedeutet, also

idM (m) = m m M . f (m) = f (m)


fr alle

Ist die Abbildung

f :M N

injektiv, so ist

f : M f (M )

mit

mM

sogar

bijektiv und somit invertierbar, d.h. injektive Abbildungen kann man auf Ihrem Bild umkehren.

Denition 6.4.12.
ist die Abbildung

Die Einschrnkung oder Restriktion einer Abbildung

f :M N

auf eine Teilmenge

U M

f |U :

U N u f (u) P N.
Das Urbild von

Denition 6.4.13.
ist die Menge

Es sei

f :M N

eine Abbildung und

unter der Abbildung

f 1 (P ) := {m M | f (m) P } .
Man beachte, dass bei dieser Schreibweise das Symbol

f 1

verwendet wird, obwohl

nicht notwendig

bijektiv ist, also mglicherweise gar keine Umkehrabbildung besitzt. Der Unterschied wird durch die Schreibweise deutlich, etwa bei

f 1 (a)

und

f 1 ({a}).

Mit Hilfe bijektiver Abbildungen kann man jetzt noch genauere Aussagen ber die Mchtigkeit von Mengen machen:

Denition 6.4.14.
Bijektion

Eine Menge

hat die Mchtigkeit oder Kardinalitt

n N,

i.Z.

|N | = n,

wenn es eine

f : {1, . . . , n} N
gibt. Allgemeiner haben zwei beliebige Mengen

und

die gleiche Mchtigkeit, falls es eine Bijektion

f :M N
gibt.

26

7 Gruppen
7.1 Grundbegrie
Denition 7.1.1.
(1) (2) (3) Eine nichtleere Menge
2

zusammen mit einer Abbildung

: GG G

heit Gruppe, wenn

sie die folgenden Eigenschaften hat

a, b, c G : a (b c) = (a b) c e G a G : e a = a a G a G : a a = e (G, ),

Assoziativitt

Neutrales Element Inverses Element

Man schreibt oft

um diesen Zusammenhang zwischen Menge und Abbildung auszudrcken. Wenn

aus

dem Zusammenhang klar ist, spricht man aber auch einfach von der Gruppe man eine innere Verknpfung von G. (G, ) heit abelsch oder kommutativ, wenn (4) gilt

G.

Wegen

: GG G

nennt

a, b G : a b = b a

Kommutativitt

Beispiel 7.1.2. (Z, +) Beispiel 7.1.3. (Q, +) Beispiel 7.1.4.

ist eine abelsche Gruppe,

(N, +)

oder

(N0 , +)

dagegen nicht.

ist eine abelsche Gruppe, aber auch

Das Gleiche gilt auch bei den anderen bekannten Krpern, wie

(Q \ {0}, ). R oder C.

Mehr dazu im Abschnitt ber Krper.

Im endlichen Fall kann man die Wirkung einer inneren Verknpfung auf einer Menge mit Hilfe

einer Verknpfungstafel darstellen. So ist z.B. mit der Verknpfungstafel

({1, 1}, ) 1 1 1 1 1

eine endliche (multiplikative) kommutative Gruppe

1 1 1

Praktisch fr das Verstndnis von Verknpfungstafeln ist der folgende kleine Satz, der hier ohne Beweis angegeben wird:

Satz 7.1.5.
vorkommt.

Die Verknpfungstafel einer endlichen Menge mit einer assoziativen inneren Verknpfung ist genau

dann eine Gruppentafel, wenn in jeder Zeile und jeder Spalte der Tafel jedes Element der Menge hchstens einmal

Satz 7.1.6.

Es sei

(G, )

eine nicht notwendig abelsche Gruppe. Dann gilt:

(1) Fr jedes neutrale Element


Element.

eG
e

gilt

a e = a a G,

d.h. jedes linksneutrale Element

ist auch rechtsneutral. Deshalb spricht man auch einfach von einem neutralen

(2) Aus

a a=e

folgt jeweils auch

a a = e,
ist auch rechtsinvers. Deshalb spricht man auch einfach von einem inversen

d.h. jedes linksinverse Element Element.

(3) Es gibt genau ein neutrales Element Bereits aus (4) Zu jedem
meist

e G.
fr ein

xa=a

oder

ax=a

aG

folgt

x = e.
a,

aG

gibt es genau ein inverses Element

a G.
sonst

Deshalb ist es mglich, diesem Inversen ein eigenes Symbol zu geben: in additiven Gruppen schreibt man

a1 .

Die Beweise kann man fast in jedem Buch ber Algebra oder Lineare Algebra nachlesen oder als einfache bung selber machen. Hier wird nur als Beispiel fr die Vorgehensweise Punkt (2) des Satzes bewiesen. ber den Gleichheitszeichen werden die Nummern der verwendeten Axiome vermerkt.

2 Das

Symbol

ist hier beliebig gewhlt und hat nicht unbedingt etwas mit der Komposition von Abbildungen zu tun

27

Beweis: Nach (3) gibt es zu jedem


Axiom ein

aG
(2)

ein

a G
(3)

mit

a a = e.

Zu diesem

a G

gibt es nach dem gleichen

a G

mit

a a = e.

Damit gilt nun

a a = e (a a ) = (a a ) (a a ) =
(1)

= a (a a) a = a e a = a (e a ) = =a a =e
(3)

(3)

(2)

Fasst man die ursprngliche Denition der Gruppe und den soeben zitierten Satz zusammen, so erhlt man:

Satz 7.1.7.
(1) (2) (3)
26.10.10

Eine Menge

zusammen mit einer Abbildung

:GGG

ist genau dann eine Gruppe, wenn

sie die folgenden Eigenschaften hat

a, b, c G : a (b c) = (a b) c 1 e G a G : e a = a e = a a G 1 a
1

Assoziativitt Neutrales Element


1

G : a

a=aa

=e

Inverses Element

Die Tatsache, dass sich das neutrale Element und das Inverse jeweils so schn abelsch verhalten, darf aber nicht dazu verleiten, das fr alle Element anzunehmen. Bei nicht-abelschen Gruppen gilt immer noch

ab=ba

fr die meisten

a, b G.

Fr das Rechnen in Gruppen sind die folgenden Regeln ntzlich:

Satz 7.1.8.
(1) (2) (3) (4)

Es sei

(G, )

eine nicht notwendig abelsche Gruppe. Dann gilt:

a G :

1 1

= a.
1

a, b G : (a b)

= b1 a1 .

a, b G 1 x G : x a = b. a, b G 1 y G : a y = b.
Die Beweise sind einfache bungen unter Verwendung der Gruppengesetze. So folgt etwa die erste Behauptung aus der Eindeutigkeit des inversen Elements:

a1

ist das Inverse von

a1 .

Von

a1

kennt man aber schon das Inverse

a,

also sind die beiden gleich.

Die Punkte (3) und (4) ermglichen das eindeutige Lsen von Gleichungen ber Gruppen.

7.2 Die Symmetrische Gruppe



Ist

eine Menge und

Verknpfung von

A(X) die Menge aller Abbildungen : X X , so ist die Komposition eine innere A(X). idX .
ist gerade so deniert:

Es gibt ein neutrales Element, nmlich Die Komposition

ist assoziativ. Dazu ist nichts zu zeigen, denn

(f (g h))(x) =f (g h)(x) = f (g(h(x))) =(f g)(h(x)) = ((f g) h)(x) x


Trotzdem ist Ist dagegen

(A(X), )

keine Gruppe, denn es sind ja nicht alle Abbildungen invertierbar!

eine Menge und

S(X)

die Menge aller bijektiven Abbildungen

: X X,

so ist

(S(X), )

nach 7.1.8(2) und dem soeben Gesagten eine Gruppe, denn jetzt sind ja alle Elemente invertierbar.

Denition 7.2.1.

Es sei

heit die Gruppe der Permutationen von Im wichtigen Spezialfall

S(X) die Menge aller bijektiven Abbildungen : X X . (S(X), ) X oder die symmetrische Gruppe von X . X = {1, 2, . . . , n} schreibt man statt S({1, 2, . . . , n}) krzer Sn . X
eine Menge und
28

Statt der blichen Schreibweise fr Relationen der

{(1, (1)), . . . , (n, (n))}

hat sich im Fall von Elementen

Sn

die folgende Schreibweise eingebrgert:

1 (1)

2 (2)

... ...

n (n)

Beispiel 7.2.2.

Mit Hilfe dieser Schreibweise kann man z.B. die Komposition von Abbildungen schnell berechnen

oder die Inverse sofort angeben:

1 2 1 2 1 2
Fr endliches

2 3 2 3 2 1

3 1

1 3 2 1 2 3
n k=1

2 1 3 3 3 1 k,

3 2 = =

, 1 3 1 1 2 2 2 3 3 1 3 2 ,

3 1 1 2 3 1 3 2 n! :=

X S3

ist

|S(X)| = |X|!

(mit

lies:  n Fakultt; Beweis mit Induktion.)

Beispiel 7.2.3.

In

lst man z.B.

1 2

2 3

3 1

y =

1 3

2 2

3 1

, (1 2 3) 3 1 2
1 2 2 1
von

indem man beidseitig von links (die Gruppe ist nicht abelsch!) mit dem Inversen multipliziert:

(1 2 3) 2 3 1

(s. 7.2.2)

1 3

2 1

3 2

1 2

2 3

3 1

y =

1 3

2 1

3 2

1 3

2 2

3 1

y =

3 3

7.3 Gruppen-Homomorphismen
Denition 7.3.1.
phismus, wenn gilt Eine Abbildung

f : G1 G2

von der Gruppe

(G1 , )

in die Gruppe

(G2 , )

heit Homomor-

a, b G1 : f (a b) = f (a) f (b) .
Ein surjektiver Homomorphismus heit Epimorphismus, ein injektiver Monomorphismus und ein bijektiver Isomorphismus. Ist

G1 = G2 ,
Es ist

so nennt man einen bijektiven Homomorphismus auch Automorphismus. fr jedes

Beispiel 7.3.2.
a, b Z
gilt

fn (x) := n x

nN

ein Monomorphismus von

(Z, +)

in sich, denn fr beliebige

fn (a + b) = n (a + b) = n a + n b = fn (a) + fn (b)
Homomorphismen, die wir hier erstmals fr Gruppen kennengelernt haben, sind ein wesentliches mathematisches Hilfsmittel. Ein Homomorphismus ist generell eine strukturerhaltende Abbildung. Neben Gruppen-Homomorphismen werden wir in diesem Kurs vor allem mit Vektorraum-Homomorphismen zu tun haben.

Denition 7.3.3. Beispiel 7.3.4. Satz 7.3.5.

Eine Permutation aus

Sn

heit Transposition, wenn sie zwei der Zahlen

1, . . . , n

vertauscht,

die anderen aber elementweise festhlt.

1 1

2 2

3 5

4 4

5 3

S5

ist eine Transposition.

Jede Permutation aus Sn lsst sich als Produkt (=Komposition) von Transpositionen schreiben. m Diese Transpositionen und ihre Anzahl m sind nicht eindeutig, wohl aber die Zahl (1) .
Statt eines Beweises wird hier nur ein Beispiel gegeben: 29

Beispiel 7.3.6.
1 3 2 2 3 4 4 1 = = 1 4 1 1 2 2 2 3 3 3 3 2 4 1 4 4 1 3 1 1 2 2 2 2 3 1 3 4 4 4 4 3 1 2 2 1 3 3 4 4
also

1 1

2 4

3 3

4 2

d.h. es handelt sich um ein so genannte gerade Permutation mit


28.10.10

m = 2, 4, 6, . . . ,

(1)m = 1.

Denition 7.3.7.

Die folgende Abbildung heit Signum:

sgn :

Sn {1, 1}
i<j (j)(i) ji

Da

nen Zahlen von

eine bijektive Abbildung ist, stehen nicht nur im Nenner von sgn() die Dierenzen aller verschiede1 bis n (jeweils grere minus kleinere Zahl), sondern im Zhler stehen genau die gleichen sgn()
immer vollstndig zu

Dierenzen (diese allerdings durch Vertauschungen manchmal auch mit negativem Ergebnis). Deshalb ist klar, dass sich der auf den ersten Blick kompliziert aussehende Bruch fr oder

krzen lsst.

Denition 7.3.8.

Es seien

heit Fehlstand der Permutation

i, j, n N .

mit

1 i, j n, Sn .

Ein Tupel

(i, j)

mit

j >i

und

(j) < (i)

Man kann sich die Berechnung von

sgn()

deutlich vereinfachen, wenn man einfach die Fehlstnde von

zhlt, denn genau die fhren jeweils zu einer Vorzeichennderung bei

sgn():

Folgerung 7.3.9.
sgn() = (1)#
Fehlstnde von

Beispiel 7.3.10.

Fr die Permutation

=
ergibt sich durch Einsetzen in die Formel

1 4

2 1

3 5

4 2

5 3

sgn() =

(3 4)(3 1)(3 5)(3 2)(2 4)(2 1)(2 5)(5 4)(5 1)(1 4) = 1 (5 1)(5 2)(5 3)(5 4)(4 1)(4 2)(4 3)(3 1)(3 2)(2 1) (1, 5), (3, 5), (1, 4), (3, 4), (1, 2). sgn() = 1. n2
sogar surjektiv,

Die Fehlstnde dieser Permutation sind

Da die Anzahl dieser Fehlstnde ungerade ist, sieht man auch so:

Satz 7.3.11.

Die Abbildung

also Epimorphismus) von

sgn : Sn {1, 1} (Sn , ) auf ({1, 1}, ),

ist ein Gruppenhomomorphismus (fr d.h. es gilt

, Sn : sgn( ) = sgn() sgn() .


Beweis:

sgn( ) =
i<j

( )(j) ( )(i) = ji ( )(j) ( )(i) (j) (i) = (j) (i) ji ((j)) ((i)) (j) (i) = sgn() sgn() (j) (i) ji i<j
30

=
i<j

=
i<j

7.4 Untergruppen
Denition 7.4.1. Satz 7.4.2.
U
Eine nichtleere Teilmenge

U G

einer Gruppe

(G, ),

die auch mit der Verknpfung

eine

Gruppe bildet, heit Untergruppe von

G. U G
ist genau dann eine Untergruppe von

Eine nichtleere Teilmenge

(G, ),

wenn gilt

u v 1

u, v U .

u v 1 U ist, so folgt auch u u1 = e U . Setzt man in u v U fr u dieses neutrale Element e ein, so folgt v 1 U fr jedes v U . 1 Fr w U ist somit auch w U und deshalb auch u(w1 )1 = uw U , d.h. ist eine innere Verknpfung von U . Diese ist natrlich assoziativ, da sie auf ganz G assoziativ ist.
Beweis: Wenn allgemein 1

Wahlweise kann man fr diesen Untergruppentest auch zeigen:

u, v U u v U

und

u1 U . 1 1 2 2 2 3 3 1 3 3 1 2 1 3 2 3 2 1 3 1 3 2 1 3 2 1 3 2 e= 1 1 2 2 3 3
ist

Beispiel 7.4.3.
,
und

ist eine Untergruppe der

S3 ,

denn

1 2

sind invers zueinander und

das neutrale Element. Somit klappt der Untergruppentest.

Denition 7.4.4.

Es sei f : G1 G2 ein Homomorphismus von der Gruppe (G1 , ) in die Gruppe Das Urbild des neutralen Elements e2 G2 heit der Kern des Homomorphismus

(G2 , ).

Kern(f ) := f 1 ({e2 })

Satz 7.4.5.

Der Kern eines Homomorphismus

f : G1 G2 G1 .
Wegen

ist Untergruppe von

G1 .

Beweis: Es sei

e1 G1

das neutrale Element von

f (e1 ) = f (e1 e1 ) = f (e1 ) f (e1 ) f (e1 ) = e2


folgt Sind

e1 f 1 ({e2 }). 3 Der Kern von f ist also sicher nicht nun a, b Kern(f ), also f (a) = e2 = f (b), so folgt

leer.

f (a b) = f (a) f (b) = e2 e2 = e2 a b Kern(f )


Weiterhin folgt

e2 = f (e1 ) = f (a a1 ) = f (a) f (a1 ) = e2 f (a1 ) = f (a1 )


und somit gilt auch

a1 Kern(f ). Der Untergruppentest zeigt also, dass es sich um eine Untergruppe handelt.

3 Hier sieht man schon einen ersten Hinweis

auf die strukturerhaltende Eigenschaft eines Homomorphismus. Das neutrale Element

wird immer auf das neutrale Element abgebildet!

31

32

8 Ringe und Krper


8.1 Grundbegrie
Denition 8.1.1.
Eine Menge

mit zwei inneren Verknpfungen

+ : R R R, : R R R
heit Ring, falls gilt (1) (2) (3)

(R, +)

ist eine abelsche Gruppe Assoziativitt bzgl. und

a, b, c R : a (b c) = (a b) c
Strich

Distributivitt; mit Punkt vor

a, b, c R : a (b + c) = a b + a c

(a + b) c = a c + b c

(4) Wenn zustzlich gilt

1 R a R : 1 a = a
(5) Wenn zustzlich gilt

heit

Ring mit Einselement

a, b R : a b = b a

heit

kommutativer Ring

Beispiel 8.1.2. (Z, +, ) Beispiel 8.1.4. (Q, +, ) Satz 8.1.5.


(1) (2) Es sei

ist ein kommutativer Ring mit mit

1. 1.
Mehr dazu im Abschnitt ber Krper.

Beispiel 8.1.3. (nZ, +, )

n N>1

ist ein kommutativer Ring ohne

ist ein kommutativer Ring mit

1. R
oder

Das Gleiche gilt auch bei den anderen bekannten Krpern, wie

C.

ein Ring. Fr alle

a, b R

gilt

0a=a0=0 (a) b = a (b) = (a b)


(1) 0 a = (0 + 0) a = 0 a + 0 a 0 a = 0 a 0 = a (0 + 0) = a 0 + a 0 a 0 = 0 und analog fr

Beweis:

(2)

a 0 = a (b b) = a (b + (b)) = a b + a (b) (a b) = a (b)


Ein kommutativer Ring

(a) b.

Denition 8.1.6.

mit

1=0

heit Krper, wenn gilt:

k K \ {0} K : k = 1
Zusammen mit den Axiomen, die ein kommutativer Ring mit

schon erfllt, heit das, dass nicht nur

(K, +)

eine abelsche Gruppe ist, sondern auch

(K \ {0}, ). 1

Somit ist auch das zu jedem

k K \ {0}

geforderte multiplikative Inverse eindeutig.

Beispiel 8.1.7. (Z, +, ) Beispiel 8.1.8. (Q, +, )

ist kein Krper, denn nur und

und

sind multiplikativ invertierbar.

(R, +, )

sind Krper.

An der Stelle sollte man sich klarmachen, dass ein Krper genau das bietet, was man fr den GauAlgorithmus bentigt:

  

Mit den beiden Verknpfungen  + und   sind elementare Umformungen vom Typ (ii) und (iii) erst mglich. Beidseitige Multiplikation einer Gleichung mit einer Zahl denn dieses

K \ {0} ist eine quivalenzumformung,

ist invertierbar.

Insbesondere kann man eine Zeile mit dem Inversen des Pivotelements multiplizieren (bzw. durch dieses Element teilen), also ein Pivotelement

1
0

herstellen.

4 bzgl. + gibt es auf jeden Fall ein neutrales Element, 5 die Addition ist in jedem Fall kommutativ!

das mit

bezeichnet wird

33

8.2 Die komplexen Zahlen


Satz 8.2.1.
Der

R2

mit den beiden folgenden Verknpfungen ist ein Krper:

+
Beweis: Der
Krper ist.

: :

R2 R2 R2 ((a1 , a2 ), (b1 , b2 )) (a1 + b1 , a2 + b2 ) R2 R2 R2 ((a1 , a2 ), (b1 , b2 )) (a1 b1 a2 b2 , a1 b2 + a2 b1 ) R


ein

R2

ist oensichtlich nicht leer und beide Verknpfungen sind innere Verknpfungen weil

Die Addition geschieht einfach elementweise und ist deshalb klarerweise auch assoziativ. Das neutrale Element der Addition ist

(0, 0),

zu jedem

(a, b) R2

gibt es ein inverses Element

(a, b) = (a, b)

Auch die etwas ungewohnte Multiplikation ist assoziativ, was man mit etwas Schreibarbeit nachweisen kann:

(a1 , a2 ) ((b1 , b2 ) (c1 , c2 )) = ((a1 b1 c1 a1 b2 c2 a2 b1 c2 a2 b2 c1 , a1 b1 c2 + a1 b2 c1 + a2 b1 c1 a2 b2 c2 )) = ((a1 , a2 ) (b1 , b2 )) (c1 , c2 )


Wegen

(a1 , a2 ) , (b1 , b2 ) , (c1 , c2 ) R2

(a1 , a2 ) (b1 , b2 ) = (a1 b1 a2 b2 , a1 b2 + a2 b1 ) (b1 , b2 ) (a1 , a2 ) = (b1 a1 b2 a2 , b1 a2 + b2 a1 )


ist die Multiplikation auch kommutativ. Wegen

(a1 , a2 ) , (b1 , b2 ) R2

(a1 , a2 ) (1, 0) = (a1 , a2 ) (a1 , a2 ) R2


ist

(1, 0)

neutrales Element der Multiplikation.

Wegen

(a1 , a2 )
ist jedes von

a2 a1 , a2 + a2 a2 + a2 1 1 2 2 (a1 , a2 ) R2

= (1, 0) (a1 , a2 ) R2 \ {(0, 0)}

verschiedene Element

invertierbar mit dem inversen Element

(a1 , a2 )1 =

a1 a2 , a2 + a2 a2 + a2 1 1 2 2

Nachdem man auch das Distributivgesetz nachrechnen kann

(a1 , a2 ) ((b1 , b2 ) + (c1 , c2 )) = (a1 b1 + a1 c1 a2 b2 a2 c2 , a1 b2 + a1 c2 + a2 b1 + a2 c1 ) = (a1 , a2 ) (b1 , b2 ) + (a1 , a2 ) (c1 , c2 ) ,


sind somit alle Krpergesetze nachgeweisen.

(a1 , a2 ) , (b1 , b2 ) , (c1 , c2 ) R2

Der im letzten Satz eingefhrte Krper hat einige wichtige Eigenschaften und wird deshalb noch etwas genauer untersucht.

Wegen

(a1 , 0) (a1 , 0)

(b1 , 0) (b1 , 0)

= =

sieht man, dass es sich mit den

(a1 + b1 , 0) (a1 b1 , 0) Elementen (a, 0)


einfach

mit

aR

genauso rechnet, wie mit reellen Zahlen.

Man schreibt deshalb statt

(a, 0)

und rechnet wie mit einer reellen Zahl blich.

Insbesondere ist bei dieser Schreibweise der Multiplikation. Fr das Element lsbaren)

das neutrale Element der Addition und

das neutrale Element

(0, 1) R2 gilt (0, 1) (0, 1) = (1, 0) = 1 , 2 Gleichung x = 1.

d.h.

(0, 1)

ist eine Lsung der (in

R i

nicht

Dieses Krperelement bezeichnet man meist mit dem Buchstaben der Strom ist) und nennt es die imaginre Einheit. 34

(E-Techniker schreiben

j,

weil

schon

Damit schreibt man statt des Tupels Schreibweise so aus:

(a, b) R2

auch

a+ib

und obige Rechenregeln sehen in dieser

(a1 + i a2 ) + (b1 + i b2 ) = (a1 + b1 ) + i (a2 + b2 ) (a1 + i a2 ) (b1 + i b2 ) = (a1 b1 a2 b2 ) + i (a1 b2 + a2 b1 ) ,


d.h. man behandelt Potenz von

i wie eine Unbestimmte, nutzt aber die Eigenschaft i2 = 1 aus, wenn mal eine grere

bentigt wird.

Denition 8.2.2.
heit Krper der komplexen Zahlen. Fr

C := {a + ib | a, b R , i2 = 1}

z = a+ib C heit Re(z) := a der Realteil von z und Im(z) := b der Imaginrteil z . Skizziert man komplexe Zahlen als Vektoren bzw. Punkte (a, b) in einem kartesischen Koordinatensystem, so nennt 2 man R Gausche Zahlenebene. Die Lnge eines Vektors in der Gauschen Zahlenebene heit Betrag der komplexen Zahl,
von i.Z.

|z| = |a + ib| = |(a, b)| =


Mit Polarkoordinaten

a2 + b2 .

(r, )

von

(a, b)

in der Zahlenebene gilt

z = a + ib = r(cos() + i sin()) = r cos() + ir sin() mit r := |z| .


Das Argument von zu

z , arg(z) := , z = (a, b) (0 < 2 !).

ist der von der positiven reellen Achse entgegen dem Uhrzeigersinn gemessene Winkel

Satz 8.2.3.

Die Abbildung

k:

CC a + ib a ib z1 , z2 C:

ist ein Krperautomorphismus, also bijektiv und es gilt fr alle

k(z1 + z2 ) = k(z1 ) + k(z2 )


Beweis: Einfache bung.

k(z1 z2 ) = k(z1 ) k(z2 )

Denition 8.2.4. k(a + ib) = a ib


Man schreibt blicherweise

heit das konjugiert Komplexe von statt

a + ib.

a + ib = a ib

k(a + ib).

In der Gauschen Zahlenebene entspricht die Konjugation einer Spiegelung an der reellen Achse. Obige Rechenregeln lauten umgeschrieben und noch erweitert auf die Inversen: 35

Folgerung 8.2.5.
z1 + z2 z1 z2 = z1 + z2 = z1 z2 , z1 z2 z1 , z2 = z1 z2 z1 = z2 , , z zz = z = |z|
2

Besonders ntzlich fr das Rechnen mit Potenzen komplexer Zahlen ist der folgende Satz, der hier ohne Beweis (kommt sicher irgendwann in der Analysis) mitgeteilt wird:

Satz 8.2.6.
2.11.10

Formel von de Moivre:

n N :

(cos() + i sin())n = cos(n) + i sin(n)

Interessant ist die geometrische Deutung der Multiplikation: Sind

und

komplexe Zahlen mit den Polarformen

z = r (cos() + i sin()) z = r (cos( ) + i sin( )) ,


so folgt mit Hilfe der Additionstheoreme

sin( + ) = cos() sin( ) + sin() cos( ) cos( + ) = cos() cos( ) sin() sin( ) ,
und damit

z z = r r (cos( + ) + i sin( + )) z
bewirkt in der Gauschen Zahlenebene eine Drehstreckung (Lnge mal

d.h. eine Multiplikation mit Winkel plus

r,

siehe auch das MatheVital-Applet dazu).

Satz 8.2.7.

Fr alle
z+z 2 zz 2i

z, w C

gilt:

Re(z) = Im(z) =

|w z| = |w| |z| |w + z| |w| + |z|


Beweis: Die ersten Dreiecksungleichung

Punkte sind eine einfache bung, der letzte Punkt wird bei der Besprechung der Norm

spter allgemeiner gezeigt.

Abbildung 20:

Algebraische Strukturen

36

9 Matrizenrechnung
9.1 Gleichheit, Addition, Vielfache, Transposition
Denition 9.1.1.
heien gleich, i.Z. Es sei

ein Krper. Zwei Matrizen

A = (aij )1im K mn
1jn bij fr 1 i

und

B = (bij ) 1ip K pq
1jq

A = B,
Es sei

wenn gilt

m = p, n = q

und

aij =

und

1 j n.

Denition 9.1.2.

ein Krper. Fr zwei Matrizen

A = (aij )1im , B = (bij )1im K mn


1jn 1jn

sei deren Summe

A + B := (aij + bij )1im K mn .


1jn

Denition 9.1.3.

Es sei

ein Krper. Fr eine Matrix

A = (aij )1im K mn
1jn

und einen Skalar

sei

A = (aij )1im := (aij )1im K mn .


1jn 1jn

Satz 9.1.4.

Es sei

ein Krper.

(K mn , +)

ist eine abelsche Gruppe.

Beweis: Die eingefhrte Matrizen-Addition ist einfach die elementweise Addition in


assoziative und abelsche Verknpfung.

K,

also sicher eine innere,

Die nur mit dem Nullelement des Krpers gefllte Nullmatrix und zu jedem

0 :=

(0)1im

ist das Nullelement von

(K mn , +)

A = (aij )1im K mn
1jn

gibt es das inverse

1jn Element A

= (aij )1im K mn .
1jn

Denition 9.1.5.

Es sei

ein Krper. Fr eine Matrix

A = (aij )1im K mn
1jn

ist

A := (aij ) 1in K nm
1jm

mit

aij = aji

fr

1in

Oft ndet man auch die

1 j m die so genannte t T Schreibweise A statt A.


und
t

Transponierte von

A.

Ausgeschrieben sieht das so aus

a11 a21 t A= am1

a12 a22 am2

... ...
. . .

...

a1n a11 a12 a2n = amn a1n


und

a21 a22 a2n

... ...
. . .

...

am1 am2 amn

Satz 9.1.6.
(1) (2) (3)
t

Es sei

ein Krper. Fr

A, B K mn

gilt

(A + B) = tA + tB , ( A) = tA, A = A.

t t

Beweis: Einfache bung

Denition 9.1.7.

Es sei

ein Krper. Ein

A K nn

mit

A=A

heit symmetrisch.

9.2 Einige besondere Matrizen

Die folgenden speziellen Matrizen werden immer wieder gebraucht und teilweise mit eigenen Namen versehen. Dabei sei jeweils

ein Krper. 37

Die Einheitsmatrix

1n

1 0 0 1 0 0 := . . . . . . 0 0

0 0 1
.. .

... ...
.. .. . .

0 0
.. .. . .

...

0 0 0 . K nn . . 0 1

lsst sich auch mit Hilfe des Kronecker-Symbols schreiben

ij :=

1 i=j : 0 i=j

1n = (ij ) 1in

1jn

Die Einsermatrizen

. . . Eij := i . . . . . .

0 ... 1

0
. . . . . . . . .

K mn

0
Obere Dreiecksmatrizen

0 ... ... ... ...


.. .

0 0 0 . . . 0 0 0
wobei

...

K nn . . . (aij ) 1in K nn
1jn
mit

fr einen beliebigen Skalar aus

steht. Formal kann man schreiben

aij = 0

fr

i > j. 0 0 0 0 0 0 . . . 0 0 0 ... ...


.. .

Echte obere Dreiecksmatrizen

...

K nn 0 (aij ) 1in K nn
1jn
mit

wobei

fr einen beliebigen Skalar aus

steht, oder

aij = 0

fr

i j.

Die Nullmatrix

0 0 O := 0 . . . 0 . . . K

0 0 0 0

0 0 0 0

... ... ...


.. .

...

0 0 0 K mn . . . 0 0 0 0 K nn 0

Untere Dreiecksmatrizen

0 0 0

... ...
.. .

...

wobei

fr einen beliebigen Skalar aus

steht, oder

(aij ) 1in K nn
1jn

mit

aij = 0

fr

i < j.

38

Echte untere Dreiecksmatrizen

0 . . . K

0 0 0 0 0

... ... ...


.. .

...

0 0 0 K nn . . . 0 (aij ) 1in K nn
1jn
mit

wobei

fr einen beliebigen Skalar aus

steht, oder

aij = 0

fr

i j.

9.3 Multiplikation
Denition 9.3.1.
Es sei

ein Krper. Fr

A = (aij )1im K mn , B = (bjk )1jn K np


1jn n 1kp

sei

A B := C = (cik )1im K mp
1kp

mit

cik :=
j=1

aij bjk .

Es wird also nach dem Schema Zeile

Spalte gerechnet:

a11

a12 ai2 am2

...
. . .

a1n

b11 b21 . . . bn1

... ... ...

b1k b2k ... bnk

... ... ...

b1p b2p . . . bnp

ai1 am1
Insbesondere gilt fr eine

...
. . .

...

ain amn
t

cik

n 1-Matrix x = a12 a22 ... ...


. . .

x1

...

xn

(bzw. einen Spaltenvektor aus

K n)

a11 a21 A x = am1 n

am2 . . .

a1n a11 x1 + + a1n xn x1 a2n . . . . = . . am1 x1 + + amn xn xn amn

a1j xj j=1 . . = . n amj xj


j=1

Damit ist nachtrglich auch die Schreibweise Ist

Ax = b

fr lineare Gleichungssysteme klar.

x = x1

...

xn

eine

1 n-Matrix

(=Zeilenvektor), so gilt

x B = x1 b11 + + xn bn1
n n

,..., xj bjp

x1 b1p + + xn bnp

=
j=1

xj bj1

,...,
j=1

Es sei speziell

x = ei = (ij )1jn (Kronecker-Symbol) einer der so genannten kanonischen Einheitsvektoren, d.h. ein Vektor mit 0 in allen Positionen und nur einer 1 an der i-ten Stelle.
liefert dann gerade die

A ei

i-te

Spalte von

A.
39

Entsprechend liefert Sind

(ei ) B

die

i-te

Zeile von

B.

z1 , . . . , zm K 1n

die Zeilen von

A,

so kann man damit schreiben

AB =

z1
. . .

z1 B

. B = . . . zm B zm

Sind

s1 , . . . , sp K n1

die Spalten von

B,

so kann man damit schreiben

A B = A s1

...

sp = A s1
und

...

A sp .
gilt:

Satz 9.3.2.
(1) (2) (3) (4) (5)

Fr

A, A1 , A2 K mn , K , B , B1 , B2 K np
(1. Distributivgesetz), (2. Distributivgesetz),

C K pq

(A1 + A2 ) B = A1 B + A2 B A (B1 + B2 ) = A B1 + A B2

(A B) = ( A) B = A ( B), (A B) C = A (B C)
t

(Assoziativgesetz),

(A B) = tB tA. K bewiesen. Hier wird (1) (2) A1 = (aij ), A2 = (aij ) und B = (bij ): (A1 + A2 ) B = (aij + aij ) (bij ) =
j=1 (1) (2) n (1) (2)

Beweis: All diese Gesetze werden durch Einsetzen in die Denition der Matrizenmultiplikation und Verwendung
der entsprechenden Rechengesetze im zugrunde liegenden Krper gesetz (1) als Beispiel gezeigt. Dazu seien nur das 1. Distributiv-

(aij + aij )bjk =

(1) (2) aij bjk + aij bjk =

j=1

n (1)

n (2)

aij bjk =

aij bjk +
j=1 j=1

(1) (aij )

(bij ) +

(2) (aij )

(bij ) =

= A1 B + A2 B

Speziell fr

K nn 0

sind

und

also innere, assoziative Verknpfungen.

Die Nullmatrix

und die Einheitsmatrix

1n sind neutrale Elemente der Addition und der Multiplikation.

Nach dem letzten Satz gelten die Distributivgesetze.

1 2

1 2

0 1

0 0

1 2

0 0

0 1

0 1

0 1

0 0

1 2

1 2

d.h. die Multiplikation ist nicht kommutativ.

1 2 1 2 1 1 1 1 = 0 0 0 0

d.h. das Matrizenprodukt ist nicht nullteilerfrei.

Satz 9.3.3. (K nn , +, )

ist ein nicht-kommutativer Ring mit Einselement.


40

9.4 Inverse Matrizen

Die Komposition von Abbildungen einer Menge neutralem Element

X in sich zwar eine innere, assoziative Verknpfung mit idX , die Menge A(X) all dieser Abbildungen ist aber blicherweise keine Gruppe, weil F
die Menge aller Abbildungen der Gestalt

nicht alle Abbildungen invertierbar sind (s. S.28)

Nun sei

X = Kn

und

fA :
mit einer festen

Kn Kn x Ax

(n n)-Matrix A K nn .

Mit den Rechenregeln fr das Matrizenprodukt folgt

fA fB (x) = fA (fB (x)) = fA (Bx) = A(Bx) = (AB)x ,


d.h. die Abbildung

fA fB

ist wieder in

F. F.

Die Hintereinanderausfhrung solcher Abbildungen wird gerade durch das Matrizenprodukt beschrieben. Wegen

idK n = f1n

liegt auch das neutrale Element in

Es sind nicht alle Abbildungen dieses Typs invertierbar (s. etwa das vorangegangene Beispiel mit den Nullteilern) Es ist also

(F, )

keine Gruppe.

Deshalb betrachtet man die Menge aller invertierbaren Abbildungen aus sition eine Gruppe

F.

Diese bildet mit der Kompo-

GL(n, K) := {fA | fA
die so genannte allgemeine lineare Gruppe (englisch:

ist invertierbar} ,

General Linear Group)


GL(n, K),
wenn es ein

Eine Abbildung

fA F

ist genau dann invertierbar, also in

B K nn

bzw. ein

fB F

mit

fA fB (x) = A(Bx) = (AB)x = x x K n fA fB = idK n A B = 1n


gibt. Die Matrix

heit die zu

inverse Matrix, i.Z.

B = A1 .

Da

fA

und

eineindeutig durcheinander festgelegt sind, kann man auch

GL(n, K) := {A K nn | A
schreiben.

ist invertierbar} ,

Statt invertierbar sagt man auch regulr, eine nicht invertierbare Matrix heit auch singulr.

Beispiel 9.4.1.

Es ist

1 0 1 0

1 1 1 1

GL(2, R), 1 0 1 1

denn

= 12

1 0

1 1

1 0

1 1

Beispiel 9.4.2.

Es ist

i 1 i 1

1 i 1 i

= , 1 2

1 2 i 1

i 1 1 i

1 i

also

GL(2, C) A, B GL(n, K)
und

Satz 9.4.3.

Es sei

ein Krper und

n N.

Fr beliebige
41

C, D K nn

gilt:

(1) (2) (3) (4) (5)

AA1 = A1 A = 1n , AC = 1n C = A1 , DA = 1n D = A1 , A1 (AB)
1 1

= A,

= B 1 A1 ,
hat die eindeutige Lsung

X, Y K np AX = Y GL(n, K)

X = A1 Y .

Beweis: Da

eine muliplikative nichtabelsche Gruppe ist, sind die hier aufgelisteten Eigenschaften Nur der letzte Punkt erweitert nicht zwingend quadratische Matrizen sind. von links Es ist durch Einsetzen klar, dass

direkte Folgerungen der Gruppendenition 7.1.1 und der Stze 7.1.6 und 7.1.8. 7.1.6(4) etwas, da

X, Y A
1

X = A1 Y

eine Lsung ist. Ist

Multiplikation mit

X K np eine weitere liefert dann X = X . n N.


Hat

Lsung, so ist

0 = AX AX = A(X X ). A
nicht

Satz 9.4.4.
invertierbar.

Es sei

ein Krper und

A K nn

eine Nullzeile oder -spalte, so ist

Beweis: Ist die i-te Spalte von


Nullspalte, also kann nicht Zeile von

A eine Nullspalte, so ist fr jede Matrix B K nn die i-te Spalte von BA eine BA = 1n ein. Entsprechend ist die j -te Zeile von AB eine Nullzeile, wenn die j -te A GL(n, K)
gibt es

verschwindet.

Fr eine invertierbare Matrix

A1 GL(n, K)

mit

A A1 = 1n . n
LGSe handelt:

Fasst man diese Matrizengleichung spaltenweise auf, so sieht man, dass es sich um

A (i-te
Wegen

Spalte von

A1 ) = i-te

Spalte von

1n = e i

fr

i = 1, . . . , n .

A GL(n, K)

sind diese

LGSe jeweils eindeutig lsbar.

Wegen der jeweils gleichen Koezientenmatrix dieser

LGSe kann man diese aber simultan lsen:

Rechenschema:

(A|1n )

(1n | B )
=A1

42

10 Vektorrume
10.1 Grundlagen
Denition 10.1.1.
Verknpfung in Es seien
4.11.10

und

V = eine Menge, und K ein Krper. Ferner seien + : V V V eine innere : K V V eine uere Verknpfung von V mit K . V heit ein K -Vektorraum (oder

linearer Raum), wenn gilt:

(V1 ) v + w = w + v v, w V . (V2 ) (v + w) + u = v + (w + u) v, w, u V . (V3 ) 0 V


mit

0 + v = v v V .
mit

(V4 ) v V v V

v + v = 0 ( = v). v

(V5 ) ( + ) v = v + v , K, v V . (V6 ) () v = ( v) , K, v V . (V7 ) (v + w) = v + w K, v, w V . (V8 ) 1 v = v v V .


Die Punkte

(V1 )-(V4 )

sind die bereits bekannten Axiome einer abelschen Gruppe

(V5 )-(V8 )

regeln, dass die Multiplikation mit Skalaren ordentlich mit der Addition in dieser Gruppe zu-

sammenwirkt.

Folgerung 10.1.2.
(VR1 ) (V, +) (VR2 )

Es sei

ein Krper und

und einer ueren Verknpfung

V = eine Menge mit einer inneren Verknpfung + : V V V : K V V . V heit ein K -Vektorraum, wenn gilt:

ist ein abelsche Gruppe.

Die Multiplikation mit Skalaren ist auf folgende Weise mit (a) (b) (c) (d)

(V, +)

vertrglich

( + ) v = v + v , K, v V . () v = ( v) , K, v V . (v + w) = v + w K, v, w V . 1 v = v v V .

10.2 Wichtige Beispiele


Beispiel 10.2.1. V = ({0}, +)
beliebigen Krper ist mit der Multiplikation mit Skalaren

k 0 := 0

fr alle

k K

fr jeden

ein Vektorraum, der so genannte nulldimensionale Vektorraum.

Beispiel 10.2.2.

Jeder Krper

ist auch ein

K -Vektorraum,

wenn man fr die Multiplikation mit Skalaren

einfach die Krpermultiplikation verwendet. Man spricht in diesem Zusammenhang auch von dem eindimensionalen arithmetischen

K -Vektorraum. K
ist das

Beispiel 10.2.3.

Fr jeden Krper

n-fache

kartesische Produkt

V = Kn

mit der Addition

(v1 , . . . , vn ) + (w1 , . . . , wn ) := (v1 + w1 , . . . , vn + wn )


und der Multiplikation mit Skalaren

k (v1 , . . . , vn ) := (kv1 , . . . , kvn )


ein

K -Vektorraum.

Man spricht in diesem Zusammenhang auch von dem

n-dimensionalen

arithmetischen

K-

Vektorraum. Dies ist eine Verallgemeinerung des vorhergehenden Beispiels.


43

Beispiel 10.2.4.

Ist

ein Krper,

eine beliebige nichtleere Menge und

V := K S = {f | S K} .
Dann ist

mit den Verknpfungen

(f + g)(s) : = f (s) + g(s) (kf )(s) : = k f (s)

f, g V, s S f V, k K, s S

ein

K -Vektorraum.
Vektorrume des Typs 10.2.4 spielen auch in der Analysis eine wichtige Rolle, etwa mit Statt ganz also

Beispiel 10.2.5.
K = S = R,

V = RR .

betrachtet man dort aber meist geeignete Teilmengen, etwa

{f : R R | f
(oft mit

ist stetig}

C(R, R)

bezeichnet, stetig=C ontinuous) oder

{f : R R | f

ist dierenzierbar} . also

Beispiel 10.2.6.

Ist

ein Krper und speziell

S = N0 ,

V := K N0 = {f | N0 K} ,
so kann man diese Abbildungen auch durch Angabe all ihrer Bilder eindeutig beschreiben, etwa in der Gestalt

(f (0), f (1), f (2), f (3), . . . ). Meist schreibt N Die Element von V := K 0 heien Folgen

man stattdessen ber

(a0 , a1 , a2 , a3 , . . . ) mit f (i) =: ai K fr i N0 . und bilden mit den in 10.2.4 eingefhrten Abbildungen einen

Vektorraum. In der Folgenschreibweise sehen die Verknpfungen dann so aus:

(a0 , a1 , a2 , . . . ) + (b0 , b1 , b2 , . . . ) = (a0 + b0 , a1 + b1 , a2 + b2 , . . . ) , k(a0 , a1 , a2 , a3 , . . . ) = (ka0 , ka1 , ka2 , ka3 , . . . ) k K, (a0 , a1 , a2 , . . . ), (b0 , b1 , b2 , . . . ) K N0 .

Beispiel 10.2.7.
(f (1), . . . , f (n)).
man

Ist

ein Krper und speziell

S = {1, 2, . . . , n} (a1 , . . . , an )
mit

mit

n N,

so kann man diese Abbildunfr

gen wie im letzten Beispiel wieder durch Angabe all ihrer Bilder eindeutig beschreiben, etwa in der Gestalt Schreibt man stattdessen wieder

f (i) =: ai K

i {1, 2, . . . , n},

so sieht

K {1,2,...,n} = K n ,
was nochmals zeigt, dass die Schreibweise

KS
ein

sehr passend ist.

Satz 10.2.8.
(1) (2) (3) (4)

Es sei

ein Krper und

K -Vektorraum.

Dann gilt:

0 v = 0 v V . 0 = 0 K. v = 0 = 0 v = 0 K , v V . () v = v = (v) K , v V .

Beweis: Einfache bung

Auch hier wurden nochmal zur Deutlichkeit die Vektoren fett geschrieben. Die gezeigten Rechenregeln zeigen aber, dass das nicht ntig ist. Selbst den Skalar

und den Nullvektor muss man nicht durch die Schreibweise unterscheiden, denn es

rechnet sich mit beiden ganz hnlich und aus dem Zusammenhang ist jeweils klar, was gemeint ist. Ab jetzt wird deshalb fr Vektoren keine besondere Schreibweise mehr verwendet.

Denition 10.2.9.

Es seien

ein Krper,

ein

K -Vektorraum

und

U V.

Die Menge

heit Untervek-

torraum (oder einfach Unterraum, Teilraum oder auch linearer Teilraum), falls gilt:
44

(U1 ) U = (U2 ) u1 , u2 U u1 + u2 U (U3 ) u U , K u U

Folgerung 10.2.10.
(U3 )
mit

Damit ist U (mit den gleichen Verknpfungen wie in V ) ebenfalls ein Vektorraum, denn = 1 garantiert u U und mit (U2 ) ist das gerade der Untergruppentest, d.h. (U, +) ist eine Untergruppe von (V, +). Wegen (U3 ) ist diese Untergruppe auch bzgl. der Multiplikation mit Skalaren abgeschlossen. Da die Regeln (VR2 ) in V gelten, gelten sie auch in U .

Beispiel 10.2.11.
U := {(x, 2x) R2 | x R} = R 1 2 R2 ,
denn

ist ein Untervektorraum (UVR) des 2-dimensionalen arithmetischen Vektorraumes

U = , 1 1 1 , 2 2 2 1 2 U 1 1 2 U 1 1 + 2 2 2 R . U
und

Geometrisch betrachtet, ist das eine Gerade durch den Ursprung.

Beispiel 10.2.12.

Die Analysis liefert mit Stzen wie Die Summe stetiger Funktionen ist wieder stetig die

Begrndung, dass die Teilmengen C(R, R) := {f : R R | f ist stetig} oder R von V = R (und viele hnliche Gebilde) Untervektorrume von V sind.

{f : R R | f

ist dierenzierbar}

Satz 10.2.13.
Beweis: Es sei

Der Durchschnitt beliebig vieler Unterrume eines Vektorraumes ist ein Unterraum.

eine Menge von Untervektorrumen eines Vektorraumes

und

D :=
U U
Da

U.
nicht leer. Fr fr jedes

in jedem Untervektorraum enthalten ist, ist

fr alle

U U.

Da

ka D

fr jedes

U ein k K.

Teilraum ist, ist auch

0 auch in D, also D a + b U und ka U

a, b D gilt auch a, b U k K , also auch a + b D und

Beispiel 10.2.14.

Die Vereinigung von Vektorrumen ist im Allgemeinen kein Vektorraum:

Abbildung 21:

Vereinigung von Vektorrumen

10.3 Erzeugendensysteme
Denition 10.3.1.
Es seien

ein Krper,

ein

K -Vektorraum, M V V
mit

und

U := {U | U

UVR von
45

M U}

die Menge der Unterrume von

V,

die

umfassen. Der von

aufgespannte oder erzeugte Unterraum (auch

lineare Hlle oder Spann genannt) ist deniert als

Lin (M ) :=
U U

U.

V = Lin (M ), so heit M span(M ) oder M .


Ist

ein Erzeugendensystem von

V . Statt Lin (M ) ndet man oft auch die Schreibweisen

Nach 10.2.13 ist

Lin (M )

fr jedes

M V

ein Teilraum. der kleinste

Direkt aus der Denition folgt, dass

Lin (M )

umfassende Teilraum von

ist.

Die Denition eines Erzeugendensystems hat zwar viele Vorteile, ist aber nicht sonderlich geeignet, wenn man die Elemente aus

Lin (M )

direkt angeben mchte. Hierzu ist der folgende Begri ntzlich:

Denition 10.3.2.
und

Es seien K ein Krper und v1 , . . . , vn V endlich viele Vektoren eines K -Vektorraumes V n M V eine nichtleere Teilmenge von V . Jeder Vektor v = i=1 ci vi mit ci K heit Linearkombination von v1 , . . . , vn . Ein Vektor v heit Linearkombination der Menge M , wenn er Linearkombination von endlich vielen Vektoren v1 , . . . , vn M ist.

Satz 10.3.3.
von

Es sei

M V

eine nichtleere Teilmenge von

und

die Menge aller Linearkombinationen

M.

Dann gilt

Lin (M ) = M .
Beweis:

ist ein Unterraum von

V,

denn

M M =
Mit Mit Da

v, w M v M

ist auch

v + w M ,
ist auch

denn

und

sind Linearkombinationen, also ist auch

v+w

eine.

und

kK

kv M .

M M und Lin (M ) der kleinste M umfassende Teilraum von V ist, folgt Lin (M ) M . Andrerseits enthlt Lin (M ) als Vektorraum insbesondere alle Linearkombinationen von Vektoren aus M und somit auch M , d.h. M Lin (M ), d.h. M = Lin (M ).

Denition 10.3.4.

Es seien

ein Krper,

ein

K -Vektorraum U
U U

und

eine Menge von Teilrumen von

V.

Der Summenraum von

ist

U := Lin
U U

. U1 + + Un .

Ist

U = {U1 , . . . , Un },
In

so schreibt man den Summenraum auch in der Form seien

Beispiel 10.3.5.
Dann gilt

1 0 1 0 ,v= i ,w= 1 . 0 i 1 Lin (u) + Lin (v) + Lin (w) = Lin (u, v), denn u iv = w. C3 u=

Satz 10.3.6.

Es seien K ein Krper, V ein K -Vektorraum und U = {U1 , . . . , Un } eine Menge von (paarweise verschiedenen) Teilrumen von V . Der Summenraum U1 + U2 + + Un besteht genau aus den Vektoren v V , n die sich in der Form v = i=1 ui mit ui Ui schreiben lassen. Beweis: Da
gibt

M := u1 , . . . , um

U = , lsst sich jedes v U und d1 , . . . , dm K mit U U


U U

U U

als Linearkombination von

darstellen, d.h. es

v = d1 u1 + + dm um .
Diese Vektoren kann man so nummerieren, dass die ersten in sind. einem einzigen
8.11.10

U1 ,

die nchsten in

U2

usw. und die letzten in

Un

Da dies alles Untervektorrume sind, kann man aber diese Grppchen auch jeweils zusammenfassen zu

u1 U1 , u2 U2

usw. bis

un Un .

Dies zeigt die eine Hlfte der Behauptung, die andere ist

eh klar.

46

10.4 Basen
Beispiel 10.4.1. v1 := (3, 0) , v2 := (0, 2) , v3 := (2, 3) ,
des ist ein Erzeugendensystem von

R2

denn jeder Vektor

kann als Linearkombination dieser Vektoren dargestellt werden, etwa

(x, y) =
Diese Darstellung ist aber nicht eindeutig:

x 3

4 v1 +

y 2

9 v2 + 6v3

w := (1, 0) w = 1 v1 3
kombination von

oder

w = 1 v3 3 v2 . 2 4

Man versteht das Problem besser, wenn man sich klar macht, dass sich der Nullvektor als nichttriviale Linear-

v1 , v2 , v3

darstellen lsst:
1 w = 1 v 1 = 1 v3 3 v2 3 v1 + 3 v2 1 v3 = 0 3 2 4 4 2

Denition 10.4.2.

Es seien

ein Krper und

ein beliebiger

K -Vektorraum. Vektoren v1 , . . . , vn V

heien

linear unabhngig, wenn der Nullvektor nur die so genannte triviale Linearkombination

0 = 0 v1 + + 0 vn
n

zulsst, d.h. wenn aus

ci vi mit ci K zwingend c1 = c2 = = cn = 0 folgt. i=1 Gibt es dagegen auch nichttriviale Linearkombinationen der 0, so heien v1 , . . . , vn linear abhngig. 0=
Eine Teilmenge

M V

heit linear unabhngig, wenn je endlich viele(!) verschiedene Vektoren aus

linear

unabhngig sind, sonst linear abhngig.

Beispiel 10.4.3.

In 10.4.1 wurde gezeigt, dass

{v1 , v2 , v3 } linear abhngig sind, denn es gibt z.B die nichttriviale

Linearkombination

4v1 + 9v2 6v3 = 0


der

0.

Dagegen ist

{v1 , v2 }

linear unabhngig, denn

c1 v1 + c2 v2 = (3c1 , 2c2 ) = (0, 0) c1 = c2 = 0


Entsprechend sind

{v1 , v3 }, {v2 , v3 }, {v1 }, {v2 } 0

und

{v3 }

linear unabhngig.

Beispiel 10.4.4.

Im Sinne der Denition ist auch

eine linear unabhngige Menge, da mit ihr keine nicht-

triviale Linearkombination der

vi ci vi (leere Summe) setzt man blicherweise gleich dem Nullvektor. Da jeder Vektorraum den Nullvektor enthlt, gilt Lin () = {0}, d.h. auch fr

mglich ist. Die Linearkombination

die leere Menge gilt 10.3.3, das Erzeugnis der leeren Menge ist der nulldimensionalen Vektorraum

{0}.

Satz 10.4.5.

Es seien

ein Krper und

ein beliebiger

K -Vektorraum.

Dann gilt:

(1) Teilmengen linear unabhngiger Mengen in (2) Obermengen linear abhngiger Mengen in (3) Ein einzelner Vektor
Beweis: in der bung

sind linear unabhngig.

sind linear abhngig.

v V \ {0}

ist immer linear unabhngig.

Satz 10.4.6.
und

Es seien

bestehende Teilmenge Linearkombination

K ein Krper und V ein beliebiger K -Vektorraum. Eine aus mindestens zwei Vektoren M V ist genau dann linear abhngig, wenn ein Vektor m M existiert, der sich als von M \ {m} schreiben lsst, d.h. wenn es endlich viele ci K und vi M gibt mit vi = m
n

m=
i=1

ci vi . 1
bei

n n i=1 ci vi , so folgt 0 = i=1 ci vi m. Da dies wegen der Linearkombination ist, sind v1 , . . . , vn , m und somit M linear abhngig.

Beweis:  : Ist
 : 0= Ist

m=

eine nichttriviale mit

r i=1

M linear abhngig, so di vi . Somit kann man


Es seien

gibt es endlich viele nach

vr

ausen und erhlt

di K (nicht alle = 0, etwa dr = 0) und vi M r1 di m = vr = i=1 ci vi mit ci = dr . K -Vektorraum.


Eine Teilmenge

Denition 10.4.7.
Vektorraumes

ein Krper und

ein beliebiger

eines

K-

heit Basis von

V,

wenn gilt
47

(1) (2)

Lin (B) = V , B
ist linear unabhngig.

Beispiel 10.4.8. Nach 10.4.4 ist klar, dass eine Basis des nulldimensionalen Vektorraumes V = {0} ist. Beispiel 10.4.9. Fr jede Zahl k K \ {0} ist {k} eine Basis des eindimensionalen arithmetischen K Vektorraumes unabhngig.

K,

denn jedes

k K

k lsst sich als k -faches von

darstellen und

{k}

ist nach 10.4.5(3) linear

Beispiel 10.4.10.

Laut 10.4.3 sind {v1 , v2 , v3 } linear abhngig, also keine Basis {v1 , v2 }, {v1 , v3 }, {v2 , v3 }, {v1 }, {v2 } und {v3 } sind dagegen linear unabhngig. {v1 , v2 }, {v1 , v3 }
und und

des

R2 .

Die Mengen

Die drei zweielementigen Mengen 2 des R . Die einelementigen Mengen 2 nicht Basen des R .

{v2 , v3 }

erzeugen den ganzen

R2 ,

sind also Basen

{v1 }, {v2 }

{v3 } Kn

erzeugen dagegen nur echte Teilrume des

R2 ,

sind also

Beispiel 10.4.11.

Im arithmetischen Vektorraum

bilden die Vektoren

e1 : = (1, 0, 0, . . . , 0, 0, 0) e2 : = (0, 1, 0, . . . , 0, 0, 0)
. . .

en1 : = (0, 0, 0, . . . , 0, 1, 0) en : = (0, 0, 0, . . . , 0, 0, 1)


eine Basis, die so genannte kanonische Basis oder Standardbasis. Die Vektoren n Einheitsvektoren des K .

e1 , . . . , e n

heien kanonische

Satz 10.4.12.
(1)

Es seien

ein Krper,

ein

K -Vektorraum und B V . Die folgenden Aussagen sind paarweise

quivalent (Punkt (4) nur fr Vektorrume ungleich dem Nullraum):

ist eine Basis von

V.
Eine Basis ist ein linear unabhngiges Erzeugendensystem.

(2)

Lin (B) = V , B

aber fr jedes

gilt

Lin (C) = V .
Eine Basis ist ein minimales Erzeugendensystem.

(3)

ist linear unabhngig, aber fr jedes

ist

linear abhngig.

Eine Basis ist eine maximale linear unabhngige Menge.

(4) Jeder Vektor aus

kann auf genau eine Weise als Linearkombination von

dargestellt werden.

Basis ist Erzeugendensystem, das eindeutige Darstellung erlaubt.

V = {0}, d.h. es ist nur die quivalenz der Punkte (1)-(3) zu zeigen. V hat nur und sich selbst. Fr sind die Aussagen (1)-(3) wahr, fr V falsch. Dies zeigt die Behauptung. Nun sei also V = {0}. Statt der insgesamt 6 zu zeigenden quivalenzen, d.h. 12 Implikationen, kann man sich die
Beweis: Zuerst der einfache Fall
die Teilmengen Arbeit deutlich erleichtern, wenn man eine geeignete Teilmenge dieser Implikationen zeigt und die Transitivitt von   ausnutzt, etwa

(1) (4) (2) (3) (1)


Trotzdem ist das noch einiges an Arbeit. Ich zeige hier nur exemplarisch die erste Implikation die quivalente Aussage ber Lineare Algebra. Es gibt zwei mgliche Grnde fr (i) Nicht jeder Vektor ist keine Basis. (ii) Es lsst sich zwar jeder Vektor eindeutig, d.h. es gibt verschieden) mit

(1) (4)

bzw.

(4) (1).

Die anderen Beweise nden sich zum Nachlesen praktisch in jedem Buch nmlich

(4),

vV

lsst sich als Linearkombination von

darstellen. Das heit

Lin (B) = V ,

d.h.

ci , di K

mit

v V als Linearkombination von B darstellen, die Darstellung ist aber nicht ci = di fr mindestens ein i zwischen 1 und n und bi B (paarweise
n n

ci bi = v =
i=1
Daraus folgt aber sofort

di bi .
i=1

n i=1 (ci

di )bi = 0,

also die lineare Abhngigkeit von

B.

Dann ist

aber keine Basis.

48

10.5 Existenz

Jeder Vektorraum besitzt ein Erzeugendensystem (z.B. sich selbst). Die Frage, ob jeder Vektorraum auch eine Basis besitzt, ist aber keineswegs einfach zu beantworten. Die Antwort lautet  ja, zum Nachweis ist aber ein ziemliches mathematische Geschtz ntig, das so genannte Zornsche Lemma.
6

Die Beweisidee ist dabei aber ziemlich einfach:

  

Man startet von unten, d.h. von der linear unabhngigen Menge

und versucht diese durch Hin-

zunahme von Vektoren so zu erweitern, dass die neue Menge jeweils linear unabhngig bleibt. Bei diesem Prozess kommt man irgendwann bei einer Menge an, die selbst noch linear unabhngig ist, aber durch die Hinzunahme eines jeden beliebigen Vektors linear abhngig werden wrde (hierzu braucht man im unendlichen Fall das Zornsche Lemma). Nach 10.4.12(3) ist solch eine maximale linear unabhngige Menge eine Basis des betrachteten Vektorraums.

Denition 10.5.1.
mit

Es seien

ein Krper und

ein

K -Vektorraum. Besitzt V

eine endliche Teilmenge

EV

Lin (E) = V ,

so heit

endlichdimensional, sonst unendlichdimensional.


endlichdimensional, so kann man die Existenz einer Basis auch wie folgt (ohne das

Ist ein Vektorraum

Zornsche Lemma) zeigen:

  

Man startet von oben, d.h. von dem endlichen Erzeugendensystem endlichdimensionalen Vektorraumes gibt. Ist Ist

E,

das es laut Denition des

linear unabhngig, hat man bereits eine Basis.

linear abhngig, so wirft man mit Hilfe von 10.4.6 unntige Vektoren aus

raus, bis man bei

einem minimalen Erzeugendensystem anlangt. Nach 10.4.12(2) ist solch ein minimales Erzeugendensystem dann eine Basis des betrachteten Vektorraums

Satz 10.5.2

(Basissatz)

Jeder Vektorraum besitzt eine Basis. Es seien

Satz 10.5.3 (Basisergnzungssatz).


Dann gibt es eine Basis

von

mit

K ein Krper, V ein K -Vektorraum und A V linear unabhngig. A B , d.h. A lsst sich zu einer Basis B von V ergnzen.

Beweis: Man geht prinzipiell wie bei dem Beweis mit dem Zornschen Lemma vor (s. S.49), startet aber nicht
mit

sondern mit der Menge

A.
Es seien

Satz 10.5.4 (Kleiner Austauschsatz).


Basis

ein Krper,

ein endlich erzeugter

K -Vektorraum

mit einer

B = {b1 , . . . , bn }.

Besitzt

bV

die (eindeutige) Darstellung

b = 1 b1 + 2 b2 + + n bn
mit man

1 , . . . , n K und j = 0 fr ein j zwischen 1 und n, so erhlt man eine andere Basis B von V , bj gegen dieses b austauscht, d.h. B := {b1 , . . . , bj1 , b, bj+1 , . . . , bn } ist auch eine Basis von V .

wenn

Beweis: Der Einfachheit halber werden die Basisvektoren so nummeriert, dass in


gilt Ist gilt

b = 1 b1 + 2 b2 + + n bn B,
so

1 = 0. nun v = 1 b1 + 2 b2 + + n bn
1 1 b

die Darstellung eines Vektors

vV

bezglich der gegebenen Basis

= 1 b1 +
1 1 b

1 b1 =
6 Das

1 2 1 n 1 b2 + + 1 bn 1 2 1 n 1 1 b2 1 bn = 1 b

n 1 i i=2 1 bi

Wort Lemma kommt aus dem Lateinischen (und das wiederum von dem griechischen Wort lambanein - nehmen)

und bedeutet alles, was man nimmt. In der Mathematik wird das meist fr einen Hilfssatz bei Beweisfhrungen benutzt. Im vorliegenden Fall ist das etwas untertrieben, denn es handelt sich um eines der Grundaxiome der Mengenlehre. Zusammen mit der Zermelo-Fraenkel-Mengenlehre kann man zeigen, dass dieses Lemma zu anderen wesentlichen Grundstzen, wie dem oder dem beiden anderen.

Auswahlaxiom Wohlordnungssatz beweisbar quivalent ist, d.h. man setzt jeweils einen dieser Stze als Axiom voraus und folgert die

49

Setzt man dies statt

1 b1

in die Basisdarstellung von

ein, so erhlt man

v = 1 b1 + 2 b2 + + n bn = =
d.h. jedes von

1 1 b

n 1 i i=2 1 bi

n i=2

i bi =

1 1 b

n i=2 (i

1 i 1 )bi

vV

lsst sich als Linearkombination von

B = {b, b2 , . . . , bn }

darstellen,

ist Erzeugendensystem

V. B
ist auch linear unabhngig, denn es gilt

Dieses

1 b + 2 b2 + + n bn = 0 1 1 b1 +
i=2
und daraus folgt wegen der linearen Unabhngigkeit von Wegen

(1 i + i )bi = 0

b1 = 0

und

1 = 0

liest man

1 = 0

und somit auch

B 1 1 = 0 und 1 i + i = 0 fr i = 2, . . . , n. i = 0 fr i = 2, . . . , n ab, d.h. B ist


endlich erzeugter so gilt

linear

unabhngig.

Satz 10.5.5 (Steinitzscher Austauschsatz).


mit einer Basis Permutation

B = {b1 , . . . , bn }. Sn , so dass V
ist.

Sind

Es seien K ein Krper und V ein a1 , . . . , ak V linear unabhngig,

K -Vektorraum

k n

und es gibt eine

B := {a1 , . . . , ak , b(k+1) , . . . , b(n) }


ebenfalls eine Basis von Beweis: Induktion nach
Nun sei also

k : Fr k = 1 ist die Aussage des Satzes gerade die Aussage des kleinen Austauschsatzes,

ist also bereits bewiesen.

k > 1 und wir gehen von der Induktionsvoraussetzung k 1 n und einer Basis B := {a1 , . . . , ak1 , b(k) , . . . , b(n) } aus, wobei Sn sei. Wre k 1 = n, so wre schon {a1 , . . . , ak1 } eine Basis von V , was aber nicht mglich ist, denn nach Voraussetzung ist {a1 , . . . , ak } linear unabhngig. Es ist also k 1 < n k n. Bezglich der Basis B von V besitzt ak V die eindeutige Darstellung
k1 n

ak =
i=1

i ai +
i=k

i b(i)

mit

1 , . . . , n K .
Null verschieden sein, denn sonst den zugehrigen Basisvektor

In dieser Darstellung muss mindestens einer der Koezienten ergbe sich ein Widerspruch zur linearen Unabhngigkeit von Ist nun etwa

k , . . . , n von {a1 , . . . , ak }.

b(

) der Basis

k n und = 0, so kann man nach dem kleinen Austauschsatz B gegen ak austauschen und erhlt so eine neue Basis. {a1 , . . . , ak1 , b(k) , . . . , b(
1) , ak , b( +1) , . . . , b(n) }

Um genau die gewnschte Form von

zu bekommen, vertauscht man noch die Position

und die Position

k,

d.h. man wendet noch die entsprechende Transposition

an. Dann ist

= .

Der Steinitzsche Austauschsatz gibt jetzt direkt Auskunft ber die Gre von Basen. Sind nmlich

B = {b1 , . . . , bn } und B = {a1 , . . . , ak } zwei Basen eines endlich erzeugten K -Vektorraumes B B


und der linear unabhngige Menge und der linear unabhngige Menge

V,

so folgt

 

mit der Basis mit der Basis

B : k n, B : n k.
sind gleichmchtig!

d.h. es gilt

k = n;

je zwei Basen eines endlich erzeugten

K -Vektorraumes V

Der Austauschsatz lsst sich (bei entsprechender Umformulierung) auf den Fall unendlicher Basen ausdehnen. Damit kann man dann auch zeigen, dass je zwei unendliche Basen die gleiche Kardinalitt besitzen. Dies ermglicht die folgende Denition 50

Denition 10.5.6.
{b1 , . . . , bn }.

Es seien

Dann heit

in 10.5.1 deniert, dass

K ein Krper und V ein endlich erzeugter K -Vektorraum mit einer Basis B = dim(V ) := |B| = n die Dimension von V . Ist V nicht endlich erzeugt, so wurde bereits er dann unendlichdimensional heit. In diesem Fall schreibt man dim(V ) = . dim({0}) = 0, dim(K n ) = n,
denn die Basis

Beispiel 10.5.7. Beispiel 10.5.8. Beispiel 10.5.9. Satz 10.5.10.


Unterraum (1)

Es ist Es ist Es ist

von

{0}

hat

Elemente. hat

denn die kanonische Basis

{e1 , . . . , en }

Elemente.
11.11.10

dim (C(R, R)) = ; K


ein Krper und

man kann nicht einmal eine Basis explizit angeben. ein endlich erzeugter

Es seien

K -Vektorraum,

also

dim(V ) < .

Fr jeden

von

gilt dann

dim(U ) dim(V ), dim(U ) = dim(V ),


so gilt

(2) Ist

U =V.

Beweis: (1) Ist


der von

zu einer Basis von

dim(U ) = n, so besitzt U eine Basis {b1 , . . . , bn }, die sich nach dem Basisergnzungssatz 10.5.3 V erweitern lsst. Somit ist die Kardinalitt der Basis (=Dimension) von V grer oder gleich {b1 , . . . , bn } U, V
von

U. V
erweitern lsst. Ist nun aber auch

(2) Wieder geht man von einer Basis einer Basis von ist auch schon eine Basis von

U aus, die sich nach dem Basisergnzungssatz 10.5.3 zu dim(V ) = n, so ist da nichts mehr zu tun, d.h. {b1 , . . . , bn } xV B V

V.

Wenn

eine gleiche Basis besitzen, sind sie natrlich gleich. bezglich einer Basis eine Basis von von eindeutig.

Nach 10.4.12(4) ist die Darstellung eines jeden Vektors Ist insbesondere

endlichdimensional und

B = {b1 , . . . , bn } i bi
mit

V,

so kann man jedes

vV

darstellen in der Form

v=
i=1

1 , . . . , n K . vV
eindeutig festgelegt durch das

Fr eine fest vereinbarte Reihenfolge der Basisvektoren ist also jedes zugehrige

n-Tupel (1 , . . . , n ) K n . B = (b1 , . . . , bn ) und spricht


und

Um die Reihenfolge der Basisvektoren deutlich zu machen, schreibt man auch von einer geordneten Basis von

V. V
ein endlichdimensionaler

Denition 10.5.11.

Es seien

ein Krper,
n

K -Vektorraum

B = (b1 , . . . , bn )

eine geordnete Basis von

V.

Ist

v=
i=1

i bi B,

mit

1 , . . . , n K

die eindeutige Darstellung eines

vV

bezglich

so heit

v/B :=
die Koordinatendarstellung von

. . . n

Kn

bezglich

B.
eine geordnete Basis

Whlt man sich in einem

n-dimensionalen K -Vektorraum

mit Koordinatenvektoren bzgl. dieser Basis, so rechnet es sich damit wie im

B K n!

und rechnet man dann

Mit dem Dimensionsbegri ist man nun in der Lage, den bisher schwammig eingefhrten Rang einer Matrix sauber zu denieren. Dazu betrachtet man eine beliebige Matrix

a11 a21 A= am1

a12 a22 am2


51

... ...
. . .

...

a1n a2n K mn , amn

Die Zeilenvektoren

z1 := a11
von

a12

...

a1n , . . . , zm := am1 A

am2

...

amn

erzeugen den so genannten Zeilenraum von

Z(A) := Lin (z1 , . . . , zm ) K n .


Die Spaltenvektoren

s1 :=
von

a11
. . .

a1n

. , . . . , sm := . . amn am1 A

erzeugen den so genannten Spaltenraum von

S(A) := Lin (s1 , . . . , sn ) K m .


Fhrt man nun eine der bekannten elementaren Zeilenumformungen

(i) Vertauschen zweier Zeilen (ii) Multiplikation einer Zeile mit einer Konstanten (iii) Addition des

K \ {0}

-fachen

einer Zeile,

beliebig, zu einer anderen.

an der Matrix aus, so bleiben die Zeilen der Matrix ein Erzeugendensystem des Zeilenraumes Typ (i) und (ii) ist das ohne Beweis klar, bei Typ (iii) eine leichte bungsaufgabe).

Z(A)

(bei

Somit kann man das Gau-Verfahren als bergang von dem ursprnglich gegebenen Erzeugendensystem des Zeilenraumes zu einer Basis des Zeilenraumes interpretieren, denn die Zeilenstufenform am Ende des Umformungsprozesses ist ein minimales Erzeugendensystem und somit eine Basis. Die lineare Unabhngigkeit der verbleibenden Zeilen sieht man auch direkt an den Pivotspalten.

Bisher war der Rang der Matrix

die Anzahl der Zeilen in einer Zeilenstufenform der Matrix

gewesen,

wobei eben nicht klar war, ob diese Zahl berhaupt eindeutig bestimmt ist.

Mit obiger berlegung kann man jetzt den Rang einer Matrix sauber denieren:

Denition 10.5.12.

Es seien

ein Krper und

A K mn .

Der Rang der Matrix

A,

i.Z.

Rang(A),

ist

Rang(A) := dim(Z(A)) .

Die gleichen berlegungen kann man natrlich auch fr den Spaltenraum anstellen. Die Anzahl der Spalten in der resultierenden Spaltenstufenform ist dann die Dimension des Spaltenraumes. Im Gegensatz zu dem gerade eingefhrten Zeilenrang der Matrix

ist diese Dimension der so genannte

Spaltenrang der Matrix

A.

Damit stellt sich die Frage, wie sich Zeilen- und Spaltenrang zueinander verhalten. Diese wird durch den folgenden Satz auf sehr einfache Weise beantwortet, denn die beiden Rnge sind immer gleich.

Satz 10.5.13.

Es seien

ein Krper und

A K mn .

Dann gilt

dim(Z(A)) = dim(S(A)) .
Beweis: Wird nachgetragen im Abschnitt ber lineare Abbildungen.
52

10.6 Ane Teilrume

Ist

ein

K -Vektorraum

und

W V

ein Untervektorraum von

V,

prft man leicht nach, dass

v w : v w W
eine quivalenzrelation auf

deniert.

Die quivalenzklasse genannt.

[v]

von

ist

[v] = v + W

und wird auch Nebenklasse des Untervektorraumes

W V

Im geometrischen Zusammenhang nennt man die Nebenklasse auch einen aner Raum:

[v]

eines Untervektorraumes

von

Denition 10.6.1.
es ein

Eine Teilmenge

eines

vV

und einen Untervektorraum

K -Vektorraumes V W V gibt, so dass

heit aner Unterraum oder Teilraum, falls

X = v + W := {u V | w W : u = v + w} .

Satz 10.6.2.

Es sei

X =v+W v X

aner Teilraum eines

K -Vektorraumes V .

Dann gilt:

(1) Fr jedes beliebige (2) Ist

gilt:

X = v + W.
von

v V und W V ein Untervektorraum v v W v v + W .

mit

X = v+W = v +W

, so gilt

W =W

und

Beweis:

(1) Wegen v X = v + W gibt es ein w W mit v = v + w v = v w . X v + W : Es sei x X = v + W . Dann gibt es ein w W mit x = v + w. Einsetzen von v = v w x = v w + w = v + (w w ) v + W .
W
Dann gibt es eine

liefert

X v + W : Es sei x v + W . x = v + w + w v + W.
W

wW

mit

x = v + w.

Einsetzen von

v = v+w

liefert

(2) X X W : Man betrachtet die Dierenz x x von zwei beliebigen Elementen x, x X = v + W . Dann gibt es w, w W mit x = v + w und x = v + w , d.h. es ist x x = (v + w) (v + w ) = w w W . Deniert
man

X X := {x x | x, x X} , X X W ist. X X W : Nimmt man anders herum ein w W , so sieht man sofort, dass w X X x = v + w X = v + W und x = v X = v + W . Dies zeigt die andere Inklusion, also
so ist damit gezeigt, dass ist: man nehme etwa

W = X X := {x x | x, x X} . W =W
Wegen : Macht man die gleiche berlegung nochmal mit

X = v +W

, so erhlt man vllig analog

W = X X , wW
mit
15.11.10

also zusammen

W =W

. insbesondere gilt

W = W gilt jetzt also X = v + W = v + W , v = v + w v v = w W .


Es sei von

v v + W,

also gibt es ein

Denition 10.6.3.
tervektorraum

ein aner Unterraum eines

D(X)

mit

X = v + D(X)

und

K -Vektorraumes V . Der eindeutig bestimmte Unv V heit der Dierenzraum, Richtungsraum oder

Tangentialraum von

X.

Man setzt

dim(X) := dim(D(X)) .

Denition 10.6.4.
heit Gerade.

Es sei

K K

ein Krper. Ein aner Teilraum

X X

der Dimension

1 2

eines

K -Vektorraumes V K -Vektorraumes V n1

Denition 10.6.5.
heit Ebene.

Es sei

ein Krper. Ein aner Teilraum

der Dimension

eines

Denition 10.6.6.
von

Es seien

ein Krper,

ein

heit Hyperebene, ein Teilraum der Dimension


Punkte sind also identisch mit den Vektoren!

K -Vektorraum. 0 Punkt7 .

Ein aner Teilraum

der Dimension

7 Diese

53

Aus der Theorie der linearen Gleichungssysteme folgt, dass man eine Hyperebene in einem

n-dimensionalen K -Vektorraum V als Lsung einer inhomogenen linearen Gleichung tax = a1 x1 + a2 x2 + + an xn = b n mit b K und a = (a1 , a2 , . . . , an ) K \ {0} beschreiben kann. n 1-dimensionalen
anen Teilraum beschreibt; eine Gerade im

Man beachte, dass diese Gleichung der Hyperebene immer einen

R3

bekommt man so z.B. nicht!

Denition 10.6.7.
heien

Es seien

ein Krper und

und

parallel, in Zeichen

, wenn

X , X zwei ane Unterrume eines K -Vektorraumes V . D(X) D(X ) D(X ) D(X) ist. W
und

Dann

Diese Denition ist mit Vorsicht zu genieen: falls die Vektorrume

verschiedene Dimension

haben geht nmlich die Transitivitt verloren und somit ist die Parallelitt keine quivalenzrelation mehr.

Abbildung 22:

Parallele ane Teilrume

54

11 Lineare und ane Abbildungen


11.1 Homomorphismen

momorphismen bekannt. Da ein Vektorraum insbesondere eine abelsche Gruppe ist, kann man all das zu Gruppenhomomorphismen Gesagte auch auf Vektorrume bertragen (lesen Sie nochmal nach!). Da Vektorrume aber wegen des zustzlichen skalaren Vielfachen noch eine Verknpfung mehr als Gruppen haben, mchte man Abbildungen untersuchen, die auch diese Struktur erhalten: Aus dem Kapitel ber Gruppen sind strukturerhaltenden Abbildungen unter dem Namen Gruppen-Ho-

Denition 11.1.1.

Es seien

ein Krper und

V, W

zwei
8

K -Vektorrume.

Eine Abbildung

f :V W

heit

linear oder Vektorraum-Homomorphismus, wenn gilt

(HOM1 ) f (v1 + v2 ) = f (v1 ) + f (v2 ) (HOM2 ) f (kv) = kf (v)


fr alle

fr alle und

v1 , v2 V ,

vV

k K. V
nach

Die Menge aller linearen Abbildungen von

wird mit

Hom(V, W )

bezeichnet.

Die folgenden Beispiele zeigen einige Standard-Homomorphismen und damit insbesondere auch die Existenz linearer Abbildungen.

Beispiel 11.1.2.
linear:

Es seien

ein Krper und

V, W f:

zwei

K -Vektorrume. .

Die so genannte Nullabbildung ist

V W v0

Beispiel 11.1.3.
R
in

Es sei

V = C (R, R)

der Vektorraum der unendlich oft dierenzierbaren Abbildungen

von

R.

Dann ist

:
eine lineare Abbildung.

V V d f dx f

Beispiel 11.1.4.
von

Es seien

und

in einen Krper

K,

also

T Mengen mit = S T . Weiterhin sei V der Vektorraum aller Abbildungen V = K T und analog W = K S . Weiterhin seien f V , also f : T K , und f |S : SK x f (x)

die Restriktion von

auf

S.

Dann ist

:
eine lineare Abbildung.

V W f f |S

Da es jetzt wieder um Abbildungen geht, spielen auch wieder die Begrie injektiv, surjektiv und bijektiv eine Rolle (wiederholen!):

Denition 11.1.5.
f :V W

Es seien

ein Krper und

V, W

zwei

K -Vektorrume.

Ein surjektiver Homomorphismus

heit Epimorphismus.

f : V W heit Monomorphismus. f : V W heit Isomorphismus. Ein Homomorphismus f : V V heit Endomorphismus. Ein Isomorphismus f : V V heit Automorphismus. Statt Hom(V, V ) schreibt man kurz End(V ).
Ein injektiver Homomorphismus Ein bijektiver Homomorphismus

Wie schon bei Gruppen, ist auch bei Vektorrumen der Kern eines Homomorphismus das Urbild des neutralen Elements:

8 Das

ist gerade die Denition eines Gruppenhomomorphismus!

55

Denition 11.1.6. Kern(f ) := f 1 ({0})

Bereits im Abschnitt ber Gruppen ist gezeigt worden, dass der Kern eine Untergruppe des Urbildes ist:

Satz 11.1.7.

Es seien

Untervektorraum von

K V.

ein Krper,

V, W

zwei

K -Vektorrume

und

f Hom(V, W ).

Dann ist

Kern(f )

ein

Beweis: Leichte bung (kleine Abwandlung des entsprechenden Beweises 7.4.5 fr Gruppen, jetzt mit dem
Untervektorraum-Test 10.2.9 statt mit dem Untergruppen-Test 7.4.2).

Satz 11.1.8.
f
ist injektiv

Es seien K ein Krper, V , W Kern(f ) = {0}.

zwei

K -Vektorrume

und

f Hom(V, W ).

Dann gilt:

Beweis: Wegen
ist

f (0) = 0 fr jeden Homomorphismus bzw. wegen der Untervektorraum-Eigenschaft von Kern(f )


in

0 Kern(f ). v=0 Kern(f ),


so ist

  Ist ein

f (0) = 0 = f (v),

was aber ein Widerspruch zur Injektivitt ist.

  Ist dagegen also

nicht injektiv, so gibt es zwei Vektoren d.h.

der Linearitt von

f : f (v) f (w) = f (v w) = 0, Kern(f ) = {0}.


Es sei

v = w V mit f (v) = f (w). Dann v w ist ein von 0 veschiedener Vektor

gilt aber wegen im Kern von

f,

Beispiel 11.1.9.

V = C (R, R)

(vgl. 11.1.3) und

V V d f dx f

End(V ) .

Wegen Kern(f ) = R = {0} ist f nicht injektiv (es sind genau die Konstanten, die die Ableitung 0 haben). Da man jedes Element von C (R, R) integrieren kann ( Analysis), besitzt jedes Element ein Urbild bzgl. x d (g(x) = 0 f (y) dy ist ein Urbild von dx g(x) = f (x)), d.h. ist surjektiv. Dies kann nur in unendlich groen Mengen passieren. Es wird noch gezeigt werden, dass sich die Aussage von endlichen Mengen auf endlichdimensionale Vektorrume erweitern lsst.

Satz 11.1.10.

Es seien

ein Krper,

m, n N

und

A K mn .

Dann ist

fA :

Kn Km v Av

Hom(K n , K m ) .

Beweis: Die Behauptung folgt direkt aus den Rechengesetzen fr Matrizen:

fA (k v) = A(k v) = k Av = k fA (v) fA (v + w) = A(v + w) = Av + Aw = fA (v) + fA (w)


Mit diesem Satz kennt man eigentlich schon alle linearen Abbildungen zwischen endlichdimensionalen Vektorrumen. Dies wird noch ausfhrlich hergeleitet werden.

Beispiel 11.1.11.
Abbildungsmatrix

Eine lineare Abbildung

fA

des arithmetischen Vektorraumes

R2

in sich ist etwa durch die

A=
gegeben. Ein Vektor

0 1

1 0

v2 abgebildet. v1 Aus der Schulmathematik wei man vielleicht noch, dass dieser Vektor die gleiche Lnge wie

v = ( v1 ) v2

wird durch diese Abbildung auf

hat und auf

orthogonal steht.
Deshalb handelt es sich um eine Drehung um 2 . Die Drehrichtung erkennt man, wenn man etwa das Bild fA (e1 ) = e2 betrachtet, d.h. es geht entgegen dem Uhrzeigersinn.

Wendet man fA zweimal hintereinander auf einen Vektor v an (also Drehung um bzw. Spiegelung am Ur2 sprung), so ist dies wieder eine lineare Abbildung mit der Abbildungsmatrix A , denn

fA (fA (v)) = fA (Av) = A(Av) = A2 v =


2 weshalb man oft auch fA statt fA fA schreibt. 4 Entsprechend ist fA die Identitt (Drehung um 2 ), bzw.

1 0

0 v = 12 v = v , 1
9

A4 = 1 2 .
gibt,

9 Man

nennt solche eine Abbildung

f,

zu der es ein

kN

mit

f k = id

idempotent.

56

Satz 11.1.12.
(1) (2) Ist

Es seien

ein Krper,

V, W

zwei

K -Vektorrume

und

Hom(V, W ).

Dann gilt

M V (Lin (M )) = Lin ((M )) U V ein Untervektorraum von V , so dim(U ) fr ein endlichdimensionales U .


ist

(U ) W

ein Untervektorraum von

mit

dim((U ))

Beweis: (1) Ist


Nun seien also

M = , so ist Lin (M ) = {0}, also (Lin (M )) = {0} und (M ) = , also auch Lin ((M )) = {0}. n M = und m1 , . . . , mn M . Dann gilt fr eine beliebige Linearkombination i=1 i mi von
n n

M:

i mi
i=1

=
i=1

i (mi ) ,

d.h. das Bild einer Linearkombination unter einer linearen Abbildung ist eine Linearkombination der Bilder. Liest man die Gleichung dagegen von rechts nach links, so sieht man dass auch jede Linearkombination von Bildern aus (2) Da

ein Bild einer Linearkombination aus

ist. Da bekanntlich die Menge aller Linearkombinationen und somit folgt mit Hilfe des bereits bewiesenen

einer Menge identisch mit dem Erzeugnis dieser Menge ist, folgt der erste Teil der Behauptung.

ein Untervektorraum von

ist, gilt

Lin (U ) = U

Teils des Satzes, dass

(U ) = (Lin (U )) = Lin ((U ))


ein Untervektorraum von

ist.

Zur Bestimmung der Dimension betrachtet man eine Basis

von

U.

Es ist

dim(U ) = |B|
Somit ist

und

(U ) = (Lin (B)) = Lin ((B)) . dim((U )) |(B)|,


denn

(B)

enthlt eine Basis von

(U ).

11.2 Rang und Defekt


Denition 11.2.1.
linearen Abbildung Es seien ist

ein Krper,

V, W

zwei

K -Vektorrume

und

f Hom(V, W ).

Das Bild der

Bild(f ) := f (V ) W
und ist nach dem vorhergehenden Satz ein Untervektorraum von Der Rang der linearen Abbildung

W .10

ist die Dimension ihres Bildraumes, in Zeichen

Rang(f ) := dim(Bild(f )) .

Betrachtet man die lineare Abbildung

fA :
mit einem aus allen

Kn Km v Av
gerade

A K mn , so folgt aus der Denition des Matrizenprodukts, dass der Bildraum von fA Linearkombinationen der Spalten von A besteht. Rang(fA ) = dim(Bild(fA )) = dim(S(A)) = Rang(A) .

Es gilt also

Der Rang einer Matrix berein.

und der Rang der von ihr vermittelten linearen Abbildung

fA

stimmen also

Da sich noch herausstellen wird, dass sich jede lineare Abbildung zwischen endlichdimensionalen Vektorrumen wie

fA

mit Hilfe eines Matrizenprodukts schreiben lsst, ist diese Erkenntnis von groer Tragweite.

Fr eine lineare Abbildung sogar allgemeiner:

ist bekanntlich

Kern(f ) := f 1 ({0})

ein Untervektorraum von

V.

Es gilt

Satz 11.2.2.

torraum. Dann ist

Es seien 1

K ein Krper, V , W zwei K -Vektorrume, f Hom(V, W ) (Y ) V ein Untervektorraum von V .

und

Y W

ein Untervek-

10 englisch: Im(f )

vom `image' - nicht mit dem Imaginrteil verwechseln!

57

Beweis: Es seien
Linearitt von

X := f 1 (Y )
auch

und

x, x1 , x2 X , k K .

Dann gilt

f (x1 ), f (x2 ) Y

und somit wegen der

f (x1 + x2 ) = f (x1 ) + f (x2 ) Y x1 + x2 X f (kx) = kf (x) Y kx X ,


d.h.

besteht den Untervektorraumtest (damit ist auch der Beweis, dass der Kern ein Untervektorraum ist,

nochmal allgemeiner wiederholt).

Denition 11.2.3.
f

Es seien

ein Krper,

V, W

zwei

K -Vektorrume

und

f Hom(V, W ).

Der Defekt von

ist die Dimension des Kerns, in Zeichen

Def(f ) := dim(Kern(f )) .

Satz 11.2.4.
gilt

Es seien

ein Krper,

V, W

zwei

K -Vektorrume, f Hom(V, W )

und

dim(V ) < .

Dann

Def(f ) + Rang(f ) = dim(V ) .


Beweis: Nach dem Basisergnzungssatz kann man eine Basis

B = {b1 , . . . , bn }

von

Kern(f )

zu einer Basis

B = B B von V Es gilt f (B ) = {0}

mit und

B = {b1 , . . . , bm }

ergnzen.

Lin (f (B )) = Lin (f (B)) = f (Lin (B)) = f (V ) .


Das dabei verwendete

f (B )

ist sogar linear unabhngig, denn

0=
i=1
heit

i f (bi ) = f
i=1

i bi

m i=1

i bi Kern(f )

und damit folgt

i bi =
i=1
Da Da

i bi
i=1 i=1

i bi
i=1

i bi = 0

B =B B f (B ) linear

eine Basis von

ist, folgt damit

unabhngig ist, und wegen

i = 0 fr i = 1, . . . , m (und i = 0 fr i = 1, . . . , n). Lin (f (B )) = f (V ), ist f (B ) eine Basis von f (V ) = Bild(f ).

Die

Behauptung kann man jetzt ablesen aus

Rang(f ) = dim(Bild(f )) = |B | = m , Def(f ) = dim(Kern(f )) = |B | = n , dim(V ) =|B| = |B B | = m + n .


Mit diesem Satz ist man nun in der Lage Satz 10.5.13 relativ kurz zu beweisen: Abbildung, so ist Spaltenrang(A)

18.11.10

Beweis: Ist f := fA : x Ax die durch A gegebene lineare dim(Bild(f )). Andererseits ist dim(Kern(f )) = nZeilenrang(A) Mit dem Dimensionssatz dim(Kern(f )) + dim(Bild(f )) = n und somit dim(Bild(f )) =Zeilenrang(A) =Spaltenrang(A).

= dim(S(A)) =

folgt nun aber

dim(Kern(f )) = n dim(Bild(f ))
eine Basis von

Satz 11.2.5.
(1) surjektiv (2) injektiv falls

Es seien ist

ein Krper,

und

zwei

K -Vektorrume

und

V.

Die Abbildung

f Hom(V, W )

Lin (f (B)) = W

dim(W )<

falls

Rang(f ) = dim(W ).
ist injektiv und

Kern(f ) = {0} Def(f ) = 0 f |B Rang(f ) = dim(V ). f |B


ist injektiv und

f (B)

linear unabhngig

dim(V )<

(3) bijektiv

f (B) W

ist eine Basis von

dim(V ),dim(W )<

falls

Rang(f ) = dim(V ) =

dim(W ).
58

Beweis: (1)

B = {bi | i N } f (B) = {f (bi ) | i N } Lin (f (B)) =


iM

11

und somit

i f (bi ) | i K , M N, M i bi | i K , M N, M
iM f surj.

endlich

=f

endlich

=f (V ) = W . Rang(f ) := dim f (V ) = dim W folgt Rang(f ) = dim W aus der Surjektivitt. Aus dim f (V ) = dim W folgt nur im endlichdimensionalen Fall f (V ) = W und damit die Surjektivitt von f (siehe 11.5.22); im -dimensionalen Fall stimmt das i.A. nicht! (2) wurde teilweise schon in 11.1.8 erledigt,
Wegen weitere Teile werden in den bungen gezeigt.

f surj.

Der im letzten Punkt festgestellte Sachverhalt, dass Vektorrume genau dann isomorph sind, wenn sie gleiche Dimension haben, gilt sogar im

-dimensionalen

Fall (es gibt eine Bijektion zwischen den Basen). 11.2.5(2)

Ist V = W endlichdimensional, so ist fr ein injektives f nach Rang(f ) = dim(W ) und somit nach 11.2.5(1) f surjektiv. Entsprechend folgt aus Es gilt also:

Kern(f ) = {0},

also nach 11.2.4

surjektiv, dass fr

V =W

endlichdimensional

auch injektiv ist.

Folgerung 11.2.6.
Dann gilt:

Es sei

ist injektiv

f ein Endomorphismus f ist surjektiv.

eines endlichdimensionalen Vektorraumes

V.

11.3 Matrixdarstellung

Ein

K -Vektorraum V

mit

m := dim(V ) <

lsst sich wie folgt mit dem arithmetischen

K -Vektorraum

gleicher Dimension in Verbindung bringen:

 

Es sei Es sei

B = (b1 , . . . , bm )

eine geordnete Basis von

V.

B :

K m V (x1 , . . . , xm )

x i bi
i=1

(also insbesondere

B (ej ) = bj ) .
ist ein Isomorphismus, d.h.

Das so denierte

und

Km

sind isomorph. ( bung 5.7).

Die folgenden Generalvoraussetzungen gelten fr den gesamten Abschnitt:

  

Es sei V ein (b1 , . . . , bm ). Es sei

endlichdimensionaler

K -Vektorraum K -Vektorraum

mit

m := dim(V ) n := dim(W )

und der geordneten Basis

B= C=

W ein (c1 , . . . , cn ).
Es sei

endlichdimensionaler

mit

und der geordneten Basis

f Hom(V, W ).

Es sei

:= 1 f B C
Da

bzw.

f = C 1 B
ebenfalls linear ( bung).

(und damit auch

1 C

bung),f und

linear sind, ist

11 Ist B

und somit die

vereinbart damit

bi := g(i). (bi )iN

Indexmenge N unendlich (mglicherweise sogar berabzhlbar), so whlt man ein geeignetes g V N und nennt man eine Familie in V und bi ein Element dieser Familie zum Index i.
59

Damit haben wir die folgende Situation:

Vy
B

GW G

Km

Als lineare Abbildung ist

Kn

1 C

durch die Bilder aller Basisvektoren einer geordneten Basis eindeutig festgelegt. E (m) = (e1 , . . . , em ) von K m und einen Vektor
m (m) (m) t

Nimmt man etwa die kanonische Basis

v1

v2 . . .

vm

m =1 t

ve

(m)

K m, vm

so gilt:

( v1

v2 . . .

) = (
=1

ve

(m)

)=
=1

v (e

(m)

),

Dies kann man auch in Matrixschreibweise notieren. Ist

A := ((e1 ), (e2 ), . . . , (e(m) )) m


die Matrix, deren Spalten die Bilder der Basisvektoren sind (geschrieben als Koordinatenvektoren bezglich der kanonischen Basis

(m)

(m)

v1
. . .

v1
. . .

E (n) .

des

K n ),

so gilt:

) = A

vm
Wegen

vm
bedeutet das also fr die ursprnglich betrachtete lineare Abbildung

f = C 1 B Hom(V, W ) und ein v V v=


m =1

f (v) = C 1 (v) . B
Ist nun

vb

die eindeutige Darstellung von

bezglich der Basis

B = (b1 , . . . , bm ) Km .

von

V,

so ist

1 (v) = 1 ( B B
=1

v b )=
=1

ve

(m)

v1

v2

...

vm

Somit ist nach dem oben Gesagten

1 (v) = ( B f

v1
. . .

v1
. . .

w1
. . .

) = A

=:

vm
Damit ergibt sich fr insgesamt

vm

wn

f (v) = C ( 1 (v) B

w1
. . .

) = C (

we
=1

(n)

)=
=1

w c =: w

wn
Fr kann man auch

lung des Vektors

v/B

schreiben, denn das ist die bereits frher eingefhrte Koordinatendarstel-

bezglich der Basis

B. w/C = A v/B

Damit sieht die ganze Rechnung so aus:

Die Matrix

sieht dabei mit der neuen Schreibweise so aus

A = (f (b1 )/C , f (b2 )/C , . . . , f (bm )/C ) ,


d.h. ihre Spalten sind die Bilder der Basisvektoren von der Basis von

(11.1)

V,

dargestellt als Koordinatenvektoren bezglich

W.
60

Denition 11.3.1.
bzw.

Die Matrix

A K nm

zu der linearen Abbildung

ist (fr festgelegte Basen

B, C

von

W ) eindeutig bestimmt. Man nennt B und C und schreibt A =: C [f ]B .

sie deshalb die Matrixdarstellung von

f Hom(V, W )

bzgl. der Basen

Diese Schreibweise ist in der Literatur nicht einheitlich: Einige andere Schreibweisen mit der gleichen Bedeutung sind etwa

M (f )B C

oder C M (f )B .

Die Schreibweise ist sehr einprgsam, was auf der folgenden Seite farblich unterstrichen wird.

V endlichdim. K -Vektorraum B = (b1 , . . . , bm )


geordnete Basis

f Hom(V , W ) K nm C [f ]B = (f (b1 )/C , . . . , (f (bm )/C )

W endlichdim. K -Vektorraum C = (c1 , . . . , cn )


geordnete Basis

v=
i=1

vi bi V

w=
j=1

w j cj W

f (v) = w w/C = C [f ]B v/B


Beispiel 11.3.2.
Es sei

R22 R h: x x12 11 x21 x22

x11 + x22

bung).

Eine mgliche Basis des

m = 4-dimensionalen R-Vektorraumes R22 B :=

ist etwa

(1 0), (0 1), (0 0), (0 0) 0 0 0 0 1 0 0 1


=b1 =b2 =b3 =b4

Eine mgliche Basis des

n = 1-dimensionalen R-Vektorraumes R C := 1
=c1

ist

Zum Aufstellen von C [h]B

R14

werden die Bilder der Basisvektoren gebraucht:

h(b1 ) = 1 , h(b2 ) = 0 , h(b3 ) = 0 , h(b4 ) = 1 .


Bezglich der Basis

sind das die Koordinaten-Vektoren

h(b1 )/C = (1) , h(b2 )/C = (0) , h(b3 )/C = (0) , h(b4 )/C = (1) .
Mit diesen Vektoren als Spalten ergibt sich
C [h]B

= 1

1 X

Mchte man nun also z.B. zuerst bezglich der Basis Wegen

h(X)

fr

X = (1 1) 1 1

mit Hilfe der Matrixdarstellung berechnen, so muss man

B darstellen. X = b1 + b2 + b3 + b4 gilt X/B =


1 1 1 1

und somit

y/C = C [h]B X/B = 1


1

1 1 1 1

= (2)

Damit ist

h(X) =
j=1

yj cj = y1 c1 = 2 1 = 2 = y ,
22.11.10

was man auch direkt aus der Abbildungsvorschrift abliest.

61

Beispiel 11.3.3.

Es sei

f:
Da die Ableitung linear ist, ist Schreibt man

R[z]2 R[z]2 d d2 p(z) 2 dz p(z) z dz2 p(z)

f linear. p R[z]2 aus als p = az 2 + bz + c mit a, b, c R, so ist f (p(z)) = 2az + 2b. Da es sich bei f um einen Endomorphismus handelt, nimmt man blicherweise die gleiche Basis und Bildbereich. Eine mgliche Basis des m = 3-dimensionalen R-Vektorraumes R[z]2 ist etwa B := z 2 , z , 1
=b1 =b2 =b3

fr Denitions-

Zum Aufstellen von B [f ]B

R33

werden die Bilder der Basisvektoren gebraucht:

f (b1 ) = 2z , f (b2 ) = 2 , f (b3 ) = 0 ,


Bezglich der Basis

sind das die Koordinaten-Vektoren

f (b1 )/B =
Mit diesen Vektoren als Spalten ergibt sich

0 2 0

, f (b2 )/B =

0 0 2

, f (b3 )/B =

0 0 0

0 [f ]B = 2 B 0
Mchte man nun also z.B.

0 0 2

0 0 0
berechnen, so muss man

f (q) fr q(z) = z 2 3z + 2 mit Hilfe der Matrixdarstellung q zuerst bezglich der Basis B darstellen. Wegen q = b1 3b2 + 2b3 gilt 1 q/B = 3 2 und somit 0 1 0 0 0 [f ]B q/B = 2 0 0 3 = 2 B 6 2 0 2 0
Damit ist
3

f (q) =
j=1

qj bj = 2z 6 .

Aus der Darstellungsmatrix B [f ]B von f kann man nun auch weitere Informationen ber f ablesen: Da oensichtlich Rang(B [f ]B ) = 2 ist, folgt Rang(f ) = dim(Bild(f )) = 2. Da die Bildpolynome von Grad

einen

haben, bedeutet das

Bild(f ) = R[z]1 . 0 0 0 Bild(f ) =S(B [f ]B ) = Lin 2 , 0 , 0 = 0 2 0 0 0 = Lin 1 , 0 = Lin (z, 1) = R[z]1 0 1

Dies folgt auch aus

Ebenfalls wegen Rang(B [f ]B ) = Rang(f ) ist weder injektiv noch surjektiv. Der

=2

folgt mit dem Dimensionssatz

Def(f ) = dim(Kern(f )) = 1,

d.h.

Kern(f )

ist die Lsung des homogenen LGS

0 [f ]B x = 0 2 B 0
62

0 0 2

0 0 x = 0 0

hier also

Kern(f ) = Lin (e3 ) = Lin (1) ndert man die Denition ab auf

= R.

f:
so erhlt man entsprechend

R[z]2 R[z]1 d d2 p(z) 2 dz p(z) z dz2 p(z) 2 0 0 2 0 0

f
C B

(wobei nun ist.

C = (z, 1)

eine Basis von

R[z]1

sei) und liest an dem vollen Rang

der Matrix ab, dass

f surjektiv

11.4 Basiswechsel

Ist

V =W

und betrachtet man einen Endomorphismus

auch nur eine Basis

von

whlen und schreibt dann einfach

f Hom(V , V ) = End(V ), [f ]B statt B [f ]B .

so wird man meist

Betrachtet man nun einen Endomorphismus Basen

f Hom(V , V ) = End(V ), T := B [id]B

aber doch zwei verschiedene

B = B,

so ist insbesondere

interessant.

Diese quadratische Transformationsmatrix lich der Basis

beschreibt die Umrechnung eines Koordinatenvektors bezg-

in einen Koordinatenvektor bezglich der Basis

B,

d.h. fr jedes

vV

gilt (11.2)

v/ = B [id]B v/B = T v/B . B


Betrachtet man nun also einen Endomorphismus einmal bezglich der Basis

f End(V )

einmal bezglich der Basis

von

und die beiden zugehrigen Abbildungsmatrizen

B von V und [f ]B und [f ]B , so

kann man zwischen diesen mit Hilfe geeigneter Transformationsmatrizen umrechnen:

Aus

w/ = [f ]B v/ = B [f ]B v/ B B B
wird durch Einsetzen von (11.2)

w/ = B [f ]B B [id]B v/B B
und durch nochmalige Transformation

w/B = B [id]B w/ = B [id]B B [f ]B B [id]B v/B B


=B [f ]B

(11.3)

Wegen

v/ = B [id]B v/B B
ist

bzw.

v/B = B [id]B v/ B

v V

T = B [id]B

invertierbar mit

T 1 = B [id]B . = B [id]B B [f ]B B [id]B = T 1 B [f ]B T N. Matrizen A, A K nn T 1 A T gibt.


(11.4)

Daraus liest man ab

B [f ]B

Denition 11.4.1.
invertierbares

Es seien K ein Krper und n K nn mit A = T AT 1 A =

heien hnlich, wenn es ein

Die Einsteinsche Summenkonvention ist eine Konvention zur Notation mathematischer Ausdrcke. Sie wird in der Tensorrechnung und insbesondere in der theoretischen Physik verwendet. Mit der Summenkonvention werden Summenzeichen zur Verbesserung der bersicht einfach weggelassen und stattdessen wird ber doppelt auftretende Indizes summiert: 63

Im einfachsten Fall der Summenkonvention gilt: ber doppelt auftretende Indizes innerhalb eines Produkts

wird summiert.
So ist z.B. fr Mit der

A = (aij ) K mn die i-te Zeile des Matrizenproduktes Ax bekanntlich (Ax)i = einfachen Summenkonvention knnte man kurz schreiben (Ax)i = aij xj .
n k=1

n j=1

aij xj .

Das ist natrlich fehleranfllig, da man wissen muss, von wo bis wo zu summieren ist. Bei z.B.

m i=1

ki k ij

knnte

ki k ij

gemeint sein.

In der Relativittstheorie gilt als zustzliche Regel: Summiert wird nur, wenn der Index sowohl als oberer

und als unterer Index auftritt.


In diesem Zusammenhang schreibt man dann etwa Ein Vektor

(Ax)i = ai xj . j
bzgl. einer Basis

x eines endlichdimensionalen K -Vektorraumes V x = x j bj


mit

B = (b1 , . . . , bn ) von V x=
n j=1

sieht

dann kurz so aus:

xj K

fr

j = 1, . . . , n

bzw.

x/B =

x1 . . . xn

statt bisher

x j bj .

Die Spalten von

T = (tij )1i,jn =
n

B [id]B sind laut (11.1) gerade die Vektoren

bj/ ,
B

d.h. man kann fr

j = 1, . . . , n

schreiben

bj =
i=1

tij i b

oder in Summennotation

bj = ti i . jb xi
von

Betrachtet man dagegen

xi

von

x/ B

x/ = B [id]B x/B x/ = T x/B B B


n

so folgt fr die Koordinaten

x/B

und

xi =
j=1

tij xj

oder in Summennotation

xi = t i xj . j ti j
hat,

Betrachtet man die umrandeten Gleichungen, so sieht man, dass man beide Male die gleichen

i einmal aber fr die Umrechnung B B , das andere Mal fr B B , d.h. die x entgegengesetzt=kontravariant zu den bj .

transformieren sich genau

Noch allgemeiner kann man einen Basiswechsel beschreiben, wenn man wieder von einer linearen Abbildung

f :V W
Dann gilt

ausgeht, jetzt aber zwischen zwei Basen

und

von

und

und

von

wechselt.

C [f ]B

= C [idW ]C C [f ]B B [idV ]B
von

bzw. mit den Transformationsmatrizen

T := C [idW ]C
C [f ]B

auf

und

S := B [idV ]B

von

auf

= T C [f ]B S 1 . N. Matrizen A, A K nm = T AS 1 gibt.
heien quivalent, wenn es

Denition 11.4.2. Beispiel 11.4.3.

Es seien

invertierbare Matrizen

K ein Krper und m, n K nn , S K mm mit A

Wie in 11.3.2 sei

R22 R h: x x12 11 x21 x22


Die Abbildungsmatrix bezglich der Basen Basen

x11 + x22

und

ist bereits aus 11.3.2 bekannt. Jetzt soll auf die beiden neuen von

B :=
und

(1 0), (1 1), (1 1), (1 1) 0 0 0 0 1 0 1 1


=1 b =2 b =3 b =4 b

R22

C :=
bergegangen werden.

2
=1 c

von

64

Wegen

1 = b1 , 2 = b1 + b2 , 3 = b1 + b2 + b3 b b b

4 = b1 + b2 + b3 + b4 gilt b 1 1 1 1 0 1 1 1 1 = B [id R22 ]B = S 0 0 1 1 0 0 0 1


und

Wegen

c1 = 2 = 2c1

gilt
1

C [id R ]C

= (2)

bzw.

T = C [id R ]C = (C [id R ]C )

1 =( ) 2

Damit hat man zusammen


C [h]B

=C [id W ]C C [h]B B [id V ]B = T C [h]B S 1 = 1 1 1 1 0 1 1 1 1 1 1 1 =( ) 1 0 0 1 0 0 1 1 = 2 2 2 1 2 0 0 0 1 X = (1 1) 1 1 X/ = B


nochmal bezglich der neuen Basen berechnen. Wegen
0 0 0 1 0 0 0 1

Damit kann man jetzt das Bild der Matrix

X = 4 b

ist

und somit

y/ = C [h]B X/ = C B
Damit ist
1

1 2

1 2

1 2

= (1) .

h(X) =
j=1

yj cj = y1 c1 = 1 2 = 2 = y

Beispiel 11.4.4.

Wie in 11.3.3 sei

f:
Die Abbildung

R[z]2 R[z]2 d2 d p(z) 2 dz p(z) z dz2 p(z)

soll nun allerdings bezglich der neuen Basis

=1 b =2 b =3 b

B := 4 , 2z , z 2

beschrieben werden. Wegen

1 = 4b3 , 2 = 2b2 , 3 = b1 b b b

gilt (vgl. (11.4))

id R[z]2

0 = 0 4

0 2 0

1 0 = T 1 . 0

Damit hat man zusammen

[f ]B =B [f ]B = B id R[z]2 =B id R[z]2 0 0 =0 1 0 2 2 0 1 0 0

[f ]B B id R[z]2 B = B B 1 B [f ]B B id R[z]2 B = T [f ]B B 1 0 0 0 0 0 1 0 4 0 2 00 0 4
65

2 0

T 1 = 1 0 0 = 0 0 1 0 0 0 0

11.5

Hom(V, W )
Es seien

und der Dualraum


K
ein Krper,

Satz 11.5.1.

und

zwei

und dem skalaren Vielfachen von Abbildungen selbst ein

K -Vektorrume. Hom(V, W ) ist mit der blichen Summe K -Vektorraum. Sind V , W endlichdimensional, so gilt

dim(Hom(V, W )) = dim(V ) dim(W ) .


Beweis: Sind

f, g Hom(V, W )

und

v, v1 , v2 V , k, k , c K ,

so setzt man, wie bei Abbildungen blich

(f + g)(v) := f (v) + g(v) , (kf )(v) := kf (v) .


Diese Abbildungen sind wieder lineare Abbildungen von

nach

W , also Elemente von Hom(V, W ). Dies ist viel B = (b1 , . . . , bm ) i = 1, . . . , m und j =

Schreibarbeit, aber nicht sonderlich schwer und wird in den bungen erledigt (5.6). Fr den Nachweis der Dimensionsformel im endlichdimensionalen Fall whlt man zwei Basen und

C = (c1 , . . . , cn ) von V und W und betrachtet die linearen Abbildungen fij 1, . . . , n, die wie folgt durch die Bilder der Basisvektoren eindeutig bestimmt sind: fij (bi ) := cj , fij (b ) := 0
Diese Abbildungen sind linear unabhngig: fr

mit

= i.

ij fij = 0
i=1 j=1 j=1 i=1 n

ij fij (bk ) = 0 1 k m kj cj = 0 1 k m
j=1
fr

kj = 0
Die

j = 1, . . . , n , k = 1, . . . , m .
so ist dieses

fij

erzeugen den ganzen Vektorraum: Ist nmlich

f Hom(V, W ),

bekanntlich durch die

Bilder der Basisvektoren eindeutig festgelegt. Fr geeignete Koezienten

kj K

kann man die Bilder der Basisvektoren schreiben als

f (bk ) =

n j=1

kj cj .

Nutzt man nun wie oben die Denition der

fij

aus, so ergibt sich:

f (bk ) = f =

kj cj =
j=1 m n j=1 i=1

ij fij (bk ) k = 1, . . . , m

ij fij ,
i=1 j=1

d.h.
25.11.10

ist eine Linearkombination der

Da es

nm

verschiedene Basisvektoren

fij . fij

sind, ist also

dim(Hom(V, W )) = n m. Hom(V, K)
heit der Dualraum

Denition 11.5.2.
von

Es seien K ein Krper und V ein K -Vektorraum. V := . Die Elemente von V heien Linearformen oder Lineare Funktionale.

Eine Linearform wurde bereits ausfhrlich in 11.3.2 untersucht. Ist

endlichdimensional, so betrachtet man nochmal die Basis aus dem Beweis von 11.5.1.

Zu zwei Basen

B = (b1 , . . . , bm )

von

und

C = (1)

von

werden die Linearformen

fi

mit

i = 1, . . . , m

durch die Bilder der Basisvektoren eindeutig bestimmt:

fi (bi ) := 1 , fi (bj ) := 0
Wegen dieser Eigenschaft schreibt man

fr

i=j.

bi

statt

fi :
66

Denition 11.5.3.
eine Basis von

Es seien

V.

Fr

K ein Krper, V ein endlichdimensionaler K -Vektorraum i = 1, . . . , n seien bi V mit 12


i bi (bj ) := j =

und

B = (b1 , . . . , bn )

1 0

fr

i=j

sonst

Satz 11.5.4. Es seien K ein Krper (b1 , . . . , bn ). Dann ist B := b1 , . . . , bn dim V = dim V , also V V . =

und

eine Basis von

ein endlichdimensionaler K -Vektorraum mit einer Basis B = V , die so genannte Dualbasis von B . Insbesondere gilt

Beweis: Der Beweis wurde bereits in 11.5.1 erbracht.

Da die Dualbasis naten nun

B := {b1 , . . . , bn } mit oberen Indizes geschrieben wurde, verwendet man fr die Koordin i i untere Indizes, also fr y V etwa y = i=1 yi b oder kurz y = yi b mit Summenkonvention. x = xj bj :

Mit linearer Fortsetzung von 11.5.3 folgt nun fr

i bi (x) = bi (xj bj ) = xj bi (bj ) = xj j = xi


oder ohne Summenkonvention fr

x=
n

n j=1

x j bj :
n n

bi (x) = bi (
j=1

x j bj ) =
j=1

xj bi (bj ) =
j=1

i xj j = xi

Vorsicht: Fr

dim V =

bilden die

bi

keine Basis von

V :

Die durch

f : bi 1

fr alle

Linearform lsst sich z.B. nicht als Linearkombination von deniert und erst recht keine Linearkombination)!

darstellen (die Summe aller

bi B gegebene b ist nicht

Ist

y V

und

B = (b1 , . . . , bn ) x V

Basis von

V,

so ist (1) [y]B

= 1
x1 . . . xn

...
, dass

n K 1n . y(x)/ =
n j=1

Damit gilt fr

mit dem Koordinatenvektor

x/B =

(1)

j xj

oder kurz

y(x) = j xj .
Wechselt man auf die Basis

B = 1 , . . . , n b b y(x)/
(1)

von

V,

so gilt entsprechend mit

x/ = B

...

n K 1n ,

dass

n i=1

i xi

oder kurz

y(x) = i xi .

x1 . . . xn

und (1) [y]B

Zusammen folgt also Da dies fr alle

j xj = i xi ,

also mit der Transformationsgleichung

xi = ti xj : j xj = i ti xj . j j

xV

richtig ist, folgt

j = ti i , j

d.h. die

transformieren sich genauso wie die Basis

bj =

ti i , also kovariant. jb
Es sei

Denition 11.5.5.
Ein Element von

ein

K -Vektorraum

mit

n := dim(V ) < . v i oder vi bei einem B = 1 , . . . , n von V b b


durch

heit auch Tensor 0.Stufe.

Ein Tensor 1.Stufe ist eine Gre, deren einfach indizierte Komponenten beschriebenen Wechsel zwischen den Basen

bj = ti i jb

B = (b1 , . . . , bn )

und

ein bestimmtes

Transformationsverhalten zeigen, nmlich im kontravarianten Fall

v =

ti v j , im kovarianten Fall j

vj = t i v i . j

Vektoren sind kontravariante Tensoren 1.Stufe. Linearformen sind kovariante Tensoren 1.Stufe. Im Fall arithmetischer Vektorrume gilt gerade

V = Km

und

W = Kn

mit den kanonischen Basen

E (m)

und

E (n)

E (n) [fij ]E (m)

= Eji K nm .

12 i
wird.

j ist das bekannte Kroneckersymbol das hier nur fr die sptere Verwendung der Summenkonvention etwas anders geschrieben

67

Dies zeigt

Hom(K m , K n ) K nm . =

Der zugehrige Isomorphismus ist die Abbildung einer linearen Abbildung auf ihre darstellende Matrix. Dieser Zusammenhang verdeutlicht auch nochmals die hergeleitete Dimensionsformel. Ist

V = Km

und

W =K

mit den kanonischen Basen

E (m)

und

(1)

gilt gerade

(1)

bj

E (m)

= t(ej ) K 1m ,

also

Hom(K m , K) K 1m K m . = = End(V ) = Hom(V, V ),


so kann

Betrachtet man den Spezialfall von Endomorphismen, also Elementen von Komposition dieser Abbildungen betrachten.

man zustzlich zu  + und dem skalaren Vielfachen, mit denen das ein Vektorraum ist, auch noch die

In dem zu

End(V )

isomorphen Vektorraum der quadratischen Matrizen aus

K mm

entspricht die Kom-

position der Matrizenmultiplikation, d.h. fr

f, g End(V )

gilt (bezglich einer Basis

von

V)

[f g]B = [f ]B [g]B .
(Man beachte: weder

noch das Matrizenprodukt sind i.Allg. kommutativ!)

Mit dieser Multiplikation wird fr Matrizen).

End(V )

bzw.

K mm

sogar zum Ring (folgt direkt aus den Rechengesetzen

Man spricht vom Endomorphismenring des Vektorraumes bzw. Einheitsmatrix

1m ).

V,

in Zeichen:

(End(V ), +, )

(Einselement

idV

11.6 Translationen
Denition 11.6.1.
Es seien

ein Krper,

ein

K -Vektorraum, a V V V xx+a V.
Dann gilt:

und

ta :
Dieses ta heit Translation oder Verschiebung von

Satz 11.6.2.

Es seien

ein Krper,

ein

K -Vektorraum.

(1) ta ist eine Permutation von V a V , (2) ta tb = ta+b = tb ta a, b V , 1 (3) (ta ) = ta a V , idV = t0 , (4) Ist T := {ta | a V }, so ist f : V T mit

f (a) = ta

eine bijektive Abbildung mit

f (a + b) = ta+b = ta tb .

Beweis: (1) ta (x) = ta (y) a + x = a + y x = y , d.h. ta ist injektiv, ta (x a) = (x a) + a = x, d.h. ein beliebiges x V hat das Urbild x a, ta ist also surjektiv. Damit ist ta eine Bijektion von V in sich, also eine Permutation von V . (2) ta tb (x) =ta (tb (x)) = ta (x + b) = (x + b) + a = x + (b + a) =

= x + (a + b) = (x + a) + b = tb (x + a) = tb (ta (x)) =
=ta+b (x)

=tb ta (x) .
(3) denn t0 (x) = x x V t0 = idV . (4) Es ist f (a) = f (b) ta = tb ta (x) = tb (x) x V x + b = x + a x V a = b, also f injektiv. Da die Surjektivitt direkt aus der Denition klar ist, ist f also bijektiv. Die Eigenschaft f (a + b) = ta tb folgt direkt aus der Denition zusammen mit dem oben gezeigten ta+b = ta tb . Nach dem vorhergehenden Punkt gilt

(ta ta ) (x) = t0 (x) = x x V ta = t1 , a

Da die Komposition von Abbildungen bekanntlich assoziativ ist, ist wegen 11.6.2(2)-(3) Gruppe. 68

(T, ) eine abelsche

11.6.2(4) zeigt dann, dass homomorphismus, ist.

eine strukturerhaltende Abbildung von

(V, +) f

nach

(T, ),

also ein Gruppen-

Da dieser Homomorphismus sogar bijektiv ist, handelt es sich bei beiden betrachteten Gruppen sind isomorph:

(V, +) (T, ). =

um einen Isomorphismus, d.h. die

11.7 Ane Abbildungen


Denition 11.7.1.
Es seien

ein Krper,

ane Abbildung, falls es eine Translation

V und W zwei K -Vektorrume. Eine Abbildung g : V W heit t : W W und eine lineare Abbildung f : V W gibt mit g = t f . GW V e ee ee e t g=tf e e2  W
f

Nimmt man Ist

t = t0 = idW ,

so hat man

g = f,

d.h. alle linearen Abbildungen sind auch an.

V =W

und nimmt man

f = idV ,

so sieht man, dass alle Translationen ane Abbildungen von

in

sich sind. Die Umkehrung dieser beiden Aussagen gilt nicht.

Folgerung 11.7.2. Beispiel 11.7.3.

Aus den Eigenschaften von Homomorphismen folgt sofort, dass die Bilder aner Teilrume

unter anen Abbildungen wieder ane Teilrume sind! Es sei

g : R2 R2

gegeben durch

g(x) =
Dies ist eine ane Abbildung mit

3 0

0 4 x+ 3 6

t = ta , a =

4 6

und

f = fA , A =

3 0

0 3

Einige Funktionswerte dieser Abbildung sind z.B.

g(

2 )= 3

2 15

, g(

2 )= 3

4 2 , g( )= 2 3
:=w

8 12

Dabei fllt auf, dass Zusammen mit

w von g festgehalten wird. A = 312 kann man sich so verdeutlichen,

was

geometrisch macht:

g(x) = Ax + a = A(w + x w) + a = Aw + a +A(x w) =


=g(w)=w

= w + 312 (x w) = w + 3(x w) = W + 3W X y g(x) x2 Wg rr rr 8 rr rr rr 6 r rr g rr 4 rr r rr rr 2 rr r gI x rr rry yy G x1 yyy 0 1y 2 3 4 5 yyy y9 3


w

Abbildung 23:

Zentrische Streckung

69

Satz 11.7.4.
mit

Es seien K ein Krper, V und W zwei K -Vektorrume und g1 , g2 : V W zwei ane Abbildungen g1 = ta f1 , g2 = tb f2 und a, b W , f1 , f2 Hom(V, W ). Dann gilt: Ist g1 (x) = g2 (x) x V , so ist f1 = f2 und a = b. Beweis: Ist

g1 (x) = g2 (x) x V ,

so ist

(ta f1 )(x) = (tb f2 )(x).

Da

ta

invertierbar ist, folgt

f1 (x) = (t1 tb f2 )(x) x V , a


also insbesondere

f1 (0) = t1 tb f2 (0) . a
Da fr die linearen Abbildungen

f1

und

f2

gilt

f1 (0) = 0 = f2 (0),

folgt daraus

0 = t1 tb (0) = ta (b) = b a b = a , a
d.h. die Translationsanteile der beiden anen Abbildungen sind identisch. Setzt man dies in die ursprngliche Gleichung ein, so ergibt sich

ta f1 (x) = tb f2 (x) ta f1 (x) = ta f2 (x) x V f1 (x) = f2 (x) x V f1 = f2 ,


d.h. auch die linearen Anteile sind identisch.

Schaltet man zwei ane Abbildungen von

in sich hintereinander, so ergibt sich

g1 g2 (x) = (ta f1 ) (tb f2 )(x) = f1 (f2 (x) + b) + a = = f1 (f2 (x)) + f1 (b) + a = f1 f2 (x) + (f1 (b) + a) = = tc g(x)
mit

c = f1 (b) + a f1
und

und

g = f1 f2 . f1 f2
linear ist, ist

Da mit

f2

auch

g1 g2

auch wieder eine ane Abbildung.

Da nicht alle anen Abbildungen invertierbar sind, bildet die Menge aller anen Abbildungen von sich trotz der gezeigten Eigenschaften sicher keine Gruppe. Betrachtet man aber nur die invertierbaren anen Abbildungen von zusammen mit der Komposition von Abbildungen eine Gruppe:

in

in sich, so bildet diese Menge

  

Komposition ist immer assoziativ, Hintereinanderausfhrung bijektiver Abbildungen ist bijektiv, Identitt ist eine ane Abbildung

Denition 11.7.5.
bezeichnet (auch

Es seien

ein Krper und

ein

K -Vektorraum.

Eine bijektive ane Abbildung von

in sich heit Anitt. Die Gruppe aller Anitten mit der Komposition wird mit

A(V )

bzw.

V (A(V ), )

GA(V )

fr ane Gruppe).

Da Translationen grundstzlich invertierbar sind, ist eine ane Abbildung von Anitt, wenn ihr linearer Anteil invertierbar ist. Die ane Abbildung (zentrische Streckung) aus 11.7.3 ist ein Element von ist das

in sich genau dann eine

A(R2 ), denn der lineare Anteil


Sind

3-fache

der Identitt.

Satz 11.7.6.

Es seien

und

parallele ane Teilrume von

W V,

zwei

so sind

K -Vektorrume und g : V W eine ane Abbildung. g(X) und g(X ) parallele Teilrume von W .
es oder

und

Beweis: Zu den anen Teilrume


mit

X = a+U

und

so bezeichnet, dass

X und X von V gibt X = a + U . X X bedeutet U U U U gilt.

a, a V und Untervektorrume U und U von V U U . Der Einfachheit halber seien die Rume

Die Bilder der beiden anen Rume unter der anen Abbildung

g = tb f sind g(X) = (f (a) + b) + f (U ) und g(X ) = (f (a ) + b) + f (U ). Dies sind ane Teilrume von W , denn f (a) + b, f (a ) + b W und f (U ) und f (U ) sind nach 11.1.12 Untervektorrume von W . Da U ein Untervektorraum von U ist, ist auch f (U ) ein Untervektorraum von f (U ), d.h. auch die anen Rume f (X) und f (X ) sind parallel.
Vorsicht: Machen Sie keine falschen Umkehrungen dieses Satzes! Nichtparallele ane Rume knnen durch eine ane Abbildung parallel werden.

29.11.10

70

12 Determinante und Spur


12.1 Motivation

In den bungen (2.4 & 7.5) wurde die Abbildung

f:

R2 R2 x y

a c

b d

x y

a, b, c, d R

untersucht.

Dies ist eine allgemeine lineare Abbildung Es wird gezeigt, dass

fA End(R2 )

mit

A=

a b . c d

fA

(und damit

A)

genau dann invertierbar ist, wenn

ad bc = 0

ist.

Schreibt man fr die sptere Verallgemeinerung um auf

A = ( a11 a21

a12 a22 ), so heit dies:

invertierbar

a11 a22 a21 a12 = 0 .

Betrachtet man nun also die Abbildung

D:A=
so wei man demnach, dass

a11 a21

a12 a22

a11 a22 a21 a12 , A


singulr
13

D(A) = 0

genau dann der Fall ist, wenn

ist.

Da

genau dann singulr ist, wenn der Rang der Matrix

nicht voll ist, d.h. wenn die Zeilen oder

D auch interpretieren als Abbildung R2 R2 R der Spalten von A (oder analog fr die Zeilen von A), die je nach linearer Abhngigkeit oder Unabhngigkeit Werte = 0 oder = 0 liefert, also etwa
Spalten von linear abhngig sind, so kann man die Abbildung

D:

a11 , a21
=b

a12 a22
=d

a11 a22 a21 a12 = b1 d2 b2 d1 .

Die Abbildung

ist linear in allen Komponenten, d.h. in allen Spalten (oder analog Zeilen) von

A:

Die Linearitt in der 1. Spalte sieht man etwa, indem man die 2. Spalte festhlt, und in der 1. Spalte den blichen Linearittstest macht:

D(b + c, d) = (b1 + c1 ) d2 (b2 + c2 ) d1 = = b1 d2 b2 d1 + c1 d2 c2 d1 = D(b, d) + D(c, d) D(b, d) = b1 d2 b2 d1 = (b1 d2 b2 d1 ) = D(b, d)


fr alle

b, c, d R2 , R. D
(also 2.Spalte von

Analog zeigt man fr die 2.Komponente von

A)

D(b, d + e) =D(b, d) + D(b, e) D(b, d) =D(b, d)


fr alle

b, d, e R2 , R.
Es seien

Denition 12.1.1. Beispiel 12.1.2.


D(b, d).

ein Krper,

ein

K -Vektorraum

und

jeder Komponente linear ist, heit

n-Linearform

(Bilinearform fr

n N. Eine Abbildung V n K , die in n = 2) oder allgemeiner Multilinearform.


ist eine Bilinearform.
so erhlt man

Die oben diskutierte Abbildung

D : R 2 R2 R,

Vertauscht man die Komponenten von

D(b, d) = b1 d2 b2 d1 ,

D(d, b) = b2 d1 b1 d2 =

Man spricht deshalb von einer alternierenden Bilinearform.


invertierbar

13 singulr=nicht

71

Das Kreuzprodukt (spter)

a11 a21 0
im

a12 a22 0

0 0 a11 a22 a21 a12

R3

ist ein Vektor der Lnge (spter)

a11 a22 a21 a12 = D (( a11 ) , ( a12 )) . a21 a22


Dies ist gerade die Flche des von

( a11 ) a21
aufgespannten Parallelogramms.

und

( a12 ) a22

heit Determinante von

und obige Beispiele haben schon mal einige wesentlich Eigenschaften der

Determinante angedeutet.

12.2 Determinante
Denition 12.2.1.
Es seien

ein kommutativer Ring mit

1, n N

und

A = (aik )1i,kn Rnn

eine

quadratische Matrix. Dann heit


n

det(A) :=
Sn

sgn()
i=1

ai(i)

die Determinante von

von Leibniz (1646 - 1716)). Oft schreibt man Klammern durch senkrechte Striche ersetzt.

A. Diese Formel ist auch unter dem Namen Leibniz-Regel bekannt (nach Gottfried Wilhelm |A| fr det(A); bei ausgeschriebenen Matrizen werden die runden

Beispiel 12.2.2.
n=1 n=2
Nr.

det(A) = det(a11 ) = a11 . (1 2) 1 2 (1 2) 2 1 a11 a21 a12 a22


#Fehlst.

sgn() +

n i=1

ai,(i)

1 2 det

0 1 = a11 a21

a11 a22 a12 a21 (Sarrus 2 2)

a12 = a11 a22 a12 a21 a22

Abbildung 24:
n=3

Merkregel Sarrus

22

Nr.

(1 2 3) 1 2 3 (1 2 3) 1 3 2 (1 2 3) 2 1 3 (1 2 3) 2 3 1 (1 2 3) 3 1 2 (1 2 3) 3 2 1 a12 a22 a32

#Fehlst.

sgn() + + +

n i=1

ai,(i)

1 2 3 4 5 6 a11 det a21 a31

0 1 1 2 2 3

a11 a22 a33 a11 a23 a32 a12 a21 a33 a12 a23 a31 a13 a21 a32 a13 a22 a31

a13 a23 = + a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a33 a a a a a a a a a
12 21 33 13 22 31
72

11 23 32

Abbildung 25:
n4

Merkregel Sarrus

33

n = 4 ist |Sn | = n! = 24, es gibt aber nur 8 Diagonalen in der Matrix A (Diagonalen wie oben im n = 2 oder n = 3 gemeint). Schon aus dieser berlegung folgt, dass eine Sarrus-Regel wie fr n = 2 oder n = 3 im Fall n = 4 nicht existiert. Auch fr alle greren n N ist n! = 2n und somit eine Berechnung der
Im Fall Fall Determinante la Sarrus nicht mglich. Die Berechnung grerer Determinanten mit der Leibniz-Regel wre auch wegen der sam. Dies zeigt, dass man insbesondere fr

n!

Summanden sehr mh-

n>3

ein besseres Verfahren braucht.

12.3 Einfache Rechenregeln fr die Determinante


Satz 12.3.1.
Es seien

ein kommutativer Ring mit


t

1, n N

und

A = (aij )1i,jn Rnn .

Dann gilt

det A = det A .
Beweis: Laut Denition gilt
n

a(i)i =
Sn n

aj1 (j) =

det tA =
Sn

sgn()
i=1

sgn()
j=1

=
Sn

aj (j) =
Sn

sgn( )

aj (j) =

sgn( 1 )
j=1

j=1

= det A

Satz 12.3.2.

R ein kommutativer Ring mit 1, n N, A = (aij )1i,jn Rnn , Sn und bij := ai(j) fr 1 i, j n, also B = (bij )1i,jn Rnn die quadratische Matrix, die aus A durch die Spaltenpermutation entsteht. Dann gilt
Es seien

det B = sgn() det A .


Beweis:
n n

det B =
Sn

sgn( )
i=1

bi (i)
n

=
Sn

sgn( )
i=1

ai( (i))

=
Sn

sgn( 1 )
i=1

ai(i)

( := )

= sgn( 1 ) det A = sgn() det A .

Satz 12.3.3.
Rn

Es seien

R ein kommutativer Ring mit 1, n N, N mit 1 n und v

und

v1 , . . . , v , . . . , v n

Spaltenvektoren. Dann gilt

det(v1 , ..., v + v , ..., vn ) = det(v1 , ..., v , ..., vn ) + det(v1 , ..., v , ..., vn ) .


t t

Beweis: Schreibt man

vi =

a1i

a2i

. . . ani

fr

i = 1, . . . , n
)+a ))

und

n ( (

v =

a1

a2

...

an

so gilt

det(v1 , ..., v + v , ..., vn ) =


Sn

sgn()(a

ai(i) =
i=1 i=

n ( )
i=1 i=

ai(i) +
Sn

sgn()a
( )

ai(i) =

=
Sn

sgn()a

i=1 i=

= det(v1 , ..., v , ..., vn ) + det(v1 , ..., v , ..., vn ) .

73

Satz 12.3.4.
Rn

Es seien

R ein kommutativer Ring mit 1, n N, N mit 1 n, r R und v1 , . . . , v , . . . , vn det(v1 , ..., r v , ..., vn ) = r det(v1 , ..., v , ..., vn ) .
t

Spaltenvektoren. Dann gilt

Beweis: Schreibt man

vi =

a1i

a2i

...

ani

fr

i = 1, . . . , n,
n ( )

so gilt

ai(i) =

det(v1 , ..., r v , ..., vn ) =


Sn

sgn() r a
n

i=1 i=

=r
Sn

sgn()
i=1

ai(i)

= r det(v1 , ..., v , ..., vn ) .

Arbeitet man ber einem Grundkrper dass die Determinante als Abbildung sich um eine Multilinearform.

K (statt ber dem Ring R), so zeigen die Stze 12.3.3 und 12.3.4, K n K n K in jeder Komponente linear ist, d.h. es handelt

Mit 12.3.1 folgt, dass diese Aussagen jeweils auch zeilenweise gelten. Multipliziert man jede Spalte einer quadratischen Matrix 12.3.4:

A Rnn

mit einem Faktor

r R,

so folgt mit

det(rA) = r det(A).

Aus der Multilinearitt folgt, dass die Determinante einer Matrix mit einer Nullzeile oder -spalte verschwindet.

Satz 12.3.5.

Es seien

ein kommutativer Ring mit

1, n N, A = (aij )1i,jn Rnn .

Hat

zwei identische

Spalten (oder Zeilen), so ist

det A = 0. i
und

Beweis: Angenommen, die Spalten

von

sind gleich. Vertauscht man diese beiden Spalten, so bleibt

die Matrix, und damit auch ihre Determinante, gleich. Andererseits gilt nach 12.3.2, dass sich bei dieser Vertauschung das Vorzeichen der Determinante um Vergleich der beiden Aussagen liefert

sgn

1 ... i ... j ... n 1 ... j ... i ... n

= 1

ndert.

oder

R),

so liest man daraus

det A = det A, also 2 det A = 0. Ist R ein Krper mit 2 = 0 (also etwa det A = 0 ab. In Krpern mit 2 = 0, etwa in Z2 , oder in Ringen mit Nullteilern,

etwa

Z6 , kann man so nicht argumentieren. Auch dort gilt der Satz aber, man muss nur etwas mehr Mathematik
mit

zum Beweis verwenden [siehe z.B. Fischer, 2000, , S.194]. Die Aussage fr Zeilen folgt daraus mit 12.3.1.

Satz 12.3.6. Es seien R ein kommutativer Ring mit 1, n N, , m N v1 , . . . , v , . . . , vm , . . . , vn Rn Spaltenvektoren. Dann gilt

= m n, r R

und

det(v1 , . . . , v , . . . , vm , . . . , vn ) = det(v1 , . . . , v + rvm , . . . , vm , . . . , vn ) .


Beweis: Wegen 12.3.3 und 12.3.4 (also der Multilinearitt, falls

ein Krper ist) gilt

det(v1 , . . . , v + rvm , . . . , vm , . . . , vn ) = det(v1 , . . . , v , . . . , vm , . . . , vn ) + r det(v1 , . . . , vm , . . . , vm , . . . , vn ) .


Die letzte Determinante verschwindet aber nach 12.3.5.

Mit 12.3.2, 12.3.4, und 12.3.6 kann man nun zusammenfassend die Wirkung elementarer Umformungen auf Determinanten auisten:

Elementare Umformung
Typ I: Typ II: Typ III: Vertauschen zweier Zeilen (oder Spalten) Multiplikation einer Zeile (oder Spalte) mit einer Konstanten Addition

Eekt auf Determinante


ndert das Vorzeichen Wert der Determinante mal

R des -fachen

einer Zeile (Spalte),

Wert der Determinante bleibt gleich

beliebig, zu einer anderen

74

Beispiel 12.3.7.

Vorsicht: Kombinationen dieser elementaren Zeilenumformungen, die man insbesondere gerne

benutzt um Bruchrechnungen zu vermeiden, fhren bei Determinanten oft zu Fehlern:

2 3

4 1

Z2 2Z2 3Z1

2 0

4 10 Z2 2Z2 und Z2 Z2 3Z1 . 2 bei der ersten Umformung,

ist eine korrekte Kombination aus den beiden elementaren Zeilenumformungen der den Wert der Determinante verndert:

Wendet man dies auf eine Determinante an, so bersieht man leicht den Faktor

2 3

4 1

Z2 2Z2 12.3.4

1 2 2 6

4 2

Z2 Z2 3Z1 12.3.6

1 2 2 0

4 10

Beispiel 12.3.8.

Ein weiterer Stolperstein ist die verschiedene Verwendung skalarer Vielfacher bei Matrizen

und Determinanten. Es gilt:

2
aber

1 3

2 4

2 6

4 8

, 1 2 = 3 4 4 8

2
bzw.

1 3

2 2 = 3 4 4

1 4 = 6 4 1 3

2 2 = 6 8 4 . 8

2 2 = 6 4

Was hat man nun davon, wenn man eine Determinante durch elementare Zeilenumformungen auf Zeilenstufenform gebracht hat (Spalten analog, das wird im Folgenden nicht jeweils extra dazugesagt)? Entsteht eine Nullzeile, so ist die Determinante=

0,

denn die Zeilen sind damit linear abhngig.

Entsteht keine Nullzeile oder -spalte, so ist die Zeilen- oder Spaltenstufenform eine Dreiecksmatrix. Die Determinante solch einer Dreiecksmatrix ist einfach das Produkt der Diagonalelemente. Dies sieht man an der Leibniz-Formel:

det(A) =
Sn

sgn()
i=1
mit

ai,(i)
und

(Leibniz)

Ist nmlich

= id ,

so gibt es mindestens ein

1in

(i) < i.
n i=1

Da das zugehrige

ai,(i) bei einer oberen Dreiecksmatrix = 0 ist, ist der gesamte Summand sgn() = id
gehrt:

ai,(i) =

0.
Von der gesamten Formel bleibt also nur der Summand, der zu

det(A) =
i=1

ai,i .

Beispiel 12.3.9.
4 1 7 5 2 8 6 1 3 = 4 10 7 2 5 8 3 1 6 = 0 10 0 2 3 6 3 1 6 = 0 11 0 2 3 0 3 6 = 3 1 =0
ist.

Wir haben bereits gesehen, dass die Determinante einer Matrix mit einer Nullzeile oder -spalte Weiterhin wurde bereits gezeigt, dass die Determinante Spalten enthlt.

=0

ist, wenn die Matrix zwei gleiche Zeilen oder

Mit der nun bekannten Wirkung elementarer Umformungen an quadratischen Matrizen auf deren Determinanten, kann man diese Aussagen nun noch deutlich verallgemeinern:

Satz 12.3.10.

Es seien

ein Krper,

nN

und

A K nn .

Dann gilt:

det(A) = 0 A

ist nicht invertierbar (=singulr).


75

Beispiel 12.3.11. A
Raum eine Dimension D.h.

ist genau dann singulr, wenn

Rang A < n

ist.

Dies ist wiederum genau dann der Fall, wenn der von den Zeilen (oder Spalten) der Matrix

aufgespannte

<n

hat.

ist genau dann singulr, wenn die Zeilen (oder Spalten) von

linear abhngig sind.

Ist dies der Fall, so lsst sich mit Hilfe elementarer Zeilenumformungen eine Nullzeile (bzw. mit Hilfe elementarer Spaltenumformungen eine Nullspalte) herstellen. Ist

dagegen regulr,

14

so ist

gestalt mit Diagonaleintrgen ndern oder mit einem Faktor

Rang A = n, = 0 bringen. =0

d.h.

lsst sich mit Hilfe elementarer Umformungen auf Dreiecks-

Die Determinante der resultierenden Matrix ist also

= 0.

Da die elementaren Umformungen nur das Vorzeichen

multiplizieren, heit das, dass in diesem Fall auch

det A = 0

ist.

12.4 Der Laplacesche Entwicklungsssatz


Denition 12.4.1.
Fr Es seien

1 i, j n A entsteht. (ij) Der Eintrag in der k -ten Zeile und -ten Spalte dieser Matrix wird mit (A )k, bezeichnet. A(ij) (ij) chungsmatrix zum Eintrag aij = (A)ij von A, det(A ) Minor zu aij . i+j Der Faktor (1) det(A(ij) ) heit der Kofaktor oder das algebraische Komplement von aij . 1 2 3 2 3 Z22 Beispiel 12.4.2. Fr A := 4 5 6 Z33 ist A(21) = 8 9 7 8 9
mit aus

i, j N j -ten Spalte

nn ein kommutativer Ring mit 1, n N und A R . (ij) (n1)(n1) sei A R diejenige Matrix, die durch Streichen der i-ten Zeile und

heit Strei-

Es sei

Sn

fr

1 n

diejenige Permutation, die durch

k (k) = k + 1
deniert ist.

fr fr fr

k< k<n k=n

In der blichen Permutationsschreibweise ist das

=
besitzt die Fehlstnde

1 2 1 2

... ...

1 1

+1

+1 +2

... ...

n1 n

( , n), ( + 1, n), . . . , (n 1, n). sgn( ) = (1)n


.

Da das

Stck sind, gilt

Mit solchen Permutationen lsst sich der bergang von beschreiben. Es gilt:

zu der Streichungsmatrix zu einem Eintrag

(A(ij) )k, = (A)i (k),j ( ) = ai (k),j (


6.12.10

fr

1 k, n 1 .

Satz 12.4.3.

Es sei

A K nn

und

1 i n. det(A) =

Dann gilt:
n

(1)i+j aij det(A(ij) ) .


j=1
so folgt und somit

Beweis: Ist

Sn

eine Permutation mit

(i) = j ,

1 (i) = 1 (j) = n j j
Da

1 i (n) = n j

sgn

bekanntlich ein Gruppenhomomorphismus ist, folgt

sgn(1 i ) = sgn(1 ) sgn() sgn(i ) = sgn(j ) sgn() sgn(i ) j j =(1)nj sgn() (1)ni = (1)i+j sgn() .
14 regulr=invertierbar
76

Fr eine Permutation

Sn

mit

(i) = j

sei nun also

:= 1 i , j
d.h. man kann solch ein dann zu diesem

umschreiben zu

= j 1 i

und es gilt

den Entwicklungssatz beweisen, indem man in der Leibniz-Formel

sgn( ) = (1)i+j sgn(). Nun kann man jeweils alle Sn mit (i) = j bndelt und

bergeht:

det(A) =
Sn n

sgn()
=1

,( )

=
j=1 n
Sn (i)=j

sgn()
=1

a
n

,( )

=
j=1
Sn (n)=n

(1)i+j sgn( )
=1 n1

,j 1 ( ) i

=
j=1 n

(1)i+j
Sn (n)=n

sgn( )
k=1

ai (k),j (k) =
j=1 n1

(1)i+j
Sn (n)=n

sgn( )aij
k=1

ai (k),j (k) =

=
j=1

(1)i+j aij
Sn1

sgn()
k=1

(A(ij) )k,(k) =
j=1

(1)i+j aij det(A(ij) ) .

In der vorliegenden Version beschreibt der Laplacesche Entwicklungssatz die Entwicklung einer Matrix

nach der i-ten Zeile.

Wegen

det(A) = det(tA)

kann man aber genauso nach einer Spalte entwickeln:

det(A) =

n i+j aij i=1 (1)

det(A(ij) ) .

fr ein

mit

1 j n.

Beispiel 12.4.4.

Durch Entwicklung nach einer Zeile wird aus einer Determinanten (Spalte analog).

n n-Determinante eine Summe von n (n 1) (n 1)-

Entwickelt man diese nochmal, so werden das Aufwand wird erheblich!

n (n 1) (n 2) (n 2)-Determinanten

usw., d.h. der

Deshalb sollte man nicht einfach drauos entwickeln, sondern erst die entsprechende Zeile mit geeigneten elementaren Umformungen vereinfachen:

Beispiel 12.4.5.
4 1 7 5 2 8 6 4 3 = 1 10 7 3 0 6 6 3 0 = 6 11 6 1 =3 11 6 2 = 3. 11

12.5 Der Produktsatz und seine Folgen


Satz 12.5.1.
Es seien

ein kommutativer Ring mit

1, n N, A, B Rnn .

Dann gilt

det(A B) = det A det B .


77

Beweis: Mit
ist, gilt

A = (aij )1i,jn , B = (bij )1i,jn


n

und

C = (cij )1i,jn ,
n n

wobei

cij =

n k=1

aik bkj

fr

1 i, j n

det(A B) =
Sn

sgn()
i=1

ci,(i) =
n Sn n

sgn()
i=1 k=1

aik bk,(i)
n

Ausmult.

=
Sn

sgn()
n k1 ,k2 ,...,kn =1 i=1 n

ai,ki bki ,(i) =


n

sgn()
k1 ,k2 ,...,kn =1 Sn n n i=1

ai,ki
i=1

bki ,(i) =
kj = (j) n

=
k1 ,k2 ,...,kn =1 i=1 n

ai,ki
Sn

sgn()
j=1

bkj ,(j) =
k1 ,k2 ,...,kn =1 i=1 n 12.3.2

ai,ki det (bkj , )1j,

= 0, falls nicht alle kj verschieden

=
Sn i=1

ai, (i) det (b (j), )1j,

sgn( )
Sn i=1

ai, (i) det B = det A det B .

Satz 12.5.2.

Es seien

ein Krper,

nN

und

A GL(n, K).

Dann gilt:

det(A1 ) = det(A)1 .
Beweis:

1 = det(1n ) = det(A1 A) = det(A1 ) det(A)


12.5.1

det(A1 ) = det(A)1 .

Satz 12.5.3.
Beweis:

Es seien

ein Krper,

nN

und

A, B K nn

hnlich. Dann ist

det(A) = det(B).

hnlich zu

B S GL(n, K) : A = S 1 BS
12.5.1 12.5.2

det A = det(S 1 BS) = det(S 1 ) det B det S = = det(S)1 det S det B = det B .
Ist

ein Endomorphismus eines

K -Vektorraumes V D
von

mit

dim V = n,

so besitzt er bezglich einer Basis

die Abbildungsmatrix

[f ]C . V
ndert sich zwar die Matrix zu

Beim Basiswechsel zu einer anderen Basis hnlich zu

[f ]D ,

diese ist aber

[f ]C . det([f ]C ) = det([f ]D ). f
ab, nicht von der

Nach 12.5.3 folgt somit

Die Determinante der Abbildungsmatrix hngt also nur von dem Endomorphismus speziell gewhlten Basis von

V. f
und deniert:

Man nennt die Determinante deshalb eine Invariante des Endomorphismus

Denition 12.5.4.

Es seien

ein Krper,

ein

K -Vektorraum

mit

dim V = n N

und

f End(V ).

det(f ) := det([f ]B )
fr eine beliebige Basis

von

heit Determinante des Endomorphismus.

12.6 Die Cramersche Regel


Satz 12.6.1.
Es seien

ein Krper,

so gilt fr die eindeutige Lsung des

n N, A GL(n, K) LGS Ax = b

und

b K n.

Sind

s1 , s2 , . . . , sn

die Spalten von

A,

xi =

det(s1 , . . . , si1 , b, si+1 , . . . , sn ) , i = 1, . . . , n det(A)


78

Beweis: Zum Nachweis wird die angegebene Lsung in


von

xi

nach Laplace entwickelt (nach der

i-ten

Spalte).

Ax eingesetzt und dann wird die Determinante im Zhler Fr die k -te Komponente gilt:
n n

(Ax)k =
i=1

aki xi =
n i=1 n

aki

1 det(s1 , . . . , si1 , b, si+1 , . . . , sn ) = det(A) det(A)


n

aki
i=1 =1

(1)

+i

b det(A( i) ) =

1 = det(A)

=1

1 b aki (1) +i det(A( i) ) = det(A) i=1

b k det(A) = bk
=1

denn der Ausdruck in der inneren Summe ist gerade die Entwicklung der Matrix, die aus -ten Zeile durch die

durch Ersetzen der

k -te Zeile entsteht, nach der

-ten Zeile. Ist

k=

, so ist das also gerade

det(A), ist dagegen

k=

, so betrachtet man eine Matrix mit 2 gleichen Zeilen, d.h. deren Determinante ist

0.

Die Bedeutung der Cramerschen Regel ist relativ gering (trotzdem wird sie leider oft in der Schule dem Gau-Verfahren vorgezogen):

  

sie kann wegen des Einsatzes der Determinante nur fr Systeme mit quadratischer Koezientenmatrix verwendet werden, sie kann wegen der Determinante im Nenner nur im Fall eindeutigen Lsung), ihre Anwendung ist in den meisten Fllen mit deutlich mehr Aufwand verbunden als z.B. das normale Gau-Verfahren; so muss man bereits fr ein

det A = 0 angewendet werden (also bei einer

3 3-LGS

vier

3 3-Determinanten

berechnen!

In der bung wird ein Beispiel fr die sinnvolle Verwendung der Cramerschen Regel besprochen. Fr den Nachweis der linearen Unabhngigkeit von Vektoren oder das Lsen linearer Gleichungssysteme spielen Determinanten eher eine untergeordnete Rolle, weil das Gau-Verfahren viel einfacher ist. Ihre volle Bedeutung wird sich erst im nchsten Kapitel ber Eigenwerte und Eigenvektoren herausstellen.

12.7 Die Spur


Denition 12.7.1.
der Matrix Es seien

ein kommutativer Ring mit


n

1, n N aii .

und

A = (aij )1i,jn Rnn .

Die Spur

(englisch trace) ist

Spur(A) :=
i=1

In den bungen (6.1 & 6.4) wurde nachgerechnet, dass sich die Spur einer Abbildungsmatrix beim Basiswechsel in Vektorrumen nicht ndert. Somit ist die Spur eine Invariante von Endomorphismen.

Denition 12.7.2.
eine beliebige Basis

Es seien

ein Krper,

ein

K -Vektorraum

mit

dim V = n N

und

f End(V ).

Fr

von

sei die Spur des Endomorphismus

Spur(f ) := Spur([f ]B ) .

79

80

13 Eigenwerte und Eigenvektoren


13.1 Motivation
Beispiel 13.1.1.
Zwei oder mehr gekoppelte Pendel werden vorteilhaft durch (zwei oder mehr) Dierentialgleichungen (DGL) beschrieben. Auch, wenn Dierentialgleichungen eigentlich in der Analysis behandelt werden, sieht man hier auch eine der wesentlichen Anwendungen der linearen Algebra. Fr dieses Beispiel betrachten wir

Massen an

Federn:

Die Ruhelagen der Federn seien Federkonstante

k.

y1 = Beide Massen seien

0 und y2 = 0. Beide Federn haben die gleiche m. Dann sind die Bewegungsgleichungen

m1 = ky1 + k(y2 y1 ) = k(y2 2y1 ) , y m2 = k(y2 y1 ) . y

Abbildung 26:
gekoppelte Pendel

d Ein Punkt ber den Ortskoordinaten bedeutet dabei die Ableitung dt nach der Zeit, d.h. ist die Geschwindigkeit, y die Beschleunigung der Masse mit der Koordinate y .

Das Problem bei diesen Gleichungen ist nicht nur, dass es sich um Dierentialgleichungen handelt (d.h.

y, y,

etc. werden in einer Gleichung verknpft und man mchte

berechnen), sondern hier liegt ein gekoppeltes

Dierentialgleichungssystem vor, d.h. mehrere Funktionen und ihre Ableitungen werden miteinander verknpft. Mit

m=k=1

und Matrixschreibweise sieht das Beispiel so aus:

y1 y2

2 1

1 1

y1 y2

B:=

Deshalb spricht man von einem linearen Dierentialgleichungssystem. Es wre einem schon sehr geholfen, wenn man solche Systeme entkoppeln knnte, d.h. wenn man aus einem System mit

Variablen

Gleichungen mit nur jeweils einer Variablen machen knnte.

Die Idee dazu stammt aus der linearen Algebra. Entkopplung von Gleichungen mit

Variablen bedeutet, dass man Funktionen


x1 . . . xn y1 . . . yn

x1 , . . . , x n

sucht, so dass die

lineare (invertierbare!) Transformation

A
auf ein entkoppeltes System


fhrt. Das heit

x1 . . . xn

..
0

x1 . . . xn

x1 = 1 x1 , x2 = 2 x2 , . . . , xn = n xn ,

was sehr leicht lsbar ist (exp oder Winkelfunktionen

sin,

cos).
Wendet man solch eine lineare Transformation im letzten Beispiel an, so ergibt sich

A
und somit

x1 x2

y1 y2

x1 x2

y1 y2

x1 x2

y1 y2

x1 x2 x1 x2

2 1

1 x A 1 1 x2 2 1 0

= A1
0

1 x A 1 x2 1 0 A! = 2
1

@ 1

Die hieraus resultierende Fragestellung kam bereits im Abschnitt ber lineare Abbildungen vor. 81

Gesucht ist eine hnlichkeitstransformation mit einer invertierbaren Matrix Matrix Diagonalgestalt hat.

A,

so dass die transformierte

Bekanntlich beschreibt diese hnlichkeitstransformation einen Basiswechsel der linearen Abbildung

f :

x Bx.
Das Problem lsst sich deshalb auch so beschreiben: gesucht wird eine Basis, bzgl. der die Abbildungsmatrix der linearen Abbildung

Diagonalgestalt hat.

Beispiel 13.1.2.

Zu Beispiel 13.1.1 gibt es solch eine Matrix. Mit

A=
gilt

1 1 + 2 5 1 1 5 2 2 2 1 1 3 2 + 1 5 2 0

A1 B A =
d.h. die durch die Matrix

0 1 3 2 5 2

bzgl. der kanonischen Basis gegebene lineare Abbildung hat bezglich der Basis

1 + 1 5 2 2 1
Diagonalgestalt.

1 2 1 5 2 1 y1 (0) = 0, y2 (0) = 1,

Den Rest des Beispiels erledigt nun die Analysis. Fr die Anfangswerte ergibt sich z.B. die Lsung:

y1 (0) = 0, y2 (0) = 0

1 1 y1 (t) = 5 5 cos 1 t 5 1 t 5 5 cos 2 2 1 1 y2 (t) = 10 5 + 2 cos 1 t 5 1 t + 2 2

1 1 2t + 2t 5 1 1 2 10 5 cos

1 2t

+ 1t 5 2

Abbildung 27:

Gekoppelte Pendel

13.2 Grundlegende Denitionen


Denition 13.2.1.
Es seien

ein Krper,

ein

heit Eigenvektor des Endomorphismus

f,

wenn es ein

K -Vektorraum K gibt,

und

f End(V ).

Ein Vektor

v V \{0}

so dass

f (v) = v .
Das

heit der zu diesem Eigenvektor gehrige Eigenwert.

Betrachtet man fr Basis

dim V < die Abbildungsmatrix A := [f ]B A v/B = v/B

des Endomorphismus bezglich einer geordneten

von

V,

so gilt

und man nennt

Eigenvektor und

den zugehrigen Eigenwert von


und jedes

A. f (0) = 0,
ist aber nie ein

Der Nullvektor hat fr jedes Eigenvektor!

f End(V )

die Eigenschaft

Beispiel 13.2.2.

Man betrachte Vektoren bei einer Spiegelung an einer Ebene durch den Ursprung im
82

R3 :

Abbildung 28:
1

EVn bei Spiegelung

Aus der Geometrie der Abbildung klar, dass die Vektoren in der Ebene (auer sind und die Vektoren, die orthogonal auf der Ebene stehen (auer

0)

Eigenvektoren zum Eigenwert

0),

Eigenvektoren zum Eigenwert

1.

Bisher ist noch nicht geklrt, ob es immer Eigenwerte und -vektoren gibt, und, falls das der Fall ist, wie man diese berechnet. Man kann aber schon mal untersuchen, was fr die wnschenswerte Diagonalgestalt alles ntig wre:

Denition 13.2.3.
Endomorphismus

Es seien

ein Krper,

ein endlichdimensionaler

heit diagonalisierbar, wenn es eine Basis

von

Beispiel 13.2.4. Satz 13.2.5.


morphismus

2 1

1 1 K

aus 13.1.1 ist diagonalisierbar mit

K -Vektorraum und f End(V ). Der [f ]B Diagonalgestalt hat. 0 3 + 1 5 2 2 Diagonalgestalt 1 0 3 2 5 2 V


gibt, so dass

Es seien

ein Krper,

ein endlichdimensionaler

K -Vektorraum

und

ist genau dann diagonalisierbar, wenn

eine Basis aus Eigenvektoren von

f End(V ). Der f besitzt.

Endo-

Beweis: Es sei

B = (b1 , . . . , bn )

eine Basis von

V, 0 0
.. .. . .

bezglich der

[f ]B

Diagonalgestalt hat, also

1 0 . [f ]B = . . . . . 0
Fr die Vektoren in

0 2
.. .

... ...
.. .. . .

...

0 0 . . . = diag(1 , . . . , n ) . 0 n

heit das

f (b1 ) = 1 b1 , f (b2 ) = 2 b2 , . . . , f (bn ) = n bn ,


d.h. das sind Eigenvektoren zu den Eigenwerten Sind umgekehrt die Vektoren in

1 , . . . , n .

allesamt Eigenvektoren so folgt

f (b1 ) = 1 b1 , f (b2 ) = 2 b2 , . . . , f (bn ) = n bn ,


und somit

[f ]B = diag(1 , . . . , n ) .
Es seien

Satz 13.2.6.

ein Krper,

ein endlichdimensionaler

K -Vektorraum und f End(V ). Es ist K

genau dann ein Eigenwert von

f,

wenn gilt

det(f idV ) = 0 .
Beweis: Laut Denition gilt fr einen EV

und den zugehrigen EW

f (v) = v = idV (v) f (v) idV (v) = 0 (f idV )(v) = 0


Mit

und

Fr festes

idV ist auch f idV ein Endomorphismus von V . K ist (f idV )(v) = 0 ein homogenes LGS und

hat somit immer die triviale Lsung

v = 0.

Die triviale Lsung ist aber uninteressant, denn denitionsgem ist ein Eigenvektor von Null verschieden. 83

Genau dann sind des LGS

v und also Eigenvektor und zugehriger Eigenwert, wenn v (f idV )(v) = 0 ist.

eine nichttriviale (=

0) Lsungen

Nichttriviale Lsungen eines homogenen LGS existieren genau dann, wenn der Rang der Koezientenmatrix (bzw. des zugehrigen Homomorphismus) nicht voll ist, hier also genau dann, wenn Dafr gibt es aber bereits ein Kriterium mit Hilfe von Determinanten aus 12.3.10:

f idV GL(V ) /

ist.

9.12.10

f idV GL(V ) det(f idV ) = 0 . /


Ist

die Matrix zu

A die Abbildungsmatrix von f f idV . n


Eintrgen von

bezglich der gerade gewhlten Basis, also

A = [f ]B , so ist C := A1n
eine Summe von Produkten

Nach der Leibniz-Regel 12.2.1 ist die Determinante von aus je

f idV

bzw. von

C.
ein Polynom in

Dies bedeutet, dass Die grte

det(f idV )

vom Grad

ist.

-Potenz

ensteht bei dem Produkt ber die Hauptdiagonale

cii =
i=1 i=1
d.h. der Leitterm des Polynoms ist

(aii ) = (a11 )(a22 ) (ann ) , ()n = (1)n n .


ensteht einzig aus diesem Produkt.

Auch die zweitgrte

-Potenz n1

Der Koezient dieser Potenz ist

(1)n1
i=1

aii = (1)n1 Spur(A) = (1)n1 Spur(f ) 0


einsetzt.

Den konstanten Term eines Polynoms bekommt man, indem man fr die Variable Der konstante Term von

det(f idV )

ist also

det(f ) = det(A).

Zusammen hat man somit

det(f idV ) =(1)n n + (1)n1 Spur(f )n1 + + det(f ), det(A 1n ) =(1) + (1)
n n n1

bzw.

(13.1) (13.2)

Spur(A)

n1

+ + det(A)

Denition 13.2.7.
A K nn .

Es seien

ein Krper,

ein endlichdimensionaler

K -Vektorraum, f End(V )

und

Dann heit

f () := det(f idV ) K[]


das charakteristische Polynom des Endomorphismus

bzw.

A () := det(A 1n )
das charakteristische Polynom der Matrix

A. f () = 0

bzw.

A () = 0

heit die charakteristische Gleichung.

Die Lsungen der charakteristischen Gleichung, bzw. die Nullstellen (Wurzeln genannt) des charakteristischen Polynoms (falls vorhanden - hngt vom Krper

ab), sind die Eigenwerte von

bzw.

A.

Beispiel 13.2.8.

In dem einleitenden Beispiel 13.1.1 ging es um die Matrix

B=
bzw. lineare Abbildung

2 1

1 1

f = fB und ihre Diagonalisierung. Dazu braucht man die Eigenwerte und -vektoren und startet deshalb mit der charakteristischen Gleichung B () = det 2 1
84

1 1

= 0.

Mit Sarrus bekommt man

B () = + 3 + 1 = 0 1,2

3 = 2

. n=2
zu

Das charakteristische Polynom htte man dabei auch mit (13.2) berechnen knnen, was im Fall

B () = 2 Spur(B) + det(B)
wird. Hier ist Zu den zwei

Spur(B) = 3, det(B) 1. = 3 5 Eigenwerten 1,2 = kann 2

man nun Eigenvektoren berechnen. Dazu setzt man diese Werte

in das homogene lineare Gleichungssystem

(B 12 )x = 0 = 1,2
3 5 2

ein. Nach der Vorarbeit mit den Eigenwerten wei man, das diese Gleichung genau fr Lsungen besitzt.

nichttriviale

2 1 1

1 1 1

1+ 5 2

1
1+ 5 2

1+ 5 2

0 1

1+ 5 2

1 =

x = 2 2 1 1 1 2 =

1 1

mit

=0 0 1
1 5 2

1 5 2 1 5 2

1 5 2

2 =

3+ 5 2

x =
Die beiden Eigenvektoren

mit

=0

v1 :=
zu den verschiedenen Eigenwerte

1+ 5 2

und

v2 :=

1 5 2

1 und 2 sind linear unabhngig, bilden also eine Basis des R2 . Wechselt man von der kanonischen Basis auf die Basis C := (v1 , v2 ) aus Eigenvektoren, so wird aus der Abbildungsmatrix B = [f ]E
die sehr viel einfachere Matrix Es seien

[f ]C = diag(1 , 2 ).
ein endlichdimensionaler

Satz 13.2.9.

ein Krper,

K -Vektorraum, n N

und

A, B K nn

hnlich. Dann gilt

A () = B () , det A = det B , Spur A = Spur B .


Beweis: Sind

A, B K nn

hnlich, so gibt es ein

S GL(n, K)

mit

A = S 1 BS .

Damit folgt

A () = det(A 1n ) = det(S 1 BS S 1 1n S) = = det(S 1 ) det(B 1n ) det(S) = (det(S)) =B () .


1

12.5.1

det(S) det(B 1n ) =

Da die charakteristischen Polynome gleich sind, stimmen auch deren Nullstellen, das sind die Eigenwerte von bzw.

B,

entsprechend Ihrer Vielfachheit berein. Gem (13.2) sind

det A

und

det B

bzw.

Spur A

und

A Spur B

entsprechende Koezienten von in diesen Koezienten berein.

A ()

und

B ().

Nachdem die Polynome gleich sind, stimmen sie also auch

Satz 13.2.10.
(i) Wenn (ii) Wenn

Es seien

ein Krper,

ein endlichdimensionaler

K -Vektorraum

und

f End(V ).

diagonalisierbar ist, so zerfllt

f ()

in Linearfaktoren.

f () in Linearfaktoren zerfllt und seine Wurzeln (=Eigenwerte von sind, so ist f diagonalisierbar. f
diagonalisierbar, so gibt es eine Basis

f)

paarweise verschieden

Beweis: (i) Ist

von mit

mit

[f ]B = diag(1 , . . . , n )
85

1 , . . . , n K .

Damit gilt fr das charakteristische Polynom

f () = det(diag(1 , . . . , n )) = (1 ) . . . (n )
(ii) Ist nun Lsung jedem dieser Eigenwerte die Gleichung

f () = (1 ) . . . (n ) mit paarweise verschiedenen Eigenwerten 1 , . . . , n K , so hat zu (f i idV )(v) = 0 bzw. ([f ]B i 1n )v = 0 mindestens eine nichttriviale vi , einen Eigenvektor zu i . Wenn man jetzt noch zeigen kann, dass v1 , . . . , vn linear unabhngig sind,

so hat man die gesuchte Basis aus Eigenvektoren. Behauptung: Es seien

1 , . . . , m paarweise verschiedene Eigenwerte von f , 1 m n und v1 , . . . , vm zugehrige {v1 , . . . , vm } ist linear unabhngig. Dieser Teil wird mit Induktion nach m gezeigt: Fr m = 1 ist v1 = 0 linear unabhngig. Nun sei m > 1 und v1 , . . . , vm1 gem Induktionsvoraussetzung linear unabhngig. Man macht den blichen
Eigenvektoren. Dann gilt: Ansatz

k vk = 0
k=1
Dann sind zwei Flle zu unterscheiden: Ist

m = 0,

also

m1

k vk = 0 ,
k=1
so ist nach Induktionsvoraussetzung k = 0 fr k = 1, . . . , m 1, v1 , . . . , vm sind linear unabhngig. Ist m = 0, so kann man ausen nach vm und erhlt also zusammen

k = 0

fr

k = 1, . . . , m,

d.h.

vm =
Da

1 m

m1

k vk
k=1

(13.3)

vm

Eigenvektor von

zum Eigenwert

ist, folgt

f (vm ) = m vm f ( 1 m
m1

1 m

m1

k vk ) = m vm
k=1

k f (vk ) = m vm
k=1

(13.3)

1 m

m1

k k vk = m
k=1

1 m

m1

k vk
k=1

m1

k=1
Da nach Induktionsvoraussetzung Wegen dann

(m k )k vk = 0

v1 , . . . , vm1 linear unabhngig sind, folgt (m k )k = 0 fr k = 1, . . . m1. m m = k fr k = 1, . . . , m 1 heit das k = 0 fr k = 0, . . . , m 1. Einsetzen in k=1 k vk = 0 fhrt aber auf m vm = 0, was wegen vm = 0 nicht sein kann. Die Annahme m = 0 ist also falsch.

13.3 Algebraische und geometrische Vielfachheit



Die Eigenvektoren zu einem Eigenwert teristischen Gleichung

i K sind gerade alle von 0 verschiedenen (f i idV )(v) = 0 bzw. ([f ]B i 1n )v = 0.

Lsungen der charak-

Die Menge aller Lsungen dieses linearen homogenen Gleichungssystems bilden bekanntlich einen Vektorraum (bung 4.4) Dieser Vektorraum ist mindestens eindimensional, denn nur die Lsung

wird ja gerade so bestimmt, dass das LGS nicht

hat.

Denition 13.3.1.
Eigenwert

Es seien

ein Krper,

ein

K -Vektorraum

und

f End(V ).

Der Eigenraum von

zum

ist

Ef (i ) := {v V | (f i idV )(v) = 0} = Kern(f i idV ) .


Die Dimension

gf (i ) := dim(Ef (i ))

heit die geometrische Vielfachheit des Eigenwerts


86

i .

Bevor man an die Berechnung von Eigenvektoren geht, braucht man erst einmal die Eigenwerte. Diese sind als Nullstellen des charakteristischen Polynoms je nach Gre von Krper ziemlich schwierig zu bekommen. Der folgende Fundamentalsatz der Algebra gibt Auskunft darber, wie viele Nullstellen man erwarten kann. Der erste vollstndige Beweis fr den Fundamentalsatz der Algebra wurde 1799 von Johann Carl Friedrich

und zugrunde liegendem

Gau (1777 - 1855) im Rahmen seiner Dissertation angegeben.


Der Beweis dieses Satzes kommt fr Mathematikstudenten meistens in der Vorlesung Funktionentheorie (=hhere komplexe Analysis). Fr diesen Beweis fehlen momentan noch die mathematischen Grundlagen. Sie mssen den Satz also vorerst glauben.

Satz 13.3.2.

Hat

Jedes nichtkonstante Polynom


so ist

p(z) C[z]
durch

besitzt eine Nullstelle.


teilbar, d.h. es gibt ein

p(z) die Nullstelle z1 C, (z z1 ) p1 (z). deg p = n N,


so ist

p(z)

z z1

p1 (z) C[z]

mit

p(z) =

Ist Ist ein

deg p1 = n 1.
Satz erneut anwenden, d.h. es gibt ein

n 2, so ist p1 nichtkonstant und man kann den p2 (z) C[z] mit p(z) = (z z1 )(z z2 ) p2 (z).

z2 C

und

Dies hat zur Folge, dass ein Polynom eindeutige Faktorisierung

p(z) C[z] mit dem Grad deg(p(z)) = n eine (bis auf die Reihenfolge)
(13.4)

p(z) = a(z z1 )(z z2 ) . . . (z zn )


mit

a C \ {0} p(z) R[z],

und

Vielfachheiten bercksichtigt) genau

z1 , . . . , zn C (nicht unbedingt verschieden) n komplexe Wurzeln. RC

besitzt, d.h. es hat (wenn man die

Ist

so kann man wegen

ebenfalls den Fundamentalsatz verwenden, nur werden die

zi

aus (13.4) oft nicht in Bekanntlich ist in fr beliebige

liegen. ein Krperautomorphismus, d.h. es gilt

C die Abbildung z z (konjugiert Komplexes) z, w C: z + w = z + w und z w = z w. p(z) R[z], z z1


und so ist auch

Damit folgt, dass die nichtreellen Nullstellen von eine Nullstelle von

p(z) R[z] jeweils paarweise z 1 C \ R eine Nullstelle von p(z).

auftreten: Ist

z1 C \ R

Die beiden Faktoren Wegen

z z 1
2

von

p(z) ergeben zusammen (z z1 )(z z 1 ) = z 2 (z1 +z 1 )z +z1 z 1 .


ist dieses quadratische Polynom in

z1 + z 1 = 2 Re z1 , z1 z 1 = |z1 | R

R[x].

Ein reelles Polynom

5ten Grades hat somit z.B. 1, 3 oder 5 reelle Nullstellen (entsprechend der Vielfachheit

gezhlt), die jeweils restlichen Nullstellen sind paarweise konjugierte, echt komplexe Nullstellen(das wird auch oft in der Analysis mit dem Zwischenwertsatz gezeigt).

n i i=0 pi z Z[z], also pi Z fr i = 0, . . . , n a mit n = deg p 1, also pn = 0. Hat p(z) eine rationale Nullstelle b (mit a Z, b N), so ist a ein Teiler des konstanten Terms p0 und b ein Teiler des Leitkoezienten pn .
(Merkregel fr rationale Wurzeln)

Satz 13.3.3

Es sei

p(z) =

Beweis: Hat

p(z)

die rationale Nullstelle

a b , so hat

p(z)

den Linearfaktor

a b

Q[z]

bzw.

bz a Z[z].

Ausmultiplizieren zeigt die Behauptung.

Beispiel 13.3.4.

Gegeben sei das Polynom

p(z) = z 5 3z 4 z 3 + 3z 2 2z + 6 Z[z] p0 = 6, also gem Merkregel 13.3.3: a {6, 3, 2, 1}. deg p = 5 und p5 = 1, also gem Merkregel 13.3.3: b {1}. a Zusammen liefert das b {6, 3, 2, 1}.
Es ist Es ist
87

Damit kann durch gezieltes Probieren recht schnell herausnden, ob das Polynom solche Nullstellen hat. Im vorliegenden Fall ist z.B. Linearfaktor

eine rationale Nullstelle, die man auf diese Art ndet.

Damit kann man den

z3

durch Polynomdivision abspalten und erhlt

p(z) = z4 z2 2 . z3
Macht man mit dem verbleibenden Polynom den gleichen Test nochmal, so stellt sich heraus, dass keiner der untersuchten rationalen Kandidaten eine Nullstelle ist, d.h. ber den rationalen Zahlen hat das Polynom keine weiteren Linearfaktoren (es knnte aber sehr wohl noch in 2 quadratische Faktoren zerfallen). Damit ist man bei einem Polynom 4.Grades blicherweise auch schon am Ende seines Lateins, denn die so genannten Cardanischen Formeln (nach Gerolamo Cardano (1501 - 1576)) fr Polynome dritten und vierten Grades sind so aufwndig, dass man sie selbst in einigen Formelsammlungen nicht ndet (ab dem Grad 5 gibt es keine Formeln mehr). blicherweise berlsst man diese Arbeit einem CAS (Computeralgebra-System). Im vorliegenden Fall hat man Glck, weil es sich um eine so genannte biquadratische Gleichung handelt, d.h. 2 man kann durch die Substitution z = x zu einer quadratischen Gleichung bergehen und diese dann mit der Mitternachtsformel faktorisieren:

x2 x 2 =0 x1,2 =

1 2

x2 x 2 =(x + 1)(x 2) z 4 z 2 2 = (z 2 + 1)(z 2 2)


Damit hat man jetzt insgesamt

p(z) = (z 3)(z 2 + 1)(z 2 2) .


Das ist die vollstndige Faktorisierung von Von den beiden quadratischen Faktoren ist

p(z) ber Q. z 2 + 1 ber den (z 2)(z +

reellen Zahlen unzerlegbar, denn jedes Quadrat ist

dort nichtnegativ. 2 Der Faktor z 2 lsst sich aber zerlegen in Die vollstndige Faktorisierung von

2). 2)(z 2 + 1) .

ber

lautet somit

p(z) = (z 3)(z

2)(z +

Nimmt man nun aber die komplexen Zahlen zu Hilfe, so zerfllt auch noch (gem der Aussage des Fundamen2 talsatzes) der letzte Faktor z + 1 in die Linearfaktoren (z i)(z + i), so dass man insgesamt

p(z) = (z 3)(z
als vollstndige Faktorisierung von Das Polynom 5.Grades

2)(z + 5

2)(z i)(z + i) 3, 2, 2, i, i. 5 5-Matrix

ber

hat.

hat also hat also ber

C 0
4 3

die

einfachen Wurzeln

Das in diesem Beispiel behandelte Polynom tritt z.B. auf als das charakteristische Polynom der

3 0 0 0 0

0 2
4 3 1 3 2

1 3

0 0

0 0

0 0 0 0 0 0 0 1 1 0

Je nach zugrundeliegendem Krper hat sie also die Eigenwerte: ber ber
13.12.10

ber

Q R C

: 3, : 3, 2 , : 3, 2, i .
mit dem Grad

Laut Fundamentalsatz besitzt ein Polynom folge) eindeutige Faktorisierung (13.4).

p(z) C[z]

deg(p(z)) = n

eine (bis auf Reihen-

Fasst man hier gleiche Faktoren in Potenzen zusammen, so erhlt man eine Zerlegung

p(z) = a(z w1 )1 (z w2 )2 (z w )
mit paarweise verschiedenen Wurzeln

(13.5) mit

w1 , . . . , w C
88

und Exponenten

1 , . . . , N

1 + + =

n = deg(p).

Auch diese Zerlegung ist bis auf Reihenfolge der Faktoren eindeutig bestimmt.

Denition 13.3.5. In (13.5) heit i die Vielfachheit der Wurzel wi von p. Ist p(z) = f (z) das charakteristische Polynom eines Endomorphismus f , so ist i = wi Eigenwert von f und i heit die algebraische Vielfachheit dieses Eigenwerts. i.Z. af (i ) = i . Denition 13.3.6.
Eine

n n-Matrix

der Gestalt

c 0 . . J = . 0 0 0
mit

1 c
.. .

0 1
.. .

0 0
.. .

...
.. .

... ... ...

0 ... ...

c 0 0

1 c 0

0 0 . . . 0 1 c c.

cK

heit nach Marie Ennemond Camille Jordan (1838 - 1922) Jordan-Block zu Da der Jordan-Block zu

Beispiel 13.3.7.

c in oberer Dreiecksgestalt vorliegt, bekommt man das charakteristische 1 c


.. .

Polynom einfach und schon faktorisiert geliefert:

c 0 . . J () = det . 0 0 0
d.h.

0 1
.. .

0 0
.. .

...
.. .

... ... ...

0 ... ...

c 0 0 =c ...
. .. .

1 c 0

0 0 . . . = (c )n , 0 1 c

ist der einzige Eigenwert von

mit der algebraischen Vielfachheit

Zur Berechnung des zugehrigen Eigenraums setzt man

aJ (c) = n. ein und betrachtet das LGS 0 0 . . . v = 0 . 0 1 0

0 0 . . . 0 0 0

1 0
.. .

0 1
.. .

0 0
..

... ... ...

0 ... ...

0 0 0

1 0 0

Da dieses LGS schon in Zeilenstufenform vorliegt, ist klar, dass es eine eindimensionale Lsung gibt, nmlich
1 0 . . . 0 1 0 . . . 0

v=R

bzw.

EJ (c) = Lin

Die geometrische Vielfachheit des Eigenwerts Mit diesem

1-dimensionalen
Es seien

c ist also gJ (c) = Eigenraum bekommt man im Fall


zusammen, d.h. Jordan-Blcke

Vektoren fr eine Basis von

1. n > 1 sicher nicht genug linear unabhngige sind fr n > 1 nicht diagonalisierbar. K -Vektorraum
und

Satz 13.3.8.
morphismus

ein Krper,

ein endlichdimensionaler

f End(V ).

Der Endo-

ist genau dann diagonalisierbar, wenn die beiden folgenden Punkte erfllt sind

(i) Das charakteristische Polynom (ii) Fr jeden Eigenwert

f ()

zerfllt ber

in Linearfaktoren.

von

gilt:

Alg. Vielfachheit Beweis:   (i) Ist

af (i ) = gf (i ) B

Geom. Vielfachheit

diagonalisierbar, so gibt es eine Basis

von

mit

[f ]B = diag(1 , . . . , 1 , 2 , . . . , 2 , . . . , k , . . . , k )
n1 Stck
mit und und

n2 Stck
fr

nk Stck

1 , . . . , k K i = j
fr

kn n1 + + nk = n .

i=j
mit

n1 , . . . , n k N
89

Das zugehrige charakteristische Polynom ist dann

f () = (1 )n1 . . . (k )nk ,
was Teil (i) mit

n1 = af (1 ),

...,

nk = af (k )

zeigt.

  (ii) Der Einfachheit halber wird (ii) fr

nachgewiesen. Fr die anderen Eigenwerte geht das genauso. Wegen

[f ]B 1 1n = diag(0, . . . , 0, 2 1 , . . . , 2 1 , . . . , k 1 , . . . , k 1 )
af (1 )
und

af (2 )

af (k )

i = j fr i = j ist der Rang n af (1 ), d.h. die Lsung des LGS ([f ]B 1 1n )v1 = 0, das ist gerade Ef (1 ), hat die Dimension af (1 ). Somit ist die Vielfachheit af (1 ) des Eigenwerts 1 im charakteristischen Polynom (seine algebraische Vielfachheit) gleich der Dimension des zugehrigen Eigenraums (der geometrischen Vielfachheit gf (1 )).   Nach (i) gibt es die Eigenwerte 1 , . . . , k mit den Vielfachheiten af (1 ) , . . . , af (k ) und af (1 ) + + af (k ) = n, d.h. zhlt man die Eigenwerte entsprechend ihrer Vielfachheit, so gibt es gerade n Stck. Die zugehrigen Eigenrume Ef (i ) haben nach (ii) die Dimension gf (i ) = af (i ). Man kann also zu jedem dieser
Eigenrume eine entsprechend groe Basis angeben:

(v1 , . . . , vaf (1 ) ) (v1 , . . . , vaf (2 ) )


. . .

(1)

(1)

sei eine geordnete Basis von sei eine geordnete Basis von

Ef (1 ) , Ef (2 ) ,

(2)

(2)

(v1 , . . . , vaf (k ) )
Es gengt zu zeigen, dass

(k)

(k)

sei eine geordnete Basis von

Ef (k ) .

{v1 , . . . , vaf (1 ) , v1 , . . . , vaf (2 ) , . . . , v1 , . . . , vaf (k ) }


eine Basis von

(1)

(1)

(2)

(2)

(k)

(k)

ist. Da das

n Vektoren sind, reicht der Nachweis der linearen Unabhngigkeit. Dazu betrachtet
(1) (1) (k) (k) (k) (k)
(13.6)

man wie blich die Linearkombination

c1 v1 + + caf (1 ) vaf (1 ) + + c1 v1 + + caf (k ) vaf (k ) = 0


Wendet man die Abbildung

(1) (1)

f idV

auf einen Eigenvektor

v (j) Ef (j )

an, so ergibt sich

(f idV ) (v (j) ) = j v (j) v (j) = (j )v (j)


Macht man das mehrfach hintereinander, so ergibt sich

(f 2 idV ) (f k idV )(v (j) ) = (j 2 ) . . . (j k )v (j) =0 =0


Dies kann man ausnutzen, indem man die Abbildung falls falls

j > 1, j = 1.

(13.7)

(f 2 idV ) . . . (f k idV )
beidseitig auf Gleichung (13.6) anwendet. Zusammen mit (13.7) fhrt das auf

(1 2 ) . . . (1 k )(c1 v1 + + caf (1 ) vaf (1 ) ) = 0 c1 v1 + + caf (1 ) vaf (1 ) = 0 c1 = = caf (1 ) = 0


Analog kann man etwa

(1) (1)

(1)

(1)

(1) (1)

(1)

(1)

(1)

(1)

(f 1 idV )(f 3 idV ) (f k idV ) c1 = = caf (2 ) = 0


(2) (2)

beidseitig auf (13.6) anwenden und erhlt

verschwinden fr j = 1, . . . , k und jeweils i = 1, . . . , j , d.h. (1) (1) (2) (2) (k) (k) {v1 , . . . , vaf (1 ) , v1 , . . . , vaf (2 ) , . . . , v1 , . . . , vaf (k ) } ist eine Basis von V aus usw. d.h. alle gonalisierbar! 90

ci

(j)

Eigenvektoren,

ist also dia-

13.4 Jordan-Normalform
Beispiel 13.4.1.
Der Jordan-Block

c
0

1 c
. . . .

0 1
. . .

0 0
. .

...
. .

0 0
. . .

. . J = . 0
aus 13.3.7 hat den nalen Eigenraum

0 0

... ... ...

0 ... ...

c 0 0

1 c 0

0
1 c

n-fachen Eigenwert c, EJ (c), d.h. es gilt

d.h. es ist

aJ (c) = n.

Zu diesem gibt es aber nur einen eindimensio-

Geom. Vielfachheit fr

gJ (c) = 1 <

Alg. Vielfachheit

aJ (c) = n

n > 1,

d.h.

ist nicht diagonalisierbar. Aus dem Beweis von 13.3.8 folgt, dass fr jeden Eigenwert

Folgerung 13.4.2.
1

gilt

Geometrische Vielfachheit

gf ()

Algebraische Vielfachheit

af ()

Beispiel 13.4.3.

Gegeben sei der Endomorphismus

10 8 2
Das charakteristische Polynom ist

f End(R3 ) durch 18 42 17 47 . 5 15

die Abbildungsmatrix

f () = 3 + 8 2 20 + 16 = ( 4) ( 2) , f
hat den doppelten Eigenwert

2,

also

af (2) = 2

und den einfachen Eigenwert

4,

also

af (4) = 1.

Die zugehrigen Eigenrume sind

2 6 Ef (2) = R 5 , Ef (4) = R 3 , 1 1
d.h. die geometrischen Vielfachheiten der beiden Eigenwerte sind Fr den doppelten Eigenwert Satz nicht diagonalisierbar.

gf (2) = 1 = gf (4). 2 ist also die geometrische Vielfachheit zu klein, d.h. f ist nach dem vorhergehenden 3 Es gibt somit keine Basis des R aus Eigenvektoren von f . Trotzdem kann es sich

lohnen, wenn man so viele linear unabhngige Eigenvektoren nimmt, wie man bekommen kann (im vorliegenden 3 Fall 2), und zu einer Basis des R ergnzt. Im vorliegenden Fall kann man z.B. noch als dritten Basisvektor e2 ergnzen. Bezglich der neuen Basis

2 6 0 B = 3 , 5 , 1 1 0 1
gilt dann

4 [f ]B = 0 0

0 2 0

3 2 , 2

was immer noch deutlich besser als die ursprnglich gegebene Matrix ist. Noch etwas schner wird die Darstellung, wenn man die beiden Eigenvektoren wie folgt zu einer Basis ergnzt

2 6 3 B = 3 , 5 , 1 , 1 1 0
denn bezglich dieser Basis gilt

[f ]B

4 = 0 0
91

0 2 0

0 1 . 2

Die so genannte Jordan-Normalform (letzte Matrix im vorhergehenden Beispiel) ist in vielen Fllen die bestmgliche Darstellung.

Denition 13.4.4.
ein ist:

Es seien

mN

und Jordan-Blcke

K ein Krper und n N. Eine Matrix A K nn heit Jordan-Matrix, falls es (13.3.6) J1 , J2 , . . . , Jm gibt, so dass A von der folgenden Blockdiagonalgestalt J1 J2 A= .. . Jm

Die Diagonaleintrge in den Matrizen verschieden sein:

J1 , J2 ,

...,

Jm

einer Jordan-Matrix

A (13.4.4)

mssen nicht

Beispiel 13.4.5.

2 2 1 0 2

0
2 1 0 2

2 2

0
K

0
2 1 0 0 2 1 0 0 2

2 1 0 2

2 1 0 0 2 1 0 0 2

0
2.

sind verschiedene (nicht alle)

5 5-Jordan-Matrizen
ein Krper,

mit dem 5-fachen Eigenwert

Denition 13.4.6.
B = (b1 , b2 , . . . , bn )

Es seien von

ein

V K

heit Jordan-Basis zu ein Krper,

n-dimensionaler K -Vektorraum und f End(V ). Eine Basis f , falls [f ]B eine Jordan-Matrix ist.
und

Satz 13.4.7.
ber

Es seien

ein

n-dimensionaler K -Vektorraum

f End(V ).

Zerfllt

f ()

in Linearfaktoren, so besitzt

eine Jordan-Basis.

Beweis: Fr diesen wichtigen Satz gibt es unzhlige Beweise. Auch der krzeste mir bekannte Beweis[siehe etwa
Hartl, 1988] erfordert aber etwa eine Vorlesungswoche und ist noch dazu nicht konstruktiv. Ich gebe hier deshalb nur einen Algorithmus zur Berechnung und keinen Beweis an.

In einer Jordan-Normalform stehen in der Diagonalen alle Eigenwerte entsprechend ihrer Vielfachheit. Betrachtet man etwa die Matrizen in 13.4.5, so sieht man, dass jeweils die erste Spalte eines Jordan-Blocks zu einem Eigenvektor in der zugehrigen Jordan-Basis gehrt. Man liest fr jeden Eigenwert

ab:

gA (i ) =

Anzahl der Jordan-Blcke zu

i . K.
Es

Denition 13.4.8. Es sei A := A 1n und

seien

ein Krper,

nN

und

A K nn
fr

eine Matrix mit dem Eigenwert

HA (, k) := Kern Ak

k {0, 1, 2, . . . } . ,
die Elemente von

HA (, k) heit Hauptraum k -ter Stufe von A zum Eigenwert heien Hauptvektoren k -ter Stufe von A zum Eigenwert .
Insbesondere ist der Hauptraum
16.12.10

HA (, k) \ HA (, k 1)
die Haupt-

1-ter

Stufe identisch mit dem Eigenraum, i.Z.

HA (, 1) = EA (),

vektoren

1-ter

Stufe sind Eigenvektoren. Es seien

Satz 13.4.9.
es ein

ein Krper,

nN

und

A K nn

eine Matrix mit dem Eigenwert

K.

Dann gibt

mit

0 = dim (HA (, 0)) < dim (HA (, 1)) < < dim (HA (, ))
Ab da wird die Folge der Dimensionen stationr:

dim (HA (, )) = dim (HA (, + 1)) = . . .


92

Kern(B

Beweis: Fr jede lineare Abbildung fB i+1 i

i+1 i : K n K n mit B K nn gilt Kern(fB ) Kern(fB ) bzw. Kern(B i )

),

denn fr

x Kern(B )

gilt

B i+1 x = B B i x = B 0 = 0 x Kern(B i+1 )


also

dim Kern(B i ) dim Kern(B i+1 ). Gilt fr ein mal dim Kern(B ) = dim Kern(B Kern(B +1 ), so folgt sogar B +1 x = 0 B x = 0 und damit x Kern(B
+2 +2

+1

),

also

Kern(B ) =

) B B

+2 +1

x=BB
+1

+1

x = 0
+1

x = B B x = 0 x Kern(B

),

), und somit mit Induktion dim Kern(B +k ) = dim Kern(B ) n fr k N.Da alle genannten Rume Unterrume des K sind, sind alle hier betrachteten Dimensionen n, d.h.
also insbesondere

dim Kern(B

) = dim Kern(B

die Folge muss in jedem Fall stationr werden.

Man kann zeigen, dass die Dimension von Der Hauptraum von

HA (, )

gerade die algebraische Vielfachheit

aA ()

ist.

ter Stufe umfasst alle Hauptrume anderer Stufen. Er wird deshalb einfach Hauptraum

zum Eigenwert

genannt (oder verallgemeinerter Eigenraum).

Die Basisvektoren fr den zu

stammen aus dem Hauptraum zu

gehrigen Teil der Jordan-Normalform (das ist eine aA ()aA ()-Matrix) .


eine Matrix mit dem Eigenwert (oder kurz

Denition 13.4.10.
Fr

Es seien seien

k {0, 1, 2, . . . }

mglich ist). Weiterhin sei

K ein Krper, n N und A K nn A := A 1n und rk (A, ) := Rang(Ak ) fr k = 1, 2 . . . :

K.

rk ,

wenn keine Verwechslung

ck (A, ) := rk+1 (A, ) + rk1 (A, ) 2rk (A, )


(bzw. wieder kurz

ck ).
Fr jeden Eigenwert

Folgerung 13.4.11.

ist rk (A, ) = ndim HA (, k), insbesondere r1 (A, ) = ngA (),


+1

d.h. zusammen mit 13.4.9 folgt

n = r0 (A, ) > r1 (A, ) > > r (A, ) = r

(A, ) = . . .
von

Satz 13.4.12.
A ()
ber

Es seien

ein Krper,

nN

und

AK

nn

eine Matrix, deren charakteristisches Polynom

in Linearfaktoren zerfllt. Dann ist fr jeden Eigenwert

i K

A i

ck (A, i ) =

Anzahl der Jordan-Blcke der Lnge

zum Eigenwert

in einer Jordan-Normalform von

A.

Folgerung 13.4.13.
wert

Zusammen mit einer frheren Bemerkung zur Anzahl der Jordan-Blcke zu einem Eigenn

heit das

gA (i ) =
k=1

ck (A, i )

Algorithmus 1: Berechnung der JNF


:

Eingabe A K () K Ausgabe T GL(n, K) T AT Beginn B := () E := { K | ist Eigenwert von A} fr alle E tue


nn
, sodass

ber

in Linearfaktoren zerfllt.

, sodass

Jordan-Matrix ist.

Setze

; Berechne

Berechne Setze

fr

c = c (A, ) gem 13.4.10 fr = 1, 2, . . . ; D := fr = 1, 2, . . . , max{ | c = 0}; = max{ | c = 0}, . . . , 2, 1 Berechne Basen B 1 von HA (, 1) und B von HA (, ); Whle b1 , . . . , bc B , sodass B 1 D {b1 , . . . , bc } lin. unabh.; i = 1, . . . , c j = 1, . . . , Fge bi an B an; Setze D j+1 D j+1 {bi }; bi (A 1n )bi ;

tue

fr fr

tue tue

Drehe die Reihenfolge von

um;

T :=Matrix

mit den Vektoren aus

als Spalten

93

Beispiel 13.4.14.

Es sei

A :=

134 125 188 125 8 75 16 75 16 75

87 125 391 125 2 25 4 25 4 25

329 150

149 50
131 45 52 45 22 45

172 75 57 25 26 45 68 45 8 45

49 150 31 50 1 45 13 45 62 45

R55

Fr diese Matrix gilt

A (z) = z 5 + 10 z 4 40 z 3 + 80 z 2 80 z + 32 = (z 2) , aA (2) = 5 und A besitzt gem 13.4.7 eine Jordan-Basis. Die zugehrige Jordan-Normalform hat 2 in der Hauptdiagonalen. Zuerst betrachtet man wie blich A2 := A 2 15 und berechnet daraus r1 (A, 2) := Rang(A2 ) = 3, also gA (2) = 5 3 = 2. Aus der erreichten Zeilenstufenform liest man nun den
d.h. es ist fnfmal die Hauptraum 1.Stufe bzw. Eigenraum

15 16

0 HA (2, 1) := Kern (A2 ) = EA (2) = Lin 1 2 1 1

4 1 , 0 0 0

ab. Es gibt also gA (2) = 2 Jordan-Blcke zum Eigenwert 2, die damit die Gren 1 und 4 oder 2 und 3 haben 2 2 2 mssen. Nun betrachtet man A2 := (A 2 5 ) und berechnet deren Rang r2 (A, 2) := Rang(A2 ) = 1. Der zugehrige 5 1-dimensionale Kern dieser Matrix ist der Hauptraum 2.Stufe

1 0 0 0 0 0 1 0 HA (2, 2) = Lin 1 , 1 , 0 , 0 2 1 0 0 0 0 0 1 0 A3 := (A 2 15 )3 = 0 ist der Rang r3 (A, 2) := Rang(A2 ) = 0 und somit der 2 3 5 k einfach Hauptraum, HA (2, 3) = R . Damit ist auch A2 = 0 fr k 3 und somit folgt
Wegen Hauptraum 3.Stufe, oder

r0 = 5 > r1 = 3 > r2 = 1 > 0 = r3 = r4 = . . .


Mit 13.4.10 folgt

c1 (A, 2) =5 + 1 2 3 = 0 c2 (A, 2) =3 + 0 2 1 = 1 c3 (A, 2) =1 + 0 2 0 = 1 c4 (A, 2) =0 + 0 2 0 = 0 c5 (A, 2) =0 + 0 2 0 = 0 , . . .


d.h. die Jordan-Normalform hat

Jordan-Block der Gre

wie das 3.Beispiel in 13.4.5. Man liest des Algorithmus startet deshalb mit

2 und 1 max{ | c = 0} = 3 ab, setzt = 3 mit den Basen B3 und B2


B3 =

Jordan-Block der Gre also von

3, sieht also aus D := fr = 1, 2, 3. Die -Schleife HA (2, 3) und HA (2, 2):

B2 =

1 0 0 0 0 0 1 0 0 0 {0 , 0 , 1 , 0 , 0} , 0 0 0 1 0 0 0 0 0 1
94

0 1 0 0 0 0 1 0 {1 , 1 , 0 , 0} 2 1 0 0 0 1 0 0 0

Nun kommt der wesentliche Teil des Algorithmus: Es sind

b1 , . . . , bc B zu whlen, sodass B 1 D {b1 , . . . , bc } linear unabhngig ist. Wegen c3 = 1 und D3 = , ist hier also ein b1 B3 zu whlen, sodass B2 {b1 } linear unabhngig ist. b1 = e3 leistet das Gewnschte. Mit diesem b1 HA (2, 3) \ HA (2, 2) kommt man nun in die Doppelschleife fr i und j . Dort wird b1 zuerst zu der bisher leeren geordneten Basis B hinzugefgt, d.h. wir haben jetzt B = (e3 ) und auerdem merkt man sich b1 in der bisher leeren Menge D3 , d.h. jetzt ist D3 = {e3 }, damit man in spteren Durchlufen noch wei, dass dieser Vektor aus HA (2, 3) schon verbraucht ist. In der inneren j -Schleife werden nun die bi mehrfach mit A 1n multipliziert. Das Ergebnis wird im Programm jeweils auch wieder bi genannt, was vielleicht etwas verwirrend ist. Zur Unterscheidung der Vektoren werden die (nur hier) mit bi , bi , bi , . . . bezeichnet. Man nennt bi , bi , bi , . . . auch eine Jordan-Kette zu .
Wegen

bi HA (, k) = Kern (A 1n )

folgt
k1

bi = (A 1n ) bi Kern (A 1n )
Fr die berechneten Vektoren gilt

bi = A bi bi bi + bi = A bi bi = A bi bi bi + bi = A bi
. . . Der letzte berechnete Vektor in dieser Kette ist in Nimmt man also Block

. . . , bi , bi , bi

Kern (A n ) = EA (). in der Reihenfolge in eine Basis, so gehrt zu diesen Basisvektoren der Jordan 0 . . . 0 0 0 1
.. .

0 1
.. .

0 0
.. .

...
.. .

... ... ...

0 ... ...

0 0

1 0

0 0 . . . 0 1

Im vorliegenden Fall ergibt sich

34 329 150 0 75 149 4 0 25 50 8 41 b1 = 1 HA (2, 3) \ HA (2, 2) b1 = 45 HA (2, 2) \ HA (2, 1) b1 = 45 HA (2, 1) \ HA (2, 0) 16 52 0 45 45 22 16 0 45 45


Auch b1 und b1 merkt man sich in den {b1 }. Auerdem fgt man b1 und b1 in B = (b1 , b1 , b1 ). Damit ist die Basis bisher leeren Mengen

D2 und D1 , d.h. jetzt ist D2 = {b1 } und D1 = der berechneten Reihenfolge der geordneten Basis B zu, d.h. jetzt ist = 2
weiter. Zuerst wird eine

B1

von

HA (2, 1) = Kern (A 2 15 ) = EA (2) berechnet, etwa


15 3

-Schleife des Algorithmus einmal durchlaufen und es geht mit

16 4 0 1 B1 = { 1 , 0 } 2 1 0 1 0 c2 (A, 2) = 1 ist nun b1 B2 zu whlen, sodass Mit den bereits bekannten D2 und B2 heit dies
Wegen

B1 D2 {b1 }

linear unabhngig ist.

15 3 0 1 329 0 0 16 4 150 149 0 1 0 0 1 0 50 1 b1 {1 , 2 , 0 , 0} { 1 , 0 , 41 , b1 } 2 45 1 0 0 0 1 0 52 45 22 1 0 0 1 0 0 45


95

lin. unabh.

Der Vektor

b1 =

leistet das Gewnschte.

Dieser Vektor wird an die geordneten Basis Auerdem wird inneren tun. Es ist der folgende Endstand erreicht

B angehngt und zu der Menge D2 hinzugefgt. b1 = (A 2 15 ) b1 EA (2) berechnet und an B angehngt und zu D1 hinzugefgt. Die 3 Schleifen fr , i und j sind damit abgearbeitet, denn fr = 1 ist wegen c1 (A, 2) = 0 nichts mehr zu

34 1 10 75 7 4 10 25 8 D1 ={ 1 , 45 }, D2 3 2 16 3 45 2 16 3 45

329 0 0 150 0 149 0 50 = {1 , 41 }, D3 = {1} 45 1 52 0 45 22 0 0 45 1 34 329 0 0 150 75 10 0 149 4 0 7 50 25 10 8 1 B = 1 , 41 , 45 , 1 , 3 45 0 52 16 1 2 45 45 3 22 16 2 0 0 45 45 3 B


und die Transformati-

Die zu berechnende Jordan-Basis ergibt sich jetzt durch Umkehr der Reihenfolge aus onsmatrix

fr den Basiswechsel hat die neuen Basisvektoren als Spalten, also

T =

1 10 7 10 1 3 2 3 2 3

0 0 1 1 0

34 75 4 25 8 45 16 45 16 45

329 150 149 50


41 45 52 45 22 45

0 0 1 0 0

Mit diesem

gilt endlich

T 1 AT =
20.12.10

2 1 0 2

2 1 0 0 2 1 0 0 2

Beispiel 13.4.15.

Wie so oft bei Algorithmen, gibt es natrlich alle mglichen Sonderflle, in denen das ein-

facher und schneller geht. Ein besonderer Fall wird in diesem Beispiel gezeigt: Es sei

A :=

1517 1875 998 625 4 1125 8 1125 8 1125

452 625 1961 625 26 375 52 375 52 375

299 750 219 250 127 75 18 25 4 75

431 150 161 50 29 45 17 45 2 45

689 250

427 250 73 R55 225 71 225


221 225

Es ist

A (z) = z 5 + 7 z 4 19 z 3 + 25 z 2 16 z + 4 = (z 2) (z 1) ,
d.h. es ist

aA (2) = 2, aA (1) = 3.

Die Berechnung der zugehrigen Eigenrume bzw. Hauptrume 1.Stufe liefert

87 20

141 20 EA (2) = R 1/2 , EA (1) = R 1/2 1 1 1 1


96

51 40 9 20

Da beide Eigenrume eindimensional sind, gibt es zu jedem Eigenwert einen Jordan-Block, d.h. die Gestalt der Jordan-Normalform steht fest:


Ist

2 1 0 2

1 1 0 0 1 1 0 0 1

0
b1 EA (2)
und

B = {b1 , b2 , b3 , b4 , b5 } eine zu dieser b3 EA (1). An den weiteren Spalten der

Jordan-Normalform gehrige Jordan-Basis, so gilt Jordan-Normalform liest man nun ab

Ab2 = b1 + 2b2 , Ab4 = b3 + b4 , Ab5 = b4 + b5


Somit kann man geeignete Hauptvektoren als Lsungen einfacher linearer Gleichungssysteme berechnen:

Ab2 = b1 + 2b2 Ab4 = b3 + b4 Ab5 = b4 + b5

(A 215 )b2 = b1 (A 15 )b4 = b3 (A 15 )b5 = b4

A2 b2 = b1 A1 b4 = b3 A1 b5 = b4 . 1-dimensionale
Lsungsrume, aus

Diese inhomogenen linearen Gleichungssysteme haben jeweils mindestens denen man sich jeweils nur eine Lsung auswhlt. Hier erhlt man z.B.

3 4

375 32

28467 256

29 12303 0 4 128 35 945 b2 = 0 , b4 = 4 , b5 = 64 0 125 0 8 55 0 765 4 32


und damit die Transformationsmatrix

87 20

3/4 29 4 0 0 0

141 20 T = 1 2 1 1

51 40 9 20 1 2

375 32

28467 256

0
35 4 125 8 55 4

1 1

12303 128 945 64 0 765 32

Dieses Verfahren funktioniert hier nur deshalb, weil es zu beiden Eigenwerten jeweils nur einen Jordan-Block und somit jeweils nur eine Jordan-Kette gibt. Somit kann man bei einem Eigenvektor starten und die Jordan-Kette in anderer Richtung als im Algorithmus durchlaufen. Hat man dagegen mehrdimensionale Eigenrume, so geht dieses Verfahren nicht mehr so direkt, weil man nicht wei, bei welchem Eigenvektor man starten kann. So ist z.B. fr

2 A = 0 0
der Eigenraum

1 2 0

0 0 2 b = e1 + e3
oder

EA (2) = Lin (e1 + e3 , e3 ),

aber zu keinem der beiden Vektoren

b = e3

das LGS
23.12.10

A2 x = b

lsbar.

97

98

14 Bilinearformen
14.1 Matrixdarstellung

Es seien Dimension und

: V V K; (x, y) (x, y) eine Bilinearform (12.1.1) auf einem K -Vektorraum V B = (b1 , . . . , bn ) eine geordnete Basis von V . v=
n i=1

endlicher

Betrachtet man analog zu linearen Abbildungen die Bilder der Basisvektoren wegen der Bilinearitt fr zwei beliebige Vektoren

v i bi
n

und

w=

aij n j=1

:= (bi , bj ), wj bj aus V

so gilt dann

(v, w) = (
i=1
d.h.

v i bi ,
j=1

w j bj ) =
i=1

vi
j=1

aij wj ,

(14.1)

ist durch die Bilder

aij := (bi , bj )

der Basisvektoren bereits eindeutig festgelegt.

Denition 14.1.1.

Es seien

eine geordnete Basis von

und

ein Krper, n N, V ein n-dimensionaler K -Vektorraum, B = (b1 , . . . , bn ) : V V K; (x, y) (x, y) eine Bilinearform. Die Matrix

GB () := ((bi , bj ))1i,jn
heit Grammatrix (auch Formmatrix oder Strukturmatrix) von

(14.1) zeigt nun, dass man mit Hilfe der Grammatrix schreiben kann:

(v, w) =

v/B GB () w/B .

Wegen der bekannten Rechengesetze fr Matrizen prft man nun leicht nach, dass anders herum fr jede beliebige Matrix

A K nn A

die Abbildung

(v, w)

v/B A w/B

eine Bilinearform des

Kn

ist.

Diese heit dann die zu

gehrige Bilinearform.

Beispiel 14.1.2.

Mit der Grammatrix

A = 1n

im

Rn

erhlt man das so genannte Standard-Skalarprodukt (oder

kanonische reelle Skalarprodukt)


t

vAw = tv 1n w = tvw = v1 w1 + v2 w2 + + vn wn ,

d.h. dieses Skalarprodukt ist eine spezielle Bilinearform.

Satz 14.1.3.

Eine Bilinearform

eines

K -Vektorraumes V
fr alle

heit nicht ausgeartet, wenn fr festes

vV

gilt

(v, w) = 0

w V v = 0.
eine

Satz 14.1.4.

Es seien

ein Krper,

geordnete Basis von

und

n N, V ein n-dimensionaler K -Vektorraum, B = (b1 , . . . , bn ) : V V K; (x, y) (x, y) eine Bilinearform. Dann gilt Rang GB () = n
ist nicht ausgeartet.

Beweis:   Angenommen, Rang G () = m < n. Dann ist mit w V die Menge der Vektoren G () w/ ein B B B m-dimensionaler Teilraum des K n . Ist C = (c1 , . . . , cm ) eine Basis dieses Raumes, so ist (v, w) = 0 fr alle w V gleichbedeutend mit

(c1 )
. . .

v/B c1

c2

...

cm = 0

v/ = 0 . B t (cm )

m < n hat, gibt es einen n m-dimensionalen Lsungsraum v 's, also insbesondere immer von 0 verschiedene Lsungen, d.h. ist ausgeartet.   Ist Rang G () = n, so ist die Menge aller G () w /B ganz V . Deshalb ist (v, w) = 0 fr alle w V B B t gleichbedeutend mit v/B 1n = 0, d.h. es gibt nur die Lsung v = 0 und ist nicht ausgeartet.
Da die Koezientenmatrix dieses LGS den Rang fr die 99

14.2 Basiswechsel

Wie bei linearen Abbildungen interessiert man sich nun fr das Verhalten der Grammatrix beim Basiswechsel und fr Basen bezglich derer die Grammatrix besonders einfach aussieht.

Der Basiswechsel von einer Basis

von

(invertierbaren) Transformationsmatrix

V zu einer T := B [idV ]C

Basis

von

wird dabei wie gewohnt von einer

beschrieben:

v/B =B [idV ]C v/C ,


t t t

w/B = B [idV ]C w/C = .

(v, w) = v/B GB () w/B = = =


B [idV ]C v/C G () B [idV ]C w/C B t v/C (B [idV ]C ) GB () B [idV ]C w/C =G ()
C

oder kurz

GC () = tT GB () T .
Zwei Matrizen

Denition 14.2.1.
A= T BT
t

A, B K nn

heien kongruent, wenn es ein invertierbares

T K nn

mit

gibt. Die Kongruenz von Matrizen ist eine quivalenzrelation.

Satz 14.2.2.

Beweis: Einfache bung.

Genauso wie man sich bei den quivalenzklassen hnlicher Matrizen mglichst einfache Vertreter aussucht (Diagonalgestalt, Dreiecksgestalt oder Jordan-Normalform), stellt sich auch fr quivalenzklassen kongruenter Matrizen das Normalformenproblem.

Mit Hilfe von Elementarmatrizen kann man jetzt einiges zu Kongruenzumformungen sagen: Ist

eine invertierbare Matrix, so kann man diese als Produkt von Elementarmatrizen schreiben.

Die Multiplikation einer gegebenen Matrix elementaren Zeilenumformungen.

von rechts mit der Matrix

taren Spaltenumformungen und die Multiplikation dieser Matrix mit

T bewirkt eine Folge von elemenT von links bewirkt die analogen

Dieses Wissen nutzt man aus, um eine gegebene Matrix bringen:

auf eine einfachere, aber kongruente Gestalt zu

Es seien

ein Krper und

A K nn .

An der gegebenen Matrix

A werden identische elementare Zeilen- und Spaltenumformungen vorgenommen.

Die Zeilenumformungen werden gleichzeitig in einer gleichgroen Einheitsmatrix mitprotokolliert (analog knnte man natrlich auch die elementaren Spaltenumformungen mitprotokollieren):

(A|1n )
Ist

Identische elem. Zeilenund Spaltenumf. an A, an n nur Zeilenumf.

(A |T ) A = T A tT

A die Grammatrix einer Bilinearform bezglich der Basis B , also A = GB (), so ist A = GC () und T = B [id]C , d.h. man kann aus T direkt die neue Basis ablesen.

Fr eine spezielle Klasse von Bilinearformen wird das Normalformenproblem fr kongruente Matrizen durch den so genannten Sylvesterschen Trgheitssatz sehr schn beantwortet werden. 100

Beispiel 14.2.3.
1 2 3 1 0 0 4 5 6 0 1 0 7 8 9 0 0 1 1 2 4 1 0 0 3 6 4 1 0 6 12 7 0 1 2 0 1 0 0 3 0 4 1 0 0 0 1 2 1 0 0 1 4 1 0 4 1 2 1 7
=T Z2 Z2 4Z1 Z3 Z3 7Z1
und und

S2 S2 4S1 S3 S3 7S1

0 Z3 Z3 2Z2 und S3 S3 2S2 0 1 0 0 1 2 3 1 4 1 1 2 0 5 6 0 1 2 0 3 0 = 8 9 0 0 1 0 0 0


B

=A=G ()

= T =B [id]C

=A =G ()
C

14.3 Quadratische Formen


Denition 14.3.1.
Bilinearform Es seien

ein Krper,

ein

K -Vektorraum

und

:V V K

eine Bilinearform. Die

heit symmetrisch, wenn gilt

(u, v) = (v, u)

u, v V . K -Vektorraum
und

Satz 14.3.2.

Es seien

K V

ein Krper,

ein endlichdimensionaler

: V V K

eine

Bilinearform. Die Bilinearform beliebigen Basis Beweis:

von

ist genau dann symmetrisch, wenn die zugehrige Grammatrix bezglich einer t symmetrisch ist: symmetrisch G () = GB () . B

u, w V : (u, w) = (w, u) = GB () =
t t t

u GB () w = w GB () u

t t

u GB () w = tw

GB () u

GB () .

Denition 14.3.3.

Es seien

ein Krper,

ein

K -Vektorraum

und

: V V K

eine symmetrische

Bilinearform. Dann heit

q :
die zu

V K v (v, v)

gehrige quadratische Form.

Aus der Bilinearitt von der Name. Fr alle

folgt fr die quadratische Form

q (v) = 2 q (v)

fr alle

K, v V ;

daher

u, v V

gilt

q (u + v) =(u + v, u + v) = (u, u + v) + (v, u + v) = =(u, u) + (u, v) + (v, u) + (v, v) = =q (u) + q (v) + 2(u, v) .
Ist (14.2)

endlichdimensional und

einer festen Basis

von

V,

A = (aij ) = GB ()
n

die zu

gehrige symmetrische Formmatrix bezglich

so ist

q(v) = tvAv =
i=1

2 aii vi + 1i<jn

2aij vi vj .

Dies ist ein Polynom in mehreren Variablen, also eine Summe von so genannten Termen der Gestalt

i i i av11 v22 . . . vrr

mit

a K, r N

und

i j N0

fr

j = 1, . . . , r

und Unbestimmten

v1 , . . . , v r .

101

Der Grad eines solchen Terms ist

i1 + + ir .

Haben alle Terme eines Polynoms gleichen Grad, so heit das Polynom homogen. Eine quadratische Form liefert also ein homogenes Polynom vom Grad Aus

(oder quadratisches Polynom).

n 2 1i<jn 2aij vi vj liest man ab, dass sich jedes homogene quadratische Polynom i=1 aii vi + t umschreiben lsst in die Gestalt vAv , also eine quadratische Form ist:

q(v) =

Die Koezienten der reinquadratischen Terme Formmatrix.

2 vi

liefern fr

i = 1, . . . , n

die Diagonalelemente

aii aij

der

Die Koezienten der gemischtquadratischen Terme

vi vj

werden fr

1i<jn

je zur Hlfte in

und

aji

bernommen.

Beispiel 14.3.4.

Das homogene quadratische Polynom

1x2 + 1y 2 + 2z 2 + 2xy + 4xz1yz 1 A = 1 2 1 1 1 2 2 1 2 . 2


und

ist identisch mit der

quadratischen Form

q(X) = x

x z A y z

mit

Satz 14.3.5.

Es seien

ein Krper mit

1 + 1 = 0, V

ein

K -Vektorraum

q:V K

eine quadratische

Form. Dann ist

die zu

zugehrige symmetrische

1 (q(u + v) q(u) q(v)) 2 Bilinearform, d.h. q = q . (u, v) = : V V K,


so folgt fr alle
(14.2)

Beweis: Ist

q = q

mit der Bilinearform

u, v V

1 (u, v) = 2 (q(u + v) q(u) q(v)) =

1 = 2 (q(u) + q(v) + 2(u, v) q(u) q(v)) = (u, v)


also

= .
Fr symmetrische Bilinearformen kann man mit Kongruenztransformationen eine besonders

Beispiel 14.3.6.

schne Form erreichen:

1 4 7 1 0 0 1 0 0 1 0 0
10.1.11

4 6 8

1 0 0 0 1 0 0 0 1 0 0 1 0 10 20 4 1 20 40 7 0 0 0 1 0 10 0 4 1 0 0 1 2 7 8 9 0 1 0

Z2 Z2 4Z1 Z3 Z3 7Z1

und und

S2 S2 4S1 S3 S3 7S1

0 0 1 0 0 1

Z3 Z3 2Z2

und

S3 S3 2S2

Z2

Z 2 10

und

S2

S 2 10

1 1

4 10

0 1 0 0 1 0 4 0 10 10 0 1 2 1 1 0 0 1 4 7 1 0 0 4 6 8 10 7 8 9 2 1 0

4 10
1 10

1 2 = 1

1 0 0

0 1 0

0 0 0

Satz 14.3.7

(Trgkeitssatz von Sylvester)

15

Es seien

n-dimensionalen R-Vektorraumes V .

Dann existiert eine Basis

1 n+

GB () = 0 0
15 Benannt
nach

K = R und B mit 0 0 1 n 0 . 0 0n0

eine symmetrische Bilinearform des

Mal das Wort Matrix im heutigen Sinne verwendete. Dieser Satz hier war allerdings schon davor

James Joseph Sylvester (1814 - 1897) , der u.a. in seiner Arbeit On a New Class of Theorems (1850) zum ersten Carl Gustav Jacob Jacobi (1804

- 1851) bekannt.
102

Dabei seien

n+ bzw. n Einheitsmatrizen der Gre n+ bzw. n und 0n0 eine n0 n0 -Nullmatrix. Die restlichen Nullen bezeichnen Nullmatrizen passender Gre. Die Zahlen n+ , n , n0 N (n+ + n + n0 = n)

sind durch die Bilinearform eindeutig bestimmt. Beweis: Der Beweis wird durch Induktion nach der Dimension
trivial. Nun sei auch

n1

und die Behauptung fr

n1

bewiesen.Ist

n von V gefhrt. Fr n = 0 ist die Aussage (v, v) = 0 fr alle v V , so gilt wegen 14.3.5

1 ((v + w, v + w) (v, v) (w, w)) = 0 2 fr alle v, w V , d.h. ist die Nullform und G () = 0 fr jede Basis B von V . B 1 v1 . Wegen Gibt es dagegen ein v1 V mit (v1 , v1 ) = 0, so setzt man w1 := (v, w) =
|(v1 ,v1 )|

der Bilinearitt von

folgt

(w1 , w1 ) =
Nun sei also

(v1 , v1 ) = 1 . |(v1 , v1 )|

W := {w V | (w1 , w) = 0}. Da eine Bilinearform von V ist, ist (w1 , w) eine Linearform von V , W der Kern dieser Linearform. Insbesondere ist W ein Untervektorraum von V . Wegen (w1 , w1 ) = 1 ist (w1 , w) nicht die Nullform, d.h. es ist Bild (w1 , w) = R und deshalb dim W = n 1. In bung 8.9 wurde Lin (w1 ) W = V gezeigt. Nach Induktionsvoraussetzung hat W eine Basis (w2 , . . . , wn ) mit den geforderten Eigenschaften. Deshalb ist B = (w1 , w2 , . . . , wn ) eine Basis von V mit den gesuchten Eigenschaften.

14.4 Denitheit
Denition 14.4.1.
Es seien K = R und eine symmetrische Bilinearform des n-dimensionalen R-Vektorraumes V . Das nach 14.3.7 eindeutig bestimmte Tripel (n+ , n , n0 ) heit die Signatur der symmetrischen Bilinearform . Eine reelle symmetrische Bilinearform mit n+ = n = dim V heit positiv denit. Die Matrix GB () aus dem Trgheitssatz heit die Sylvester-Normalform von .

Beispiel 14.4.2.
denit. Die Summe

Die in 14.3.6 betrachtete Bilinearform hat die Signatur ist der Rang jeder Grammatrix von

(1, 1, 1)

und ist deshalb nicht positiv

n+ + n

hier also

2.

Eine symmetrische Bilinearform heit nach bisheriger Denition positiv denit, wenn sie als SylvesterNormalform die Einheitsmatrix (Signatur Bezglich der zugehrigen Basis

(dim V, 0, 0))

besitzt.

gilt dann

(v, v) =
d.h.

v/B 1n v/B = |v1 |2 + + |vn |2 , v=0


gilt

(v, v)

ist immer positiv und nur fr

(v, v) = 0.

Damit wird die bisherige Denition ber die Normalform nun erweitert auf Bilinearformen ber beliebigen reellen Vektorrumen:

in einem reellen Vektorraum V (nicht zwingend end(v, v) > 0 v V \ {0} . Analog heit positiv semidenit, wenn gilt (v, v) 0 v V , negativ denit, wenn (v, v) < 0 v V \ {0} und negativ semidenit, wenn (v, v) 0 v V . Hat keine diese Eigenschaften, d.h. gibt es v V mit (v, v) > 0 und w V mit (w, w) < 0, so heit indenit.
Eine symmetrische Bilinearform lichdimensional) heit positiv denit, wenn gilt

Denition 14.4.3.

Fr eine positiv semidenite Bilinearform gilt Fr eine negativ denite Bilinearform ist

n = 0,

bzw.

n+ + n0 = n.

n = n , fr eine negativ semidenite n+ = 0, bzw. n + n0 = n.

Fr den Nachweis der positiven Denitheit sind damit schon zwei Kriterien bekannt: Direktes Nachrechnen von

(v, v) > 0

fr

v=0

(z.B. durch quadratische Ergnzung),

Umrechnung auf die Sylvester-Normalform mit Hilfe von Kongruenzumformungen. Dabei muss am Schluss nicht unbedingt die genaue Sylvester-Normalform mit

1, 0

in der Diagonalen

sein; irgendeine Diagonalgestalt und Betrachtung der Vorzeichen in der Diagonalen reicht schon. 103

Satz 14.4.4.
Dann besitzt Eigenwerte, Beweis: Ist
dieses und

Es sei V ein n-dimensionaler R-Vektorraum mit Basis B und eine symmetrische Bilinearform. A := GB () genau n reelle (nicht notwendig verschiedene, entsprechend ihrer Vielfachheit gezhlte) d.h. jede reelle symmetrische n n-Matrix hat n reelle Eigenwerte!
eine symmetrische Bilinearform mit der ebenfalls symmetrischen Formmatrix Algebra 13.3.2 so gilt

A Rnn ,

so hat

A nach dem Fundamentalsatz der v Cn ein zugehriger Eigenvektor,

komplexe Eigenwerte. Ist

solch ein Eigenwert

Av = v Av = v Av = tAv = v t(v) A = t(v) .


Damit folgt

(v, v) = t(v) Av =
denn

(v) (Av) = t(v) (v) = t(v) v ( t(v) A)v = ( t(v))v = t(v) v

= R,

(v) v = |v1 |2 + + |vn |2 = 0. A Rnn symmetrisch. Dann besitzt das charakteristische Polynom A () = Koezienten i fr i = 0, . . . , n und n reelle Nullstellen (also reelle Eigenwerte 1 , . . . , n )
Es sei
n i i=0 i und A ist

Satz 14.4.5.
nur reelle

genau dann positiv denit, wenn eine der folgenden Bedingungen erfllt ist:

(1) (2) (3)

1 , . . . , n > 0, (1)j j > 0


von fr

j = 0, . . . , n 1,

det(Ak ) > 0 fr k = 1, . . . , n, wobei Ak die Teilmatrix von A sei, die aus den ersten k Zeilen und Spalten A besteht. det(Ak ) heit Hauptunterdeterminante oder Hauptminor von A. Dieser Punkt ist auch >
zu

unter dem Namen Hurwitz-Kriterium bekannt (nach Adolf Hurwitz (1859 - 1919))

Vorsicht: Nur das 1. Kriterium kann durch bergang von


nitheit angewendet werden! Eine Matrix

auf den Nachweis von positiver Semide-

ist genau dann negativ denit, wenn

positiv denit ist.

Damit lassen sich die aufgelisteten Kriterien auch zum Nachweis der negativen Denitheit verwenden. Der Beweis dieses Satzes erfordert einige Hilfsmittel, die in der Vorlesung noch nicht behandelt wurden, und wird deshalb vorerst weggelassen.

104

15 Euklidische Vektorrume
15.1 Skalarprodukt
Denition 15.1.1.
Bilinearform. Dann heit

R-Vektorraum und : V V R eine positiv denite symmetrische V und V Euklidischer Vektorraum. Ist eine Bilinearform sogar ein Skalarprodukt, so schreibt man auch x|y statt (x, y) (in der Schule oder bei Ingenieuren oft x y ). Um zu betonen, dass man einen Euklidischen Vektorraum hat, schreibt man auch (V, ) bzw. (V, | ).
Es seien

ein

Skalarprodukt auf

Beispiel 15.1.2. Das bereits aus der Schule bekannte so genannte reelle kanonische Skalarprodukt v|w := t v 1n w = tvw im Rn ist ein Skalarprodukt gem obiger Denition, der (Rn , | ) ein Euklidischer Vektorraum. Beispiel 15.1.3.
Es sei

V = R[x]3

der Vektorraum der reellen Polynome vom Grad hchstens


1

3.

Dann ist

p|q :=
1

p(x)q(x) dx

ein Skalarprodukt,

(V, | )

ein Euklidischer Vektorraum.

15.2 Norm
Denition 15.2.1.
Es sei

(V, | )

ein Euklidischer Vektorraum. Die Abbildung

:
heit die zu

V x

R x|x

gehrige Norm von

(auch Betrag oder Lnge genannt).

Beispiel 15.2.2.

Zu dem reellen kanonischen Skalarprodukt im

Rn

erhlt man so die bliche Euklidische Lnge

x =

x|x =

x2 + x2 + + x2 . n 1 2

Satz 15.2.3
V
gilt

(Die Cauchy-Schwarz-sche Ungleichung)

Es sei

(V, | )

ein Euklidischer Vektorraum. Fr

x, y

| x|y | x y .
Das Gleichheitszeichen gilt genau dann, wenn

und

linear abhngig sind.

Beweis: Zum Beweis betrachtet man die Norm des Vektors

v = x|x y y|x x .
Es gilt:

0 v

=
2

x|x y y|x x| x|x y y|x x = y|x x| x|x y x|x y| y|x x + y|x x| y|x x =
2

= x|x y| x|x y = x|x = x|x | y|x | x


2 2

y|y y|x x|x x|y x|x y|x y|y x|x y|x


2 2

+ y|x
2

x|x =

= x|x x|x y|y y|x x|x x|y x|x y|x


2

+ y|x x|y x|x =

y . v = 0
und somit

0 x|x y|y y|x y


2

| y|x | x

Gilt in der letzten Zeile das Gleichheitszeichen, so folgt in der ersten Zeile

y|x x = 0
man

also

und

linear abhngig.

Sind umgekehrt

und

linear abhngig, etwa

v = x|x y x = y , so bekommt

| x|y | = | y|y | = | y|y | = || y x y = y y = || y


also die Gleichheit. 105

Satz 15.2.4.
(N1 ) x 0

Es sei

(V, | )

ein Euklidischer Raum und

die zu

gehrige Norm. Dann gilt:

x V , x = 0 x = 0, x V, R, x, y V
(Dreiecksungleichung)

(N2 ) x = || x

(N3 ) x + y x + y

Beweis: Die ersten beiden Eigenschaften folgen direkt aus der Bilinearitt und positiven Denitheit des Skalarprodukts, die dritte aus der CSU:

x+y

= x + y|x + y = x|x + x|y + y|x + y|y = = x|x + x|y + x|y + y|y = x


2

+ 2 x|y + y

( x + y )2 = x
Wegen

+2 x

y + y

x|y | x|y | x

(CSU) folgt somit auch

x+y

( x + y )2

x+y x + y

wegen der Monotonie des Quadrats bzw. der Wurzel fr positive Werte. Wegen der Bemerkung am Ende des Beweises der CSU kann die Gleichheit hier nur dann eintreten, wenn

und

linear abhngig sind.

(N3 )
13.1.11

wird blicherweise Dreiecksungleichung genannt, was durch die ne-

benstehende Skizze klar sein sollte. Die Eigenschaften (N1 )-(N3 ) werden allgemein zur Denition einer Norm verwendet. Es gibt Normen, die sich nicht durch ein Skalarprodukt

als

x =

x|x

denieren lassen: fr

x := max{|xi | | 1 i n}
esse.

dim V = n

ist z.B. solch eine Norm.

Abbildung 29:
Dreiecksungleichung

Diese Normen sind aber in der Linearen Algebra meist nicht von Inter-

15.3 Metrik
Denition 15.3.1.
Es sei

(V, | )

ein Euklidischer Vektorraum. Die Abbildung

d:
heit die zu

V V (x, y)

R xy

gehrige Metrik von Es seien

V.
ein Euklidischer Vektorraum und

Folgerung 15.3.2.
gilt:

(V, | )

die zu

gehrige Metrik. Dann

(D1 ) d(P, Q) 0, d(P, Q) = 0 P = Q, (D2 ) d(P, Q) = d(Q, P ), (D3 ) d(P, R) d(P, Q) + d(Q, R)
fr alle Punkte

P, Q, R V . (D1 )-(D3 )
werden allgemein zur Denition einer Metrik verwendet. als

Die Eigenschaften

Es gibt Metriken, die sich nicht durch eine Norm

d(x, y) = x y

denieren lassen.

Diese sind aber in der Linearen Algebra meist nicht von Interesse. 106

15.4 Winkel und Orthogonalitt



Wegen der CSU 15.2.3 ist

x|y x y

1.

Deshalb ist der Arcuscosinus dieses Ausdruckes deniert, was man nun verwendet, um den Winkelbegri beruhend auf Skalarprodukt und Norm allgemein in Euklidischen Vektorrumen zu denieren:

Denition 15.4.1.
Norm

Es sei

ein Euklidischer Vektorraum mit dem Skalarprodukt

|
und

und der zugehrigen

. Der Winkel zwischen zwei von dem Nullvektor verschiedenen Vektoren


) <(x, y) := arccos

von

ist

x|y . x y

Wegen der gezeigten Eigenschaften von Skalarprodukt und Norm folgen fr den so denierten Winkel die erwarteten Eigenschaften.

) ) ) ) <(x, y) = <(y, x) , <(x, y) = <(x, y) , x, y V, R, > 0

Weiterhin hat der so denierte Winkel (auch in hherer Dimension) die erwarteten additiven Eigenschaften Fr den Beweis braucht man den Cosinus mit seinen Additionstheoremen (siehe z.B. Fischer [2000], S.277).

Abbildung 30:
Winkel-Additivitt

Es sei (V, | ) ein Euklidischer Vektorraum. Zwei Vektoren x, y V heien orthogonal | , wenn x|y = 0 ist. Sind v1 , . . . , vm V \ {0} so heit {v1 , . . . , vm } ein Orthogonalsystem, falls vi |vj = 0 fr beliebige i = j mit 1 i, j m. Ist zustzlich vi |vi = 1 fr 1 i m, so spricht man von einem Orthonormalsystem. Mit Hilfe des Kronecker-Symbols kann man ein Orthonormalsystem kurz durch vi |vj = ij fr beliebige 1 i, j m beschreiben. bezglich

Denition 15.4.2.

Satz 15.4.3.

Es sei

Jedes Orthogonalsystem

(V, | ) ein Euklidischer Vektorraum. {v1 , . . . , vm } in V ist linear unabhngig.


m i=1

Beweis: Mit dem blichen Ansatz


des Skalarprodukts:

i vi = 0 folgt fr ein beliebiges k


m m

mit

1 k m wegen der Bilinearitt

0 = vk |
i=1
Wegen

i vi =
i=1

i vk |vi = k vk |vk

vk |vk > 0

heit das

k = 0.

Ist

m = n = dim V ,

so spricht man deshalb auch von einer Orthogonalbasis bzw. einer Orthonormalbasis.

Ausgehend von einer beliebigen Basis

{v1 , . . . , vn }

eines endlichdimensionalen Euklidischen Vektorraumes

(V, | )
Vektor Vektor

kann nun eine Orthogonal- oder sogar Orthonormalbasis berechnet werden.

Der erste Schritt dazu ist die orthogonale Zerlegung eines gegebenen Vektors

in eine Summe aus einem

ba , der parallel zu einem b orthogonal zu a. a

anderen Vektor

ist (=orthogonale Projektion) von

auf

a)

und einen

Satz 15.4.4.
Es seien gilt

(V, | ) ein Euklidischer Vektorraum, O, A, B V Punkte mit O = A, a = OA, b = OB . Dann existiert L OA mit LB a und es a|b ba :=OL = 2a a b :=LB = b ba a

Abbildung 31:
107

Orthogonale

Zerlegung

Beweis:

a|b = a|b a

a|b a

2a

= a|b

a|b a
2

a|a = 0 b a a
= a
2

Da oensichtlich

ba a

und

ba + b = b a

gilt, folgt die Behauptung.

15.5 Orthogonalisierung

Geht man von einer Basis menden Orthogonalbasis und

{v1 , . . . , vn } aus, so nimmt w2 := v2 w1 |v2 w1 . w 2


1

man z.B.

w1 := v1

als ersten Vektor der zu bestim-

Nach 15.4.4 gilt dann Wegen

w1 w2

und nach 15.4.3 ist

{w1 , w2 }

linear unabhngig. d.h.

w1 , w2 Lin (v1 , v2 ) Lin (v1 , v2 ).

folgt

Lin (w1 , w2 ) = Lin (v1 , v2 ),

{w1 , w2 }

ist eine Orthogonalbasis von

Die gleiche Grundidee wird nun weiter verfolgt, um eine Orthogonalbasis von Dazu wird die orthogonale Projektion von dann von

Lin (v1 , v2 , v3 ) zu bestimmen.

v3

in die von

w1

und

w2

aufgespannte Ebene berechnet und

v3

subtrahiert:

Die Projektion von nen von

v3

in

v3

auf

w1

und von

Lin (w1 , w2 ) ist v3 auf w2 :

die Summe der Projektio-

Der Vektor

(v3 )Lin(w1 ,w2 ) :=


liegt oensichtlich in

w1 |v3 w1
2

w1 +

w2 |v3 w2
2

w2

Lin (w1 , w2 ).

Der Vektor

(v3 )Lin(w1 ,w2 ) := w3 = v3 (v3 )Lin(w1 ,w2 )


ist orthogonal zu jedem Vektor aus

Lin (w1 , w2 ), w1
und

Abbildung 32:
w2 :
2

Orthogonale

Projektion

Dies zeigt man durch Skalarprodukt mit den Basisvektoren

w1 |w3 = w1 |v3

w1 |v3 w1
2

w1 |w1
w1
2

w2 |v3 w2

w1 |w2 =
=0

= w1 |v3 w1 |v3 = 0
und analog

w2 |w3 = 0. {w1 , . . . , wn }
von

Diese Grundidee lsst sich rekursiv fortsetzen und endet bei einer orthogonalen Basis

{v1 , . . . , vn }.
Das gesamte Verfahren ist nach Jorgen Pedersen Gram (1850 - 1916) und Erhard Schmidt (1876 - 1959) benannt:

Satz 15.5.1 (Gram-Schmidtsches Orthogonalisierungsverfahren).


klidischer Vektorraum mit einer Basis

{v1 , . . . , vn }.
i1

Dann ist

Es sei (V, | ) ein endlichdimensionaler Eu{w1 , . . . , wn } mit

wi := vi
j=1

wj |vi wj (
w1 w1 2

wj

fr

i = 1, . . . , n )
eine Orthonormalbasis von

eine Orthogonalbasis von

bezglich

, bzw.

,...,
108

wn wn

V.

Beweis: Der Beweis wird durch Induktion nach


und

gefhrt. Der Fall

i=1

ist klar, der Beweis fr die Flle

i=3

ist in der Herleitung gemacht worden. Der noch fehlende Induktionsschritt von

leicht zu fhren, indem man in obiger Gleichung fr bildet. Da nach Induktionsvoraussetzung

wj w wj |vi wj
2

fr

wi beidseitig das Skalarprodukt mit 1 j, i 1 und j = gilt, fhrt w |vi w


2

i=2 i 1 nach i ist nun w fr 1 i 1


das auf

i1

w |wi = w |vi
j=1

w |wj = w |vi

w |w

=0

Folgerung 15.5.2.

Jeder endlichdimensionale Euklidische Vektorraum

(V, | )

besitzt eine Orthogonalbasis

(und natrlich auch eine Orthonormalbasis). Beweis: Man wende das Gram-Schmidtsche Orthogonalisierungsverfahren auf eine beliebige Basis von
(und normiere gegebenenfalls).

an

Folgerung 15.5.3.
Vektorraumes

Jede Orthogonalbasis eines Untervektorraumes lsst sich zu einer Orthogonalbasis von

eines endlichdimensionalen Euklidischen

(V, | )

ergnzen (analog fr Orthonormalbasen).

Beweis: Man ergnze eine Orthogonalbasis von


fr Orthonormalbasen).

zu einer Basis von

und wende das Orthogonalisierungsver-

fahren auf diese Basis an. Die bereits orthogonalen Basisvektoren von

werden dabei nicht verndert (analog

Satz 15.5.4.
raumes

Es sei

(V, | ).

B = (b1 , . . . , bn ) eine Orthonormalbasis eines endlichdimensionalen Euklidischen VektorDann gilt fr beliebiges v V : b1 |v b2 |v = . . . . bn |v


bezglich

v/B

Beweis: Ist
mit einem

v=
mit

bj

vi bi die eindeutige Basisdarstellung von v 1jn


n n

n i=1

B , so zeigt beidseitiges Skalarprodukt

bj |v = bj |
i=1

v i bi =
i=1

vi bj |bi = vj bj |bj = vj .

15.6 Orthogonale Unterrume


Denition 15.6.1.
nal, in Zeichen Zwei Untervektorrume wenn

U1 U2 ,
Ist

u1 u2

U1 , U2 eines Euklidischen Vektorraumes fr alle u1 U1 und u2 U2 gilt.

(V, | )

heien orthogo-

Denition 15.6.2.
Komplement von

ein Untervektorraum eines Euklidischen Vektorraumes

(V, | ), so sei das orthogonale

U U := {v V | u|v = 0
fr alle

u U}

Satz 15.6.3.
Dann gilt (

Es sei U ein Untervektorraum =direkte Summe bung 8.9)

eines endlichdimensionalen Euklidischen Vektorraumes

(V, | ).

V = U U , U = U , dim V = dim U + dim U


Beweis: Da

endlichdimensional vorausgesetzt ist, sind dies auch

und

U .

Man kann sich also nach Orthonormalbasis

15.5.3 eine endliche Orthonormalbasis

{b1 , . . . , bm } v/B =

von

{b1 , . . . , bm , bm+1 , . . . , bn }

von

ergnzen. Fr jedes

b1 |v . . . bm |v bm+1 |v . . . bn |v

U nehmen und diese zu einer v U gilt dann gem 15.5.4 =


0 . . . 0 bm+1 |v . . . bn |v

B :=

109

d.h.

ist eine Linearkombination von

bm+1 , . . . , bn ,

also

U = Lin (bm+1 , . . . , bn ) .
Daraus folgt direkt der erste und dritte Teil der Behauptung. Teil 2 folgt aus der Denition von

U .

15.7 Abstnde von Teilrumen


Denition 15.7.1.
Es sei ein Punkt. Der Abstand

(V, | ) ein Euklidischer Vektorraum, M d(p, M ) von p und M ist deniert durch

eine beliebige Teilmenge von

und

pV

d(p, M ) := inf{d(p, m) | m M } .

Von besonderem Interesse sind dabei die Abstnde, bei denen (Abstand Punkt-Gerade)

ein aner Teilraum ist:

Satz 15.7.2

Es seien

(V, | )

ein Euklidischer Vektorraum,

u, v, p V , v = 0

und

G = {u + v | R}

eine Gerade. Dann gilt:

d(p, G) =
Dieser Wert wird erreicht fr

up

u p|v v
2

p u|v v
2

d.h. im Geradenpunkt

p,G

=u+

p u|v v p
2

v.
p,G steht orthogonal auf

Das Inmum aus 15.7.1 ist also ein Minimum. Die Verbindungsgerade von d.h. der krzeste Abstand ist das Lot, Beweis: in der bung
p,G der Lotfupunkt.

und

G,

Da man jetzt wei, dass der krzeste Abstand das Lot ist, kann man diesen Abstand z.B. auch so berechnen (vgl. Skizze):

d(p, G) = (p u) , v
was nach Einsetzen der Formel aus 15.4.4 auf den gleichen Ausdruck fhrt.

Abbildung 33:
mit

Abstand

Punkt-Gerade

Ist

U = Lin (u1 , . . . , uk )

1 < k < n 1,

so kann man wegen

V = U U (15.6.3)

jedes

p V

eindeutig zerlegen in

p = pU + p . U
U U

Bereits bei der Herleitung des Gram-Schmidtschen Orthogonalisierungsverfahrens war gezeigt worden, dass die orthogonale Projektion Projektionen von

pU

eines Punktes

in einen Unterraum

gerade die Summe der orthogonalen

auf die Basisvektoren von

ist, wenn diese ein Orthogonalsystem bilden, also

pU =
j=1

uj |p uj
2

uj .

Dies kann man nun zur Berechnung des Abstandes eines Punktes zu 110

verwenden:

Satz 15.7.3.

Es sei

Orthogonalbasis

U ein endlichdimensionaler {u1 , . . . , uk }. Dann gilt d(p, U ) =

Unterraum eines Euklidischen Vektorraumes

(V, | )

mit der

j=1

uj |p uj

2 2

Beweis: Fr beliebiges

uU

gilt

pu

= pU + p u U
2

= pU + p u|pU + p u = U U

= pU u|pU u + p |p = U U = pU u
Das Gleichheitszeichen wird dabei fr mit

+ p U

p U

2 p U

pU = u angenommen, p U = p
2 2

ist also das Minimum von

pu

. Zusammen

+ pU

= p

2 p U

pU
2

(Pythagoras) folgt also

d(p, U ) =

p U

=
k

pU
2 2

j=1

uj |p uj
2

uj

j=1

uj |p uj

15.8 Winkel zwischen Teilrumen



Schneiden sich ane Teilrume eines Euklidischen Vektorraumes, so kann man in manchen Fllen auch von einem Schnittwinkel sprechen. Eine sinnvolle Denition muss dabei jeweils unabhngig von den speziellen Basisvektoren der Richtungsrume sein:

Denition 15.8.1.

Der Winkel zwischen sich schneidenden Geraden

g1 = u1 + Rw1

und

g2 = u2 + Rw2

in

einem Euklidischen Vektorraum

(V, | )

sei
) <(w1 , w2 ) ) <(w1 , w2 )

) <(g1 , g2 ) :=

w1 |w2 0 sonst .
falls

Zusammen mit der Denition des Winkels zwischen Vektoren folgt (Winkel zwischen Geraden)

Folgerung 15.8.2

) 0 <(u1 + Rw1 , u2 + Rw2 ) = arccos

| w1 |w2 | . w1 w2 2

Abbildung 34: Denition 15.8.3.


(V, | ) ein endlichdimensionaler Euklidischer VektorH : N |x p = 0 eine Hyperebene (also p, N V , N = 0) und g = u + Rw eine Gerade (also u, w V , w = 0). Der Winkel zwischen der Hyperebene H und der Geraden g wird deniert als 2 der Winkel zwischen den Geraden Rw und RN :
Es seien raum,
) <(g, H) :=

Winkel zwischen
17.1.11

Geraden

| N |w | ) <(Rw, RN ) = arccos . 2 2 N w
111

Abbildung 35:

Winkel zwischen

Gerade und Hyperebene

Denition 15.8.4.

(V, | ) ein endlichdimensionaler Euklidischer VektorH : N |x p = 0, H : N |x p = 0 zwei Hyperebenen (also p, p , N, N V , N, N = 0). Der Winkel zwischen den Hyperebene H und H wird deniert als der Winkel zwischen den Geraden RN und RN :
Es seien raum und
) ) <(H, H ) := <(RN, RN ) = arccos

| N |N | . N N

Abbildung 36:

Winkel zwischen

Gerade und Hyperebene

15.9 Volumen
Denition 15.9.1.
Fr

mN

und Vektoren

a1 , . . . , am

eines Euklidischen Vektorraumes fr

(V, | )

heit

P (a1 , . . . , am ) := {1 a1 + + m am | 0 i 1
(m-dimensionales, falls

i = 1, . . . , m} R3
auch Spat.

a1 , . . . , am

linear unabhngig sind) Parallelotop oder Parallelepiped, im

Um einen sinnvollen Volumenbegri fr Parallelotope einzufhren, verwendet man Grundideen der mathematischen Matheorie, wie z.B.:

  

Sind

M1 , M2 , . . . , Mn

endlich viele paarweise disjunkte Parallelotope, so ist das Volumen von deren

Vereinigungsmenge die Summe der einzelnen Volumina (Additivitt). Die Verschiebung eines beliebigen Parallelotops ndert nicht dessen Volumen (Bewegungsinvarianz). Ein gleichseitiges orthogonales Parallelotop mit der Kantenlnge Volumen

(ON-System

a1 , . . . , am )

hat das

(Normiertheit).

Fr Strecken (=1-dimensionale Parallelotope) ist solch ein Volumenbegri bereits bekannt, nmlich die Lnge (Metrik). Um diesen Volumenbegri in hhere Dimension zu bertragen, verwendet man das nach Bonaventura

Francesco Cavalieri (1598 - 1647) benannte Cavalieri-Prinzip.


Dieses besagt: Raumgebilde sind inhaltsgleich, wenn jeweils in gleicher Hhe gefhrte Schnitte inhaltsgleiche Gebilde ergeben.

Um das Cavalieri-Prinzip zu verwenden, zerlegt man dimensionaler Parallelotope:

m-dimensionale

Parallelotope in Schnitte

m 1-

P (a1 , . . . , am ) =
0m 1

P (a1 , . . . , am1 ) + m am .

Fr m N und Vektoren a1 , . . . , am eines Euklidischen Vektorraumes (V, | ) bezeichne (a1 , . . . , am ) (oder einfach Vol (a1 , . . . , am ), wenn das Skalarprodukt klar ist) das Volumen des Parallelo| tops P (a1 , . . . , am ) bezglich des Skalarproduktes | . Dieses Volumen wird rekursiv deniert durch Vol (a1 ) = a1 = a1 |a1 und fr m 2:

Denition 15.9.2.
Vol

Vol (a1 , . . . , am ) := Vol (a1 , . . . , am1 ) d(am , Lin (a1 , . . . , am1 )) .

Satz 15.9.3.

Es seien

(V, | )

ein Euklidischer Vektorraum,

mN

und

a1 , . . . , a m V .

Dann ist

Vol

(a1 , . . . , am ) =

det ( ai |aj )1i,jm .

Den Satz beweist man mit Induktion aus 15.9.2 und mit Hilfe von 15.7.3 ([siehe z.B. Koecher, 1997]). 112

Folgerung 15.9.4.

Bezglich des Standardskalarproduktes

im

Rn

gilt

( ai |aj )1i,jm = tA A ,
wobei

die Matrix mit den Spalten

a1 , a2 , . . . , am

sei.

Damit folgt fr

m = n: Vol
|

(a1 , a2 , . . . , am ) =

det(tA A) =

det(A)2 = |det(A)| ,

also der bereits bei der Einfhrung der Determinante erwhnte Spezialfall.

Neben den Parallelotopen sind besonders das von zwei Vektoren aufgespannte Dreieck und das von drei Vektoren aufgespannte Tetraeder (=Pyramide aus Dreieckschen) fr die Flchen- bzw. Volumenmessung interessant.

Das Dreieck hat die halbe Flche des von den gleichen Vektoren aufgespannten Parallelogramms, das Tetraeder ein Sechstel des Volumens des von den gleichen Vektoren aufgespannten Spats.

Abbildung 37: F = 1 Vol (a1 , a2 ) 2

Abbildung 38: VTetra = 1 Vol (a1 , a2 , a3 ) 6

113

114

16 Unitre Vektorrume
16.1 Sesquilinearformen

gilt etwa Das kanonische reelle Skalarprodukt lsst sich nicht direkt auf

bertragen: Mit

v = (0) 1

und

w = (0) i

ww = 0

0 i

= 1

vw = 0

0 i

=i

d.h. die Eigenschaften des Skalarproduktes, die darauf aufbauende Begrie wie Norm und Winkel erst ermglichen, sind nicht erfllt:

Es ist nicht

ww 0,

und somit kann man weder die Norm mit diesem Produkt denieren, noch die CSU 15.2.3 formulieren. Die Eigenschaft

w|w 0

kann man auf den komplexen Fall hinberretten, wenn man statt mit

vw

mit

v|w := (v) w
ja

rechnet.

Dieses so genannte kanonische komplexe Skalarprodukt ist allerdings keine Bilinearform mehr, denn es gilt

v|w :=
gilt

v w = t(v) w = v|w

und

fr

R.

Dies fhrt auf die folgende Denition:

Denition 16.1.1.
(SF1 )

Es sei

ein

C-Vektorraum.

Eine Abbildung

: V V C

heit Sesquilinearform

16

, wenn

ist semilinear in der ersten Komponente, d.h.

(u + v, w) = (u, w) + (v, w) (c u, w) = c (u, w) (SF2 )


ist linear in der zweiten Komponente, d.h.

u, v, w V

u, w V , c C

(u, v + w) = (u, v) + (u, w) (u, c w) = c (u, w)

u, v, w V

u, w V , c C

In der Literatur ist nicht einheitlich, in welcher Komponente der Sesquilinearform die volle Linearitt, und in welcher die halbe Linearitt (man ndet auch die Bezeichnung konjugiert linear oder semilinear dafr) vorliegt. Das macht auch keinen wesentlichen Unterschied, man sollte nur darauf gefasst sein.

16.2 Matrixdarstellung und Basiswechsel

Wie eine Bilinearform kann man auch eine Sesquilinearform durch ihre Grammatrix beschreiben. Die Herleitung kann man vom reellen Fall fast wrtlich bernehmen, muss nur jeweils wegen den Strich in die erste Komponente bringen:

(cu, v) = c(u, v)
eine

Es sei

eine Sesquilinearform auf einem

geordnete Basis von

V.

Mit

C-Vektorraum V aij := (bi , bj ) und A = (aij ) (v, w) =


t

endlicher Dimension und gilt:

B = (b1 , . . . , bn )

v/B A w/B , GB () = A).

oder kurz

(v, w) = t(v) A w,

wenn

feststeht (Bezeichnung auch wieder

Das kanonische komplexe Skalarprodukt bekommt man daraus mit der Einheitsmatrix als Grammatrix. Auch beim Basiswechsel lsst sich alles mit einem Strich zustzlich auf den komplexen Fall bertragen:

GC () =
mit der Transformationsmatrix

B [idV ]C

GB () B [idV ]C =

T GB () T

T = B [idV ]C .

16 sesquilinear

heit

1 1 -mal 2

linear

115

16.3 Hermitesche Formen

Analog zur symmetrischen Bilinearform deniert man

Denition 16.3.1.
arform

Es seien

ein

C-Vektorraum

und

: V V C u, v V .

eine Sesquilinearform. Die Sesquiline-

heit hermitesch (kurz: hermitesche Form), wenn gilt

(u, v) = (v, u)

Folgerung 16.3.2.

, S.105]:

Fr eine Hermitesche Form gilt insbesondere

(v, v) = (v, v)

v V ,

d.h

(v, v) R!

Etwas mhsamer zu sehen, aber auch richtig, ist die Umkehrung dieser Aussage [siehe z.B. Lorenz, 2005,

Satz 16.3.3.

Gilt fr eine Sesquilinearform

dass

(u, u) R

fr alle

uV,

so ist

Hermitesch.

Bei einer Hermiteschen Form gilt

v, w V : (v, w) (w, v) GB () =
t

= =

t t

(v) GB () w = t(v) GB () w = tw GB () v w GB () v = tw GB () v

GB () .

Solch eine Matrix heit hermitesch. Eine Hermitesche Form Fr

liegt also genau dann vor, wenn ihre Grammatrix

GB ()

Hermitesch ist.

ndet man auch die Kurz-Schreibweisen

oder

AH . A

heit auch die zu

adjungierte Matrix.

Eine Matrix ist also Hermitesch, wenn sie mit ihrer Adjungierten bereinstimmt. Fr die Adjungierte beweist man leicht die folgenden Analogien zur Transponierten:

t(AB) = tB tA
t

(AB) = B A , (A )
1

A1

= A1

Wegen 16.3.2 kann man analog zu 14.3.3 auch im komplexen Fall zu einer Hermiteschen Form

des

C-Vektorraumes V

die zugehrige quadratische Form

q :
betrachten.

V R v (v, v)

Es gilt

q(v) = q(v) = || q(v)

fr alle

und

v V.

Auch der Trgheitssatz von Sylvester 14.3.7 und die Denition der Denitheit 14.4.1 lassen sich damit auf den komplexen Fall bertragen:

Satz 16.3.4.

Es sei

existiert eine Basis

K = C und B , so dass

eine Hermitesche Form des

n-dimensionalen C-Vektorraumes V .

Dann

1 n+

GB () = 0 0
Dabei seien

1 n 0

0 0 . 0n0

n+ bzw. n Einheitsmatrizen der Gre n+ bzw. n und 0n0 eine n0 n0 -Nullmatrix. Die restlichen Nullen bezeichnen Nullmatrizen passender Gre. Die Zahlen n+ , n , n0 N (n+ + n + n0 = n)

sind durch die Hermitesche Form eindeutig bestimmt.


116

Denition 16.3.5.

Es seien

K =C

und

eine Hermitesche Form des

Das nach 16.3.4 eindeutig bestimmte Tripel Hermitesche Form mit n+ Sylvester-Normalform von

(n+ , n , n0 )

heit die Signatur der Hermiteschen Form

= n = dim V .

heit positiv denit. Die Matrix

n-dimensionalen C-Vektorraumes V . . Eine GB () aus dem Trgheitssatz heit die

Wie im reellen Fall lsst sich das verallgemeinern: eine Hermitesche Form (nicht zwingend endlichdimensional) heit positiv denit, wenn gilt

(v, v) 0 v V , (v, v) 0 v V .
wenn gilt

negativ denit, wenn

in einem komplexen Vektorraum V (v, v) > 0 v V \{0} , positiv semidenit, (v, v) < 0 v V \ {0} und negativ semidenit, wenn
bedeuten Kongruenzumformungen, dass man elementare

Vorsicht: Bei einer Hermiteschen Matrix ber

Zeilenumformungen macht und die jeweils dazugehrigen konjugierten Spaltenumformungen:

Beispiel 16.3.6.
Z2 Z2 iZ1 1 i 1 i 1 0 0 Z3 Z3 + (1 i)Z1 und 0 1 0 i 3 2i S2 S2 +iS1 1 + i 2i 5 0 0 1 S3 S3 + (1 + i)S1 1 0 0 1 0 0 Z3 Z3 + ( 1 + 3 i)Z2 2 2 0 und 2 1 + 3i i 1 0 1 3 S3 S3 + ( 2 2 i)S2 1i 0 1 0 1 3i 3 Z Z 1 0 0 1 0 0 Z2 2 Z3 3 2 2 0 2 0 und i 1 0 S2 S3 3 3 S2 2 S3 2 0 0 2 5 2 i 1 + 2 i 1 2 2 1 0 0 1 0 0 2 0 1 0 i 2 2 0 2 0 0 1 5 4 2 3 4 2 i 42 + 3 4 2 i 22 1 0 0 1 i 1 i t 0 1 0 =S i 3 2i S mit 0 0 1 1 + i 2i 5 1 0 0 t 2 i 2 0 =S= T 2 2 3 2 2 3 2 2 5 2 4 4 i 4 + 4 i 2 T = B [idV ]C =
t

S = 0 0 c1/B

i 2 2 2 2

5 2 4 2 4

0 c2/B

3 2 4 i 3 4 2 i 2 2

c3/B

20.1.11

Satz 16.3.7.
besitzt

Es sei

Eigenwerte, d.h. jede

A := GB ()

genau

n-dimensionaler C-Vektorraum mit Basis B und eine Hermitesche Form. Dann n reelle (nicht notwendig verschiedene, entsprechend ihrer Vielfachheit gezhlte) Hermitesche n n-Matrix hat n reelle Eigenwerte!
ein

Beweis: Analog zu 14.4.4selber machen.

16.4 Norm, Metrik, CSU


Denition 16.4.1.
Dann heit Es sei

ein

Skalarprodukt auf Ist

C-Vektorraum und : V V R und V unitrer Vektorraum.

eine positiv denite Hermitesche Form.

Denition 16.4.2.

(V, | )

ein unitrer Vektorraum, so deniert man analog zu 15.2.1 die Norm

:
und analog zu 15.3.1 die zu

V x

V
117

R x|x

gehrige Metrik von

d:

V V (x, y)

R xy

Die so denierte Norm erfllt sinngem 15.2.4 (unitr statt Euklidisch und

C),

die Metrik 15.3.2.

Auch die Cauchy-Schwarz-sche Ungleichung 15.2.3 gilt im komplexen Fall (im Beweis sind einige Striche fr das Konjugierte hinzuzufgen):

Satz 16.4.3.

Es sei

(V, | )

ein unitrer Vektorraum. Fr

x, y V

gilt

| x|y | x y .
Das Gleichheitszeichen gilt genau dann, wenn

und

linear abhngig sind.


x|y x y
nicht reell ist, kann man dort den Winkel nicht

Da in einem unitren Vektorraum blicherweise analog zu 15.4.1 denieren.

Man kann aber auch im komplexen Fall von Orthogonalitt reden: Zwei Vektoren hier orthogonal bezglich

x, y V

heien auch

, wenn

x|y = 0

ist.

Anwendungen der Orthogonalitt, wie etwa 15.5.4, gelten auch im komplexen Fall. Auch orthogonale Teilrume kann man entsprechend 15.6.1 einfhren und z.B. mit dem Gram-Schmidtschen Orthogonalisierungsverfahren 15.5.1 Orthogonalbasen berechnen. Wegen dieser weitgehenden bereinstimmung zwischen Euklidischen und unitren Vektorrumen spricht man als berbegri von einem Innenproduktraum mit dem inneren Produkt

In der Analysis (dann meist der unendlichdimensionale Fall) spricht man nach David Hilbert (1862 - 1943) auch von einem Prhilbertraum. Fr den zugrundeliegenden Krper

oder

eines Prhilbertraumes schreibt man meist einfach

K,

um

nicht dauernd die beiden Krper auisten zu mssen. Betrachtet man in einem Prhilbertraum ist bekanntlich die Abbildung

(V, | ) :

das Skalarprodukt

v|w

zweier Vektoren

v, w V ,

so

v
eine Linearform, also ein Element von

V K w v|w

V . v| =
v fr die Linearform

Deshalb hat sich vor allem in der Quantenmechanik die Diracsche Schreibweise und

|w = w

fr den Vektor aus

eingebrgert.

wird dabei Bra genannt,

Ket, denn zusammen ergeben die das spitze Klammernpaar

(engl.:

bracket).

118

17 Normale Endomorphismen
17.1 Adjungierte

Im Folgenden wird studiert, wie sich Endomorphismen mit einem gegebenen Skalarprodukt vertragen.

Beispiel 17.1.1.
End(C ).
n

Es sei

v|w = t(v) w
t

das komplexe kanonische Skalarprodukt im

Cn

und

f (x) = Ax

Dann gilt

f (v)|w =
wobei

f (v) w = A

Av w = t(v) A w = t(v) A w = v|f (w) , A


gegeben sei.

f End(Cn ) f

durch die zu Es seien

adjungierte Matrix

Denition 17.1.2.
heit zu

(V, | )

ein Innenproduktraum,

f End(V ). v, w V .

Der Endomorphismus

f End(V )

adjungiert, wenn gilt

f (v)|w = v|f (w)

Satz 17.1.3.
End(V ) V.

Es sei

(V, | )

gibt es eine eindeutige Adjungierte

ein endlichdimensionaler Innenproduktraum. Zu jedem Endomorphismus f End(V ).

Beweis: Zuerst wird die Existenz von


von Fr

gezeigt: Dazu whlt man sich eine Orthonormalbasis

B = (b1 , . . . , bn )

vV

gilt dann nach 15.5.4

v/B =
n i=1

b1 |v
. . .

v|b1
. . .


bzw.

v=
i=1

v|bi bi .

bn |v
und somit

v|bn

f (v) =

v|bi f (bi ) ,

also

f (v)|w =
i=1 n

v|bi f (bi )|w =


i=1

v|bi f (bi )|w =


n

=
i=1

v| f (bi )|w bi = v|
i=1

f (bi )|w bi =

= v|f (w)
Ist nun

g End(V )

ein weiterer Endomorphismus mit

f (v)|w = v|f (w) = v|g(w)


so folgt

v, w V ,

v|f (w) v|g(w) =0 v|f (w) g(w) = 0 v|(f g)(w) =0 v, w V .


Da ein Skalarprodukt insbesondere nicht ausgeartet ist, folgt aus

v|(f g)(w) = 0 v V ,
dass

(f g)(w) = 0 w V ,
was die Eindeutigkeit zeigt.

also

f g = 0 f = g ,

Nachdem jetzt gezeigt ist, dass es zu jedem Endomorphismus

f End(V )

eine eindeutige Adjungierte

f End(V )

gibt, kann man zu der eine Abbildungsmatrix berechnen.

Dazu whlt man sich eine geordnete Orthonormalbasis produktraumes

B = (b1 , . . . , bn )

des endlichdimensionalen Innen-

V.
119

Aus dem letzten Beweis liest man dann fr

wV

ab

f (w) =
i=1

f (bi )|w bi , f (b1 )|bj


. . .

also

f (bj ) =
i=1

f (bi )|bj bi

f (bj )/ = B

f (bn )|bj
Fr die Abbildungsmatrix heit das

[f ]B =

f (b1 )|b1
. . .

... ...

f (b1 )|bn
. . .

f (bn )|b1
Es gilt gem 15.5.4:

f (bn )|bn

f (bj ) =

n i=1

bi |f (bj ) bi =

n i=1

f (bj )|bi bi

Fr die Abbildungsmatrix heit das

[f ]B =

f (b1 )|b1
. . .

... ...

f (bn )|b1
. . .

f (b1 )|bn
Damit ist gezeigt:

f (bn )|bn

[f ]B = ([f ]B )

fr eine Orthonormalbasis

B.

(17.1)

Vorsicht: Wegen der Verwendung von 15.5.4 ist das ohne die Bedingung fr die Basis i.A. falsch!

17.2 Orthogonale und unitre Endmorphismen


Denition 17.2.1.
orthogonal, wenn gilt Es sei

(V, | )

ein Euklidischer Vektorraum. Ein Endomorphismus

f End(V )

heit

v|w = f (v)|f (w)

v, w V . f End(V )
heit unitr,

Denition 17.2.2.
wenn gilt

Es sei

(V, | )

ein unitrer Vektorraum. Ein Endomorphismus

v|w = f (v)|f (w)


Mit der zu

v, w V .

adjungierten Abbildung

liest man aus der Denition ab

f (v)|f (w) = v|f (f (w)) = v|w


Das heit

v, w V .

f (f (w)) = w

w V f f = id f = f 1 .

Fr die zugehrigen Abbildungs-Matrizen heit das

[f ]B [f ]B = 1n ([f ]B ) [f ]B = 1n ([f ]B ) = ([f ]B )


17.1

(17.2)

Vorsicht: Wegen der Verwendung von 17.1 gilt das wieder nur fr eine ONB Eine Matrix

B!

Denition 17.2.3.

A Rnn
t

heit orthogonal, wenn gilt

AA = 1n tA = A1 .

Eine Matrix

A Cnn

heit unitr, wenn gilt

A A = 1n A = A1 .
120

Folgerung 17.2.4.

Ein Endomorphismus

eines endlichdimensionalen Euklidischen Vektorraumes ist genau

dann orthogonal, wenn die zugehrige Abbildungsmatrix bezglich einer Orthonormalbasis orthogonal ist. Ein Endomorphismus

eines endlichdimensionalen unitren Vektorraumes ist genau dann unitr, wenn die

zugehrige Abbildungsmatrix bezglich einer Orthonormalbasis unitr ist.

Aus

AA =

1n

folgt, dass eine quadratische reelle Matrix genau dann orthogonal ist, wenn ihre Spal-

tenvektoren (bzw. Zeilenvektoren) bezglich des Standard-Skalarproduktes im bilden.

Rn

eine Orthonormalbasis

Entsprechend folgt aus malbasis bilden.

A A =

1n , dass eine quadratische komplexe Matrix genau dann unitr ist, wenn
Cn
eine Orthonor-

ihre Spaltenvektoren (bzw. Zeilenvektoren) bezglich des Standard-Skalarproduktes im

Fr eine orthogonale Matrix

folgt aus

AA = 1n

durch beidseitiges Anwenden der Determinante

det(A)2 = det(tA) det(A) = det(tAA) = det(1n ) = 1 ,


12.3.1 12.5.1
d.h. es gilt

(17.3)

det(A) = 1. A
folgt aus

Fr eine unitre Matrix

A A = 1 n

durch beidseitiges Anwenden der Determinante

| det(A)|2 = det(A) det(A) = det( A ) det(A) = det(A ) det(A)


12.5.1
d.h. es gilt

12.3.1

= det(A A) = det(1n ) = 1 ,

| det(A)| = 1.
ein Innenproduktraum und

Es sei Ist

(V, | )

f End(V )

orthogonal bzw. unitr.

ein Eigenwert von

(komplexe Eigenwerte gibt es immer) und

vV

ein zugehriger Eigenvektor, (17.4)

so gilt

v|v = f (v)|f (v) = v|v = v|v = ||2 v|v ||2 = 1


=0
d.h. die Eigenwerte von

haben den Betrag

1. Kern f = {0}.

Vorsicht: Dies heit nicht, dass es berhaupt reelle Eigenwerte gibt!


hat insbesondere nicht den Eigenwert

0,

d.h.

Solch ein Endomorphismus ist nach 11.1.8 injektiv, im endlichdimensionalen Fall nach 11.2.6 sogar bijektiv. Ein orthogonaler oder unitrer Endomorphismus eines endlichdimensionalen Innenproduktraumes ist also ein Automorphismus.

Denition 17.2.5.

Es sei

(V, | )

ein Innenproduktraum. Ein fr alle

f End(V )

heit

lngentreu, wenn

v = f (v)

v V,
fr alle

abstandstreu, wenn

d(v, w) = d(f (v), f (w))

v, w V ,
fr alle

) und im reellen Fall winkeltreu, wenn <(v, w)

) = <(f (v), f (w))

v, w V . V

Folgerung 17.2.6.
Es sei

Es sei

(V, | )

ein Euklidischer Vektorraum. Jeder orthogonale Endomorphismus von

ist lngen-, abstands- und winkeltreu.

(V, | )

ein unitrer Vektorraum. Jeder unitre Endomorphismus von

ist lngen- und abstandstreu. orthogonal.

Satz 17.2.7.
Es seien

Es seien

(V, | )

ein unitrer Vektorraum und

(V, | ) ein Euklidischer Vektorraum und f End(V ) lngentreu. Dann ist f f End(V ) lngentreu. Dann ist f unitr. |
lautet die Polarisierungsformel 14.3.5

Beweis: Fr ein reelles Skalarprodukt

v|w =

1 2

v+w

In der bung 12.5 wird fr den komplexen Fall die entsprechende Formel

v|w =
nachgerechnet. Damit folgt jeweils aus

1 4

v+w

vw v V,

i v + iw

+ i v iw

v = f (v)

fr alle

dass sogar 121

v|w = f (v)|f (w)

fr alle

v, w V

gilt.

Denition 17.2.8.
0
ist.

Es sei

dann positiv orientiert bezglich

B = (b1 , . . . , bn ) eine Basis eines R-Vektorraumes V . Vektoren a1 , . . . , an V heien B , wenn det(a1/B , . . . , an/B ) > 0 ist, negativ orientiert, wenn det(a1/B , . . . , an/B ) <

Ist f End(V ) mit f (v) /B = A v/B , so folgt det(f (a1 )/B , . . . , f (an )/B ) = det(A a1/B , . . . , A an/B ) = det(A) det(a1/B , . . . , an/B ) , d.h. fr det(A) > 0 hat (f (a1 ), . . . , f (an )) die gleiche Orientierung wie (a1 , . . . , an ), entgegengesetzte Orientierung.

fr

det(A) < 0

die

Denition 17.2.9.
wenn

Es sei

ein endlichdimensionaler

R-Vektorraum.

Ein

f End(V )

heit orientierungstreu,

det(f ) > 0

ist. Es sei (V, ) ein Euklidischer P (a1 , . . . , am ) in V gilt: Vektorraum. Ein

Denition 17.2.10.
jedes Parallelotop

f End(V )

heit volumentreu, wenn fr

Vol (a1 , . . . , am ) = Vol (f (a1 ), . . . , f (am ))

Satz 17.2.11.

Ein Endomorphismus

eines endlichdimensionalen Euklidischen Vektorraumes

(V, )

ist genau

dann volumentreu, wenn

|det(f )| = 1

ist.

Beweis: Aus Zeitgrnden werden Details weggelassen. Man zeigt, dass sich bei Anwendung eines
auf ein Parallelotop

f End(V )

P (b1 , . . . , bm )

das Volumen um

|det f |

ndert, also

Vol (f (b1 ), . . . , f (bm )) = |det(f )| Vol (b1 , . . . , bm ) .

Die folgenden Menge bilden jeweils zusammen mit der Matrizenmultiplikation Gruppen: Denition Bezeichnung Lineare Gruppe Eigenschaften Invertierbare Endomorphismen Spezielle lineare Gruppe Orthogonale Gruppe Volumen- und orientierungstreue Endomorphismen Abstandstreue Endomorphismen des Spezielle orthogonale Gruppe Unitre Gruppe

GL(n, K) := {A K
nn

} | det(A) = 0}

SL(n, K) := {A GL(n, K)} | det(A) = 1} O(n) := {A GL(n, R) | AA = 1n }


t

Rn Rn

SO(n) := {A O(n) | det(A) = 1} U(n) := {A GL(n, C) | A A = 1n }

Abstands- und orientierungstreue End. des

Abstandstreue Endomorphismen des

Cn Cn

SU(n) := {A U(n) | det(A) = 1}

Spezielle unitre Gruppe

Abstands- und orientierungstreue End. des

17.3 Der Satz von Schur und seine Folgen


Denition 17.3.1.
Es seien

(V, | )

ein Innenproduktraum. Ein

f End(V )

heit selbstadjungiert, wenn gilt

f (v)|w = v|f (w)


und schiefadjungiert, falls

v, w V f = f

f = f .

Folgerung 17.3.2. Folgerung 17.3.3.


Innenproduktraumes Jordan-Normalform.

thonormalbasis gilt gem 17.1

Fr die Abbildungsmatrix A eines selbstadjungierten Endomorphismus bezglich einer OrA = A , d.h. im reellen Fall ist A symmetrisch, im komplexen Fall Hermitesch.

Das charakteristische Polynom eines selbstadjungierten Endomorphismus

eines

n-dimensionalen

(V, | )

hat gem 14.4.4 bzw. 16.3.7

reelle Eigenwerte, d.h.

hat zumindest eine reelle

122

Satz 17.3.4.
mes

Es sei

ein selbstadjungierter Endomorphismus eines

n-dimensionalen

Euklidischen Vektorrau-

(V, | ).

Dann gilt: Die Eigenrume von

zu paarweise verschiedenen Eigenwerten sind orthogonal.

Beweis: Wird in der bung gemacht.

Denition 17.3.5.
mit

Es sei (V, | ) ein endlichdimensionaler Innenproduktraum mit der Basis B , f End(V ) A := [f ]B . Fr K = R heit f bzw. A orthogonal trigonalisierbar, wenn es eine Orthonormalbasis C von V gibt, so dass A := [f ]C Dreiecksgestalt hat, oder gleichbedeutend, wenn es eine orthogonale Transformationsmatrix T = B [id]C gibt, so dass A := [f ]C Dreiecksgestalt hat, also
t

T = T 1

(orthogonale Matrix) und

T 1 AT = tT AT = A .

Entsprechend heit gibt, so dass

T = B [id]C

f bzw. A fr K = C unitr trigonalisierbar, wenn es eine Orthonormalbasis C von V A := [f ]C Dreiecksgestalt hat, oder gleichbedeutend, wenn es eine unitre Transformationsmatrix gibt, so dass A := [f ]C Dreiecksgestalt hat, also T = T 1
(unitre Matrix) und

T 1 AT = T AT = A . A
sogar eine Diagonalma-

Entsprechend spricht man von orthogonaler bzw. unitrer Diagonalisierbarkeit, wenn trix ist.

Satz 17.3.6 (Satz von Schur).


fr

Ein Endomorphismus

eines

K=R

orthogonal trigonalisierbar, falls er

Eigenwerte in

n-dimensionalen Innenproduktraumes (V, | ) ist R hat, bzw. unitr trigonalisierbar fr K = C.


ist nichts zu zeigen. Nun nimmt man an, dass die

Beweis: Der Beweis verluft per Induktion nach


Behauptung fr einen mit von

n.

Fr

n=1

n1

stimmt. Man kann sich einen Eigenwert

1 K

und ein zugehriges

b1 Ef (1 ) \ {0}

nehmen (da kann man ohne Einschrnkung der Allgemeinheit gleich einen normierten Vertreter nehmen, also

b1 = 1).

Gem 15.5.3 kann man

{b1 }

zu einer geordneten Orthonormalbasis

C = (b1 , c2 , . . . , cn )

ergnzen. Bezglich dieser Basis gilt

1 0 [f ]C = . . . 0
mit einer

...

D
...

(n 1) (n 1)-Matrix D.

Nach dem Kstchensatz fr Determinanten (bung 8.6) gilt

1 0 f () = det . . . 0

= f () . 1

D 1n1

=(1 ) det(D 1n1 ) D () =


Da nach Voraussetzung

kann man deuten als Abbildungsmatrix eines Endomorphismus

W.

Nach

bezglich

D (). Die Matrix D W := Lin (c2 , . . . , cn ) mit V = Lin (b1 ) Induktionsvoraussetzung gibt es deshalb zu g eine geordnete Orthonormalbasis (b2 , . . . , bn ) von W , der g obere Dreiecksgestalt hat. Es gibt also eine Transformationsmatrix T mit 2 ... 0 3 ... . .. .. 1 . . . T DT = . .. .. . . 0 ... 0 n
ber

f ()

in Linearfaktoren zerfllt, gilt dies also auch fr

von

Dabei sind

2 , . . . , n

die Eigenwerte von

D,

also bis auf

genau die Eigenwerte von

mehrfache Eigenwerte dabei sein). Da

den Basiswechsel von der geordneten ON-Basis 123

f (da knnen auch (c2 , . . . , cn ) von W auf

die geordnete ON-Basis es ist

(b2 , . . . , bn )

von

beschreibt, ist

nun aber unitr (bzw. im Reellen orthogonal), d.h.

T 1 = T .

Mit den Rechengesetzen fr Blockmatrizen (bung 8.6) folgt

1 0 ... 0 0 . . . 0

1 ... 0 . . . 0

1 0 ... 0 0 . . . 0

1 ... 0 . . . 0

T DT

1 0 2 . . . .. ... . .. . 0 ...

... ...

..

. 0 n

Denition 17.3.7.

Es sei

(V, | )

ein Innenproduktraum. Ein Endomorphismus

f End(V )

heit normal,

wenn er mit seinem adjungierten Endomorphismus vertauschbar ist, d.h. wenn gilt

f f = f f .
Entsprechend heit eine Matrix

A Knn

normal, wenn gilt

A A = A A .

Folgerung 17.3.8. Folgerung 17.3.9.


morphismen:

Wegen 17.1 folgt, dass eine Abbildung genau dann normal ist, wenn ihre Abbildungsmatrix

bezglich einer ON-Basis normal ist. Normale Endomorphismen sind ein Oberbegri fr einige der bisher untersuchten Endo-

f f f

orthogonal (unitr) selbstadjungiert schiefadjungiert

: f = f 1 : f = f : f = f

f f = idV = f f f f = f2 = f f f f = f 2 = f f

(17.5)

d.h. orthogonale, unitre, selbstadjungierte und schiefadjungierte Endomorphismen sind normal. Der folgende Satz rechtfertigt die Einfhrung dieses Sammelbegris:

Satz 17.3.10.
K=R
hat. Da

Ein normaler Endomorphismus

eines

orthogonal diagonalisierbar, falls er

Eigenwerten in

Beweis: Nach dem Satz von Schur 17.3.6 gibt es eine

n-dimensionalen Innenproduktraumes (V, | ) ist fr R hat, bzw. unitr diagonalisierbar fr K = C. ON-Basis C von V , so dass [f ]C obere Dreiecksgestalt

[f ]C

normal ist, heit das

@ @ = [f ]C ([f ]C ) = ([f ]C ) [f ]C = @ @ @ @ @ @
Die Beweisidee sieht nun so aus, dass man diese Produkte von Dreiecksmatrizen auf beiden Seiten ausrechnet und die Elemente der Hauptdiagonalen miteinander vergleicht. Dazu sei

(aij ) 1in := [f ]C , also ([f ]C ) = (aji ).


1jn n
die von

j
Die Diagonalelemente von

[f ]C ([f ]C )

sind

aij aij
i=1

fr

j = 1, . . . , n,

([f ]C ) [f ]C

sind

aji aji
i=j

fr

j = 1, . . . , n.

Gleichsetzen liefert also

|aij | =
i=1 i=1

aij aij =
i=j n

aji aji =
i=j n

|aji |

fr

j = 1, . . . , n. j=2

Fr

j=1

liest man ab

|a11 | =
n i=1

|a1i |

i=2

|a1i | = 0,
, also

also

a1i = 0

fr

i = 2, . . . , n.

Fr

liest man ab

|a12 | + |a22 | =
=0 i=2

|a2i |

|a2i |
i=3

a2i = 0

fr

i = 3, . . . , n.

. . . usw., fr

j=n

folgt schlielich

an1,n = 0. [f ]C
verschwinden, d.h.

Damit ist gezeigt, dass alle Nebendiagonalelemente der Matrix Diagonalmatrix!

[f ]C

ist sogar eine

Folgerung 17.3.11.

ist die Abbildungsmatrix

V ein n-dimensionaler Euklidischer Vektorraum und f End(V ) selbstadjungiert, so A := [f ]B Rnn bezglich einer Orthonormalbasis B von V symmetrisch. Nach 17.5 sind f bzw. A normal und besitzen nach 14.4.4 n reelle Eigenwerte. Somit sind f bzw. A nach 17.3.10
Ist orthogonal diagonalisierbar.
124

Folgerung 17.3.12.
V

Da nach 17.5 unitre oder schiefadjungierte Endomorphismen eines unitren Vektorraums

ebenfalls normal sind und diese nach dem Fundamentalsatz 13.3.2

Eigenwerte in

haben, sind sie (bzw.


27.1.11

die bzgl. einer ON-Basis von

zugehrigen unitren oder schiefhermiteschen Matrizen) unitr diagonalisierbar.

Beispiel 17.3.13.

Gegeben sei die Matrix

17 8 A := 8 80 32 4
bzw. der Endomorphismus

32 4 R33 . 65 A = tA
ist

fA : x Ax

des

R3

bzgl. der Standardbasis. Wegen

symmetrisch bzw. und

fA
ist.

selbstadjungiert, also auch normal nach 17.5.

Wegen 14.4.4 hat

drei reelle Eigenwerte. Im vorliegenden Fall rechnet man nach, dass

1,2 = 81

3 = 0

Es ist gnstig, zuerst den Eigenraum zu dem einfachen Eigenwert

0 zu berechnen. 8 EA (0) = Kern(A) = Lin 1 4

Hier ergibt sich

Da Da

A A

nach 17.3.10 diagonalisierbar ist, gehrt zu dem doppelten Eigenwert

1,2 = 81

auch ein

2-dimensionaler

Eigenraum. nach 17.3.10 orthogonal diagonalisierbar ist, sind die Eigenrume sogar orthogonal zueinander, hier also

EA (81) EA (0)

bzw. aus Dimensionsgrnden

EA (81) = EA (0)

Man kann also EA (81) wie blich berechnen, sollte aber besser die Orthogonalitt zu Hilfe nehmen: 0 4 zu EA (0) orthogonal ist, liegt dieser Vektor in EA (81). Da z.B. 1 Ein 3.Eigenvektor von A bzw. 2.Eigenvektor aus EA (81) lsst sich natrlich ebenso bestimmen. Da aber insgesamt alle Eigenvektoren paarweise orthogonal sein sollen, muss der auch zu dem oben gewhlten 1.Eigenvektor aus Im

EA (81) orthogonal sein. R3 geht das z.B. mit dem Vektorprodukt (in hherer Dimension mit dem Skalarprodukt): 0 17 0 17 8 1 4 = 8 EA (81) = Lin 4 , 8 1 32 1 32 4

Fr die neue ONB aus Eigenvektoren muss man noch normieren und erhlt


Mit dieser orthogonalen Matrix

8 9 1 9 4 9

1 0 9 17 4 8 17 153 17 17 32 1 17 17 153 17

bzw. mit dieser ONB aus Eigenvektoren gilt

0 T 1 AT = tT AT = 0 0
Die Wahl der Vektoren aus

0 81 0

0 0 . 81

1 8 1 8 36 8 EA (0) = Lin 1 8 1 = 6 4 4 4 4 63
erhlt man z.B.

EA (81)

ist natrlich nicht eindeutig. Mit

T =

8 9 1 9 4 9

1 9 8 9 4 9

4 9 4 9 7 9

125

Beispiel 17.3.14.

Gegeben sei die Matrix

64 A := 8 32 i
bzw. der Endomorphismus bzw. ist.

8 1 4 i

32 i 4 i C33 . 16 A=
t

fA : x Ax

des

C3

bzgl. der Standardbasis. Wegen

A = A

ist

Hermitesch

fA

selbstadjungiert, also auch normal nach 17.5.

Wegen 16.3.7 hat

drei reelle Eigenwerte. Im vorliegenden Fall rechnet man nach, dass

1,2 = 0 81

und

3 = 81

Wie im letzten Beispiel ist es gnstig, zuerst den Eigenraum zu dem einfachen Eigenwert Hier ergibt sich

zu berechnen.

8i v1 := i EA (81) = Lin (v1 ) 4


Da Da

A A

nach 17.3.10 diagonalisierbar ist, gehrt zu dem doppelten Eigenwert

1,2 = 0

auch ein

2-dimensionaler

Eigenraum. nach 17.3.10 unitr diagonalisierbar ist, sind die Eigenrume sogar orthogonal zueinander, hier also

EA (0) EA (81)

bzw. aus Dimensionsgrnden

EA (0) = EA (81)

Man kann also EA (0) wie blich berechnen, sollte aber besser wieder die Orthogonalitt (jetzt komplexes Skalarprodukt!) zu Hilfe nehmen: i zu EA (81) orthogonal ist, liegt dieser Vektor in EA (0). Da z.B. v2 := 0 2 Ein 3.Eigenvektor von A bzw. 2.Eigenvektor aus EA (0) lsst sich natrlich ebenso bestimmen. Da aber insgesamt alle Eigenvektoren paarweise orthogonal sein sollen, muss der auch zu dem oben gewhlten 1.Eigenvektor aus

EA (0) 3 Im C

orthogonal sein. geht das nicht mit dem Vektorprodukt! Man setzt also an

v1 |v3 = v2 |v3 = 0.

Dies ist ein einfaches

LGS fr

v3 .

Es folgt

2 i 2 v3 = 20 EA (81) = Lin 0 , 20 i 2 i
Fr die neue ONB aus Eigenvektoren muss man noch normieren und erhlt

T :=

8 9 i 1 9 i 4 9

1 5 i 5 0 2 5 5

2 45 5 4 5 9 1 45 i 5

Mit dieser unitren Matrix

bzw. mit dieser ONB aus Eigenvektoren gilt

81 T 1 AT = T AT = 0 0

0 0 0 0 . 0 0

Beispiel 17.3.15.

Gegeben sei die Matrix

1 1 4 A := 9 8
bzw. der Endomorphismus ist

8 4 1

4 7 R33 . 4 A tA =

fA : x Ax

des

R3

bzgl. der Standardbasis. Wegen

13
1

orthogonal, also auch normal nach 17.5. Gem 17.4 haben alle Eigenwerte von der also

den Betrag

ist A bzw. fA und nach 17.3

det A = 1. Da da charakteristische Polynom vom Grad 3 ist, gibt es mindestens einen reellen Eigenwert, 1 1 ist. Hier ist 1 = 1, 2,3 = 9 5 2i 14 und det A = 1, also fA SO(3), d.h. A ist (neben SO(3)
sind Drehungen, Drehachse ist der Eigenraum zum Eigenwert

dem blichen lngen-, abstands-, winkel- und volumentreu) orientierungstreu aber nicht reell orthogonal diagonalisierbar. Die Elemente der alle Eigenwerte von gezeigt wurde.
126

1.

Da nicht

in

liegen, ist

nur ber

unitr diagonalisierbar, so wie das etwa im letzten Beispiel

17.4 Normalformen normaler Endomorphismen



Wenn man, wie im letzten Beispiel, einen normalen Endomorphismus hat, der aber nichtreelle Eigenwerte hat, so ist man trotzdem auch an einer mglichst einfachen reellen Darstellung interessiert. Solch eine einfache reelle Darstellung kann man in der Tat ber die komplexe Diagonalform berechnen. Diese so genannten Spektralstze (die Menge der Eigenwerte eines Endomorphismus heit auch sein Spektrum) werden hier ohne Beweis angegeben: (Spektralsatz). Es sei f ein normaler Endomorphismus eines n-dimensionalen Euklidischen Vek(V, | ) mit den Eigenwerten 1 , . . . , r R und r+1 = 1 + i1 , . . . , r+s = s + is C (mit r + s = n und 1 , . . . , s = 0, Eigenwerte jeweils entsprechend ihrer Vielfachheit nummeriert). Dann existiert eine Orthonormalbasis B von V , so dass 0

Satz 17.4.1

torraumes

[f ]B =

..
0

1 1

1 1
.. .

0
f

s s f

s s f
nach 17.3.10

Hat das charakteristische Polynom des Endomorphismus orthogonal diagonalisierbar. Hat das reelle charakteristische Polynom von

nur reelle Nullstellen, so ist

dagegen auch nichtreelle Nullstellen (wie im Satz), so treten

diese bekanntlich paarweise konjugiert komplex auf. In diesem Fall Sind

nach 17.3.10 unitr diagonalisierbar.

zwei konjugiert komplexe Eigenwerte, dann gehren dazu auch konjugiert komplexe Eigenvek-

toren, denn mit der Linearitt von

rechnet man leicht nach

17

f (v + iw) =( + i)(v + iw) f (v iw) =( i)(v iw)


mit Vektoren

v, w

aus dem reellen

V.

Die komplexen Eigenvektoren sind orthogonal zueinander, d.h. (komplexes Skalarprodukt)

0 = v + iw|v iw = v|v + v|iw + iw|v + iw|iw = = v|v w|w i( v|w + w|v ) v|v = w|w , v|w = w|v .
Ist (17.6)

v + iw

sogar normiert, so gilt

1 = v + iw|v + iw = v|v + v|iw + iw|v + iw|iw = = v|v + w|w + i( v|w w|v ) 1 = v|v + w|w , v|w = w|v .
Aus 17.6 und 17.7 zusammen folgt (17.7)

v|v =
d.h.

2v

und

1 = w|w , v|w = 0 = w|v , 2

2w

sind reell und orthonormal.

Aus

f (v) + if (w) = f (v + iw) = ( + i)(v + iw) = v w + i(w + v)


folgt durch Vergleich von Real- und Imaginrteil

f (v) = v w , f (w) = w + v ,
17 Benutzt
man

(17.8)

mit komplexem Argument, so ist das streng genommen eine neue Funktion

f auf V := {v + iw | v, w V }.

Es

stiftet aber keinen Schaden, wenn man die auch

nennt.

127

Bezglich des Basisfragments man gerade den Teilblock

(w, v) der insgesamt aufzubauenden geordneten Basis des reellen V

bekommt

der gesamten Abbildungsmatrix.

Folgerung 17.4.2.
torraumes auch

Es sei f ein schiefadjungierter Endomorphismus eines n-dimensionalen Euklidischen Vek(V, | ). Solch ein f hat nur rein komplexe Eigenwerte j = ij (bung 13.7; dabei kann durchaus = 0 sein). Damit sieht die Normalform laut Spektralsatz so aus:

[f ]B =

..
0

0
0 1 1 0
.. .

s 0

0 s

Folgerung 17.4.3.
raumes

Es sei f ein orthogonler Endomorphismus eines n-dimensionalen Euklidischen Vektor(V, | ). Gem 17.4 haben alle Eigenwerte von f den Betrag 1. Deshalb kann man bei denen statt = + i auch schreiben = cos + i sin . Somit sieht die Normalform so aus:

[f ]B =

..
0

1 1 0

0
..
0

1 cos 1 sin 1 sin 1 cos 1

0
mit

..

.
cos s sin s sin s cos s

Es seien

c = cos(), s = sin()

0 < < 2 , = . R2
und

Dann liefert der Spektralsatz die folgenden orthogonalen Endomorphismen des

R3 :

Normalform

Typ

EWe um

det
1 -1

sonst

1 0 1 0 1 0

0 1 0 1 0 1

idR2 =Drehung
Spiegelung an

1,1 1,-1

x-Achse
an

f 2 = idR2 ,
involutorisch

Punktspiegelung

-1,-1

f 2 = idR2 ,
involutorisch

0=

Drehung um

c is
1

c s s c

Drehung um

= 0,

Abbildung 39:

Normalformen orthogonaler Endomorphismen des

R2

128

Normalform

Typ

EWe um

det
1 -1

sonst

100 010 001 10 0 01 0 0 0 1 1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 10 0 0 c s 0 s c 1 0 0 0 c s 0 s c

idR3 =Drehung
Spiegelung an
Ebene

1,1,1 1,1,-1

x yx-Achse, 0,

f 2 = idR3 ,
involutorisch

Drehung um
Winkel

1,-1,-1

f 2 = idR3 ,
involutorisch

-1,-1,-1 -1

Punktspiegelung an
Drehspiegelung um

f 2 = idR3 ,
involutorisch

Drehung um
Winkel

x-Achse,

1, c i s 1, c i s

cos()
Spur A1 2

= =

xy z -Ebene,
-1

Drehspiegelung
Achse, Winkel

cos()
Spur A+1 2

Abbildung 40:

Normalformen orthogonaler Endomorphismen des

R3

Beispiel 17.4.4.

Betrachtet wird nochmal die Matrix aus 17.3.15:

1 1 4 A= 9 8
Es war bereits gezeigt worden, dass Die zugehrigen Eigenrume sind

8 4 1

4 7 R33 . 4 1 = 1, 2,3 =
1 9

fA SO(3)

ist und die Eigenwerte

5 2i 14

hat.

2 EA (1) = Lin 3 , EA 1

1 5 2i 14 9

2 3i14 = Lin 3 2i 14 . 13 C3

EA (1) ist (als reeller Vektorraum) die Drehachse der Drehung fA . Die berechneten komplexen Eigenrume sind bezglich des kanonischen komplexen Skalarprodukts im
gonal zueinander.

ortho-

Gem Vorberlegung stellt man sich aus dieser komplexen Basis eine reelle ON-Basis zusammen, indem man die reellen Eigenvektoren normiert bernimmt und von den konjugiert komplexen Eigenvektoren jeweils den normierten Real- und Imaginrteil bernimmt:

2 1 3 EA (1) , b1 := 14 1 3 1 1 2 = Im(v) von v aus EA b2 := 5 2i 14 9 13 0 2 1 1 3 = Re(v) von v aus EA b3 := 5 2i 14 9 182 13


Wechselt man zur neuen Basis so folgt mit 17.8

B = (b1 , b2 , b3 )

des

R3

bzw. transformiert man mit der Matrix

T := (b1 , b2 , b3 ),

1 T 1 AT = tT AT = 0 0
129

0 0 5 2 14 9 9 2 14 5 9 9

Die entspricht dem 5.Eintrag in Abbildung 40 mit direkt aus der ursprnglichen Matrix

mit der

cos() = 5 , sin() = 2 14. Den cos() 9 9 Spur A1 ablesen. Formel cos() = 2

kann man auch

130

Abbildungsverzeichnis
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 Verbundene Wasserrohre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Carl Friedrich Gau Ungleiche Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einfaches Venn-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Durchnitt zweier Mengen Vereinigung zweier Mengen Komplement 3 8 17 17 18 18 18 18 18 22 23 24 24 24 24 25 25 25 25 36 45 54 69 72 73 81 82 83

Dierenz zweier Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Symmetrische Mengendierenz Diagramm der Relation Abbildung

von

in

B .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Injektive Abbildung Bijektive Abbildung Graph von Graph von Graph von Graph von

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . und Streckungsfaktor

Surjektive Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

x x2 . . x x3 . . x x3 x x ex . .

Schnitt von Bildmengen

Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vereinigung von Vektorrumen Parallele ane Teilrume Die Sarrus-Regel fr Die Sarrus-Regel fr gekoppelte Pendel Gekoppelte Pendel Dreiecksungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Zentrische Streckung mit Zentrum

w 2 2-Matrizen 3 3-Matrizen

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Eigenvektoren bei der Ebenenspiegelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

Winkel-Additivitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Orthogonale Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Orthogonale Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Abstand Punkt-Gerade mit orthogonaler Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . 110 Winkel zwischen Geraden Winkel zwischen Gerade und Hyperebene Winkel zwischen Gerade und Hyperebene

Dreiecksche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Tetraedervolumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Normalformen orthogonaler Endomorphismen des Normalformen orthogonaler Endomorphismen des

R2 R3

. . . . . . . . . . . . . . . . . . . . . . . . . 128 . . . . . . . . . . . . . . . . . . . . . . . . . 129

Literatur
Gerd Fischer. Lineare Algebra. Grundkurs Mathematik, 12.Auage. Vieweg Studium, Braunschweig/Wiesbaden, 2000. ISBN 3-528-87217-9. Johann Hartl. Ein einfacher Induktionsbeweis fr die Existenz der Jordan-Normalform. Archiv der Mathematik, 50:323327, 1988. ISSN 0003-889X. URL

http://dx.doi.org/10.1007/BF01190226.

10.1007/BF01190226.

Max Koecher. Lineare Algebra und analytische Geometrie. Springer Lehrbuch, 4., erg. u. aktualisierte Au., Korr. Nachdruck. Springer-Verlag, Berlin, Heidelberg, ..., 1997. ISBN 978-3-540-62903-0. Falko Lorenz. Lineare Algebra II. Hochschultaschenbuch. Spektrum Akademischer Verlag; Auage: 3., berarb. A.; 4., korr. Nachdr. 2005., Heidelberg, Berlin, 2005.

131

132

Index
K -Vektorraum, 43 Hom(V, W ), 55 n-Linearform, 71 n-Tupel, 20
quivalenzklasse, 22 quivalenzrelation triviale, 22 quivalenzumformungen, 3 hnlich, 63 quivalent, 64 Gau-Algorithmus, 8 Abbildung, 23 ane, 69 bijektive, 24 Graph einer, 24 injektive, 24 inverse, 26 lineare, 55 bijektive, 58 Bild, 57 Defekt, 58 injektive, 58 Matrixdarstellung, 61 Rang, 57 surjektive, 58 Restriktion, 55 surjektive, 24 abelsch, 27 Abstand Punkt-Gerade, 110 abstandstreu, 121 adjungiert, 119 Adjungierte, 116 ane Abbildung, 69 ane Gruppe, 70 aner Teilraum, 53 aner Unterraum, 53 Anitt, 70 Algebra, 1 Lineare, 1 algebraische Vielfachheit, 89 Algorithmus, 1, 3 Allquantor, 14 Analysis, 1 antisymmetrisch, 21 Argument, 35 Assoziativgesetz der Matrizenrechnung, 40 Assoziativgesetze, 19 Assoziativitt, 27, 28 asymmetrisch, 21 Aussage, 13 hinreichend, 13 notwendige, 13 Aussageform, 13 De Morgansche Regeln, 13, 19 deduktiv, 1 Defekt, 58 einer linearen Abbildung, 58 denit negativ, 103, 117 positiv, 103, 117 Denitionsbereich, 23 Determinante, 72 eines Endomorphismus, 78 diagonalisierbar, 83 Dierentialgleichungssystem, 81 Dierenzraum, 53 Dimension von Cardanische Formeln, 88 charakteristisches Polynom, 84 CSU Cauchy-Schwarzsche Ungleichung, 105, 118 Basis, 47 geordnete, 51 kanonische, 48 Behauptung, 13 Betrag, 35, 105 Beweis direkter, 14 indirekter, 14 Induktions-, 15 konstruktiver, 15 Widerspruchs-, 15 bijektiv, 24, 58 Bild, 57 einer linearen Abbildung, 57 Bildbereich, 23 Bildmenge, 25 Bilinearform, 71 alternierende, 71 nicht ausgeartete, 99 symmetrische, 101 zu Auswahlaxiom, 49 Automorphismus, 29, 55 Axiom, 1 axiomatisch, 1 Axiomensystem, 1

gehrige, 99

Blockdiagonalgestalt, 92 Bra, 118

V,

51

disjunkte Vereinigung, 23 Distributivgesetz der Matrizenrechnung, 40 Distributivgesetze, 19 Drehspiegelung, 129 Drehstreckung, 36 Drehung, 56, 128, 129 133

Dreieck, 113 Dreiecksungleichung, 36, 106 Dualbasis, 67 Dualraum, 66 Ebene, 53 Eigenraum, 86 verallgemeinerter, 93 Eigenvektor, 82 Eigenwert, 82 Vielfachheit geometrische, 86 Einheit imaginre, 34 Einheitsmatrix, 38 Einheitsvektoren kanonische, 39, 48 Einschrnkung, 26 Einsermatrizen, 38 Einsteinsche Summenkonvention, 63 Elementare Zeilenumformungen, 6 Elemente, 11 endlichdimensional, 49 Endmorphismus adjungierter Abbildungsmatrix, 120 orthogonaler Abbildungsmatrix, 120 Determinante, 121 Eigenwerte, 121 unitrer Abbildungsmatrix, 120 Determinante, 121 Eigenwerte, 121 Endomorphismenring, 68 Endomorphismus, 55 abstandstreu, 121 adjungierter, 119 diagonalisierbarer, 83 lngentreu, 121 normaler, 124 orthogonal diagonalisierbarer, 123 orthogonal trigonalisierbarer, 123 orthogonaler, 120 selbstadjungierter, 122 unitr diagonalisierbarer, 123 unitr trigonalisierbarer, 123 unitrer, 120 winkeltreu, 121 Epimorphismus, 29, 55 Ergnzung quadratische, 103 Erzeugendensystem, 46 Euklidische Lnge, 105 Euklidischer Vektorraum, 105 Existenzquantor, 14 Faktormenge, 23 Fakultt, 29

Familie, 59 Fehlstand, 30 Folgen ber Form hermitesche, 116 quadratische, 101 Formel von de Moivre, 36 Formel von de Moivre, 36 Formeln Cardanische, 88 Formmatrix, 99 freie Variable, 7 Fundamentalsatz der Algebra, 87 Funktion, 23 bijektive, 24 injektive, 24 surjektive, 24 Funktionale Lineare, 66 Gausche Zahlenebene, 35 gebundene Variable, 7 General Linear Group, 41 Gerade, 53 Winkel zu Hyperebene, 111 gerade Permutation, 30 Geraden Winkel zwischen, 111 gleiche Machtigkeit, 26 Gleichung charakteristische, 84 Gleichung der Hyperebene, 54 Gleichungssystem lineares, 3 homogenes, 6 inhomogenes, 6 rechte Seite, 6 Grad, 102 Grammatrix, 99, 115 Graph einer Abbildung, 24 Gruppe, 27, 28 abelsche, 27 ane, 70 allgemeine lineare, 41 der Permutationen, 28 inverses Element, 28 inverses Element, 27 kommutative, 27 lineare, 122 neutrales Element, 27, 28 orthogonale, 122 spezielle lineare, 122 spezielle orthogonale, 122 spezielle unitre, 122 symmetrische, 28 unitre, 122 Verknpfungstafel einer, 27 134

K,

44

Gruppen, 1 Hlle lineare, 46 Hauptminor, 104 Hauptraum, 92, 93 Hauptunterdeterminante, 104 Hauptvektoren, 92 hermitesch, 116 hinreichend, 13 homogen, 6, 102 Homomorphismus, 29 Krper-, 35 Vektorraum-, 55 Hurwitz-Kriterium, 104 Hyperebene, 53 Gleichung der, 54 Hyperebenen Winkel zwischen, 112 idempotent, 56 Idempotenzgesetze, 19 identische Abbildung, 26 imaginr, 34 imaginre Einheit, 34 Imaginrteil, 35 indenit, 103 Indexmenge, 59 Induktion vollstndige, 15 Induktionsprinzip, 15 inhomogen, 6 Inhomogenitt, 6 injektiv, 24, 58 Innenproduktraum, 118 innere Verknpfung, 27 Invariante, 78 inverse Abbildung, 26 inverse Matrix, 41 Inverses Element, 27, 28 inverses Element einer Gruppe, 27 involutorisch, 128 irreexiv, 21 Isomorphismus, 29, 55 Jordan-Basis, 92 Jordan-Block, 89 Jordan-Kette, 95 Jordan-Matrix, 92 Jordan-Normalform, 92 Junktoren, 13 Krper, 1, 3, 33 der komplexen Zahlen, 35 Krper der komplexen Zahlen, 35 Krperautomorphismus, 87 kanonische Basis, 48 kanonische Einheitsvektoren, 48

Kardinalitt, 12 Kardinalitat, 26 von Mengen, 26 Gleichheit, 26 Kern, 31 Koezienten, 3 Koezientenmatrix, 6 erweiterte, 6 Kofaktor, 76 Kommutativgesetze, 19 Kommutativitt, 27 Komplement, 18 algebraisches, 76 orthogonales, 109 Komposition, 25 Matrizenprodukt und, 41 kongruent, 100 konjugiert linear, 115 konjugiert komplex, 35 konjugiert Komplexe, 35 kontravariant, 64, 67 Koordinatendarstellung, 51 kovariant, 67 Kreuzprodukt, 20

n-faches,

20

Kronecker-Symbol, 38, 39, 107 Kroneckersymbol, 67 Lnge, 105 euklidische, 105 lngentreu, 121 Lsung triviale, 9 Lemma Zornsches, 49 LGS, 3 allgemeine Lsung des homogenen, 10 allgemeine Lsung des inhomogenen, 10 spezielle Lsung des inhomogenen, 10 linear, 55 konjugiert, 115 linear abhngig, 47 linear unabhngig, 47 Lineare Funktionale, 66 lineare Hlle, 46 linearer Raum, 43 linearer Teilraum, 44 Linearformen, 66 Linearkombination der Menge von Lot, 110 Lotfupunkt, 110 Mchtigkeit, 12 Machtigkeit, 26 von Mengen, 26 Gleichheit, 26 Mathematiker 135

M , 46 v1 , . . . , vn , 46

Cantor, Georg (1845-1918), 11 Cardano, Gerolamo (1501 - 1576), 88 Cavalieri, Bonaventura Francesco (1598 - 1647), 112 Dedekind, Richard (1831-1916), 15 Euler, Leonhard (1701-1783), 17 Fraenkel, Adolf (1891-1965), 11 Gau, Johann Carl Friedrich (1777 - 1855), 87 Gau, Johann Carl Friedrich (1777-1855), 8 Gram, Jorgen Pedersen (1850 - 1916), 108 Hilbert, David (1862 - 1943), 118 Hurwitz, Adolf (1859 - 1919), 104 Jacobi, Carl Gustav Jacob (1804 - 1851), 102 Jordan, Marie Ennemond Camille (1838 - 1922), 89 Peano, Giuseppe (1858-1932), 15 Russel, Bertrand (1872-1970), 11 Schmidt, Erhard (1876 - 1959), 108 Sylvester, James Joseph (1814 - 1897), 102 Venn, John (1834-1923), 17 von Leibniz, Gottfried Wilhelm (1646 - 1716), 72 Zermelo, Ernst (1871-1953), 11 Matrix, 6 hermitesche, 116 inverse, 41 Jordan-, 92 Koezienten-, 6 normale, 124 Null-, 37 orthogonale, 120 quadratische, 10 Rang, 52 Spaltenrang, 52 Spaltenraum, 52 Spur, 79 Streichungs-, 76 symmetrische, 37 unitre, 120 Zeilenrang, 52 Zeilenraum, 52 Matrixdarstellung, 61 Matrizen hnliche, 63 quivalente, 64 Diagonal-, 37 Dreiecksechte obere, 37 echte untere, 37 obere, 37 untere, 37 Einser-, 37 Gleichheit, 37 kongruente, 100 Multiplikation von, 39 Ring der, 40 Skalares Vielfaches, 37 Summe, 37 Matrizenprodukt

Komposition und, 41 Menge, 11 leere, 17 Mengen Dierenz von, 18 Durchschnitt von, 18 Gleichheit von, 11 Rechengesetze, 19 Symmetrische Dierenz von, 18 Vereinigung von, 18 Mengengleichheit, 11 Metrik, 106, 117 Minor, 76 modus ponens, 14 modus tollens, 14 Monomorphismus, 29, 55 Multilinearform, 71 Nebenklasse, 53 negativ denit, 103, 117 negativ orientiert, 122 negativ semidenit, 103, 117 Neutrales Element, 27, 28 neutrales Element einer Gruppe, 27 nicht ausgeartet, 99 Norm, 105, 117 normal, 124 notwendig, 13 Nullabbildung, 55 Nullmatrix, 7, 37 Nullstelle rationale Merkregel, 87 nullteilerfrei, 40 Obermenge, 11 Ordnung teilweise irreexive, 21 reexive, 21 orientierungstreu, 122 orthogonal, 107, 109, 118, 120 orthogonal trigonalisierbar, 123 Orthogonalbasis, 107 orthogonale Projektion, 107 Orthogonalisierungsverfahren Gram-Schmidtsches, 108 Orthogonalsystem, 107 Orthonormalbasis, 107 Orthonormalsystem, 107 Paar geordnetes, 20 Paradoxon Russelsches, 11 parallel, 54 Parallelepiped, 112 Parallelotop, 112, 122 136

Volumen, 112 Partition, 23 Permutation gerade, 30 Schreibweise, 29 Pivotelemente, 6 Pivotspalten, 6, 7 Polarkoordinaten, 35 Polynom charakteristisches, 84 ganzzahliges rationale Wurzeln, 87 in mehreren Variablen, 101 Wurzeln, 84 positiv denit, 103, 117 positiv orientiert, 122 positiv semidenit, 103, 117 Potenzmenge, 17 Prhilbertraum, 118 Produkt

binren, 21 Restriktion, 26 einer Abbildung, 55 Richtungsraum, 53 Ring, 33, 68 kommutativer, 33 mit Einselement, 33 Ring mit Einselement, 33 Ringe, 1 schiefadjungiert, 122 Schnittwinkel, 111 selbstadjungiert, 122 semidenit negativ, 103, 117 positiv, 103, 117 semilinear, 115 Sesquilinearform, 115 Signatur, 103, 117 Signum, 30 singulr, 41, 75 Skalar, 37 Skalarprodukt, 105, 117 kanonisches komplexes, 115 reelles kanonisches, 105 Skalarprodukt, kanonisches reelles, 99 Skalarprodukt, Standard-, 99 Spaltenrang, 52 Spaltenraum, 52 Spann, 46 Spat, 112 Spektralstze, 127 Spiegelung, 128, 129 Spur, 79 eines Endomorphismus, 79 Staelform, 6 Standard-Skalarprodukt, 99 Standardbasis, 48 Streckung zentrische, 69 Streckungsfaktor, 69 Streichungsmatrix, 76 Strukturmatrix, 99 Stufenbedingung, 7 Stufenform, 5 Summe von Vektorrumen, 46 Summenkonvention, 63 Summenraum, 46 surjektiv, 24, 58 Sylvester-Normalform, 103, 117 Symbole

n-faches

kartesisches, 20

inneres, 118 kartesisches, 20 Produktabbildung, 25 Punkt, 53 Punktspiegelung, 128, 129 quadratische Ergnzung, 103 quadratische Form, 101, 116 quadratische Matrix, 10 Quantor, 14 Rckwrtselimination, 9 Rckwrtssubstitution, 8 Rang, 7, 52, 57 einer linearen Abbildung, 57 Raum linearer, 43 Realteil, 35 Rechengesetze fr Mengendierenzen, 19 reduzierte Zeilenstufenform, 9 reexiv, 21 Regeln de Morgansche, 13, 19 regulr, 41 rekursiv, 15 Relation, 21

k -nre, 21 k -stellige, 21
quivalenz-, 21 binre, 21 antisymmetrische, 21 asymmetrische, 21 irreexive, 21 reexive, 21 symmetrische, 21 transitive, 21 Relationen

(a, b), 20 (a1 , a2 , . . . , an ), a, 27 A B , 20 AT , 37


137

20

An , 20 A , 116 AH , 116 A1 A2 An , D(f ), 23 Ef (i ), 86 Eij , 37 K S , 44 K mn , 6 S(X), 28 Sn , 28 U , 109 W (f ), 23 [a], 22 [a]R , 22 C, 17 , 18

20

1n , 37

GL(n, K), 41, HA (, k), 92 , 13 N, 17 N0 , 17 O(n), 122 Q, 17 R, 17 Rang(A), 7 , 13 SL(n, K), 122 SO(n), 122 SU(n), 122 U(n), 122 Z, 17 |M |, 12 |z|, 35
.
, 23

122

a1 , 27 af (i ), 89 b , 107 a d(p, M ), 110 f, _U 26 f (U ), 25 f 1 , 26 fA , 41 gf (i ), 86 n, 29 C(R, R), 44 A(V ), 70 GA(V ), 70 C [f ]B , 61 End(V ), 68 det(A), 72 End(V ), 55 Hom(V, W ), 55 Kern(f ), 56
, 54 symmetrisch, 21 symmetrische Gruppe, 28 Tangentialraum, 53 Teilmenge, 11 Teilmengen triviale, 17 Teilrume ane parallel, 54 Teilraum, 44 aner, 53 linearer, 44 Tensor 0.Stufe, 67 1.Stufe, 67 kontravariant, 67 kovariant, 67 Terme gemischtquadratische, 102 reinquadratische, 102 Termen, 101 Tetraeder, 113 Trgheitssatz von Sylvester, 100 transitiv, 17, 21 Translation, 68 Transponierte, 37 Transposition, 29 triviale Lsung, 9 triviale Linearkombination, 47 Tupel, 20 Unbestimmten, 3 unendlichdimensional, 49, 51 Ungleichung Cauchy-Schwarzsche, 105, 118 unitr, 120 unitr trigonalisierbar, 123 138

, 18 A (), 84 f (), 84 , 25 A, 18 , 18 ij , 38 ij , 37 , 17 , 14 , 14 idM , 26 , 13 z , 35 0, 37 , 13 A, 18 \, 18 t A, 37 , 13 , 13 aRb, 21

Untergruppe, 31 Unterraum, 44 aner, 53 erzeugter, 46 Untervektorraum, 44 Urbild von

Zornsche Lemma, 49

P,

26

Vektorraum, 1 arithmetischer

n-dimensionaler,
Dimension, 51 Euklidischer, 105

43

eindimensionaler, 43

Homomorphismus, 55 nulldimensionale, 43 unitrer, 117 Vereinigung disjunkte, 23 Verknpfung innere, 27 Verknpfungstafel, 27 Verschiebung, 68 Vielfachheit, 89 algebraische, 89 geometrische, 86 Volumen, 112 Parallelotop, 112 volumentreu, 122 Voraussetzung, 13 Vorwrtselimination, 8 Wahrheitstabelle, 13 Wertebereich, 23 Winkel, 107 zwischen Gerade und Hyperebene, 111 zwischen Geraden, 111 zwischen Hyperebenen, 112 winkeltreu, 121 Wohlordnungssatz, 49 Wurzeln, 84 eines Polynoms, 84 Zahlen ganze, 17 komplexe, 17 natrliche, 17 rationale, 17 reelle, 17 Zahlenebene Gausche, 35 Zeilenrang, 52 Zeilenraum, 52 Zeilenstufenform, 6, 7 Zeilenumformungen elementare, 6 zentrische Streckung, 69 Zentrum, 69 Zerlegung orthogonale, 107 139

140