Sie sind auf Seite 1von 208

Lineare Algebra

Adolf Riede

I
II

Inhaltsverzeichnis
I Einleitung 1
I.1 Zur Bedeutung der Linearen Algebra . . . . . . . . . . . . . . . . . . . . . . . 1
I.2 Einige Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

II Lineare Gleichungssysteme 6
II.1 Lösen einfacher Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II.2 Zusammenfassung der gefundenen Einsichten . . . . . . . . . . . . . . . . . . 8
II.3 Präzisierung und Kennzeichnung der Begriffe . . . . . . . . . . . . . . . . . . 8
II.4 Eliminationsverfahren mit System . . . . . . . . . . . . . . . . . . . . . . . . 10
II.5 Hinweise auf numerische Probleme . . . . . . . . . . . . . . . . . . . . . . . . 14

III Gruppen, Vektorräume, Körper 15


III.1 Von der algebraischen Struktur der Menge der -tupel reeller Zahlen . . . . . . 15
III.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
III.3 Permutationsgruppen und etwas Mengenlehre . . . . . . . . . . . . . . . . . . 17
III.4 Folgerungen aus den Gruppenaxiomen . . . . . . . . . . . . . . . . . . . . . . 19
III.5 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum . . . . . . 22

IV Lineare Abhängigkeit 31
IV.1 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
IV.2 Erzeugendensystem, Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
IV.3 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
IV.4 Äquivalenzrelationen und Quotientenräume . . . . . . . . . . . . . . . . . . . 36

V Lineare Abbildungen und Matrizen 40


V.1 Beispiele und Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
V.2 Weitere Eigenschaften linearer Abbildungen . . . . . . . . . . . . . . . . . . . 42
V.3 Basis- und Koordinaten-Transformationen . . . . . . . . . . . . . . . . . . . . 44
V.4 Die Matrix einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . 45
V.5 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
III

V.6 Der Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50


V.7 Die Allgemeine Lineare Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . 52
V.8 Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 54
V.9 Berechnung der inversen Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 55

VI Metrische Größen im Anschauungsraum 57


VI.1 Länge, Winkel und Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . 57
VI.2 Das Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
VI.3 Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

VII Determinanten 62
VII.1 Determinantenform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
VII.2 Das Signum einer Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . 62
VII.3 Die Frage nach Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 64
VII.4 Anwendung auf lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . 64
VII.5 Determinante einer   -Matrix . . . . . . . . . . . . . . . . . . . . . . . . 65
VII.6 Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 66
VII.7 Anwendung auf den Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
VII.8 Anwendung auf lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 68
VII.9 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

VIII Vektorräume mit Skalarprodukt 1 69


VIII.1 Das Standard-Skalarprodukt im  . . . . . . . . . . . . . . . . . . . . . . . . 69
VIII.2 Das Standard-Skalarprodukt im   . . . . . . . . . . . . . . . . . . . . . . . . 70
VIII.3 Allgemeines Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
VIII.4 Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
VIII.5 Die orthogonale und unitäre Gruppe . . . . . . . . . . . . . . . . . . . . . . . 76

IX Eigenvektoren und Eigenwerte 81


IX.1 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
IX.2 Bestimmung von Eigenwerten und Eigenvektoren . . . . . . . . . . . . . . . . 81
IX.3 Hauptachsen selbstadjungierter Abbildungen . . . . . . . . . . . . . . . . . . . 83
IV

IX.4 Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86


IX.5 Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
IX.6 Anwendung auf Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . 97
IX.7 Die gedämpfte und die harmonische Schwingung . . . . . . . . . . . . . . . . 101
IX.8 Eigenwerte des Integraloperators . . . . . . . . . . . . . . . . . . . . . . . . . 104

X Ringe und Algebren 106


X.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
X.2 Die Ringe und Algebren End
  und  
 . . . . . . . . . . . . . . . . . . . . 107
X.3 Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
X.4 Beweis der Existenz einer Determinantenform . . . . . . . . . . . . . . . . . . 109
X.5 Polynomring . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

XI Bilineare und damit verwandte Formen 118


XI.1 Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
XI.2 Sesquilinearform und geometrische Begriffe . . . . . . . . . . . . . . . . . . . 131
XI.3 Semi-quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

XII Vektorräume mit Skalarprodukt 2 141


XII.1 Bezug zu Sesquilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
XII.2 Zur Winkel- und Volumenmessung . . . . . . . . . . . . . . . . . . . . . . . . 142
XII.3 Beziehungen zwischen Vektorräumen über  und  . . . . . . . . . . . . . . . 145
XII.4 Normalform unitärer und orthogonaler Abbildungen . . . . . . . . . . . . . . . 149
XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen . . . . . . . . . . . . . . 151
XII.6 Ausblick auf physikalische Anwendungen . . . . . . . . . . . . . . . . . . . . 153

XIII Grundbegriffe der affinen Geometrie 155


XIII.1 Analytische versus Synthetische Geometrie . . . . . . . . . . . . . . . . . . . 155
XIII.2 Affiner Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
XIII.3 Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
XIII.4 Parallelität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
XIII.5 Affine Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
V

XIV Aspekte der euklidischen Geometrie 166


XIV.1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
XIV.2 Kurven zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
XIV.3 Flächen zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

XV Der Minkowski-Raum 174


XV.1 Modell der räumlich-zeitlichen Welt . . . . . . . . . . . . . . . . . . . . . . . 174
XV.2 Lorentztransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176

XVI Eigenvektor-Theorie und Normalformen 178


XVI.1 Charakteristisches Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
XVI.2 Eigenvektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
XVI.3 Satz von Caley-Hamilton und Minimalpolynom . . . . . . . . . . . . . . . . . 187
XVI.4 Das Normalformenproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
I.2 Einige Anwendungsbeispiele 1

I Einleitung

I.1 Zur Bedeutung der Linearen Algebra


1. Für viele Probleme lassen sich lineare mathematische Modelle aufstellen.
2. Lineare mathematische Modelle lassen sich relativ einfach berechnen.
3. Nicht lineare mathematische Modelle lassen sich durch lineare Modelle approximieren, so
daß die Lösung der linearen Approximierung eine Näherungslösung an das nicht lineare
Modell liefert.
Z. B. ist die Tangente an eine Kurve eine lineare Näherung an die Kurve in der Nähe des
Berührpunktes.

I.2 Einige Anwendungsbeispiele


2.1 Vertikale Schwingung einer Feder (Stoßdämpfer)

 
Bei Fehlen jeglicher Kräfte hat die Feder eine Ruhelage. Wir bezeichnen mit die Auslenkung
aus Ruhelage (nach unten), mit die Geschwindigkeit, mit die Beschleunigung.
 =  
Masse,  Erdbeschleunigung
 =    Federkonstante
Schwerkraft

Dämpfungskraft  =   Reibungskonstante


Rückstellkraft

 =  
 = 
Gesamtkraft
Newtongesetz:

  !"##$%&(' )'*+',-', positive Konstante


Dies ist eine sogenannte lineare Gleichung, die eine Beziehung zwischen .'/ und
 zu einem
festen Zeitpunkt modelliert.

.', und  Funktionen von 0 .


Weiteres Problem: Zeitliche Änderung beschreiben
0
Bezeichne die Zeit, dann sind

0  ' 1 32!1 !4 4 0 ' 576!1 494 8 0


 6  2 :;$<
1
A. Riede: Lineare Algebra 1, WS 99/00
2 I Einleitung

Dies ist eine sogenannte lineare Differentialgleichung mit konstanten Koeffizienten, die Diffe-
rentialgleichung der gedämpften Schwingung. Für die systematische Bestimmung der Lösungs-
funktionen einer linearen Differentialgleichung liefert die Lineare Algebra die wesentlichen Hilf-
mittel.

2.2 Gleichstromschaltkreise

Auf einer Verbindung zwischen zwei Knoten (Stromverzweigungen) fließt ein Strom der Stär-
ke . Die Verbindung wird willkürlich mit einer Richtung versehen. Stimmt die physikalische
Stromrichtung mit der Verbindungsrichtung überein, so ist mit dem positiven, andernfalls ne-


gativen Vorzeichen zu versehen. Die Ströme werden aus den Kirchhoffschen Gesetzen bestimmt,
wenn die Batteriespannungen und die Stärken der Ohmschen Widerstände bekannt sind.

1. Kirchhoffsches Gesetz: Die Summe der Ströme in jedem Knoten ist null; dabei geht ein
auf den Knoten zufließender Strom mit dem Faktor +1, ein wegfließender mit dem Faktor
-1 ein.

2. Kirchhoffsches Gesetz: Die Summe der Spannungsabfälle in jeder Schleife ist null. Eine
Schleife ist eine geschlossene Verbindung mit festgelegtem Durchlaufungssinn.

 
Für den Spannungsabfall an einem Widerstand wird das Ohmsche Gesetz  
an-
gesetzt. Wir erhalten lineare Gleichungen für die unbekannten Ströme. Deshalb wird eine elek-
trische Schaltung mit nur Ohmschen Widerständen auch ein linearer Schaltkreis genannt. Die
Batteriespannungen und die Stärken der Ohmschen Widerstände gehen als Konstante in die Glei-
chungen ein.
Wir erhalten an dem (hier nicht wiedergegebenen) Beispiel für 3 Knoten und 3 Schleifen 6 Glei-
chungen für die 6 Ströme, die die Ströme bestimmen „sollten“. Jedoch lassen sich durch Betrach-
tung eines weiteren Knotens oder durch die Betrachtung weiterer Schleifen weitere Gleichungen
gewinnen. Aus physikalischen Gründen kann jedoch der Schaltkreis nicht „überbestimmt“ sein,
erfahrunggemäß stellen sich ganz bestimmte Ströme in den Knoten-Verbindungen ein. Die wei-
teren Gleichungen müssen also wohl Konsequenzen aus den anderen sein.

2.3 Leontief-Modell eines Wirtschaftsbereiches


2.3.1 Problemstellung Es soll ein mathematisches Modell für einen Wirtschaftsbereich
aufgestellt werden, in welchem der Bedarf und die Produktion der einzelnen Fabriken, der Bedarf
der Konsumenten und der Exportbedarf in einen Zusammenhang gebracht werden. Das Modell
ist nach dem Nobelpreisträger von 1973 für Ökonomie, Wassily Leontief benannt.

2.3.2 Zielfrage Welches sind die Bedingungen dafür, daß die Produktion den Bedarf deckt ?
I.2 Einige Anwendungsbeispiele 3

2.3.3 Aufstellung quantitativer Größen für das Modell


Anzahl der Betriebe:
1. Annahme: Der Einfachheit halber nehmen wir zunächst an, daß es Fabriken X,
Y, Z gibt.

Anzahl der verschiedenen Waren, die jede Fabrik herstellt.


2. Annahme: Wir nehmen an, daß jede Fabrik nur eine einzige Ware herstellt, sagen wir,
die Fabrik X die Ware A, die Fabrik Y die Ware B, die Fabrik Z die Ware C.

Jahresproduktion
Sei .'+'
die Jahresproduktion der Ware A, B, C durch die Fabrik X, Y, Z, gemessen in
einer dem Produkt angemessenen Einheit, z. B. Kohle in Tonnen, Strom in kWh.

Außerindustrieller Bedarf pro Jahr

  
Konsumbedarf und Exportbedarf an der Ware A, B, C fassen wir zum außerindustriellen
Bedarf bzw. bzw. zusammen.

Industrieller Bedarf

Zur Herstellung einer Einheit

4  
benötigt X benötigt Y benötigt Z

von A Einheiten Einheiten Einheiten


von B Einheiten Einheiten Einheiten
von C Einheiten Einheiten Einheiten

Eine diesem spezifischen Bedarf entsprechende Tabelle für den Jahresbedarf läßt sich in
ähnlicher Weise aufstellen. Wir benötigen jedoch die entsprechenden Bezeichnungen für
die Jahresgrößen nicht und gehen gleich über zum nächsten Punkt der Modellbildung.

2.3.4 Aufstellung von Beziehungen zwischen diesen Größen


Jahresbedarf:

Pro Jahr benötigt Industrieller Außerindustrieller

4    4 ;    4 ;$ 


X Y Z Jahresbedarf Jahresbedarf Gesamtbedarf

  
 ;  
 ;  

von A

+    +;    +     


von B
von C
4 I Einleitung

2.3.5 Antwort auf die Zielfrage


Bedarfsdeckung:
Der Bedarf wird dann genau gedeckt, wenn die Produktion gleich dem Gesamtbedarf ist. Für die
drei Produkte ergeben sich drei lineare Gleichungen:

4 $     


 ;  

 +     
(1)

Daß das Datenmaterial in Tabellenform angegeben werden kann, zeigt daß es eine gewisse Struk-

 '' 
tur hat. Wir können diese Struktur dazu benutzen systematischere Bezeichnungen einzuführen.
Was wir mit den Buchstaben etc. bezeichnet haben, brauchen wir dann nicht mehr oben

 für  ' '  bezeichne die Jahresproduktion der -ten Fabrik, also:
nachsehen, sondern ergibt sich aus der Systematik:

 51 .' 8 1 +' 1  .


 5sei1 der außerindustrielle Bedarf an der Ware der -ten Fabrik, also:
 ' 8 1  '  1  .

 
sei der spezifische Bedarf der  -ten Fabrik an der Ware der -ten Fabrik. (Spezifisch heißt, um
eine Einheit der Ware der  -ten Fabrik herzustellen). Es ist also:
  1 4 '   8 1 +'  1  '  8 1  usw.
    -   8 8  *  
Dann lauten die drei linearen Gleichungen:

8  8 -- 8 8 8 8   **  8 (2)


8 8
Wir bringen diese Gleichungen noch in eine Standardform durch Zusammenfassen der Terme
mit gleicher Unbekannten:
 $    3   8 8     

 8    $  8 8 8    8   
 3  8 8  $     8 (3)

Ein Hauptteil der Linearen Algebra besteht im Rechnen mit solchen einfach und doppelt indi-
zierten Größen. Eine Tabelle doppelt indizierter Größen heißt eine Matrix.
Um ein Modell für alle denkbaren Wirtschaftsysteme aufzustellen, müssen wir die Anzahl der
Betriebe variabel halten. Für die Wirtschaft eines Staates ist sehr groß. Wir schreiben sie für

      3
beliebiges in einer in der Mathematik üblichen Weise wie folgt an:
  8 8  & &      

 8   .  $  8 8 8  & &  8  
8
  8 8  &&           $      
.. (4)

   3  
I.2 Einige Anwendungsbeispiele 5

2.3.6 Anzahl der Unbekannten in der Praxis Mit diesem Beispiel sehen wir, daß für
Probleme aus der realen Welt lineare Gleichungssysteme mit Unbekannten auftreten können
und sehr groß werden kann. Dieses kann als eine Dimension interpretiert werden. Reale
Probleme erfordern also die Betrachtung des -dimensionalen Falles. Es genügt nicht, sich auf
den 1, 2 oder 3-dimensionalen Fall zu beschränken. Der niedrigdimensionale Fall wird aber zum
Ideen finden und zur Veranschaulichung herangezogen. Auch der -dimensionale Fall wird durch
die Beschäftigung mit ihm mit der Zeit immer vertrauter.
6 II Lineare Gleichungssysteme

II Lineare Gleichungssysteme

II.1 Lösen einfacher Beispiele

  
1. Beispiel
   

    

 

    
in die erste Gleichung einsetzen:


   
1 
 
'  
Damit ist folgendes gezeigt: Wenn das Zahlenpaar eine Lösung ist, so gilt .'  
; d. h. insbesondere, daß es höchstens eine Lösung gibt. Unsere Umformungen

' 
zeigen also die Eindeutigkeit der Lösung.
Daß 
tatsächlich eine Lösung ist, erweist sich dadurch, daß wir in das
Gleichungssystem einsetzen. Dadurch ist die Existenz einer Lösung bewiesen.


2. Beispiel
    
   
:     
Hier ist die letzte Gleichung das negative der ersten, also automatisch erfüllt, wenn die
erste erfüllt ist. Subtraktion und Addition der ersten zwei Gleichungen liefert:
  
  
    
1
 
 
  
2
A. Riede:Lineare Algebra 1, WS 99/00
II.2 Zusammenfassung der gefundenen Einsichten 7

  ' '  



Ein Lösungstripel muß also von der Form sein. Durch Einsetzen in das Aus-
gangssystem stellen wir fest, daß jedes Tripel dieser Form (also für eine beliebige Zahl )
eine Lösung ist.
Wir sagen dafür: Die Lösungen bilden eine einparametrige Schar mit als Parameter. 
3. Beispiel
1     
1    
1     
Wir behalten die erste Gleichung bei, subtrahieren von der zweiten die erste und subtra-
hieren von der dritten ebenfalls die erste.
 1     
" 1      


 " 1      
Wir behalten die erste und zweite Gleichung bei, addieren zu der dritten das zweifache der
zweiten.
 +1    
 
+1      

 
    (1    

Dieses System hat keine Lösung, da die dritte Gleichung keine Lösung hat.

4. Beispiel
1     
1    
1    
 #1 


   #1     
#1    
An diesem vereinfachten System lesen wir ab, daß
   '   '
eine Lö-
sung des umgeformten Systems ist. Die zweite Gleichung des Ausgangssystems ist jedoch
für diese Zahlenwerte nicht erfüllt.
Bei dieser Art von Umformungen, die wir durchgeführt haben, ist klar, daß eine Lösung
des Ausgangssystems auch eine Lösung des umgeformten Systems ist. Dann kann das

gewonnen werden; sonst müßte


  ' 

  ' 
Ausgangssystem nicht durch solche Umformungen aus dem umgeformten System zurück-
auch eine Lösung des
Ausgangsystems sein. Die obigen Umformungen können also nicht umkehrbar sein.
8 II Lineare Gleichungssysteme

II.2 Zusammenfassung der gefundenen Einsichten


1. Manche lineare Gleichungssysteme sind eindeutig lösbar, oder mit anderen Worten, es gibt
eine Lösung, und diese ist durch das Gleichungssystem eindeutig bestimmt.

2. Manche lineare Gleichungssysteme, auch solche mit z. B. 3 Gleichungen und 3 Unbekann-


ten haben mehrere Lösungen, nämlich eine einparametrige Schar.

3. Manche haben gar keine Lösungen, auch wenn nicht mehr Gleichungen als die Zahl der
Unbekannten zu erfüllen sind.

4. Die prinzipielle Idee zur Lösung eines linearen Gleichungssystems ist, ein lineares Glei-
chungssystems in ein einfacheres umzuformen, aus dem die Lösungen leicht ablesbar sind.
Dann sollten die Umformungen umkehrbar sein, damit die Lösungen des umgeformten Sy-
stems auch die Lösungen des Ausgangsystems sind.

II.3 Präzisierung und Kennzeichnung der Begriffe


Wir schreiben eine lineare Gleichung mit Unbekannten meist in der Standardform:

(LG)   - 8 8 < &&&    ,



  ' 8 ' '   ' 
bei der die Summanden, die die Unbekannten enthalten, links und das konstante Glied rechts
stehen. ist eine feste natürliche Zahl. Die festen Zahlen  heißen die Koeffizi-

' 8'  ' 


enten der linearen Gleichung. Bei Zahlen denken wir an reelle Zahlen, wenn gleich auch andere
Zahlenbereiche in Frage kommen, die später besprochen werden. Die Symbole 
heißen die Unbekannten, sie werden auch Unbestimmte genannt. Das konstante Glied heißt

homogen, falls
 ist. Ein System von  
auch der inhomogene Koeffizient oder der inhomogene Bestandteil. Eine lineare Gleichung heißt
( eine natürliche Zahl) linearen Gleichungen
schreiben wir in der Form

       8 8  & &       

 8   .   8 8 8  & &   8   
8

(LGS)
 ..
       8 8  &&  
   
Unter Verwendung des Summenzeichens:
 <  '  ' ' ' 
  


 

Der erste Index von  
und der Index von  beziehen sich also auf die -te Gleichung. Der
zweite Index ist der Summationsindex.
II.4 Eliminationsverfahren mit System 9

Z. B. ist beim Leontief-Modell     $   


   
 
. und für
Eine Lösung besteht aus Zahlenwerten für die Symbole  ' 8 ' '

setzen dieser Zahlenwerte in das Gleichungssystem  (gültige) Gleichungen zwischen Zah-
, sodaß beim Ein-

werte   '  8 '#' '  in einer bestimmten Reihenfolge heißen ein -tupel von Zahlen. Ein
len entstehen. Dabei kommt es offenbar auf die Reihenfolge der Zahlenwerte an. Zahlen-

-tupel von Zahlen wird mit   ': 8 '' '   bezeichnet, also durch runde Klammern. Ana-

log: Ein -tupel von Unbekannten  '5 8 ' '5  . Zwei -tupel sind gleich, wenn das -te

Element des einen -tupels gleich dem -ten Element des anderen -tupels ist für alle ; z. B.
 '5 8 '  '   1   ' 8 ' ' '    bedeutet: Es wird  1   ' ':  1   gesetzt.
Spezialfälle:
;1   '  8  2-tupel = (geordnetes) Paar
1   '  8 '    3-tupel = (geordnetes) Tripel

Ein lineares Gleichungssystem ist eindeutig gekennzeichnet durch die Tabelle  der Koeffizien-
ten und durch die inhomogene Spalte :


     8 & &    

   8 8 & &  8
5  
 .. 8 .. 8
 .
     8 && 
 
 .


  

So eine Tabelle wird in der Mathematik eine Matrix mit Zeilen und Spalten genannt, kurz
-Matrix.  ist also die Koeffizienten-Matrix.
      -Matrix
eine
Die


     8 & &    

   8 8 & &  8 
51 .. 8 8
 .
     8 && 
  

heißt erweiterte Matrix des linearen Gleichungssystems.

  '   8 '*&&-'    '     


Den Umformungen des linearen Gleichungssystems entsprechen Umformungen der erweiterten
Matrix; z. B. der Multiplikation der -ten Gleichung mit einer Zahl die Multiplikation der -ten
Zeile mit . Wir sparen viel Schreibarbeit, wenn wir statt des Gleichungs-
systems nur noch  hinschreiben!
10 II Lineare Gleichungssysteme

II.4 Eliminationsverfahren mit System


4.1 Definition elementarer Umformungen

 
Mit bezeichnen wir die -te Zeile von   , mit  die -te Spalte von  . Eine elementare Zeilen-
Transformation (einer Matrix) ist eine Transformation eines der folgenden Typen, wobei wir eine
Zeile der umgeformten Matrix mit einem Strich versehen:

 
   ' 
ZI. Ersetzen einer (etwa der -ten) Zeile durch ihr -faches, für eine Zahl
Symbolisch:

ZII. Addition eines Vielfachen  einer (etwa der -ten) Zeile zu einer anderen Zeile (etwa der
 -ten).
Symbolisch: 

    '  
ZIII. Vertauschen zweier Zeilen, etwa der -ten und der  -ten.
Symbolisch:   
' 
  oder    
.
Dabei bleiben jeweils die übrigen Zeilen ungeändert.
Beachte: Zeilenumformungen von   und Gleichungsumformungen entsprechen einander !
Analog können auch Spaltenumformungen definiert werden.

4.2 Umkehrbarkeit elementarer Umformungen

Elementare Umformungen sind durch elementare Umformungen umkehrbar und ändern folglich
die Lösungsmenge nicht.

       
Denn:
Zu ZI:
Zu ZII: 

  
Zu ZIII: Nochmals   und 
vertauschen macht die Vertauschung rückgängig.

4.3 Die Auswirkung einer Spaltenvertauschung


Der Übersichtlichkeit halber verwenden wir auch eine elementare Spaltenumformung, nämlich
die Vertauschung zweier Spalten der Koeffizientenmatrix, sagen wir der -ten und der -ten.
Symbolisch:    

Wohlgemerkt, nur Spalten der Koeffizientenmatrix werden vertauscht; auf keinen Fall wird die
inhomogene Spalte mit einer Spalte der Koeffizientenmatrix vertauscht.
II.4 Eliminationsverfahren mit System 11



Dabei ändert sich die Lösungsmenge, jedoch in kontrollierter Weise und zwar so, daß die -te und
die -te Unbekannte vertauscht werden. Sind die Lösungen des transformierten Systems gefun-
den, erhalten wir die Lösungen des Ausgangssystems, indem wir alle Variablenvertauschungen
in umgekehrter Reihenfolge rückgängig machen.

4.4 Gauß-Verfahren
4.4.1 Erster Eliminationsschritt Aus allen Gleichungen bis auf die 1. Gleichung wird die
1. Unbekannte eliminiert. Genauer:

1. Sind alle Koeffizienten null, haben wir bereits eine einfache Gestalt und formen nicht wei-
ter um.

2. Besteht die erste Spalte nur aus Nullen, so vertauschen wir die erste Spalte mit einer Spalte
von  (nicht mit der inhomogenen Spalte), die nicht aus lauter Nullen besteht.

3. Durch eine Zeilenvertauschung erreichen wir, daß der (1,1)-Koeffizient (der Koeffizient in
der 1. Zeile und 1. Spalte) ungleich null ist.

4. Wir führen nacheinander die folgenden elementaren Umformungen durch:


 8  8  8 .  ' 8 %1  8    

insbesondere:   8   8 - 8       8 . 
    
   * .  ' % 1     

insbesondere:      -         .  
    
..
.
        '  51        insb.:      *         *

    
Dies wird Ausräumen der ersten Spalte unterhalb des (1,1)-Koeffizienten genannt; denn


dort stehen nach diesen Umformungen Nullen, d. h. die erste Unbekannte kommt in der 2.
bis -ten Gleichung nicht mehr vor.

4.4.2 Zweiter Eliminationsschritt Jetzt überlegen wir uns, welche der dem 1. Schritt ent-
sprechenden elementaren Umformungen nötig sind, um in der Teilmatrix

  88  8  & &  8   8 


.. 8
   & &   
   

  8    &&
.

die Koeffizienten unterhalb des (2,2)-Koeffizienten auszuräumen. Wir führen die dazu nötigen
Umformungen jedoch mit der ganzen Matrix   durch. Da die erste Spalte schon ausgeräumt
war und wir nur Spalten und Zeilen von Index


umformen, ändert sich dabei nichts an den
Nullen unterhalb des (1,1)-Koeffizienten.
12 II Lineare Gleichungssysteme

4.4.3 Die weiteren Schritte In entsprechender Weise können wir so lange fortfahren, bis
die dann zu betrachtende, nicht erweiterte Untermatrix nur aus Nullen besteht oder keine Un-
termatrix mehr übrig bleibt, weil wir in der letzten Zeile oder Spalte von  schon angekommen
waren.
Damit haben wir folgendes Ergebnis bekommen.

4.4.4 Satz über die Gauß-Elimination Durch elementare Umformungen vom Typ ZI, ZII,
ZIII und SIII kann die erweiterte Matrix eines linearen Gleichungssystems in eine sogenannte

 .   .
Stufenmatrix umgeformt werden, d. h. in eine Matrix der Form
 
   8 &. &
       .  & &
 
 . 8 8 ... . ..

.. ..
 .. . . . . .. ..
&& .. ..
  
. . . .

 ...    &&
. . && . . &&



. .  

 .. ..
&&
.. ..
&&
..
  ..

  für  ' ' ' und


Dabei ist  

 Min '  


Diese Transformation heißt Gauß-Elimination.

4.4.5 Satz über die rekursive Auflösung bei Stufenform Das lineare Gleichungssys-




/ ' ' 
tem (LGS) ist dann und nur dann lösbar, wenn alle inhomogenen Bestandteile  sind für
 . Alle Lösungen finden wir durch rekursive Auflösung wie unten im 2. Teil des

5  '   '' 
1
Beweises geschildert wird.
Beweis: Die
-te Gleichung lautet für
 

,- 8 <&&&  

1. Gibt es eine Lösung   '  8 ' '   , so erhalten wir für

 5  '   ''  durch  

     8  &&     '
Einsetzen die Zahlengleichung,


ist.
 für alle
  ' '  , so sind die letzten 7  Gleichungen
die nur bestehen kann, wenn 

2. Ist umgekehrt   
die „Nullgleichungen“, also immer erfüllt. Es bleiben die ersten  Gleichungen und diese
sind äquivalent mit:

  
..

8
8 



 

      
.



 


 
  

 



 
   

II.5 Hinweise auf numerische Probleme 13


Hierbei sind die Unbekannten mit bezeichnet, weil sie mit den ursprünglichen nur noch
bis auf Vertauschungen übereinstimmen.
     ' '   
  ' '  
Setzen wir auf den rechten Seiten   mit beliebigen Zahlen
 , so stehen auf der rechten Seite der  -ten Gleichung keine Unbestimmten




mehr und es läßt sich aus der  -ten Gleichung eindeutig berechnen:

      3
  &
 &
   
  



Indem wir den für  berechneten Wert in die   -te Gleichung einsetzen, können wir



mit der   -ten Gleichung analog verfahren. So fahren wir fort mit der    -ten Glei-


chung bis zur 1. Gleichung. Dabei berechnen wir also die  ''   rekursiv d. h. nach-
 

erhalten eine   -parametrige Schar von Lösungen mit   beliebigen Parametern


einander, mit anderen Worten, wir lösen die Gleichungen von unten nach oben auf. Wir

  ' '   .
 


4.5 Gauß-Jordan-Verfahren

 ' '      
Bei diesem Verfahren wird die Stufenmatrix noch weiter umgeformt. Zunächst multiplizieren wir
die -te Zeile für   mit  und erreichen, daß an Stelle von  eine 1 steht. Anschlie-
ßend räumen wir die 2. bis  -te Spalte auch oberhalb der Einsen mit Hilfe von Zeilenoperationen
vom Typ ZII aus. Wir erhalten eine Matrix der Form
  &&    & &  .   . 
. .  .. . . ... ....
 

 .. ..
 .. . . . . && .. ..
...     
.. . .

  &&
. . && . . 

&& . .  

 .. ..
&&
.. ..
&&
..
  ..

Diese Transformation heißt Gauß-Jordan-Verfahren. Dafür, daß beim Gauß-Jordan-Verfahren


mehr elementare Transformationen durchgeführt werden müssen, ist dann die rekursive Auflö-
sung wesentlich einfacher. Im wichtigen Spezialfall von Gleichungen und Unbekannten und
 erhalten wir als erweiterte Matrix und als eindeutig bestimmte Lösung:
  &&    
    

. .. . . .. . . ... ....

 .8  
..8
..

=
  
.. . .
&&   ..

.
. .


14 II Lineare Gleichungssysteme

II.5 Hinweise auf numerische Probleme


5.1 Auswirkung von Datenfehlern

 
In praktischen Beispielen stammmen oft die Koeffizienten  und aus Messungen und sind
daher mit einem Meßfehler behaftet. Ein relativ kleiner Fehler in den Meßdaten kann bei man-
chen Koeffizientenmatrizen  einen relativ großen Fehler bei den Lösungen eines linearen Glei-
chungssystems verursachen.
Matrizen, bei denen dies nicht auftritt, heißen gut konditioniert. Tatsächlich kann die Konditi-
on einer Matrix quantitativ erfaßt werden, wie uns die Numerische Mathematik lehrt. Mit den
Kenntnissen von Linearer Algebra 1 kann dies z. B. nachgelesen werden bei Stoer: (4.4.12) S.
204 und (4.4.15) S. 205.

5.2 Auswirkung von Rundungsfehlern

Wenn wir bei jedem Eliminationsschritt gegebenenfalls Zeilen und Spalten vertauschen, haben
wir die Wahl, mit welcher Zeile bzw. Spalte wir die erste Zeile bzw. Spalte vertauschen wollen.
Dreh- und Angelpunkt (engl. pivot) der Eliminationsverfahren sind die Koeffizienten, die wir
durch Zeilen- bzw. Spaltenvertauschungen in die obere linke Ecke der Teilmatrix bringen. Diese
Koeffizienten heißen Pivotelemente oder kurz Pivots. Sie spielen eine Rolle, wenn Rundungs-
fehler klein gehalten werden sollen. Dies gelingt häufig dadurch, daß ein betragsmäßig größtes
Element in der betreffenden Zeile bzw. Spalte als Pivot gewählt wird (Stoer 4.5, S. 208). Unter
Zeilenpivotierung verstehen wir dabei, daß die Pivots nur zeilenweise gesucht werden, bei Total-
pivotisierung werden sie in der ganzen in Frage kommenden Teilmatrix betragsmäßig möglichst
groß gesucht. Wird immer –so weit möglich– weder eine Zeilen- noch eine Spaltenvertauschung
durchgeführt, d. h. mit anderen Worten, wird stets das schon in der linken oberen Ecke stehende
Element als Pivot genommen, so sagen wir, daß wir ohne Pivotisierung arbeiten.
Wenig Probleme entstehen in diesem Zusammenhang, wenn die Matrix equilibriert ist oder in
einer bestimmten Weise in eine equilibrierte Matrix umgeformt werden kann. Dabei bedeutet
equilibriert, daß die Summe der Beträge der Elemente für jede Zeile und jede Spalte der Größen-
ordnung nach etwa gleich sind (Stoer S. 208ff).
III.1 Von der algebraischen Struktur der Menge der -tupel reeller Zahlen 15

III Gruppen, Vektorräume, Körper

III.1 Von der algebraischen Struktur der Menge der -tupel reeller
Zahlen
In Kapitel II haben wir intuitiv Gleichungen addiert. Die Erklärung der Addition von linearen
Gleichungen und der Multiplikation einer linearen Gleichung mit einer reellen Zahl lautet fol-
gendermaßen:

1.1 Definition

Lineare Gleichungen werden addiert, indem die entsprechenden Koeffizienten und die inhomo-
genen Bestandteile addiert werden.
Eine lineare Gleichung wird mit einer reellen Zahl multipliziert, indem jeder Koeffizient und
auch der inhomogene Bestandteil mit der Zahl multipliziert werden.
Im folgenden haben wir diese Operationen mit linearen Gleichungen übertragen auf Operationen
mit den Zeilen der erweiterten Matrix  . Dies führt auf folgenden Begriff von Operationen mit
-tupeln reeller Zahlen. Im folgenden meinen wir mit einem -tupel stets ein -tupel reeller
Zahlen und mit Zahl eine reelle Zahl.

1.2 Definition

  ' 8 ' '   


   '  8 ' '  
Die Summe von zwei -tupeln =

  -  ' 8  8 ' '    


und =

 ' '  '


ist definiert durch: :=

   # 8 '   8 ' '    


Die Multplikation eines -tupels =
mit einer Zahl ist definiert durch: :=

1.3 Eigenschaften

.'    ' '   und 


  ' '     bezeichnen .
Durch die Addition von -tupeln ist einem Paar von -tupeln
 ein eindeutig bestimmtes -tupel zugeordnet, das wir mit mit

 ' '   ,     ''    und    ' '   


;    
1. Sind -tupel, so gilt das
Assoziatives Gesetz:
3
A. Riede: Lineare Algebra 1, WS 99/00
16 III Gruppen, Vektorräume, Körper


' ' 
2. Es existiert ein neutrales -tupel, d. h. ein mit bezeichnetes -tupel, so daß
ist für alle -tupel , nämlich  .
 '  '   ein entgegengesetztes -tupel, d. h. ein mit :
 : ist, nämlich  :  ' '   .
3. Es gibt zu jedem -tupel
bezeichnetes -tupel, so daß
4. Kommutatives Gesetz: ;   für alle -tupel und  .
Zahlen -'  gilt:
5. Assoziatives Gesetz der Multiplikation mit Zahlen: Für beliebiges -tupel und beliebige

         
#    #   
6. Distributive Gesetze:

    #; 
für beliebige -tupel .'  und beliebige Zahlen - '.

7.  für alle -tupel , wobei 1 die reelle Zahl 1 ist.

III.2 Gruppen
2.1 Definition

Gegeben sei eine Menge  von Elementen +' '


 und eine Zuordnung, die jedem Paar +' 
von Elementen +' 
von  eindeutig ein weiteres Element von  zuordnet, das mit  bezeich-
net werde. Eine solche Zuordnung wird eine Verknüpfung genannt.
Eine Gruppe ist eine Menge  mit einer Verknüpfung, die folgende Eigenschaften hat:

1. Assoziativität:    

 
 für alle +' '

2. Existenz eines neutralen Elementes, d. h. eines Elementes    mit der Eigenschaft  
 für alle   .
3. Existenz eines entgegengesetzten Elementes zu jedem Element   , d. h. eines mit 

bezeichneten Elementes, so daß
 /    ist.
Gruppe ist also ein Paar  '   , bestehend aus einer Menge  und einer Verknüpfung  , so daß
Diese drei Eigenschaften sind die Grundeigenschaften von Gruppen, die Gruppenaxiome. Eine

die Gruppenaxiome gelten. In der Bezeichnung wird oft die Verknüpfung nicht erwähnt und eine
Gruppe einfach mit  bezeichnet, also dem selben Symbol wie die Menge  !
Gilt zusätzlich:

1. Kommutativität:   / für alle +'   '


so heißt die Gruppe kommutativ, additiv oder abelsch.
III.3 Permutationsgruppen und etwas Mengenlehre 17

2.2 Beispiele

 '   '  '  '  '   sind abelsche Gruppen.  '  '  ' 
sind keine Gruppen ! Die
Menge 
der -tupel mit der in 1.2 auf Seite 15 definierten Addition von -tupeln ist eine
abelsche Gruppe.

III.3 Permutationsgruppen und etwas Mengenlehre

3.1 Mengen

Der Begriff der Menge4 wird nicht weiter erklärt sondern als ein Grundbegriff genommen, der ei-

 
ne Gesamtheit von Dingen bezeichnet, die man die Elemente der Menge nennt. Ist ein Element
einer Menge , so schreiben wir dafür:  .
Das kartesische Produkt zweier Mengen  ' ist die Menge:
   1
)'    '  ,
und von endlich vielen Mengen   ' 8 ' '  :
    8   &&      1    '  8 ''         '  ' ' ' 
  1   &&  -mal der Faktor  ,
z.B.  1     &&   -mal der Faktor . 
3.2 Abbildungen

Auch der Begriff Abbildung einer Menge 


nach einer Menge 
wird als ein nicht weiter zu

     )1  
erklärender Grundbegriff genommen und als eine Zuordnung verstanden, die jedem Element

     51   
eindeutig ein Element zuordnet. bedeutet „ ist eine Abbildung
und

von nach “. Ist so bedeutet , daß in abbildet,


anders ausgedrückt , daß das Bild oder der Wert von bei der Abbildung ist, oder, daß die
Anwendung von auf das ergibt.
Beispiel: Eine Verknüpfung auf einer Menge  ist nichts anderes als eine Abbildung  1   

 .
Für eine Teilmenge  von  ,  wird das Bild oder die Bildmenge von  bei definiert

  1      
durch


Ist  , so heißt    1      Urbild oder Urbildmenge von  bei .
1    heißt  surjektiv oder eine Abbildung auf  1"! Zu jedem # gibt es ein
   mit 
   besteht aus mindestens einem Element für alle  .
. ([französisch] sur = auf !) Oder äquivalent:

4
Mehr Details s. Rolf Walter, Anhang, S. 254ff.
18 III Gruppen, Vektorräume, Körper

1     heißt  injektiv 1 !
      oder äquivalent:

  besteht aus höchstens einem Element für alle  .
1     heißt bijektiv 1 ! ist injektiv und surjektiv oder äquivalent:
  besteht aus genau einem Element für alle  .
Ist bijektiv, dann ist durch die Festsetzung, daß jedem  das einzige Element 
 
zugeordnet wird, eine Abbildung definiert; sie heißt die Umkehrabbildung von und wird mit
  bezeichnet.
Eine bijektive Selbstabbildung einer Menge, $1    , heißt eine Permutation von  oder
 
eine Vertauschung der Elemente von  . Eine Permutation  der Menge ' '  bezeichnen wir
mit einer Werte-Tabelle:
 
 
        
Die Identität oder identische Selbstabbildung von  , Id Id  1    , ist diejenige, die
jedem   als Wert wieder das  zuordnet.
Sind  ' '  Mengen und Abbildungen 1    und 1    gegeben, so wird die
Komposition (Hintereinanderausführung)
 1   von und  durch
    1    
definiert. Abb  '  bezeichne die Menge aller Abbildungen von  nach  . Der Kringel
stellt eine Abbildung dar:

1 Abb  '   Abb <'   Abb  '  ' 1  '  3



Es gilt:

1.    *  für jede weitere Menge  und jede weitere Abbildung 1


 
2. Id 
 Id  
3. 
 Id  für bijektives .
4. 

Aus diesen Punkten folgt:

3.3 Satz

Die Menge der Permutationen einer Menge zusammen mit der Hintereinanderausführung als
Verknüpfung bildet eine im allgemeinen nicht abelsche Gruppe.
III.5 Vektorräume 19

III.4 Folgerungen aus den Gruppenaxiomen


Für eine Gruppe  gilt:


  
1. Genauer sollte in der Definition einer Gruppe ein Element rechts-Inverses genannt

       
werden; jedoch folgt aus den Gruppenaxiomen, daß ein rechts-Inverses immer auch
links-Inverses ist (und umgekehrt), d. h. , daß mit stets auch gilt.

2. Entsprechend ist ein rechts-neutrales Element stets auch links-neutral, d. h. aus    


folgt   .
3. Es gibt nur ein neutrales Element.

4. Zu jedem   gibt es nur ein inverses Element.

 '8' '  
5. Aus dem axiomatisch gegebenen Produkt von Paaren erhalten wir durch induktive De-

 ' ' '


finition das Produkt eines -tupels  von Gruppenelementen  für
 .
  / 8     %  /1   % 8 && /      
 

Induktionsbeginn etwa bei


 : Das Produkt mit einem Faktor  ist das Element  selbst.
Es gilt dann ein verallgemeinertes Assoziativ-Gesetz, das besagt, daß in dem Produkt von
-tupeln nach Belieben Klammern gesetzt werden können.
Zwischenbemerkung: Entsprechend sind andere „Pünktchen-Objekte“ induktiv definiert !

6.      für jedes   .

III.5 Vektorräume
5.1 Definition

Ein reeller Vektorraum besteht aus

1. einer Menge

2. einer Verknüpfung auf , die Vektor-Addition genannt wird, und

3. einer zweiten eindeutigen Zuordnung, genannt Skalarenmultiplikation,


   ' -'     & für   ' .
  
.'    
Erläuterung: Der Abbildung haben wir keinen Namen gegeben. Das Bild
eines Paares ist mit bezeichnet worden, weil wir die Zuordnung als eine Art
Multiplikation ansehen.
20 III Gruppen, Vektorräume, Körper

Es müssen folgende Vektorraumaxiome gelten:


Für die Addition die Axiome einer abelschen Gruppe.
Für die Skalarenmultiplikation die Assoziativität (Eigenschaft 5 in III.1 auf Seite 15) und die

Neutralität der Multiplikation mit der Eins des Körpers (Eigenschaft 7 in III.1 auf Seite 15).
Die distributiven Gesetze 6 wie in III.1 auf Seite 15 bei -tupeln.
Die Elemente von heißen Vektoren von .

5.2 Beispiele

Einen Vektorraum bilden:

1. Die -tupel reeller Zahlen

2. Lineare Gleichungen in Unbekannten.

3. Lösungen homogener linearer Gleichungsysteme

4. Geometrische Vektoren der Ebene oder des Raumes

5. Folgen reeller Zahlen

6. Lösungen homogener linearer Differentialgleichungen

7. Reelle Funktionen

8. Polynome

5.3 Folgerungen aus den Vektorraumaxiomen

Sei ein Vektorraum über  . Dann gilt:

1.   für alle  , wobei links das Nullelement des Körpers  und rechts der
Nullvektor, das neutrale Element der Vektor-Addition, steht.

2.   für  und den Nullvektor 0




3.   &    #    für  '* 




5.4 Vektorraum über einem Körper 

Allgemeiner können wir statt der reellen Zahlen einen anderen Körper  als Skalarenkörper
verwenden und erhalten den Begriff eines Vektorraumes über dem Körper  .
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 21

5.5 Definition


Eine Menge  zusammen mit zwei Kompositionen, genannt Addition und Multiplikation und
mit + und bezeichnet, heißt ein Körper, falls gilt:

1. Bezüglich der Addition ist  eine abelsche Gruppe.


2. Bezüglich der Multiplikation gilt:
a) Assoziatives Gesetz: #    #    für alle -' und 

ment oder Eins des Körpers: #


  für alle 
b) Existenz eine neutralen Elementes 1 bezüglich der Multiplikation, genannt Einsele-

c) Zu jedem  mit  gibt es ein mit     bezeichnetes sogenanntes inverses




Element von  mit der Eigenschaft #  




d) Kommutatives Gesetz: #     für alle  und 



Insbesondere ist   eine abelsche Gruppe.




3. Folgende beide Verknüpfungen betreffende Axiome gelten:


a) Distributives Gesetz:     #   für alle -' und 

sind voneinander verschieden:



b) Das neutrale Element der Addition 0 und das neutrale Element der Multiplikation 1

5.6 Aus der Analysis bekannte Beispiele

 

Ganze Zahlen bilden keinen Körper; nur 1 und 

Reelle Zahlen, , rationale Zahlen,  , komplexe Zahlen, bilden einen Körper.
haben ein Inverses, jedoch sind alle anderen
Axiome erfüllt.

5.7 Folgerungen aus den Körperaxiomen

'   und
' 
1. Es gelten alle Folgerungen aus den Axiomen einer abelschen Gruppe für  
(vgl. III.4).
2.   für alle  

3.    #        


4.      oder 
5
A. Riede: Lineare Algebra , SS 98/99 bis WS 01/02
22 III Gruppen, Vektorräume, Körper

III.6 Anschauliche Geometrie und geometrisch anschaulicher


Vektorraum
In diesem Abschnitt begeben wir uns auf die erste Etappe einer Rundwanderung von der ebenen
Geometrie zum anschaulichen Vektorbegriff und wieder zurück zu einem anderen, dem analyti-
schen Modell der Ebene. Die zweite Etappe von den Vektorräumen zurück zur analytischen Geo-
metrie werden wir in Kapitel XIII auf Seite 155 zurücklegen. Es wird hier der Begriff einer Äu-
ivalenzrelation an Beispielen betrachtet; eine systematische Behandlung steht in Abschnitt IV.4
auf Seite 36.

6.1 Die Anschaungsebene als affine Ebene


6.1.1 Punkte und Geraden Die Anschauungsebene besteht aus einer Menge von Punk-
ten. Außerdem gibt es Geraden, das sind gewisse Teilmengen von Punkten. bezeichne die 
Menge aller Geraden.

+'  1!    .
6.1.2 Definition der Parallelität von Geraden
Zwei Geraden  heißen parallel Entweder ist oder
  bedeute, daß  parallel ist;   , daß  nicht parallel zu is.
Nach unserer Erfahrung hat die Anschauungsebene folgende Eigenschaften:

:'
 
5'
 
(A1) Existenz einer eindeutigen Verbindungsgeraden mit
 . Für 

ist eindeutig und wird dann mit  


bezeichnet.
+' 
'    

6.1.3 Folgerung besteht aus genau einem Punkt, dem
Schnittpunkt von und .

(A2) Dimension einer Geraden Jede Gerade besteht aus mehr als einem Punkt. Dies be-
deutet, daß, wenn wir die Punkte als die nulldimensionalen Bausteine ansehen, eine Gerade
mindestens eindimensional ist.

(A3) Dimension der Ebene Die Ebene besteht aus mehr als einer Geraden. Dies bedeu-
tet, daß, wenn wir die Geraden als die eindimensionalen Bausteine ansehen, die Ebene
mindestens zweidimensional ist.

(A4) Parallelität ist eine Äquivalenzrelation D. h., es gelten die Bedingungen:


Reflexivität: Jede Gerade ist zu sich selbst parallel.
Symmetrie: Ist 
parallel zu , so auch zu  .

Transitivität: Ist parallel zu und

parallel zu , so auch  zu
.
(A5) Parallelenaxiom   und +  genau ein   mit  und   .
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 23

Zur Formulierung der letzten Eigenschaft benötigen wir folgende Begriffe:

' 8'   '  '  


6.1.4 Definition von paraller und perspektivischer Lage Zwei Dreiecke mit den

  '- 8 '.8    '      ' ' 


Ecken    und sind in paralleler Lage zueinander, wenn es drei verschie-
dene parallele Geraden gibt mit  für . Sie sind in perspektifischer

den, so daß wieder   '      '  ' 


Lage, wenn es drei verschiedene Geraden gibt, die sich in einem sogenannten Zentrum schnei-
für .

(A6) Parallelitätseigenschaft von Desargues Wenn bei zwei Dreiecken in paralleler


oder perspektifischer Lage zwei entsprechende Seitenpaare parallel sind, so sind es auch
die dritten Seitenpaare. Mit den Bezeichnungen von 6.1 auf der vorherigen Seite.4:
  8     8 und           8    8 .
A3 B3
g3

g2
A2 B2

g1
A1 B1

Abbildung 1: Die Desargues’sche Parallelitätseigenschaft

8  
Diese Eigenschaft kann als eine Schließungseigenschaft angesehen werden: Wenn wir vorgehen
wie in der Zeichnung und als letztes die Parallele zu   durch
8
ziehen, dann schließt sich
die Figur im Punkt .

6.1.5 Definition einer affinen Ebene Eine Menge von Punkten und eine Menge 
von Geraden wie in 6.1 auf der vorherigen Seite.1 mit diesen sechs Eigenschaften (A1) bis (A6)
heißt eine affine Ebene.

6.1.6 Bemerkung In der Tat kommt man mit zwei Axiomen weniger aus; denn (A2) und
(A4) folgen aus den übrigen Axiomen.

6.1.7 Bemerkung Nach unserer Erfahrung ist die Anschauungsebene eine affine Ebene.
Mit einer affinen Ebene haben wir also ein mathematisches Modell für die Anschauungsebene
aufgestellt. Es ist ein einfaches Modell, weil es auf nur sechs Grundeigenschaften (Axiomen)
fußt. Um Zeichnungen anzufertigen benötigen wir nur ein Lineal ohne eine Skala und einen
beliebigen Winkel, auf dessen Winkelmaß es nicht ankommt. Es lassen sich aus diesem Mo-
dell nicht alle Eigenschaften ableiten, welche die Anschauungsebene sonst noch hat, aber es
beschreibt genügend Eigenschaften, daß wir daraus den geometrisch anschaulichen Vektorraum
herleiten können. Das ist im folgenden unser Ziel.
24 III Gruppen, Vektorräume, Körper

Abbildung 2: Zeichnerische Konstruktion der Parallelen

:'

6.2 Die additive Gruppe der geometrischen Vektoren
6.2.1 Definition einer gerichteten Strecke Ein geordnetes Punktepaar  nennen
wir eine gerichtete Strecke. „Geordnet“ bedeutet, daß festgelegt ist, welches der erste Punkt oder
der Anfangspunkt und welches der zweite Punkt oder der Endpunkt ist. Hier ist also  der An-

fangspunkt und der Endpunkt. Wir lassen auch den Fall zu, daß 

ist; hier ist die Strecke


zu einem Punkt zusammengeschrumpft.
Wir veranschaulichen uns eine gerichtete Strecke durch die Punkte zwischen  und inklusive

 und . Unter gerichtet stellen wir uns vor, daß ein Durchlaufungssinn der Strecke gegeben ist

—hier von  nach . Dieser Durchlaufungssinn wird in einer Zeichnung angedeutet, indem wir
am Endpunkt eine Pfeilspitze anbringen. Kurz, wir veranschaulichen uns eine gerichtete Strecke
durch einen Pfeil, und weil wir uns eine gerichtete Strecke durch einen Pfeil veranschaulichen
können, wollen wir für eine gerichtete Strecke auch die Bezeichnung Pfeil verwenden. Wir ver-
merken jedoch, daß für keine Argumentation der Begriff „zwischen“ verwendet werden muß, er
dient nur der Veranschaulichung.

Sei   ein Pfeil und  '



'
 5'

6.2.2 Definition von parallelen Pfeilen ein Punkt. Der zu
  parallele Pfeil  mit Anfangspunkt  wird wie folgt definiert:

1. Für 
  und 5'
 5'  der parallele Pfeil .
sei
1
Für 

und   
 ziehen wir die Parallele zu  1 
 durch 
  durch
 und setzen
1 
. (Daß 
ziehen wir die Parallele
zu 

2. . Außerdem
aus genau
einem Punkt besteht, folgt aus den vorstehenden Eigenschaften!)

 
 und  
 wählen wir einen Hilfspunkt    1 
 . Dann sei
 '
der gemäß vorhergehendem Fall definierte zu '
 parallele Pfeil mit An-
3. Für

 '
 sei dann der zu  '
 parallele Pfeil mit Anfangspunkt  .
fangspunkt  . :

Diese Konstruktion von :'


 ist unabhängig von der Wahl des Punktes  .
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 25

Abbildung 3: Paralleler Pfeil

Abbildung 4: Die Wohldefiniertheit des parallelen Pfeiles durch 


6.2.3 Satz Parallelität von Pfeilen ist eine Äquivalenzrelation in der Menge aller Pfeile.

6.2.4 Definition und Repräsentierung eines geometrischen Vektors Eine Äqui-

(' ' ' etc. Die Äquivalenzklasse eines Pfeiles 5'


 wird mit 
bezeichnet.
valenzklasse paralleler Pfeile heißt ein geometrischer Vektor. Geometrische Vektoren bezeichnen
wir mit  

Ein Pfeil 5'


 aus einer Äquivalenzklasse  wird ein Repräsentant von  genannt. Zu jedem
geometrischen Vektor  und jedem Punkt  gibt es genau einen Repräsentanten 5'
 von 
mit Anfangspunkt  . Diesen Repräsentanten : '
 von  bezeichnen wir mit  oder kurz,

Zeichen  , mit dem wir auch den Vektor bezeichnen. Wir sagen, der Pfeil 5 '
 ist der vom
wenn aus dem Zusammenhang oder einer Zeichnung klar ist, was gemeint ist, mit dem gleichen

Punkt  aus abgetragene Vektor  ;


ist also der Endpunkt des von  aus abgetragenen Vektors
.
Seien (' zwei geometrische Vektoren.
Wir wählen einen Repräsentanten 5 '
 von  und von den Repräsentanten mit Anfangspunkt
6.2.5 Definition der Addition von Vektoren 
26 III Gruppen, Vektorräume, Körper

Abbildung 5: Transitivität

 
'   ein Repräsentant
 5' 
. Wenn wir den Endpunkt des letzteren mit bezeichnen, so ist also
von . Dann sei die Äquivalenzklasse von  .

 1    für  
und


Abbildung 6: Die Addition von Vektoren

Die Definition ist unabhängig von der Wahl von 5'


 .

Abbildung 7: Die Unabhängigkeit von der Wahl von 5'




6.2.6 Satz Mit dieser Definition der Addition bilden die Vektoren eine additive Gruppe.
III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 27

6.3 Skalare und Skalarenmultiplikation



Wir wählen eine Gerade und zwei verschiedene Punkte  fest ' 

6.3.1 Definition
aus. wird uns als Zahlengerade (Skalarengerade) dienen mit den Punkten  als Nullpunkt
und dem Punkt als Einselement einer noch zu definierenden Addition und Multiplikation der

 
Skalaren. Wie bisher bezeichnen wir die Skalaren mit griechischen Buchstaben und definieren
das -fache eines Vektors wie folgt:

1. Fall: Der Repräsentant    #'  


  von der in  beginnt, liegt nicht in : Sei die 
#'

(eine) Gerade, in der   liegt, die Parallele zur Geraden  durch den Skalar und 

1

. Dann ist #&
die Klasse von Pfeilen, die durch  repräsentiert wird. #'


Abbildung 8: Skalarenmultiplikation

 
2. Fall:  liegt in . Wir wählen einen Hilfsvektor , so daß  nicht in liegt.  
 
ist dann

 
nach dem 1. Fall bereits definiert. Sei der Endpunkt von  und der Endpunkt von
 . Sei die Parallele zu  
 $1 %
. Dann ist  #' 
 
durch und ein Repräsentant
von . Diese Definition hängt nicht von der Wahl des Hilfsvektors ab, wie mit der
Desargues’schen Parallelitätseigenschaft bei perspektivischer Lage gezeigt werden kann.


6.3.2 Definition der Multiplikation von Skalaren .'  miteinander
Trage # 
 von  aus ab; der Endpunkt ist .
6.3.3 Strahlensatz der Affinen Geometrie 
und seien zwei verschiedene Geraden,
 ist, andernfalls gehen wir zu
5' 
'



die sich in einem Punkt schneiden. Wir nehmen an, daß


einer parallelen Figur über. Seien   , und   . Sei ferner:
 1    '   1  
'  1 

 1 ' 1 
'  1 

 
Dann ist  das gleiche Vielfache von  wie von und wie  von  .

6.3.4 Erstes Distributives Gesetz Es gilt: (   


28 III Gruppen, Vektorräume, Körper

Abbildung 9: Zum Strahlensatz

Abbildung 10: Zum ersten Distributiv-Gesetz


6.3.5 Definition der Addition von Skalaren

Trage den Vektor 
 vom Punkt aus ab; der Endpunkt des abgetragenen Vektors ist  .  
#' 
Anders ausgedrückt: Bilde zum Pfeil   den parallelen Pfeil -'   
 1 
mit Anfangspunkt .
Dann ist  .

6.3.6 Neutralität von Es gilt: 9   . Außerdem ist auch das Einselement der
Multiplikation von Skalaren miteinander, .

6.3.7 Assoziativität der Skalarenmultiplikation Es gilt:       


III.6 Anschauliche Geometrie und geometrisch anschaulicher Vektorraum 29

Abbildung 11: Zum Assoziativgesetz der Multiplikation von Skalaren mit Vektoren

   
6.3.8 Assoziativität der Multiplikation von Skalaren miteinander
Es gilt:  

Abbildung 12: Assoziativität der Multiplikation von Skalaren miteinander

6.3.9 Das Inverse Das zu  inverse Element    wird wie in folgender Zeichnung kon-
struiert.

Abbildung 13: Konstruktion des Inversen

6.3.10 Zweites Distributives Gesetz Es gilt:        


30 III Gruppen, Vektorräume, Körper

Abbildung 14: Zum zweiten Distributiv-Gesetz

6.3.11 Das Kommutativgesetz Das Kommutativgesetz der Multiplikation von Skalaren


miteinander kann aus den bisherigen Axiomen nicht bewiesen werden; denn es gibt affine Ebe-

8
nen, bei denen es verletzt ist. Z. B. , wenn der von William Rowan Hamilton 1843 entdeckte
und nach ihm benannte nicht kommutative Körper der Quaternionen ist, dann kann als eine
affine Ebene aufgefaßt werden (s. Abschnitt XIII.5 auf Seite 161). Der wie oben geometrisch
konstruierte Körper ist wieder , also nicht kommutativ. Die Kommutativität kann geometrisch
charakterisiert werden, und zwar folgendermaßen:

+' zwei verschiedene Geraden, die sich


 ' 8 '   '   ' 8 '  seien jeweils paarweise und
(A7) Parallelitätseigenschaft von Pappos Seien
in einem Punkt treffen.   
von verschiedene Punkte. Dann gilt:

        und  8     8     8   8  


g
B3

B2

B1

Z A3 A2 A1 h

Abbildung 15: Parallelitätseigenschaft von Pappos und Kommutativität

6.3.12 Abschließende Bemerkung Die gegebene Definition einer affinen Ebene ist die
sogenannte synthetische Definition. Die Ableitung eines Körpers und eines Vektorraumes über
diesem Körper heißt Algebraisierung, der konstruierte Körper der Algebraisierungskörper. In
Kapitel XIII auf Seite 155 wird zu einem Vektorraum über einem Körper ein affiner Raum defi-
niert. Diese analytische Definition eines affinen Raumes führt zur Analytischen Geometrie.
IV.1 Linearkombinationen 31

IV Lineare Abhängigkeit
Im folgenden ist stets ein Vektorraum über einem festen Körper  .

IV.1 Linearkombinationen

1.1 Definition

  . Dabei sei irgendeine 




Sei ein System (oder eine Familie) von Vektoren
Menge, genannt Indexmenge des Systems. Jedem Element, d. h. Index,

ein Vektor 
zugeordnet.
ist also eindeutig

   


Ein Ausdruck der Art
mit 


heißt eine Linearkombination des Systems. Für einen Vektor  heißt die Gleichung

      
mit  


eine lineare Darstellung von durch das Systems. Ein heißt linear darstellbar durch das  ' ' ' 
System, wenn eine lineare Darstellung existiert. Das wichtigste Beispiel ist  .
Dann ist ein System nichts anderes als ein -tupel von Vektoren. In das allgemeine Konzept kann


auch der Fall eingebaut werden, daß eine unendliche Menge ist; es muß nur zusätzlich verlangt
werden, daß nur endlich viele in einer Linearkombination verschieden von null sein dürfen,
damit die Summe einen Sinn macht.

1.2 Definition

 


Ein System wie oben heißt linear abhängig, wenn der Nullvektor eine lineare
Darstellung durch das System besitzt, in der nicht alle sind, eine sogenannte nicht triviale
lineare Darstellung des Nullvektors.


  
Andernfalls
 folgt 
für alle
heißt das System linear unabhängig; in anderen Worten, wenn stets aus
. Oder äquivalent: Der Nullvektor ist nur auf eine
Weise (die triviale Weise, die es immer gibt) durch das System linear darstellbar.

1.3 Kriterium

 
ist linear abhängig. ! Ein 

läßt sich durch die anderen  linear darstellen.
32 IV Lineare Abhängigkeit

1.4 Beispiele

1. Ist ein , so ist das System linear abhängig.


2. Zwei Vektoren  ' 8  (= Vektorraum der 1-tupel) sind immer linear abhängig.
3. Sind zwei der  gleich, so ist das System linear abhängig.
4. Ist ein Teilsystem linear abhängig, so auch das ganze System.
! .
 ' 8 0  1   0 '  0  1 0/ 0 
5. Ein einzelner Vektor ist linear abhängig
6. Die Funktionen  ' 8 '  mit  0  1
unabhängig im Vektorraum der Funktionen )1    .
sind linear

IV.2 Erzeugendensystem, Basis


2.1 Definition

Können wir jedes  durch 


linear darstellen, so heißt  
ein Erzeugendensystem
von .
Gibt es ein endliches Erzeugendensystem, d. h. eines mit endlicher Indexmenge , dann heißt
endlich erzeugt.
Ein linear unabhängiges Erzeugendensystem von heißt eine Basis von .

2.2 Satz

Ist endlich erzeugt, so gibt es eine Basis von .

2.3 Beispiel

   '  '     für  ' ' '  , der Vektorraum der -tupel von Skalaren

8  

 '  8 ' '    1  ' ' '  ' '  ' ' '  ' ' ' ' ' '   
aus  , hat die Basis:

Sie heißt kanonische Basis von  .


2.4 1. Basiskriterium


Sei .
  Basis !
  ist eine
  linear

Ein Erzeugendensystem von
Jeder Vektor ist eindeutig durch 
darstellbar.
IV.3 Unterräume 33

2.5 Definition

 
    
  ' ' '  .
 ' ' ' '
 
Sei eine Basis von und ,

  '  ' ' ' 


Dann heißen die eindeutig bestimmten Vektoren die Komponenten von
und die Skalaren  die Koordinaten von bezüglich der Basis 
.

2.6 2. Basiskriterium

 !


Ein System ist eine Basis

ist ein maximales System von linear unabhängigen Vektoren von .
„Maximal“ heißt: Nach Hinzunahme irgendeines weiteren Vektors wird das System linear ab-
hängig.

2.7 Austauschsatz von Steinitz

 ' '   eine Basis von . Sei        Sei  für



 ' ' ' 



 ''   ' +'  ' '  ebenfalls eine Basis von . Es ist
sei endlich erzeugt und 

ein  . Dann ist



  

dabei „  durch ausgetauscht.“

2.8 Verschärfter Austauschsatz von Steinitz

 ''   sei eine Basis von und   ' '   linear unabhängige Vektoren von .
Dann ist  und es gibt   der Vektoren  '' , die mit   ''   bezeichnet



seien, so daß   '  '  '   '  '    eine Basis von ist. Es lassen sich also  geeignete 

durch   ' '   austauschen, so daß das System eine Basis bleibt.

2.9 Basisergänzungssatz

In einem endlich erzeugten Vektorraum läßt sich jedes System linear unabhängiger Vektoren
zu einer Basis ergänzen.

2.10 Satz und Definition

Für einen endlich erzeugten Vektorrraum gilt:


Alle Basen haben die gleiche Anzahl von Vektoren.
Unter Dim( ), der Dimension eines endlich erzeugten Vektorraumes , wird die Anzahl der
Vektoren einer Basis verstanden.
34 IV Gruppen, Vektorräume, Körper

2.11 Konvention: Dim(


 
IV.3 Unterräume
3.1 Definition

Ein Vektorraum  über  heißt ein Untervektorraum von 1 !


1. Jeder Vektor von  ist auch Vektor von , d. h. 
 und
2. die Summe von Vektoren von und das Produkt von Skalaren mit Vektoren von   ist im

Vektorraum dasselbe wie im Vektorraum .

Gilt  , so wird ein echter Unteraum von 


genannt. Wenn keine Verwechslungen
entstehen können sprechen wir auch kurz von einem Unterraum.

3.2 Satz und Definition

 sei eine nicht leere Teilmenge von mit folgenden Eigenschaften:

1. .'   ; 
   

2.  '    
  


Dann ist zusammen mit der Vektoraddition und Skalarenmultiplikation von , die aber nur

auf Elemente von angewendet werden, ein Untervektorraum von .
Die beiden Bedingungen werden Abgeschlossenheit der Teilmenge  bezüglich der Addition
und Skalarenmultiplikation von genannt.

3.3 Definition und Satz

Gegeben sei ein System    von Vektoren  von . Dann wird 

 1        ' alle   bis auf endlich viele Ausnahmen 






die lineare Hülle von    genannt und mit      bezeichnet.


 

     erfüllt die Bedingungen 3.2 und ist deswegen ein Untervektorraum von .


3.4 Bemerkung

     ist der kleinste Untervektorraum, der alle  '



enthält.
IV.3 Unterräume 35

3.5 Beispiel

   
, falls 
ein Erzeugendensystem von ist.

3.6 Satz

Sei 
ein Untervektorraum des endlich erzeugten Vektorraumes . Dann ist auch  endlich
erzeugt.

3.7 Satz

Ist  Untervektorraum des endlich erzeugten Vektorraumes , dann gilt:

Dim   
Dim 
Das Gleichheitszeichen gilt dabei genau dann, wenn  ist.

3.8 Durchschnitt

Sind und 
Untervektorräume von , so bildet der Durchschnitt, , der aus allen  
Vektoren besteht, die sowohl zu als auch zu 
gehören, einen Untervektorraum von .

3.9 Verbindungsraum oder Summe

 
  
Sind und Untervektorräume von , so heißt die lineare Hülle der Vereinigung von

 /  '      
und , , der Verbindungsraum oder die Summe von und ; dabei besteht die
* 
  
 
Vereinigung, , aus allen Vektoren, die zu oder zu gehören. Es ist
 . Daher der Name „Summe“ und die Bezeichnung .

3.10 Direkte Summe

  '  8   ', wenn  '  8  


   ' 8  8
Ein Unteraum von heißt direkte Summe der Unterräume von
und jeder Vektor   8
 '     8 .
eine eindeutige Darstellung der Form     

hat. Ist direkte Summe von , so bezeichnet man auch mit 8 
3.11 Satz

 ist direkte Summe von  und 8 !   .  8 und     8


 .
36 IV Gruppen, Vektorräume, Körper

3.12 Dimensionsformel

 und seien endlich erzeugte Unterräume von 


. Dann ist auch endlich erzeugt und

    Dim $   Dim   


es gilt :
Dim Dim

3.13 Beispiele

1. Alle Polynome bilden einen Untervektorraum des Vektorraumes aller Funktionen 1 


   -dimensionalen
&'  ' '  , wobei
2. Polynome vom Grade ( feste natürliche Zahl) bilden einen


  
ist für ' '
Untervektorraum des Vektorraumes aller Funktionen mit der Basis

  

aller Funktionen 1   .


Der Vektorraum der Polynome ist nicht endlich erzeugt, erst recht nicht der Vektorraum

IV.4 Äquivalenzrelationen und Quotientenräume

Wer keine Schwierigkeiten mit der mehr intuitiven Verwendung von Äquivalenzklassen in Ab-
schnitt III.6 auf Seite 22 hatte, kann diesen Abschnitt erst einmal überspringen. In Beispiel 3.2
auf Seite 72 und in Abschnitt IX.8 auf Seite 104 wird erklärt, wozu der Begriff eines Quotien-
tenraumes nütze ist und wo er vorkommt.

4.1 Äquivalenzrelationen

.' 
4.1.1 Der Begriff einer Relation
Zwischen zwei Elementen besteht eine bestimmte Beziehung oder Relation, wenn beide
Elemente zusammen eine gewisse Eigenschaft erfüllen. Zum Beispiel besteht eine geschäftliche
Beziehung zwischen zwei Personen, wenn Sie miteinander beruflich zusammenarbeiten. Dies ist
also keine Eigenschaft eines Partners allein, sondern von beiden zusammen, von der Gesamtheit
beider.


Daß Vater von ist, läuft auch wieder auf eine Eigenschaft beider hinaus. Wir sehen an diesem


Beispiel, daß es auf die Reihenfolge von und ankommen kann. Um eine solche Beziehung
.'  
.'  
einzubeziehen, müssen wir als die Gesamtheit von und nicht die Menge ansehen,
sondern das (geordnete) Paar .
6
A. Riede: Lineare Algebra, WS 98/99 bis WS 01/02
IV.4 Äquivalenzrelationen und Quotientenräume 37

 .' 
Um eine Relation genau zu erklären, kommt es außerdem darauf an, anzugeben, aus welcher
Menge die Dinge etc. genommen werden.

.'     
Dann ist aber eine Beziehung zwischen zwei Dingen nicht anderes als eine Eigenschaft von

.'  
Elementen des kartesischen Produktes . Der Begriff „Eigenschaft“ wird dabei als

  
ein Grundbegriff genommen und nicht weiter erklärt als dadurch, daß von jedem Element
von eindeutig feststehen muß, daß die Eigenschaft entweder erfüllt ist oder nicht.
.'     .'  
+ 
Dafür, daß die Eigenschaft besitzt, wird die Funktionsschreibweise oder die
Operatorschreibweise verwendet.

4.1.2 Beispiele aus der Linearen Algebra

1. Isomorphie von Vektorräumen und für '  ,  eine Menge von Vektorräumen
über einem festem Körper  .
'
Basen
 '  
2. Gleiche Orientiertheit von Basen

eines -dimensionalen reellen Vektorraumes. Zwei
heißen gleich orientiert, wenn sie durch eine Basistransformation mit
positiver Determinante auseinander hervorgehen.
  
-Matrizen     ( ein Körper) heißen '  
 
3. Äquivalenz von Matrizen: Zwei
äquivalent, wenn es eine reguläre Matrix   und eine reguläre Matrix    

  
gibt mit

 
-Matrizen     ( ein Körper) heißen ' 

4. Ähnlichkeit von Matrizen: Zwei
ähnlich oder konjugiert zueinander, wenn es eine reguläre Matrix   gibt mit 
  
1!
5. Konjugiertheit von Endomorphismen (:= linearen Selbstabbildungen eines Vektorraumes
): konjugiert ein Automorphismus von (ein Isomorphismus von mit

   
sich selbst), so daß gilt:

Diese Beispiele haben die folgenden Eigenschaften und sind daher Äquivalenzrelationen.

 
4.1.3 Eigenschaften von Relationen
Eine Relation auf der Menge heißt
1! +  1 +
1! +.'   1 +     
reflexiv gilt

1! +.'  '   1 +  und     + 


symmetrisch gilt
transitiv gilt
38 IV Gruppen, Vektorräume, Körper

 
4.1.4 Definition von Äquivalenzrelation und Äquivalenzklasse

  .'  
Eine Relation auf einer Menge , die diese drei Eigenschaften hat, heißt eine Äquivalenzre-

  
lation. Bei einer Äquivalenzrelation schreiben wir anstelle von und sagen dafür


ist bei der Relation äquivalent zu . Meist wird die Kurzform verwendet , lies: „
äquivalent “, wenn klar ist, welche Relation gemeint ist oder wenn in einem Zusammenhang
nur eine Relation betrachtet wird.
Ist    

, dann heißt die Menge aller zu äquivalenten Elemente die Äquivalenzklasse
von bezüglich . Die Äquivalenzklassse von wird auch mit oder mit bezeichnet. Jedes
Element einer Äquivalenzklasse heißt ein Repräsentant der Äquivalenzklasse.

 
4.1.5 Satz über die Äquivalenzklassen
Für eine Äquivalenzrelation auf der Menge gilt:

   
1. Äquivalente Elemente haben dieselbe Äquivalenzklasse, d. h.:

2. Zwei Äquivalenzklassen sind entweder disjunkt oder stimmen überein.
3. Jedes Element liegt in genau einer Äquivalenzklasse. Oder mit anderen Worten: ist die 

disjunkte Vereinigung der verschiedenen Äquivalenzklassen. Hierfür wird auch gesagt:
Die verschiedenen Äquivalenzklassen bilden eine Zerlegung oder Partition von .


4.1.6 Definition der Quotientenmenge

    
Die Menge, deren Elemente die Äquivalenzklassen bezüglich einer Äquivalenzrelation auf

einer Menge sind, heißt die Quotientenmenge von nach . Sie wird mit bezeichnet.

4.2 Quotientenräume
4.2.1 Gleichheit modulo einem Untervektorraum
sei ein Vektorraum über einem festen Körper  , und ein Untervektorraum von  . Dann ist

 1 ! " 
durch

eine Äquivalenzrelation auf definiert. Andere Formulierung:


 1 !   so daß    

In Worten:  und sind gleich bis auf Addition eines Vektors aus  , wofür auch die Redeweise
verwendet wird:

„ modulo  “

fester Punkt  als Nullpunkt und eine Gerade  durch  gewählt sind. Als geometrische Vektoren
Wir veranschaulichen uns dies in der Anschauungsebene (oder euklidischen Ebene), in der ein

sehen wir die Pfeile an, die in  beginnen. sei der Vektorraum der geometrischen Vektoren
der Anschauungsebene und  der Untervektorraum der Pfeile, die in  liegen. Dann ist 
modulo  ! Die Endpunkte der Pfeile  und liegen auf einer zu  parallelen Geraden.
IV.4 Äquivalenzrelationen und Quotientenräume 39

 
4.2.2 Äquivalenzklasse modulo einem Untervektorraum
Die Äquivalenzklasse von , die auch Nebenklasse von modulo genannt wird, ist: 
       1      

Im obigen Anschauungsbeispiel   die Menge aller Pfeile, deren Spitze auf einer von  ab-
hängigen parallelen Geraden liegt.

   und
4.2.3 Addition von Äquivalenzklassen modulo U
Seien und 8 
zwei Äquivalenzklassen mod. , dann wählen wir Repräsentanten
8und definieren:
 8 1    
    
Diese Definition ist unabhängig von der Wahl der Repräsentanten! Dafür wird auch gesagt, die
Addition von Äquivalenzklassen ist „wohldefiniert“. Da und , kann
die Addition auch geschrieben werden in einer intuitiven Form, die allerdings nicht so deutlich
8
macht, daß die Definition zunächst Repräsentanten benutzt:
   $        oder    
4.2.4 Skalarenmultiplikation von Äquivalenzklassen modulo U

Für eine Äquivalenzklasse mod. wird definiert:
 

1     /'  Repräsentant von


Diese Definition ist unabhängig von der Wahl des Repräsentanten, die Skalarenmultiplikation
von Äquivalenzklassen ist „wohldefiniert“. Anders aufgeschrieben:
    (    


oder  

 ( 
4.2.5 Definition und Satz über den Quotientenraum

1. Ist 
die Äquivalenzrelation Kongruenz modulo U, dann ist  ' '  ein 
 1  

Vektorraum über  , der Quotientenraum oder Faktorraum von modulo  .


die Abbildung, die einem Vektor    zuordnet.
Dann ist 1   ist ein Vektorraum-Homomorphismus.
2. Sei seine Äquivalenzklasse


3. Ist 1  eine lineare Abbildung mit      , dann ist


1    mit     1  
eine wohldefinierte lineare Abbildung mit ; durch diese Gleichung ist eindeutig
bestimmt.
40 V Lineare Abbildungen und Matrizen

V Lineare Abbildungen und Matrizen

1 
Wenn nichts anderes ausdrücklich gesagt wird, bezeichnen und in diesem Kapitel Vektor-
räume über  und eine lineare Abbildung. Ab jetzt verstehen wir unter  den 
Vektorraum der Spalten- -tupel. Auch eine Basis schreiben wir als eine Spalte von Vektoren.
Eine Spalte schreiben wir aus drucktechnischen Gründen auch in der Form
 
 

.. 8 1  ''   
lies: „  ''   transponiert“


.

V.1 Beispiele und Definition

1.1 Koordinatenzuordnung

  ' '  


eine Basis eines Vektorraumes über  . Ordnen wir jedem Vektor
1
 ' '     ' '  
Sei sein
Koordinaten- -tupel  bezüglich der Basis  zu, so erhalten wir
eine Abbildung:


1   '
 1   ''    ' wobei         ist.



hat folgende Eigenschaften: Für alle .'  gilt:


1.
 
 
 
2.
  

3.
  d. h.
ist eine surjektive Abbildung.



4.

    d. h.
ist eine injektive Abbildung.
1.2 Definition

' 1 
1!
Seien Vektorräume über  . ist eine lineare Abbildung oder ein Homomorphis-


mus von Vektorräumen
Additivität:
Die folgenden Axiome für eine lineare Abbildung sind erfüllt:
       für alle .' 
 Homogenität:     für alle  und alle  
V.1 Beispiele und Definition 41

1.3 Beispiele

1. Die Nullabbildung 1  1  für alle .


2. Obige Koordinatenzuordnung .

3. Sei der Vektorraum der homogenen linearen Gleichungen

1    
 
in Unbekannten. Die Zuordnung 1    ' '    ist eine lineare Abbildung
1   

'  Dann heißt 1  mit  1 +


, und sei  
eine Streckung um den Faktor  . ist linear.
4. Sei beliebig und 
für alle 
5. Sei  ' 1  '   1 .' falls   '   und  ist eine  

  

lineare Abbildung; sie heißt Parallelprojektion von auf längs .

Für ein weiteres Beispiel benötigen wir:

1.4 Definition und Satz

  
-Matrix  mit einer Spalte   ' '    aus
 
Das Produkt einer Koeffizienten
ergibt per Definition das folgende Spalten- -tupel  :
     

      

 .




 
    .. 

8

8 






    8  .  
..


...


8


 .  ..



.
.

8

8 
 



 
   8      8 8   
.

  








Der
-te Koeffizient von   ist also:
     

 Additivität:           für alle .'  


Eigenschaften des Matrizenproduktes:


 Homogenität:         für alle   und alle   

1.5 Beispiel

Sei  eine    -Matrix. Wir definieren eine Abbildung $1    1 < 


 . Dann ist linear wegen obiger Eigenschaften.
  durch
für alle 
42 V Lineare Abbildungen und Matrizen

1.6 Folgerungen aus den Axiomen

1. 
2. :   
3.  . &&&        <&&   
4.  ' '  linear abhängig
   ''   linear abhängig
5. Ist  '  '  eine Basis von , so ist eine lineare Abbildung 1 

durch die Bilder der Basis   ''    bestimmt. Sind   ' '  
eindeutig

Vektoren von , so gibt es (genau) eine lineare Abbildung 1  


irgendwelche

  '  ' ' .


mit

V.2 Weitere Eigenschaften linearer Abbildungen


2.1 Definition: Sei 1  ein Homomorphismus von Vektorräumen.

Kern  1    Bild  1  

2.2 Satz


1. Kern( ) und Bild( ) sind Unterräume von bzw. .

2. ist injektiv ! 
Kern( ) =

3. injektiv und  ' '  linear unabhängig



  ' '   linear unabhängig.

2.3 Dimensionsformel

Sei 1  linear und endlich erzeugt. Dann ist auch  endlich erzeugt und es gilt:


Dim
  Dim Kern    Dim Bild  
2.4 Rang einer linearen Abbildung

Der Rang einer linearen Abbildung ist definiert durch: Rg


Dim Bild 1   Durch Ein-
setzen in obige Dimensionsformel erhalten wir die sogenannte Rangformel:

Dim
  Dim Kern   Rg 
V.3 Basis- und Koordinaten-Transformationen 43

2.5 Satz über die Inverse einer bijektiven linearen Abbildungen

Ist 1  eine bijektive lineare Abbildung, so ist auch   linear.


2.6 Satz über die Komposition linearer Abbildungen

1  und  1   ' '


 1   linear.
Sind lineare Abbildungen, also Vektorräume über  ,
dann ist auch

2.7 Definition und Satz

Eine Abbildung von nach heißt isomorph oder ein Isomorphismus von Vektorräumen, wenn
sie linear und bijektiv ist.
Vektorräume und heißen isomorph, wenn es einen Isomorphismus von nach gibt.
Bezeichnungen:
1   bedeutet: ist ein Isomorphismus von nach .
bedeutet: und sind isomorph zueinander.
1 
  isomorph
Id ist ein Isomorphismus.



isomorph
 

 /' +'  isomorph  




isomorph

2.8 Beispiel

Die Koordinatenzuordnung
1    ist ein Isomorphismus (vgl. 1.1 auf Seite 40).

2.9 Bemerkung

1    ' '   genau dann linear unab-


 ' '   
Ist ein Isomorphismus, so sind Vektoren
hängig, wenn   es sind.
Insbesondere für die Koordinatenzuordnung
1     sind   ''   genau dann
linear unabhängig, wenn ihre Koordinaten- -tupel
  '  '
   es sind.



2.10 Satz

Sind und endlich erzeugt, dann gilt: ! Dim


  Dim 
44 V Lineare Abbildungen und Matrizen

V.3 Basis- und Koordinaten-Transformationen

sei ein -dimensionaler Vektorraum über  ,


.
3.1 Definition

 :  ' '    ' ' 


Der Übergang von einer Basis zu einer Basis
    ' '     ' ' 
heißt eine Ba-

den Koordinaten  bezüglich  ' ' 
sistransformation. Der Übergang von den Koordinaten
  ' '  
bezüglich

heißt eine Koordinatentransformation.
zu


3.2 Definition und Satz

Eine Basistransformation wird beschrieben durch

     '  ''  

   


Dabei hat die hierdurch definierte Matrix


 
      8 & &  

 
.. 8
 8 8 & &  8

   8 && 
.

den Rang , wobei Rang( ):=Maximalzahl linear unabhängiger Zeilen. Sie heißt die Matrix der
Basistransformation. Zu jeder  
-Matrix  vom Rang gehört eine Basistransformation,
deren Transformationsmatrix  ist. Eine Basistransformation kann in Verallgemeinerung von
V. 1.4 auf Seite 41 auch in Matrizenform geschrieben werden:
  
        8 & &        
    -  8 8 <<&&&&     


8  
.. 8
 8 8 & &  8  .8 1   - 8 8
.. 8 8 8 
 ..   .. 
   8 & &     -  8 8 <&&     
. . .
 
Kurz:
   
3.3 Satz und Definition

Zur Basistransformation
    gehört die Koordinatentransformation:
V.4 Die Matrix einer linearen Abbildung 45

  
    8  & &        
  

.. 8

.. 8
 8 8 & &   8  . 8
   ..
   8  & &    
. .

Die Koordinatentransformation von    nach   wird durch die transponierte Matrix 


 be-
schrieben:

  
   
    mit den Koeffizient     die zu   

Dabei heißt die Matrix     transponierte
Matrix. Die Transponierte  von  kann auch als die Matrix beschrieben werden, deren -te

Zeile die -te Spalte von  ist. Offensichtlich gilt:   

V.4 Die Matrix einer linearen Abbildung


Im folgenden sind
   ' '    und
  ' '    Basen des Vektorraumes bzw.
über  .

4.1 Definition

Sei 1  linear. Dann sei



     
 

die lineare Darstellung von    durch die Basis  ' '   . Die daraus gebildete Matrix
wird die (Abbildungs-) Matrix 

von bezüglich und genannt:


 "1  1            


 (5)    
 

Anders ausgedrückt, besagt diese Definition, daß die -te Spalte von  das Koordinaten- -tupel
des Bildes des -ten Basisvektors ist. Die obige Definitionsgleichung 5 der   schreibt sich in 

Matrizenform durch:

       ausführlich:    ''        ' '  



 


Bei einer Selbstabbildung 1  wird in der Regel für Quelle und Ziel von die gleiche
gewählt und wir erhalten die Matrix der Selbstabbildung bezüglich der Basis
  ' '    durch die Definitionsgleichung:
Basis von

      

46 V Lineare Abbildungen und Matrizen

4.2 Bemerkung
 
   
Halten wir und fest, so ist die lineare Abbildung eindeutig durch ihre Abbildungsmatrix
-Matrix  gibt es (genau) eine lineare Abbildung , deren
 
bestimmt und zu jeder
gleich  ist. Wie sich


Abbildungsmatrix ändert bei Benutzung anderer Basen, können


 

wir genau erst in 7.6 auf Seite 53 formulieren.

4.3 Beispiele
   .

  1
. . .. ..
. .. 


1. , die -Einheitsmatrix.
 .. .. ..

. .


bezeichnet und können so beschrieben werden:
Ihre Koeffizienten werden mit



 fürfür



 


kann bei jedem Isomorphismus 1   als  auftreten,
2. Die Einheitsmatrix

nämlich bei der Wahl von  
 .  

3. Sei  eine    -Matrix und )1 


 die Abbildung     1     . Dann ist
die Matrix von bezüglich der kanonischen Basen gerade die Matrix  .
 

4.4 Definition

Abb '  := Menge aller Abbildungen von nach .




 '  1   linear  

 ;1     -Matrizen mit Koeffizienten in 




  

Die Summe von Abbildungen ('*


  Abb '  und die Multiplikation eines Skalars  mit 

Abb ' wird wertweise definiert:




einer Abbildung 

$    1       #    1    
Die Summe von zwei Matrizen     '        und die Multiplikation eines
Skalars    wird koeffizientenweise definiert:
   
mit einer Matrix     

  1       #  1       
V.4 Die Matrix einer linearen Abbildung 47

4.5 Satz

'    
 '  '   1
Mit den soeben definierten Zuordnungen sind Abb und   Vektorräume über und


  1 '  
ist ein Unterraum von Abb . Bei fest gewählten Basen und ist durch
ein Isomorphismus
 
  definiert.

4.6 Satz

Eine lineare Abbildung wird durch


von   
   ' '    und 
die Koordinaten
die Koordinaten   von
bezüglich

bezüglich    ' '  beschrieben durch:



 
    


oder in Matrizenschreibweise durch

 
     '
wobei    
  ist.

4.7 Beispiele

Wir geben i. f. lineare Abbildungen )1  an, indem wir die Bilder einer Basis   ''   
angeben.

1. Für   ,  und  '  ' '  setzen wir:


  
für 
  .
:=
:=



Dadurch ist ein Isomorphismus definiert, da eine Abbildung desselben Typs aber mit
anstelle von die Umkehrabbildung ist. hat die Matrix

 ..
 .
 
 


 ..
.

48 V Lineare Abbildungen und Matrizen

 ' 

Nicht bezeichnete Koeffizienten sollen dabei null sein. Das ist der -te Koeffizient.


Durch Koordinaten ausgedrückt, besteht diese Abbildung darin, daß die -te Koordinate

'   '  ' ' 


mit multipliziert wird und die anderen Koordinaten beibehalten werden.
2. Für   , und   setzen wir:
   :=   für


 :=   ( .
 

 
Wieder wird hierdurch ein Isomorphismus definiert; denn die lineare Abbildung vom sel-


ben Typ, aber mit anstelle von ist die Umkehrabbildung.
Für  hat die Matrix:
 
 
 ..
. 
 
  .. .. 
 
.


. 
..
. 

 '  -te Koeffizient ist


    
sein.
Nicht bezeichnete Koeffizienten sollen dabei wieder null sein. Der
das . Denn die -te Spalte muß das Koordinaten- -tupel von
Durch Koordinaten ausgedrückt, erhalten wir:
          
 .       
 

.. 
 ..   ..
  .   ..

  
.
    
.
  

 



 ..       ..    
.  
.. .. ..
 .   
.

.
  

 

 .  

 
...  ..
.  ..  .. 
 
.
 


.

D. h..:     für   und 



+ 
3. Für ' 
 ' ' '  und   setzen wir:

   
für
und 

 
 := 

 
:=
:=


Die Matrix des hierdurch definierten Isomorphismus entsteht aus der Einheitsmatrix durch
Vertauschung der -ten und -ten Spalte.


In Koordinaten ausgedrückt ist dieser Isomorphismus natürlich die Vertauschung der -ten
und -ten Koordinate unter Beibehaltung der anderen Koordinaten.
V.5 Der Dualraum 49

Diese Abbildungen heißen die Elementar-Abbildungen und ihre Abbildungsmatrizen Elementar-


Matrizen.

4.8 Definition

 
 sei eine    -Matrix,     eine    -Matrix. Dann ist das Matrizenprodukt
   von  mit  definiert als eine   -Matrix 
  mit
  


 1   
  für  ' ' und   ' '
 
  


4.9 Satz: Es gilt für eine    -Matrix  :    <  


4.10 Satz

1  '  1   lineare Abbildungen von Vektorräumen über ,


  ' '    '  '  '   '  ''  Basen von bzw. bzw.  . Dann gilt für die Abbil-
Sind 
  
dungsmatrizen bezüglich dieser Basen:

 


  


V.5 Der Dualraum

5.1 Definition

1  '  heißt der Dualraum von

 , seine Vektoren heißen Linearformen von .

5.2 Bemerkung
   ' '  
Ordnen wir einer Linearform ihre Abbildungsmatrix bezüglich einer Basis

 
 '  
 der kanonischen Basis (1) von  
von und  zu, so erhalten wir einen Isomorphismus
 
   , auf den Raum der Zeilen- -tupel. es ist also Dim .

Wir zeigen jetzt, wie wir aus einer Basis von eine Basis von finden können.

5.3 Definition

Ist   ''    eine Basis von , dann sei die Linearform   definiert durch:
50 V Lineare Abbildungen und Matrizen

 1  



  für
  
 für

  ' 8 '  '  


  ist eine Basis des Dualraumes; sie heißt die zu   ''    duale Basis.
5.4 Definition

Die von einer linearen Abbildung 1  induzierte Abbildung der Dualräume ist definiert
durch:

1  
 
'    1
1

    oder

  (' 

Wenn wir untersuchen, wie die Matrix der dualen Abbildung



bezüglich der dualen Basis
aussieht, so stoßen wir wieder auf die von der Koordinatentransformation bekannte Matrizen-
Operation, auf das Transponieren:

5.5 Satz: 
ist eine lineare Abbildung und   
 
  
 
 

V.6 Der Rang


Der Begriff Rang trat zweimal auf.
1 

Einmal als Rang einer linearen Abbildung , wobei endlich erzeugt sein muß. Er


gibt an wie viele Dimensionen bei erhalten bleiben; den kleinsten Rang hat die Nullabbildung



: Rg( ) = 0, den größten eine injektive lineare Abbildung : Rg( ) = Dim( ). Im allgemeinen
 
liegt der Rang zwischen diesen beiden Werten: Rg Dim .
Ein zweites Mal trat der Rang als Rang einer Matrix auf; genauer wird definiert:

6.1 Definition

Spaltenrang einer Matrix  := Maximalzahl linear unabhängiger Spalten von  .


Zeilenrang einer Matrix  := Maximalzahl linear unabhängiger Zeilen von  .
Die Abbildungsmatrix liefert uns einen Zusammenhang zwischen linearen Abbildungen und Ma-
trizen, wodurch sich auch eine Verbindung zwischen beiden Rang-Begriffen wird herstellen las-
sen.

6.2
Hilfssatz: Rg( ) = Spaltenrang von  

Beweis:
V.6 Der Rang 51

    '    sei eine Basis von , 


'   '   eine von . Dann ist
'
   ''     ein Erzeugendensystem von Bild  . Ein maximales linear unabhängiges


Teilsystem eines Erzeugendensystems ist eine Basis (vgl. den Beweis zu IV. 2.2 auf Seite 32);
folglich gilt:

Rg( ) = Maximalzahl linear unabhängiger Vektoren des Systems    ' '     .


Da die Koordinatenzuordnung ein Isomorphismus ist, folgt: Rg( ) = Maximalzahl linear unab-
hängiger Koordinaten- -tupel dieser Vektoren bezüglich .
 

Da diese Koordinaten- -tupel die Spalten der Matrix  sind, erhalten wir Rg( ) = Spaltenrang
von . 


Im folgenden ist unser Ziel, zu zeigen, daß der Spaltenrang gleich dem Zeilenrang ist. Dann
können wir kurz vom Rang einer Matrix sprechen und es gilt: Rg( ) = Rg( ) 

6.3 Hilfssatz

Bei elementaren Zeilenumformungen ändert sich der Spaltenrang nicht.

Beweis:



1. Die Multiplikation der -ten Zeile mit bedeutet in jeder Spalte den -ten Koeffizi-
enten mit zu multiplizieren. D. h. die Spalten werden mit dem Isomorphismus aus dem
1. Beispiel von 4.7 auf Seite 47 abgebildet. Da ein Isomorphismus die Maximalzahl line-
ar unabhängiger Vektoren nicht ändert, bleibt bei einer Zeilenumformung vom Typ I der

'   '  ' '  


Spaltenrang erhalten.
2. Sei  , 
  
 
und . Der Addition des -fachen der -ten Zeile


zur -ten entpricht in jeder Spalte der Addition des -fachen des -ten Koeffizienten zum
-ten. D. h. die Spalten werden mit dem Isomorphismus aus dem 2. Beispiel von 4.7 auf
Seite 47 abgebildet. Wieder folgt, da ein Isomorphismus die Maximalzahl linear unabhän-
giger Vektoren nicht ändert, daß bei einer Zeilenumformung vom Typ II der Spaltenrang

'  ' ' ' 


erhalten bleibt.
 

3. Sei . Die Vertauschung der -ten und -ten Zeile bedeutet für die Spal-
ten die Vertauschung des -ten und -ten Koeffizienten, d. h. der Anwendung des Isomor-
phismus aus dem 3. Beispiel von 4.7 auf Seite 47. Wie oben folgt, daß bei einer Zeilenum-
formung vom Typ III der Spaltenrang erhalten.

6.4 Hilfssatz

Bei elementaren Spaltenumformungen ändert sich der Spaltenrang nicht.

Beweis:
52 V Lineare Abbildungen und Matrizen

 
Dies liegt daran, daß ein linear unabhängiges System von Vektoren linear unabhängig bleibt,
wenn ein Vektor durch sein -faches mit ersetzt wird oder zu einem Vektor ein Vielfaches
eines anderen Vektors des Systems addiert wird oder zwei Vektoren des Systems vertauscht
werden.

6.5 Hilfssatz

Bei elementaren Spalten- und Zeilenumformungen ändert sich der Zeilenrang nicht.

Beweis: Entsprechend wie für den Spaltenrang.

Wir betrachten eine    -Stufenmatrix:


  
    8 &. &     .  &&
  . 


.. .. ..
 ... . . . . . . . . . ... && ..


..    && 
.


. . && . . && .
. 


 .. .. .. .. ..
&& &&
Min '  
 
Dabei ist 

6.6 Hilfssatz

Eine Stufenmatrix hat gleichen Zeilen- und Spaltenrang, nämlich  .

6.7 Satz und Definition

1. Rg( ) ändert sich nicht bei elementaren Umformungen.

2. Zeilenrang und Spaltenrang einer Matrix stimmen überein. Wir definieren daher den Rang
einer Matrix  durch: Rg( ) := Zeilenrang( ) = Spaltenrang( )


3. Rg( ) = Rg(   ) für eine lineare Abbildung und ihre Abbildungmatrix   .

V.7 Die Allgemeine Lineare Gruppe


   ''   und   ''   Basen des Vektorraumes
Im folgenden sind
über  .
  bzw.
V.7 Die Allgemeine Lineare Gruppe 53

7.1 Definition

Eine   -Matrix  heißt regulär, wenn Rg   ist, andernfalls heißt sie singulär.

7.2 Satz: Für  gilt:


  -Matrix 
1 
1. Eine ist regulär dann und nur dann, wenn sie einen Isomorphismus
definiert (vgl. 4.2 auf Seite 46).

2. Für einen Isomorphismus )1  gilt:   



  


3. Genau die regulären Matrizen haben bezüglich des Matrizenproduktes eine Inverse.

7.3 Definitionen

1. Ein Isomorphismus <1  eines Vektorraumes auf sich heißt ein Automorphismus
von .

2. Eine Abbildung   1 
 von einer Gruppe  nach einer Gruppe  heißt homomorph
oder ein (Gruppen-)Homomorphismus, falls  
   für alle    .     '
3. Ein bijektiver Gruppen-Homomorphismus heißt isomorph oder ein (Gruppen)-
Isomorphismus.

7.4 Bemerkung:  (Gruppen)-Isomorphismus     (Gruppen)-Isomorphismus


7.5 Satz und Definition


Die Automorphismen von bilden bezüglich der Hintereinanderausführung als Verknüpfung

' 
eine Gruppe G , die Lineare Gruppe von . Das gleiche gilt für die regulären Matrizen be-

 
züglich des Matrizenproduktes; die von ihnen gebildete Gruppe Gl  heißt Allgemeine Li-
neare Gruppe zur Dimension
Gruppenisomorphismus G

Gl  .  ' 
und zum Körper  . Die Zuordnung definiert einen 

Nachdem wir jetzt die Inverse einer regulären Matrix zur Verfügung haben, können wir genau
beschreiben, wie sich die Abbildungsmatrix transformiert, wenn wir in und in die Koor-
dinaten transformieren. Außerdem können wir damit die zu einer Basistransformation gehörige
Koordinatentransformation besser als früher ( 3.3 auf Seite 44) beschreiben.

7.6 Satz

Sei 1  linear,
54 V Lineare Abbildungen und Matrizen

 
 '  ''   sei eine Koordinatentransformation in ,
  
 
 '   '  ' 
sei eine Koordinatentransformation in ,
    



  

 sei die Matrix von bezüglich der Basen    und


 ,  sei die Matrix von bezüglich der
   

Basen   und


 ,     und 
 die Matrizen der zugehörigen Koordinatentrans-
  

      
formationen. Dann gilt:


7.7 Satz
 
 gehörige Koordinatentransformation (s. 3.3 auf Seite 44)
      
Die zur Basistransformation
 können wir jetzt besser in der nach aufgelösten Form schreiben:

        

V.8 Anwendung auf lineare Gleichungssysteme


Ein lineares Gleichungssystem


       
 & &
       

 8   .   8 88 88  & &   8    8
 ..
       8 8  & &       

schreiben wir in Matrizenform mit Koeffizientenmatrix     und inhomogener Spalte  : 

    
Das Produkt     wurde bereits in 3.2 auf Seite 44 definiert.     heißt das zugehörige
homogene Gleichungssystem.
Zur Matrix  betrachten wir die lineare Abbildung 1  
 '    1      , d. h.
diejenige mit 
 
 bezüglich der kanonischen Basen.


8.1 Der Lösungsraum eines homogenen Systems




Im homogenen Fall, , ist der Lösungsraum gleich Kern( ) und hat nach der Rangformel
die Dimension  , wobei  = Rg( ) = Rg(  ).

7
A. Riede: Lineare Algebra 1, SS 98
V.9 Berechnung der inversen Matrix 55

Sind weniger Gleichungen gegeben als Unbekannte vorhanden, d. h. für  , dann hat ein
homogenes System also mindestens eine nicht triviale Lösung.
Sind mindestens so viele Gleichungen gegeben als Unbekannte vorhanden sind, d. h. für

 ,
dann gilt:
Das homogene System ist eindeutig (durch den Nullvektor) lösbar. ! Rg( ) =

8.2 Lösungsmenge eines inhomogenen Systems




1. Die Lösungsmenge inhom des inhomogenen Systems ist
Gleichungssystem ist also genau dann lösbar, wenn Bild
     .. Das inhomogene lineare
2. Es gibt eine Lösung des inhomogenen Systems. ! Rg( ) = Rg( )
   

3. Sei eine feste Lösung des inhomogenen Systems, dann gilt, wenn hom den Lösungs-
raum des zugehörigen homogenen Systems, 
    1          
, bezeichnet:
 inhom hom  hom 
V.9 Berechnung der inversen Matrix
Sind mehrere lineare Gleichungssysteme mit der gleichen Koeffizientenmatrix zu lösen, so er-

 
weitern wir einfach die Koeffizientenmatrix um alle inhomogenen Bestandteile und erhalten ei-
ne erweiterte Matrix  . Dann wenden wir das Gauß oder das Gauß-Jordan-Verfahren auf 
sinngemäß an. Bei der rekursiven Auflösung müssen wir dann jeweils die erste, zweite ... Er-
weiterungsspalte verwenden, um die Lösung des ersten, des zweiten ... Gleichungssystems zu
bekommen.
 einer regulären   -Matrix 
   oder ausführlich:
In dieser Situation befinden wir uns, wenn wir die Inverse
berechnen wollen. ist festgelegt durch die Gleichung 

    

   '  '
 '  '
 


    

8 
8
 '  '
..


    

 . 

Dies sind lineare Gleichungssysteme mit  als Koeffizientenmatrix. Im ersten sind die Koef-



fizienten der ersten Spalte von die Unbekannten, im zweiten die Koeffizienten der zweiten

Spalte, im letzten die Koeffizienten der letzten Spalte von . Die inhomogene Spalte des -ten
Gleichungssystems ist die -te Spalte der Einheitsmatrix .

Wir wenden das Gauß-Jordan-Verfahren an und nehmen an, daß  den Rang hat. (Genau
dann gibt es ja die Inverse.) Als Stufenform erhalten wir durch elementare Umformungen, wo-
bei wegen der Rangbedingung keine Spaltenvertauschungen nötig sind und deshalb auch nicht
verwendet werden:
56 V Lineare Abbildungen und Matrizen

   .  .    .   . 
 

 . . .. ..
. .. .. .. ..
 .. .. ..
 .. .. ..
  
. . . . .
   
   gerade die Inverse

Die Auflösung des Stufensystems ergibt, daß die auftretende Matrix 

ist.
VI.1 Länge, Winkel und Skalarprodukt 57

VI Metrische Größen im Anschauungsraum

VI.1 Länge, Winkel und Skalarprodukt

In den Vektorraum-Axiomen sind nicht alle Eigenschaften enthalten, die die geometrischen Vek-
toren des Anschauungsraumes tatsächlich haben. Z. B. kann die Länge eines Vektors und zwi-
schen zwei geometrischen Vektoren der Winkel gemessen werden. In der Tat brauchen wir die-
se Begriffe auch nicht, um den Begriff eines Vektorraumes zu begründen; umgekehrt können
diese Begriffe auch nicht aus den Vektorraum-Axiomen abgeleitet werden! Vielmehr ist es so,
daß, wenn in einem Vektorraum diese Begriffe einen Sinn machen, der Vektorraum eine wei-
terreichende Struktur hat als nur die Struktur eines Vektorraumes. Zunächst betrachten wir die
Anschauungsebene.

1.1 Die Länge eines Vektors

  
 
Die Länge eines Vektors , die auch Betrag von genannt und mit bezeichnet wird, berechnet
sich nach dem aus der Schule bekannten Satz des Pythagoras. Dieser begründet sich aus der
Elementargeometrie, die auf ganz anderen Axiomen aufgebaut wird als den Vektorraumaxiomen,
z. B. gehören dazu die Kongruenzaxiome.
Seien  ' 8 das Koordinatenpaar von  bezüglich eines festen kartesischen Koordinatensy-

  
stems, dann gilt:

 (8  88
Das Quadrat der Länge ist gegeben durch:
     8  8   88
1.2 Der Winkel


Zwei von 0 verschiedene Vektoren und der Anschauungsebene bilden zwei Winkel mit-
einander, von denen wir den kleineren im folgenden betrachten. Er ist nur, wenn die Vektoren
zueinander entgegengesetzt sind, nicht eindeutig bestimmt; in diesem Falle haben jedoch beide
Winkel das gleiche Maß  , so daß diese Zweideutigkeit für die Winkelmessung keine Bedeutung
.'  

hat. Wir verwenden ein kartesisches -Koordinatensystem mit der -Achse als horizontaler
Achse und der -Achse als vertikaler Achse.
8
A. Riede: Lineare Algebra 1, SS 98
58 VI Metrische Größen im Anschauungsraum



Wir schauen uns im Detail nur den Fall an, daß und in den 1. Quadranten zeigen und daß
für die Winkel und  , die bzw. mit der -Achse bilden, gilt:  . Es genügt den
   
 
 
Winkel zwischen Einheitsvektoren, solchen mit Betrag 1, zu betrachten. Sei also .
 und nach dem Additionstheorem für

   
  

Für den Winkel zwischen und gilt dann

 
   

   
 
     8  8

den Kosinus:


Dabei seien  '  8  die Koordinaten von  ,   '  8  die von . Mit der rechten Seite von   

Vektoren ('  . Für  besteht seine geometrische Bedeutung darin, daß er nach   die
sind wir auf einen Ausdruck gestoßen, der einen eindeutigen Sinn hat für ein beliebiges Paar von

Länge zum Quadrat von  angibt. Der Ausdruck definiert eine Abbildung:


1    ' ('        8  8 1  ('   

Der Ausdruck hat Ähnlichkeit mit einer Linearform auf dem  8 , 1  8   .



    '  8         - 8  8



8 8  
Der Unterschied besteht nur darin, daß in        variabel sind, bei einer
Linearform jedoch   und  8 fest sind. Wir sehen also:
 8  und
 8 

Bei festem  ist  linear in der Variablen und bei festem ist  linear in der Variablen  .

 (' $   ('   ('  '  +'   + (' 


   

  $ '   ('    '  '  (('  + (' 


    

Es wird daher  eine bilineare Abbildung oder eine Bilinearform genannt.


Die Bilinearität ist Anlaß dafür, daß wir  ('  als eine Art Produkt von  und ansehen
können; denn, wenn wir  ('  mit #

bezeichnen, so schreiben sich die Bedingungen der
Bilinearität folgendermaßen:

  $  " $" ' "      


     $$  "'        
für alle Vektoren (' "'   ' und alle Skalare   . Die Additivität in jeder Variablen ist also
dasselbe wie ein Distributivitätsgesetz für das Produkt. Berücksichtigen wir noch, daß  ('
 

eine reelle Zahl, also einen Skalar, als Wert hat, so leuchtet ein, warum  ('  als Skalarprodukt


von  und bezeichnet wird.




Das Skalarprodukt hat eine weitere „Produkt-Eigenschaft“, es ist kommutativ.

  ('   '  
& oder 

Im Sinne der Abbildung  wird diese Eigenschaft Symmetrie (in  und ) genannt.
VI.2 Das Vektorprodukt 59

  ( '   '   '  für alle (' . Denn


 ('   ('   / + '  . Als dritte Eigenschaft notieren wir:
Bei einer bilinearen Abbildung ist 


 ('   und  ('   nur für 


Denn die Länge eines Vektors  zum Quadrat ist und nur für  . Diese Eigenschaft

von  heißt positive Definitheit.


Wir sahen, daß mehrere Bezeichnungsweisen für das Skalarprodukt sich anbieten. Ab jetzt wer-

(' 1  (' 
den wir die Schreibweise
 

verwenden.

1.3 Bemerkung

   folgt  für     und :


('    . Dabei ist 
Aus
 der Winkel zwischen und .

1.4 Anwendung: Strömung einer Flüssigkeit durch eine Fläche


Die Fläche sei ein Rechteck, das von einer Flüssigkeit mit zeitlich und räumlich konstanter 

Geschwindigkeit durchströmt wird. Unter dem Flächenvektor verstehen wir den auf der


Fläche senkrecht stehenden Vektor, dessen Länge gleich dem Flächeninhalt von ist und der

0
nach der Seite von zeigen soll, in die die Flüssigkeit fließt. sei die Flüssigkeitsmenge, die 

in der Zeit durch die Fläche fließt. Dann gilt:





0 +'


VI.2 Das Vektorprodukt


In diesem Abschnitt sei der Vektorraum der geometrischen Vektoren des Anschauungsraumes.

2.1 Definition

  '  8 '   


  8
Eine Basis von heißt positiv orientiert, falls den Fortschreitungssinn einer

8   '  8 '  


Rechtsschraube angibt, wenn wir in der von und aufgespannten Ebene um den klei-
neren Winkel in hineindrehen. Wir sagen dafür auch, daß den Schraubungssinn
einer Rechtsschraube darstellen.
Seien  (' (vgl. 1.4) des von  und


(' '  positiv orientiert ist, das


linear unabhängig. Dann heißt der Flächenvektor 

aufgespannten Parallelogramms, der so gerichtet wird, daß 


60 VI Metrische Größen im Anschauungsraum

('  
(' 
Vektorprodukt von  , weil das Ergebnis des Multiplizierens ein Vektor ist. Es wird mit
bezeichnet und auch das Kreuzprodukt des Paares  genannt.
 ist also der Vektor mit folgenden Eigenschaften:

1. Er steht auf  und senkrecht;

    =        = Flächeninhalt des von  und aufgespannten Parallelogramms




( ' );
2.
( 

3. (' '   
 stellen den Schraubungssinn einer Rechtsschraube dar.
Für linear abhängige (' wird definiert  
 1 .
2.2 Koordinatendarstellung

   '  8 '    den Schrau-



In einem kartesischen Koordinatensystem, bei dem die zugehörige Basis
bungssinn einer Rechtsschraube darstellt, hat die Koordinaten

 8      8 '       %',   8  8    ' 

falls  die Koordinaten  '  8 '    und die Koordinaten   '  8 '   hat.

2.3 Eigenschaften

1. Das Vektorprodukt ist bilinear.

2. Das Vektorprodukt ist schiefsymmetrisch, d. h.     .


3. Für eine positiv orientierte Orthonormalbasis   '  8 '    gilt:
   8  &'  8     '      8
4.   "'   ( ('  + ' (  (' ( '  ( Lagrange-Identität
 

5.     (' "
 '   Graßmann-Identität
 

6.           
   Jacobi-Identität

VI.3 Volumen

.' ('
In diesem Abschnitt sei wieder der Vektorraum der geometrischen Vektoren des Anschau-


ungsraumes. Drei linear unabhängige Vektoren   spannen ein Parallelflach oder ein Spat


auf. Sein Volumen wird definiert durch Grundfläche des von und aufgespannten Paralle-
logramms mal Höhe .
VII.0 Volumen 61


 

Um zu beschreiben, betrachten wir einen auf  und senkrechten Einheitsvektor  .



     

Dann gilt: 
.'


(vgl. VI.1 ?? auf Seite ??)

     
 .'        


 



.'  



Schließlich erhalten wir:

3.1 Formel für das Volumen:



 '  

Der Ausdruck auf der rechten Seite dieser Formel ohne die Betragsstriche ist mit den Methoden
der linearen Algebra besonders zugänglich und Ausgangspunkt und Motivation für das Kapi-
tel VII auf der nächsten Seite.

3.2 Definition

1 .'   

heißt das orientierte Volumen des von .' ('  aufgespannten orientierten Parallelflachs oder
das Spatprodukt von .' ('  , wobei wir ein Parallelflach als orientiert ansehen, wenn für die
 

Vektoren eine bestimmte Reihenfolge festgelegt ist. Sind .' (' linear abhängig,
 

so wird .' ('  1 definiert.
aufspannenden
 
 

3.3 Bemerkung

' +' 
Das orientierte Volumen ist abhängig von der Reihenfolge der Vektoren. Es ist positiv, genau
wenn   linear unabhängig und positiv orientiert sind.

3.4 Koordinatenbeschreibung
 .' ('    8 *  8  -    8
   8  8       8 
     
   

für   ' 8 '   ' 


     '  8 '   und ' 8'   
9
A. Riede: Lineare Algebra 1, SS 98
62 VII Determinanten

VII Determinanten
bezeichne im ganzen Kapitel einen -dimensionalen Vektorraum über  mit
.

VII.1 Determinantenform

1.1 Definition

1. Eine Abbildung 1  
&&  
des  -fachen kartesischen Produktes nach

 ' '    
' '     '    ' ' 
einem Vektorraum über  heißt  -fach linear, kurz multilinear, wenn bei beliebigem
  und beliebigen aber festen Vektoren   
    ' '     ' ('    ' '    1 
 die
 

Zuordnung  ein lineare Abbildung ist;
d. h., wenn in jeder Variablen linear ist.

2. Für heißt wie oben eine -fache Linearform, kurz eine -Form.
  

3. Eine Abbildung  1   heißt Determinantenfunktion oder Determinantenform von



, falls sie folgende Eigenschaften hat:

a)  ist multilinear.
b)  ist alternierend, d. h.    ' '    für alle linear abhängigen   ' '   .
c)  Nullabbildung.

1.2 Folgerungen: Für eine Determinantenform  gilt:

   ' '     '    


'    ' '       ' '     '  '   ' '  
1. Scherungsinvarianz:
 für 


   ' '   ' ' 
''       ' ' 
''   ' '    
2. ist schiefsymmetrisch; d. h.:
für

VII.2 Das Signum einer Permutation

Wir wollen die 2. Formel aus 1.2 auf beliebige Permutationen  der verallgemeinern. Das 
dabei auftretende Vorzeichen heißt das Signum von  . Eine Vertauschung der 

können wir
auch als Vertauschung der Indizes aufschreiben. Die genaue Definition kann folgendermaßen
gegeben werden:
VII.2 Das Signum einer Permutation 63

2.1 Definition

Sei 1 
  das Polynom in Variablen mit
 8 $                 


 ' '    1   



$      8     8  &&     8 





  
  
   
 


  
 sich von
Für  $ := Permutationsgruppe von ' '  '  unterscheidet   '  ' 

 ''    nur um das Vorzeichen; dieses heißt das Signum der Permutation  , es wird mit   

 

sgn( ) bezeichnet. Die Definitionsgleichung für das Signum lautet also:


  ' '    sgn     ' '   
 
 

2.2 Charakterisierung durch Inversionen

Für
  
 
heißt  '   eine Inversion von    , wenn      ist.
Sei   die Anzahl der Inversionen von  , dann gilt:
sgn( ) =  
 


2.3 Definition:   heißt gerade, falls sgn( ) = 1 ist, sonst ungerade.



2.4 Satz: sgn( ) = sgn( )  sgn( ) für alle ,'  .

 

2.5 Folgerungen

1. Die Komposition zweier gerader Permutationen ist gerade.


2. Die Komposition zweier ungerader Permutationen ist gerade.
3. Die Komposition einer geraden Permutation und einer ungeraden ist ungerade.
4. Die geraden Permutationen bilden zusammen mit der Komposition eine Gruppe; sie heißt
die Alternierende Gruppe.

2.6 Charakterisierung durch Transpositionen

'   '  ' '  mit  vertauscht und die


' # bezeichnet wird.
Ein Permutation, die genau zwei Elemente
anderen fest läßt, heißt eine Transposition, die mit
Jedes  ) 
läßt sich als Komposition einer Anzahl von Transpositionen darstellen. Die Anzahl
der Transpositionen bei jeder solchen Darstellung von  ist immer gerade oder ungerade, je
nachdem, ob  gerade oder ungerade ist. Es gilt also
64 VII Determinanten

sgn( ) =   
,

wenn
die Anzahl der Transpositionen bei einer solchen Darstellung ist.

2.7 Satz: Für eine Determinantenform  gilt:

   ' '   
 
sgn  

   '
für alle  ' ' '
Diese Bedingung ist äquivalent zur schiefen Symmetrie.

VII.3 Die Frage nach Existenz und Eindeutigkeit

3.1 Satz


Eine Determinantenform ist nicht eindeutig, da mit  und wieder eine De- (  
 
terminantenform ist. Jedoch ist dies die einzige Unbestimmtheit. Es gibt bis auf ein skalares
Vielfaches genau eine Determinantenform von .
Sei  ''  eine feste Basis von und  
    

die lineare Darstellung der Vekto-



ren   ''  durch die Basis. Dann gilt: (vgl. X.4 auf Seite 109)

1. Für eine beliebige Determinantenform  ist
   '  '     sgn       8 8  && &   &  ' '   .


 

 

 


2. Die Funktion     '  8 '  '   1 sgn       
 8 8  &&     ist eine Deter-  
 
 

 und      = kanonische Basis bezeichnen wir diese De-



  

terminantenform mit  ; sie heißt kanonische Determinantenform von  . Mit dieser Be-
minantenform. Für 

zeichnung schrebt sich die 1. Formel als:    ' '    


     '  '     ' ' 


VII.4 Anwendung auf lineare Abbildungen

4.1 Satz

und seien -dimensionale Vektorräume über  . 1  eine lineare Abbildung und 


eine Determinantenform für . Dann ist

  ''         '  '    


entweder eine Determinantenform für oder die Nullabbildung.
VII.6 Berechnung der Determinante 65

4.2 Definition

1. Ist zusätzlich zu den Voraussetzungen des Satzes 4.1 auf der vorherigen Seite eine 
Determinantenform für , so gilt wegen VII.3 auf der vorherigen Seite und dem Satz 4.1
auf der vorherigen Seite
    '  '     #   ''   
für einen Skalar  .  heißt die Determinante von bezüglich  und  , kurz
Det  .  


, so wählen wir   und nennen den Skalar  in der Gleichung




    ' '          ' '    die Determinante von , kurz Det( ); sie hängt
2. Ist

nicht von der Wahl von  ab.

4.3 Satz

1. Det( ) ! ist ein Isomorphismus.


  ) = Det( )  Det( )
  ) = Det    
2. Det(
3. Ist ein Isomorphismus, dann gilt: Det(

  
VII.5 Determinante einer -Matrix
5.1 Definition

-Matrix      1 

Zu gegebener  wählen wir eine lineare Abbildung mit
 für eine Wahl einer Basis von und setzen:
 1 


Det  Det
Det( ) hängt nicht von der Wahl von und der Basis von ab.

5.2 Satz: Det   


 sgn       8 8  &&    
 
 
 
  

5.3 Satz

1. Det( ) !  invertierbar.
      Det  
    , falls 
2. Det Det
3. Det    Det  invertierbar ist.
4. Det   Det  
66 VII Determinanten

VII.6 Berechnung der Determinante

  
 sei eine   -Matrix mit Koeffizienten in  .

6.1 Verhalten der Determinante bei elementaren Umformungen



1. Bei Multiplikation einer Zeile (Typ ZI) oder Spalte (Typ SI) mit einem Skalar multipli-
ziert sich die Determinante mit .

2. Bei Addition einer mit einem Skalar multiplizierten Zeile (Typ ZII) bzw. Spalte (Typ SII)
zu einer anderen Zeile bzw. Spalte ändert sich die Determinante nicht.


3. Bei Vertauschung zweier Zeilen (Typ ZIII) oder Spalten (Typ SIII) multipliziert sich die
Determinante mit .

6.2 Stufenform

1. Sei  St eine Stufenform, in die  durch elementare Umformungen vom Typ ZII, ZIII, SII

   '
übergeführt worden sei (vgl. Gaußverfahren). Dann gilt:
Det  Det  St   
wenn -mal zwei verschiedene Zeilen und  -mal zwei


verschiedene Spalten vertauscht wurden (vgl. den 3. Punkt von 6.1).

2. Eine Stufenmatrix ist ein Spezialfall einer oberen Dreiecksmatrix, wobei die Sterne irgend-
welche Koeffizienten bezeichnen:
    

.   .
8 8. ..
. ..




.. .. ..

.

   für  .
D. h. in einer Dreiecksmatrix 
 ist per Definition 

3. Die Determinante einer oberen Dreiecksmatrix ist: Det 


<      &&  
88


 

6.3 Definition


  ' '
Für eine weitere Berechnungsmöglichkeit benötigen wir folgende Begriffe.
Sei 
 
1
Det  ,  seien die Spalten von  für  und    ' '   
 
sei die kano-
nische Basis von  . sei die kanonische Determinantenform (s. 3.1 auf Seite 64). Dann wird
VII.8 Anwendung auf lineare Gleichungssysteme 67

das algebraische Komplement  


von  
definiert durch:
    
  
   
 ..
 .

  





 
  


 

  
       
  


    
     
     



  
  
    


     





 ...          



 














   

  
 
  


   




Die Determinante der Matrix  


, die aus  dadurch entsteht, daß die -te Zeile und die  -te
Spalte weggelassen wird, heißt '   -te Streichungsdeterminante.

6.4 Hilfssatz:  
   
 



6.5 Laplace´ scher Entwicklungssatz


     
 

1. Die Entwicklung nach der -ten Zeile lautet:


 

 
     
 

2. Die Entwicklung nach der -ten Spalte lautet:


 

VII.7 Anwendung auf den Rang

7.1 Definition

-Matrix    
 Zeilen und  
 Spalten heraus, so heißt die   
Streichen wir in einer
Determinante der so entstehenden   
 -Matrix eine  -reihige Unterdeterminante von  .

7.2 Satz

Für  
 
 ist Rg( ) =  !

Es gibt eine von null verschiedene  -reihige Unterdeterminante, aber keine von null verschiedene
 -reihige Unterdeterminante mit   .
68 VII Determinanten

VII.8 Anwendung auf lineare Gleichungssysteme


Cramersche Regel

Sei   
ein lineares Gleichungssystem mit         '   und Rg( ) = . Dann
 berechnet sich nach der Formel:
   

          8  8  <&&&   
ist das Gleichungssystem eindeutig lösbar und die Lösung
 
 
 
 
          .   .  
   
 
   .


.. 
  

    
. . .
  
. . . ..
         
. .
  
  

VII.9 Orientierung
9.1 Satz


Sei eine Determinantenfunktion für einen reellen Vektorraum . Dann gibt es unabhängig von
der Wahl der Determinantenfunktion zwei nicht leere Klassen von Basen
  ' '      ''   
  ' '       ''    
 
Es gehören zwei Basen genau dann der gleichen Klasse an, wenn die Matrix der Basistransfor-
mation positive Determinante hat.

9.2 Definition

Eine Orientierung eines reellen Vektorraumes besteht darin, eine der beiden Klassen auszu-
zeichnen und Klasse der positiv orientierten Basen zu nennen.
VIII.1 Das Standard-Skalarprodukt im  69

VIII Vektorräume mit Skalarprodukt 1


Dieses Thema wird in Kapitel XII auf Seite 141 fortgesetzt.

VIII.1 Das Standard-Skalarprodukt im 


1.1 Bemerkung

In Kapitel VI haben wir Vektoren der Anschauungsebene betrachtet. Die Beziehung des Satzes

8
von Pythagoras, des Längen- und Winkelbegriffs der Elementargeometrie zum Skalarprodukt

läßt erwarten, daß umgekehrt der , mit dem Skalarprodukt
 
+' 1      8  8     8     8
 für
8 und
 8
ein geeignetes Modell für die Anschauungsebene oder für die euklidische Ebene liefert. Die
darauf begründete Geometrie wird Analytische (euklidische) Geometrie genannt im Gegensatz
zur Synthetischen (euklidischen) Geometrie, die auf Begriffen wie z. B. der Kongruenz beruht
(s. E. Kunz: Elementargeometrie, vieweg). Dies gilt entsprechend für den Anschauungsraum und
wird uns ganz allgemein zum Begriff eines -dimensionalen euklidischen Raumes führen.

1.2 Definition

Das Standard-Skalarprodukt im  ,   , ist definiert durch:

(' 1         
 f"ur   ''    ' ' '   
  

1.3 Eigenschaften

Das Standard-Skalarprodukt hat folgende Eigenschaften:

    
' ('   (' 7 D. h. bei festem 
ist es linear in der Variablen  :
1. Bilinearität der Abbildung:   ist es
linear in der Variablen und bei festem
(' $ ('  (' ' ('   +'
   

 $ ' ('   ' '


   ('  +'
  
10
A. Riede: Lineare Algebra 1, WS 99/00
70 VIII Vektorräume mit Skalarprodukt 1

2. Symmetrie: ('
 "' 
3. Positive Definitheit: (' # ('   .

und nur für

Beweis: Die Bilinearität ergibt sich wieder durch Vergleich mit einer Linearform. Die Symmetrie


ist natürlich eine Folgerung aus dem Kommutativitätsgesetz für die Multiplikation in . Die

positive Definitheit folgt daraus, daß eine Summe von Quadraten reeller Zahlen ist und
nur dann, wenn die reellen Zahlen selbst alle null sind.

1.4 Bemerkung zur Verwendung von 


Es ist hier nicht etwa die Behandlung eines vertrauten Falles, warum wir den Körper der reellen
Zahlen benutzt haben, sondern weil wir für die Formulierung der positiven Definitheit einen
angeordneten Körper brauchen.

1.5 Definitionen

Wir haben in Anschauungsebene und Anschauungsraum gesehen, daß Begriffe wie Länge und
Winkel aus dem Skalarprodukt abgeleitet werden können. Dementsprechend definieren wir im
 
:

 1  (' #
1. Die Länge oder der Betrag oder die euklidische Norm eines Vektors ist:
 

2. Der Winkel ('  zwischen zwei Vektoren  und , gemessen im Intervall  '   ,



 1  ('  
wird durch den Kosinus erklärt:





Diese Definition macht nur Sinn, wenn      
 oder äquivalent gilt:



     


('  


Diese Ungleichung heißt die Cauchy-Schwarzsche Ungleichung, die tatsächlich richtig ist,
was in Abschnitt 3.5 auf Seite 73 bewiesen wird.

3. heißt senkrecht oder orthogonal zu :  d. h.! ('
 . 
VIII.2 Das Standard-Skalarprodukt im  
  !
 
Im folgenden bezeichne der Querstrich die konjugiert komplexe Zahl. Wir beachten:
Allgemeines Skalarprodukt 71

2.1 Definition

   ''    , ' ' 


     . Dann ist das Standard-Skalarprodukt

Sei
von und erklärt durch:
 
 
(' 1            ' '    
  .
..  
 
Dabei geben die letzten beiden Ausdrücke die Matrizenform des Standard-Skalarproduktes an.

2.2 Eigenschaften

Die Abbildung
 1     mit
 ('  1 ('
  ist

1. linear in der ersten Variablen

2. additiv in der zweiten Variablen

 ('     +'  bzw. (' 


3. semi-homogen in der zweiten Variablen, d. h.
  +' 

 "'    ( '  bzw. "'  ('


4. semi-symmetrisch d. h.
 

Insbesondere gilt für 


 ('    ('   d. h.  ('    d. h. +'  
:


5. positiv definit d. h. ('   ('  und genau für  .

VIII.3 Allgemeines Skalarprodukt

3.1 Definition

 1    odermit und
Sei  ein -Vektorraum. Dann ist ein Skalarprodukt auf
den Eigenschaften 1 bis 5.

 eine Abbildung

Für  gilt:   = 
semi-homogen = homogen
semi-symmetrisch = symmetrisch
72 VIII Vektorräume mit Skalarprodukt 1

3.2 Beispiel

Seien  '   '   ' 1


) 1   '     stetig +'  .

('  1  0   0  4 0
Hierdurch ist ein Skalarprodukt auf definiert, was aus der Linearität des Integrals, der Ver-
tauschbarkeit von komplexer Konjugation und Integral und der Positivität des Integrals stetiger
Funktionen folgt. In der Analysis sind verschiedene Funktionenräume interessant, die aus

 0 0 4 0
integrierbaren Funktionen bestehen. Da eine unstetige integrierbare Funktion ungleich null sein
kann, obwohl ihr Integral verschwindet, kommt es vor, daß in diesen Räumen kein
Skalarprodukt mehr liefert, da es nicht mehr positiv definit ist. Um doch einen Vektorraum mit
Skalarprodukt zu erhalten, wird der Unterraum der Nullfunktionen betrachtet; das sind die 
Funktionen, deren Integral 0 ist. Auf dem Quotientenraum

der integrierbaren Funktionen 
modulo der Nullfunktionen besteht dann wieder ein Skalarprodukt.

3.3 Definition

  1 +' 
Auch in einem allgemeinen Vektorraum mit Skalarprodukt wird die Norm (Betrag bzw. Länge)
 
eines Vektors definiert durch:

3.4 Eigenschaften

  und ('  gilt:

1. 
 
und genau, wenn 
2. (        


3.   
      

4. Satz der Pythagoras:   


  8    8   
8
Beweis:

1. Positive Definitheit von ' .

2. Leicht nachzurechnen

  8   "' 
+'   ('  '   '
3.

+'   ('  ('   '


 

+'    Re ('  '     Re  


  
  , da
Allgemeines Skalarprodukt 73


(' #      ('   "' , da Re      

 ( ' #            ' wegen 3.5


 


  8  8      8   8

   

   
 
4. 
 
8  '  +'   ( '   ' #  '
     

 8   8
 

3.5 Satz: Cauchy-Schwarzsche Ungleichung



('  

  

! ('  linear abhängig



= 

Beweis:
a) Für - '  folgt: 

( "' (   (' #    +'    "'     '



 

Für und  1 ' folgt nach Division durch  : 

 ('    +'   '     für





Setzen wir  1  +' : 

 + '     '   (' ('  (' ('  (' ('

      

  8  8     (' 8



('


 . Dies gilt auch für , da beide Seiten dann gleich .
b) Ist ('  linear unabhängig, dann ist 
 '  und es gilt in der ersten Unglei- 

kann also höchstens bei linear abhängigen ('  auftreten.


chung von a) das -Zeichen, also auch in der Cauchy-Schwarzschen Ungleichung. Gleichheit


c) Sei umgekehrt ('  linear abhängig. Dann ist etwa  ein Vielfaches von , 
  und
('    '    '      '       8 .
es gilt für die linke Seite der Ungleichung:

   

   5
   :       :      8
Für die rechte kommt das gleiche heraus:
 

Bei linear abhängigen ('  gilt daher das Gleichheitszeichen. 

3.6 Definition


Ein euklidischer Vektorraum ist ein -Vektorraum mit Skalarprodukt und ein -Vektorraum mit 
Skalarprodukt heißt ein unitärer Vektorraum.
74 VIII Vektorräume mit Skalarprodukt 1

Im folgenden sei stets ein Vektorraum mit Skalarprodukt.

3.7 Definition

  ' '      
Ist   
1    ' 

eine Basis des Vektorraumes
 '

mit Skalarprodukt , so heißt die -Matrix

' '
mit den Koeffizienten die Matrix des Skalarproduktes bezüglich
 .

VIII.4 Orthonormalbasen

4.1 Definition

 ' '   


Es gibt in einem Vektorraum mit Skalarprodukt sogenannte Orthonormalbasen, das sind Basen
 von mit:

'


'

d. h.   
für   und

  für '   ' '
normalbasis die  
Äquivalent mit dieser Bedingung ist, daß die Matrix des Skalarproduktes bezüglich einer Ortho-
-Einheitsmatrix ist, und damit wieder äquivalent ist, daß das Skalarpro-
dukt die folgende Form hat:

           
    
 
('

  für und

Koordinaten bezüglich einer orthonormierten Basis heißen kartesische Koordinaten.

4.2 Bemerkung

 ' '   orthonormiert   ' '   linear unabhängig


 

Beweis:

    

"' 
'   ' '



=

     ' 





      ' 






=
VIII.4 Orthonormalbasen 75

4.3 Orthonormalisierungsverfahren von E. Schmidt

 ' ' 


' '
Das im folgenden beschriebene Verfahren formt jede beliebige Basis von in eine
orthonormierte Basis  von um, so daß folgende lineare Hüllen übereinstimmen:

  ''     ''    für  ' '


   
1. Schritt: 1   Dann ist   und     
  .

2. Schritt: 8 1

8    für ein  Dann ist   ' 8    ' 8  . 


3. Schritt: Wir suchen  so zu bestimmen, daß    8 wird; dazu muß gelten:

 ' 8  ' 8    '   ' 8  


Es folgt:    ' 8 .


4. Schritt:  8 1  8  Dann ist    8 , 
 ,     und   '    '  
8 8 8

 

So wird induktiv fortgefahren.


Induktionsannahme: Seien   ''  gefunden mit   ' 

für  ' '   ' '

  ' '    für  '   '

und   '  '  




Induktionsschluß: Der Schritt von


auf
 :

1. Schritt:
%1 -        '  . Dann ist:
   
 


  ' '     ' '  '     



 

2. Schritt: Wir suchen   für


 '  '
so zu bestimmen, daß 
  wird für alle
  ' '
; dazu muß gelten:

 


' % 
'  3 

' 

' %  


     

Es folgt: 
 
'  .  

3. Schritt:  1 

 
 

 

    '  '
  und
Dann ist    
für  und i,j=1,. . . ,k+1 ,   für
  ' '     '    .
   
76 VIII Vektorräume mit Skalarprodukt 1

4.4 Folgerungen

Für endlich erzeugten Vektorraum gilt:

1. Es gibt eine Orthonormalbasis.

 ''  Vektoren eines -dimensionalen Vektorraumes mit Skalarprodukt, so daß


  ' 

für '   ' '
gilt. Dann lassen sie sich zu einer orthonormierten
2. Sind 


Basis ergänzen.

Beweis:

1. endlich erzeugt
 Basis; orthonormalisiere diese.

  ' '  
  zu einer Basis, orthonormalisiere diese. Die Orthonormalisierung

2. Ergänze
nach Schmidt läßt die ersten schon orthonormalen Vektoren ungeändert.

VIII.5 Die orthogonale und unitäre Gruppe

5.1 Satz

Für ein kartesisches Koordinatensystem


auf gilt:

('

 '
 ('
Dabei bezeichnet ' wieder das Standard-Skalarprodukt auf  .
Beweis:

      '
 

  ' '    von

Das kartesische Koordinatensystem gehöre zur orthonormierten Basis und es
sei

 
  .
   

('  =
    '
   
  

=
 
      ' 

 
  
 '

=
 
Die Koordinatenzuordnung ist also eine lineare Abbildung, bei der das Skalarprodukt zweier
Vektoren gleich dem Skalarprodukt der Bildvektoren ist, kurz die das Skalarprodukt erhält. Sol-
che Abbildungen heißen Isometrien, genauer wird definiert:
Die orthogonale und unitäre Gruppe 77

5.2 Definition

Sei 1  linear und seien und  -Vektorräume mit Skalarprodukt. Dann heißt f eine

  '  (' ('


Isometrie, falls gilt:
 
Im Falle   heißt auch eine orthogonale im Falle   eine unitäre Abbildung von
nach .

5.3 Beispiele

1.
1    aus 5.1 auf der vorherigen Seite.

2. Id , -Id = Spiegelung am Nullpunkt


 

$1   1 #
 1  
3. Sind und Isometrien zwischen Vektorräumen mit Skalarprodukt
über  , dann ist auch eine Isometrie.

4. Ist 1  eine bijektive Isometrie, dann ist auch 1  eine Isometrie.

5. Die Drehung  1  8   8 um den Winkel :


   
   
     
 
    
8 8
Der Name kommt daher, daß ('    ist für alle   8 .
Z. B. die Drehung um

wird beschrieben durch:    8 '  8   .


6. Sei  eine Gerade eines dreidimensionalen euklidischen Vektorraumes durch ,

bei der die ersten beiden Vektoren auf  orthogonal sind und der dritte in  liegt. Dann
d. h. ein eindimensionaler Untervektorraum von . Wir wählen eine Orthonormalbasis,

heißt die lineare Abbildung, die in zugehörigen kartesischen Koordinaten durch


   
    

  
  8     
    8
   
beschrieben wird, eine Drehung von mit der Drehachse  .

5.4 Lemma

Sei 1  linear und -dimensional. Dann gilt:


Isometrie !   ''     orthonormal, falls   ' '    orthonormal.
Beweis:
78 VIII Vektorräume mit Skalarprodukt 1


 “: klar

„ “: Seien           ' 
  

.
('  =           ' 
  


     


=
    '
   
  

 
      ' 

=  
    


 
   

=

  

=
 
     ' 

   

=
    '
   
= (' 

5.5 Frage

Wie kann der Matrix  



 eines Endomorphismus von bezüglich einer orthonormierten
Basis angesehen werden, ob eine Isometrie ist?

5.6 Antwort und Definition

ist genau dann eine Isometrie, wenn seine Matrix  


 ' '   
bezüglich einer orthonormierten



Basis eine der folgenden untereinander äquivalenten Bedingungen erfüllt:

1. Die Spalten   von  sind bezüglich des Standard-Skalarproduktes von  orthonormiert,


 '


'   ''

  


d. h.

2. Die (transponierten) Zeilen   von 


 orthonormiert, d. h.  '  
'   ''

sind bezüglich des Standard-Skalarproduktes von



3.   

 d. h.  ist invertierbar (d. h. invertierbar) und   
Eine Matrix, die diese Bedingungen erfüllt, heißt für   eine orthogonale im Falle  
eine unitäre Matrix.
Die orthogonale und unitäre Gruppe 79

ist also genau dann eine Isometrie, wenn seine Matrix bezüglich einer orthonormierten Basis
im reellen Falle eine orthogonale bzw. im komplexen Falle eine unitäre Matrix ist.

     ' 

  =  

wegen des Lemmas


Beweis:
! 

!
   '

 = 
wegen 5.1 auf Seite 76
a) Isometrie 

! ' =

, weil die Koordinaten des
Bildes des -ten Basisvektors die -te Spalte der Abbildungsmatrix bilden. Damit ist gezeigt, daß
Isometrie mit der ersten Bedingung äquivalent ist.
b) '

!    

!
 
Matrizenform von ' (s. 2.1 auf


Seite 71)
   !     !   

  !  
Also ist die erste mit der dritten Bedingung äquivalent.
c)  
 !    

!   ' 


 

Damit ist die Äquivalenz der zweiten und dritten Bedingung erwiesen.

5.7 Satz und Definition

Sei . Unter einer Isometrie von verstehen wir eine Isometrie von nach . Die
Isometrien von bilden bezüglich der Hintereinanderausführung als Verknüpfung eine Gruppe.

Sie heißt die Isometriegruppe von . Im Falle  
wird sie auch Orthogonale Gruppe von
genannt und mit   bezeichnet; im Falle  wird 
sie auch Unitäre Gruppe von genannt
und mit


bezeichnet.
Beweis:
+'  Isometrien von
   Isometrie von (s. 5.3 auf Seite 77, 3. Beispiel)
Id ist eine Isometrie, also gibt es ein neutrales Element.



Wegen 5.6 auf der vorherigen Seite ist jede Isometrie von auch ein Isomorphismus.
Nach 5.3 auf Seite 77, 4. Beispiel ist die Umkehrabbildung ebenfalls eine Isometrie. Es gibt
also zu jedem Element ein Inverses.

5.8 Satz und Definition


$  ' '     
 
Sei  eine orthonormierte Basis. Dann bildet die Zuordnung

(= 

Matrix von bezüglich ) die Menge der Isometrien von bijektiv auf die Menge der ortho-
gonalen bzw. unitären Matrizen ab, wobei der Hintereinanderausführung das Matrizenprodukt
  '  
entspricht. Daher bilden die orthogonalen Matrizen mit der Matrizenmultiplikation ein Gruppe,
die Orthogonale Gruppe zur Dimension .   

ist ein von abhängiger
Gruppen-Isomorphismus. Entsprechend bilden im komplexen Falle die unitären Matrizen eine



80 VIII Vektorräume mit Skalarprodukt 1

zu   
isomorphe Gruppe, die Unitäre Gruppe zur Dimension . Da wir für  be- 
  
züglich des Standard-Skalarprodukt eine kanonische orthonormierte Basis haben, gibt es einen
kanonischen (einen vor allen anderen ausgezeichneten) Isomorphismus  
               
bzw.
. Daher wird auch  bzw. Orthogonale bzw. Unitäre Gruppe zur
Dimension genannt und ebenfalls mit  bzw. 
bezeichnet.

5.9 Satz und Definition

   1 
   Det    
   1    Det   
ist eine Gruppe, die Spezielle Orthogonale Gruppe.
ist eine Gruppe, die Spezielle Unitäre Gruppe.
IX.2 Bestimmung von Eigenwerten und Eigenvektoren 81

IX Eigenvektoren und Eigenwerte


In diesem Kapitel wird ein Körper mit unendlich vielen Elementen wie etwa , zugrundege-  
legt, da für endliche Körper ein anderer Begriff eines Polynoms verwendet werden muß. (S. den
Anfang von Kapitel! X auf Seite 106!)

IX.1 Diagonalisierbarkeit
1.1 Problem

1  eines -dimensionalen Vektorraumes


  ' '   von , so daß  besonders einfache Gestalt
Gegeben sei eine lineare Selbstabbildung
über dem Körper  . Gibt es eine Basis  

annimmt? Z. B. Diagonalgestalt?

   . 

 . . 8 ..
. ..


 . .. ..


. .

Wenn es eine solche Basis gibt, so sagen wir, daß diagonalisierbar ist. Dies bedeutet, daß jeder
Basisvektor in ein Vielfaches von sich selber übergeht:   

1.2 Definition

Ein 
heißt Eigenvektor zum Eigenwert  1 !   und  . Wir kürzen
Eigenvektor mit EV und Eigenwert mit EW ab.
 heißt ein Eigenwert von 1! Es existiert ein Eigenvektor zum Eigenwert .
Indem wir eine   -Matrix 
in Beziehung zur linearen Abbildung   sehen, 1   
deren Abbildungsmatrix bezüglich der kanonischen Basis  ist, sprechen wir auch von EV und
EW einer Matrix  .

1.3 Notwendige und hinreichende Bedingung für Diagonalisierbarkeit

diagonalisierbar ! Es gibt eine Basis aus Eigenvektoren.

IX.2 Bestimmung von Eigenwerten und Eigenvektoren


 '  '  !   !    !
 Id   !   
Sei  . ist EV zum EW
Kern Id
82 IX Eigenvektoren und Eigenwerte

Es gibt zu  !   ! 
! 
 einen Eigenvektor Kern( Id) Id ist kein
Isomorphismus Det( Id) = 0. Wir erhalten folgenden Satz:

2.1 Satz: Sei  ' '  .

1. ist EW von ! Det(  Id) = 0.

2.  ist ein EV von zum Eigenwert . !  und  Kern(  Id).


   ' '    eine Basis von    
  ' '  
3. Sei im folgenden und  bezüglich



. Dann folgt:
Det(  Id) = Det( 
 )=
   *  .  8 .  .  
  8  . . . . ..  =  sgn        =
 ... . . . . . .        

 

          
 

           



       <&&&    1

 1 
 Det( ) = Det( ). (" setzen)
 

4.

2.2 Definition
  

 

 heißt das charakteristische Polynom von , 

die charakteristische Glei-


chung von .

2.3 Feststellungen


1. Die Eigenwerte von sind die Nullstellen des charakteristischen Polynoms von . Zur
Bestimmung der Eigenwerte müsssen also die Nullstellen des charakteristischen Polynoms
berechnet werden.

2. Ist ein EW gefunden, so sind die Koordinaten der EV zum EW


Lösungen des homogenen linearen Gleichungssystems  Id  
die nicht trivialen
.

2.4 Beispiele

um
 hat für  8  d. h. für  '  '

1. Die Drehung des und Id und


Id, keine Eigenvektoren. Der einzige EW von Id ist 1 und alle Vektoren sind
Eigenvektoren zum EW 1. Der einzige EW von -Id ist -1 und alle Vektoren sind EV
zum EW -1.
IX.3 Hauptachsen selbstadjungierter Abbildungen 83

   

2. 1  8   8 sei definiert durch
  1   
      8   8
     8 . Daher ist " der einzige Eigenwert. Für "  folgt  
   
8  . Um die Eigenvektoren zum EW 1 zu bekommen ist also die lineare
Gleichung 8 zu lösen. Die Vektoren 
   mit   sind die Eigenvektoren

zum EW . Es gibt keine Basis aus Eigenvektoren! ist nicht diagonalisierbar!
3. Sei 1
 1    beliebig oft differenzierbar  . 4 1  sei die Ableitung. Für
 
 0  1  '  fest, 0  folgt:



4  0  0    0  ' d. h. 4 
     

Die Funktion  ist also ein Eigenvektor von 4 zum Eigenwert , 


 
 
wird auch Eigen-
funktion genannt.

  
Dieses Beispiel ist der Schlüssel zur Anwendung der Eigenwerttheorie in der Analysis.


   
4. Die Matrix   hat die Eigenwerte -1 und 1.    8 '  '   ist
   '  '  und  '  '   sind linear unabhängige
ein Eigenvektor zum EW  .  8
 

Eigenvektoren zum Eigenwert 1.   '  8 '   ist eine Basis aus Eigenvektoren. Als Diago-


nalisierung erhalten wir die Matrix:


 

IX.3 Hauptachsen selbstadjungierter Abbildungen
3.1 Bemerkungen

'   '  :'


    ' '   
Wir betrachten einen -dimensionalen Vektorraum mit Skalarprodukt über  ; sei
 Id  oder (kK= komplexe Konjugation).  sei eine beliebige
orthonormierte Basis. Zu einer orthonormierten Basis gehörige Koordinaten werden kartesische
Koordinaten genannt.

1. Das Skalarprodukt lautet in einem beliebigen kartesischen Koordinatensystem wie folgt


und kann als Matrizenprodukt geschrieben werden:

('            ' '       ' '   




für         '  
     
84 IX Eigenvektoren und Eigenwerte

 


2. Bei orthonormierter Basis erhalten wir die -te Koordinate
larprodukt mit dem -ten Basisvektor:
   
(' 

eines Vektors als das Ska-

Beweis:

1. Dies folgt unmitelbar aus der Orthonormiertheit der Basis und der Definition des Matri-
zenproduktes.

2. (' 

       ' 

       '  

 
 

3.2 Definition und Satz

Eine lineare Abbildung 1  heißt semi-symmetrisch oder selbstadjungiert : !


Eine der folgenden untereinander äquivalenten Bedingungen ist erfüllt:

  ' ( '  für alle (' .


 

  ' 
 ' 
 für alle  '
 ' '
1.

2.  

3. Die Matrix 
 
 ist semi-symmetrisch d. h. per Definition   


für alle  '


'' .
 oder  

Die Bezeichnung semi-symmetrisch ist klar, woher die Bezeichnung selbstadjungiert kommt,
wird sich in dem Abschnitt 4.1 auf Seite 87 ergeben.
Beweis:
1.
 2.: Klar
2.
 1.: Indem beliebige Vektoren durch die Basis dargestellt werden und die Linearität des
Skalarproduktes in der ersten Variablen und die Semilinearität in der zweiten ausgenutzt wird,
ergibt sich die erste Bedingung aus der zweiten.
!   
  



   
2 3.: Es gilt nach Definition der Abbildungsmatrix   .  ist also die

-te Koordinate von  , die wir auch durch Bilden des Skalarproduktes mit mit erhalten
können, also folgt:


!
   '

 
' !   '
 ' 

 

3.3 Definition

1  . Sei    und     ' '   


1     
 
    
Sei linear und selbstadjungiert und  

' '
orthonormiert.  sei diejenige lineare Abbildung, die bezüglich der kanonischen
Basis von 
die gleiche Matrix  hat wie bezüglich  . Wir nennen  eine komplexe
IX.3 Hauptachsen selbstadjungierter Abbildungen 85


Erweiterung von . In Abschnitt XII.3 auf Seite 145 werden wir die komplexe Erweiterung
systematisch behandeln.

3.4 Satz

Wir betrachten  als unitären Raum bezüglich des Standardskalarproduktes. Dann gilt:

1. selbstadjungiert

 ist ebenfalls selbstadjungiert.

2. Für   sind die Eigenwerte einer selbstadjungierten Abbildung alle reell.

3. Damit hat auch für   ein selbstadjungierte Abbildung (reelle) Eigenwerte.

Beweis:

1. Die erste Behauptung folgt einfach daraus, daß und  die gleiche Matrix haben be-
züglich orthonormierter Basen und eine reell semi-symmetrische Matrix auch komplex
semi-symmetrisch ist.

2. Sei ein Eigenwert und  ein zugehöriger Eigenvektor. Dann folgt:


 ' ('   wegen der Selbstadjungiertheit
(' # (' # 
(' # (' # 1 (' 


3. Da und  die gleiche Matrix haben bezüglich orthonormierter Basen, haben sie das


gleiche charakteristische Polynom. Da das charakteristische Polynom von  vollständig
in Linearfaktoren zerfällt mit lauter reellen Nullstellen, gilt dies auch für .

3.5 Satz und Definition


Eine selbstadjungierte Selbstabbildung von hat bezüglich einer geeigneten orthonormierten




Basis Diagonalgestalt, d. h. sie ist eine Streckung in zueinander senkrechten Richtungen mit


den Streckungsfaktoren , wobei die Eigenwerte von sind. Die von diesen Basisvektoren


aufgespannten eindimensionalen Untervektorräume heißen Hauptachsen von . Die Transfor-


mation auf eine solche Basis heißt Hauptachsentransformation. Wenn keine verschiedene
Eigenwerte hat, sind die Hauptachsen nicht eindeutig bestimmt; z. B. für Id . 

 : Klar
Beweis: Induktion nach :

Für
 sei  ein Eigenwert und  ein Eigenvektor dazu.
86 IX Eigenvektoren und Eigenwerte

Beachte: Auch jedes von null verschiedene Vielfache eines Eigenvektors  ist ein Eigenvektor

mit dem gleichen Eigenwert.

%1     ist ebenfalls Eigenvektor zum Eigenwert  .


Sei  '  ''   eine Ergänzung von    zu einer orthonormierten Basis von . Dann gilt:
8     

 

       ...  

 
   

Die Nullen in der ersten Spalte kommen daher, daß   Eigenvektor ist, die Nullen in der ersten
Zeile müssen dann wegen der Semisymmetrie der Matrix stehen.
Wegen letzterem folgt für 1   8 '  '    
  für   '  ' d. h.
  . Wir können einschränken auf und erhalten eine lineare Abbildung
 1  ,    1   
eingeschränkt und ist eine selbstadjungierte Abbildung.
ist wieder ein Vektorraum mit Skalarprodukt, das Skalarprodukt von wird einfach auf


  gibt es nach Induktionsannahme


Vektoren von
 eine orthonormierte Basis  8 '  '  
von , bezüglich der die Matrix von  Diagonalgestalt hat:
Da Dim


  8 ... 


Dann hat Diagonalgestalt bezüglich   '  8 ''    :

 
 


8 ...

IX.4 Normale Endomorphismen

Es sei   . Wir gehen folgenden Fragen nach.


1. Gilt im letzten Satz auch die Umkehrung?
diagonalisierbar bezüglich orthonormierter Basis
 

selbstadjungiert
2. Woher kommt die Bezeichnung selbstadjungiert?
IX.4 Normale Endomorphismen 87

4.1 Definition und Satz

    ' '    eine orthonormierte Basis, 1 


1  , für die die folgenden unterein-
Sei ein Vektorraum mit Skalarprodukt und
linear. Dann gibt es genau eine lineare Abbildung
ander äquivalenten Bedingungen gelten:
(' 
  ' ('



 '   '
 '  '
a)  

b) 
'   
 

c)   bezüglich   ' '   




heißt die zu adjungierte Abbildung.




ist selbstadjungiert. ! 

Beweis:
a) ! b) wegen der Linearität von (' in 
 und der Semilinearität in .
Sei  
  und  
  .  
 
 



 '   '
 ' '
b) bedeutet so viel wie
b’)   ' 


  d. h.
 


 

Dies ist Bedingung c). Also ist b) äquivalent mit c).


Wegen c) ist die Abbildungsmatrix von 
eindeutig festgelegt, also auch 
, wenn es überhaupt
existiert.
Sei 
die lineare Abbildung mit der Matrix wie in c) verlangt. Dann gilt natürlich c). Also
existiert auch eine lineare Abbildung mit Eigenschaft c).

4.2 Definition

1  heißt normal : !  

4.2.1 Feststellung: Eine selbstadjungierte Abbildung ist normal.

4.3 Hauptachsentransformation normaler Abbildungen für  


Sei 1  eine lineare Selbstabbildung eines unitären Raumes. Dann gilt:
1 ! ist normal.
ist bezüglich einer orthonormierten Basis diagonalisierbar
Beweis:
„ “: Sei  ein Eigenwert und   ein normierter Eigenvektor zu  . Ergänze    zu einer ortho-
normierten Basis   ''   . Diesbezüglich hat eine Matrix folgender Form:

88 IX Eigenvektoren und Eigenwerte

 
   8   

 ..




 
! 
      
      8       8      
 . 8  . 8
 ..  ..  ...  ..
   
.

    -  8   8 < &&&       


 8  8    8 8 <&&     8
     

 
8 
&&    
  
 .
 ..



Jetzt schließen wir induktiv weiter wie beim Diagonalisierungssatz selbstadjungierter Abbildun-
gen.


„ “: Sei diagonalisierbar bezüglich einer orthonormierten Basis. Bezüglich dieser hat dann

   
wegen Bedingung c) auch Diagonalgestalt mit den konjugiert komplexen Zahlen in der
Haupt-

also auch

 
diagonalen. Dann zeigt einfaches Nachrechnen, daß    

gilt, das heißt, daß normal ist.

IX.5 Jordansche Normalform

5.1 Einführung


Sei ein -dimensionaler Vektorraum über einem Körper  . Mit End
 -Vektorraum der Endomorphismen von . Sei  End , Id
bezeichnen wir den
Id . Wie wir gesehen haben,  1 

hat die lineare Abildung

    
)1  8   8 mit  8  1   
8 


bezüglich keiner Basis Diagonalform, weil keine Basis aus Eigenvektoren existiert. In solchen
Fällen hat dann eine andere auch noch relativ einfache Normalform, die sogenannnte Jordan-
sche Normalform (Camille Jordan, 1838-1922). Sie besteht aus sogenannten Jordankästchen,
IX.5 Jordansche Normalform 89

d. h.     -Matrizen der folgenden Form:



  

  ..
.

.
.. ..

.

Dabei sind die auftretenden genau die Eigenwerte von . Eine gleichwertige Behandlung der

Jordanschen Normalform versteht unter Jordankästchen Matrizen der Form:

 .. ..



.
..
.


.

Eine Jordansche Normalform existiert unter folgender

5.1.1 Voraussetzung Das charakteristische Polynom „zerfällt in Linearfaktoren“


d. h.  
    &&   ' 



ist für
 und -<&&  .  ' '  sind also die paarweise verschie-


denen Nullstellen von  bzw. die Eigenwerte von . Diese Bezeichnung wird im folgenden
wobei   

beibehalten. Wir nehmen ab jetzt an, daß diese Voraussetzung an erfüllt ist. Wegen des Funda-


mentalsatzes der Algebra ist für   die Voraussetzung immer erfüllt.

5.2 Normalformen für End  


  , wobei  ' 
Hier ist die „Liste“ aller Jordan-Normalformen für 

und für 8 und

   
ganz durchlaufen, wobei außerhalb der Jordankästchen Nullen stehen.
  

  1      

Ein EW:
 

 

Zwei EW: ' 8  1      8
8 8


Drei EW: ' 8'   1 
8   ' 8 '  paarweise verschieden
90 IX Eigenvektoren und Eigenwerte

5.3 Verallgemeinerte Eigenräume


5.3.1 Definition

1.   1 Kern  Id heißt Eigenvektorraum zum Eigenwert . besteht aus


1 
  

 1   1 Kern  Id  heißt verallgemeinerter Eigenvektorraum zum Ei-


allen Eigenvektoren zum Eigenwert und dem Nullvektor. 


2.  

genwert  .

5.3.2 Satz
  & &  
1.
2.
   
 '  ' 

 

3. Dim 
  

Beweis mit Hilfe der Teilbarkeitslehre von Polynomen (s. XVI. 3.6 auf Seite 191).

5.3.3 Folgerungen
 eingeschränkte Abbildung 1
 
1  '  1  + 
1. Wegen der 2. Behauptung von 5.3.2 gibt es die auf

      .
  

   ' '    von  


2. Wir wählen Basen:


 8  ' '  8  von 8





..

   ' '    von  


.

Dann ist   ''   1    ' '   '  8  ' '  8 '    ' '    eine Basis von



und hat diesbezüglich eine Matrix der Form:






 
  












 ..
.
  

      8  8      -Matrix.
 

ist eine  -Matrix,  eine  -Matrix usw.
eine 

     

Hierbei stehen oberhalb und unterhalb der Kästchen Nullen wegen 
 
IX.5 Jordansche Normalform 91

5.4 Normalform auf


 

Im folgenden werden wir zeigen, daß  



bezüglich geeigneter Basis aus Jordankästchen um
die Hauptdiagonale herum besteht.


1!
5.4.1 Definition Sei ein Untervektorraum von
 
. Dann heißt ein Untervektorraum von
ein algebraisches Komplement von in  .

' '   ' ' '  ' '  


5.4.2 Bemerkung Es existiert stets ein algebraisches Komplement, es ist nicht eindeutig;
   
1   ' '
denn sei eine Basis von und  eine Ergänzung zu einer
Basis von . Dann ist   ein algebraisches Komplement von in .

      . Also ist   .
Beweis:

       
   


 
 ; denn für    folgt:
        wegen  
         wegen 


                
 
 '  ' , da   eine Basis ist. Es folgt  .


5.4.3 Bezeichnungen und Definitionen Es sei



 ' '   fest.

Abkürzung: Id  1
 1 Kern    ' Id ' , ' 1 ' . Dann  Id ' 1 , 1 ' 1 , und definieren:
Wir setzen zur


    

gelten folgende Hilfssätze:




      &&        &&   8  


5.4.4 Hilfssatz (a)
 

Beweis:

1. Kern   Kern  Id    
2. Kern   Kern Id 
  .
   sind diejenigen, 
die bei    nach 0 abgebildet werden, sie werden
3. Die Vektoren von
erst recht bei


      nach 0 abgebildet, liegen also auch in  . Also gilt:   
.  
92 IX Eigenvektoren und Eigenwerte

5.4.5 Hilfssatz (b)      

 in die 0,
Beweis: Sei     , dann  


    
  dann bereits bei          in die null d. h.     .
ist für ein . Jedes geht bei  



5.4.6 Hilfssatz (c) Sei im folgenden  ein algebraisches Komplement von   in  , so


daß also gilt     . Es folgt: 

 3   ist isomorph für +  d. h.   .





 

Beweis: Surjektivität klar


Injektivität: Sei     Kern    
   

 


 


  wegen     

Kern  3     Injektivität 

5.4.7 Hilfssatz (d)      8  


    8 , dann:


Beweis: Sei  

  für ein  


  d. h.      d. h.   .


   8 bedeutet:

    8  

 



   
 

  

5.4.8 Hilfssatz (e) Ist  ' '  eine Basis von  , dann ist    ' '    linear

unabhängig und kann zu einer Basis eines algebraischen Komplementes   von  8 in  
   


 

 
ergänzt werden.
Beweis:
  ''   eine Basis von  
 

   ' '     Basis von    wegen (c) (5.4.6)


  

Sei  ' '  eine Basis von  .


      8    

  8  8 wegen (d) ( 5.4.7)


   ' '    '  ''  Basis von      8
 

  
   

   ' '    '  '' '  ''   sei eine Ergänzung zu einer Basis von   .


   
   

     ' '    '  ''   ist ein algebraisches Komplement   von  8 in  




 

  ' '   '  ' '  als Basis.


     mit
 
 

5.4.9 Überblick und Zusammenfassung

 ein algebraisches Komplement von   in  , '  ' '   . Also


Es bezeichnet
gilt:   

 
IX.5 Jordansche Normalform 93

 
  8
=
=
..
  && 
.
=  
 


Wenn wir also sukzessive Basen von &'  ''   bestimmen, ergeben alle zusam-
 1  ' '  eines .
men eine Basis von .



Starte mit einer Basis

 %1    ' '   1  '   '  ''  ' von einem
Das Bildsystem 
 
  ist linear unabhängig und kann zu einer Basis


 ergänzt werden.

Die Bilder bei  der Vektoren von  sind wieder linear unabhängig und können zu einer

Basis 8 von 8 ergänzt werden.
etc.

Wir geben zur Erläuterung der Schrittes von auf 


 ein Diagramm an.
   
 
      
 


    8
  
 

Ergänzug von   
 
Basis von
  
Basis von

eines  
zu Basis


 .
 . aller Basen  &'   ' '    zusammen genommen ergeben eine Basis von
Als letztes erhalten wir eine Basis eines

Die Vektoren

5.4.10 Zusammenhang mit Jordankästchen  aufeinanderfolgende Basisvektoren


 ' 8 ' ' 
    liefern genau dann ein
  -Jordankästchen 

  

 '
..
 .


.. ..

. .

wenn      für  ''    und   


    gilt.
94 IX Eigenvektoren und Eigenwerte

5.4.11 Konstruktion der Jordanbasis im Detail

 
  .  8 8      
 Basis von
 ..  Basis von
..

    :   
..
       8       8    8 
. Basis von
 

Eine Jordanbasis finden wir nun dadurch, daß wir die Vektoren dieser Tabelle in einer geeigneten

 '8'
Reihenfolge nehmen, nämlich so, daß wir sie den Spalten nach anordnen. Die Vektoren in der
neuen Reihenfolge bezeichnen wir mit usw.:
 
  8 
 Basis von
  
   

      8 

  
 ..
 
 Basis von 
 8.  8  
   

 


. .


..
      :  
        8        8   
     8   
. Basis von
 
 8     


             


          
 
Dann gilt:      8 '   8   ' '       '   
  '  8 '  '   liefert also ein Jordankästchen  , usw. Insgesamt erhalten wir
 ist. Weiter sehen wir, daß es  Dim    Dim 
 -
Jordankästchen, wobei
 

     
 -Jordankästchen gibt. Allgemein gilt:
Dim

Die Anzahl der        -Jordankästchen =


Dim
  Dim
  .
 

 

Wegen      erhalten wir die Matrix von aus der von  , indem wir die Nullen in


der Hauptdiagonalen durch ersetzen.


Wir fassen zusammen:
IX.5 Jordansche Normalform 95

 , d. h. eine Basis von



 , bezüglich der 

5.4.12 Satz und Definition Das obige konstruktive Verfahren liefert eine Jordan-Basis von
die folgende Jordangestalt hat: 

 






 ..
 .







 
..
  .


..
.





 


 ..
.
  


Außerhalb der Jordankästchen stehen Nullen.



 taucht dabei
-mal auf mit:



Dim
  Dim
  


Eine aus Jordanbasen der  zusammengesetzte Basis von heißt eine Jordanbasis von und

die aus den zusammengesetzte Matrix ein Jordan-Normalform von .
96 IX Eigenvektoren und Eigenwerte

5.4.13 Beispiel       



  
1    
 1          Standard-Basis

 





1. Die Berechnung des charakteristischen Polynoms liefert:   
          :       : %


2. Berechnung einer Basis von




       8 : %

 8  
       
Id




Dabei wurden folgende Zeilenumformungen durchgeführt:

   *  '      8 '    


      
Basis von :   ' ' ' '  '  ' ' ' '  ' ' '  ' '  

 

3. Berechnung von ' &'  ' 8 : 


  8    8   Kern   Id 8  
Id Id  8 
4. Basis von  :
 

 '   8  ergänzt


 die gefundene Basis von zu einer Basis von  .

   '; 8  1 
  '   ist eine Basis von  1   '  
   
8 8
      ' ' '  '  '    8   '  '  '  '  ' '  '   ' '    

5. Basis von :

     

6.   ' '   ist eine Jordan-Basis.


7. Jordansche Normalform und Matrix  der Basistransformation von    auf 
 :

     

 
  
    
     
 
IX.6 Anwendung auf Differentialgleichungen 97

IX.6 Anwendung auf Differentialgleichungen


Die mathematische Modellierung von mathematischen und außermathematischen Problemen
läuft häufig darauf hinaus, ein System von Differentialgleichungen aufzustellen, dieses zu lö-
sen und die mathematische Lösung mit der Wirklichkeit zu vergleichen. Es sei  oder 
 .

6.1 Definition eines Systems von Differentialgleichungen 1. Ordnung

2 .  
Ein System formaler Gleichungen
   -  8 8  & &    
2 ..    -  8   
8  & &   
(6)

 
5   ' '  
   
heißt ein System von linearen Differentialgleichungen 1. Ordnung mit konstanten Koeffizienten.
Die Koeffizienten

 bilden die sogenannte Koeffizientenmatrix 
inhomogenen Bestandteile  bilden die inhomogene Spalte 
  und die



.
Ein -tupel 0   0  ' '  0   von differenzierbaren Funktionen  1  heißt eine
  2 
0 und 0 für die Unbestimmten


 

und
2
Lösung von ( 6), wenn nach Einsetzen der Funktionen
gültige Gleichungen von Funktionen entstehen.
Matrixschreibweise für ( 6):
2 <   ' 12 2 ' ' 2 



5

  

(7)
Das System heißt homogen 1 !
2 < heißt das zu. (6) bzw. (7) gehörige homogene System.


 

(8)

6.2 Struktur der Lösungsmenge

'  
1. Der Lösungsraum Łhom eines homogenen Systems ( 8) ist ein Untervektorraum des Vek-
torraumes   der -tupel von stetigen Funktionen von  nach  .
0  eine spezielle
0  Łhom 1  0   0  0  hom 



2. Ist Lösung des inhomogenen Systems ( 6), dann gilt:


Łinhom  





 

Hierbei darf der inhomogene Bestandteil sogar aus beliebigen stetigen Funktionen
  0  bestehen.
Vom theoretischen Standpunkt aus, wird mit spezieller Lösung irgendeine Lösung bezeichnet.
Vom praktischen Standpunkt aus wird versucht, eine Lösung als eine möglichst einfache Funk-
tion, etwa eine konstante Funktion, zu bestimmen; insofern haftet ihr dann etwas spezielles,
nämlich möglichst einfaches, an.
98 IX Eigenvektoren und Eigenwerte

Im Gegensatz dazu wird unter der allgemeinen Lösung nicht eine einzige Lösung verstanden,
sondern eine Formel, die genau alle Lösungsfunktionen beschreibt.

6.3 Beispiel

22   '    

  
22  
8 8 8' 8 
Matrixschreibweise:
  
8


8 8 
Genau die Funktionenpaare  0 ' 8 0  '  8  sind die Lösungen.   '  8 
  

(Beweis mit dem Hauptsatz der Differential- und Integralrechnung.)

6.4 Transformationsformel

Sei   eine Koordinatentransformation in  und  0  1  0 


 


 

2  ist   0  eine Lösung


Dann



 von ( 6 auf der vorherigen Seite) !  0 






ist eine Lösung von

    , 2     2 . Daraus folgt:
2    !     2       !  2        
   

Beweis: Es gilt
 

     

6.5 Anwendung

 
2
Wenn möglich wird die Matrix  auf Jordansche Normalform transformiert 

 
.

  
 

Dann braucht nur noch die allgemeine Lösung von gefunden werden. Durch Rück-
 

transformation erhalten wir alle Lösungen des ursprünglichen Systems.

6.6 Beispiel
2  +' 2  
Das Differentialgleichungssystem
hat bereits Jordan-Normalform.
8 8 ist nicht diagonalisierbar und

Lösung:

gelöst werden; ihre allgemeine Lösung ist: 


8
Die erste Gleichung hängt von gar nicht ab und und  kann getrennt von der zweiten Gleichung
. Dies setzen wir in die zweite     '   
2
Gleichung ein und erhalten:
 8   8

( )
Hier können wir   als einen (nicht konstanten) inhomogenen Bestandteil ansehen. Die zuge-
2


8 und hat die allgemeine Lösung: 8  8  '  8



hörige homogene Gleichung lautet: 8



IX.6 Anwendung auf Differentialgleichungen 99


8 8 8
Lösung des inhomogenen Differentialgleichungssystems
 ( ) mit der „Methode der Variation der

 0 
Konstanten“: Wir ersetzen in der Funktion  die Konstante durch eine differenzier-
bare Funktion :

82 0  2 0  


8 0 0    0  
 

! 2    #     ! 2  !
 
Dann gilt: 8 0 ist Lösung von ( )
 

  0. 8 '  8 
 

  0  8   ist eine spezielle Lösung von ( ) und zugleich die allgemeine; denn wenn
8die allgemeine 


Lösung des homogenen Systems noch dazuaddiert wird, entsteht keine andere
Form der Lösung.
 
     
'   '* 8 
8   0-  8  
 
ist die allgemeine Lösung des Differentialgleichungssystems.

 
6.7 Satz über die Lösung für
 im homogenen Fall
2 

 

Die allgemeine Lösung von ist:



  
    



 8



  0- 8   

 .  ..

.. .






 
;0     < &&&  

 '   ' '   

 

 ..
..
 0  
. .
 
      < &&     


6.8 Inhomogener Fall


2  )  '   

 ' '  


 

Die Lösung des inhomogenen Falles konstant gelingt mit der Metho-
de der Variation der Konstanten: Ersetze die Konstanten 
 0' '  0 
in der soeben gefundenen

 0 ' '  0 
Lösung durch Funktionen . Einsetzen in die inhomogene Differentialgleichung
liefert Differentialgleichungen für die  , die leicht zu lösen sind.
100 IX Eigenvektoren und Eigenwerte

6.9 Definition einer Differentialgleichung -ter Ordnung

Eine explizite, lineare, gewöhnliche Differentialgleichung -ter Ordnung mit konstanten Koeffi-
zienten ist eine Gleichung der Form:

 

   2 <&&        '  '   ' '  ' '   (9)
 

 &' '    5heißen die (konstanten) Koeffizienten,  der inhomogene Bestandteil. (2) heißt ho-
mogen, falls ist. Die Gleichung
    2  &&&    
 

(10)
 

heißt die zu (2) gehörige homogene Differentialgleichung. Dabei bedeutet:

explizit: nach höchster auftretender Ableitung aufgelöst

.' 2 ' '   


linear: bei der zugehörigen homogenen Differentialgleichung hängt die rechte Seite linear

 
von ab.

gewöhnlich: Eine Lösungsfunktion hat eine Variable . Gegensatz: Partielle Differential- 0


gleichung: Lösungsfunktion hat mehrere Variable und in der Differentialgleichung treten
ihre partiellen Ableitungen auf.

  
 



-te Ordnung:
 
Die Differentialgleichung enthält , d. h. hängt von ab, aber nicht


'
von für .

mit konstanten Koeffizienten:  sind konstant.

Zur Terminologie: Wir werden uns nur mit expliziten, linearen, gewöhnlichen Differentialglei-

.' 2 ' ' 


chungen mit konstanten Koeffizienten befassen und dafür kurz Differentialgleichung sagen.

 

 0  ' '  1'  '


In ( 9) können wir als Unbestimmte und ganz ( 9) als einen formalen Ausdruck
ansehen. Eine Lösung von ( 9) ist eine
  
-mal differenzierbare
 

Funktion   , so daß, wenn
 einsetzen, eine
0
wir in ( 9) für die Unbestimmte die -te Ableitung

0
gültige Gleichung für Funktionen entsteht. Wenn wir betonen wollen, daß die Funktion ge-
meint ist, schreiben wir die Variable dazu. Der Buchstabe allein kann je nach Zusammenhang
die Unbestimmte oder die Funktion bezeichnen.

6.10 Beziehung zwischen einer Differentialgleichung -ter Ordnung und einem


System von Differentialgleichungen 1. Ordnung

 
Sei 0 eine Lösung der Differentialgleichung: ( 9)

 

    
 
IX.7 Die gedämpfte und die harmonische Schwingung 101

  ) 1  für ' '   . Es folgt:         2  , also


2     0  '  ' 0   ist eine Lösung des Systems:
   
Wir setzen  


.2  
 .

8   
 ... . . . . . . . . . ...
..
2 
2   

mit der Matrix  ..
  
..
.
..
.  (11)
 
.

   .
  
       

Umgekehrt ist für jede Lösung  0  '  '   


auf der vorherigen Seite).
 0 von ( 11) 0 1  0 eine Lösung von ( 9

IX.7 Die gedämpfte und die harmonische Schwingung


7.1 Zwischenbemerkung

In den bisherigen Abschnitten sind alle Elemente zusammengetragen, um eine Differentialglei-


chung -ter Ordnung oder ein Differentialgleichungssystem 1. Ordnung zu lösen. Wir haben
nicht die allgemeinsten Sätze aufgeführt, sondern die Bausteine zum Lösen des allgemeinen

die Lösung eines Differentialgleichungssystems



2
Falles behandelt und Beispiele vorgerechnet. Wir halten nochmals ein wesentliches Prinzip für
 fest: 

1. Wir transformieren zuerst die Koeffizientenmatrix  in Normalgestalt  (Diagonal- oder


Jordan-Normalform).
 2   , wobei       .
2 0      0  ist die allgemeine Lösung des Ausgangssystems, wenn  0  die allgemeine
 

2. Dann lösen wir das transformierte System


  

3.
Lösung des transformierten Systems ist.

Im diesem Abschnitt behandeln wir ein grundlegendes Beispiel. In einem Fall existiert im Re-
ellen keine Jordan-Normalform, aber natürlich im Komplexen. Wir zeigen, wie die reelle allge-
meine Lösung zu erhalten ist. Zur Lösung eines Differentialgleichungssystems 1. Ordnung ist
sodann auch die zur Normalform gehörige Basis zu bestimmen.

7.2 Fallunterscheidung nach der Diskriminante

Die Differentialgleichung der gedämpften (harmonischen) Schwingung ist eine Differentialglei-


chung 2. Ordnung:
6     2  
6    2   mit     '      ' 5 
102 IX Eigenvektoren und Eigenwerte

Ihr charakteristisches Polynom ist    /   !  8 . Es hat die Nullstellen


       8        8 8    ' 8 
Je nach dem Vorzeichen der Diskriminante 
 8   8  
   8 
 wir drei Fälle:
unterscheiden

1. Fall:  „kleine Reibung“


2. Fall:  „Reibungsgrenzfall“
3. Fall: „große Reibung“

Im folgenden betrachten wir die homogene Differentialgleichung. Für den inhomogenen Fall
siehe 7.6 auf Seite 104.

7.3 Der Fall kleiner Reibung


# '  ' 1 ' 1 
Im Falle haben wir zwei verschiedene, nicht reelle, sondern konjugiert komplexe Eigen-

1  
werte       Re  Im . Darum gehen wir derart
ins Komplexe über, daß wir Funktionen betrachten und damit Vektorräume über 
erhalten. Eine Basis des komplexen Lösungsraumes ist:

 1  
 

 
 

0    



  0   
1  
 


 
0 



  0
Daraus erhalten wir die folgende Basis des reellen Lösungsraumes:
  0
8          

 

8  
   0
Allgemeine reelle Lösung:

0      
0    8  0  

 

  '  8  1   
 
 '  
    8 '       Polarkoordinaten
0   


 
0  0
 

 



 0 
 

   
0  0    ' 0 1

 

IX.7 Die gedämpfte und die harmonische Schwingung 103

   d. h. . Die allgemeine Lösung ist eine periodische


7.3.1 Ohne Reibung
Keine Reibung bedeutet 

0    
 0* 0   mit :1  
Funktion:
 

Bis auf Skalierung und Verschiebung des Nullpunktes ist 0  ein Kosinus-Funktion bzw. Sinus-
Funktion (wegen          ). Diese Bewegung der Feder heißt eine harmonische
Kreisfrequenz, 1 1
Schwingung, weil auch die Grundschwingungen einer Saite durch umskalierte Sinus-Funktionen
 
beschrieben werden.  heißt Amplitude, 
  die Frequenz und
  die Schwingungsdauer. 0 heißt die Phasenverschiebung; sie hängt von der Festlegung des

Nullpunktes der Zeitrechnung ab und hat deshalb keine physikalische Bedeutung. Nur wenn zwei
harmonische Schwingungen miteinander verglichen werden,
etwa 0 0  0   und 0      0* 0   ,
 
     

dann erhält die Phasendifferenz 0 , 0 zwischen den beiden Schwingungen eine von der Festle-

gung des Zeit-Nullpunktes unabhängige Bedeutung.

7.3.2 Mit kleiner von null verschiedener Reibung
 8   .
  8 
Unter kleiner Reibung soll verstanden werden und Letzteres
 8  d. h.  8 9  d. h.    
 
bedeutet:
    . Wir erhalten eine gedämpfte (harmonische) Schwingung. Ihre
Es gilt: 
 
  8 .
Kreisfrequenz ist 
  8
)1   bewirkt. Wir könnten das erwarten, weil größere Reibung die Bewegung verlangsamt.
Wir sehen außerdem, daß eine Vergrößerung der Reibung eine Verringerung der Frequenz


Jedoch wird durch eine höhere Reibung auch die Amplitude verkleinert, so daß das mechanische
System auch einen kleineren Weg zurücklegt bei einer Periode. Die Verringerung der Frequenz
ist also nicht von vorneherein zu erwarten. Dabei ist zu beachten, daß die Lösung nicht mehr peri-
odisch ist. Die Durchgänge durch die Ruhelage erfolgen aber noch periodisch. Die Zeitdifferenz
zwischen zwei aufeinanderfolgenden Durchgängen durch die Ruhelage wird Periode genannt.

7.4 
Der aperiodische Grenzfall

"   (

Im Grenzfall d. h. gibt es nur einen Eigenwert , der reell ist und zwar ist
 . Es folgt  . Das zugehörige System von zwei Differentialgleichungen 1. Ordnung hat


die nicht diagonalisierbare Matrix:

  
104 IX Eigenvektoren und Eigenwerte

0    0- 8  
Daher lautet die Lösung: 


Die Feder passiert genau einmal die Ruhelage, nämlich für 0   8 , und bewegt sich für 

ab einem gewissen Zeitpunkt 0  monoton und sehr schnell (exponentiell) auf die Ruhelage zu.

7.5  Der Fall großer Reibung

Für 7 muß die Reibung groß nämlich     sein. Wir haben zwei reelle und zwar
 8    8  
negative Eigenwerte

   8 
0      8 
Die allgemeine Lösung lautet:
   

„Qualitativ“ verhält sich das System ähnlich wie im aperiodischen Grenzfall: Höchstens ein

0
Durchgang durch die Ruhelage, ab einem bestimmten Zeitpunkt monotone Bewegung auf die
Ruhelage zu, die für erreicht wird.

7.6 Die inhomogene Differentialgleichung

Hier ändert sich nicht viel gegenüber der zugehörigen homogenen Differentialgleichung, da als
spezielle Lösung eine konstante Lösung genommen werden kann und sich die Lösungen nur um
die Addition einer bestimmten Konstante ändern. Die Schwingung findet um diese Konstante
herum statt, und in den letzteren Fällen bewegt sich das System statt auf die Null auf diese
konstante Lage zu.

IX.8 Eigenwerte des Integraloperators


8.1 Das Problem und seine Lösung

 
 ' 

Der Differentialoperator auf dem Vektorraum aller beliebig oft differenzierbaren
Funktionen hat alle reellen Zahlen als Eigenwerte (vgl. 3. Beispiel in 2.4 auf Seite 82). Die

1  
Integration ist die Umkehrung der Differentiation und muß daher die inversen Eigenwerte haben;


denn für einen Automorphismus eines Vektorraumes hat genau die inversen

   
Eigenwerte wie . Das Problem ist hier, daß nur ein Isomorphismus ist, wenn wir von den
konstanten Funktionen absehen können; denn diese bilden den Kern . ist also gar nicht
definiert. Ein erster Versuch, den Integraloperator durch die Definition

  1  
0 4 0
IX.8 Eigenwerte des Integraloperators 105


 
eindeutig zu machen. Es stellt sich jedoch heraus, daß dieses keinen Eigenvektor besitzt. Ande-



rerseits ist Integral (,worunter wir ab jetzt eine Stammfunktion verstehen) von ; also
ist doch irgendwie eine Eigenfunktion des Integraloperators zum Eigenwert ! Aber wie? Die
Lösung besteht darin, sinnvoll zu verarbeiten, was es bedeutet, daß ein Integral nur bis auf Ad-
dition einer konstanten Funktion eindeutig bestimmt ist. Nämlich so: Das Integral ist eindeutig

bestimmt modulo des Untervektorraumes der konstanten Funktionen und definiert eine lineare

1  '     '   

Abbildung:

(12)

 
1  '    '  
 
 
Für und gilt:


 (13)

 
ist also so etwas wie ein „Eigenvektor relativ “ von zum Eigenwert . Die ge-

wöhnlichen Eigenvektoren und Eigenwerte sind im Sinne dieser allgemeineren Definition die
Eigenvektoren und Werte relativ der Identität.

8.2 Differential und Integral, zueinander inverse Isomorphismen

Beachtenswert ist noch, daß

 1   '    #  
'  
und wie in Gleichung (1) zueinander inverse Isomorphismen sind.

11
A. Riede: Lineare Algebra 2, SS 00
106 X Ringe und Algebren

X Ringe und Algebren


Wir wollen in einem späteren Kapitel die Eigenvektortheorie fortführen und dabei beliebige Kör-
per betrachten. Dazu muß der Begriff eines Polynoms abgeändert werden. Was wir bisher als ein
Polynom bezeichnet haben, nennen wir ab jetzt eine ganzrationale Funktion. Für unendliche
Körper (Körper mit unendlich vielen Elementen) sind die beiden Begriffe äquivalent (s. 5.5 auf
Seite 115). Dabei tritt der Begriff eines Ringes (mit Eins) auf, der ähnlich wie ein Körper de-
finiert wird. (Freie) Moduln über einem Ring sind eine Verallgemeinerung eines Vektorraumes
über einem Körper.

X.1 Ringe

1.1 Definition


1. Ein Ring (mit Eins) ist ähnlich wie ein Körper definiert (s. 5.5 auf Seite 21), jedoch das
Kommutativ-Gesetz der Multiplikation, die Existenz eines Inversen und brauchen
nicht zu gelten, aber zusätzlich muß das links-distributive Gesetz gelten:

    "    für alle ' -'  

2. Gilt auch das Kommutativ-Gesetz der Multiplikation, so sprechen wir von einem abelschen
oder kommutativen Ring.

1.2 Satz über die Reste bei Division durch  


 sei eine beliebige natürliche Zahl. Jede ganze Zahl  kann bekanntlich eindeutig dargestellt

  '    '


werden in der Form

  mit   und




wobei 1    der Rest bei Division von  durch  genannt wird. Alle auftretenden Reste
 

 1  '  '  '   


bilden die Menge

Wir definieren für  eine Addition und eine Multiplikation :




  1 
    '  
1 
  
Dann gilt:
"' ;'  ist ein kommutativer Ring (mit Eins) .
 

"' ;'  ist ein Körper !  ist eine Primzahl.



X.2 Die Ringe und Algebren End  und  
 107

1.3 Definition

)
9
1    heißt ein Ringhomomorphismus, falls :  
        und   gilt.

Eine Abbildung zwischen Ringen 

 ,   

Folgender Abschnitt behandelt ein Beispiel eines Ringhomomorphismus aus der Linearen Alge-
bra.


X.2 Die Ringe und Algebren End 
und   
2.1 Definition

Sei 
,  ein Körper und ein -dimensionaler Vektorraum über  . Eine lineare Selbstab-
bildung von wird auch ein Endomorphismus genannt.
End  1  '  bezeichne die Menge aller Endomorphismen von

.

2.2 Satz und Definition

1. Bezeichnet + die Summe und die Hintereinanderausführung von Endomorphismen



bzw.
und ' ' 
  '  '  
+ die Addition von Matrizen und * das Matrizenprodukt, dann sind End
 (für nicht kommutative) Ringe mit Eins. Sie heißen Ring der Endomor-
 
phismen von bzw. Ring der  
-Matrizen mit Koeffizienten in  .


   1
2. Ist eine Basis von fest gewählt, und bezeichnet  die Matrix eines Endomorphismus
bezüglich
End
  '  '     ' ;' 
dieser Basis, dann ist die Zuordnung
   .
 ein Ringhomomorphismus

2.3 Feststellung

 '  '  
  '  ' 
Früher

hatten wir herausgefunden, daß, wenn die Multiplikation mit Skalaren bezeichnet,
End und   Vektorräume über  sind. Es gilt außerdem:

   5 #     5  für alle ('  End  '  




        #    #     für alle "'   '    

2.4 Definition

 ' ; '  zusammen mit einer Skalarenmultiplikation     , .'   


 '  ' ein  Vektorraum ist und
1. Ein Ring    ,
sodaß 

#     #        für alle  und alle '  


    
108 X Ringe und Algebren

gilt, heißt eine  Algebra.

2. Eine Abbildung zwischen Algebren, die sowohl Vektorraum- wie Ring-Homomorphis-


mus ist, heißt ein Homomorphismus von Algebren. Ein Algebren-Isomorphismus ist ein
bijektiver Algebren-Homomorphismus.

2.5 Satz

End
  '  ' '  und   '  '  '  sind  Algebren und
  

 1 End  '  ' '     '  '  '  ist ein Algebren-Isomorphismus.

 

X.3 Moduln
In diesem Abschnitt sei  ein Ring mit Eins. Moduln über einem Ring sind eine einfache Verall-
gemeinerung von Vektorräumen über einem Körper. Sie sind grundlegende algebraische Objekte.

3.1 Definition



Ein Modul über  ist eine Menge zusammen mit zwei Verknüpfungen, einer Addition + und
einer Multiplikation mit Skalaren mit folgenden Grundeigenschaften:

1. Bezüglich der Addition ist  eine abelsche Gruppe.

2. Bezüglich der Skalarenmultiplikation gilt:


a) Das assoziative Gesetz:     für alle .'   und alle  
b) für alle  
.'  # 
-'
3. Bezüglich beider Verknüpfungen die Distributiven Gesetze: Für alle und alle
  gelten:
a)        
b)      
Die Definition stimmt also mit derjenigen eines Vektorraumes überein, die Unterschiede betref-
fen nur den Skalarenbereich. Deshalb können für Moduln die gleichen Begriffe abgeleitet werden
und die gleichen Sätze bewiesen werden wie für Vektorräume, insofern die Existenz der Inversen
im Skalarenbereich und die Kommutativität der Multiplikation im Skalarenbereich nicht benötigt
wird. Z. B. machen die Begriffe Untermodul, Linearkombination, lineare Hülle, Erzeugenden-

system, Basis, lineare Abbildung, Kern, Bild,  , alternierende Multilinearform genauso einen
Sinn.
X.4 Beweis der Existenz einer Determinantenform 109


 1
Der Satz von der Existenz einer Basis eines endlich erzeugten Moduls gilt jedoch nicht; es ist z.
B.  ein -Modul mit der Skalarenmultiplikation  
 
 
'
 , aber für prim ist jedes

   

einelementige System  ,   

ein Erzeugendensystem, jedoch keine Basis, da z. B.





  , also  nicht eindeutig in der Form 




 mit dargestellt 

werden kann.

 ' ' '  ' '  ' ' '  die
Manche Moduln haben jedoch eine Basis , z. B. 
' ' ' ' ' '   
kanonische Basis:

Dabei darf eine Basis nicht als ein maximales linear unabhängiges System    über dem Ring
definiert werden.
 , B.aberistkein
Z. (2) ein maximales linear unabhängiges System des Moduls
Erzeugendensystem; es erzeugt nur die geraden Zahlen. Ich verwende folgende
Definitionen, die die entsprechenden Definitionen für den Fall eines Körpers verallgemeinern.

3.2 Verallgemeinerte Begriffe für freie Moduln

1.   '  8 ' '   sind linear abhängig : ! 


       , wobei mindestens ein  
invertierbar ist.
2. Eine Basis eines endlich erzeugten Moduls ist ein System, durch das jedes Element des
Moduls eindeutig linear dargestellt werden kann.
3. Ein Modul, der eine Basis besitzt, heißt ein freier Modul.
4. Eine Determinantenform 
auf einem -dimensionalen freien Modul ist eine -fache 

Linearform, die für linear abhängige Elemente verschwindet und einer (und damit jeder)
Basis ein invertierbares Element  zuordnet (s. 4.2 auf Seite 112).

3.3 Bemerkungen

Die Definition einer Algebra über einem Körper kann unmittelbar auf den Begriff einer Algebra
über einem Ring übertragen werden.
  1
  
Für freie Moduln und kann die Theorie der linearen und multilinearen Abbildungen
, insbesondere der Bezug zu Matrizen, verallgemeinert werden. Exemplarisch führen wir
die Determinantentheorie in Abschnitt X.4 durch, die wir andererseits auch für die Fortführung
der Eigenwert-Theorie benötigen werden.

X.4 Beweis der Existenz einer Determinantenform


4.1 Satz

   ' '   
   

Sei eine Determinantenform auf einem -dimensionalen freien Modul über dem kommu-
tativen Ring  mit Eins. Sei  eine feste Basis von und  die
110 X Ringe und Algebren

lineare Darstellung der Elemente   ' '   . Dann gilt:


1.    ' '    
      ''   &  ''  mit
    ''   1   sgn       8 8  &&    

 

 

 
Leibniz-Formel

2. Eine Determinantenform ist bis auf einen invertierbaren Faktor  eindeutig.


3.   ist eine Determinantenform.
  ' '   ein be-
 
4. Es gibt genau eine Determinantenform, die einer vorgegebenen Basis
liebiges vorgegebenes invertierbares Element zuordnet, z. B. .

Beweis: Zu 1:    '  8 ' '   









   '  8 ' '  siehe   

  


  

 

  
 








 
  
 8
   
' '
  '
    

 
  


 






 8
 
    
 ' '
  '
    



  


& &     

 
  &&
    
 8
&&  
 
'
' '

    
  
 




   
 8
&&  
 
'
' '
    siehe     
  
 
  


    8 8 &&      ' 8 ' '  

 

 

 
 
 
 


sgn      8 8 &&    ' 8 ' '  
   
 

 

 


Wegen der Multilinearität kann für jede Variable eine Linearkombination aus  herausgezo-
gen werden, z. B. für die erste Variable:


 

'

8 ' '  
  

' 8 ''   '

 

   

 '
'


 ' '  '  '


   Hier braucht nur über paarweise verschiedene   '  8 ''    summiert zu werden, weil
sonst der Summand null ist, da zwei Variablen von  gleich, alle Variablen also linear ab-

hängig sind. Dann bilden   '  8 '  '   eine Permutation  von ' ' '  :   '  8 ' '  
 
X.4 Beweis der Existenz einer Determinantenform 111

   '    ' '    . Daher kann die Summe als eine Summe über alle Permutationen  ge-
schrieben werden.
  invertierbar. Im folgenden schrei-
  ' '  
Zu 2: Sei eine weitere Determinantenform. Dann ist
 
       
ben wir die Variablen nicht an.

    




 mit  1   




invertierbar, da    und   inver-


tierbar sind.
Zu 3: Multilinearität ist erfüllt wegen folgender Argumente:
Die Koordinatenzuordnung ist linear. Ein Produkt ist in jedem Faktor additiv wegen des Distribu-
tivgesetzes. Ein Produkt ist in jedem Faktor homogen wegen des Assoziativgesetzes und wegen
der Kommutativität. Eine Summe linearer Abbildungen ist wieder linear.
   ''    für linear abhängige   ''    :
Sei  

     
fürfür  alle , d.
h.  '  ' .
(a) Wir zeigen dies zunächst für den Spezialfall, daß zwei Vektoren gleich sind.

 

Wir spalten die Summe bei der Definition von   in eine Summe über die geraden und

     ' '   '  ' 


' '   
über die ungeraden Permutationen auf.

sgn           

 
=
 gerade
  
 

 

 

 

   sgn           

  
  
 

 

 

 

 und sgn    Wir setzen  mit  1 '  und 1  .


ungerade

Hier ist sgn  


Durchläuft alle ungeraden Permutationen, so durchläuft  alle geraden.
         

    
       

          

    
   
       

     
 
    
   
       

    
   
    (Vertauschen
   
       


von Faktoren)

        

    (wegen  )
   
       

   

    ' '   ' ' 


' '   
Die beiden Summen über die geraden und ungeraden Permutationen stimmen also bis auf
das Vorzeichen überein; folglich gilt:   

(b) Seien   ' '   linear abhängig, dann gibt es mit  




 




112 X Ringe und Algebren

    ''       

 

  

 
  


 

 
 -te
-te
 

 -te


   ' 8 ' '    ; denn alle Faktoren  in einem Produkt der Formel sind nur dann und
haben dann den Wert 1, wenn  '     '   '   ist. Also hat   auf einer
Basis einen invertierbaren Wert, nämlich auf  '  '
 den Wert 1.
Zu 4:     ist die einzige Determinantenform mit Wert  für  '  '  .

4.2 Bemerkung

   ''     invertierbar für eine Basis   ' '    , dann


 %1   '  8 1  8 ' '   1   eine Basis mit    ''     . Sei jetzt  ' '    eine
Ist ist wegen der Multilinearität

beliebige Basis. Dann besagt die 1. Behauptung von 4.1 auf Seite 109 für diese   '' 
 ' '   :    ''         ' '       ''    und
Also ist   '  '   invertierbar mit Inversem     ' '    .
X.5 Polynomring
Dieser Abschnitt behandelt ein wichtiges Beispiel einer Algebra über einem Ring, das wir im
Abschnitt XVI.1 auf Seite 178 bei der Behandlung des charakteristischen Polynoms benötigen
werden. In diesem Abschnitt sei bis Punkt 5.3 auf Seite 115  ein kommutativer Ring mit Eins.

5.1 Definition

   
Sei ein Element, das nicht  angehört; historisch wird es eine Unbestimmte genannt. Dann
besteht der Polynomring  in der Unbestimmten aus allen formalen Ausdrücken der Form:
 *  ! 8  8  &&&   
 nur eine andere Bezeichnung für  und   eine andere


Wir vereinbaren bei    , daß 


Bezeichnung für  sein soll:
  1  und   1 
Dann schreibt sich ein solcher formaler Ausdruck systematischer in der Form

           &&             mit   für alle '  ' ' und mit


 ' variabel. Lies: „  oben null plus    oben eins plus ...“.
Diese formalen Ausdrücke können wir uns so vorstellen, wie aus einem Alphabet eine Sprache
gebildet wird: Gewisse Buchstabenzusammenstellungen stellen ein Wort, ein Element, der Spra-
che dar. Statt von Buchstabenzusammenstellungen wird in der Mathematik und Informatik von
X.5 Polynomring 113


Zeichenketten (engl. strings) gesprochen. Als Zeichen werden an dieser Stelle die Elemente von
 , das Symbol , das Zeichen + , die natürlichen Zahlen und 0 verwendet; sie bilden hier das
Alphabet. Elemente des Polynomrings sollen genau die Zeichenketten der obigen Form sein. Sie

 
werden Polynome genannt.

  1   
Die Elemente von werden hochgerückt, weil wir für  ja u. a. noch eine mit * bezeichnete
Multiplikation einführen wollen. Verwenden wir die abkürzende Bezeichnung , dann
wird die Multiplikation gerade so erklärt werden, daß gilt
        & &    

, wobei das Produkt auf der linken Seite Faktoren hat. Die linke

 
Seite wird in der Mathematik gewöhnlich mit „ hoch “ bezeichnet. Das auf die Multiplikation

&&   für
, so werden die Ausdrücke        &&&   
bezogene „ hoch “ ist also gleich dem formalen „ oben “.
Ist  
 

und      &&  ' als gleich angesehen. Es kann also bei der Betrachtung zweier
 



angenommen werden.


   auch weggelassen werden, oder


Ausdrücke immer
Ist   , so kann beim Aufschreiben der Zeichenkette   
 fehlt ein Teil der Kette der Form     , so soll dies dasselbe bedeuten wie wenn
  an der passenden Stelle stünde. Z. B.   8          8      .
umgekehrt,

1       <&&    und 1         &&&     '


Haben wir zwei Polynome




dann gilt, weil im Polynomring außer der obigen Identifikation keine weiteren Identifikationen

  '  ' '


vorgenommen werden, wobei wir annehmen dürfen:


 ! für alle

Dies ist der Identitätssatz für Polynome. Er gilt hier also per Definition von Polynomen.
Die  heißen die Koeffizienten des Polynoms . 

Multiplikation  von Polynomen mit Skalaren  und Addition + von Polynomen wird koeffi- 
zientenweise erklärt, das Produkt  zweier Polynome durch die entsprechende Formel, nach der
ganzrationale Funktionen multipliziert werden:

 1        <&&      
 
      -      <&&&         .
1. 

2.  

1  
3.  1
     mit  1      mit   für , 
für # 
 

 

  




   &'  .   ''    bezieht sich auf die Addition in und die Formel für  bezieht
   

zunächst formal sind; jedoch stellt sich heraus, daß das Polynom         &&     
sich auf das Produkt und die Summe in , während die übrigen Pluszeichen auf der rechten Seite 


auch die Summe der Polynome   '   '&&-'    bezüglich der Addition in   ist.
 
114 X Ringe und Algebren

 
Mit diesen Verknüpfungen wird  zu einer kommutativen  -Algebra, wie wir durch Nach-
   
rechnen der Axiome überprüfen können.
  
ist die Eins von  und es gilt .
      . Die Summe von    
Es ist 
 5
+   

 
  

und ist in  die selbe wie in 
 :
 5         
 


   
. Das gleiche gilt für das Produkt. .
(Denn für lautet die Formel für  so: .)  ist eine Unteralgebra von  .
(Unteralgebren, Unterringe bzw. Untermoduln einer Algebra, eines Ringes bzw. eines Moduls
sind natürlich so definiert, daß sie Teilmengen des größeren Objektes sind und die betreffenden
Verknüpfungen des größeren Objektes, wenn sie nur auf Elemente des Unterobjektes angewendet

 
werden, mit den Verknüpfungen des Unterobjektes übereinstimmen.)
  

Dafür, daß sich jedes Element von  eindeutig in der Form darstellen läßt, wird auch

   

gesagt: Das System, das nur aus einem Element besteht ist eine  -Algebra-Basis von  .
ist eine algebraische Darstellung von durch die Basis , während wir bei einem Vek- 

torraum lineare Darstellungen durch die Basis betrachten. 


freie Algebra über  . Auch bezüglich Algebrahomomorphismen von 
ist also eine eindimensionale
nach einer anderen
 
Algebra  über  gibt es eine Analogie zur Vektorraumbasis:

5.2 Satz

Sei ein beliebiges Element einer  -Algebra  , dann gibt es genau eine Abbildung  1   

 mit:
(i)  ist Algebrahomomorphismus und (ii)    .

  1 

   ist eine kommutative (Unter-) Algebra über  von  .

Beweis:

     &&&   
  
1. Eindeutigkeit

         &&      




 
     <&&&   wegen (ii)
wegen (i)



( ) 

Also ist  

eindeutig.
2. Existenz
Wir definieren    
durch ( ). Dann ist leicht nachzurechnen, daß    die Eigenschaften
(i) und (ii) hat.

Auch die letzte Behauptung wird durch Nachrechnen bewiesen. Wichtig ist festzuhalten, daß 
nicht kommutativ zu sein braucht; Bild(  ) ist immer kommutativ. Diese Tatsache benötigen wir
in der Eigenwerttheorie für die nicht kommutative  -Algebra  End , wobei  ein Körper 
und ein endlich dimensionaler Vektorraum über  ist.
X.5 Polynomring 115

5.3 Definition

Wegen der Form ( ) von  


 

      <&&          <&&&   1 


  

heißt  Einsetzungshomomorphismus; es wird für  einfach eingesetzt.


Für 
   und  ist  die Identität und
    

5.4 Voraussetzung: Im folgenden sei  ein Körper.

5.5 Vergleich mit der Algebra der ganzrationalen Funktionen

Wir betrachten die  -Algebra  Abbildungen  1


 mit der wertweisen Multi- 1  
plikation mit Skalaren, der wertweisen Addition und der wertweisen Multiplikation von zwei

1   
Abbildungen miteinander.
Sei    der Einsetzungshomomorphismus mit Id . Dann gilt:

      <&&&    
 Id    Id   &&&  Id  '


   

     &&&  


 führt also ein Polynom mit den Koeffizienten   ' '  ' '
  über in die ganzrationale
Funktion mit denselben Koeffizienten.   Id
   
ist die Algebra der ganzrationalen Funk-

1    
tionen von  nach  , die auch mit  bezeichnet wird.
Behauptung:    ist genau dann ein Isomorphismus, wenn  unendlich ist.
Beweis:
Ein Polynom, das nicht das Nullpolynom ist, hat höchstens Nullstellen, wenn der Grad des
Polynoms ist (s. 5.11 auf der nächsten Seite).
Für  unendlich können wir also schließen: Geht ein Polynom in die Nullfunktion über, so
unendlich viele Nullstellen, was nur beim Nullpolynom eintreten kann.  ist also in-
hat es
! 
 
jektiv; denn auch bei Algebra-Homomorphismen  gilt:  injektiv Kern  , wobei
Kern(  ):= 
. Surjektiv ist es nach Definition einer ganzrationalen Funktion.
Ist  ein Isomorphismus, so gibt es unendlich viele ganzrationale Funktionen, also erst recht
unendlich viele Abbildungen von  nach  , was nur für unendliches  eintreten kann.

5.6 Definition

1. Der Grad des Polynoms mit  

ist definiert durch: Grad( ):= Max



  
116 X Ringe und Algebren

2. Ist Grad( ) = , so heißt 


  der höchste Koeffizient von . 

3. 

heißt normiert. 1! Der höchste Koeffizient von ist eins. 

5.7 Eigenschaften des Grades

    ' Grad   ,
1. Grad 
 Max Grad  wobei das Gleichheitszeichen gilt, wenn
 

Grad 

Grad  ist.

2. 

' 
 Grad 


 Grad    Grad 


5.8 Division mit Rest

Seien 

'  
   mit  , dann gibt es eindeutig bestimmte Polynome '       mit
(a)   : und (b) Grad 
 Grad  oder   

5.9 Satz: Ist  , dann ist


eine Nullstelle des Polynoms 


   , d.h.  

       mit einem eindeutig bestimmten Polynom      

5.10 Satz und Definition

Sind  ' '


lauter verschiedene Nullstellen eines Polynoms
   , so gibt es eine Pro- 


duktzerlegung
  

     
 8        
  


mit eindeutig bestimmten


  und einem eindeutig bestimmten     mit   für
 ''
 heißt die Vielfachheit der Nullstelle  .
  


5.11 Satz: Ein Polynom vom Grade



hat höchstens Nullstellen.

5.12 Definition und Fundamentalsatz der Algebra

Hat jedes Polynom  eine Nullstelle in  , so heißt der Körper  algebraisch abgeschlos-

 
sen.
Der Körper der komplexen Zahlen ist algebraisch abgeschlossen.
X.5 Polynomring 117

5.13 Definition und Satz

Wir sagen, ein Polynom 


   zerfällt vollständig in Linearfaktoren, falls


              mit ' 


8  


In einem algebraisch abgeschlossenen Körper zerfällt jedes Polynom in Linearfaktoren. Wir kön-
nen dann die Faktoren mit gleichen zusammenfassen und erhalten eine Darstellung der Form:


       8    
    
mit  
für   und
 
118 XI Bilineare und damit verwandte Formen

XI Bilineare und damit verwandte Formen

XI.1 Sesquilinearformen
1.1 Einführung

In Abschnitt XI.1 befassen wir uns systematisch mit Bilinearformen bei beliebigem Körper  und
für  
mit Formen von zwei Variablen, die in der ersten Variablen linear und in der zweiten


Variablen semilinear sind. Dabei sei die erste Variable aus einem -dimensionalen Vektorraum
und die zweite Variable aus einem -dimensionalen Vektorraum über  . Dabei darf
sein, wofür wir gleich ein wichtiges Beispiel angeben.

1.1.1 Definitionen
 1  
('  ' ' '  
Eine Bilinearform auf ist eine Abbildung  , so daß



Linearität in 1. Variablen:   ' 


 gilt:
 +'     '
  ('  '   ( ' 

Linearität in 2. Variablen: ('   
 +'    +'

 '  ('  
 
 ('


 wird eine Sesquilinearform (anderthalbfache Linearform)  1 


   

Für  wie eine  


Bilinearform definiert mit dem einzigen Unterschied, daß statt der Homogenität in der zweiten
Variablen die Semi-Homogenität erfüllt sein muß:
 ('     +'  

Dabei ist  das konjugiert Komplexe von  . In Punkt 1.2 auf der nächsten Seite.5 werden wir
den Begriff einer Sesquilinearform in einem verallgemeinerten Sinne betrachten.
Warum wir mitbetrachten, liegt daran, daß wir folgendes 1. Beispiel einschließen wollen:

1.1.2 Beispiele


 1   ' '     '   1


1. Sei

der Dualraum von
 
. Dann ist folgendes eine Bilinearform:
    ' 

 
2. Jedes reelle Skalarprodukt ist eine Bilinearform.

3. Jedes komplexe Skalarprodukt ist eine Sesquilinearform.


12
A. Riede: Lineare Algebra 2, SS 00
XI.1 Sesquilinearformen 119

In Kapitel VIII auf Seite 69 haben wir erst reelles, dann komplexes Standard-Skalarprodukt be-
handelt und anschließend gezeigt, daß der reelle und komplexe Fall eines allgemeinen Skalarpro-
duktes gleichzeitig behandelt werden kann. Dabei wurde benutzt, daß die komplexe Konjugation
ein Körper-Isomorphismus ist, dessen zweimalige Anwendung die Identität ergibt, und daß die
Anwendung der komplexen Konjugation auf reelle Zahlen die Identität ist. Mit dem gleichen
einfachen Trick können auch Bilinearformen und Sesquilinearformen unter einen Hut gebracht
werden, wie wir im folgenden präzisieren:

1.2 Körper-Involution und Sesquilinearformen

1  81
1.2.1 Definition

Id . Bezeichnen wir  
Eine (Körper)-Involution des Körpers  ist ein Körper-Isomorphismus 
mit , so ist ein Körper-Isomomorphismus 
 mit
gekennzeichnet
durch:

1.      für alle -'  

2.    #  für alle .'  

3. ist bijektiv.

Da aus 8
Id die Bijektivität von folgt, hätte es gereicht statt Körper-Isomorphismus nur
Körper-Homomorphismus zu verlangen.

 1
1.2.2 Voraussetzung

 
Für das folgende sei  stets ein Körper mit Involution ; wir verwenden die Bezeichnung:
 .

 
1.2.3 Folgerungen

Wenn wir definieren  1  


   
   , dann gilt, wenn
  
   ' 
  '  :
 


    ,     , #    #   ,  
    

1.2.4 Beispiele

1.  beliebig und Id

2.   und = kK = Bildung der konjugiert komplexen Zahl.

Wir bringen nun die bisherigen Begriffe Bilinearform und Sesquilinearform unter einen Hut,
wenn wir definieren:
120 XI Bilineare und damit verwandte Formen

1.2.5 Definition
1   
('  '  "'  ' 
Eine Abbildung  heißt eine Sesquilinearform auf (im gegenüber 1.1.1
 gilt:

verallgemeinerten Sinne), wenn
Linearität in 1. Variablen:   ' 


   '  '   +'    ( ' 

Semi-Linearität in der 2.: ('   

 ((''

  (' '


 ('  
 ('






Ist Id , so ist eine Sesquilinearform nichts anderes als eine Bilinearform. Für  und

1.1.1. Für
erhalten wir den Begriff einer Sesquilinearform im speziellen Sinne von Definition
sagen wir anstelle von „Form auf “ auch „Form auf “, obwohl  
der Definitionsbereich ist.

1.3 Matrix einer Sesquilinearform

 ' 8 '  '     '  8 ''    eine Basis von . Für eine Sesquilinear-
1.3.1 Definition
Sei  eine Basis von ,
form auf sei
 
1   ' 
 ' 1  
   




Dann heißt  die Matrix der Sesquilinearform bezüglich der Basen  ' 8 ' '  und
  '  8 ' '    . 
1.3.2 Satz Die Spalte    bezeichne die Koordinaten von  und die Spalte 
 die
Koordinaten von bezüglich der Basen  und 
.
 

1. Durch ihre Matrix  ist die Sesquilinearform eindeutig bestimmt; wenn wir mit  das
Matrizen-Produkt bezeichnen, gilt:

 ('       
  
    



  

   
2. Ist die Matrix   beliebig vorgegeben, so wird durch die vorstehende Formel eine
Sesquilinearform definiert, deren Matrix ist. 

3. Die Sesquilinearformen auf bilden bezüglich
Multiplikation mit Skalaren einen  -Vektorraum

wertweiser Addition und wertweiser
Wir erhalten einen (von den   
Basen abhängigen) Vektorraum-Isomorphismus:

 1     
 '   
Beweis: Zu 1:
XI.1 Sesquilinearformen 121

 ('       ' 



  
 
 
  

'

 
    1. Gleichung in Punkt 1

      



   
   

 
 

     bezeichnet das -te Element einer Spalte


       ..
.

 

  
 
 ' '        .
..
  
Zu 2: Daß durch die Formel im 1. Punkt eine Sesquilinearform definiert wird, ist leicht zu


sehen und im Zweifelsfalle direkt nachzurechnen. Daß die Matrix von diesem die vorgegebene

' ' '  ' ' '  bezüglich  ' '   hat und  die Koordi-
Matrix ist, sehen wir so ein:
Da  die Koordinaten   

naten '' '


 ' ''  bezüglich
 
-te
  ''    , folgt  '     '' und  


 ' '  -te


Zu 3: Daß    ein -Vektorraum ist, wird durch direktes Nachrechnen verifiziert.





Linearität von  : Für ' 

  gilt: 

         '
  '
   '
      



    #    ' 


 #   ' 
  #   
 

1. Punkt
 Injektivität von 
2. Punkt
 Surjektivität von 
1.3.3 Transformationsformel

1. Bei Basistransformationen  von    und  


 von transformiert
sich die Matrix der Sesquilinearform wie folgt:

 
2. Für wird im 1. Punkt  
 und     genommen. Dann lautet die
 
Transformationsformel:
122 XI Bilineare und damit verwandte Formen

Beweis:    

  ' 
     ' 0


 
  
  

  
0
 '

  
  

      

 
  0 

       1 '  -ter Koeffizient


   

 

       
 

1.4 Zur Vektoralgebra im 



1.4.1 Bemerkung über
-fache Linearformen
Definition 1.3.1 und Satz 1.3.2 verallgemeinern sich auf
-fache Linearformen. Wir formulieren
nur einen Aspekt. Sei 1
  &&   eine
-fache Linearform auf , dann ist  durch
  '  ' '   '  ' ''  ' ' ' eindeutig bestimmt, wobei  ' '  eine Ba- 
 
8 


sis von ist.

Zwei
-fache Linearform und  stimmen daher überein, wenn ihre Werte auf allen
-tupeln von
Basisvektoren übereinstimmen.
Für Sesquilinearformen ' 1
   :
5  !   ' 
   ' 
 '  '  ' '   '  '  

Für ' 1


  &&  
-fach linear:
5  !   '  '  '     '  ' '   '  ' '  '  ' '  '


 
8    



1.4.2 Lagrange-, Graßmann- und Jakobi-Identität
Im  mit dem Standard-Skalarprodukt gilt:

1.   "'   ('  '  (' '  Lagrange-Identität  


 +'  +'  Gramsche Determinante
 '  ' 



.'    .' ('  Det .' ('  =: Spatprodukt


    

   !  ' Det  '  '  für alle   


2.

3. 

4.     (' "  '   Graßmann-Identität


 

5.           
  Jacobi-Identität 
XI.1 Sesquilinearformen 123

Beweis: Zu 1:
In der Lagrange-Identität sind beide Seiten in Abhängigkeit von   4-fache Linearfor- (' "'  '
men. Sie stimmen daher überein, wenn ihre Werte für vier beliebige Basisvektoren gleich sind.

  
Letzteres ist leicht nachzurechnen für die Standard-Basis, wenn noch folgendes beachtet wird:
oder 

Für sind beide Seiten gleich null und bei Vertauschung von mit oder von

(' "'  '  


   ' 
'  '   
 mit gehen beide Seiten in ihr Negatives über. Daher genügt es zu zeigen, daß beide Seiten

 

 '  ' 
gleich sind für   
 '  '
 mit und . Nachrechnen ergibt, daß beide
Seiten gleich 1 sind für  und gleich 0 für  .
Zu 2:
Wie in VI.3 auf Seite 60.

      '     ' ) .'    .'  '    '' 


Zu 3:

 “:
wegen 2.
Det Det

 ' Det  '  '   für alle     


„ “:

 ' Det .' (


 '  .'      '  
%      ' +  
%    
 

Zu 4:
Für alle   gilt:
.'     Det .'    ' 

Det  ' .'
  wegen 2

  "' 


('  "'  (' '


 wegen 2

+'  "'  ' ('


  wegen 1

+'  " "'  +'


 
 

    ('   ' 
  

Zu 5:
    ('  "' 
  
    '  # .' #   .' ('
  (zyklisch vertauscht)

   .'   +'
    .' ('
  (nochmals zyklisch vertauscht)
Beim Aufaddieren dieser drei Gleichungen heben sich rechts die unterstrichenen und die gestri-
chelt unterstrichenen und die überhaupt nicht markierten Terme paarweise weg. Es bleibt die
Jakobi-Identität stehen.
124 XI Bilineare und damit verwandte Formen

1.4.3 Bemerkung Dies alles gilt entsprechend für einen orientierten dreidimensionalen eu-
klidischen Vektorraum. Zum Beweis muß dann eine positiv orientierte, orthonormierte Basis
herangezogen werden.

1.5 Andere Auffassung einer Sesquilinearform


1.5.1 Beschreibung durch den Dualraum

1. Halten wir bei einer Sesquilinearform die erste Variable  fest, so haben wir bezüglich der
zweiten Variablen eine semi-lineare Abbildung:
 1  '   1  ( ' 



      .)  liegt also im
1  1  '  . Der Index  soll hierbei auf semi-

(semi-linear bedeutet additiv und semi-homogen d. h.
 
semi-linearen Dualraum von 

 1 < ist linear.


linear hinweisen.

2. Die Abbildung 1  ' 


 
 

3. Die Abbildung
1       
'   ' 


1  '     (' 

ist linear. ist sogar ein kanonischer (d. h. nicht von einer Basis abhängiger) Isomorphis-

 ( '  1    1  
mus, dessen inverser der folgende Homomorphismus ist:


1 '   
  
mit  
' 

Fazit:
   auch als eine lineare Ab-
Wir können in kanonischer Weise eine Bilinearform 1 
 
bildung von nach auffassen und umgekehrt; und zwar sogar so, daß der ganze Vektorraum

der Sesquilinearformen isomorph zum Vektorraum der linearen Abbildungen von nach
ist.
Beweis:

Zu 1: Da semi-linear in der zweiten Variablen ist, ist

eine semi-lineare Abbildung.


Zu 2: Wir zeigen exemplarisch, daß  homogen ist. Für alle  und alle gilt::
        nach Definition von  
  ((''  nach

 
Definition von

     nach Definition von 



weil in der ersten Variablen homogen

    nach Definition von 



    da Abbildungen gleich, wenn alle Werte gleich
Zu 3: Wir zeigen exemplarisch, daß additiv ist. Für alle  und alle  gilt:
XI.1 Sesquilinearformen 125

           

    (' 
 Definition von

Definition von 
Definition von  

 ('    ('  

      wertweise Addition von Sesquilinearformen



   
Definition von  und 


          

wertweise Addition von linearen Abbildungen


         
Definition von   und  


    
wertweise Addition von   und   

  Definition von
Abbildungen gleich  alle Werte gleich
 

Zu 4: Um zu zeigen, daß und zueinander invers sind, ist zu beweisen: Id und

 < .


Id Wir führen exemplarisch den Beweis der zweiten Gleichung an:


 

 




 ('  
Für alle und alle
     
gilt:

 
   
  Definition von 

 (' 

Definition von
 


 Definition von

Sei 
1.5.2 Feststellung
 

die Matrix von bezüglich der Basen
   bzw. 

Sei   die zu 
duale Basis von

. 

Sei     die Matrix von  bezüglich   und  .
  

Dann gilt:  
Beweis:
  

 . Also
ist
   
 

Zur Erinnerung: Die -te Koordinate einer Linearform  bezüglich   ist 

   
 die  -te Koordinate des Bildes des -ten Basisvektors,    , d. h.   '
 


1.5.3 Beispiel: Das zweite Differential und die Hessesche Form

1. Sei    
eine offene Menge und  eine differenzierbare Abbildung in einen 1  

endlich-dimensionalen reellen Vektorraum . Dann ist das Differential an der Stelle 

 4 1     4
4 1
    '  '  4
eine lineare Abbildung und das Differential von eine Abbildung

2. Für   , d. h. )1
   erhalten wir als Differential eine Abbildung in den Dualraum:
4 1
    '     '  4 
126 XI Bilineare und damit verwandte Formen


4
3. Daß wie in Punkt 2 zweimal differenzierbar ist, bedeutet nach Definition der zweiten
Ableitung, daß die Abbildung in Punkt 2 differenzierbar ist. Im Hinblick auf Punkt 1 ist
jetzt

 
und es folgt:
48  1 4 4   1      

4 8     '           '  


Das zweite Differential von einer zweimal differenzierbaren Abbildung  1  


kann


also aufgefaßt werden als eine Bilinearform auf . Diese Bilinearform heißt die Hesse-
sche Form von an der Stelle  .

1.6 Symmetrische und hermitesche Formen


1.6.1 Definition
Sei

. Eine Sesquilinearform auf heißt semi-symmetrisch, wenn eine der folgenden
untereinander äquivalenten Bedingungen erfüllt ist:
 +'   '  


1.

2. Die Matrix  von bezüglich irgendeiner Basis ist semi-symmetrisch, d. h.:  


5'

Im Falle von Id ist eine semi-symmetrische Sesquilinearform nichts anderes als eine sym-
metrische Bilinearform und im Falle  wird eine semi-symmetrische Sesquiline-
arform eine hermitesche Form genannt (nach dem französischen Mathematiker Charles Hermite,
1822-1901)

 
  '
 
'   
 d. h.  
Beweis der Äquivalenzen:
1.
 2.:
   
    
2. 1.:   
  .8 und 
  .8 seien die Koordinaten von  bzw. von . Dann
 ..  ..
  
folgt, wenn  das Matrizenprodukt bezeichnet:
 ('        

       




    

     
 ' 
1.6.2 Diagonalisierung

(a) Sei symmetrische Bilinearform auf reellem -dimensionalem Vektorraum oder hermite-
sche Form auf komplexem -dimensionalem Vektorraum.
XI.1 Sesquilinearformen 127

 
  


Dann hat die Matrix von bezüglich einer geeigneten Basis eine Diagonalgestalt wie

 ('   8  &&&  8  8  &&   8


unten mit -mal 1 und -mal in der Hauptdiagonalen und  = Rg( ).


   


(b) Sei symmetrische Bilinearform auf komplexem -dimensionalem Vektorraum.
Dann hat die Matrix  von bezüglich einer geeigneten Basis eine Diagonalgestalt wie
unten mit -mal 1 in der Hauptdiagonalen und = Rg(  ).
 ('   8  &&&  8

 

Die geometrische Bedeutung von wird in 1.7.1 geklärt und die von und
werden später 
behandelt (s. 3.2.6).
   
   
 ..
.   ..
. 
   
 -1  
..
. 
 ..   .. 
(a)
 .  (b)

.

 -1 

 

..
. 
 ..
. 


Beweis mit Hilfe elementarer Umformungen:


 


 

Wir betrachten Elementarmatrizen. In stehe das in der -ten Zeile und -ten Spalte und es
ist . Bei steht das dann in der -ten Zeile und -ten Spalte.
Bei  8 sei  und stehe an der -ten Stelle in der Hauptdiagonalen.
 
 ..  ..
 .






 .
 
 


.. .. .. ..
. .

.


.

 ..
.
 ..
.

   
 

..
.  ..
.

8  

8 

 ..
.
 ..
.
128 XI Bilineare und damit verwandte Formen

Es gilt für eine  -Matrix  :


Matrizenmultiplikation  liefert für  die elementare Umformung:     

    liefert        

Matrizenmultiplikation  8   liefert:   
   8 liefert     
Da Elementarmatrizen regulär sind, können wir sie als Matrizen  von Basistransformationen
  
verwenden.


Wegen der Transformationsformel

    

transformiert sich die Matrix einer Sesquilinearform so, daß eine elementaren Zeilenumfor-

 
mung und anschließend die entsprechende Spaltenumformung durchzuführen ist, in welcher der
Koeffizient noch durch zu ersetzen ist.
Die elementaren Umformungen wenden wir nun so an:
    
'      
1. Ist , so können wir, falls ein
Umformungen vom Typ I erreichen, daß
ist für ein
  
mit
wird; falls ein
, durch elementare
ist, geht dies mit
Zeilen- und entsprechenden Spalten-Vertauschungen (elementare Umformungen vom Typ

1  
III). (Ersteres geht übrigens nicht bei beliebigem Körper. Es muß ein Körper sein, in dem
ist.)

   aus, wobei jeweils auch die oben beschriebenen Spaltenumformungen vorgenommen


2. Wieder durch elementare Umformungen vom Typ I räumen wir die erste Spalte unterhalb

werden. Wegen der Semisymmetrie wird dabei auch die erste Zeile rechts von   ausge-


räumt!
3. Falls außer   noch weitere Matrixelemente vorhanden sind, können wir durch ele-
mentare Umformungen vom Typ I oder III erreichen, daß 8 8
 wird. Anschließend

räumen wir wieder unterhalb und rechts von 8 8 aus. Indem wir so fortfahren, erhalten wir
schließlich eine Diagonalgestalt, in der die ersten Elemente in der Hauptdiagonalen


 
 , woraus für  folgt
sind.
4. Im Falle a) gilt für die Matrix der Sesquilinearform 

      , d. h.    ist (auch für  und


 ) reell. Multiplikation der -ten Zeile mit
      und anschließende Multiplikation der -ten Spalte mit   für  ''


 in der Hauptdiagonalen. Durch Vertauschen von Basisvektoren können wir diese




 
noch so anordnen, daß zuerst alle  und dann die  kommen. Die Anzahl der Elemente
liefert

in der Hauptdiagonalen muß der Rang von  sein, da elementare Umformungen den
Rang nicht ändern.
XI.1 Sesquilinearformen 129

5. Im Falle b) ist
   

 , liefert keine Einschränkung für die       .
Id . Symmetrie,
Wir setzen für ''  1    eine der beiden komplexen Wurzeln aus  .


Multiplikation der -ten Zeile mit  und der -ten Spalte mit  liefert den Koeffizienten 1
in der Hauptdiagonalen für
 ' ' . 

1.6.3 Beispiel:

 5' kK

     8  




 
  
8




    / 8     8


    *     
 
8 8



    8    8 
 


   
    '    
 
8 8  '  8 

 8 8 8
 


1.6.4 Beispiel: Eine hermitesche Form mit folgender Matrix, in der alle Elemente in der

  
Hauptdiagonalen 0 sind, ist zu diagonalisieren:

   -     '    

   8
            ' 
8
  
     
    8 8 
130 XI Bilineare und damit verwandte Formen

     

     
8  8     


       

1.7 Nicht ausgeartete Sesquilinearform


1.7.1 Definition und Satz
Für eine Sesquilinearform
1  
 gilt:

1.  1
  ('  für alle # ist ein -Untervektorraum, der Ausar-
 
tungsraum von bezüglich der ersten Variablen. (Bezüglich der zweiten Variablen analoge


Definition).
2.  Kern 
3. Die geometrische Interpretation von  = Rg( ) lautet (vgl. 1.6.2): 
  Dim  
 ist also unabhängig von den Basen, bezüglich derer  gebildet war.

Beweis:

1. Die 1. Behauptung folgt aus der zweiten.


2.

  !  ( '  !
  
!


!
   

!
 Kern 
3. Die Rangformel für 1
   liefert: Dim  Dim Kern     Rang  
 

Rang  Rang   , weil  die Matrix von ist.


Rang  
 Rang  

Dim     Dim  


oder  

 
1.7.2 Beispiel 


..

mit -mal  die Matrix einer Sesquilinearform
.
Ist   . 

 ..
 1   bezüglich der Basis  ''  , so ist    ' '  .

 

XI.2 Sesquilinearform und geometrische Begriffe 131

1.7.3 Definition
Sei Dim

Dim  
einer nicht ausgearteten Sesquilinearform

. Eine Sesquilinearform heißt nicht ausgeartet, falls eine der folgenden
untereinander äquivalenten Bedingungen erfüllt ist:
 .

1. Der Ausartungsraum bezüglich der ersten Variablen ist der Nullraum

2. Fassen wir als lineare Abbildung



auf, so ist  1   1  
ein Isomorphis-


mus.

3. Die Matrix  von ist regulär.

4. Der Ausartungsraum bezüglich der zweiten Variablen ist der Nullraum


.


 !
Beweis der Äquivalenzen:
1. ! 3.: Dim   !  !  ist regulär.
4. ! 3.: Analog
2. ! 3.: Der Leser möge selbst das Argument angeben.

XI.2 Sesquilinearform und geometrische Begriffe


In diesem Abschnitt betrachten wir endlich dimensionale Vektorräume über einem festen Skala-
renkörper  mit einer festen Involution .

2.1 Adjungierte Abbildung


 1 
2.1.1 Definition und Existenz
   . Sei

Sei   eine nicht ausgeartete Sesquilinearform
 End . Dann gibt es genau eine lineare Abbildung

und Dim
mit: 1 
Dim

   '   +'  




heißt die zu adjungierte (genauer rechts-adjungierte) lineare Abbildung.

2.1.2 Beispiel: Induzierte Abbildung


Für die Bilinearform im 1. Beispiel von 1.1.2 ,  
 '   , ist die (Links-) Adjungierte

 ('   8  &&& 8  8   && $ 8


die induzierte Abbildung von Abschnitt V. 5.4 auf Seite 50.
   

2.2 Geometrischer Vektorraum



 1  '  , sei. ein Vektorraum
2.2.1 Definition 
Ein geometrischer Vektorraum, zusammen mit einer nicht
ausgearteten Sesquilinearform 
132 XI Bilineare und damit verwandte Formen

2.2.2 Beispiel
Der  
mit seinem kanonischen Skalarprodukt und   ist das Standardbeispiel eines geo-
metrischen Vektorraumes.

2.3 Isometrien
2.3.1 Beispiel: Isometrien des 

Eine lineare Abbildung des , die das kanonische Skalarprodukt erhält, für die also gilt
'  +'
 (' 
wird eine Isometrie genannt. Diese Bezeichnung kommt daher, daß, wenn das Skalarprodukt

   '  (' 
erhalten bleibt, metrische Größen wie Länge eines Vektors oder Winkel zwischen zwei Vektoren
   
erhalten bleiben, d. h., daß ,  gilt. In Verallgemeinerung
hiervon wird definiert:

'  1 
2.3.2 Definition einer Isometrie



' 
Sei 
ein geometrischer Vektorraum. Eine lineare Abbildung heißt eine

  '    (' 
Isometrie von , falls die Form invariant läßt, d. h., wenn gilt:
 +' 


2.3.3 Satz über die Inverse und die Matrix einer Isometrie
Für einen Endomorphismus eines geometrischen Vektorraumes sind äquivalent:

1. ist eine Isometrie von .


Id d. h. ist invertierbar und   .
 


2.
3. Sei  die Matrix von bezüglich einer Basis   von und  die Matrix von bezüglich


  , dann gilt:
  
'   gilt:
2.3.4 Allgemeine und Spezielle Isometrie-Gruppe Für einen geometrischen Vektor-

raum

1. Isometrie von
   Isometrie von
2. ('  Isometrien von
 5 Isometrie von

 1 1  Isometrie von 9'


3. Die Isometrien von bilden eine Gruppe, die (Allgemeine) Isometriegruppe von .
  

4. Sei   oder  . Für jede Isometrie von gilt:  Det    .


 oder  bilden die  Isometrien von mit Det( ) = 1 eine Gruppe, die
Spezielle Isometriegruppe 
5. Für 

von .
XI.3 Semi-quadratische Formen 133

2.4 Orthogonalität

' 
2.4.1 Definition
Sei ein geometrischer Vektorraum, bei dem halb symmetrisch oder halb schiefsymme-

 heißt orthogonal zu  1 !   1 ! ('  
trisch ist. Dann wird in Verallgemeinerung des Orthogonalitätsbegriffes im definiert:


Wegen der Voraussetzung an ist dann auch senkrecht auf  , so daß wir sagen können,  und
sind orthogonal aufeinander.

2.4.2 Total senkrechter Untervektorraum



 1  
Sei wie in Definition 2.4.1, ein Untervektorraum von . Dann ist
  
  


ein Untervektorraum. Er heißt der zu total senkrechte Untervektorraum von ; es gilt:

Dim( ) = Dim( ) Dim( ). 
' 
2.4.3

Orthogonalbasis halbsymmetrischer Sesquilinearformen

' 8' ' 


Sei ein geometrischer Vektorraum mit halb symmetrischem . Dann existiert eine Ortho-
gonalbasis 
  '
 '   '' mit  
von , d. h. eine mit:

  '   gilt dann:


Für   1

 ('          (' ' wobei       und     


     

 


Die Matrix von hat dann bezüglich  ' 8 ' '  Diagonalgestalt mit den   ' ' 
 

als Dia-
gonalelementen.

XI.3 Semi-quadratische Formen


In diesem Abschnitt soll im Körper  gelten   ' d. h.  . Wir betrachten die zwei Fälle:
[1]  beliebig, Id [2]  5' komplexe Konjugation
Im folgenden werden wir uns mit den Ziffern [1] und [2] in eckigen Klammern stets auf diese
beiden Fälle beziehen.

3.1 Semi-symmetrische und zugehörige semi-quadratische Form


3.1.1 Reellifizierung
 
  
Wir benötigen im folgenden, daß ein -Vektorraum auch als -Vektorraum aufgefaßt wer-
den kann. Wir haben nämlich wegen erst recht eine Skalarenmultiplikation mit reellen
Zahlen. Beschränken wir die Skalarenmultiplikation auf reelle Zahlen, so wird aus ein reeller
Vektorraum  . Er heißt die Reellifizierung von .
134 XI Bilineare und damit verwandte Formen

3.1.2 Definitionen

1. Wir wiederholen (s. 1.6.1):



 '    ( ' 

Im Falle [1] heißt symmetrisch wenn gilt:

Im Falle [2] heißt hermitesch, wenn gilt: "'  
 + '  , wobei der Querstrich die 


Bildung des konjugiert Komplexen bezeichnet.

Beide Fälle fassen wir zusammen als semi-symmetrisch: "'  
 ('  , wobei der 
Querstrich die Anwendung der Involution bezeichnet.

2. Analog heißt eine Sesquilinearform auf


 semi-schiefsymmetrisch, falls gilt:
 '     +'  

Dies wird für [1] auch schiefsymmetrisch und für [2] schiefhermitesch genannt.

3. Sei eine semi-symmetrische Sesquilinearform auf . Dann heißt

;1  '   1  ( '   
  

die zu gehörige semi-quadratische Form, für [1] auch einfach quadratische Form.

3.1.3 Eigenschaften der zugehörigen semi-quadratischen Form

1.     
Das ist im Falle [1] die leere Bedingung, im Falle [2] bedeutet es, daß die Werte von  in
 liegen.

2.          '  

 8     für  
8    für  
3. Durch die folgende Festsetzung ist eine symmetrische Bilinearform definiert:

('  1            

1   für [1] bzw. 1       für [2].

4.   für [1]  Re   für [2]   ('  


Dabei ist der Realteil von wertweise definiert, d. h. Re   +'  1  Re 
XI.3 Semi-quadratische Formen 135

 
3.1.4 Definition einer semi-quadratischen Form

1 
Bei beliebigem Körper  mit Involution (Es darf hier auch sein.) heißt eine Abbildung
  mit den ersten drei Eigenschaften von 3.1.3 eine semi-quadratische Form auf , für
[1] auch einfach quadratische Form .
Beweis der Eigenschaften:

1.   < ( '     ('     Bei 1) ist  mit  vertauscht.




2.  (    ('       ('       

('         
<   "'     ('     ' 
4.    

< ('     "'     ('    "'    ('     ' 




 ('    ('    ('  im Falle [1], d. h.  


  

  

 Re  ('    Re   ('  d. h.  Re  
und im Falle [2]:
 

3. Für [1] folgt die Behauptung aus Punkt 4, weil das zweifache einer Bilinearform wieder eine
Bilinearform ist.

Re
 1 
   
Für [2] folgt es ebenfalls aus Punkt 4, wenn wir noch beachten, daß
eine symmetrische Bilinearform ist. Letzteres kann direkt nachge-
rechnet werden.

3.2 Definitheit und Index

'  '  ' 


3.2.1 Voraussetzung für den Rest dieses Abschnittes
Sei  entweder Id  oder 
kK .

3.2.2 Definition der positiven Definitheit und verwandter Begriffe


Eine semi-quadratische Form heißt
positiv definit 1!     mit 
positiv semidefinit 1!    

negativ definit 1!     mit 


indefinit 1!  mit   und
 mit    .
Eine semi-symmetrische Sesquilinearform hat eine der genannten Definitheitseigenschaften per
Definition, wenn ihre zugehörige semi-quadratische Form sie besitzt. Das ist in Übereinstim-
mung mit unserer früheren Definition positiver Definitheit.
136 XI Bilineare und damit verwandte Formen

3.2.3 Feststellung für einen Untervektorraum



Ist ein Untervektorraum von und  eine semi-quadratische Form auf , dann ist die Ein-

schränkung von  auf ebenfalls positiv (bzw. negativ bzw. positiv semi- bzw. negativ semi-)
definit, wenn  es ist.

3.2.4 Kriterium für positive Definitheit


Eine Matrix, die als Matrix einer positiv definiten semi-symmetrischen Sesquilinearform auf-
taucht, heißt positiv definit. Es erhebt sich die Frage, wie einer Matrix die positive Definitheit an-

  ' '   ' ' 


gesehen werden kann, ohne sich auf die Sesquilinearform zu beziehen. Dazu definieren wir die
   

Hauptuntermatrizen und die Hauptunterdeterminanten einer -

 
.    .          
Matrix :

  1   ..   1 Det     ... .. 
     
..
      .  
 
In der Literatur werden die   auch Hauptminoren genannt. Für eine semi-symmetrische Ses-

symmetrische Sesquilinearform mit Matrix  bezüglich irgendeiner Basis
quilinearform sind die Hauptunterdeterminanten auch im komplexen Falle reell. Eine semi-

 ''   ist genau dann positiv definit, wenn alle Hauptunterdeterminanten von  positiv
sind.
Beweis:

  ist die Matrix von     , der auf   1   ''   eingeschränkten Form.      ist
eine semi-symmetrische Sesquilinearform auf   , folglich gilt:     Det  
1.

Det    Det    Det      Det   reell.




2. Feststellung: Ist   
 eine Basistransformation und sind  ,  die Matrizen von 
bezüglich
 bzw. bezüglich   , dann gilt:
Det    ! Det   
Dies folgt aus der Transformationsformel (s. 1.3.3):
    
Det  Det  Det  Det  
Det   Det   Det  
   
Det
  



 
Daraus folgt die Behauptung.

  
 
3. Sei positiv definit. Dann hat als Diagonalform die Matrix (Einheitsmatrix).
Ihre Determinante ist 1 also
  
. Nach obiger Feststellung gilt dann Det
 
bezüglich

    ' '
jeder beliebigen Basis. Da die Matrix von ist und auch positiv definit ist, folgt
für alle  .
XI.3 Semi-quadratische Formen 137

  
. Wir zeigen durch Induktion, daß   positiv definit ist für
 ' '
4. Seien umgekehrt alle
 .

Induktionsbeginn:   hat die Matrix  
    .   bedeutet   " , folglich ist

   
                 mit  ..
Induktionsannahme: Sei  positiv definit für ein
 .
Induktionsschluß: Wir wählen eine Orthonormalbasis von  , ergänzen Sie zu einer Basis
von   . Dann hat 
   eine Matrix der folgenden Form 

   
   
 
  .. 
 ... ' welche durch Ausräumen übergeht in:   .
.. .. ..
. . .

 && &&  && 4
4 <
Bei diesem Ausräumen ändert sich die Determinante wegen der Scherungsinvarianz einer De-
  % 
terminantenform nicht. Da die letze Matrix positive Determinante hat, folgt

  .
und damit ist


3.2.5 Definition und Satz vom Rang
 aus dem Diagonalisierungssatz 1.6.2 die maximale Dimension eines
Sei eine semi-symmetrische Sesquilinearform auf und die zugehörige quadratische Form, 
dann ist die Zahl der 

Untervektorraumes  , so daß die Einschränkung von auf  nicht ausgeartet ist. heißt der
Rang von ,   1 , oder der Rang von , Rang  1
  . Ist  die Matrix von  bezüglich 

irgendeiner Basis, dann ist Rg(  ) = Rg( ).


 
 


Beweis:  1 Max Dim    Untervektorraum von mit  nicht ausgeartet 

   1      1     ' .'    .'  ' .'        

a) 



Sei  ' ' '  ' '   eine Basis, 


bezüglich der die Matrix  wie in 1.6.2 (a) hat.
Sei  1   '  ' . Dann hat  bezüglich der Basis  '  '  von  die reguläre



Matrix
  


..
 .
   .

 ..

Also ist
  nicht ausgeartet. Dim
    


b)  

 
Sei  irgendein Untervektorraum mit nicht ausgeartet. Dann gilt:
138 XI Bilineare und damit verwandte Formen

  ''  

  
Denn für     ''     und  folgt:
 ('   
   ' 

   
 


 
  
  
      ' 
 
 

Das bedeutet,  Ausartungsraum von  . Dies ist aber der Nullraum, da  nicht
ausgeartet ist. Also muß  gelten. Wegen   '       ist die Summe
'
  ' '     eine direkte Summe und es folgt:



  ' '       
Dim   '  '   Dim   Dim 



  Dim  



Dim 







a) und b)
  

c) Die Gleichung Rang   Rang  


 folgt
1. daraus, daß  durch elementare Umformungen in die Diagonalmatrix
  

 
..
.

 .


  ..

 
.
 ..

mit  -mal in der Hauptdiagonalen übergeführt werden kann,
2. daraus, daß sich bei elementaren Umformungen der Rang nicht ändert und
3. Rang   ist.


3.2.6 Sylvesterscher Trägheitssatz und Trägheitsindex
Sei eine semi-symmetrische Sesquilinearform auf dem Vektorraum und  die zugehörige

 1 Max Dim    Untervektorraum von mit    positiv definit


semi-quadratische Form. Sei:

  1 Max Dim    Untervektorraum von  mit  negativ definit




:= Anzahl der +1 in einer Diagonalisierung von nach Abschnitt 1.6.2:


XI.3 Semi-quadratische Formen 139

  

 
..
.




 

..
.


 ..

.

:= Anzahl der -1 in  .
Dann gilt:  4
    

Die Zahlen und


sind daher unabhängig von der Basis, bezüglich der die Matrix von
Diagonalgestalt  besitzt.
die


heißt der Sylvestersche Trägheitsindex 

heißt die Signatur von  bzw. von .
oder kurz der Index von bzw. von . 


Beweis:

a)  


 ''   eine Basis, bezüglich der eine Diagonalgestalt der Form 
 1   ''  Dann ist    positiv definit.
Sei hat.

 Dim   

b) 


Sei  ein beliebiger Untervektorraum mit  positiv definit. Dann gilt:
1   ' '      ; denn aus 

  ' '   negativ semi-definit und


 






ist positiv definit folgt,
ist sowohl negativ semi-definit als auch positiv definit. Das geht nur, wenn
 
ist.
  ' '     ist eine direkte Summe.


  ' '       
Dim   ''   Dim   Dim 

 

  Dim  



Dim  

 

Für
wird analog geschlossen.
140 XI Bilineare und damit verwandte Formen

3.2.7 Anwendung in der Analysis


Positive und negative Definitheit und Indefinitheit werden in der Analysis benötigt bei der Un-
tersuchung von Maxima und Minima zweimal stetig differenzierbarer Funktionen von mehreren
Variablen. Der Index spielt eine wichtige Rolle bei der Untersuchung von sogenannten kritischen
Punkten, einer Verallgemeinerung von Extremalpunkten. Die zu untersuchende Bilinearform ist
die Hessesche Form (s. 1.5.2).
XII.2 Zur Winkel- und Volumenmessung 141

XII Vektorräume mit Skalarprodukt 2

In diesem Abschnitt ist  '   ' Id   oder ' 


kK (kK = komplexe Konjugation)
und, wenn nichts anderes gesagt, ein -dimensionaler Vektorraum über  .
Die beiden wichtigsten Beispiele geometrischer Vektorräume haben wir bereits vorneweg in Ka-
pitel VIII auf Seite 69 behandelt, nämlich die Vektorräume mit Skalarprodukt d. h. im reellen
Falle die euklidischen Vektorräume und im komplexen Falle die unitären Vektorräume. Hier er-
gänzen wir die Winkel- und Volumenmessung, beschreiben die allgemeinste unitäre und orthogo-
nale Abbildung und leiten aus dem Satz über die Hauptachsentransformation selbstadjungierter
Abbildungen die Hauptachsentransformation semi-symmetrischer Sesquilinearformen ab.

XII.1 Bezug zu Sesquilinearformen

1.1 Charakterisierung eines Skalarproduktes


Nach der Terminologie aus Kapitel XI auf Seite 118 ist ein Skalarprodukt dadurch charakterisiert,
daß es eine nicht ausgeartete, semi-symmetrische Sesquilinearform mit Index 0 ist. Statt Index
= 0 können wir äquivalenterweise auch positive Definitheit verlangen.


1.2 Der Isomorphismus mit

Nach XI.1.5.1 bestimmt das Skalarprodukt einen Isomorphismus von mit dem semi-linearen


 1   '      ('  ('


Dualraum :

  oder
 1  
(' Skalarprodukt-Bildung mit 
Ist  ''   eine orthonormierte Basis, so ist der Isomorphismus mit     , wobei
 
 es gilt:
 ' '   die zu  ''    duale Basis ist. Denn  

    
   ' 

 




13
A. Riede: Lineare Algebra 2, SS 00
142 XII Vektorräume mit Skalarprodukt 2

XII.2 Zur Winkel- und Volumenmessung

2.1 Orientierter Winkel

('  (' (' 


In einem zweidimensionalen orientierten euklidischen Vektorraum
  '  definiert
kann der Winkel

 
 zwischen einem Paar  von Vektoren im Intervall

    und   +'  werden durch:

   
 Det 
   


Dabei sei Det diejenige Determinantenfunktion von , die für eine positiv orientierte und or-
thonormierte Basis den Wert 1 hat. Dieser Winkel heißt der orientierte Winkel zwischen und
.

 ' 8 ' 8
Diese Definition ist konform mit den Formeln in der euklidischen Anschauungsebene für den
bzw.   kartesische Koordinaten der von
 
Flächeninhalt eines Parallelogramms: Sind

('
null verschiedenen Vektoren bzw. und der Winkel zwischen und , dann hatten wir aus
der Anschauung für  im 1. Quadranten die folgenden Formeln gefunden:
   8 $ 8          Daraus folgt:
          8     Det  + '  
  8
   


 
 '    eindeutig festgelegt. Zu zeigen
Also ist die obige Definition von konform mit der anschaulichen euklidischen Vorstellung.
Durch Angabe von 
 und  
 Det  ( '     , damit die Definition von   sinnvoll ist.
ist im Intervall

  
 
bleibt:

8   8

Beweis: Sei  '  8  orthonormiert,    '


 
    Dann folgt:
Det ('     8  8    Det     '  8   nach X. 4.1 auf Seite 109

Det (' 
  8  8  88      8    8   88  8
 8  88  8  88  $ 8  8  88  88        8  8

 8 8    .   8  8  8
Det ('   8  +
 ' 8   Det ('   
8 8
   

 8 8

     


 8       
  
 

2.2 Bemerkung

Es kommt auf die Reihenfolge von ('  an, da es bei der Determinante auf die Reihenfolge

'      (' 
ankommt.

XII.2 Zur Winkel- und Volumenmessung 143

(In höheren Dimensionen kann kein orientierter Winkel kanonisch definiert werden! Auch kann
nicht für alle zweidimensionalen Untervektorräume eines höher dimensionalen Vektorraumes
„kanonisch“ eine Orientierung gewählt werden !)

2.3 Das orthogonale Komplement


2.3.1 Satz und Definition
Für einen Vektorraum mit Skalarprodukt ist der zu einem Untervektorraum total senkrechte 
Untervektorraum 
ein algebraisches Komplement von . Daher wird auch orthogonales  
Komplement von genannt.
      
       
Beweis: Nach früherem

ist schon die Dim komplementär zur Dim d. h. Dim
Dim Dim . Es ist nur noch zu zeigen, daß ist. Dies folgt umittelbar
aus der positiven Definitheit:
Sei    , dann ist   und   , folglich gilt ('  , also 
 
2.3.2 Definition des Lotes und der orthogonalen Projektion
Sei ein Untervektorraum des euklidischen Raumes und . Dann kann eindeutig
dargestellt werden in der Form:

 ; '
  %'  
Der Vektor heißt das Lot von  auf  und  die orthogonale Projektion von  auf  . Die

 /'  
Abbildung


heißt orthogonale Projektion von auf  . Ist   ''   eine Basis von  , so sind  und
gegeben durch:




  

'   

  


Dabei sind die


die eindeutigen Lösungen des folgenden linearen Gleichungsystems:



'    ( '   '  ' '

  

Beweis:   ! '    ' ' 

! ('    
  

'   ! 
  

'   ('  

2.4 Volumen eines Parallelflachs


144 XII Vektorräume mit Skalarprodukt 2


  '' 

2.4.1 Definition als Grundfläche mal Höhe


sei ein euklidischer Vektorraum. linear unabhängige Vektoren  spannen ein -
dimensionales Parallelflach   auf:

 1   

    '   '   


 
 


Wir definieren induktiv den


-dimensionalen Inhalt (Volumen):
    1      1            

Dabei ist 
  das von   ' '    aufgespannte Parallelflach, und  die Länge des Lotes von
 auf die lineare Hülle von   ''    .  wird auch die Höhe des Parallelflachs  bezüglich 
 

     die Grundfläche bezüglich  . Diese Definition entspricht der Erklärung


   

genannt und   

sich die Frage, ob die Definition nicht davon abhängt, welche



  -dimensionale Seite als
des Volumens als Grundfläche mal Höhe, wie es in der Elementargeometrie üblich ist. Hier erhebt

das Volumen nicht von der Reihenfolge der Vektoren   ' '  abhängt. Dies ist der Fall, wenn
Grundfläche gewählt wird, und wie das gegebenenfalls zu beweisen ist; anders ausgedrückt, ob


das Volumen wie folgt durch eine Determinantenform definiert wird. Wir werden zeigen, daß
beide Definitionen äquivalent sind. Damit ist die aufgetrete Frage beantwortet: Die Definition
des Volumens ist unabhängig von der Reihenfolge der Vektoren.

2.4.2 Volumenmessung durch eine Determinantenform


In einem euklidischen Vektorraum ist eine Determinantenform Det bis auf das Vorzeichen ein-
deutig dadurch festgelegt, daß sie auf einer (und damit auch auf jeder anderen! s. u.) orthonor-
mierten Basis den Betrag 1 hat. Für eine solche Determinantenform gilt:

Det   ''       


Beweis: Im folgenden bezeichnet Det, ohne, daß dies in der Bezeichnung zum Ausdruck ge-

1    ' '       ' /'  


bracht wird, eine Determinantenform auf verschiedenen euklidischen Vektorräumen, die auf or-
thonormierten Basen den Betrag 1 hat. Sei   und     .
Aus der Scherungsinvarianz der Determinante folgt:

Det   ' '     Det   ' '    '  
 

'   ''     ist eine Basis von    ' '   , die wir mit dem Schmidtschen Orthonorma-
lisierungsverfahren orthonormalisieren zu   ''  . haben wir deswegen als ersten Vektor
 

genommen, damit wir nach dem ersten Schritt des Schmidtschen Verfahrens erhalten: 


und  .
 

  bezeichne die Koordinaten von      ' '   bezüglich   '  '   .
 bezeichne 
die Koordinaten von    '  '   bezüglich der Basis  8 ' '  . Dann folgt:
 

 
 



 

Det   ' '  
   Det 
   ' '
    ' .. 

 

 
.
XII.3 Beziehungen zwischen Vektorräumen über  und  145

  Det
   ' '

      nach dem Entwicklungssatz
 Det   ' '           
 

XII.3 Beziehungen zwischen Vektorräumen über und 


  

Oft ist es nützlich von einem -Vektorraum zu einem -Vektorraum und von einem -


Endomorphismus zu einem -Endomorphismus überzugehen. Es kommt einem dann zu

gute, daß algebraisch abgeschlossen ist. Z. B. hat stets einen Eigenwert und dazu einen Ei-


genvektor, so daß über größere Chancen bestehen, daß ein Endomorphismus diagonalisierbar
ist. Anschließend ergeben sich aus den Ergebnissen über Rückschlüsse auf . (S. IX.3 auf
Seite 83) 10.2.1.2 Zuerst betrachten wir noch einmal den zu einem komplexen Vektorraum
gehörigen reellen Vektorraum  , den wir schon in Abschnitt XI.3.1.1 kennengelernt hatten. Er
entsteht aus einfach durch Einschränkung der Skalarenmultiplikation auf reelle Skalare.

3.1 Satz über Basis und Dimension von 

 ' '  

 ' '  '  ' '  
Ist eine Basis des komplexen Vektorraumes und die imaginäre Einheit,
dann ist   eine Basis des reellen Vektorraumes  , insbesondere gilt:
Dim(  )=2 Dim( )

3.2 Definition und Satz über die komplexe Erweiterung

Sei ein reeller -dimensionaler Vektorraum. Dann wird die komplexe Erweiterung oder Kom-
plexifizierung  von definiert durch:

1  ('  von
('
1.  als Mengen. Die Vektoren von  sind also die geordneten Paare 
Vektoren  von .

2. Die Summe von ('  und  '  wird mit bezeichnet und definiert durch:
   

+ '   '  1    '   , wobei auf der rechten Seite beide Male die Addition
  

   mit ('  wird mit


in gemeint ist.

3. Die Skalarenmultiplikation in des Skalars    




 ('  1 "&"   ' "   &  . Dabei bezeichnen die Punkte rechts jeweils die
bezeichnet und definiert durch:



Skalarenmultiplikation in .

Hierdurch ist ein komplexer Vektorraum  erklärt. Er heißt die komplexe Erweiterung von .
Der Nullvektor ist natürlich   

'  . Wir beweisen exemplarisch das Assoziative Ge-




setz der Skalarenmultiplikation:


146 XII Vektorräume mit Skalarprodukt 2

 


+'      ('  , wobei      und      







Linke Seite:   (
 '     " '    
                '    $             

  

         '             


Rechte Seite ergibt das Gleiche:    (
 '          +' 
 9            '              
 
 

3.3 Weitere Feststellungen über die komplexe Erweiterung

 ('   , so wie auch



  ' der .'  -Ebene identifiziert
1. Sei der Nullvektor von . Wir identifizieren mit in der Anschau-


ungsebene ein Punkt der -Achse mit dem Punkt
wird. Dann ist  und es gilt:

  gilt:  &     ; denn:



    9 ( '  &"$  ' "  &   &+'   &
a)


einer reellen Zahl  mit einem Vektor 


 

D. h.: Die Skalarenmultiplikation von 




von stimmt mit der Skalarenmultiplikation in überein.


b) +' gilt:  $
     ; denn: 

  ' ('  '  

Wegen dieser zwei Punkte bezeichnen wir auch mit dem gewöhnlichen Punkt, den


wir wie üblich je nach Zweckmäßigkeit auch weglassen und mit dem gewöhnlichen

Plus-Zeichen. Diese beiden vorstehenden Punkte bedeuten, daß reeller Untervek-
torraum von   ist.

 '   , denn:
  -   ('  &"   '     '  
2.


 

3. ('  gilt:   ; denn:


   

 ('  ('   '     

Deshalb heißt  der Realteil von ,  Re  , und der Imaginärteil von , Im  .    

4. 1   heißt der zu konjugiert komplexe Vektor.


 

'  linear unabhängig ! Re  ' Im   linear unabhängig; denn sie gehen


   

       
durch Multiplikation mit einer regulären Matrix auseinander hervor:
 
  Re 
 
        Im  
 

XII.3 Beziehungen zwischen Vektorräumen über  und  147

5.  ' '    Basis von  über 


 
  ' '   Basis von  
über . Insbesondere
gilt Dim Dim .
Beweis:
a)  ''   Erzeugendensystem von  :
Sei  ('  beliebig.  

 

 

 
 '
(' 


   '
  für gewisse 
 und

 Erzeugendensystem von
  '


da



   '
 




   



 



   
 






  
b) Lineare Unabhängigkeit über  von  ''   :
  



  
 .
Sei

  ,

 

 


 



 

  '



  
   

   

   '
 





 
 '
! 
  

und 
  



und 
für alle   '  ' , da  ' '   über  linear unabhängig.
3.4 Die komplexe Erweiterung einer linearen Abbildung

 End  und  ''   eine Basis von . Dann ist die komplexe Erweiterung


von definiert durch:
Sei 
End 

  1      
 

Es gilt:
148 XII Vektorräume mit Skalarprodukt 2

1.     für alle reellen Vektoren  .




2.   bezüglich  ' '  


 

3. Insbesondere ist  bezüglich  ' '  reell und für die charakteristischen Polynome
gilt     .
 



4. Jeder Eigenwert von  ist entweder reell oder mit ist auch ein Eigenwert. Ist Eigen-
vektor von  zum nicht reellen Eigenwert dann ist Eigenvektor von  zum Eigenwert
.

   
  

und ein nicht reeller Eigenwert von , dann gilt
Beweis zu 4.:

Sei  




   . Bilden wir auf beiden Seiten das konjugiert Komplexe dann erhalten wir, da die

reell sind, 
  

. Also ist auch ein Eigenwert.
Ist   ein Eigenvektor zu dem nicht reellen Eigenwert , dann gilt
     . Bildung des konjugiert Komplexen liefert:


    
    
   
  nach Definition von

     nach Definition von




 


 nach 

3.5 Die komplexe Erweiterung eines Skalarproduktes

' ein Skalarprodukt auf , dann ist die komplexe Erweiterung ' so definiert, daß für
 '*   gilt:
Sei 
alle 

 '   #1 ('   '  ('  '    

' 1    ist das komplexes Skalarprodukt auf , dessen Einschränkung auf 


   
das ursprüngliche Skalarprodukt auf wieder ergibt.
XII.4 Normalform unitärer und orthogonaler Abbildungen 149

3.6 Bemerkung

' '
Wir hätten in Abschnitt IX.3 auf Seite 83 über die Hauptachsentransformation selbstadjungierter
Abbildungen auch diese Komplexifizierung   und  verwenden können. Einen Vorteil
hätte es uns nicht gebracht. Wenn jedoch nur im Komplexen eine Diagonalform existiert und

 
im Reellen nicht, dann werden wir im folgenden aus dieser Komplexifizierung Nutzen ziehen
können. Der Unterschied zur früheren Betrachtung ist, daß  und  (als
Mengen).

XII.4 Normalform unitärer und orthogonaler Abbildungen

4.1 Diagonalisierbarkeit unitärer Abbildungen

Jeder unitäre Endomorphismus eines unitären Vektorraumes ist bezüglich einer orthonor-
mierten Basis diagonalisierbar.
Beweis:

1        ' '
Im Komplexen gibt es stets einen Eigenwert und zu ihm einen normierten Eigenvektor .

1  8' ' 
Wir setzen und ergänzen zu einer orthonormierten Basis von .


ist dann ein algebraisches Komplement von . ist invariant bei
, d. h.
   ; denn:
 '   '     ' / 
  ' "    ' " , da ein Eigenwert  einer unitären Abbildung
ist.       8 ' '  
ist
und dann auch
Wegen   hat die Matrix von bezüglich   ' '    die Gestalt:

 
 
.  .8 8   8. 
 .. .. ..
8  

1 

ist wieder eine unitäre Abbildung und wir können (wie in IX.3 auf Seite 83)



induktiv schließen, daß sich aus der Diagonalisierbarkeit von die Diagonalisierbarkeit von
ergibt, und zwar jeweils bezüglich orthonormierter Basen.
150 XII Vektorräume mit Skalarprodukt 2

4.2 Normalform orthogonaler Abbildungen

<1
  '  ,'  ' '

Es gibt eine orthonormierte Basis, bezüglich der die Matrix einer orthogonalen Abbildung
die folgende Normalform hat mit  und   .
  

     


   

 ..
.
 ..
 .
     
  

 
  
 



 




 
..
 .



..
.


 ' ' 
Die geometrische Interpretation dieser Normalform ist folgende: zerfällt in die direkte Summe
von zweidimensionalen Untervektorräumen   , den Eigenvektorraum

zum Eigen-
wert 1, falls 1 als Eigenwert auftritt, und den Eigenvektorraum zum Eigenwert -1, falls -1

 ' 

als Eigenwert auftritt. Diese Untervektorräume stehen alle paarweise aufeinander senkrecht. Bei
  und  gedreht,

wird jeder um einen Winkel wird am Nullpunkt
gespiegelt und identisch abgebildet.
In anderen Worten: Die allgemeinste orthogonale Abbildung besteht aus Drehungen von zuein-

ander paarweise orthogonalen Ebenen. Das orthogonale Komplement der direkten Summe dieser
Ebenen wird orthogonal an einem Unterraum gespiegelt.
Beweis:
Wir gehen über zur Komplexifizierung    .  ist unitär und hat daher Eigenwerte 1 
vom Betrag 1 und nach 4.1 auf der vorherigen Seite und 3.4 auf Seite 147 eine Diagonalgestalt
bezüglich einer komplexen orthonormierten Basis aus Eigenvektoren:
 '  ' ' ' '  ' ' '  '  
        

 '  ' ' ' '  ''  '  ' '  mit nicht reell für  ''
.
zu den Eigenwerten
 

Für die letzten 


Eigenvektoren zu den reellen Eigenwerten wählen wir reelle orthonormierte
Vektoren.
XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen 151

 '  '
transformieren wir folgendermaßen auf reelle orthonormierte Vektoren:
 1 9  '   1     
Für

    ,     
Die umgekehrte Transformation lautet:


 
" 
    für  '   und  . Daraus ergibt sich:
Da den Betrag 1 hat, können wir schreiben in der Form:

      
    


 
        
     

 
           
         


      

und analog:        9  
  
Daraus sehen wir, daß die Matrix von bezüglich   '   ' '  '   '  ' '   eine Form
   

wie behauptet hat.

4.2.1 Normalformen in Dimension 3

 '  '
Für einen dreidimensionalen euklidischen Vektorraum gibt es sechs Normalformen orthogonaler
Abbildungen, die folgende Bezeichnungen tragen, wobei   ist.
 
 
 
    
   

  
  
 
   
  
Drehung um eine Achse Drehspiegelung Identität

    
     

Orthogonale Spiegelung Orthogonale Spiegelung Orthogonale Spiegelung
an einer Ebene durch an einer Geraden durch am Nullpunkt

XII.5 Hauptachsen semi-symmetrischer Sesquilinearformen

Aus der Diagonalisierung selbstadjungierter Abbildungen wird sich die Diagonalisierung semi-
symmetrischer Sesquilinearformen ergeben.
152 XII Vektorräume mit Skalarprodukt 2

5.1 Satz

Für einen Endomorphismus von wird die Sesquilinearform definiert durch:

('  1   '
 

Wir erhalten eine Abbildung

 '       


Bezüglich einer orthonormierten Basis   '  '   bezeichne 

 die Matrix von
 
 die Matrix von . Dann gilt:


  und

1.    

2.  ist ein Isomorphismus.


3. ist selbstadjungiert. ! ist semi-symmetrisch.

 

Beweis:
 -te Koordinate von  

 ' 

 


 '




2. Wir übergehen den (einfachen) Beweis, daß  linear ist und zeigen nur die Bijektivität von
 . Sehen wir das Transponieren als eine Abbildung
1  
        
    , die Matrizenzuordnungen

   


ebenfalls als Abbildungen an, so bedeutet ,

, wobei noch 


oder gilt. als Zusammensetzung von Bijektionen


ist eine Bijektion.
!    ' +'  
 '  ' 
3. ist selbstadjungiert 
!
+' '

!
!

ist semi-symmetrisch.

5.2 Satz und Definition

Jede semi-symmetrische Sesquilinearform auf hat bezüglich einer geeigneten orthonormier-



ten Basis eine Diagonalmatrix mit reellen Koeffizienten in der Hauptdiagonalen. Die von die-
sen orthonormierten Basisvektoren aufgespannten eindimensionalen Unterräume von heißen
die Hauptachsen der semi-symmetrischen Sesquilinearform. Die Transformation auf eine solche


Basis heißt Hauptachsentransformation. Die Eigenwerte und Eigenvektoren der zu gehörigen
symmetrischen Abildung , nennen wir auch die Eigenwerte und Eigenvektoren von .
XII.6 Ausblick auf physikalische Anwendungen 153

Beweis: Da eine selbstadjungierte Abbildung bezüglich einer orthonormierten Basis mit reellen
Zahlen in der Hauptdiagonalen diagonalisiert werden kann, geht dies nach 5.1.1 auch für eine
semi-symmetrische Sesquilinearform.

5.3 Bemerkung


;1      1 ('   für alle  .
Wir betrachten den Fall  . Die zur symmetrischen Bilinearform gehörige quadratische

     heißt eine Hyperfläche zweiter Ordnung oder eine Quadrik,


Form  ist 
Die Figur 1
 eine Kurve bzw. eine Fläche zweiter Ordnung. (Vgl. Kap. XIV auf Seite 166 .)

für
Bezeichnen  ' '   die Koordinaten bezüglich einer orthonormierten Basis, bei der Dia-
gonalgestalt hat und sind
  die Eigenwerte, so hat die Gleichung

    8 


Sind alle Eigenwerte positiv, dann ist ist für eine Ellipse, für 
ein Ellipso-

  
id, deren Achsen Eigenvektoren darstellen. Die Längen der Hauptachsen der Ellipse bzw. des

Ellipsoids sind . Dieser Zusammenhang mit den Achsen einer Ellipse bzw. eines
Ellipsoids erläutert die Bezeichnung „Hauptachsentransformation“.

XII.6 Ausblick auf physikalische Anwendungen

6.1 Trägheitstensor

In der Mechanik des starren Körpers führt die Betrachtung von Trägheitsmomenten bezüglich ei-

1  
ner Drehachse auf den sogenannten Trägheitstensor. Er kann einerseits als eine selbstadjungierte
  
1   
lineare Abbildung , andererseits als die zugehörige symmetrische Bilinearform
1     

aufgefaßt werden mit zugehöriger quadratischer Form  . Die

(' 5'
Eigenwerte des Trägheitstensors heißen Hauptträgheitsmomente und die Fläche  das
Trägheitsellipsoid. Mit diesen Bezeichnungen  gilt:

 ' 
1. Die Abhängigkeit des Trägheitsmomentes von der Drehachse wird beschrieben durch:


  wobei ein Einheitsvektor sei, der die Drehachse aufspannt.

 
2. Die kinetische Energie ist (bei festem Schwerpunkt) eine Funktion des Vektors  der
Winkelgeschwindigkeit, und zwar :  
8
3. Der Drehimpulsvektor ist ebenfalls eine Funktion von  , und zwar:  
154 XII Vektorräume mit Skalarprodukt 2

6.2 Historische Anmerkung zum Spektralsatz

David Hilbert (1862-1943) schuf Anfangs dieses Jahrhunderts eine Theorie von symmetrischen
unendlichen Matrizen und führte dabei den Begriff eines Spektrums als rein mathematischen
Begriff ein:

Spektrum einer Matrix := Menge der Eigenwerte der Matrix

Erst ca. zwanzig Jahre später wurde erkannt, daß dieser mathematische Begriff Atom- und Mo-
lekülspektren beschreibt.
Unser Satz von der Diagonalisierbarkeit ist die endlich dimensionale Version des sogenannten
Spektralsatzes für selbstadjungierte lineare Selbstabbildungen gewisser unendlich dimensionaler
Vektorräume mit Skalarprodukt –der Hilberträume.
XIII.2 Affiner Raum 155

XIII Grundbegriffe der affinen Geometrie

XIII.1 Analytische versus Synthetische Geometrie


Der Anschauungsraum wurde bisher benutzt, um ein geometrisch anschauliches Beispiel eines
Vektors und eines Vektorraumes zu beschreiben. Für den Anschauungsraum selbst wurde da-
bei keine strenge Begründung gegeben. Den Begriff eines Vektorraumes über einem Körper 
begründeten wir folgerichtig, ohne den Anschauungsraum zu verwenden. Wir werden im folgen-
den aus dem streng begründeten Vektorraumbegriff einen präzisen Begriff eines geometrischen
Raumes ableiten, den wir für  
und im dreidimensionalen Falle auch als ein mathematisches
Modell für den Anschauungsraum ansehen.
Von einem Vektorraum über einem Körper  gelangen wir dabei zum Begriff eines affinen Raum-
es über  und von einem reellen Vektorraum mit Skalarprodukt, also einem euklidischen Vek-
torraum, zum euklidischen Raum. Ab jetzt müssen wir, insbesondere bei Unterräumen, streng
zwischen Vektorraum und Raum unterscheiden. Die projektiven Räume sind eine weitere Art von
geometrischen Räumen, die auf dem Vektorraumbegriff aufgebaut werden können. Die Unter-
suchung von geometrischen Räumen, die auf dem Vektorraumbegriff aufbaut, heißt Analytische
Geometrie, weil über Vektorraum-Koordinaten schnell eine zahlenmäßige, quantitative Analyse
möglich ist.
Das Gegenstück wird Synthetische Geometrie genannt. Ihre größtenteils auf Euklid zurückge-
henden Axiome sind direkt auf die zu untersuchenden geometrischen Figuren wie Geraden,
Strecken, Winkel, Dreiecke und die geometrischen Begriffe wie gleich lange Strecken, gleich
große Winkel, kongruente Dreiecke usw. bezogen. Vielleicht können wir die Namensgebung
„Synthetische Geometrie“ in etwa so nachempfinden, daß aus diesen unmittelbar interessieren-
den geometrischen Gebilden und Begriffen eine geometrische Lehre durch „Synthese“ aufgebaut
wird. In dem durch den Vektorraumbegriff definierten Raum liegt hingegen das fertige Produkt
bereits vor, das wir „analysieren“, um die einzelnen Begriffe und Sätze herzuleiten. Diese In-
terpretationen –ob historisch belegbar oder nicht– verbinden jedenfalls die Namen der beiden
geometrischen Lehren mit ihrer Vorgehensweise.

XIII.2 Affiner Raum


2.1 Desargues-Ebenen

Wir nennen im folgenden die in III. 6.1 auf Seite 22 synthetisch definierten affinen Ebenen
Desargues-Ebenen, um sie zunächst von den analytisch definierten affinen Räumen zu unter-
14
A. Riede: Lineare Algebra 2, SS 00
156 XIII Grundbegriffe der affinen Geometrie

scheiden, die wir jetzt definieren wollen. (In der Literatur werden unter Desargues-Ebenen auch
diejenigen verstanden, bei denen die Pappos-Eigenschaft nicht gilt, d. h. zu denen ein nicht kom-
mutativer geometrischer Körper gehört. Der eigentliche Satz von Desargues ist noch allgemeiner;
er folgt aber leicht aus der hier behandelten Parallelitätseigenschaft von Desargues (sogar in der
projektiven Geometrie). Analog verhält es sich mit der Parallelitäts-Eigenschaft von Pappos und
dem allgemeinen Satz von Pappos.)

2.2 Beziehung zu geometrischen Vektorräumen

Sei sei die Menge der Punkte einer Desargues-Ebene.


Vektoren der Desargues-Ebene, wobei Vektoren Äquivalenzklassen von Pfeilen sind;  be-
der Vektorraum der geometrischen


zeichne die Äquivalenzklasse des Pfeiles vom Punkt  nach dem Punkt . Dies definiert eine

1   ' : '
 1 
'
Abbildung
 

die eine Beziehung zwischen und herstellt mit folgenden Eigenschaften:

(A1)  ist die Abbildung   1  ,  


 1 
bijektiv.

(A2) 5'
'   gilt: 

 

Damit können wir eine analytische Definition eines affinen Raumes geben.

2.3 Definition

Ein affiner Raum über dem Körper  besteht aus einem Tripel ' '  , wobei


1. eine nicht leere (vgl. jedoch 3.4 auf Seite 160) Menge ist, deren Elemente Punkte ge-
nannt werden,

2. ein Vektorraum über dem Körper  und

3.  1  # eine Abbildung ist.

Die Dimension eines affinen Raumes wird definiert durch: Dim  1 Dim

Um an das anschauliche Beispiel 2.2 zu erinnern, wird allgemein 

:'
 mit 

:'
  bezeichnet
für  . Das Tripel heißt ein affiner Raum über  , wenn die Axiome (A1) und (A2)
erfüllt sind. In abstrakter Bezeichnung schreibt sich (A2) wie folgt:
(A2*)  5'
 
' 
  5'  
XIII.2 Affiner Raum 157

2.4 Folgerungen


  '
  

2.5 Definition und Eigenschaften von Translationen

Wir betrachten die Abbildung:

0%1   #' 0 ('  1     




Wir definieren 0 1  durch 0   1 0 ('  . 0 heißt die Translation oder Parallelver-


schiebung von mit Translationsvektor  .

Translationen haben folgende Eigenschaften:


A  1 Für alle :'
   gibt es genau einen Vektor  mit 0 


.
1 0    0 0  
für alle +' und alle  
A
8




dere ist 0
Alle Translationen bilden eine Gruppe, die zur additiven Gruppe von isomorph ist. Insbeson-
Id.
Beweis:
Zu A  1 0  

!   
nach Definition von 0

!   


D. h.: Haben wir ein  mit 0  
, so ergeben diese Äquivalenzen von oben nach unten
gelesen, die Eindeutigkeit von  . Lesen wir die Äquivalenzen von unten nach oben, so sehen wir,

daß #1  
 die geforderte Eigenschaft hat.
Zu A  1 Wir formen die rechte Seite von A  um:
0  0 8   0 
 für
1 0    d. h.8   
    5'
 
 für  1 0 

'

d. h.
Die linke Seite von A  ergibt:
0         8     
 :'
 
'    nach den Definitionen von
und  A  ergibt sich



   
:
 '  nach A 8
 .


aus 
Daß alle Translationen eine Gruppe bilden, ergibt sich aus A , A und sei als Übungsaufgabe  8
dem Leser überlassen. Mit Hilfe des Translationsbegriffes erhalten wir:
158 XIII Grundbegriffe der affinen Geometrie

2.6 Äquivalente Definition eines affinen Raumes

#' ' 0  , das aus einer Menge , deren


und einer Abbildung 01 
Ein affiner Raum über dem Körper  ist ein Tripel
 
Elemente Punkte genannt werden, einem  -Vektorraum
besteht mit den Eigenschaften A , A .
Die Abbildung 0 wird in Erinnerung an das anschauliche Beispiel „Abtragen eines Vektors  von
einem Punkt  aus“ genannt.
Ausblick: Eine Abbildung 0 1   mit den Eigenschaften A  und 0 Id heißt eine
8
wenn es für alle 5'
 ein  gibt mit 0  
Operation der additiven Gruppe von auf der Menge . Eine solche Operation heißt transitiv,

und einfach transitiv, wenn es
genau ein solches  gibt. A   bedeutet also die einfache Transitivität der Operation 0 . Mit dem

Abtragen von Vektoren haben wir also ein Beispiel einer einfachen transitiven Operation einer
Gruppe auf einer Punktmenge kennengelernt. Gruppenoperationen spielen eine bedeutende Rolle
sowohl in der klassischen Geometrie wie in der aktuellen Mathematik.
(Stichwort (klassisch): Felix Kleins Erlanger Programm (1872): Eine Geometrie besteht nach
Klein aus der Untersuchung aller Eigenschaften von geometrischen Figuren, die bei der Operati-
on der Gruppe, die zu jeder Geometrie gehört, erhalten bleiben. Beispiel:  

ist die Gruppe der
Geometrie eines euklidischen Vektorraumes, ist eine Eigenschaft, die bei allen orthogo-
nalen Abbildungen erhalten bleibt. Siehe G. Fischer: Analytische Geometrie, S. 208, 6. Auflage,
vieweg, Wiesbaden 1992)
(Stichwort (aktuell):  -Räume,  eine Symmetrie-Gruppe des Raumes).
Wenn wir mehrere affine Räume betrachten, so verwenden wir für den affinen Raum die

' ' 
Schreibweise:    

Wenn aus dem Zusammenhang keine Verwechslungen möglich sind, wird für den affinen Raum

#' ' 
und die ihm zugehörige Punktmenge das gleiche Zeichen verwendet!
 wird auch mit bezeichnet und mit !

Beweis der Äquivalenz der beiden Definitionen affiner Räume:


Es ist noch zu zeigen, wie wir von der zweiten Definition zur ersten zurückkommen. Dazu sei

:'
   eindeutig bestimmte  0 
  Es gilt
0  


per Definition das nach A mit .
 
dann: 

A 
1 Injektivität von :


Zu 



 
  

 5'

 5' 
1 
0 
und 0 


' da 0 eine eindeutige Zuordnung.

Surjektivität von :  

Sei  , setze
1 0  
XIII.3 Affine Unterräume 159

 :'
  nach Definition   von 
 
 
Zu A 8 1
0    0  0   8  
0
       
   nach A

  



0      
 

wegen

   
 wegen
 

 0  
Außerdem gilt:
 
 wegen   
gibt mit 0     :

 
Da es genau ein  , folgt aus und
5'   5'
 
' 

  

2.7 Beispiele

1. Die Auffassung eines Vektorraumes als affiner Raum :



+'  1   ('
1 ' 
1 '  
 

2. Die sogenannte Nebenklasse   1


   eines Vektors nach einem  
Untervektorraum  von bildet eine affinen Raum :


1  /'  fest, 1 /' 1    (  wie im 1. Beispiel)


 



 


3. Wegen Łinhom  Łhom bilden sowohl die Lösungen eines inhomogenen linearen 
Gleichungssystems wie auch eines inhomogenen linearen Differentialgleichungssystems
mit konstanten Koeffizienten einen affinen Raum. (Vgl. V. 8.2 auf Seite 55 bzw. IX. 6.2
auf Seite 97)

XIII.3 Affine Unterräume

3.1 Definition



' '  
' ' 1!
Ein affiner
   Raum    heißt ein affiner Unterraum des affinen Raumes

1.   
(als Mengen),

2.  ist Untervektorraum von und

3.  
  

  ' 
160 XIII Grundbegriffe der affinen Geometrie

3.2 Beispiele

1. #  aus dem 2. Beispiel von 2.7 auf der vorherigen Seite ist ein affiner Unterraum des
affinen Raumes des 1. Beispiels. Die affinen Unterräume von durch Null sind
nichts anderes als die Untervektorräume von , aufgefaßt als affine Räume im Sinne des
2. Beispiels von 2.7 auf der vorherigen Seite.
' '  ein affiner Raum,

  '  ein Untervektorraum von , dann bildet

 
     einen affinen Unterraum mit
2. Ist
die Teilmenge 1 .
 
 

Der Unterraum heißt (in beiden Beispielen) der zu  parallele Unterraum von durch bzw.
durch  .

3.3 Kriterium

1  
Sei ein affiner Raum und eine Teilmenge von . Dann ist die Punktmenge eines
affinen Unterraumes von genau dann, wenn    eine bijektive Abbildung auf einen

Untervektorraum von ist für ein    .
3.4 Satz über den Durchschnitt affiner Unterräume

Der Durchschnitt 
  affiner Unterräume  , ( eine Indexmenge) eines affinen Raumes



ein affiner Unterraum der Dimension  ist. Weiter gilt 

für   .
ist ein affiner Unterraum von . Hierbei ist es zweckmäßig zu definieren, daß die leere Menge
   

3.5 Affine Hülle und Verbindungsraumes


  
Ist eine Menge von Punkten des affinen Raumes , so gibt es nach 3.4 den kleinsten affinen
Unterraum von , der umfaßt. Dieser heißt die affine Hülle von in oder der von    
 
aufgespannte (oder erzeugte) affine Unterraum von . Wir bezeichnen ihn mit oder .
 '' &&   der (affine) Verbindungsraum
 '  '  &&  .
Sind affine Unterräume von , so heißt
von
Spezialfall: 
 , 8
. Wir bezeichnen ihn auch mit 

 , :'
, 
. Dann ist 
 8 1 
die
Verbindungsgerade von  und
.

3.6 Dimensionsformel

Für affine Unterräume



' des affinen Raumes gilt, falls   oder
 oder

  :
Dim

  Dim
   Dim   Dim

 
XIII.5 Affine Ebenen 161

Falls   und
 und

  gilt:
Dim

  Dim  

Dim   Dim



  

XIII.4 Parallelität

4.1 Definition


0 0 0   8
Unter einer Figur verstehen wir einfach eine Teilmenge des affinen Raumes . Eine Figur

0 8   8  8
heißt parallel zu einer Figur , falls eine Parallelverschiebung
oder . Die Bezeichnung für Parallelität ist:


existiert, mit

Sind  ' 8 affine Unterräume, dann bedeutet parallel dasselbe wie oder       
 . Gleichdimensionale afine Unterräume sind also genau dann parallel, wenn ihre zugehörigen
Vektorräume gleich sind. Daraus folgt:

4.2 Feststellung

Auf der Menge aller -dimensionalen affinen Unterräume (


 fest) ist die Parallelität eine
Äquivalenzrelation.

XIII.5 Affine Ebenen

sei eine affine Ebene, d. h. ein zweidimensionaler affiner Raum.

5.1 Feststellung

Auf der Menge der Geraden ist Parallelität eine Äquivalenzrelation. Siehe 4.2!

5.2 Feststellung

Zwei Geraden  '


sind parallel oder 1 !   
. D. h. der analytische Parallelitäts-
begriff stimmt mit dem synthetischen aus III.6.1.2 überein.

 !  
Beweis: Wir zeigen, daß die Verneinungen äquivalent sind.

  !  nicht parallel
!


und 0-dimensional
1) wegen der Dimensionsformel: Dim    Dim    Dim   Dim  

162 XIII Grundbegriffe der affinen Geometrie

5.3 Feststellung

 
%
Es gilt das Parallelenaxiom; d. h. zu jeder Geraden und jedem Punkt gibt es genau eine
Gerade mit und  .
Beweis:
Eindeutigkeit:
%    
     



 

 


Existenz: 1    

5.4 Strahlensatz

  

und seien zwei verschiedene Geraden, die sich in dem Punkt schneiden. und seien zwei

  1     1 
zueinander parallele Geraden, deren Durchschnitt mit bzw. jeweils aus genau einem von
 ,
  5 1 ,   : 1  . Weiter   ,  1   
verschiedenen Punkt besteht; wir bezeichnen die Schnittpunkte wie folgt: ,

Dann ist   , weil   ,   4 '



 sei 4 1 
, 
für geeignete Skalare
1  , 1  ,  1   , 1 "
.' ' .
 .

Behauptung:   .
Beweis:
Sei  1 . Es ist  
    
 und
,


 4  
 

4 
    4  
  # 4       
#  4 " 
 
 4 "    
 4 
wegen
 wegen und

5.5 Satz von Desargues

 '  8 '    und   ' 8 '   seien Dreiecke in perspektiver Lage mit dem Zentrum
 oder in
paralleler Lage (vgl. III.6.1.4). Dann gilt:

   8     8 und           8    8  


Beweis:
Bei perspektiver Lage: Sei:
XIII.5 Affine Ebenen 163

A3 B3
g3

g2
A2 B2

g1
A1 B1

Abbildung 16: Satz von Desargues bei paralleler Lage

1     ' 4 1     ' 1       '  1   8    ' #1      8 '  1       ' ;1


   8    , 1      8


Sei     4 ,  dann $   gilt nach dem Strahlensatz:  ( und   . Folglich ist:





 
 

   
 8    8 
Bei paralleler Lage: Es gilt (wegen   s. die untenstehende Aufgabe):
       8      8 und             

 8 
 
 8     
  8       
  8  
5.6 Aufgabe

+
 ' '  '  gelte:   '/ '    '   '    . Sei  "1  -'  "1
  -'  1   +'  1    .
Für die Geraden
8    8    
Dann gilt:    8    8 und      8  8
164 XIII Grundbegriffe der affinen Geometrie

g
B3

B2

B1

Z A3 A2 A1 h

Abbildung 17: Parallelitätssatz von Pappos und Kommutativität

5.7 Parallelitätsatz von Pappos

 ' treffen.   ' 8' 


+'   ' 8 ' 
Seien zwei verschiedene Geraden, die sich in einem Punkt
seien jeweils paarweise und von verschiedene Punkte. Dann gilt:
         und  8       8    8   8 
    
Beweis:
    8 ' für ein 
    8      nach dem Strahlensatz
     
  5' für ein 
 
   
   nach dem Strahlensatz

  8
 
    8
 
      5' wegen  und 
 

 8 
    ' wegen   und  
 
 8    

  8

 8   
  8   8 
XIII.5 Affine Ebenen 165

5.8 Abschließende Bemerkung

Damit haben wir im wesentlichen bewiesen, daß eine (analytisch definierte) affine Ebene auch
eine affine Ebene im Sinne der synthetischen Geometrie, d. h. eine Desargues-Pappos-Ebene ist.
166 XIV Aspekte der euklidischen Geometrie

XIV Aspekte der euklidischen Geometrie

XIV.1 Grundlegendes

1.1 Definition

Ein euklidischer Raum ist ein reeller affiner Raum mit einem Skalarprodukt auf seinem zuge-
hörigen Vektorraum .

1.2 Definition

Ein Punkt  , genannt Grundpunkt oder Nullpunkt und eine orthonormierte Basis   ' '   
von heißt ein kartesisches Koordinatensystem von .
Fü beliebiges   gilt:


 
    '  

 ''   heißt das Koordinaten- -tupel von 
stems  '  ''  .
bezüglich des kartesischen Koordinatensy-


1.3 Transformation kartesischer Koordinaten

Sei  '   ' '   


   ' '   
'   ' '   
ein zweites kartesiches Koordinatensystem, das Koordinaten-
-tupel von  bezüglich   .

15
A. Riede: Lineare Algebra 2, SS 00
XIV.2 Kurven zweiter Ordnung 167

       

      
 
   
     
 
  
 

           orthogonal

      

 
   
    
    

  

 


         

     1   ',  1  

          

1.4 Ergebnis

Kartesische Koordinaten transformieren sich durch Multiplikation mit einer orthogonalen Matrix
und Addition eines -tupels. Das additive -tupel beschreibt den Translationsanteil der Trans-
formation.      
  
 .
..  ..   
..   orthogonal

. .
 
XIV.2 Kurven zweiter Ordnung
sei ein zweidimensionaler euklidischer Raum, eine euklidische Ebene.

2.1 Definition

 ' 8  seien kartesische Koordinaten in . Die Lösungsmenge  einer Gleichung 2. Ordnung

   8     8  8   8 8 88     .   8 8  '  


 (1)
heißt eine Kurve 2. Ordnung oder eine Quadrik in . Der Ausdruck auf der linken Seite heißt

  1   für
, #1  und  1       8 , und berücksichtigen wir, daß
ein Ausdruck 2. Ordnung.

   8  8   8  8   8  8  etc., dann schreibt sich (1) in der systematischeren


Setzen wir    
  
dann gilt

8  
Form:

  (2)

 


168 XIV Aspekte der euklidischen Geometrie

2.2 Transformationsformeln


Eine kartesische Koordinatentransformation können wir folgendermaßen ansetzen:

             8  8  1 
8 8   8   88 8

 3   8
Wir setzen weiter:

1   3     8 mit  1  '* %1 '  8 1


 3  
 8 8 88
1  8   8 88  orthogonal
Setzen wir  8       '* 8    in die Kurvengleichung ein, so erhalten wir:
 
 


8     8 8           
8      mit  


  8        . Die     -Matrizen transformieren sich also nach der Formel:


     
   

  

1    


(3)

Wegen  1
 '  1 '* 1 erhalten wir:   8         für '  '
8

   


  
Wenn wir setzen

 1    8  '  1      8  ,

  
8 88
läßt sich dies in Matrizenform ausdrücken:
8 88
  (4)

D. h.  transformiert sich wie bei einer symmetrischen Bilinearform. Es folgt aus diesen Trans-
formationsformeln, daß ein Ausdruck zweiter Ordnung gegenüber kartesischen Koordinaten-
Transformationen folgende Invarianten hat:

Rg  ' Rg  ' die Eigenwerte  '  8 von  &' Det   ' Det  
 
Was die Determinanten angeht, folgt dies aus:

   
 

   
   
   
   8 
 8   

88 
, da
XIV.2 Kurven zweiter Ordnung 169

2.3 Klassifikation

Auf Hauptachsen transformiert, erhalten wir:



   8
   
8 8
Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben  

bezeichnet! Die Kurvengleichung lautet:


  8   8 88     .   8 8 
1. Fall: Rang  
 ' Rang   ;1
Dann sind  '  8 und wir können die quadratische Ergänzung bilden:
  -      8 8    8  8   8    8 8  '  ' da Rang   
8
   

1 188 8
     

Das transformierte  hat die Form


1
 

 

8
und  die Gleichung:
   8   8  88    1    
   8    8  88  '  /1   '  8 1  

 

 

Unterfälle:

 '  8 : Ellipse
a) 
b)   und  8  1 Hyperbel
c)   '  8 : nullteilige Kurve, 

2. Fall: Rang  
 ' Rang   
Durch quadratische Ergänzung können wir erreichen:
 
   8  8  
       8 
8 8
wegen Rang
170 XIV Aspekte der euklidischen Geometrie

  8    8  8 
  8    8 8     
   8    8  8 8  /1  '  8 1 8  8
  

1    8
 

 8  8
 

Wir können annehmen: 

 ; andernfalls führen wir die Transformation  8    8 aus.


Die Kurve ist eine Parabel.

3. Fall: Rang   ' Rang   


Dann ist  und 8 .
Unterfälle:

 '  8  :  besteht aus genau einem Punkt.


a)
b) % ', 8 :  besteht genau aus zwei sich schneidenden Geraden.

4. Fall: Rang    ' Rang   


 besteht aus zwei parallelen Geraden oder ist leer.
5. Fall: Rang  
 ' Rang   
 besteht aus genau einer Geraden.
XIV.3 Flächen zweiter Ordnung

3.1 Definition

 ' 8 '   seien kartesische Koordinaten in einem drei-dimensionalen euklidischen Raum .


Die Lösungsmenge einer Gleichung 2. Ordnung

   
   
    .   8 8      
  '   (5) 

heißt eine Fläche 2. Ordnung oder eine Quadrik in . Dabei sei     , und wir setzen
wieder 1
  

      und erhalten
:
'
die systematischere Schreibweise:
 mit        8  und 1
&''   Es wird analog zum zwei-dimensionalen Fall gesetzt:  1       8 
   in Matrizenform:  
    
 
  
XIV.3 Flächen zweiter Ordnung 171

3.2 Invarianten

Bei kartesischen Koordinaten-Transformationen erhalten wir die zum zwei-dimensionalen Fall


analogen Transformationsformeln für den Ausdruck 2. Ordnung und daher folgende Invarianten:

Rg  ' Rg  ' die Eigenwerte  ', 8 ',  von  &' Det   ' Det  
3.3 Klassifikation

Auf Hauptachsen transformiert, ergibt sich:


 
    8  
 
  8 8
 
Neue Koeffizienten sind hier der Einfachheit halber wieder mit den gleichen Buchstaben  

bezeichnet! Die Flächengleichung lautet:


  8   8 88   8     -   8 8     *
1. Fall: Rang    ' Rang  
1
Durch quadratische Ergänzung bekommen wir:
  8  8 88    8  und durch Gleichungsumformung:
  8   8 88  8
Unterfälle:

a)   '  8 '   : heißt ein Ellipsoid.


Der Schnitt mit der  ' 8  -Ebene ist eine Ellipse:  '  8   8  Für

kleine  sind auch die Schnitte mit Ebenen parallel zur  ' 8  -Ebene Ellipsen:
 
 8 8
 konstant,   8   8 88    8 ; für    8 sind es Kreise und ist ein
Rotationsellipsoid, das dadurch entsteht, daß eine Ellipse um die  -Achse rotiert.
b)   '  8 '    : heißt ein einschaliges Hyperboloid.
Schnitte mit zur  ' 8  -Ebene parallelen Ebenen sind stets Ellipsen:  '   8 
 8 88
    8 . Zu beachten ist hier, daß die rechte Seite immer größer als 0 ist.
Die Schnitte mit den Koordinaten-Ebenen  bzw. 8 sind Hyperbeln.
c)   '  8 '    : heißt ein zweischaliges Hyperboloid.
 '  8 88   8  :  ; entsprechend, wie eine Hyperbel aus zwei Ästen
besteht, besteht aus zwei Teilen, genannt Schalen, die durch die 8 '  -Ebene
getrennt werden; im einen ist   im anderen   .
172 XIV Aspekte der euklidischen Geometrie

'  8     8   : ist eine Hyperbel.


8 '   8  8 88  1 ist eine Hyperbel.
  

2. Fall: Rang    ' Rang   


 
  
 
   '  8

8

  wegen Rang    . Wie bei der Parabel kann erreicht werden, daß 
wird.
  8  8 88     
    8   8 88 '   '  8
Unterfälle:
a)   '  8 : heißt ein elliptisches Paraboloid.
 konstant  leer
 konstant  : Ellipse
 konstant oder 8 konstant: Parabeln
b)   '  8  : Elliptisches Paraboloid, da durch die Tranformation   :  in den
vorstehenden Fall überführbar.
c)    '  8 : heißt ein hyperbolisches Paraboloid oder Sattelfläche.
 : Sich schneidendes Geradenpaar.
Schnitte mit Ebenen ergeben:

 konstant  : Hyperbel
 konstant  : Hyperbel
 oder 8 : Parabel
3. Fall: Rang    ' Rang  
 : Kann nicht auftreten; denn

    8   
      Rang    , Widerspruch!
  
8 
4. Fall: Rang  
 ' Rang    :
 

   '  8 '  
  8

Hier erreichen wir die fettgedruckten Nullen durch quadratische Ergänzung, 
. we-
gen Rang  
XIV.3 Flächen zweiter Ordnung 173

  8  8 88    8
Unterfälle:

a)  '  8 '    : besteht aus genau einem Punkt.


b)  '  8  ',  : ist ein Kegel.
 konstant : Ellipse
 : Punkt
c) Alle weiteren Unterfälle lassen sich durch Multiplikation mit -1 und Vertauschen von

 '
Koordinaten auf die betrachteten zurückführen.

5. Fall: Rang  Rang   : ist ein elliptischer oder ein hyperbolischer Zylin-

 '
der.

6. Fall: Rang  Rang    : ist ein parabolischer Zylinder.

7. Fall: Rang   ' Rang   : besteht aus zwei verschiedenen sich schneidenden

  ' Rang    :
Ebenen.


  ' Rang    :
8. Fall: Rang besteht aus zwei verschiedenen parallelen Ebenen.

9. Fall: Rang  besteht aus einer Ebene.


174 XV Der Minkowski-Raum

XV Der Minkowski-Raum
Im folgenden bezeichnen  ' 8 ' &'  Koordinaten zu einer Basis   '  8 '  &'   .

XV.1 Modell der räumlich-zeitlichen Welt


1.1 Problemstellung

Wir stellen uns die Aufgabe, ein geometrisches Modell unserer räumlich-zeitlichen Welt aufzu-
stellen.

1.1.1 Erste Annahme

 ' 8 ''  &'   1 0


Wir nehmen an, daß sich die Ereignisse unserer Welt durch drei räumliche reelle Koordinaten

 '
und eine reelle Zeitkoordinate beschreiben lassen und umgekehrt zu jedem
8

genau ein Raumzeitpunkt gehört. Mathematisch nehmen wir an, daß die
Welt ein vierdimensionaler reeller affiner Raum ist.

1.1.2 Definition der Lichtgeraden und des Lichtkegels

 ' 8 '  
Unserer Erfahrung nach gibt es für unseren dreidimensionalen Lebensraum gewisse (kartesische)
Koordinatensysteme, , so daß jeder Lichtstrahl eine Gerade ist.
Ein Lichtstrahl durch den Koordinaten-Ursprung hat also folgende Parameterdarstellung:
 0    0 '  '  '  '  '  8 '     konstant ' 0 ein reeller Parameter
Verwenden wir als Parameter für die Lichtausbreitung die Zeit 0 , so ist die Konstante  1

    8 als die Ausbreitungsgeschwindigkeit eines Lichtblitzes zu verstehen. Den physikali-
schen Beobachtungen zufolge ist die Lichtgeschwindigkeit für alle Lichtstrahlen die gleiche, also
eine Konstante. Auf die tiefere Bedeutung dieser physikalischen Beobachtung kommen wir noch
zurück. Im vierdimensionalen Raum stellt sich die Lichtausbreitung vom Koordinaten-Ursprung
aus durch sogenannte Lichtgeraden dar, die durch ein homogenes lineares Gleichungssystem


gegeben sind:

    ' '  
    8


1



mit 

Mathematisch betrachtet, bedeutet die Existenz von Koordinatensystemen, in denen sich Licht-
strahlen in einer solchen Weise beschreiben, daß diese Lichtgeraden als Strukturelemente gege-
ben sind. Alle Lichtgeraden zusammen bilden den Lichtkegel:

 
1    8 $ 8 8



XV.1 Modell der räumlich-zeitlichen Welt 175

1.1.3 Inertialsysteme
Jedes Koordinatensystem, in dem sich Lichtstrahlen wie beschrieben längs Geraden ausbrei-
ten oder mathematisch betrachtet, in denen sogenannte Lichtgeraden oder der Lichtkegel gege-
ben sind, nennen wir ein Inertialsystem. In der Physik werden Inertialsysteme anders definiert;
sie sind jedenfalls so erklärt, daß in Inertialsystemen die Naturgesetze die gleiche Form ha-
ben (Relativitätsprinzip). Wir haben hier nur das eine Naturgesetz berücksichtigt, daß sich Licht
mit konstanter (endlicher) Geschwindigkeit längs Geraden ausbreitet. Wenn das Naturgesetz der
Lichtausbreitung invariant gegenüber Koordinatentransformationen von einem Inertialsystem zu
einem anderen sein soll, so müssen Lichtgeraden in Lichtgeraden oder der Lichtkegel in den
Lichtkegel übergeführt werden.

1.1.4 Auf dem Lichtkegel verschwindende quadratische Formen


Die Gleichung des Lichtkegels legt nahe, die quadratische Form
  ' 8 ' &'  1 8 $ 88 $ 8   8 8

zu betrachten, die auf dem Lichtkegel verschwindet. Für eine lineare Koordinatentransformation
, die den Lichtkegel in den Lichtkegel überführt, muß dann
  ' 8 ' &'  1

  ' 8 ' &'  

wieder eine quadratische Form sein, die auf dem Lichtkegel verschwindet. Gilt etwa    ?
Dazu hilft weiter:

  '
1.1.5 Satz über quadratische Formen
 ist bis auf einen Faktor die einzige nicht ausgeartete quadratische Form, die auf

dem Lichtkegel verschwindet. Eine quadratische Form  heißt dabei nicht ausgeartet, wenn die
symmetrische Bilinearform , zu der sie gehört, nicht ausgeartet ist.

1.1.6 Minkowski-Raum

 
Eine Koordinatentransformation die den Lichtkegel in den Lichtkegel transformiert, transfor-
miert also  in sein -faches mit einem

. Diese Transformation von  wird auch bewirkt
durch die Skalenänderung auf jeder Achse um den gleichen Faktor
 
. Wenn ein
 
 
auftritt, können wir das deshalb so interpretieren, daß bei auch noch eine solche Skalenän-
derung vorgenommen wird. Die Transformationen, die die Form  invariant lassen, können wir
also als diejenigen ansehen, die den Lichtkegel in den Lichtkegel überführen und keine solche
Skalenänderung hervorrufen.
Damit gelangen wir zu folgendem Modell der Welt: Die Welt ist der 
mit der quadratischen
Form  bzw. mit der symmetrischen Bilinearform:

 .'   1      $ 8 
 

Die Welt ist also ein geometrischer Vektorraum mit einer symmetrischen Bilinearform der Si-
gnatur 3 und mit Index 1. Als erster hat der Mathematiker Hermann Minkowski (1864-1909)
176 XV Der Minkowski-Raum


diesen Raum als einen Rahmen für die spezielle Relativitätstheorie erkannt. Nach ihm wird er

'
Minkowski-Raum genannt. Da bis auf das Minuszeichen wie ein Skalarprodukt aussieht, wird
auch pseudoeuklidisches Skalarprodukt genannt und

ein pseudoeuklidischer Vektorraum. 
XV.2 Lorentztransformationen
2.1 Definition

Die Lorentztransformationen sind die Isometrien des Minkowski-Raumes.

1    '     4

eine Lorentztransformation heißt homogen, falls 4 ist.


Daß eine Isometrie ist bedeutet für die Matrix  nach XI.2.3.3    
  , wobei die

   
Matrix von bezeichnet. Ausführlich:
 
 
        
1 1 1 1

   1 1    1 1
       

  für  ' ' 


   mit den Kroneckersymbolen  und  1   für 

  

Damit schreibt sich die Isometriebedingung in der folgenden Form, wobei   die -te Spalte von
 bezeichnet:

 
    ' 
 

D. h. ist eine Isometrie genau dann, wenn die Spalten von  pseudo-orthonormiert sind, d. h.,
daß  eine pseudo-orthogonale Matrix ist.

2.2 Definition

! 

! 
Ein Vektor heißt raumartig : 

!
zeitartig : 
Lichtvektor : 

2.3 Einheitsvektoren

Einheitsvektoren erfüllen die Gleichung:

8 $ 88 $ 8  8  
XV.2 Lorentztransformationen 177

Dabei gilt für die raumartigen Einheitsvektoren und 


für die zeitartigen. Die raumartigen
Einheitsvektoren liegen auf einem einschaligen (dreidimensionalen) Hyperboloid, die zeitartigen
auf einem einschaligen.

2.4 Relativität der Gleichzeitigkeit

  '  8 '  '     '  8 '  '   



Bezüglich zweier Inertialsysteme mit den Basen und     , so daß und
 linear unabhängig sind,sind zwei Ereignisse, die in einem Koordinatensystem gleichzeitig
sind, im andern nicht gleichzeitig.
178 XVI Eigenvektor-Theorie und Normalformen

XVI Eigenvektor-Theorie und Normalformen


Wenn nicht ausdrücklich etwas anderes gesagt wird, bezeichnet 1  einen Endomorphis-
mus eines -dimensionalen Vektorraumes über dem Körper  (  ).

XVI.1 Charakteristisches Polynom

    
 
Man ist versucht, das charakteristische Polynom durch Det( Id ) zu definieren. Jedoch ist 

Id End 

d. h. es ist ein Element eines Polynomringes und nicht ein Endomor-


   
phismus. Daher wird zuerst das charakteristische Polynom einer Matrix erklärt. Dazu schicken

 
wir eine andere Betrachtung voraus. Ist eine Koordinatentransformation, dann
transformiert sich nach V. 7.6 auf Seite 53 die Abbildungsmatrix  bezüglich


in die Abbil-
dungsmatrix  bezüglich
 
nach der Formel:
 

1.1 Definition konjugierter oder ähnlicher Matrizen

Zwei  
-Matrizen  und  , für die die Formel  gilt, in der  eine reguläre  -
Matrix ist, heißen konjugiert oder ähnlich zueiander.
Wegen der Bemerkung zuvor sind  und  genau dann zueinander ähnlich, wenn sie als Abbil-
 


dungsmatrizen ein und desselben Endomorphismus bezüglich eines Koordinatensystems
bzw. aufgefaßt werden können.

1.2 Definition des charakteristischen Polynoms

 eine Unbestimmte und    . Dann ist


      .  8 .
Sei  

  .  

 <    .8  . . . . . . ..
 .. .. ..    
        
   

    ; alle Koeffizienten außerhalb der Hauptdia-


eine Matrix mit Koefizienten im Polynomring 
gonalen sind konstante Polynome, die in der Hauptdiagonalen lineare Polynome (solche vom
Grade 1). Jetzt wenden wir die Determinantentheorie für kommutative Ringe an, und zwar für
16
A. Riede: Lineare Algebra 2, SS 00
XVI.1 Charakteristisches Polynom 179

     ist ein Polynom, es heißt das charak-


 .
den Polynomring  . Die Determinante der Matrix
teristische Polynom von  ; wir bezeichnen es mit 
Ist   die Abbildungsmatrix von bezüglich einer Basis  ' '  von , dann heißt
   
1   das charakteristische Polynom von .



1.3 Grundtatsachen über das charakteristische Polynom

1. Grad    Grad    ; der höchste Koeffizient ist  


' ' 


2. Von der Basis  , bezüglich der die Abbildugsmatrix gebildet wurde, hängt das
charakteristische Polynom  nicht ab. 

3. Ähnliche Matrizen haben das gleiche charakteristische Polynom.


ist diagonalisierbar !   ist ähnlich zu einer Diagonalmatrix  , d. h. 
     für eine reguläre   -Matrix  .
4. 

1        , bei dem für  Id eingesetzt



 über.
wird, geht das charakteristische Polynom   in die ganzrationale Funktion 
5. Beim Einsetzungshomomorphismus  
 

hergestellt. Insbesondere gilt: Die Eigenwerte von sind genau die Nullstellen aus des
(Vgl. Abschnitt X. 5.5 auf Seite 115!) Damit ist der Anschluß an Kapitel IX auf Seite 81

charakteristischen Polynoms von .




Beweis:
Zu 1: Dies folgt aus der Leibniz-Formel für Det    
                 
Zu 3:
 

       

      

   
2. folgt aus 3.
Zu 4: Nach Definition ähnlicher Matrizen.
Zu 5:  1   Id
Det <     
  
  '      
 
sgn
 
 

Det      8  
sgn  
  '   Id     
 

  
 



 

sgn  
  '     


 Det    
 





 
180 XVI Eigenvektor-Theorie und Normalformen

1) wegen der Leibniz-Formel,


2) da  ein Algebra-Homomorphismus,
3) wegen wertweiser Addition und Multiplikation von Funktionen.


 
Für die letzte Aussage ist nur zu beachten, daß die in  gelegenen Nullstellen eines Polynoms
per Definition die Nullstellen der ganzrationalen Funktion  sind.  
1.4 Beispiel

Durch Entwickeln nach der letzten Zeile von     erhalten wir, daß das charakteristische
 . .  . . 
Polynom der Matrix
 
 .. .. .. ..
. ..
 .. ..

..
 
. . .

  '    8   
wie folgt lautet:

       
  ! &&            
Wenn wir für ''    also          setzen, sehen  wir,
   &&           


 mit höchstem Koeffizient    als charakteristisches


daß jedes Polynom

Polynom einer Matrix auftaucht.

1.5 Definition und Satz von der Spur

Die Spur einer   -Matrix   


 ist definiert durch:
  
Spur   Sp   1
  

 ' '    1  
Die Spur eines Endomorphismus von wird über die Abbildungsmatrix von bezüglich
einer Basis 


definiert: Spur Sp Sp . Dann gilt: 

1. Ähnliche Matrizen haben die gleiche Spur.



2. Die Spur von hängt nicht von der Basis ab, bezüglich der die Abbildungsmatrix gebildet

          , wobei    der    -te Koeffizient des charakteristischen Poly-


wird, sondern nur von .

3. Sp  
noms von  ist.
XVI.1 Charakteristisches Polynom 181

1.6 Charakteristisches Polynom einer     -Matrix


    -Matrix und seine Nullstellen lauten also:
  
Das charakteristische Polynom einer

    8 Sp   !     8  Sp  Sp8      
 


Die Untersuchung der Nullstellen eines Polynoms und damit die Untersuchung von Matrizen und
Endomorphismen wird vereinfacht, wenn das Polynom in Faktoren von Polynomen (niedrigeren
Grades) zerlegt werden kann. Diese Zerlegung ist in einem, wie sich noch herausstellen wird,
wichtigen Fall möglich:

1.7 Satz über eine Faktorisierung von  

  '   '5 


 
Sei  ein kommutativer Ring mit Eins. Sei       , Nullmatrix
    , 1    .


Dann gilt für die Determinanten und die charakteristischen Polynome:

            
  .
    

Dies verallgemeinert sich leicht auf „Kästchen - Dreiecksmatrizen mit mehr als zwei diagonalen
Kästchen “.
Beweis:

 /  / 
Dies folgt aus der Leibniz-Formel. Wegen der Nullen in dem linken unteren Kästchen brauchen
wir nur die Permutationen zu betrachten mit 


 für  . D. h., es müssen nur die
Permutationen betrachtet werden, die die letzten  Indizes untereinander vertauschen und
die folglich auch die ersten  Indizes untereinander vertauschen. Für eine solche Permutation 

  
setzen wir:

5  : 
   5     

  
   
   
1 
1  1 5  8  1 :  8  
 
    

  1   für  '' '  


Das heißt:

 8  1  :   für  '  '  '  8




 
für  '  und     für   
Beachten wir  

  
 
   





' 
  so erhalten

          
wir:
 
 
 

 







 


182 XVI Eigenvektor-Theorie und Normalformen

     
  
  

       
  
  

  

 
  

Daraus folgt:



         
   
    


   



XVI.2 Eigenvektorräume 183

XVI.2 Eigenvektorräume

Weiterhin sei  End  und Dim( ) = , :'  ein beliebiger Körper.

2.1 Satz über Eigenvektoren zu verschiedenen Eigenwerten

' '

 sei Eigenvektor zum Eigenwert , und die Eigenwerte

  seien paarweise
' '
Für
verschieden. Dann sind   linear unabhängig.
Beweis durch Induktion nach :


Induktionsbeginn:
1        ' da  .
Induktionsschluß: Sei

    

1 



      

#1


 1           


 

     '  '
  nach Induktionsannahme
  ' '
  wegen   

Dies in I eingesetzt liefert    ' woraus folgt   ' da .




2.2 Der Fall verschiedener Eigenwerte



Gibt es verschiedene Eigenwerte von , dann gibt es eine Basis aus Eigenvektoren, d. h. (nach
IX. 1.3 auf Seite 81) ist diagonalisierbar.

2.3 Diagonalisierbarkeit und Zerfallen von   in Linearfaktoren

Ist diagonalisierbar, dann zerfällt das charakteristische Polynom in Linearfaktoren, d. h.


           , wobei die  nicht paarweise verschieden zu sein brauchen. Die Um-


kehrung gilt jedoch nicht (s. 2. Beispiel von IX. 2.4 auf Seite 82). Mit dem Begriff eines Eigen-
vektorraumes läßt sich die Bedingung für die Umkehrung formulieren.
184 XVI Eigenvektor-Theorie und Normalformen

2.4 Definition des Eigenvektorraumes

 4   Eigenvektoren zum Eigenwert   


Der Eigenvektorraum zum Eigenwert ist
 1 Kern 

2.5 Satz über die direkte Summe von Eigenvektorräumen

In Verallgemeinerung von 2.1 auf der vorherigen Seite gilt für paarweise verschiedene Eigen-

 ''  1   
  

 
 

  
  

werte  : a)  



und b)

   


 
'

 
 

Dabei bedeutet b), daß jedes 



  
eindeutig in der Form 
, darstell-

bar ist (nach Definition einer direkten Summe für endlich viele Summanden).
Beweis: Zu a): Induktion nach :

Induktionsbegin für
 : Sei   8 , dann folgt: 

  und  8 ,  8 ,   8  , , da   8 
Induktionsschluß: Sei
 und  ) . 

1 
'
' 



 

 

 


 



 

1
 




 1   

 

 
 

  

 

  

     
  

 nach Induktionsannahme
 

' da 







 
   ' '  . Sei beliebig.
 

Zu b): Sei

    
 

 


 


 

 
 

    ) '     (nach a)),    .



 

2.6 Algebraische und geometrische Vielfachheit


XVI.2 Eigenvektorräume 185

.
2.6.1 Definition
Sei die Ordnung der Nullstelle von   und  Dim
heißt die algebraische und  die geometrische Vielfachheit des Eigenwertes .

2.6.2 Vergleich der beiden Vielfachheiten


Die geometrische Vielfachheit ist kleiner oder gleich der algebraischen: 


Beweis:
Sei  ''  eine Basis von  und
 '' '   ''   eine Ergänzung zu einer


Basis von .
  
 ..


 
.
      
Det
 




 

'  ' '

2.6.3 Satz über Diagonalisierbarkeit


Sind  die paarweise verschiedenen Eigenwerte von , dann sind folgende Aus-
sagen äquivalent:

1. ist diagonalisierbar.

2. Das charakteristische Polynom von zerfällt in Linearfaktoren und   


 



3. Dim
  Dim 





4.
  




5.
  

Beweis: 1.
 2.:
186 XVI Eigenvektor-Theorie und Normalformen

eine Basis, so daß   folgende Diagonalgestalt hat:

 
 
 ..


.


 8


..
.



 8 ..
 .


 ..
.


Dabei sei  1 Anzahl der , die in der Hauptdiagonalen auftreten. 


       

 

 

  

  Dim   


   ' da 
  allgemein gilt.
2.
 3.:

      



 

 

    
   


Grad   Grad


  

 
  

  
  
wegen 2.5 auf Seite 184

 
 
  
  
  
 
Dim
  
  Dim 
    Dim

3. 4.: Wenn ein Untervektorraum die Dimension des ganzen Raumes hat, stimmt er mit dem
ganzen Raum überein.
4.
 5.: Wegen 2.5 auf Seite 184
5.
 1.:


Wir nehmen in jedem Summanden eine Basis. Diese setzen sich zu einer Basis aus Eigenvektoren
von zusammen. Also ist diagonalisierbar.
XVI.3 Satz von Caley-Hamilton und Minimalpolynom 187

XVI.3 Satz von Caley-Hamilton und Minimalpolynom


Wir behandeln auch in diesem Abschnitt einen Endomorphismus eines -dimensionalen Vek-
torraumes über einem Körper  .

3.1 Invariante Untervektorräume

1!  
3.1.1 Definition eines invarianten Untervektorraumes

Ein Untervektorraum von heißt invariant bei

3.1.2 Beispiele invarianter Untervektorräume



''   oder  , orthogonal, unitär oder selbstadjun-
    ein invarianter Untervektorraum.
1. ein Skalarprodukt, 
giert, Eigenvektor von . Dann ist 
2. Die Eigenvektorräume   sind invariant bei .
3. Ist  ein Eigenvektor von , so ist     invariant.    ist offenbar der kleinste
invariante Untervektorraum, der  enthält.

4. Sei  beliebig. Dann gibt es den kleinsten invarianten Untervektorraum  von , der
 enthält.
Denn der Durchschnitt von invarianten Untervektorräumen, die  enthalten, ist wieder ein
solcher. Daher ist  
invariant bei und  
3.1.3 Untersuchung des kleinsten Untervektorraumes  mit  
Wegen der endlichen Dimension von gibt es ein kleinstes  , so daß
('    '  '     linear abhängig 
sind. Weil +'   '  '     linear unabhängig sind,



ist  von ('  ' '     linear abhängig, d. h. es gilt:

        &&&        für geeignete    (1)

   ('   '  '      1 


 ist invariant bei ; denn für   gilt:
   
  
     8            Beachte hierbei:    wegen ( 1) 


 

  ' da  kleinster
 invarianter Untevektorraum, der  enthält.
        mit  1   ist eine Basis von  und
  
188 XVI Eigenvektor-Theorie und Normalformen

   

   .  .

 hat  die Matrix   .
 .. ..
bezüglich



 .. .. .. .. ..
   
. . . .

            &&          (nach 1.4)




(2)

zen wir in das charakteristische Polynom     für  ein und wenden den so erhaltenen
Durch Vergleich der Formeln ( 1 auf der vorherigen Seite) und ( 2) finden wir folgendes: Set-

Endomorphismus auf  an, so erhalten wir 0:




     (3) 

Es gilt aber noch viel mehr, nämlich:

3.2 Satz von Caley-Hamilton


               <&&&   7 
Setzen wir in das charakteristisches Polynom von

für  ein, so erhalten wir den Null-Endomorphismus:


             <&&     Id


  -Matrix  in ihr charakteristisches Po-


 :
Das Entsprechende gilt für die Einsetzung einer

                &&&      


lynom 

Bevor wir dies beweisen, erinnern wir daran, daß das Bild des Einsetzungshomomorphismus
eine kommutative Algebra ist, d. h. es gilt:

3.3 Feststellung

'   
   und  End
  gilt: 

     



 
Beweis zum Satz:

Ergänze ('   ' '      zu einer Basis von . Dann folgt:  


 

                 


  


   
 
                . Da  
  

 beliebig war, folgt 



   

.
XVI.3 Satz von Caley-Hamilton und Minimalpolynom 189

3.4 Minimalpolynom

  , die bei Einsetzen von 


3.4.1 Beispiele
Endomorphismen und Polynome  für den Nullendomorphis-
mus ergeben:

8 , genügt der Gleichung: 8  d. h.


  8 
1. Ein idempotenter Endomorphismus ,
 für  .
2. Eine Involution End  , 8 Id , genügt der Gleichung: 8  Id d. h. 



 8 .
 


für 

3. Eine komplexe Struktur End  , 8  Id , auf einem reellen Vektorraum genügt


der Gleichung: 8  Id d. h.  für  8  .


 

Fazit: Es gibt offenbar manchmal auch Polynome vom Grad Dim( ) mit  .  

3.4.2 Satz und Definition des Minimalpolynoms  

 End  gibt es genau ein normiertes Polynom  von minimalem Grade mit


 . Normiert bedeutet, daß der höchste nicht verschwindende Koeffizient gleich 1


1. Zu 

ist.  heißt das Minimalpolynom von .




2. Es ist Grad  
.


   mit  sind genau die durch  teilbaren.  teilt insbe-




3. Die Polynome
sondere das charakteristische Polynom  von .

 

 

Beweis:
         mit Grad    Grad   .

 Wäre , so hätten wir ein Polynom kleineren
  

       



 

     
 





Grades als  , das die Nullstelle in End  hat.




3.4.3 Einige Fakten über Polynome


1. Ein Polynom
 

heißt ein echter Teiler eines Polynoms , wenn  ein Teiler von ist mit
 

Grad  Grad
   heißen teilerfremd : ! keine echten gemeinsamen Teiler von  und .


2.  ' 8  
8  

3. Es gibt zu  ' 8
   genau einen normierten gemeinsamen Teiler von maximalem
Grad; er heißt der größte gemeinsame Teiler von  und 8 . Bezeichnung: 9  ' 8
   

Es gibt Polynome ' 0


   , so daß der größte gemeinsame Teiler von  und ge-
    

schrieben werden kann in der Form:
  
8

 -$0 8
 
190 XVI Eigenvektor-Theorie und Normalformen

 ' 
3.4.4 Berechnung des größten gemeinsamen Teilers
Wir beachten, daß per Definition Grad sei. Sei Grad Grad  . Dann kann der 

 %1 ' 1 
größte gemeinsame Teiler wie folgt durch Polynom-Divisionen berechnet werden. Wir setzen
   und führen folgende Polynom-Divisionen durch:

    .    Grad 


8 Grad 


   Grad  

.. 8 8
   Grad  

   .       Grad    Grad  
    -  8



  
 
Grad   
  Grad  






..
        Grad  8 
.
  -  8 
 
 Grad  
   Grad  

 8

     Grad  

Dann gibt es genau ein    , so daß &'  '  '


  und   ist. Dann ist 
  ggT 

' .

Dieser Verfahren heißt Euklidischer Algorithmus.

3.4.5 Beispiele



1. Für eine Drehung eines zweidimensionalen euklidischen Vektorraumes, die Id und
Id ist, gilt  

 

Dies liegt daran, daß keine Eigenwerte hat.


Denn 
 *   8       kann keine echten Teiler haben, weil diese dann linear wären; es würde gelten
und hätte Eigenwerte.
  


2. Für   bezüglich einer Basis ist   


   8
   

Gilt    ?  



  Id  hat die Matrix . Also ist   . Die Antwort ist nein.


Dann muß gelten 


 .
 

 
 

   
3. mit    hat nach dem 4. Beispiel aus IX. 2.4 auf Seite 82 das

 

 

charakteristische Polynom             8 und eine Basis aus Eigenvek-


toren  ' 8 '   '  Eigenvektor zum Eigenwert     , '  Eigenvektoren zum
. 8


Eigenwert  8


   . Dann wäre Id  , d. h.  Id , Widerspruch!


   . Dann wäre Id < , d. h. Id , Widerspruch!








XVI.3 Satz von Caley-Hamilton und Minimalpolynom 191

         1  .



 schreiben als    - 8 8     und erhalten:




Wir können ein beliebiges


     Id   Id    
 Id   Id      8 Id   Id   8     Id   Id    
     

Dies alles zeigt, daß  das Minimalpolynom ist; denn:

  , wie gerade gezeigt.


 ist normiert.
 ist ein Teiler von  .
0 0  )


Jeder Teiler von  von kleinerem Grad als  annuliert nicht. (

       


Ergebnis:  

3.5 Kriterium für Diagonalisierbarkeit

 End
  diagonalisierbar !   zerfälllt in Linearfaktoren und hat nur einfache Nullstellen.
Vgl. die Beispiele 2 und 3 in 3.4.5! Der Beweis des Kriteriums beruht auf folgendem:

3.6 Lemma

Sei  % &&  mit paarweise teilerfremden  ''


   . Sei  1  .
   8 && 

       Kern 
Dann gilt: 

Beweis: Für
Fall mit Induktion nach
):
  (Allgemeiner
       0    
   Id          0  8   
  wegen Punkt 3 von 3.4.3
  8    
   denn:
  0  8   
  0    8   
  0      


 .  8
Sei      8  .
 Rechte Seite von (*) ist 0.

 8
Bemerkung: Statt   könnte hier auch beliebiges Polynom  mit   stehen.
Beweis des Kriteriums:

 “: Seien  ''  die paarweise verschiedenen Eigenwerte von .
192 XVI Eigenvektor-Theorie und Normalformen

  1     8     &&    
 

Ein beliebiges  kann geschrieben werden in der Form:

      '* 


nach 2.6.3

      
 


      
 

  

  ist ein Polynom mit  .




 

  ist ein Teiler von  .


 zerfällt in Linearfaktoren und hat nur einfache Nullstellen, weil dies für  gilt.
       &&  
  '  ''


„ “:  
  paarweise verschieden.

  
 

Wegen des Lemmas 3.6 auf der vorherigen Seite folgt:
  Kern
  

diagonalisierbar, da direkte Summe von Eigenvektorräumen (vgl. 2.6.3).

3.7 Definition der Trigonalisierbarkeit


heißt trigonalisierbar Es gibt eine Basis von 1! , so daß die Matrix   von bezogen
auf diese Basis eine obere Dreiecksmatrix ist.

3.8 Kriterium über Trigonalisierbarkeit

Das charakteristische Polynom    von !



 zerfällt in Linearfaktoren.
ist trigonalisierbar.
Beweis: „ “:
   *    
           
   
. .
  


„ “: Induktiv  
nach , Beginn bei trivial.
Sei         &&     .
 ein Eigenvektor zum  Eigenwert  und  ''   eine Basis von


Sei .
   && 
  ... 


XVI.4 Das Normalformenproblem 193

         

  8    &&     



Sei  1  8 '   und
' $1    diejenige lineare Abbildung mit   bezüglich
'8 '   .         zerfällt in Linearfaktoren. Per Induktionsannahme gibt es eine


'' von  , sodaß diesbezüglich  trigonal. Dann ist  trigonal bezüglich


 ' 8 '8 '   . 


Basis 

3.9 Folgerung

Jeder Endomorphismus eines Vektorraumes über  ist trigonalisierbar.

XVI.4 Das Normalformenproblem


Wir wenden uns nun dem Problem zu, für einen Endomorphismus eines -dimensionaflen
Vektorraumes über einem Körper  eine Normalform der Abbildungsmatrix zu finden. Unter
Normalform verstehen wir zunächst eine möglichst einfache Gestalt der Abbildungsmatrix. Wir
werden diesen Begriff präzisieren. Wir schicken eine Definition voraus.

4.1 Definition

Ein Untervektorraum  von heißt zyklisch bezüglich : !


   

, sodaß der kleinste enthaltende, bei invariante Untervektorraum von ist (vgl. 3.1

 ('   ' '     


auf Seite 187). Mit andern Worten: Ein zyklischer Untervektorraum ist ein bei invarianter
Untervektorraum, zu dem es einen Vektor und ein  gibt, so daß  
eine Basis von ist. 


Wir hatten schon gesehen, daß jedes in einem zyklischen Untervektorraum enthalten ist und

daß bezüglich der genannten Basis eine einfache Form hat:
   

   .  .

  . .. ..



  
.. .. .. .. ..

. . . .


4.2 Definition

         !<&&         
So eine Matrix heißt Begleitmatrix des Polynoms

  
194 XVI Eigenvektor-Theorie und Normalformen

4.3 Frage

Können wir in eine direkte Summe von zyklischen Untervektorräumen zerlegen? Dann be-
kämen wir eine Normalform, die aus lauter diagonalen Kästchen von Begleitmatrizen besteht.
(Außerhalb der diagonalen Kästchen Nullen)
Wenn wir eine direkte Summenzerlegung von suchen, können wir obiges Lemma 3.6 auf
Seite 191 nochmals heranziehen. Dazu brauchen wir eine geeignete Zerlegung von  in ein 

Produkt paarweise teilerfemder Faktoren. Da gibt es aber eine kanonische, nämlich die Zerlegung
in die irreduziblen Faktoren (gleichbedeutend mit Primfaktorzerlegung). Dabei ist definiert:

4.4 Definition



   heißt irreduzibel ! Grad   und kein echter Teiler von .


4.5 Definition

Jedes normierte Polynom positiven Grades kann auf genau eine Weise als Produkt endlich 

vieler normierter irreduzibler Polynome dargestellt werden (Produkte, die sich nur um die Rei-
henfolge der Faktoren unterscheiden, werden hierbei als gleich angesehen.)

4.6 Satz

Sei     
  die Zerlegung von  in die irreduziblen Faktoren, wobei gleiche

 ' '


sind;   sind also insbesondere paarweise teilerfremd. Sei


 

1  
Faktoren zusammengefaßt

 

Kern . Dann gilt: 

   8 &&  
 '  ' 
1.

2.   ist invariant bei für .

3.   


 


4.7 Beispiel


     8      8    8  8    !  
Für  könnte   etwa so aussehen:

 

       


  

  '   ' 8 '   '     

Beachte: Über   sind die linearen und die quadratischen Polynome ohne reelle Nullstellen
die irreduziblen.
XVI.4 Das Normalformenproblem 195

Beweis zum Satz:

1. Nach dem Lemma 3.6 auf Seite 191 .

  . Wegen 3.3 auf Seite 188 folgt:            


 
2. Sei   


3. Offenbar gilt 

        

  
  

 , da es ein Teiler von  sein




muß.

Um also zu einer positiven Antwort auf die


noch zu zeigen, daß jedes mit  
  Frage 4.3 auf der vorherigen Seite zu kommen, ist
in eine direkte Summe zyklischer Untervektorräume  
 


zerlegt werden kann. Dies geht tatsächlich, es gilt:

4.8 Satz

 '
&'   ''    && 
Sei 
 

normiert und irreduzibel. Dann gibt es zyklische Untervektorräume


mit  .
Dem Beweis schicken wir einige Bezeichnungen, Feststellungen und einen Hilfssatz voraus.

4.9 Bezeichnungen

Sei  '    
 

und der kleinste -invariante Untervektorraum, der enthält.

 


1
heißt ein -erzeugender Vektor von und heißt auch der von -erzeugte Untervektorraum.
 



 

4.10 Feststellungen

A. Für 
   und  
  
 !

 gilt:
 !  




  

B. 
ist ein Teiler von  .

        



 

C. -invariant
   

Beweis:

 !       !    



A.   

Zu 1): „ “: klar. „ “:          

Insbesondere bildet  eine Basis von  nach 0 ab, also auch ganz   .
196 XVI Eigenvektor-Theorie und Normalformen

B.         ist also ein Polynom, welches   annuliert.    ist ein


Teiler von 
   

      dann ist          
.

 


   
C. Sei       


4.11 Hilfssatz

Sei  
und 
  mit '   
    Dann folgt:      Kern  
  Kern   .
 
 

Beweis: „  “: Sei
      


    wegen  , d. h. für 1     gilt:




  
  wegen Kern   Durch einsetzen von   erhalten wir:


 

          Daraus folgt für das Minimalpolynom: 












d. h.
0  0  für ein 0   Hier läßt sich rauskürzen:




   

0  dies in   einsetzen:





  0   


 
wegen C
   
„ “: 
          
    Kern





      wegen C.    und     



       Kern  

Beweis zum Satz:


Durch Induktion nach Dim  , Beginn für
 klar. Sei  .
a) Wahl des 1. Summanden...
Sei  ' 1   und
Wegen B ist 
Teiler von  .
'

 
  


 

 ein  ' für das


&''    ,



Sei