Sie sind auf Seite 1von 464

MATRIZEN

UND IHRE TECHNISCHEN ANWENDUNGEN

VON

DR.-ING. R UDOLF ZURMÜHL


O. PROFESSOR AN DER TECHNISCHEN UNIVERSITÄT
BERLIN

VIERTE NEUBEARBEITETE AUFLAGE

MIT 68 ABBILDUNGEN

Springer-Verlag Berlin Heidelberg GmbH


1964
ISBN 978-3-662-00455-5 ISBN 978-3-662-00454-8 (eBook)
DOI 10.1007/978-3-662-00454-8
ALLE RECHTE, INSBESONDERE DAS DER ÜBERSETZUNG
IN FREMDE SPRACHEN, VORBEHALTEN
OHNE AUSDRÜCKLICHE GENEHMIGUNG DES VERLAGES IST ES AUCH NICHT GESTA
DIESES BUCH ODER TEILE DARAUS AUF PHOTOMECHANISCHEM WEGE
(PHOTOKOPIE. MIKROKOPIE) ZU VERVIELFÄLTIGEN

COPYRIGHT 1964 BY SPRINGER-VERLAG BERLIN HEIDELBERG


URSPRÜNGLICH ERCHIENEN BEI SPRINGER-VERLAG OHG., BERLIN / GOTINGEN / HEIDELBERG
SOFTCOVER REPRINT OF THE HARDCOVER 4TH EDITION 1964

LIBRARY OF CONGRESS CATALOG CARD NUMBER 64-19867

TITEL-NR. 1153
Professor Dr. A. Walther, Darmstadt

gewidmet
Vorwort zur vierten Auflage
Gegenüber der letzten Auflage sind außer zahlreichen kleinen Ver-
besserungen und Zusätzen auch wieder einige größere Änderungen vor-
genommen worden. So wurde ein längst fälliger Abschnitt über Normen
eingefügt und davon bei Fehlerabschätzungen im numerischen Teil
Gebrauch gemacht. Bei Auswahl und Darstellung der numerischen
Methoden wurde die Automatenrechnung nochmals in den Vorder-
grund gerückt bis zur Aufnahme mehrerer ALGOL-Programme. Für
die Berechnung höherer Eigenwerte trat das Verfahren von KOCH an die
Stelle der HOTELLING-Deflation, mit der es - bei geeigneter Führung
der Deflation - identisch ist. Ausführlich dargestellt wird jetzt auch
das klassische jAcoBI-Verfahren, an das sich die von FALK und LANGE-
lI1EYER gegebene Abwandlung auf die allgemeine symmetrische Eigen-
wertaufgabe anschließt. Neu aufgenommen wurden entsprechend ihrer
Bedeutung für automatisches Rechnen RUTISHAUSERS LR-Transfor-
mation und das Verfahren von GIVENS. Auch das von HEsSENBERG
wird außer in seiner alten Form in einer für Automatenrechnung ge-
eigneteren Variante beschrieben. - Im Anwendungsteil ist der Ab-
schnitt über Matrizen in der Elektrotechnik neu abgefaßt unter Be-
tonung der topologischen Seite der Aufgabe, die im neueren Schrifttum
hervortritt. Für die Behandlung von Biegeschwingungen - außer der
mit Übertragungsmatrizen - wird in § 27.) bis 7 ein Verfahren ge-
bracht, das ein älteres der früheren Abschnitte § 26.7 und 8 ersetzt.
Überhaupt konnte durch Zusammenziehen und Streichen der alte Um-
fang des Buches beibehalten werden.
Die augenfälligste, wenn auch rein äußerliche Neuerung gegenüber
den früheren Auflagen, die Umstellung von Frakturbuchstaben auf
Fettdruck für Matrizen und Vektoren, schien im Hinblick auf das
sonstige Schrifttum angebracht. Für den nicht leichten Entschluß zu
dieser einschneidenden Satzumstellung sage ich dem Springer-Verlag
meinen besonderen Dank, der aber auch wieder alles das einschließt,
was der Verlag sonst an Mühe und Sorgfalt dem Buche hat angedeihen
lassen. Mein Dank gilt zahlreichen Anregungen von Kollegen, die mir
halfen, das Buch auf modernem Stand zu halten. Schließlich danke ich
Herrn Dipl. Math. D. STEPHAN für sachkundige und wertvolle Hilfe
beim Aufstellen der Programme sowie beim Lesen der Korrektur.

Berlin 41, im April 1964


Steglitzer Damm 14 Rudolf Zurmühl
Übersichtstafel ....-<
Kap_ --Kalküi---~ Linear;- Gleichungen I Quadr. Eigenwerte Struktur Numerische An wt!odungen
Form Verfahren I
2 678910 11 12 13 14 15 16 17 18 19 20 21 22 23 ' 24 25 26 27 28

Grundbegriffe 1 :.
Matrizenprodukt 2
Kehrmatrix 3
Komplexe Matrizen 4
•• •
Lineare Abbildungen 5 •• • •
GAuss~cher Algorithmus 6 *
Lin. Abbängigkeit, Rang 7 •••
Lineare Gleichungen 8
•• •
Orthogonalsystem 9 •• •• •• _ I •- •
- •
- "
Polynommatrizen ,_10__ ~~____. -- - -- -""" * ___ ,i _______ _
Quadratische Formen -I 11 ••• o. •• • I C
Anwendungen 12 ••• • • • 0-
(1)
....rJ>
Eigenwerte, Eigenvektoren 13. • • •• ••• 0 • 1 •

Diagonaläbnliche Matrizen 14. •• ••••• • • "'g.


Symmetrische Matrizen 15. • • •• •••• I. •• .rJ>
Normale Matrizen, Normen 16. • • ••• I· I.. ....
Spezielle Matrizen 17 ••• 0 I • • e:,
•• •
---- I ~------- g.
Minimumgl. Klassifikation
Normalform, Hauptvektoren
18
19. •• • 1 •
I
'
I • • • •
• •
• •*
• • '
Funktionen, Gleichungen ~- • •• • ---i~-~~~--- ! -- --- - - -
• i-
~.
I I· ••• 1_ ..• *
Eigenwerte: Iterativ I 21 I... • • •• • • 0 0 I. I
Eigenwerte: Direkt 22 ••• 0 • 'I 0 0 • • • • 0 I··
Iteration linearer Gleichungen i. 23 i. •• . 0 • 0 • .
Elektrotechnik 1--2-4-1-• • •---0 • --------- -----1----- -------
Statik
übertragungsmatrizen I 25
26 .• • • • I
I.. .. .. ••
Schwingungstechnik
Lineare Differentialgleichungen 27
28 ••••
I· • • I• • • •• •
• •• •• •• ••
------ - --- - - ---'----'--- ••
Gegenseitige Verknüpfung der Abschnitte.
Zeile: Zum letzten § der Zeile wird • durchweg, 0 stellenweise gebraucht.
Spalte: Vom ersten § der Spalte wird in • durchweg, in 0 stellenweise Gebrauch gemacht.
* kann zunächst überschlagen werden.
Inhaltsverzeichnis 1

1. Kapitel. Der Matrizenkalkül Seite


§ 1. Grundbegriffe und einfache Rechenregeln
1.1. Lineare Transformation, Matrix und Vektor. . . . . . . . . . . . . . . . . 1
1.2. Zeilen- und Spalten vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. E;iifache Rechenregeln ................................... 7
1.4. Transponierte Matrix, symmetrische und schiefsymmetrische
Matrix.................................................. 9
1.5. Diagonalmatrix, Skalarmatrix und Einheitsmatrix . . . . . . . . . . . . 11
1.6. Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante. . . 12
§ 2. Das Matrizenprodukt ...................................... 15
2.1. Einführung des Matrizenproduktes . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Sätze über Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3. Diagonal- und verwandte Matrizen. . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4. Skalares Produkt, Betrag und Winkel reeller Vektoren. . . . . . . . 25
2.5. Dyadisches Produkt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6. Potenzen und Polynome. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.7. Die GAusssche Transformation. . . . .. . . . . . . . . . . . . . . . . . . . . . . . 30
2.8. Orthogonale Matrizen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
§ 3. Die Kehrmatrix............................................ 33
3.1. Begriff und Herleitung der Kehrmatrix . . . . . . . . . . . . . . . . . . . . . 33
3.2. Adjungierte Matrix. Formelmäßiger Ausdruck der IXjk' • . . • • • • • 36
3·3· Matrizendivision ......................................... 39
§ 4. Komplexe Matrizen ........................................ 40
4.1. Komplexe Matrizen und Vektoren. . . . . . . . .. . . .. .. .. .. . . . . . . 40
4.2. Sonderformen komplexer Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3. Reelle Form komplexer Matrizen. .. . . .. .. ... . . .. . . . . .. .. . . . 45
*§ 5. Lineare Abbildungen und Koordinatentransformationen. . 48
5.1. Lineare Abbildungen ..................................... 48
5.2. Darstellung durch Matrizen ............................... 51
5·3· Koordinatentransformation ............................... 53
5.4. Orthogonale Transformationen. . . . . . . . . . .. . . . . . .. . . . .. . . . . . 55
5.5. Kontragrediente Transformation und Kongruenz. . . . . . . . .. . . . 56

H. Kapitel. Lineare Gleichungen


§ 6. Der GAusssche Algorithmus................................ 58
6.1. Prinzip des Algorithmus ...................... , . . . . . . . .... 58
6.2. Verketteter Algorithmus als Matrizenoperation . . . . . . . . . . . . . . . 60
-----
1 Die durch einen * gekennzeichneten Paragraphen können beim ersten Lesen
überschlagen, sollten jedoch nachgeholt werden, sobald an späterer Stelle auf ihren
Inhalt verwiesen wird.
VIII Inhaltsverzeichnis
Seite
6.3. Symmetrische Koeffizientenmatrix. Verfahren von CHOLESKY. 66
6.4. Reihenvertauschung bei bii = 0 ........................... 68
6.5. Divisionsfreier Algorithmus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.6. Berechnung der Kehrmatrix. Matrizendivision . . . . . . . . . . . . . . . 75
6.7. Kehrmatrix bei symmetrischer Matrix. . . . . . . . . . . . . . . . . . . . . . 77
§ 7. Lineare Abhängigkeit und Rang........................... 79
7.1. Lineare Abhängigkeit eines Vektorsystems . . . . . . . . . . . . . . . . . . 79
7.2. Der Rang einer Matrix ................................... 82
7.3. Rang von Matrizenprodukten ............................. 86
7.4· Äquivalenz.............................................. 91
§ 8. Allgemeine lineare Gleichungssysteme .................... 93
8.1. Allgemeine homogene Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 93
8.2. Allgemeine inhomogene Gleichungssysteme . . . . . . . . . . . . . . . . . . 98
*§ 9. Orthogonalsysteme ........................................ 101
9.1. Orthogonalisierung eines Vektorsystems .................... 101
9.2. Vollständiges Orthogonalsystem . . . . . . . . . . . . . . . . . . . . . . . . . . .. 103
9.3. Biorthogonalsysteme ..................................... 106
9.4. Vollständiges Biorthogonalsystem . . . . . . . . . . . . . . . . . . . . . . . . .. 109
9.5. Halbinverse einer Rechteckmatrix . . . . . . . . . . . . . . . . . . . . . . . . .. 112
*§ 10. Polynommatrizen und ganzzahlige Matrizen............... 115
10.1. Parametermatrizen. Charakteristische Determinante und Rang-
abfall .................................................. 115
10.2. Polynommatrizen und ganzzahlige Matrizen. Äquivalenz...... 117
10.3. Die SMITHsche Normalform. Elementarpolynomc und Elemen-
tarteiler ................................................ 120

IH. Kapitel. Quadratische Formen nebst Anwendungen


§ 11. Quadratische Formen...................................... 125
11.1. Darstellung quadratischer und bilinearer Formen. . . . . . . . . . . .. 125
11.2. Positiv definite quadratische Formen. . . . . . . . . . . . . . . . . . . . . .. 127
11.3. Transformation quadratischer Formen. Kongruenz........... 130
11.4. Hermitesche Formen ................... - . . . . . . . . . . . . . . . . . 133
11.5. Geometrische Deutung .................... - ..... - .... - . . .. 135
§ 12. Einige Anwendungen des Matrizenkalküls ................. 137
12.1. Anwendung in der Ausgleichsrechnung .......... - . . . . . . 137
12.2. Berechnung von Fachwerken ........................ _..... 140
12.3. Behandlung von Schwingungsaufgaben . . . . . . . . . . . . . . . . 142

IV. Kapitel. Die Eigenwertaufgabe


§ 13. Eigenwerte und Eigenvektoren ............................. 146
13.1. Problemstellung une! Begriffe. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 146
13.2. Die Eigenvektoren ................... _. . . . . . . . . . . . . . . . . .. 148
13-3. Beispiele ............................................... 151
13.4. Linkseigenvektoren. Orthogonalität........................ 155
13.5. Ähnlichkeitstransformation. Invarianten ................... 157
13.6. Der RAYLEIGH-Quoticnt. Wertebereich einer Matrix. . . . . . . . .. 159
13.7. Matrizenpotenzen. Matrizenprodukte . . . . . . . . . . . . . . . . . . . . . . . 162
13.8. Die allgemeine Eigenwertaufgabe .......................... 165
13.9. Eigenwertberechnung bei komplexer Matrix. . . . . . . . . . . . . . . .. 167
Inhaltsverzeichnis IX
Seite
§ 14. Diagonalähnliche Matrizen................................ 169
14.1. Das System der Eigenachsen. Transformation auf Diagonalform 169
14.2. Der Entwirklungss'l.tz Verfahren von KRYLOV . .. .. . .. . .. . .. . 171
1";.3. CA. YLEy-HA.MILTONsche Gleichung und Minimumgleichung .... 178
14.4. Das v. MIsEssche Iterationsverfahren ................ . . ... . 181
14.5. Spektralzerlegung diagonalähnlicher Matrizen.... . . . .. . .. ... 183
§ 15. Symmetrische und hermitesche Matrizen................. 184
15.1. Eigenwerte und Eigenvektoren ............................. 184
15.2. Extremaleigenschaften der Eigenwerte ...................... 186
15.3. Extremaleigenschaft, Fortsetzung .......................... 189
15.4. Anwendung auf quadratische Formen. . . . . . . . . . . . . . . . . . . . . .. 191
15.5. Allgemeine Eigenwertaufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 193
15.6. Schiefhermitesche und unitäre Matrizen. . . . . . . . . . . . . . . . . . . .. 195
§ 16. Normale und normalisierbare Ma trizen. Matrixnormen.... 196
16.1. Symmetrisierbare Matrizen................................ 197
16.2. Normale und normalisierbare Matrizen...................... 198
16.3. Matrixnormen und Eigenwertschranken . . . . . . .. . . . . . . . . . . . .. 202
16.4. Weitere Abschätzungen der Eigenwerte. . . . . . . . . . . . . . . . . . . .. 209
16.5. Konditionszahlen . . . . . . .. .. .. . .. . . . . . . . .. .. .. . . . . . . . . . . . .. 212
*16.6. Hauptachsensystempaar einer allgemeinen Matrix............ 215.
*16.7. Produktdarstellung als Drehstreckung. Radizieren einer Matrix 217
*§ 17. Eigenwerte spezieller Matrizen............................ 218
17.1. Nichtnegative Matrizen. Einschließungssätze . . . . . . . . . . . . . . . . 219
17.2. Spaltensummenkonstante und stochastische Matrizen. . . . . . . . . 221
17.3. Schachbrettmatrizen .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 224
17.4. Differenzenmatrizen ...................................... 229
17.5. Matrizen zyklischer Bauart ................................ 231

V. Kapitel. Struktur der Matrix


§ 18. Minimumgleichung, Charakteristik und Klassifikation.... 234
18.1. Die Minimumgleichung ................................... 234
18.2. Determinantenteiler, Elementarpolynome und Elementarteiler . 237
18·3. Minimalpolynom. Rangabfall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
18.4. Charakteristik und Klassifikation einer Matrix ............... 240
18.5. Matrizenpaare, simultane Äquivalenz und Ähnlichkeit. .. . . . .. 243
§ 19. Die Normalform. Hauptvektoren und Hauptvektorketten . 245
19.1. Die }ORDANsche Normalform .............................. 245
19·2. Orthogonalität von Rechts- und Linkseigenvektoren .......... 248
19.3. Die WEYRschen Charakteristiken. . . . . . . .. . . . . . . . . . . . . . . . . .. 251
19.4. Die Hauptvektoren ....................................... 253
*19.5. Aufbau der Hauptvektoren ................................ 257
*§ 20. Matrizenfunktionen und Matrizengleichungen ............. 262
20.1. Eigenwerte einer Matrizenfunktion ......................... 262
20.2. Reduktion der Matrizenfunktion auf das Ersatzpolynom ....... 264
20.3. Matrizenpotenzreihen und durch sie darstellbare Matrizenfunk-
tionen .................................................. 267
20.4. Beispiele ................................................ 269
20.5. Allgemeinere Definition der Matrizenfunktion .... . . . . . . . . . . .. 270
20.6. Lineare Matrizengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 273
20·7. Die Gleichungen X m = 0 und xm = 1 . . . . . . . . . . . . . . . . . . . . .. 276
20.8. Allgemeine algebraische Matrizengleichung ." . . . . . . . . . . . . . . . 277
x Inhaltsverzeichnis

VI. Kapitel. Numerische Verfahren Seite


§ 21. Eigenwertaufgabe: Iterative Verfahren................... 279
21.1. Die v. MJsEssche Vektoriteration ........................... 279
21.2. Betragsglciche, insbesondere komplexe Eigenwerte. . . . . . . . . . . 283
21.3. Automatenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 290
21.4. Berechnung höherer Eigenwerte: Verfahren von KOcH........ 291
21.5. Gebrochene Iteration. Die allgemeine Eigenwertaufgabe . . . . . .. 296
21.6. ""lELANDT-Korrektur am einzelnen Eigenwert............... 301
21.7. \VlELANDT-lteration an zwei Eigenwerten. . . . . . . . . . . . . . . . . .. 304
21.8. Das ]AcoBJ-Verfahren .................................... 308
21.9. Ein ]AcoBl-Verfahrcn für Matrizenpaare .. ................... 313
21.10.LR-Transformation von RUTlSHAUSER ...................... 316
§ 22. Eigenwertaufgabe: Direkte Verfahren..................... 318
22.1. Überblick............................................... 318
22.2. Verfahren von HESSEN BERG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 321
22.3. Aufbau des charakteristischen Polynoms. . . . . . . . . . . . . . . . . . . . 325
22.4. Bestimmung der Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . .. 327
22.5. Andere Form des HEssENBERG-Vcrfahrens. Automatenrechnung 328
22.6. Verfahren von GIVENS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 332
22.7. Verfahren von HOUSEHOLDER .............................. 333
§23. Iterative Behandlung linearerGleichungssysteme ......... 338
23.1. Das GAuss-SElDELsche Iterationsverfahren . . . . . . . . . . . . . . . . .. 338
23.2. Iteration mit Elimination. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 340
23.3. Konvergenz und Fehlerabschätzung . . . . . . . . . . . . . . . . . . . . . . .. 343
23.4. Eelaxation nach GAUSS-SOUTHWELL . . . . . . . . . . . . . . . . . . . . . . .. 347
23·5. Iterative Nachbehandlung. Schlecht konditionierte Systeme. .. 352
23·C. Iterative Berechnung der Kebrmatrix nach G. SCHULZ . . . . . . . .. 354

VII. Kapitel. Anwendungen


§ 24. Matrizen in der Elektrotechnik............................ 357
24.1. Topologie des ungcrichteten Netzes. . . . . . . . . . . . . . . . . . . . . . . .. 358
24.2. Das gerichtete Netz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 362
24.3. Die Netzberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 363
~ 25. Anwendungen in der Statik................................. 368
25.1. Allgemeiner Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 368
25.2. Spannungen und Verformungen der Elemente. . . . . . . . . . . . . . .. 370
25.3. Die Element-Federungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
25.4. Die Strukturmatrix ...................................... 374
25.5. Verformungen und Verscbiebungen ......................... 375
25.6. Nichtlineare Elastizität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 377
25.7. Ein Beispiel............................................. 379
§ 26. Übertragungsmatrizen zur Behandlung elastomechani-
scher Aufgaben............................................. 381
26.1. Prinzip ................................................. 381
26.2. Biegeschwingungen ...................................... 383
26.3. Zwischenbedingungen .................................... 388
26.4. Federn und Einzelmassen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 391
26.5· Determinantenmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 396
26.6. Aufgaben der Balkenbiegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
Inhaltsverzeichnis - Bezeichnungen XI
Seite
§ 27. Matrizen in der Schwingungstechnik. ...................... 410
27.1. Ungedämpfte Schwingungssysteme endlicher Freiheitsgrade.... 410
27.2. Schwingungssysteme mit Dämpfung. Stabilität. . . . . . . . . . . . . .. 414
27.3. Ein Matrizenverfahren zur Behandlung von Biegeschwingungen 417
27.4. Biegeschwingungen : Aufbau der Steifigkeitsmatrix . . . . . . . . . .. 418
27.5. Biegeschwingungen : Aufbau der Massenmatrix . . . . . . . . . . . . . .. 420
27.6. Beispiele zu Biegeschwingungen . . . . . . . . . . . . . . . . . . . . . . . . . . .. 421
27.7. Singuläre Steifigkeitsmatrix ............................... 424
§ 28. Systeme linearer Differentialgleichungen................. 426
28.1. Homogene Systeme erster Ordnung mit konstanten Koeffizienten 426
28.2. Verhalten bei nichtlinearen Elementarteilern . . . . . . . . . . . . . . . .. 431
28.3. Systeme höherer Ordnung. . . . . . . . . . . . . .. ................. 435
28.4. Inhomogene Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 439
28.5. Nichtkonstante Koeffizienten. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 442

Namen- und Sachverzeichnis.................. .................. 447

Bezeichnungen

Zeichen Bedeutung Erklärt auf Seite


~------

A Matrix 1
A' transponierte Matrix 9
A* konjugiert transponierte Matrix 42
x Spalten vektor 10
x' Zeilenvektor 10
x* konjugierte Zeile 42
ai i- te Zeile von A 6
ak k-te Spalte von A 6
det A Determinante von A 14
sp A Spur von A 15
IIAII Norm von A 202
XII Aus dem Schrifttum

Ausführlich oder vorwiegend


behandelt:

Aus dem Schrifttum EIE


I': I': Q) bD
i~ 1':1 ~~Ell§

1] iIHH,~1
1 Cl)
:;s
,~ _ _ _ _
ro .....
~0Z>,t-«
..-4 ==' (l) Cl) C
___ ~_~ _____ ~___ _ ___ __ ~L

[IJ BÜCHER, M.: Einführung in die höhere.! X x x l


'i I
Algebra. 2. Aufl. Leipzig u. Berlin 1925
[z] BODEWIG, E.: Matrix Calculus. 2. Aufl. X X X'
Amsterdam 1959 I
[3J COLLATZ, L.: Eigenwertaufgaben mit X X I X
technischen Anwendungen. Leipzig 196 3
[4] DENIS-PAPIN, M., U. A. KAUFMANN, X I X
Cours de Calcul matriciel applique. Pa- I

ris 1951
[sJ DURAND, E.: Solutions num~rique5 des X X X
(quations algebriques. Bd. 2. Paris 1961
[6J FRAZER, R. A., W. J. DUNCAN U. A. R. X
X X X
COLLAR: Elementary matrices and some
applications to dynamics and differen- I
tial equations. Cambridge 1938
[7J GA:\TMACHER, F. R.: Matrizen-
X X
X X
rechnung I, II. Berlin 1958/59
[8] GRÖBNER, W.: Matrizenrechnung. Mün- X X X
chen 1956
[9J HOUSEHOLDER, A. S.: Principles of nu- X X X
merical analysis. New York/Torontof
London 1953
[10] MAC DUFFEE, C. C.: The theory of ma- X
trices. Ergebn. Math. Grenzgeb. Bd. 2,
H. 5, Berlin 1933
[11] NEISS, F.: Determinanten und Matri- X X X
zen. 6. Auf!. Berlin/Göttingen/Heidel- I
berg: Springer 1962
[IZJ SCHMEIDLER, W.: Vorträge über Deter- X X X X X
minanten und Matrizen mit Anwendun-
gen in Physik und Technik. Berlin 1949 I
[13J SPERNER. E.: Einführung in die analy- X X X
tische Geometrie und Algebra. Bd. 1,2.
Göttingen 1948, 1951
[14J STOLL, R. R.: Linear algebra and X X X
matrix theory. New York, Toronto,
London 1952
[15] ZURMÜHL. R.: Praktische Mathematik X X X X
für Ingenieure und Physiker. 4. Auf!.
Berlin/Göttingen/Heidelberg: Springer
1963
1. Kapitel

Der Matrizenkalkül
§ 1. Grundbegriffe und einfache Rechenregeln
1.1. Lineare Transformation, Matrix und Vektor
Gegenstand der Matrizenrechnung sind lineare Beziehungen zwischen
Größensystemeil. Eine solche Beziehung homogener Art zwischen einem
ersten System von n Größen Xl' X 2 , . . . 'X n und einem zweiten von m
Größen YI' Y2' ... , Ym der Form
an Xl + a l2 X 2 + ... + a l n x n = YI 1
a 2l x I + a22 x 2 + ... + a2n X n = Y2 ~ (1 )
amix i +a m2 X 2 + ... + a mn X n = Ym J

ist festgelegt durch das Schema ihrer mX n Koeffizienten a,k' die als
gegebene - reelle oder auch komplexe - Zahlen anzusehen sind. Dieses
- nach Zeilen i und Spalten k - geordnete Schema der Koeffizienten aik
wird eine Matrix, die Matrix der linearen Beziehung (1) genannt, was
soviel wie Ordnung, Anordnung bedeutet und woran etwa das Wort
Matrikel erinnert. In dieser Bedeutung eines rechteckig angeordneten
Koeffizientenschemas wurde das Wort Matrix zuerst von dem eng-
lischen Mathematiker SYLVESTER I benutzt.
Es erweist sich nun als sinnvoll und zweckmäßig, das Koeffizienten-
schema, die Matrix als eine selbständige mathematische Größe zu-
sammengesetzter Art aufzufassen und durch ein einziges Symbol, einen
Buchstaben zu bezeichnen. Um sie gegenüber einfachen Zahlengrößen
- Skalaren - hervorzuheben, verwendet man wohl große Fraktur-
buchstaben 2 oder Fettdruck. Wir schließen uns hier dem zweiten Brauch
an und schreiben
an a I2 ··· aIn)
( ~2I a2•2 •.• ~2n. = A = (alk) . (2)

amI am2 ·•• amn


Auch andere Schreibweisen sind gebräuchlich, z. B.

an
[.....
ain 1
= [alk]' (2a)
amI' .. a mn

1 SYLVESTER, J. J.: Philos. Mag. Bd. 37 (1850), S.363.


2 Wie in den früheren Auflagen dieses Buches; für das Schreiben von Hand ist
das bequemer.
Zurmühl, Matrizen 4. Anfl.
2 § 1. Grundbegriffe und einfache Rechenregeln

Außer dem Zahlenwert des Koeffizienten aik ist seine durch den Doppel-
index i, k festgelegte Stellung im Schema wesentlich, wobei der erste
Index stets die Zeile, der zweite die Spalte kennzeichnet. Die Größen ai h
heißen die Elemente der Matrix. Ist die Anzahl m ihrer Zeilen gleich der
Zahl n ihrer Spalten, so heißt die Matrix quadratisch, und zwar von der
Ordnung n. Eine - im allgemeinen nichtquadratische - Matrix von
m Zeilen und n Spalten wird auch mn-Matrix genannt.
Auch die der linearen Verknüpfung (1) unterworfenen Größen Xi' )'i
faßt man zu je einem Größensystem, einem sogenannten Vektor x bzw. y
zusammen, die sich als einreihige Matrizen auffassen lassen. Dabei hat
es sich als zweckmäßig erwiesen, die Komponenten Xi' Yi dieser Vektort'n
in Form von Spalten anzuordnen:

Man spricht dann bei (1) von einer linearen Transformation des Vektors
Xin den Vektor y und schreibt das ganze kurz und sinnfällig

Ax=y I. (4)

Gleichungen (1) und (4) bedeuten gen au das gleiche. Um nun dabei
das Zeichen A x wie üblich als ein Produkt verstehen zu können,
definiert man
Definition 1: Unter dem Produkt A x einer mn-Matrix A = (a ik )
mit einer n-reihigen Spalte x = (x k ) (einem Vektor mit n Komponenten)
versteht man den m-reihigen Spaltenvektor y = (y;), wobei die i-te Kompo-
nente Yi als das skalare Produkt
ail Xl + ai2 X 2 + ... + ain X n = Yi (5)
der i-ten Zeile von A mit der Spalte x entsteht.
In diesem Sinne übersetzt sich die "Matrizengleichung" (4) in das
System (1). Sie ist Abkürzung und Rechenvorschrift zugleich.
Das hier definierte Produkt aus Matrix und Vektor ist wesentlicher
Bestandteil eines allgemeinen, von CAYLEY eingeführten I Matrizen-
kalküls, also einer rechnerischen Verknüpfung von Matrizen. Hier wird
das Rechnen mit linearen Transformationen auf einige wenige Grund-
operationen mit den Koeffizientenschemata, den Matrizen der Trans-
formationen zurückgeführt, die sich in naheliegender Weise als Addition,
Multiplikation und Division von Matrizen definieren lassen, indem sie

1 CAYLEY, A.: Trans. London philos. Soc. Bd. 148 (1858), S. 17-37
1.1. Lineare Transformation, Matrix und Vektor 3
mit den entsprechenden Zahlenoperationen bestimmte Grundregeln
gemeinsam haben. Hierdurch aber erfährt das Operieren mit den auch
für Anwendungen der verschiedensten Art so überaus bedeutsamen
linearen Beziehungen eine solche Erleichterung, daß die Matrizen-
rechnung heute zu einem festen Bestandteil der Mathematik geworden
ist. Erst in der Sprache des Matrizenkalküls lassen sich sonst ver-
wickelte und langwierige Operationen einfach und übersichtlich wieder-
geben und herleiten. Auch die Ingenieurmathematik, soweit sie mit
linearen Beziehungen zu tun hat, bedient sich daher in zunehmendem
Maße dieses modernen und der Sache angemessenen Hilfsmittels, das
wie kaum ein anderes geeignet ist, umfangreiche Rechnungen zu
schematisieren und oft weit auseinander liegende Sachgebiete auf den
gemeinsamen formalen Kern zurückzuführen.

Zur mathematischen Kurzform des Matrizenkalküls tritt eine will-


kommene anschauliche I nterpretierbarkeit der Operationen. Diese ergibt
sich unmittelbar aus der dreidimensionalen Geometrie und Vektor-
rechnung, wo einem Vektor x bzw. seinen drei Komponenten Xl' X 2 , x 3
die anschauliche Bedeutung von Punkt koordinaten oder Vektorkom-
ponenten zukommt. Fast alle mit geometrischen Vorgängen verknüpften
algebraischen Operationen - Vektoraddition, Vektorvervielfachung,
Koordinatentransformation und dergleichen - aber sind nicht an die
Dimensionszahl 3 des anschaulichen Raumes gebunden, sondern von
dieser Dimensionszahl unabhängig, die man daher zur beliebigen Zahl n
verallgemeinern kann. Dies führt dann auch für beliebiges n zu einer
geometrischen Sprechweise, die sich in mancher Hinsicht als nützlich und
förderlich erweist, indem sie auf entsprechende anschaulich verfolg-
bare Vorgänge des dreidimensionalen Raumes hindeutet. Man definiert
in diesem Sinne ein System geordneter Zahlen, ein Zahlen-n-Tupel
{xl> X 2 , ••• ,x,,} = x als einen Punkt oder Vektor in einem n-dimensiona-
len Raume Rn' und man definiert dabei diesen Raum Rn als die Gesamt-
heit der n-dimensionalen Zahlensysteme x, wenn jede der Komponenten
Xi des Systems x die Gesamtheit aller reellen - oder auch der komplexen
- Zahlen durchläuft. Nur im Falle n = 3 oder 2 oder 1 und reellen Xi
entspricht dem so algebraisch definierten "Raume" Rn auch ein geome-
trischer, also anschaulich faßbarer Raum von n Dimensionen: im Falle
n = 3 der Gesamtraum, im Falle n = 2 eine Ebene, für n = 1 eine Gerade.
In diesem Sinne sprechen wir dann bei der linearen Transformation (1)
bzw. (4) von einer linearen Abbildung!, einer Abbildung eines Vektors x
in einen Vektor y. Diese Abbildung, obgleich bei beliebig angenommenen
Koeffizienten aik sehr allgemein, hat doch im dreidimensionalen Falle
die charakteristische Eigenschaft, lineare Gebilde wiederum in eben-
1 Dabei denken wir vorwiegend an den Fall m = n
1"
4 § 1. Grundbegriffe und einfache Rechenregeln

solche zu überführen, d. h. Geraden in Geraden, Ebenen in Ebenen, wes-


halb die Abbildung linear genannt wird.
Ungeachtet einer solchen geometrischen Interpretierbarkeit eines
Vektors, also eines Systems geordneter Zahlen Xi' stellt der Vektor selbst
meistens kein geometrisches Gebilde dar. Die reale Bedeutung der
"Vektorkomponenten" Xi kann in den Anwendungen von der verschie-
densten Art sein, wie z. B.
die Stabkräfte Si in einem Fachwerk von n Stäben
die Ströme Ji in einem elektrischen Netzwerk von n Stromzweigen
die Auslenkungen Xi oder Geschwindigkeiten Xi eines Schwingungs-
systems von n Freiheitsgraden
die Raumteile r i oder Gewichtsteile gi eines Gasgemisches
die Kostenanteile K i an den Gesamtkosten eines Erzeugnisses oder
Betriebszweiges
die drei Schnittgrößen N, Q, M (Längskraft, Querkraft, Biegemoment)
in einem Balkenquerschnitt.
Das letzte Beispiel zeigt, daß die Komponenten Xi eines Vektors nicht
einmal von gleicher Dimension zu sein brauchen. Die Zusammenfassung
von n Größen Xi zu einem Vektor x bietet sich in jedem Falle an, wenn
zwischen ihnen und einem anderen System y = (Yi) ein linearer Zusam-
menhang der Form A x = y gesetzt werden kann. Hierzu das folgende
Beispiel: Zwischen den m Stabkräften Si eines Fachwerkes von m
Stäben und den n - etwa vertikalen - Knotenlasten P k des Fach-
werkes besteht ein linearer Zusammenhang der Form
51 = an Pi + a12 P 2 + ... + aln P n 1
::o~ a~~:~"I::,~~:+'1 la,:,~~, I
(A)

oder kurz
s=Ap!, (8)
wo wir die Stabkräfte Si bzw. die Knotenlasten P k zum m- bzw. n-
dimensionalen Vektor

zusammengefaßt haben. Die Koeffizienten aik der Verknüpfungsmatrix


A, die sogenannten Einflußzahlen ergeben sich, wie man aus (A) erkennt,
als Stabkräfte Si' wenn alle Lasten Pi = 0 gesetzt werden bis auf eine
einzige P k = 1 (genauer: die aik sind die dimensionslosen Verhältnis-
zahlen SJ P k bei Pi = 0 für f =!= k), sie lassen sich also als Stabkräfte
1.2. Zeilen- und Spalten vektoren 5

nach einem der üblichen Verfahren (CREMoNAplan, RITTERscher Schnitt)


bestimmen. Für das Beispiel der Abb. 1.1 erhält man auf diese Weise
die Matrix
-3 -2 -1
3/2 1 1/2
-1 2 1
A= -1 -2 -1
2 V3
1 2 -1
1/2 3/2
-1 -2 -3
ALb. 1.1. Beispiel eines Fachwerks

wenn wir, wie üblich, Zugkraft positiv und Druckkraft negativ zählen
und den allen Elementen gemeinsamen Faktor 1{2 V3 vor die Matrix
ziehen. Es ist also beispielsweise

+ 2 P + Pa) .
1
53 = Y (- Pl 2
2 3

Der Symmetrie der Fachwerkanordnung entspricht eine Symmetrie im


Aufbau der Matrix. - Allgemein ist so jedem Fachwerk - auch einem
statisch unbestimmten - eine Matrix A = (a ik ) zugeordnet, die im
statisch bestimmten Falle nur von der geometrischen Anordnung des
Fachwerkes abhängt und die die Stabkräfte 5 i linear mit den vertikalen
Knotenlasten P k verknüpft. - Wir werden auf die Behandlung von
Fachwerken mittels Matrizen später ausführlich zurückkommen, wenn
wir die erforderlichen Hilfsmittel bereitgestellt haben (vgl. § 12.2).

1.2. Zeilen- und SpaItenvektoren


Ein System von n geordneten Zahlen Xl' X 2, ••• , x n (ein Zahlen-n-
Tupel) haben wir einen (n-dimensionalen) Vektor genannt und dies oben
durch eine Reihe von Beispielen erläutert. Für die Darstellung eines
solchen Vektors als Matrix ist es nun an sich belanglos, ob wir die n
Komponenten Xi in Form einer Zeile oder einer Spalte anordnen. Beide
Formen sind gleichwertige Darstellungen des Vektors, d. h. des ge-
ordneten Zahlensystems der x" wenn wir auch bisher ausschließlich
die Darstellungsform der Spaltenmatrix verwendet haben. Auch die
Form der Zeilenmatrix wird bei Gelegenheit angewandt werden. \Vollen
wir die Darstellungsform des Vektors - ob Zeile oder Spalte -
offenlassen, so werden wir das Zahlensystem auch wohl durch
x = {Xl> X 2' ••• , x n }, also in geschweiften Klammern, bezeichnen.
Sowohl die Zeilen als auch die Spalten einer mn-Matrix A = (a ik )
können wir gleichfalls als Vektoren auffassen (d. h. wieder als geordnete
6 § 1. Grundbegriffe und einfache Rechenregeln

Zahlensysteme), und wir 'wollen sie durch hoch- bzw. tiefgestellte Indizes
bezeichnen:
Zeilenuktoren a i = (a,l' ai2 , . . • , ain ), i = 1,2, ... , m, (6a)

alk)
(
SpcdiM""""''' a, ~ :" , k = 1,2, ... ,n. (6 b)

tnk

Damit läßt sich die Matrix A in einer der beiden folgenden Formen
schreiben:

al) ii
A = (al' a 2 , ••• , an) = (a:
2
I ' (7)

am i
I
also als eine Zeilen- oder Spaltenmatrix, deren Elemente selbst wieder
Spalten bzw. Zeilen sind. Beide Darstellungen werden sich als nützlich
erweisen.
Den Spaltenvektoren a k der Matrix kommt nun eine unmittelbar auf
die Abbildung bezogene Bedeutung zu. Setzen wir nämlich in GI. (1)
alle Xi = 0 bis auf eine einzige Komponente x k = 1, d. h. wählen wir
x als den sogenannten Iden Einheitsvektor

(8)

(k-te Komponente = 1, alle übrigen = 0), so erhalten wir für die Ab-
bildung
(9)
Der k-te Spaltenvektor ak einer M afrix A ist somit das Bild, in das der k-te
Einheitsvektor c k bei der linearen Abbildung A x = y übergeht.
Ist die Abbildung anschaulich interpretierbar, so läßt sich die zuge-
hörige Matrix -- bei vorgegebenem Koordinatensystem - sogleich an-
geben. Stellt beispielsweise unsere Abbildung eine ebene Drehung um

C}
einen Winkel Cf! dar, Abb. 1.2, so gehen die beiden Einheitsvektoren
Cl = c2 = (~) über in die beiden um den Winkel Cf! gedrehten Ein-
heitsvektoren
cos Cf!) ( - sin Cf!)
a 1 = ( sin Cf! ' a 2 = cos Cf! .
1.3. Einfache Rechenregeln 7

Die die Drehung vermittelnde Matrix lautet somit

A = (C?S rp - sin rp) .


sm rp cos rp
Die Komponenten Yi des durch Drehung eines beliebigen Vektors x
hervorgegangenen Bildvektors y sind
YI = Xl COS rp - X2 sin rp ,
Y2 = Xl sin rp + X 2 COS rp ,
wie aus Abb. 1.3 auch unmittelbar zu ersehen .

.Tz Y2 y

y,
X1

Abb. 1.2. Ebene Drehung: Abb. 1.3. Originalvektor '" und


Abbildung der Einheitsvektoren Bildvektor y bei ebener Drehung

Allgemein läßt sich die Abbildung A x = y mit Hilfe der Spalten-


vektoren folgendermaßen schreiben:

I A~ Xi~l Xl +_a2~" i~·=+-~;~- =yJ ' (10)


was als Zusammenfassung der GI. (5) aufzufassen ist und mit Hilfe der

ül
Produktdefinition 1 formal aus

Ax ~ la" a, . ...• a.l

folgt, wenn wir A als einzeilige Matrix mit den Elementen a k auffassen.
Wir können somit sagen:
Der Bildveldor y der linearen Abbildung A x = Y ist eine Linearkombina-
tion der Spaltenvektoren a k der Abbildungsmatrix A.
Die Vektoren a k x k sind dabei die Vektoren der Komponenten aik x k '
gehen also aus a k hervor durch Multiplikation ihrer Komponenten a ik
mit den Zahlen x k •

1.3. Einfache Rechenregeln


Für das allgemeine Rechnen mit JIlatrizen werden zunächst die fol-
genden einfachen und einleuchtenden Regeln festgesetzt:
8 § 1. Grundbegriffe und einfache Rechenregeln

Definition 2: Sind A = (a ik ) und B = (b ik ) zwei Matrizen von Je


m Zeilen und n Spalten (zwei mn-Matrizen), so wird als Summe (Dif-
ferenz) von A, B die mn-Matrix
(11 )

erklärt.
Matrizen gleicher Reihenzahl m, n werden auch vom gleichen Typ ge-
nannt. Nur Matrizen vom gleichen Typ können addiert oder subtrahiert
werden.
Beispiel:

A =
(31 -20 -35) ' ~), A +B = G -~ !) ,
A - B = (_~ -~ _~ 0) .
Offenbar gilt A + B = B + A ; die Addition ist wie bei gewöhnlichen
Zahlen kommutativ. Ferner gilt A (B +
C) = (A + B) C; die+ +
Addition ist auch assoziativ.
Defini tion 3 : Zwei mn-Matrizen A = (a ik ) und B = (b ik ) werden dann
und nur dann einander gleich genannt, A = B, wenn
aik = bik für alle i, k . (12)

D e fi n i t ion 4: Eine Matrix A wird dann und nur dann Null ge-
nannt, wenn alle ihre Elemente verschwinden:
A = 0, wenn aik = 0 für alle i und k . (13 )
Man spricht dann von der Nullmatrix im Falle einreihiger Matrix auch
vom Nullvektor.
So ist beispielsweise die aus 3 Zeilen und 2 Spalten bestehende N ull-
matrix

ferner ist

die zweireihige quadratische Nullmatrix.


Setzt man in der Summendefinition B = A und schreibt, wie nahe-
liegend A + A = 2 A, so kommt man verallgemeinernd zur
1.4. Transponierte Matrix, symmetrische und schiefsymmetrische l\Tatrix 9

D ef i n i t ion 5 : Das Produkt k A oder A keiner mn-Matrix A mit einer


Zahl k (einem Skalar) ist die mn-Matrix, bei der fedes Element das
k-/ache des entsprechenden von A ist:

_ _ (ka n ... haI" )


kA-Ak- . . . . .. . (14)
ha m1 ••• "am"
Ein allen Elementen einer Matrix gemeinsamer Faktor h läßt sich also
vor die Matrix ziehen, beispielsweise:

(
2,7
1,8
-0,9)
5,4 =
(3 -1)6 .
0,9 2

Man beachte hier den Unterschied gegenüber einer entsprechenden, dem


Leser wohl erinnerlichen Regel bei Determinanten, wo bekanntlich ein
gemeinsamer Faktor einer einzigen Zeile oder Spalte vorgezogen werden
darf. - Offenbar gilt für das Zahlenprodukt einer Matrix
hA +kB = k (A + B)
kA +lA = (k+ l) A .
Zu diesen fast selbstverständlichen Rechenregeln mit ::\fatrizen tritt als
Hauptbestandteil des Matrizenkalküls die Festsetzung einer MultiPli-
kation von Matrizen untereinander, des eigentlichen Matrizenproduktes,
das wir bis zum nächsten Paragraphen zurückstellen. Die Umkehrung
der Multiplikation führt schließlich zur Kehrmatrix, worauf wir im
darauf folgenden § 3 zurückkommen werden.

1.4. Transponierte Matrix, symmetrische und schiefsymmetrische Matrix


Eine besonders häufig an gewandte Matrizenoperation ist der Über-
gang zur sogenannten transponierten oder gespiegelten Matrix A', auch
wohl mit AT bezeichnet, die aus der gegebenen Matrix A = (a ik ) durch
Vertauschen von Zeilen und Spalten hervorgeht, z. B.

Bei quadratischer Matrix entspricht dies einem Spiegeln an der Haupt-


diagonalen, wobei man unter "Hauptdiagonale" stets die von links oben
nach rechts unten verlaufende Diagonale der Matrix mit den Elementen
gleicher Indizes an, a 22 , ••• , ann versteht, die hierbei unverändert bleiben:

A=( ; -33 -41)


-2
0-1 , A' = ( -3
5
°2-2)3 .
1 -1 -4,
10 § 1. Grundbegriffe und einfache Rechenregeln

Bezeichnen wir die Elemente der transponierten Matrix A' mit a;k, so
gilt
(15 )
Offenbar ist
(A')' = A. (16)
Aus einem Spaltenvektor a wird durch Transponieren ein Zeilen-

[J
vektor a' und umgekehrt:

a ~ a la" a" ' , , , a.1 '

Kleine Fettbuchstaben a, 1), x, y, ... ohne Kennzeichen sollen stets


Spaltenmatrizen (Vektoren in Form einer Spaltenmatrix) bezeichnen.
Zeilenmatrizen (Vektoren in Form einer Zeilenmatrix) kennzeichnen wir
durch Transponieren: a', b', ;I/, y', ... mit Ausnahme der Zeilenvektoren
a i , b i , . . . von Matrizen A, B, ... , bei denen hochgestellte Indizes den
Zeilencharakter anzeigen. Aus Platzgründen schreiben ,vir Spalten auch
in der Form

Eine quadratische l\latrix heißt symmetrisch, wenn sie ihrer Trans-


ponierten gleich ist:
A = A' oder a ik = (lki' (17)
Die zur Hauptdiagonale spiegelbildlich liegenden Elemente sind ein-
ander gleich, während die Diagonalelemente ai ; selbst beliebig sind.

-t')
Beispiel:
-2
A = ( 3 34 5 = A'.
-1 5 0,
Symmetrische l\Iatrizen, und zwar insbesondere reelle symmetrische
spielen in den Anwendungen eine hervorragende I{olle. Viele technisch-
physikalischen Probleme zeichnen sich durch gewisse Symmetrieeigen-
schaften aus, die in symmetrischen Koeffizientenschemata zum Aus-
druck kommen. Andrerseits besitzen reelle symmetrische l\Iatrizen eine
Reihe bemerkenswerter mathematischer Eigenschaften, insbesondere
hinsichtlich des im IV. Kap. zu behandelnden Eigenwertproblems, wo wir
darauf eingehend zurückkommen werden.
Eine quadratische Matrix heißt schiejsymmetrisch oder anti1lletrisch,
wenn sie ihrer Transponierten entgegengesetzt gleich ist:
A = - A' oder aik = - akj , a jj = 0. ( 18)
1.5. Diagonalmatrix, Skalarmatrix und Einheitsmatrix 11

Zur Hauptdiagonale gespiegelte Elemente sind entgegengesetzt gleich,


die Diagonalelemente selbst aber sind Null. Beispiel:

A = (-20 20 -14) ,
-4 1 0
A' = (0 -4)
2
4 -1
-2
0 1
0
= -A.

Jede quadratische Matrix A ist zerlegbar in die Summe eines symme-


trischen und eines antimetrischen Anteiles:

(19)
mit

As= ~ (il + A') \ .


(20)
.4. =!- (A-A')
" 2

-4) ( 5 2-3) (/ -1 -1)


Beispiel:

A.= ( ~
-2
1
7
o
8
3/
= 2
-3
74+104.
4 3
0

1 -4 0

1.5. Diagonalmatrix, Skalarmatrix und Einheitsmatrix


Eine quadratische Matrix, deren sämtliche Elemente außerhalb der
Hauptdiagonalen Null sind bei beliebigen Diagonalelementen di , wird
Diagonalmatrix genannt:
d 0... 0)
l

D = (O. d~.:. ~ = Diag (d,) . (21)

o 0 ... dn
Auch hier handelt es sich offenbar um ein System geordneter Zahlen di ,
die auch als die Komponenten eines Vektors aufgefaßt werden könnten.
Daß man dies indessen hier nicht tut, hat seinen Grund darin, daß das
System der di nicht einer linearen Transformation unterworfen wird,
sondern in anderer Weise in die Betrachtung eingeht; vgl. § 2.3.
Eine lineare Transformation mit einer Diagonalmatrix ist von beson-
ders einfacher Form, nämlich

dl Xl = YI
d2 X 2 = Y2
f (22)
. . . .
dnx n = Yn
Die Multiplikation D x der Diagonalmatrix D mit einem Vektor x be-
wirkt also komponentenweise Multiplikation mit den d j • Dies kennzeich-
12 § 1. Grundbegriffe und einfache Rechenregeln

net im wesentlichen die Rolle, die die Diagonalmatrix im Rahmen des


l\latrizenkalküls spielt. - Eine Diagonalmatrix ist offenbar immer
symmetrisch, D = D'.
Hat die Diagonalmatrix lauter gleiche Elemente di = k, so spricht
man von einer Skalarmatrix, da sie sich, wie wir noch sehen werden, hin-
sichtlich der Multiplikation mit einer anderen Matrix wie ein skalarer
Faktor k verhält. Für die Multiplikation mit einem Vektor x nach GI. (22)
trifft das ja offenbar zu. - Sind schließlich alle Diagonalelemente gleich
1, so hat man die sogenannte Einheitsmatrix I, genauer die n-reihige
Einheitsmatrix :

I = (~ ~ ~).
'" (23)
o 0 ... 1
Die Transformation mit der Einheitsmatrix läßt den Vektor x offenbar
unverändert:
(24)
man spricht daher von der identischen Transformation. Auch sonst spielt
die Einheitsmatrix, wie sich zeigen wird, hinsichtlich der Matrizenmulti-
plikation die Rolle der Eins. Die Skalarmatrix aber schreibt sich mit I
zu folge GI. (14) als k I = I k .

1.6. Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante


Gegeben sei ein System von p Vektoren u" zu je n Komponenten a:.
Diese Vektoren werden nun linear abhängig genannt, wenn es p Konstan-
ten ck gibt, die nicht sämtlich verschwinden sollen, derart daß eine lineare
Beziehung der Form
(25)
besteht. Folgt aber aus GI. (25) notwendig Cl = C2 = ... = cp = 0 , so
heißen die Vektoren linear unabhängig. Hier bedeutet in Gl. (25) die
rechts stehende 0 den Nullvektor. Lineare Abhängigkeit von Vektoren
besagt also, daß sich aus ihnen durch eine geeignete Linearkombination
der Nullvektor erzeugen läßt. - Beispiel:

a'~CD' ~~n), ~~m


Es ist a 1 + 2 a 2 - a 3 = 0, wie leicht nachzuprüfen. Die Vektoren
sind also linear abhängig.
Im Falle linearer Abhängigkeit ist wenigstens eine der Konstanten c"
von Null verschieden, sagen wir cq =1= o. Dann läßt sich offenbar der zu-
1.6. Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante 13
gehörige Vektor u q linear durch die übrigen ausdrücken, indem wir
Gl. (25) nach u q auflösen. In unserm Beispiel ist etwa u 3 = u 1 + 2 u 2
oder u 1 = - 2 u 2 +u 3 oder u 2 = - _l
2
u1 + ~2 u 3' wie jedesmalleich t nach-
prüfbar. - Ein Vektorsystem wird auch dann linear abhängig genannt,
wenn unter ihnen der Nullvektor vorkommt, da in dem Falle die zuge-
°
hörige Konstante =F gesetzt werden kann und die übrigen = 0, um
Gl. (25) zu erfüllen.
Im allgemeinen wird man einem Vektorsystem nicht ohne weiteres
ansehen können, ob es linear abhängig ist oder nicht. In gewissen Sonder-
fällen aber ist das leicht möglich. So sind insbesondere die drei Einheits-
vektoren

(allgemein die n Spaltenvektoren der Einheitsmatrix) sicher linear unab-

m(D ~ (::) ~ m
hängig. Denn aus

',e, + ',e,+',e, ~ G') + +


folgt notwendig Cl = C2 = c3 = 0. Aus den Einheitsvektoren läßt sich
unmöglich durch Linearkombination der Nullvektor erzeugen.
In einem Vektorsystem von p Vektoren u k gibt es nun eine ganz be-
stimmte maximale Anzahl linear unabhängiger Vektoren, und diese An-
zahl wird der Rang r des Vcldorsystems genannt, wobei offenbar gilt
-- --- ----

I ~:S: : :S: p . (26)


Dabei ist r = °
gen au dann, wenn alle Vektoren Null sind. Im zuerst
angeführten Beispiel ist offenbar r = 2, da je zwei der Vektoren linear
unabhängig, alle drei aber linear abhängig sind. Das System

hat gleichfalls den Rang 2. Hier sind zwar schon die Veldoren u 1 ' u 2
linear abhängig: es ist 01 + u 2 = 0 . Aber die Vektoren u 1' u 3 und 02' u 3
sind unabhängig, während alle drei wieder abhängig sind:
U1 +U2 +O·U3 =0.
Für das System
14 § 1. Grundbegriffe und einfache Rechenregeln

aber ist r = 1 , da hier je zwei der Vektoren stets abhangig sind. - Der
Rang eines Vektorsystems gibt also die Anzahl der wesentlich verschie-
denen Vektoren des Systems an.
Eine mn-Matrix A = (a,k) HiI3t sich nun, wie nach dem friiheren klar
ist, auffassen als das System ihrer n Spaltenvektoren oder auch als das
ihrer m Zeilenvektoren. Beiden Systemen kommt somit ein bestimmter
Rang zu, den man Spaltenrang bzw. Zeilenrang der Matrix nennen
konnte. \Vir werden aber im II. Rap. zeigen konnen, daI3 beide Rang-
zahlen iibereinstimmen, so daJ3 die Matrix einen Rang r schlechthin be-
sitzt. Offenbar ist dann dieser Rang hOchstens gleich der kleineren der
beiden Zahlen m oder n:
(27)

und er ist Null nur fiir den Fall der Nullmatrix. Auf die praktische Be-
stimmung des Ranges r einer gegebenen Matrix werden wir ausfiihrlich
im II. Rapitel zuriickkommen.
Eine quadratische Matrix wird singular genannt, wenn ihre Spalten
(und Zeilen) linear abhangig sind; andernfalls heiJ3t sie nichtsingular oder
auch regular. Der Unterschied

(28)

wird De/ekt oder Rangab/all oder auch Nullitat der n-reihigen Matrix ge-
nannt und sich ais ein hOchst wichtiger Begriff erweisen.
Einer quadratischen Matrix A ist, wie man weiJ3, ihre Determinante
als eine nach bestimmter Vorschrift aus den Elementen a ik berechenbare
Zahl zugeordnet, fiir die wir eines der foigenden Zeichen verwenden:
det A = det (a ik ) = A .
Fiir die zweireihige Matrix ist bekanntlich

eine Vorschrift, die, wie man weiI3, sich leider nicht fiir Determinanten
hOherer Ordnung fortsetzen laJ3t (abgesehen von der Regel von SARRUS
fiir n = 3). Auch auf die allgemeine Determinantenberechnung werden
wir erst im II. Rap. zuriickkommen. Indessen wird dem Leser erinnerlich
sein, daI3 eine Determinante genau dann Null wird, wenn die Zeilen oder
Spalten des Roeffizientenschemas (der Matrix) linear abhangig sind,
d. h. also wenn die Matrix singular ist. Eine singulare Matrix ist somit
gekennzeichnet durch
i de~A' ~-ol ' (29)

wahrend fiir nichtsingulares A stets det A + 0 gilt.


2.1. Einführuug des Matrizenproduktes 15

Nichtquadratische mn-:Ylatrizen sind weder regulär noch singulär.


Wohl aber ist hier der Fall ausgezeichnet, daß entweder ihre Zeilen
(für m < n) oder ihre Spalten (für m > n) linear unabhängig sind, daß
also für den Rang r = m< n bzw. r = n < m gilt. Derartige Matrizen
nennen wir zeilenregulär bzw. spaltenregulär. Sie verhalten sich in
mancher Hinsicht wie nichtsinguläre quadratische Matrizen; \g1.
§ 2.2, Satz 5 und 6. Eine zeilenreguläre quadratische Matrix, r = m = n,
aber ist zugleich spaltenregulär, also regulär = nichtsingulär schlechthin.
Eine gewisse Rolle spielt schließlich noch die sogenannte Spur der
quadratischen Matrix, worunter man die Summe der Hauptdiagonal-
elemente a i i versteht:
~p-A~ -~;n s + a::-+' ..-~! . (30)

Sie erweist sich, wie wir später sehen werden, ebenso wie die Determinante
der Matrix gegenüber gewissen Umformungen, sogenannten Koor-
dinatentransformationen, denen die Matrix unterworfen werden kann,
als invariant. Während sich bei diesen Transformationen die Elemente
der Matrix sämtlich ändern, bleiben die beiden der Matrix zugeordneten
Zahlenwerte det A und sp A unverändert. Sie haben diese Eigenschaft
gemeinsam mit anderen der quadratischen Matrix zugeordneten Zahlen-
werten, den im IV. Kap. ausführlich zu behandelten Eigenwerten, mit
denen sie auch in einfacher \Veise zusammenhängen: Summe und Pro-
dukt der Eigenwerte ergeben Spur und Determinante.

§ 2. Das Matdzenprodukt
Einführung des Matrizenproduktes
2.1.
Den Hauptinhalt des Matrizenkalküls bildet die von CAYLEY einge-
führte Matrizenmultiplikation. Zu dieser Operation kommt man durch
Hintereinanderschalten linearer Transformationen, wobei ihre Koeffi-
zientenschemata, die Matrizen eine bestimmte Verknüpfung erfahren,
die man in naheliegender Weise als Multiplikation der Matrizen definiert.
Zwei Vektoren x = {XI> X2, ... , x"'} und y = {Yl' Y2' ... , Yn} seien
durch eine lineare Transformation verknüpft in der Form
Xl = an Yl + ... + a ln Y n \
. oderx=Ay (1 )
x m = aml Yl + ... + a mn y"
mit der mn-Matrix A = (a ik ). Die Komponenten Yk sollen wiederum
linear verknüpft sein mit einem dritten Vektor z = {Zl' Z2' .•• , zp} in der
Form

~l ~ b~l Z~ +.. '.' -1~ b Z~ l P


•. \ oder y = B z (2)
Yn = bnl Zl + ... +b np zp
16 § 2. Das :Matrizcnprodllkt

mit der np-Matrix B = (b ik ). Gesucht ist der unmittelbare Zusammen-


hang zwischen x und z. Auch er wird homogen linear sein, also von der
Form

X~ =. GI~ + ... : ~ ZI. Cl: ZP. ) oder x = C z (3 )


X = CmI
m + ... -t- G ZI mp zp

mit einer mp-Matrix C = (C ik ), und es handelt sich darum, die Elemente


Cikdieser Matrix aus den gegebenen Koeffizienten aik und bik zu bestim-
men, was ja nicht sclnver sein kann.
Der Koeffizient Cik , das ist der Faktor der Komponente zk im Ausdruck
für Xi' also in der i-ten Gleichung von (3) folgt aus der entsprechenden
von (1) :

worin laut GI. (2) jedes der Yr die interessierende Komponente Zk mit dem
Faktor brk enthält. Insgesamt enthält also Xi in GI. (3) die Größe z" mit
dem Faktor
n
Gik = ai1 b1 k + ai2 b2k + ... + ain b nk = L air brh (4)
1'=1

Damit haben wir als Bildungsgesetz für den gesuchten Koeffizienten


Gikdas skalare Produkt der Elemente air der i-ten Zeile von A mit den
Elementen brk der k-ten Spalte von B. Man nennt nun die Matrix
C = (C ik ) das Produkt der beiden Matrizen A und ß in der Reihenfolge
AB, eine Bezeichnung, die sich auch formal anbietet. Eine Zusammen-
fassung der beiden Matrizengleichungen (1) und (2) ergibt nämlich

(5)

Wir fassen zusammen:


Definition 1: Unter dem Produkt AB einer mn-Matrix A mit einer
np-Matrix B in d( 7 angegebenen Reihenfolge versteht man die mp-Matrix
C = AB, deren Element Gik als skalares Produkt der i-ten Zeile von A
(des Zeilenvektors a i) mit der k-ten Spalte von B (dem Spaltenveldor b k )
gemäß (4) gebildet wird, hurz:
n I •
_ \" b -- i b i Z= 1, 2, ... , m (4a)
e a· a
,
k - ~
r c. 1 H r
k - k
, h = 1, 2, ... , p .

Dabei stellt auch der Ausdruck a' b k schon ein Matrizenprodukt dar,
nämlich das der Zeile a i mit der Spalte b k , dessen Ergebnis die 1 . 1-
Matrix Cik , also eine Zahl ist. Indem man jede der m Zeilen von A mit
jeder der p Spalten von B auf die angegebene Weise kombiniert, baut
2.1. Einführung des Matrizenproduktes 17

sich die Produktmatrix C Element für Element auf. Zur Berechnung der
m . P Elemente Cik sind somit insgesamt m· p . n Einzelprodukte zu
bilden, ein nicht ganz müheloser Prozeß, der freilich recht schematisch
abläuft. Insbesondere lassen sich die skalaren Produkte mit Hilfe der
Rechenmaschine automatisch durch Auflaufenlassen der Teilprodukte -
unter Berücksichtigung der gegebenen Vorzeichen - ohne ein Nieder-
schreiben der Teilprodukte bilden, und die Rechnung läßt sich auch,
wie wir noch zeigen, weitgehend durch sogenannte Summenproben
kontrollieren.
Für das praktische Rechnen ist eine von F ALK vorgeschlagene l An-
ordnung nützlich, Abb. 2.1, bei der jedes Produktelement Cik genau im
Kreuzungspunkt der i-ten Zeile von A mit der
k-ten Spalte von B erscheint. Offensichtlich ist
zur Ausführbarkeit des Produktes A B Überein-
stimmung der Spaltenzahl von A mit der Zeilenzahl
von B erforderlich. Wir sagen, A sei mit B in der
Reihenfolge AB verkettbar, was gleichbedeutend m A AB
mit der Multiplizierbarkeit der beiden Matrizen in
der angegebenen Reihenfolge ist. Aber auch dann, Abb. 2.1. Anordnungsscbema
wenn hinsichtlich der Verkettbarkeit einer Ver- einer Matrizenmultiplikation
tauschung der Reihenfolge der beiden Faktoren nichts im Wege steht,
d. h. wenn m = p oder sogar m = p = n ist, so darf diese Reihenfolge
nicht ohne weiteres vertauscht werden: die beiden Produktmatrizen A B
und BA sind im allgemeinen verschieden, von bestimmten Ausnahmen
sogenannten vertauschbaren Matrizen A, B abgesehen. Die beiden Fak-
toren des Matrizenproduktes ABgehen ja in die Produktbildung,
verschieden ein, der erste Faktor zeilenweise, der zweite spaltenweise. -
Einige Beispiele mögen den Sachverhalt erläutern.

1. Beispiel:

A= 3 (1-2)4' B=( 2 0)
-1 3·

Als quadratische Matrizen sind die beiden Faktoren in beiden Reihenfolgen ver-
kettbar, ergeben jedoch verschiedene Produktmatrizen:

I 2 0 I 1 -2
:-1 3 3_ 4
_1_
1 -2 :---4-6 = AB 2 0 I 2 - 4 = BA
3 4: 2 12 -1 3 8 14

2. Beispiel:

A= ( 2 1-3)· B=( ~ ~).


-1 0 2'
-1 2

1 FALK, S.: Z. angew. Math. Mech. Bd. 31 (1951), S. 152


Zurmühl, Matrizen 4. Aufl.
18 § 2. Das Matrizenprodukt

Auch hier sind die Faktoren in bei den Reihenfolgen verkettbar, jedoch ist A 11 eine
zweireihige, BA dagegen eine dreireihige Produktmatrix:

4 2 1-3
2 3 -1 0 2
-1 2 4 -2 5
21-375=AB 2 3 2 O=11A
-1 0 2 -3 0 -1 2 - 4 -1 7

-D.
3. Beispie I:

A = (2 -1 3), B=(-~
Hier ist A mit B nur als A B, nicht aber als BA verkettbar; das Produkt BA
existiert nicht:
-2 1
0 -3
4 2
2 -1 3 i 8 11 AB = (8 11) .

Für umfangreichere Zahlenrechnungen sind Rechenkontrollen uner-


läßlich, wozu als einfaches und wirksames Hilfsmittel die auf GAUSS
zurückgehende Summenprobe dient, und zwar entweder als Spalten- oder
als Zeilensummenprobe. Entweder faßt man in AB = C die Gesamt-
heit der Zeilen von A in einer zusätzlichen Summenzeile (Zeile der Spalten-
summen) zusammen, die wie die übrigen Zeilen von A mit B kombiniert
wird und dabei eine zusätzliche Zeile von C liefert, deren Elemente dann
gleich den Spaltensummen von C sein müssen, worin die Kontrolle be-
steht. Oder aber man faßt die Gesamtheit der Spalten des zweiten
Faktors B zu einer zusätzlichen Summenspalte (Spalte der Zeilensum-
men) zusammen, die wie die übrigen Spalten von B mit den Zeilen von
A kombiniert wird und dabei eine zusätzliche Spalte von C liefert, deren
Elemente dann gleich den Zeilensummen von C wird. Denn jede Zeile
von A liefert unabhängig von den übrigen Zeilen die entsprechende
Zeile von C, so daß man die Zeilen addieren darf. Jede Spalte von B
liefert unabhängig von den übrigen Spalten die entsprechende Spalte
von C, so daß auch die Spalten summierbar sind. - Beispiel:
4
2 -2
4 1
-3 -1
2 -2 0
-3 -1 -4 3 2 13 - 2
5 -1
2 12 5
3 2 13 - 2 11
023 -5 -7
5 -1 2 12 5 17
0 2 3 -5 -7 -12 8 3 () 20 -4

Zeilen summen probe Spal tensummenprobe


2.1. Einführung des l\1atrizenproduktes 19

Die FALKsche Anordnung empfiehlt sich besonders bei Produkten aus


mehr als zwei Faktoren, etwa P = ABC D, wo man dann jede Matrix
und jedes der Teilprodukte nur ein einziges Mal anzuschreiben braucht.
Fängt man mit dem letzten Faktor D an, so erhält man das Schema der
Abb; 2.2, wieder ergänzt durch eine Summenspalte zur Probe. Man er-
kennt, daß die Zeilenzahl der Produktmatrix gleich der des ersten
Faktors A, ihre Spaltenzahl gleich der des letzten D ist, und weiterhin,
daß jede Spalte des letzten Faktors (und
ebenso auch jede Zeile des ersten) für sich
D allein an der Produktbildung beteiligt ist. -

C CD .--
C
B D
I B BCD

A ABCD
A AB ABC
[:J
Abu. 2.2. Anordnungsschema bei mehr· Abb. 2.3. Anordnungsschema bei mehrfachem Matrizen-
fachcm Matrizenprodukt, untereinander produkt. nebeneinander

Fängt man die Rechnung mit dem ersten Faktor A an, so baut sich das
Schema nach rechts anstatt nach unten und wird durch eine Summenzeile
kontrolliert, Abb.2.3.
Es sei auf einen Umstand ausdrücklich hingewiesen: Liegt inx = A B z
der zu transformierende Vektor z zahlenmäßig vor, so ist es durchaus
unvorteilhaft, die Produktmatrix C = AB explizit zu berechnen. Viel-
mehr wird man dann zuerst den transformierten Vektor y = B z durch
Multiplikation der Matrix B mit dem Vektor z und aus ihm den Vektor
x = A Y durch Multiplikation der Matrix A mit dem Vektor y bilden.
Man arbeitet also mit der jeweiligen Matrix nur an einem Vektor und
spart so erheblich an Operationen. Gegenüber m . n . P Multiplikationen
bei Bildung von C = AB zuzüglich den m· P Multiplikationen zur
Bildung von C z ist hier die Gesamtzahl der Multiplikationen nur M =
n . p + m· n = n (m + P). Im Falle m = n = p stehen sich also n 3 + n 2
Multiplikationen einerseits und 2 n 2 Multiplikationen andrerseits gegen-
über. - Das gilt erst recht bei längeren Produktket ten. Stets ist ein
unmittelbares Arbeiten der einzelnen Matrizenfaktoren am jeweiligen
Vektor einem Bilden der Produktmatrix vorzuziehen. Eine Transfor-
mation
z=ABCDx=Px
20 § 2. Das Matrizenprodukt

ist also in der Regel stets in diesem Sinne durch Bilden der Zwischen-
vektoren zu realisieren, nicht aber durch explizites Ausrechnen der
Produktmatrix A B CD = P; vergl. Abb. 2.4.

2.2. Sätze über Matrizenmultiplikation


:r:
Die Matrizenmultiplikation verhält sich in
mancher Hinsicht formal wie die Multiplikation

I D gewöhnlicher Zahlen, in mancher Hinsicht da-


gegen wesentlich anders. Der auffälligste und
schon mehrfach hervorgehobene Unterschied he-
C I-CD:r:
steht in
S atz 1: Das]1,1atrizenprodukt ist nicht kommu-
I B BCDx tativ, d. h. im allgemeinen sind AB und BA ver-
schiedene Matrizen, sofern die Faktoren überhaupt
in beiden Reihenfolgen verkettbar sind:
A AßCDx

'----
I I~-a~lgem-=-ine~~ A n =1=)~ A . (6)
Abb.2.4. Multiplikation am
Es kommt also auf die Reihenfolge der Faktoren
Vektor bei mehrfacher
Transformation z = ABC D::c
an, bei Multplikation von Matrizen hat man
darauf zu achten, ob eine Matrix von rechts her oder von links her mit
einer zweiten Matrix multipliziert werden soll. Insbesondere hat man
beispielsweise in einer Gleichung stets beide Seiten in gleicher Weise
mit einer Matrix zu multiplizieren, entweder beide Seiten von rechts
her oder beide von links her. In einer Kette von Matrizenfaktoren
etwa ABC . .. N, sind nur ihre beiden äußersten Enden, A und N,
einer Multiplikation mit einer weiteren Matrix P zugänglich, also
nur A von links her oder N von rechts her. Eine Umstellung der Fak-
toren ist wegen GI. (6) im allgemeinen nicht erlaubt.
Bei quadratischen Matrizen kann in Sonderfällen auch <4 B = nA sein;
man spricht dann von vertauschbaren = kommutativen Matrizen A, B.
Beispiel:

A=G -!), B = (-1 -2) 6 3' An = BA = (-8 -7)


21 6'

Diagonalmatrizen gleicher Ordnung aber sind stets miteinander ver·


tauschbar, und es ist mit A = Diag (aJ, B = Diag (bi)
C = AB = BA = Diag (ai bJ
Wie bei gewöhnlichen Zahlen gilt
Satz 2: Die Matrizenmultiplikation ist assoziativ und distributiv, d. h. es gilt
(AB) C =A(BC) = ABC, (7)
(A +B) C = AC B C, + (8a)
C (A +
R) = CA CB . + (8b)
2.2. Sätze über Matrizenmultiplikation 21

Man darf wie bei gewöhnlichen Zahlen in Produkten aus mehreren


Faktoren die Aufeinanderfolge der Produktbildung ändern, d. h. man
darf gemäß GI. (7) Klammern weglassen, und man darf gemäß GI. (8)
Klammern auflösen und Klammern setzen wie in der Zahlenalgebra.
Beide Eigenschaften folgen aus der Definition (4) der Produktmatrix,
z.B.
(A B) C = (~(~ airbrs) CSk) = (~ ~ airbrscSk) = (~air ~ brs CSk)
= A(BC).
Von großer praktischer Bedeutung für das Operieren mit Matrizen
ist die folgende Regel über das Transponieren von Produkten. Dafür
gilt
(9)
und allgemeiner:
(ABC ... N)' = N' ... C' B' A'. (9a)
Die Regel folgt wieder aus der Produkt definition :

C = AB = (C ik) = (~ air brk )

C' = (A B)' = (ckJ = (~ akr bri ) = (~ b;r a~k) = B' A'.

Anschaulich aber ergibt sie sich sehr einfach aus unserem Multipli-
kationsschema, Abb. 2.5 durch Umlegen dieses Bildes.
p
m,

~B
TL
n
n l A'
11
m

a
A
LJ p

Abb. 2.5 a u. b. Veranschaulichung der Regel lA Bl' = B' A' für das Transponieren eines Produktes

Einen in der Determinantenlehre bewiesenen Satz 1 , auf den wir un:.


öfter beziehen werden, führen wir hier ohne Beweis an:
S atz 3: Die Determinante det (A B) eines Matrizenproduktes A B zweier
quadratischer Matrizen ist gleich dem Produkt der Determinanten der beiden
Faktoren:
det (A-B) = det
...__ ... __
A-'d~t B =
_ __
il···· Bl..J (10a}

1 Vgl. z. B. SCHMEIDLER, VV.: Determinanten und Matrizen [12J, S.22-23.


22 § 2. Das Matrizenprodukt

und es gilt daher auch


det (AB) = det (BA) = A· B (10a)
Ähnlich gilt für die Spur des Produktes zweier jetzt nicht notwendig
quadratischer Matrizen, einer mn-Matrix A und einer nm-Matrix B:
I·. sp~..4 B) = sp (B A) l . (11)
m m n n m n
sp(AB) =}; a i b; =}; }; aikbki =}; }; bk;a;k = L' b k ak = sp(B A) .
;=1 i=1 k=1 k=1 ;=1 k,,01

Beispiel:
A= (
-1
2 1
4
-3) 2' B=(-~3 ~), -2

1 5)
14 '
B A = (- ~ -51~ -131~) .
8
sp (A B) = sp (n A) = 6.

Mit besonderem Nachdruck sei nun noch auf einen Unterschied gegen-
über dem Rechnen mit gewöhnlichen Zahlen hingewiesen, nämlich
Ein Matrizenprodukt kann Null sein, ohne daß einer der beiden Fak-
toren selbst Null ist:
lA~= 0 I mit A=F 0, B =F O. (12)

Beispiel:
2 4
( 1-2 4) ß~G ~)
!

3 6
A= -2 3 -5 ' 2
------'-
1 -2 4 I0 0 = AB.
-2 3 -5 I 0 0
Es sei A eine mn-Matrix, Beine np-Matrix. Aus
AB = A (bI> b 2 , ••• , b p) = (A b1 , A b 2 , ••• , A b p ) = (0 0 ... 0) = 0
folgt dann
k = 1,2, ... ,p. (13 )
Dieses homogene lineare Gleichungssystem hat nun gen au dann nicht-
triviale Lösungen b k =F 0, wenn die Spalten a i von A linear abhängig
sind; denn mit den Spalten a i und den Komponenten b; k von b k schreibt
sich GI. (13) in der Form
alb1k+a2b2k+···+anbnk=0, (13 a )
was die Bedingung linearer Abhängigkeit darstellt. Durch Übergang
auf das transponierte System B' A' = 0 schließt man in gleicher Weise
auf lineare Abhängigkeit der Zeilen von B.
Satz 4: Zu einer mn-Matrix A =F 0 gibt es genau dann np-Matrizen
B =F 0 derart, daß AB = 0 ist, wenn die Spalten von A linear abhängig
2.3. Diagonal- und verwandte Matrizen 23
sind. - Zu einer np-Matrix B =!= 0 gibt es genau dann mn-Matrizen
A =!= 0 derart, daß AB = 0, wenn die Zeilen von B linear abhängig sind.
Wir werden später (in § 8) sehen, daß zum homogenen Gleichungs.
system (13) genau dA = n - r A linear unabhängige Lösungen b k
existieren, so daß der Rang von B höchstens gleich dem Rangabfall
n - r A von A ist!, r B ~ n - r A oder

h + r ~ nl'
B (14)
Ergänzend zu Satz 4 formulieren wir
Sa tz 5: Aus AB = 0 mit A=j= 0 folgt dann und nur dann B = 0,
wenn Aspaltenregulär (insbesondere quadratisch nichtsingulär). Aus
A B = 0 mit B =j= 0 folgt dann und nur dann A = 0, wenn B zeilenregulär
(insbesondere quadratisch nicktsingulär).
Daraus aber folgt der überaus wichtige und bemerkenswerte
Satz 6: Aus A B = AC folgt dann und nur dann B = C, wenn A
spaltenregulär (insbesondere quadratisch nichtsingulär) .
DenngenaudannfolgtausAB-AC =A(B-C) = OauchB-C= 0
also B = C. Hierauf ist beim Rechnen mit Matrizen wohl zu achten.
Nichtreguläre Matrizen verhalten sich in mehrfacher Hinsicht ähnlich
wie die Null bei gewöhnlichen Zahlen, man darf sie insbesondere
nicht "kürzen"! - Beispiel:

A = (; -~ -~), B=-65-9,( 1 4 2) C = (32 -32 6)7 .


. 5 -3 2 -3 6-5 4 -1 9
Hier ist in der Tat

AB=AC=(~ 65 10)7 bei B =!= C.


17 17 27

2.3. Diagonal- und verwandte Matrizen


Besonders einfach übersieht man die Auswirkung der Multiplikation
einer Matrix A mit einer Diagonalmatrix D = Diag (dJ Bei quadra-
tischem A wird

(iSa)

(15b)

1 Als Rangabfall d bezeichnen wir bei Gleichungssystemen mit nicht quadra-


tischer Matrix den Unterschied Zahl der Unbekannten weniger Rang der Matrix.
24 § 2. Das Matrizenprodukt

DA bewirkt zeilenweise Multiplikation der aik mit den Faktoren di ,


AD bewirkt spaltenweise Multiplikation der aik mit den Faktoren dk •
Bei nichtquadratischem A muß Verkettbarkeit bestehen, d. h. bei
mn-Matrix A istDim FalleD A einem-reihige, im Falle AD eine n-reihige
Diagonalmatrix.
Multiplikation einer n-reihigen quadratischen Matrix A mit der
n-reihigen Einheitsmatrix I läßt, wie man als Sonderfall von GI. (15)
unmittelbar sieht, die Matrix A unabhängig von der Reihenfolge der
Multiplikation unverändert:

(16)

I spielt bei der Matrizenmultiplikation die Rolle der Eins. - Bei


nichtquadratischem A von m Zeilen und n Spalten bedeutet I in IA
die m-reihige, in A I aber die n-reihige Einheitsmatrix, ohne daß man
dies näher zu bezeichnen pflegt.
Die quadratische nichtsinguläre Matrix J ik , die aus I durch Ver-
tauschen der i-ten mit der k-ten Zeile (oder Spalte) hervorgeht, bewirkt
bei Multiplikation mit quadratischer Matrix A
im Falle J'k A ein Vertauschen der i-ten mit der k-ten Zeile,
im Falle A J ik ein Vertauschen der i-ten mit der k-ten Spalte.
Beispiel:

J 25 A = [~ ~ ~ ~ !) I:: - ) I:: ~~- -~).


o 0 0 1 0 a4 -
=
a4
o 1 0 0 0 a5 ___ a2 ___ _
Auch dies läßt sich auf mn-Matrix A ausdehnen, wobei J ik im ersten
Falle m-reihig, im zweiten n-reihig quadratisch ist.
Die gleichfalls nichtsinguläre quadratische Matrix K ik schließlich, die
aus I dadurch hervorgeht, daß die 0 des Platzes i, k bei i =F k ersetzt
wird durch eine beliebige Zahl c, bewirkt
im Falle K ik A ein Addieren der c-fachen k-ten Zeile zur i-ten,
im Falle A K ik ein Addieren der c-fachen i-ten Spalte zur k-ten.
Beispiel:

[ ~ ~ ~ ~ ~0) [al:~=-- --~ ~ ::+ '=- .


K 24 A = 0'0 1 0
- -) [al - )
o 0 0 1
o 0 0 0 1 a - a5 -----
2.4. Skalares Produkt, Betrag und Winkel reeller Vektoren 25

Die beiden Matrizen J ik , K iT• bewirken sogenannte elementare Umfor-


mungen der Matrix, wie man sie insbesondere beim Auflösen linearer
Gleichungssysteme benutzt. Bekanntlich wird durch die letzte Um-
formung der Wert der Determinante det A nicht verändert, und dies
folgt wegen det K. k = 1 auch aus dem Determinantensatz 3 des vorigen
Abschnittes.
2+ Skalares Produkt, Betrag und Winkel reeller Vektoren
Unter dem skalaren Produkt zweier reeller Vektoren a, b von je
n Komponenten ai bzw. bi versteht man bekanntlich die Zahl
a1 b1 +a2 b2 +···+a.. b... (17)

Liegen nun die beiden Vektoren, wie es die Regel sein wird, in Form
zweier Spaltenmatrizen vor, so erfordert die Bildung des skalaren Pro-
duktes im Rahmen des Matrizenkalküls eine Umwandlung einer der
beiden Spalten, a oder b, in eine Zeile, was durch Transponieren ge-
schieht. Das Produkt schreibt sich also in einer der beiden Formen

a' b = (al> ... ,an) (n ~


b..
a,b, + ",b, + ... + a.h., (18.)

b' a ~ (b" . .. ,b.) (I) ~ a,b, + ",b, + ... + a,b.. (18b)

Offenbar ist also


(19)
was übrigens auch aus der allgemeinen Regel (9) über das Transponieren
eines Produktes folgt unter Berücksichtigung, daß die Transponierte
einer Zahl die Zahl selbst ergibt: (a' b)' = b' a.
Das skalare Produkt eines reellen Vektors a mit sich selbst
a' a = a~ + a~ + ... + a~ (20)
ist als Summe von Quadraten reeller Zahlen positiv und Null nur dann,
wenn a = 0, also gleich dem Nullvektor. Die positiv genommene
Quadratwurzel aus a' a heißt (Euklidische) Norm, Betrag oder Länge des
Vektors in Verallgemeinerung der Bedeutung dieser Größe im drei-
dimensionalen geometrischen Raum:
va'
lai = a = V-'a~'-+-'--a"~-+c--.-. ."a~ . (21)
Vektoren der Länge 1 heißen Einheitsvektoren. Ein Vektor a beliebiger
Länge läßt sich durch Division durch seine Norm auf die Länge 1
normieren.
26 § 2. Das Matrizenprodukt

Eine in vieler Hinsicht bedeutsame Beziehung ist die sogenannte


Cauchy-Schwarzsche Ungleichung

(22)
ausführlich:
(22')
Unter Verwendung des Betragszeichens (22) nimmt sie die Form an

Ja' b[ < [alibi (22a)


Zum Beweis bildet man mit zunächst beliebigem reellem Faktor },
[a - }. b[2 = (a - Je b)' (a - Je b) = a' a - 2 Je a' b + Je2 b' b ~ 0 .

Setzt man hier speziell


Je = a' blb' b,
so folgt Ungleichung (22). In ihr steht das Gleichheitszeichen genau für
a =}, b, also für den Fall, daß die beiden Vektoren einander proportional
sind, woraus übrigens mit a' = Je b' und Rechtsmultiplikation mit b
der oben benutzte spezielle },-Wert folgt.
Wegen (22a) läßt sich nun analog der dreidimensionalen Vektorrech-
nung auch für n-dimensionale reelle Vektoren a, b ein Winkel cp zwischen
a, b definieren nach
a' b
cos cp = ~ (0 < cp < n) . (23)

Insbesondere heißen die Vektoren a, b zueinander orthogonal, wenn

I_a' b=~J. (24)


Sie heißen einander parallel für a = Je b.
Beispiel: a' = ( 3, 0, 4, -5), lai = Y50
b' = ( - 3, 2, 1, 2) , [bi = Y18
a' b = -15, [alibi = 30, coscp = -0,5, cp = 2n!3 = 1200 •

Auch die in der dreidimensionalen Vektorrechnung anschaulich faß-


bare sogenannte Dreiecks-Ungleichung

I [a +bt~ [a[+-[~[- (25)


gilt im n-dimensionalen Vektorraum. Beweis:
[a + b[2 = + b)' (a + b) = a' a + 2 a' b + b' b <
(a
[a[2 + 2 [a' b[ + [b[2 ::; [a[2 + 2 [al [bi + [b[2 = ([a[ + [b[)2 ,
wo in der zweiten Zeile die SCHWARzsehe Ungleichung (22a) benutzt
worden ist.
2.5. Dyadisches Produkt 27

2.5. Dyadisches Produkt


Außer dem skalaren Produkt zweier Vektoren (Spalten) a, b in der
Form a' b, Zeile mal Spalte, gibt es als zweite Möglichkeit multipli-
kativer Verknüpfung die der Form Spalte mal Zeile, das sogenannte
dyadische Produkt ab', wo die beiden Vektoren jetzt auch von ver-
schiedener Dimension sein dürfen. Sind a = (al> ... ,am)' und b =
(bI' ... , bn )' zwei Vektoren (Spalten) der Dimension m bzw. n, so ist

al) (al bl ... a1 bn )


ab' = ( : (bI"'" bn ) = .......... = C = (C ik ) (26)
am am bl .. am bnl
eine mn-Matrix mit den Elementen

Ic~~I, (27)
also m' n Zahlenprodukten, eine Matrix freilich von besonders ein-
facher Bauart: Jede Spalte c k von C ist Vielfaches ein und derselben
Spalte a, jede Zeile Ci Vielfaches ein und derselben Zeile b' :
I

: c k = bka
bei )C = ab'), (28)
I. c:. = a;b' ..
wie formal aus

folgt. Die Matrix C = a b' ist somit vom kleinsten überhaupt nur mög-
lichen Range
(29)

wenn wir vom nur der Nullmatrix zukommenden Range absehen. - °


Ist m = 11" so ist C = a b' quadratisch singulär, und zwar vom höchst-
möglichen Rangabfall d = n - 1. Nicht allein die Determinante ver-
schwindet, det C = 0, sondern bereits alle in der Matrix überhaupt
enthaltenen zweireihigen Unterdeterminanten :
I a.b k abi I
I ' , = 0.
I aibk aA I

Nur die Determinanten erster Ordnung, d. s. die Elemente a; bk selbst


sind nicht durchweg Null (abgesehen vom trivialen Fall a = 0 oder
b = 0).
28 § 2. Das Matrizenprodukt

Während beim skalaren Produkt a' b = b' a war, führt hier Vertau-
schen der Reihenfolge zur transponierten Matrix:

iba'=(ab')'=C' . (3°)

Beispiel: a = (1 -2 3)', b = (2 1 -1)'

ab'H)(2 -1) = (-42-21-1)2,


6 3-31

ba' = ( ~) (1 -2 3) = ( ~ =~ ~) .
-1 -1 2 -3
Skalares und dyadisches Produkt können auch zur Darstellung eines
Matrizenproduktes C = AB herangezogen werden, indem man die Fakto-
ren entweder als Zeilen der Spaltenvektoren oder als Spalten der Zeilen-
vektoren schreibt. Entweder wir schreiben

C = AB = (a~) (bI> ... , b p) = (~~", ••• a~"p) . (31 )


a abI" . a b p
Das Produkt erscheint hier formal als dyadisches Produkt, also als
mp-Matrix, deren Elemente jedoch nicht, wie beim echten dyadischen
Produkt Zahlenprodukte, sondern skalare Produkte sind:

(32)

eine Schreibweise, deren wir uns schon bei Definition der Produkt-
matrix, GI. (4a) bedient haben. - Oder wir schreiben

C ~ A ß~ (a" .•. , a.1 C:) ~ a,b' I- a,b' 1- ....1 a.I,·

(33)

Das Produkt erscheint formal als skalares Produkt, dessen Summanden


jedoch nicht Zahlenprodukte, sondern dyadische Produkte, also mp-Ma-
trizen vom Range 1 sind. Ein Matrizenprodukt ist also darstellbar als
Summe dyadischer Produkte. - Daß auch eine beliebige einzelne Ma-
trix in dieser Form darstellbar ist und auch praktisch in eine Summe
dyadischer Produkte zerlegt werden kann, werden wir im 11. Kap.
anläßlich der Behandlung linearer Gleichungssysteme zeigen können.
2.6. Potenzen und Polynome 29
2.6. Potenzen und Polynome
Durch p-malige Multiplikation einer quadratischen Matrix A mit sich
selbst entsteht die p-te Potenz AP mit positiv ganzem p. Hierfür gilt
bei positiv ganzen Exponenten p, q:

(34)

Wie wir im nächsten Paragraphen sehen werden, gilt dies Gesetz auch
für negativ ganze Exponenten, sofern A nicht singulär (vgl. § 3.1).
Besonders einfach gestaltet sich das Potenzieren von Diagonal-
matrizen D = Diag(dJ Denn hier ist, wie leicht zu übersehen, D2
wieder diagonal mit den Elementen d;, allgemein bei positiv ganzem p:

(35)

Ja, das gilt hier auch noch für nicht ganze Exponenten, beispielsweise

(36)

wo wir unter Vd die positiv genommenen Quadratwurzeln aus den


i
d i verstehen, die freilich nur im Falle nichtnegativer d i
~ 0 noch reell
sind. Das Radizieren einer allgemeinen Matrix A erfordert indessen
wesentlich umfangreichere Hilfsmittel der Herleitung und kann erst viel
später in Angriff genommen werden (vgl. § 16.4 und 20.4).
Mit den positiv ganzen Matrizenpotenzen lassen sich nun auch ganze
rationale Funktionen einer Matrix, Matrizenpolynome einführen. Ist
A n-reihig quadratisch und

P(x) = ao +a x +a
1 2 x2 + ... + am x"'
ein Polynom m-ten Grades in der skalaren Variablen x mit Zahlen-
koeffizienten ai , so ist diesem Polynom das Matrizenpolynom

I ii-O==p(Lt~===_aol+ a1A + ~A2 ~ ... + amAm I (37)


als neue n-reihige Matrix B = P(A) zugeordnet. Offenbar gilt
S atz 7: Polynome B 1 , B 2 derselben Matrix A sind vertauschbar :

(38)

Wie wir später sehen werden (§ 20), lassen sich, ausgehend von Poly-
nomen, allgemeine Matrizenfunktionen, wie eA, sin A, cos A einführen.
Alle diese Funktionen aber lassen sich auf Polynome zurückführen,
eine Eigenschaft der Matrizen, für die es beim Rechnen mit gewöhn-
lichen Zahlen keine Parallele gibt.
30 § 2. Das Matrizenprodukf

Beispiel:
P(x) = x 2 + 2 x + 5,
_
A -
(13 -2) 2'

B = P(A) = A2 + 2A + 51 = (-~ =~) + (~ -~) + (~ ~)


= ( 2-10)7'
15

2.7. Die Gaußsehe Transformation


Als eine Verallgemeinerung des Normquadrates a'a eines reellen Vek-
tors a läßt sich die sogenannte Gaußsche Transformation

B=A'AI (39)
einer reellen mn-Matrix A auffassen. Das Ergebnis
ist eine n-reihige quadratische Matrix ß, Abb. 2.6,
und z\var eine symmetrische Matrix:
Abb. ".6. Die ~!atrix A'A B' = (A' A)' = A' il = B.
Die Produktbildung wurde von GAUSS in der Ausgleichsrechnung bei
Aufstellung der sogenannten Normalgleichungen eingeführt, WIe WIr
spä ter kurz zeigen werden (vgl. § 12.1).
Den Aufbau der Matrix erkennt man folgendermaßen:

B = A' A = (~~ . . . . . . . ) ((11' .. (In) = (~~. ~'~'.'. .. (~:.~n) .


an anal" .unan
Das Element bik der Produktmatrix ist also das skalare Produkt des
i-ten mit dem k-ten Spaltenvektor von A:
-- --~-!

bik = aia k ' (40)


Diagonalelemente sind die Normquadrate der Spaltenvektoren und als sol-
che stets positiv (von ai = 0 abgesehen). Deren Summe, also die Spur
von A' A oder die Summe aller a7k' dient als Quadrat einer Matrixnorm,
Euldidische lvIatrixnorm N(A) genannt:

worauf wir später in allgemeinerem Zusammenhang zurückkommen WC'l"-


den (§ 16.5), ebenso wie auch auf die wichtige Eigenschaft posdiver Dcji-
nitheit der ;vIatrix A' A (§ 11. 2). - Beispiel:

~1 = ( ~ ;), A' A = C~~ ~:), .4 A' = ( ~ ~ -~)


-3 2 -4 6 13,
N(A) = Y27 = 3 Y3 = 5,196.
2.8. Orthogonale Matrizen 31
Im allgemeinen ist (auch bei quadratischem A)
A' A =l= AA' .
Reelle quadratische Matrizen mit der Besonderheit
li;A=AAII
I ____ _
(42)
aber heißen normale Matrizen. Sie zeichnen sich durch bestimmte Eigen-
schaften, namentlich hinsichtlich der im IV. Kap. behandelten Eigen-
wertaufgabe aus und spielen daher eine wichtige Rolle. Symmetrische
und schiefsymmetrische Matrizen sind offenbar von dieser Art, ebenso
die anschließend eingeführten orthogonalen. Über die komplexe Ver-
allgemeinerung vgI. § 4.2.

2.8. Orthogonale Matrizen


Eine bedeutsame Klasse reeller quadratischer Matrizen bilden die
orthogonalen, gekennzeichnet dadurch, daß ihre Spaltenvektoren em
System orthogonaler Einheitsvektoren bilden:
i-,----I
i aiak = bik I (43 a )
mit dem sogenannten KnoNEcKER-Symbol 0ik' das die Zahl 0 für i=l= k
und 1 für i = k bedeutet, also gleich den Elementen der Einheits-
matrix I ist. Da nun das skalare Produkt der Spaltenvektoren, wie
oben gezeigt, gleich dem Element der Matrix A' A ist, GI. (40), so be-
sagt GI. (43a)
!~' A = I I (44a)
als charakteristische Eigenschaft orthogonaler Matrix A.
Eine Orthogonalmatrix ist stets nichtsingulär. Dies folgt aus dem
Ansatz linearer Abhängigkeit
Cl al + ... + Ck a k + ... + Cn an = 0
durch Multiplikation mit a~ von links her, wobei wegen (43 a) dann
Ck' 1 = 0 übrig bleibt, so daß sich alle Ci = 0 ergeben, was Unabhängig-
keit der Spaltenvektoren a k bedeutet. Es folgt übrigens auch aus dem
oben angeführten Determinantensatz 3, GI. (10), angewandt auf GI. (44a)
det A' . det A = det I
oder, da bei einer Determinante bekanntlich Zeilen und Spalten ver-
tauscht werden dürfen, det A' = det A, und die Determinante der
Einheitsmatrix ersichtlich gleich 1 ist:
(det A)2 = 1
oder
(45 )
32 § 2. Das Matrizenprodukt

als weitere Eigenschaft orthogonaler Matrizen. - Multipliziert man


nun GI. (44a) von rechts her mit A', so erhält man unter Benutzen des
assoziativen Gesetzes
(A'A)A' = A'(AA') = A',
und da A' nichtsingulär, so folgt als Ergänzung zu GI. (44a):
!AA' -= 1 (44b)
oder auch
(43 b)
Außer den Spaltenvektoren einer Orthogonalmatrix bilden also auch
ihre Zeilenvektoren ein System orthogonaler Einheitsvektoren. Auch
die orthogonalen Matrizen fallen zu folge A' A = AA' in die oben an-
geführte Klasse der (reell) normalen Matrizen. Die GIn. (44) bedeuten
zugleich, wie sich im nächsten Abschnitt zeigen wird, daß die Trans-
ponierte A' einer Orthogonalmatrix A ihre Kehrmatrix bildet.
Sind A und B zwei orthogonale Matrizen gleicher Reihenzahl n, so
sind auch ihre Produkte AB und B A orthogonal:
(AB)' (AR) = B' A' AR = B' IB = B' B = 1,
(BA)' (BA) = A' B' BA = A' JA = A' ~4 = 1.
Diese wichtige Eigenschaft, daß nämlich die Hintereinanderschaltung
orthogonaler Transformationen einer einzigen Orthogonaltransformation
gleichkommt, verleiht diesen Operationen (im Verein mit dem asso-
ziativen Gesetz und dem Vorhandensein von Einsclement I und in-
versem Element A' = Kehrmatrix) den allgemeinen algebraischen
Charakter der sogenannten Gruppe!, worauf hier wenigstens andeutend
hingewiesen sei. Bezüglich der Orthogonaltransformation vgI. ~ 5.6.
Eine Orthogonalmatrix A, welche überdies symmetrisch ist, ./t' = A,
gehorcht zu folge GI. (44) der Beziehung
A2 = J :. (46)
Die zweimalige Ausübung einer Lineartransformation mit einer solchen
Matrix kommt df. [ identischen Transformation gleich, führt also zum
Ausgangssystem zurück. Derartige Matrizen werden involutorisch ge-
nannt. Natürlich ist auch die Einheitsmatrix sowohl orthogonal als
auch symmetrisch, also involutorisch.
Beispiel:
1. Matrix der ebenen Drehung:

= (cos rp - sin rp)


A . , det ~4 = 1.
sm rp cos rp
1 Vgl. dazu etwa FEIGL, G., u. H. ROHRBACH : Einführung in die höhere Mathe-
matik, S. 181. BerlinjGöttingen/Heidelberg: Springer 1953
3,1, Begriff und Herleitung der Kehrmatrix 33
2, Matrix von Drehung und Spiegelung; involutorisch:

(
COS sin q; q;)
det A = -1, A2 = I,
A = sinq; -cosq; ,

§ 3. Die Kehrmatrix
3.1. Begriff und Herleitung der Kehrmatrix
Gegeben sei eine lineare Transformation zweier Größensysteme ~ und
y zu je n Komponenten xi' Y. (zweier n-dimensionaler Vektoren) in der
Form
(1 )
mit gegebener n-reihig quadratischer Koeffizientenmatrix A = (ai")'

'
ausführlich also das System der Gleichungen

~l~ ~l.~ ',': -: ,a~".x~ ~~l'l (1')


anl Xl + ... +
a"" X" - Y"
welches zu einem gegebenen Vektor ~ = (XI> ••• , x..)' den transformier-
ten Vektor y = (YI' .. , ,Y,,)' zu berechnen erlaubt. Gesucht ist nun die
Umkehrung der Aufgabe, nämlich ein nach den x. aufgelöster fQrmel-
mäßiger Zusammenhang zwischen den Xi und y". Auch er wird wieder

,, :.,.,
homogen linear sein, d, h. von der Form

~~ ~~l.~l,:, ~ ~~~~"'l (2')


x" = (X"IYI + .. , -,- (X""Y"
mit einer wiederum n-reihigen Koeffizientenmatrix von Elementen IX.",
die es zu bestimmen gilt, Diese Matrix der IXi'" für die man in sinnfälliger
Weise das Zeichen A-l benutzt, also A-I = (IXil,), wird inverse Matrix
oder auch Kehrmatrix zur gegebenen A genannt, und man schreibt für
den Zusammenhang (2') kurz
l_ a: = A-l Y I, (2)
Der ganze Vorgang, also der Übergang vom System GI. (1) zum System
GI. (2) wird Umkehrung des Gleichungssystems, der Lineartransformation
genannt, auch Auflösung in unbestimmter Form, d. h, bei "unbestimmten",
nicht zahlenmäßig, sondern buchstabenmäßig vorliegenden "rechten
Seiten" Yi' Die Elemente (Xi" heißen wohl auch Einflußzahlen, weil sie
den Einfluß der Größe y" auf die Unbekannte Xi wiedergeben,
Zur Ermittlung der Kehrmatrix A-I denken wir sie uns gegeben, Dann
folgt die Umkehrung (2) formal aus (1) nach Linksmultiplikation mit
A-I, A-l Aa: = A-I y, wenn wir für A-I die Beziehung
(3)
Zurmühl, Matrizen 4, Aufl. 3
34 § 3. Die Kehrmatrix

fordern. Gesucht ist also eine Matrix A-l derart, daß (3) gilt. Das aber
setzt zugleich spaltenreguläre, also nichtsinguläre Matrix A voraus.
Denn aus

folgt nach Multiplikation mit dem i-ten Zeilenvektor (J.i von A-l unter
Berücksichtigen von (3)
ci ·1 = 0,

also Verschwinden sämtlicher Ci' was Unabhängigkeit der Spalten a k


bedeutet. Notwendige Bedingung für Lösbarkeit unserer Aufgabe ist
somit
1 det A 4= 0 I· (4)

Sie erweist sich zugleich als hinreichend. Denn zur Bestimmung von A-l
gehen wir von n speziellen Gleichungssystemen (1) aus, nämlich

(5)

mit dem k-ten Einheitsvektor e k als rechter Seite. Diese Systeme aber
sind bekanntlich genau dann eindeutig lösbar, wenn A nichtsingulär
ist. Multiplikation von (5) mit A-l ergibt nun mit (3):

wo rechts die k-te Spalte (J.k von A-l erscheint. Damit haben wir

1Xk = (J.k I, k = 1, 2, ... , n , (6)


also
Sa tz 1 : Die k-te Spalte (J.k der KehrmatrixA-l ergibt sich als Lösung des
Gleichungssystems (5) mit der nichtsingulären Koettizientenmatrix A und
dem k-ten Einheitsvektor ek als rechter Seite.
Damit ist unsere Aufgabe praktisch gelöst. Auf ihre numerische Durch-
führung kommen wir in § 6 zurück.
Indem wir die n Spalten x k = (J.k zur n-reihigen Matrix X, die rechten
Seiten ek zur Einheitsmatrix I zusammenfassen, schreiben sich die
Gleichungen (5) und (6) als Matrizengleichungen

(5a)
·.·1'
I·AX=.1
X=A-l, (6a)

in Worten:
3.1. Begriff und Herleitung der Kehrmatrix 35
Sa tz 1 a: Die Kehrmatrix A-l zur nichtsingulären Matrix A ergibt sich
als Lösungssystem X des Gleichungssystems (5 a) mit Aals Koejjizienten-
matrix und der Einheitsmatrix I als n-jacher rechter Seite.
Die Gleichungen (5a), (6a) und (3) fassen wir zusammen in

I A-l A = A A-l = I I (7)

als charakteristischer Eigenschaft der inversen Matrix. Beim Übergang


von (1) auf (2):
Ax=y (1 )
x = A-ly (2)

folgt jetzt (2) aus (1) formal durch Linksmultiplikation mit A-l unter
Beachtung von (7). Die tatsächliche Berechnung des Vektors x der Un-
bekannten Xi bei zahlenmäßig gegebenem Vektor y geschieht indessen
durch Auflösen des linearen Gleichungssystems, etwa nach dem
GAussschen Algorithmus, auf den wir in § 6 ausführlich zurückkommen.
Demgegenüber würde die explizite Berechnung von A-l mit anschließen-
der Multiplikation A-l y eine erhebliche Mehrarbeit erfordern. Über-
haupt wird die Kehrmatrix explizit nur relativ selten benötigt. Ihre
Bedeutung liegt in der Möglichkeit formalen Rechnens zur Durch-
führung theoretischer Überlegungen.
Auch die Kehrmatrix ist nichtsingulär, was in ähnlicher Weise wie
oben für A jetzt aus A A-l = I gefolgert wird. Aus dem in § 2.2, GI. (10)
zitierten Determinantensatz 3 folgt übrigens für ihre Determinante

Idet A-l = 1/A I (8)

mit A = det A.
Es folgen einige einfache Rechenregeln. Durch Transponieren, von
A A-l = I erhält man (A-l)1 AI = I, und da mit A auch AI eine ein-
deutige Kehrmatrix besitzt, so ist sie

[ (AI)-l = (A-l)' [. (9)

Die Kehrmatrix der Transponierten ist einfach gleich der Transponierten


der Kehrmatrix. Bei symmetrischer Matrix A ist daher auch A-l wieder
symmetrisch.
Weiter gilt als eine der Formel (9) aus § 2.2 analoge Beziehung

[ (AB)-l = B-IA-l I, (10)


§ 3. Die Kehrmatrix

deren Richtigkeit aus


(AB)-l AB = B-IA-IAB = B-IIB = B-IB = I
zu bestätigen ist. Allgemein gilt wieder
(ABC . .. N)-l = N-l ... C-l B-l A-l . (Wa)
Für nichtsinguläre Matrizen lassen sich die Potenzgesetze auch auf
negative Exponenten ausdehnen. Man definiert für positives ganz-
zahliges p
A-P = (A-l)P sowie AO = I. (11)

Dann gilt mit beliebigen (positiven und negativen) ganzen Exponenten


p, q
(12)

Für Diagonalmatrizen D = Diag (di ) mit d j =1= 0 ist wieder besonders


einfachD-l = Diag (1/dJ

3.2. Adjungierte Matrix. Formelmäßiger Ausdruck der ~ik

Im folgenden brauchen wir einige einfache Tatsachen und Sätze aus


der Determinantenlehre, die dem Leser noch hinreichend bekannt sein
werden; andernfalls verweisen wir auf die im Schrifttum aufgeführten
Darstellungen sowie die üblichen Lehrbücher für Mathematik.
Die zu einem Element aik einer n-reihigen Determinante A = laikl
gehörige Unterdeterminante ist bekanntlich jene (n-1)-reihige Deter-
minante, die man aus dem Koeffizientenschema nach Streichen der
i-ten Zeile und k-ten Spalte (der Zeile und Spalte des Elementes) ge-
winnt.
Versieht man diese Unterdeterminante noch mit dem Vorzeichen-
faktor (_1)i+k, also mit + oder - je nach der Stellung des Elementes
im Schachbrettmuster

+-+-
-+-+
+-+-
-+-+

so wird das Ganze das algebraische Komplement A ik zum Element a jk


genannt. Jedem Element aik einer quadratischen (regulären oder auch
singulären) Matrix A ist damit sein algebraisches Komplement AiR
zugeordnet.
3·2. Adjungierte Matrix. Formelmäßiger Ausdruck der !Xik 37
Die aus diesen Komplementen Ai'" jedoch in transponierter Anordnung
gebildete neue Matrix wird nun die zu A adjungierte Matrix genannt und
hier mit A adj bezeichnet:
All A 21 ··· An1)
A adi = (A",) = ( ~12. A~2'." ~n~ . (13)
A1n A 2n ··· A nn
Beispiel: In der Matrix

A=(; -3! -~)


1 0
sind folgende Komplemente enthalten:

All
_I 4 31_
01- 9,
_ 12 31_
A12 --1 1 01- 3,
-
I
_
3
1 1 -21 !3 -21 _ '3 11
A 21 = -1-3 01 = 6, A 22 = !1 01- 2, A23 = -[1 -31 = 10
11 -21 13 -21 _ J
A31 = 14 31 = 11, A32 =-1 2 31-- 13. ,A33 _- 2
11_
41- 10
Die adjungierte Matrix ist also

A adj = ( ~ ~ -~10~
-10 10
) .

Mit den Komplementen lautet nun der sogenannte Entwicklungssatz


der Determinantenlehre, nach dem der Determinantenwert A darstell-
bar ist als Summe der Produkte aus den Elementen einer Zeile oder einer
Spalte mit ihren "vorzeichenversehenen" Unterdeterminanten, d. h.
mit ihren Komplementen:
- - --------- --

I ! Entwicklung nach
i A = ai1 A il + ai2 A i2 + ... + ainA in I deri-tenZeile, (14a)

'A -- a1k A 1" + a2k A 2k + ... + ank Ankl Entwicklung nach (14b}
~_______ _________ der k-ten Spalte.
So ist die Determinante A unseres Beispiels, entwickelt etwa nach der
ersten Zeile oder der zweiten Spalte:
A = 3.9 + 1 . 3 + 2' 10 = 50
= 1.3 + 4' 2 + 3 . 13 = 50.
Ersetzt man in der Entwicklung GI. (14a) die Elemente air der i-ten
Zeile durch Elemente air einer Parallelzeile (j =l= i), während man die
Komplemente Air zur i-ten Zeile beibehält, so ist das Ergebnis gleich-
bedeutend mit einer Determinante, deren i-te Zeile mit der j-ten Zeile
38 § 3. Die Kehrmatrix

übereinstimmt. Dies aber ist nach einem bekannten Determinantensatz


gleich Null. Die entsprechende Überlegung gilt für die Spalten in Gl.
(14b). Man erhält so als Ergänzung zum obigen Entwicklungssatz die
Formeln
+ ai2 Ai2+~'-+~;nAin ==01
=J
~Ail für i =l= j , (iSa)

_all Al~.~21 A +______ ~~~l~nk


2k für k =l= I . (1 Sb)
Die linken Seiten von GIn. (14a), (iSa) aber stellen ersichtlich das
skalare Produkt einer Zeile von A mit einer Spalte von A adi dar, und
bei GIn. (14b), (1 Sb) ist es das Produkt einer Spalte von A mit einer
adi ,
Zeile von A m. a. W. es handelt sich um Elemente der Matrizenprodukte
ad;
A ~4adi und A A. Beide Gleichungspaare lassen sich somit zusammen-
fassen zur Matrizengleichung

IA-A-adi-=-A-ad'-'
A=-A-1= (~ 1::: ~) , (16)
~ ~ .'.: A
_ _ _ _ ... _ _ .. _ _ _ _ _ _ _ _ .
I
I

Im Falle einer singulären Matrix A ergibt dies Null:


A A adj = A adi A = ° für det A = A = °. (16a)
Ist aber A nichtsingulär, so läßt sich (16) durch A dividieren, und das
besagt dann, daß die durch A dividierte Adjungierte A adi gleich der
Kehrmatrix ist:

1~1~1~adj _~ ~ ~Aki) I, (17)

womit wir einen formelmäßigen Ausdruck für die Elemente (Xik der
Kehrmatrix gewonnen haben:

l(Xik~~Akil. (18)

Für unser Beispiel ist also:

9 6 11) (0,18 0,12 0,22).


A-l= ~ ( 3 2 -13 = 0,06 0,04 -0,26
5 -10 10 10 --0,20 0,20 0,20
Für zweireihige Matrizen schließlich merkt man sich leicht das Er-
gebnis:

. (19)
3.3. Matrizendivision 39
Mit Hilfe der adjungierten Matrix läßt sich sehr einfach jene Formel
herleiten, die bei der theoretischen Behandlung linearer Gleichungs-
systeme im Vordergrund steht, die sogenannte CRAMERsche Regel, von
der wir annehmen dürfen, daß sie dem Leser in großen Zügen bekannt
ist. Sie stellt die Lösungen Xi formelmäßig als Quotienten zweier Deter-
minanten dar:

I Xi = Ai: AI, (20)

wo A die als von 0 verschieden vorausgesetzte Koeffizientendetermi-


nante bedeutet, während die "Zählerdeterminanten" Ai aus. A dadurch
hervorgehen, daß die i-te Spalte von A ersetzt wird durch die Spalte
der rechten Seiten Yi. Diese Vorschrift ergibt sich aus
Ax=y (21)
durch Linksmultiplikation mit der Adjungierten Matrix A adi unter Be-
achten von GI. (16):
A x = Aadiy. (22)
was sich aufspaltet in die Gleichungen
A Xi = y1A1i + Y2 A 2i + ... + Y"A ni = Ai· (23)
Hier aber ist der Summenausdruck rechts gerade die oben gekennzeich-
nete Determinante Ai' aus der er durch Entwickeln nach der i-ten Spalte
mit den Elementen Yj hervorgeht. GI. (23) besagt: Eliminiert man im
Gleichungssystem GI. (21) alle Unbekannten bis auf Xi' so erhält die übrig-
bleibende Unbekannte den Faktor A = det A, während als rechte Seite
die Determinante Ai auftritt. Genau dann, wenn nun unsere Koeffi-
zientenmatrix nichtsingulär ist, A =l= 0, läßt sich GI. (23) für beliebige
rechte Seiten Yj' die ja in die rechten Seiten Ai von GI. (23) eingehen,
auflösen in der Form (20) der CRAMERschen Regel. - So wertvoll nun
diese Regel als formelmäßiger Ausdruck der Lösungen Xi für theoretische
Einsichten ist, so ist sie als Lösungsvorschrift - explizite Berechnung
von n + 1 Determinanten A, Al> ... ,An - für umfangreichere Glei-
chungssysteme doch durchaus ungeeignet. Die praktische Lösung eines
Gleichungssystems erfolgt vielmehr stets, wie schon oben angedeutet,
durch einen schrittweise und zahlenmäßig durchgeführten Eliminations-
prozeß in Gestalt des sogenannten GAussschen Algorithmus, auf den
wir im II. Kap. ausführlich zurückkommen werden.

3.3. Matrizendivision
Entsprechend dem nichtkommutativen Charakter der Matrizenmulti-
plikation hat man auch für die inverse Operation, die man als Division
bezeichnen kann, zwei Arten zu unterscheiden, nämlich bei den gegebenen
40 § 4. Komplexe Matrizen

Matrizen A und B und gesuchter Matrix X die beiden Aufgaben

AX=B, (24a)
XA=B (24b)
Beide Aufgaben sind genau dann allgemein und eindeutig lösbar, wenn
A nichtsingulär, und man findet dann die Lösung X formal durch Multi-
plizieren der Gleichung mit der Kehrmatrix A-l, im ersten Falle von
links her, im zweiten von rechts her:

X=A-lB (2Sa)
X=BA -1 (2Sb)

Die beiden Ergebnisse sind im allgemeinen verschieden, es sei denn, daß


A und B vertauschbar sind, AB = B A. Die Matrix A ist als nichtsingu-
läre Matrix quadratisch, die Matrizen B und X brauchen es nicht zu sein;
es muß nur Verkettbarkeit herrschen. Ist A n-reihig, so kann im ersten
Fall B vom Typ np sein bei beliebigem p, und dann ist es auch X, im
zweiten Falle beide vom Typ p n.
Die tatsächliche Ausführung der "Division", also die Berechnung
der Matrizen A-l Bund B A-l braucht keineswegs durch eine Multiplika-
tion mit A-l zu erfolgen und wird es in der Regel auch nicht, wenn nicht
die Kehrmatrix ohnehin bekannt ist. Vielmehr wird man die Aufgabe
(24a) als ein lineares Gleichungssystem mit der Koeffizientenmatrix A
und einer p-fachen rechten Seite B = (bI> b 2 , ••• ,b p) auffassen. Die
Ergebnisse der Auflösung, die p Lösungsvektoren x h ' sind dann die Spal-
ten der gesuchten Matrix X = (Xl' X 2' ••• ,Xp). - Im Falle der Aufgabe
GI. (24b) stellt man d urch Transponieren um:
A'X'=B', (24b')
löst also ein Gleichungssystem mit der Koeffizientenmatrix A' und den
p Spalten von B', das sind die p Zeilen b i von B, als rechten Seiten,
denen dann p Spalten von X', das sind die p Zeilen Xi von X, als Lösungs-
vektoren entsprechen. Beide Aufgaben lassen sich rechnerisch auch
vereinigen. Zur praktischen Durchführung vg1. § 6.6.

§ 4. Komplexe Matrizen
4.1. Komplexe Matrizen und Vektoren
Bisher haben wir die Elemente einer Matrix meist stillschweigend
mehrfach aber auch ausdrücklich als reelle Zahlen angesehen. Nun er-
fährt bekanntlich in der Mathematik der Zahlbegriff erst durch Ein-
führen der komplexen Zahlen seine notwendige Abrundung. Erst mit
ihrer Hilfe werden grundlegende mathematische Aufgaben, wie etwa
4.1. Komplexe Matrizen und Vektoren 41

die Auflösung algebraischer Gleichungen, ausnahmslos lösbar. Dem-


entsprechend spielen auch komplexe Matrizen, das sind solche mit
komplexen Zahlen als Elementen, in Theorie und Anwendung eine
wichtige Rolle.
Beim Arbeiten mit komplexen Matrizen ergeben sich nun gewisse Be-
sonderheiten, ähnlich wie man dies auch vom Rechnen mit komplexen
Zahlen her kennt. Charakteristisch ist dort die Bildung des Betrag-
quadrates einer komplexen Zahl x = u + i v, das hier nicht wie bei
den reellen Zahlen durch Quadrieren von x erhalten wird, sondern als
x
Produkt mit der konjugiert komplexen Zahl = u - i v gemäß
[X[2 = XX = u2 + v2 = r2 • (1 )
Denn nur diese Bildung ergibt in jedem Falle eine reelle, und zwar eine
positive (oder verschwindende) reelle Zahl, wie es vom Betragquadrat
zu fordern ist. Diese Operation, das Produkt mit konjugiert komplexen
Gebilden, ist nun auch für das Arbeiten mit komplexen Matrizen und
Vektoren kennzeichnend.
Betrachten wir zunächst einen komplexen Vektor ~ mit den Kompo-
nenten xi = u i + i vi sowie den konjugiert komplexen Vektor x
mit
den Komponenten xi = ui - i vi' Beide Vektoren lassen sich wie die
Komponenten in Real- und Imaginärteil aufspalten:
~=u+iv,

x = u-iv
mit den reellen Vektoren u, v der reellen Komponenten u i und vi' Das
Betragquadrat des komplexen Vektors, das Quadrat seiner Norm gewinnt
man analog zu GI. (1) als das skalare Produkt des Vektors ~ mit seinem
konjugierten Vektor x nach
[X[2 = x' X = (u' - i v') (u + i v) = u' u + v' v, (2)
ausführlich:
x'~= (ui + vi) + (u~ + v~) + ... + (u! + v!) = [X1[2 + ... + [Xn [2. (2')
Nur so wird die Norm, wie es sein soll, abgesehen vom Nullvektor eine
reelle (Positive) Zahl, so daß insbesondere auch eine Normierung auf 1 stets
möglich ist, indem ein beliebiger Vektor durch seinen Betrag dividiert wird.
Für den hier und auch sonst auftretenden konjugiert transponierten
Vektor x' hat sich die Schreibweise ~* eingebürgert:
(3 )

Damit schreibt sich das Normquadrat zu JX[2 = ~*~.


Es ist naheliegend, als skalares Produkt zweier n-dimensionaler kom-
plexer Vektoren ~ und y nicht, wie im Reellen, den Ausdruck x' y, son-
42 § 4. Komplexe Matrizen

dem einen der Ausdrücke x'" y oder y* x zu definieren. Zwei komplexe


Vektoren, deren skalares Produkt verschwindet,
(4)
werden zueinander unitär genannt; das ist die komplexe Verallgemeine-
rung der Orthogonalität, es ist eine konjugierte Orthogonalität. Im Eeel-
len, aber auch nur dort, fallen die beiden Begriffe unitär und orthogonal
zusammen.
Die komplexe Verallgemeinerung orthogonaler Einheitsvektoren, das
ist ein System komplexer, auf 1 normierter, unitärer Vektoren Xj' für
die also die Beziehung
~iX.= bd (5)
mit dem KRoNEcKER-Symbol bj k besteht, heißt ein unitäres Vektorsystem.
So wie ein Vektor läßt sich auch eine komplexe Matrix A mit den
Elementen ajk = bjk +
i cjk nebst ihrer konjugierten Matrix A mit den
a
Elementen jk = bjk - i cjk in Eeal- und Imaginärteil aufteilen gemäß
A=B+iC,
A=B-iC
mit den reellen Matrizen B = (b jk ) und C = (c jk ). Auch hier erweist sich
das Operieren mit der konjugiert transponierten Matrix
(6)
in vieler Hinsicht als sachgemäß. Dies gilt insbesondere für die im folgen-
den aufgeführten

4.2. Sonderformen komplexer Matrizen


Sollen nämlich die charakteristischen Eigenschaften der wichtigsten
Sonderformen reeller Matrizen, so vor allem der symmetrischen, der
schiefsymmetrischen und der orthogonalen, im Komplexen erhalten
bleiben, so darf man die im Eeellen gültigen Definitionen nicht wörtlich
übertragen, sondern muß sie sinngemäß abwandeln, und zwar, ähnlich
wie bei den Vektoren, im wesentlichen derart, daß an die Stelle der trans-
ponierten Matrix die konjugiert transponierte tritt. An die Stelle der
gewöhnlichen Orthogonalität tritt dann die konjugierte, d. h. also die
Unitarität, an die Stelle der Symmetrie bzw. Schiefsymmetrie eine kon-
jugierte, für die man gleichfalls besondere Bezeichnungen eingeführt hat:
man spricht hier von hermiteschen bzw. schiethermiteschen Matrizen (nach
CHARLES HERMITE 1822-1901).
Eine hermitesche Matrix als komplexe Verallgemeinerung der reell
symmetrischen ist definiert durch die Eigenschaft
-1-·--1
IA*=A[, (7)
4.2. Sonderformen komplexer Matrizen 43
was mit A = B +iC zerfällt in

BI = B symmetrischer Realteil, (8a)


C' = - C schiefsymmetrischer Imaginärteil. (8b)

Die Diagonalelemente sind somit reell, ai ; = bi ;. Im Reellen fällt hermi-


tisch mit Symmetrie zusammen, im rein Imaginären aber mit Schief-
symmetrie. Eine komplexe (weder reelle noch rein imaginäre) symme-
trische Matrix ist durch keine besonderen Eigenschaften ausgezeichnet
und daher meist ohne Interesse.
Eine schiefhermitesche Matrix als komplexe Verallgemeinerung der
reell schiefsymmetrischen ist definiert durch

(9)
was wieder zerfällt in

B' = - B schiefsymmetrischer Realteil, (10a)


C' = C symmetrischer Imaginärteil. (10b)

Die Diagonalelemente sind hier rein imaginär, ajf = i cff ' Im Reellen
fällt schiefhermitisch mit Schiefsymmetrie zusammen, im rein Ima-
ginären aber mit. Symmetrie. Eine komplexe (weder reelle noch rein
imaginäre) schiefsymmetrische Matrix ist wieder durch keine besonderen
Eigenschaften ausgezeichnet und daher meist ohne Interesse.
Eine unitäre Matrix ist als komplexe Verallgemeinerung der reell
orthogonalen dadurch ausgezeichnet, daß ihre Spaltenvektoren ein uni-
täres Vektorensystem bilden:

Ia;ak == a; ak = ~j/.I, (11)


was zusammen mit der daraus folgenden entsprechenden Eigenschaft
der Zeilenvektoren die Definitionsgleichung ergibt

(12)
oder auch

(13)
Aus GI. (12) folgt die Determinatenbeziehung
det AI. det A = (det A) . det A = [det A[2 = 1 ,

IldetAI~· (14)
Im Reellen fällt unitär mit orthogonal zusammen.
44 § 4. Komplexe Matrizen

Alle drei Sonderformen sind Sonderfälle einer allgemeineren Klasse,


der sogenannten normalen Matrizen, definiert durch die Eigenschaft

(15)
Eine Matrix, die sowohl hermitesch als auch unitär (oder sowohl
symmetrisch als auch orthogonal) ist, A * = A und A * A = I, hat die
Eigenschaft
(16a)

und wird involutorisch genannt (in der Geometrie heißt eine Abbildung,
deren zweimalige Anwendung in das Ausgangsbild, also die "identische"
S ,5" 0 U Abbildung zurückführt, involu-
torisch oder eine Involution). -
Iv Eine Matrix, die sowohl schief-
hermitesch als auch unitär (oder
Iv sowohl schiefsymmetrisch als
auch orthogonal) ist, hat die
Iv' Eigenschaft

• Iv' (16b)

und wird halbinvolutorisch ge-


o Iv Iv'
• Re
nannt.
Die eigentümliche Zusammen-
u - Iv Iv' Re • gehörigkeit je dreier Eigenschaf-
Abb.4.1. Eigenschaftsmatrix spezieller Matrizen ten der hier betrachteten Matri-
zen lassen sich an einer Eigen-
schatlmatrix nach Art der Abb. 4.1 ablesen: Je drei links vor einer Zeile,
am Kopf einer Spalte und im Schnitt von Zeile und Spalte aufgeführte
Eigenschaften gehören zusammen, wobei wir uns folgender Abkürzungen
bedient haben:
5 = symmetrisch 5' = schiefsymmetrisch
H = hermitisch H' = schiefhermitisch
Iv = involutorisch Iv' = halbinvolutorisch
0 = orthogonal U = unitär
Re = reell I nz = rein imaginär.

Z. B. besagt das Schema:


Eine Matrix, die symmetrisch und reell ist, ist auch hermitisch. Eine
Matrix, die symmetrisch und orthogonal ist, ist involutorisch. Eine
unitäre symmetrische Matrix hat keine besonderen Eigenschaften. Eine
zugleich symmetrisch und schiefsymmetrische Matrix gibt es nicht, von
der Nullmatrix abgesehen.
4.3. Reelle Form komplexer Matrizen 45

Jede quadratische Matrix A läßt sich wie unter § 1.4, GIB. (19), (20)
aufspalten in einen hermiteschen und einen schiefhermiteschen Anteil
HundK:

I
(17)
mit
H =
1
-(A
2
+ A*) hermitisch,
(18)
1
K = - (A-A*) schiefhermi tisch.
2
Beispiele:
a) Hermitesche Matrix

H= (b n b i 11
C12

b) Schiefhermitesche Matrix
b12 +i C12\

i c22 )-
d) Unitäre Matrix
cos rp i sin rp) .
(
A = i sinrp cos rp
c) Involutorische Matrizen
cos rp sin rp) - cos rp i sin rp\
A= ( B =
(
_ i sin rp cos rp ) .
sin rp - cos rp ,
A ist symmetrisch orthogonal, B hermitisch unitär.

4.3. Reelle Form komplexer Matrizen


Komplexe Zahlen, also Paare reeller Zahlen, lassen sich, was nicht zu
überraschen braucht, durch Matrizen darstellen, und zwar durch zwei-
reihige quadratische Matrizen, deren reelle Elemente aus Real- und
Imaginärteil der Zahl aufgebaut sind. Der reellen und imaginären Ein-
heit 1 und i im Bereich der komplexen Zahlen entsprechen nämlich die
Matrizen

e = G~) und
._(0 -1)
"l-
1 0
. (19)

Für e ist das unmittelbar verständlich. Die Matrix i aber besitzt er-
sichtlich die charakteristische Eigenschaft der Zahl i, mit sich multipli-
ziert die negative Einheit zu ergeben:

i2=(~ -~)(~ -~)=(-~ _~)=-e. (20)

Es handelt sich also bei i um eine halbinvolutorische Matrix.


So wie man nun eine reelle Zahl x in Form einer Skalarmatrix xe
darstellen kann, so läßt sich eine rein imaginäre Zahl i y durch die Matrix
46 § 4. Komplexe Matrizen

Y i wiedergeben. Damit entspricht der komplexen Zahl ;; = x +i Y


die reelle Matrix1

z = ex + i Y = (~ -~) (21 )

und der konjugiert komplexen Zahl z = x - i y die Matrix

z= ex _ iy = (- yx xy) I,
I
(22)

die wir Konjugiertmatrix nennen wollen. Sie entsteht aus z durch eine
Rechts- und eine Linksmultiplikation mit der involutorischen Matrix

(23)

in der Form
z= k z k 1. (24)
Dem Drehfaktor eiep = cos Cf! + i sin Cf! entspricht die Drehmatrix
IL_c= (cos Cf!~in Cf!)
sin Cf! cos Cf!
, (25)

eine Orthogonalmatrix mit


cos Cf! sin Cf!) (cos Cf! - sin Cf!) = (1 °1) = e .
°
f (

c c = _sin Cf! cos Cf! sin Cf! cos Cf!


Mit ihr schreibt sich z dann als
(26)
was der Produktform z = r eiep entspricht.
So wie der einzelnen komplexen Zahl z eine reelle zweireihige Matrix z
entspricht, so läßt sich auch einer n-reihigen komplexen Matrix A = B
+ i C eine 2 n-reihige reelle Matrix ~ zuordnen, entweder indem jedes
komplexe Element aik = bik + i Cik durch die Teilmatrix
_ (b
aik -
ik - Cik ) (27)
Cik bik
1 Komplexe Zahl z und Matrix z sind nicht einander gleich. Es handelt sich
hier um zwei verschiedene mathematische Dinge, die aber einander entsprechen,
und zwar derart, daß auch die rechnerischen VerknüPfungen in beiden Bereichen,
dem der komplexen Zahlen und dem der zugeordneten Matrizen, einander ent-
sprechen. Eine solche Abbildung mathematischer Bereiche aufeinander unter
Wahrung der Verknüpfungsvorschriften wird ein Isomorphismus genannt.
4.3. Reelle Form komplexer Matrizen 47
ersetzt wird, oder aber indem man Real- und Imaginärteil überhaupt
trennt nach

~= C (B-C) B . (28)

Mit Hilfe der 2 n-reihigen involutorischen Matrix

-1
.s\ = (1° 0) (29)

erhält man aus ~ die Konjugiertmatrix ~

~ = .s\~.s\ =
A ( B
-C B
C) . (30)

Hierbei entspricht, wie es sinnvoll ist,


einer komplexen hermitesche Matrix A eine reelle symmetrische ~
einer komplexen schiefhermiteschen eine reelle schiefsymmetrische ~
einer komplexen unitären A eine reelle orthogonale Matrix ~.
Den Beispielen komplexer Matrizen von 4.2 entsprechen die folgenden
reellen Darstellungen:
a) Hermitesche Matrix in reeller Form: Symmetrisch

~-
_ ( ~~~
0
~: b~12 - ~12)
b12
C12 u '

, - C12 0 b12 b22


b) Schiefhermitesche Matrix in reeller Form: Schiefsymmetrisch

.~(-~" Cu
b12
0
C12
-cu
-C12
0
-Cd)
- C22
b12 •

C12 C22 - b12 0


c) Unitäre Matrix in reeller Form: Orthogonal

~ =
C· 0
0
sin rp
0
cos rp
sin rp
0
d) Hermitisch-unitär in reeller Form: Symmetrisch orthogonal
-sinrp
cos rp
0

0
-~.)
o .
cos rp

rp
-COS 0
? -
+ smrp Sinrp)
!8 = ( 0 cos rp 0
o sinrp - cos rp 0 .
-sinrp 0 o cos rp

Eine auch praktisch wichtige Anwendung reeller Darstellung kom-


plexer Matrizen findet sich bei Behandlung linearer Gleichungssysteme
mit komplexen Koeffizienten. Aus

(31)
48 § 5. Lineare Abbildungen und Koordinatentransformationen

wird mit
A = B + iC
a=b+ic
x=u+iv
durch Ausmultiplizieren :
(B u - C v) i (C u + +
B v) = b i c +
und daraus durch Trennen von Real- und Imaginärteil die beiden reellen
Gleichungssysteme
Bu-Cv=b '
(32)
Cu + B_",- = eil '
die wir zusammenfassen können zu

(32a)

Das komplexe System in n Unbekannten xi = ui + i vi ist in ein reelles


in 2 nUnbekannten u j , vi überführt.

* § 5. Lineare Abbildungen und Koordinatentransformationen


5.1. Lineare Abbildungen
Die folgenden Abschnitte, die an das Abstraktionsvermögen des
Lesers etwas höhere Anforderungen stellen, können beim ersten Lesen
auch überschlagen, sollten jedoch vor Lektüre des IV. Kap. nachgeholt
werden, da wir uns bei Behandlung des Eigenwertproblems auf sie
beziehen werden.
Die durch eine quadratische Matrix A vermittelte lineare Transforma-
tion A x = y erlaubt, wie wir wissen, die bedeutsame geometrische Inter-
pretation einer Abbildung. Wir nannten ein System geordneter Zahlen
av a 2 , ••• , an' ein Zahlen-n-Tupel a = {al> a2 , ••• , an} einen Punkt oder
Vektor im n-dimensionalen Raum Rn' den wir auch Vektorraum nennen,
wobei wir als Vektorkomponenten a i reelle oder auch komplexe Zahlen
zulassen. Um dies nicht immer ausdrücklich festlegen zu müssen, sagen
wir allgemeiner, die ai entstammen einem Zahlenbereich, in dem - wie
bei reellen oder komplexen Zahlen - die Operationen der Addition,
Subtraktion, Multiplikation und Division ausnahmslos durchführbar
sind (bis auf Division durch Null). Einen solchen Bereich nennt man in
der Algebra allgemein einen Körper oder auch Zahlkörper (der Bereich
der ganzen Zahlen ist z. B. keiner, da hier die Division aus ihm heraus-
führt). Wir sagen also, die Elemente ai , die Vektorkomponenten seien
Elemente eines ein für alle Mal zugrunde gelegten Körpers, wobei wir in
der Regel an den reellen Zahlkörper denken werden. - Unter dem
Raume Rn verstehen wir dann die Gesamtheit der n-dimensionalen
5.1. Lineare Abbildungen 49
Vektoren a (der Zahlen-n-Tupel), wenn jede Komponente ai den ganzen
Zahlkörper (etwa den Bereich der reellen Zahlen) durchläuft.
Es werde nun ein System von n linear unabhängigen fest gewählten
c
Vektoren cl> C2 , ••• , n im Rn gegeben, eine sogenannte Basis, die wir
Koordinatensystem nennen. Im Ra entspricht dem ein im allgemeinen
schiefwinkliges räumliches Koordinatensystem mit drei beliebigen linear
unabhängigen (d. h. hier nicht in einer Ebene gelegenen) geometrischen
Basisvektoren el> C2 , ca
(die also nicht etwa Einheitsvektoren zu sein
brauchen; die Bezeichnung Ci erklärt sich aus dem folgenden). Ein be-
x
liebiger Vektor (ein System n geordneter Zahlen) läßt sich dann mit
e
Hilfe der Basisvektoren i eindeutig darstellen in der Form
= Xl lx X2 2 e + e + ... +
X n Cn (1)
mit n Faktoren Xi aus unserem Grundkörper, wie wir später, § 7.2,
Satz 4 ausführlich begründen werden. Diese Größen xi heißen dann die
Komponenten des Vektors !i; in bezug auf das Koordinatensystem der Ci'
und diese auf das System der ei
bezogenen Komponenten Xi sollen nun
der Matrixdarstellung des Vektors !i; zugrunde gelegt werden, für die wir
dann einfach x schreiben:

(2)

Die Basisvektoren Ci des Koordinatensystems aber erscheinen bezüg-


lich sich selbst als die Spalten der Einheitsmatrix :

e,~G)· e,~(} e"~(D. (3)

ungeachtet dessen, daß diese Vektoren ursprünglich als allgemeine,


linear unabhängige Zahlen-n-Tupel gegeben waren, daß es sich, an-
schaulich gesprochen, um ein schiefwinkliges Koordinatensystem mit
Nichteinheitsvektoren als Basis handelt.
Beispiel:
(2) (1)3 ' (-1)
r- ).
el
A
= 1 ' e2 =
A
x
A
= 2'

In den Koordinaten e wird dann x =


i ~ Denn offenbar ist

-1 . (: ) +1 . ( ; ) = (- ~) .
Das läßt sich natürlich auch anschaulich verfolgen, indem wir die Vek-
ex
toren Cl' 2 , in kartesischen Koordinaten darstellen und !i; in der an-
gegebenen 'Weise mit den Komponenten -1, 1 aus den Basisvektoren
zusammensetzen, was wir dem Leser überlassen dürfen.
Zurmühl, Matrizen 4. Auf!. 4
50 § 5. Lineare Abbildungen und Komdinatentransformationen

Es werde nun einem Vektor x des Rn nach einer bestimmten rechneri-


schen Vorschrift ein Vektor y des gleichen Raumes als sogenanntes Bild
x
zugeordnet, der Vektor wird in den Bildvektor y abgebildet, was wir
symbolisch in der Form
(4)
mit einem Abbildungsoperator a schreiben wollen. Die Abbildung a
wird nun linear genannt und die Beziehung (4) eine lineare Transforma-
tion, wenn die beiden folgenden für die Linearität charakteristischen
Eigenschaften erfüllt sind. Bei beliebiger Zahl A aus dem Grundkörper
(d. h. also dem Zahlenbereich, dem auch die Komponenten der Vektoren
entstammen) und für zwei beliebige Vektoren ~l> ~2 aus Rn soll gelten
1---a(Je x) = Je a(x) , (5)
I A
la (;1:1+ = a(;1:1) + a(;1:2) .
A
;1:2)
A A
(6)
Die Proportionalität der Vektoren~ und AX soll auch in ihren Bildern ge-
wahrt bleiben, und das Bild einer Vektorsumme soll stets gleich der
Summe der Bilder sein. Dann nämlich gehen bei der Abbildung gerade
Linien wieder in Gerade, Ebenen in Ebenen, allgemein lineare Gebilde
wieder in lineare Gebilde über.
Eine besonders einfache Abbildung dieser Art ist die lineare Ver-
x
streckung von in c ~ mit beliebigem c aus dem Grundkörper :
a(~) = cx. (7)
Insbesondere liefert c = 1 die identische Abbildung, für die man a = 1
x
schreibt, und c = 0 die Abbildung a = 0 aller Vektoren in den Null-
vektor.
Für die Verknüpfung zweier oder mehrerer linearer Abbildungen lassen
sich nun gewisse Gesetze angeben. Die bedeutsamste Verknüpfung be-
steht in der Hintereinanderschaltung zweier linearer Abbildungen, etwa
einer ersten 7: und einer zweiten a. Das Ergebnis ist eine neue Abbildung,
die man sinnfällig als Produkt der beiden Einzelabbildungen
cp = a7: (8)
unter Beachtung der Reihenfolge bezeichnet, was durch
cp(~) = a( 7: (x)) = a 7:(x)
nahegelegt wird. Das Produkt ist, von Ausnahmefällen abgesehen, nicht
kommutativ: cp = a 7: bedeutet: Zuerst Anwenden der Abbildung 7:,
dann das der Abbildung a. Bei "p = 7: a ist die Reihenfolge umgekehrt,
und die Abbildungen cp und "p sind im allgemeinen verschieden. Beide
aber sind, wie leicht nachprüfbar, wieder linear, indem sie den Bedin-
gungen GI. (5) und GI. (6) genügen. Die Abbildung a(x) = c x dagegen
ist mit jeder anderen 7: vertauschbar, was aus GI. (5) mit Je = c folgt.
5.2. Darstellung durch Matrizen 51
Unter bestimmten Bedingungen ist nun eine lineare Abbildung a
umkehrbar, d. h. es gibt dann eine Abbildung; derart, daß die beiden
Produkte
;a=1, a;=1 (9)
die identische Abbildung liefern. Die Abbildung; macht a und diese
wieder die Abbildung; rückgängig. Die Bedingung für die Existenz
dieser sogenannten inversen Abbildung ~ = a-1 aber gibt
Sa tz 1: Zu einer linearen Abbildung a gibt es dann und nur dann eine
inverse Abbildung; = a-1 mit
1-;;~1~==-~~-1=_~, (10)

c
wenn die Bildvektoren a(cl ), a(c2), ... , a(cn ) einer Basis el> 2, ... , e"
des Raumes Rn linear unabhängig sind.
Schreiben wir nämlich einen beliebigen Vektor fi: aus Rn in der Form
GI. (1), so geht er bei der Abbildung a über in
a(x) = Xl a(c l ) + X2a(€2) + ... + Xn a(cn ) .
Sind nun die Bilder a(c i ) linear abhängig, so gibt es Komponenten X
derart, daß a(x) = 0 bei ;Xi =l= o. Dann aber kann es keine Abbildung ~
geben mit ;a(x) = x =l= o. Sind aber die a(€i) linear unabhängig, so
spannt die Gesamtheit der Bilder a(;Xi) auch wieder den ganzen Vektor-
raum R" aus, wenn die Xi alle Zahlen des Grundkörpers durchlaufen,
;Xi also den ganzen Raum Rn überstreicht. ; ist dann jene eindeutige
Abbildung, welche jedes der n Bilder a(e;) in das zugehörige e; zurück-
verwandelt : ~ a = 1. Dann gilt aber auch a ; = 1 ; denn aus
a(x) = a (; a(x)) = a ~ a(x) = (a;) a(x) = a(x)
folgt a; = 1 .
Eine Abbildung a, deren Bilder a(ei ) einer Basis linear abhängig sind,
heißt ausgeartet oder singulär. Der lineare Raum der Bilder fj = a(al)
des Rn ist von geringerer Dimension als x,
der Raum Rn wird auf einen
in Rn eingebetteten Unterraum geringerer Dimension abgebildet, die
Abbildung kann daher nicht mehr eindeutig und somit auch nicht um-
kehrbar sein, da zu einem Bild y mehrere Originale x gehören. Z. B. ist
die Projektion des anschaulichen Raumes Ra auf eine Ebene eine solche
ausgeartete, nicht umkehrbare Abbildung. Im andern Falle heißt die
Abbildung nicht ausgeartet, nichtsingulär oder regulär. Nur eine solche
ist nach Satz 1 umkehrbar.

5.2. Darstellung durch Matrizen


So wie die zahlenmäßige Darstellung eines Vektors x
des R" nach
Wahl eines festen Koordinatensystems, einer Basis Ci durch die Spalten-
matrix seiner Komponenten Xi erfolgt, gemessen im Koordinatensystem
4*
52 § 5. Lineare Abbildungen und Koordinatentransformationen

e
der i , so auch die zahlenmäßige Darstellung einer linearen Abbildung,
einer linearen Transformation fj = a(x) durch eine Matrizengleichung
y = A x mit einer Transformationsmatrix A = (a ik ), deren Elemente
aik sich auf eben dieses Koordinatensystem beziehen und dem Grund-
körper angehören. Die Abbildung a liegt fest, wenn die Bilder a(e,) der
Basisvektoren gegeben sind. Denn damit folgt bei beliebigem Vektor x
aus GI. (1) unter Anwendung von GI. (5) und GI. (6) für den Bildvektor
fj = a(x) = Xl a(e1) + X2a(€2) + ... + Xn a(en ) • (11)
Anderseits ist
(12)
worin nun die auf das System der i bezogenen Komponenten Yi dese
Bildvektors in Abhängigkeit von den Komponenten Xi zu bestimmen
sind. Die gegebenen Abbildungen a(e;) der Basisvektoren aber seien
a(ek ) = u= k alk €l + aZk €2 + ... + ank €n ' (13 )
wofür wir auch in Matrixform schreiben können

k = 1,2, ... , n. (14 )

Einsetzen von GI. (13) in GI. (11) ergibt


y = L: e;y; = L: x k a(ek ) = L: x k (L: aik e;)
'j. k k 1-
= L: f!i(L:
t k
a ik X k ) ,

woraus durch Vergleich mit (12) für die Komponenten Yi folgt:

ry; ==--i-~~-x~1 i = 1,2, ... ,11 (15)


i _ _~ __ k_~ _J
oder schließlich in Matrizenform
(1 r,')
mit der n n-Matrix A = (a ik ) = (al' a 2, . . . , an)' Dies ist somit die auf
e
das Koordinatensystem der i bezogene zahlenmäßige Darstellung der
linearen Transformation fj = a(x). Die Spaltenvektoren a k der Trans·
formationsmatrix A aber haben hiernach die unmittelbar anschauliche
Bedeutung der Bilder der Basisvektoren, GI. (14). Die Elemente a ik der
k-ten Spalte sind die Komponenten von k = a(e k ), gemessen im Koor- u
e
dinatensystem der i . Der GI. (14) entspricht übrigens die Matrizen-
gleichung
Aek=ak , (16)
was mit der Darstellung A = (al> a 2 , ••• , aJ der Matrix A und mit der
Matrixform GI. (3) von e k unmittelbar ersichtlich wird.
5.3. Koordinaten transformation 53
Bei Übergang auf ein neues Koordinatensystem transformieren sich
sowohl die Komponenten Xi' Yi der Vektoren, als auch die Elemente a ik
der Transformationsmatrix der Abbildung y = a(x). In welcher Weise
dies geschieht, sei im folgenden hergeleitet.

5.3. Koordinatentransformation
Wir fragen also, was mit den auf ein System i bezogenen Vektor- e
komponenten Xi' Yi und den Matrixelementen aik einer zwischen x und y
bestehenden Lineartransformation y = A x beim Übergang auf ein
neues Koordinatensystem geschieht. Dieses neue System sei durch seine
Basisvektoren t k festgelegt, die, indem man sie als Bilder der alten
c
Basisvektoren k ansieht, mit diesen durch eine Abbildung t~ = r(Pk )
bzw. die ihr entsprechende Transformationsgleichung
t k = T ck (17)
verbunden sind mit der hier stets nicht singulären Transformations-
matrix
(18)
deren Spalten eben die Komponenten der neuen Basisvektoren t k , ge-
e
messen im alten System der i enthalten. Ausgedrückt im System der
ei ist also wieder

lk
A
tk =
~
tu e l +t 2k e 2 + ...
~
+t nk cn A (
t~k )
: • (19)
tnk
Ein beliebiger fester Vektor x mit den Komponenten Xi im alten System,
also

x =
A
Xl Cl + X2 ~c 2 + ... + x n c~ n A
(=:): (20)
xn
habe im neuen die - gesuchten - Komponenten Xi' also

(21)

wobei sich die Spaltenmatrix - jetzt mit x bezeichnet - nun natür-


lich auf das neue System bezieht. Einsetzen des Ausdruckes GI. (19)
für lk in diese letzte Gleichung und Vergleich mit GI. (20) ergibt dann
zufolge
x= 2: xk t k = 2: xk 2: t ik Ci = 2: Ci 2: t ik Xk == 2: Ci Xi
k k, k i
54 § 5. Lineare Abbildungen und Koordinatentransformationen

zwischen alten und neuen Komponenten die Beziehung

i = 1,2, ... , n (22)

oder in Matrixform :
(22')

als gesuchte Transformationsgleichung für die Vektorkomponenten. Be-


merkenswert daran ist, daß hier die Transformationsmatrix als Faktor
zur Matrix x der neuen Komponenten Xi tritt, während bei der linearen
Abbildung y = A x die Matrix beim alten Vektor steht, also auch bei
der Transformationsgleichung (17) der Basisvektoren, die ja eine Ab-
bildung dieser Vektoren darstellt. Man sagt dann auch, Komponenten
und Basisvektoren transformieren sich kontragredient 1 .
Kehren wir nun zurück zur linearen Transformation (linearen Ab-
bildung) von Vektoren x des Vektorraumes in Bildvektoren y des gleichen
Raumes,
(23)
mit regulärer oder auch singulärer Transformationsmatrix A und fragen,
in welche neue Matrix A = (aik ) sich bei einer Koordinatentransformation
T die Abbildungsmatrix A = (a ik ) transformiert. Das ist leicht zu be-
antworten. Einsetzen der Transformationsformeln

:: ~:}
von Original- und Bildvektor in (23) ergibt nämlich Ty = A Tx
(24)

und
damit wegen nichtsingulärem T:

(25)
und wir haben
S atz 2: Die Transformationsmatrix A einer linearen Abbildung
y = A x transformiert sich bei Übergang auf ein neues Koordinatensystem
mit der nichtsingulären Matrix T der Koordinatentransformation auf die
Matrix
iA= T-l ATI
1_- _ _ _ _ _ .
(26)

Matrizen, welche wie A und A nach GI. (26) zusammenhängen, werden


einander ähnlich genannt, die Beziehung (26) selbst heißt Ahnlichkeits-
transformation. Bei der Ähnlichkeit handelt es sich ersichtlich um eine
sehr enge Verwandtschaft zweier Matrizen als den zahlenmäßigen Dar-
1 Die dabei sonst übliche zusätzliche Transponierung der Matrix entfällt hier
infolge Behandlung der Basisvektoren als Spalten
5.4. Orthogonale Transformationen 55
stellungen ein und derselben Lineartransformation, ausgedrückt in zwei
verschiedenen Koordinatensystemen. Es ist daher auch zu erwarten,
daß ähnliche Matrizen in gewissen wesentlichen Eigenschaften überein-
stimmen werden, wovon noch die Rede sein wird. Hier sei lediglich schon
vermerkt, daß ähnliche Matrizen den gleichen Determinantenwert haben:

I det A = det AI, (27)

was aus dem bekannten Determinantensatz 3, GI. (10) in § 2.2 in Verbin-


dung mit GI. (9) aus § 3.1 über die Determinante der Kehrmatrix folgt.

5+ Orthogonale Transformationen
In § 2.8 wurde die Klasse der orthogonalen Matrizen eingeführt mit der
charakteristischen Eigenschaft

I AI A = AAl =:' JJ ' (28)


woraus einerseits
(29)

also die besonders einfache Darstellung der Kehrmatrix folgt, und was
zum andern sowohl die Spalten- als auch die Zeilen vektoren als paar-
weise orthogonale Einheitsvektoren kennzeichnet. Eine Orthogonal-
matrix ist zufolge der Orthogonalität ihrer Spalten stets nicht singulär,
und für ihre Determinante folgt aus dem Determinantensatz 3, GI. (10)
aus § 2.2
(de-t-A); ~-1~l.
(30)
._detA = _±~

Die durch Orthogonalmatrizen vermittelten orthogonalen Transformatio-


nen zerfallen entsprechend diesen beiden Determinantenwerten in die
sogenannten eigentlichen mit det A = + 1 und die uneigentlichen mit
det A = ~ 1. Das Produkt zweier Orthogonaltransformationen ist
wieder eine solche, wie in § 2.8 gezeigt wurde. Die Orthogonaltrans-
formationen bilden damit ~ und mit dem Vorhandensein von inversem
und Einselement ~ eine Gruppe. Das Produkt zweier gleichartiger, d. h.
zweier eigentlicher oder zweier uneigentlicher Orthogonaltransformatio-
nen ist eine eigentliche, das zweier ungleichartiger aber eine uneigent-
liehe Orthogonaltransformation, wie wiederum aus dem Determinanten-
satz folgt. Die eigentlichen Orthogonaltransformationen bilden damit
wieder eine Gruppe als Untergruppe aller Orthogonaltransformationen,
die uneigentlichen aber nicht, da ihr Produkt aus dem Bereich der
uneigen tlichen herausführt.
56 § 5. Lineare Abbildungen und Koordinatentransformationen

Entsprechend der geometrischen Bedeutung der Transformation als


Abbildung gilt
S atz 3: Durch eine Orthogonaltransjormation y = A x mit der Ortho-
gonalmatrix A wird ein System orthogonaler Einheitsvektoren wieder in
ein solches überjührt.
Für die orthogonalen Einheitsvektoren ei folgt dies aus der Bedeutung
der Spalten a k als Bilder der e k • Für ein beliebiges System orthogonaler
Einheitsvektoren ck als den Spalten einer Orthogonalmatrix C aber er-
geben sich mit B = AC wieder orthogonale Einheitsspalten b k der ja
wieder orthogonalen Produktmatrix B. Die hier gekennzeichnete Ab-
bildung stellt im dreidimensionalen geometrischen Raum eine Drehung
oder eine Drehung nebst Spiegelung dar, wenn sich die Orientierung
einer der drei Achsen bei der Abbildung umkehrt. Im ersten Falle ist
dabei det A = + 1, im zweiten = - 1. In Verallgemeinerung dieser
Verhältnisse kann die durch eine eigentliche Orthogonaltransformation
vermittelte Abbildung als reine Drehung im Rn' eine uneigentliche aber
als Drehung mit Spiegelung bezeichnet werden.

5.5. Kontragrediente Transformation und Kongruenz


Neben der Ähnlichkeitsbeziehung (26) zweier Matrizen spielt eine
andere Matrizenumformung eine Rolle, die sogenannte Kongruenz. Zu
ihr gelangt man, wenn in einer linearen Abbildung

Ax=y (31 )
die beiden Vektoren x, y nicht in gleicher Weise nach GI. (24), oder
wie man auch sagt, kogredient transformiert werden, sondern lwntra-
gredient, d. h. in der Form

x= Tx
(32)
y= T'y .

Die wiederum nicht singuläre Transformationsmatrix T tritt hier bei x,


wie üblich, zum neuen Vektor x(d. h. zu den neuen Komponenten),
hingegen bei y in transponierter Form zum alten (zu den alten Kompo-
nenten). Dann erhält man aus GI. (31) durch Linksmultiplikation mit T'

T' A T x = T' Y = Y
oder
Bx=y (33)
B= T'AT (34)
5.5. Kontragrediente Transformation und Kongruenz 57
Matrizen, die wie A und B nach GI. (34) mit nicht singulärem T zusam-
menhängen, werden kongruent und GI. (34) eine Kongruenztransjormation
der Matrizen genannt. Ihre Hauptanwendung findet sie bei Trans-
formation quadratischer Formen, worauf wir in § 11.3 zurückkommen
werden. Die kontragrediente Transformation GI. (32) zeichnet sich da-
durch aus, daß sie das skalare Produkt x' y invariant läßt:

(35)

Der Unterschied zwischen kogredienter und kontragredienter Trans-


formation entfällt im Falle orthogonaler Transjormation T mit
T' = T-l. Hier fallen dann auch Ähnlichkeit und Kongruenz zweier
Matrizen zusammen. Die Invarianz skalarer Produkte x' x und x' y
gegenüber einer orthogonalen Koordinatentransformation, die dann ja
auch kontragredient ist, bedeutet geometrisch Invarianz von Längen
und Winkeln gegenüber einer Drehung.
11. Kapitel

Lineare Gleichungen
Lineare Gleichungssysteme spielen in den Anwendungen und ins-
besondere auch in technischen Anwendungen eine hervorragende Rolle.
Sie treten auf in der Statik bei der Behandlung statisch unbestimmter
Systeme, in der Elektrotechnik bei der Berechnung von Netzen, in der
Ausgleichsrechnung zum systematischen Ausgleich von Meßfehlern, in
der Schwingungstechnik zur Berechnung von Eigenfrequenzen und
Schwingungsformen. Sie treten weiterhin auf im Zusammenhang mit
zahlreichen modernen Näherungsverfahren zur numerischen Behandlung
von Rand- und Eigenwertaufgaben bei Schwingungsaufgaben, Stabili-
tätsproblemen und auf ungezählten anderen Gebieten von Physik und
Technik. Sowohl ihre numerische Behandltmg als auch ihre Theorie
sind daher von gleich großer Bedeutung. Theorie und Praxis der linearen
Gleichungssysteme sind auch grundlegend für den weiteren Aufbau der
Matrizentheorie, welche ihrerseits die numerischen Methoden zur Be-
handlung umfangreicher Gleichungssysteme wesentlich beeinflußt und
gefördert hat. Wir beginnen die folgende Darstellung mit dem ein-
fachsten Fall nichtsingulärer Koeffizientenmatrix, um in den folgenden
Abschnitten auch auf allgemeinere Systeme ausführlich einzugehen.
Wesentliches Hilfsmittel aller Betrachtungen wird dabei das nach GAUSS
benannte Eliminationsverfahren, der GAusssche Algorithmus sein, dem
wir uns zunächst zuwenden.

I
§ 6. Der Gaußsche Algorithmus
6.1. Prinzip des Algorithmus
Gegeben sei das lineare Gleichungssystem
al1 Xl + a12 x 2 + ... + alnXn = al
a 21 x 1 + a x + ... + a X =
22 2 2n n a2
(1 )
...................
a n1 x 1 +a n2 x2 + ... + annX n = an

mit zahlenmäßig vorliegenden Koeffizienten a ik und "rechten Seiten" ai


in den nUnbekannten x k ' in Matrizenschreibweise
(1')
6.1. Prinzip des Algorithmus 59
mit n-reihiger Koeffizientenmatrix A = (a ik ), von der wir einstweilen
ausdrücklich voraussetzen, daß sie nichtsingulär sei,
(2)
Dieses System soll nun durch fortgesetzte Elimination der Unbekannten
in ein sogenanntes gestaffeltes System
bnxl + b12 X2 + ... + blnxn = bl }
b22 X 2 + ... + b2n x n = b2 (3)
..............
bnnx" = bn
umgewandelt werden, aus dem sich die Unbekannten der Reihe nach
ermitteln lassen, beginnend mit x n aus der letzten, so dann X n -1 aus
der vorletzten usf. bis zu Xl aus der ersten Gleichung. Diese Umwandlung
geschieht stufenweise im sogenannten GAussschen Algorithmus, einem
fortgesetzten Eliminationsprozeß, der - an sich nicht neu - durch
GAUSS jene klassische Form erhalten hat, die seitdem unter diesem
Namen bekannt ist. Zur Durchführung des Algorithmus schreibt man
lediglich Koeffizienten aik und rechte Seiten ai in einem Schema an:
.....,.. an a12 a13 aln
a2l a22 a23 a2n
A a3l a32 a33 a3n

anl an2 an3 ann


-- -------
0 0
,
0 0
,
-I
.....,.. 0 a72 a~3 a2n
Al 0 a32 a33 a3n
f f f
0 an2 an3 ann
- --- -- ------- -

Zur Elimination der ersten Unbekannten Xl wird nun die erste (durch

*
.....,.. gekennzeichnete) Gleichung, die Eliminationsgleichung, deren Spitzen-
koeffizienten an wir 0 voraussetzen - was wir nötigenfalls durch
Gleichungsumstellung stets herbeiführen können - , der Reihe nach,
mit geeigneten Faktoren Cil versehen, von der 2., der 3., ... , der n-ten
Gleichung abgezogen, wobei die Cil derart gewählt werden, daß die
a:
Koeffizienten l der ersten Spalte des neuen Systems verschwinden:
ail
ci l = -
an
Denken wir uns auch noch die erste Gleichung von sich selbst abge-
zogen, so geht die Koeffizientenmatrix A = (a ik ) über in die neue
Matrix Al = (a;k)' deren erste Spalte und Zeile aus Nullen bestehen.
60 § 6. Der GAusssche Algorithmus

Das System (1) in n Unbekannten xl>"" x" ist überführt in ein


System von nur n-1 Gleichungen in den n - 1 Unbekannten x 2 , ••• ,x"'
Die durch --'.>- gekennzeichnete Eliminationszeile wird zugleich zur ersten
Zeile des gestaffelten Systems (3) erklärt, alk = bu . Die Spalte der
rechten Seiten ai wird wie die übrigen Spalten der Matrix A behandelt
und geht dabei über in die Spalte der a;
des neuen Systems.
Die gleiche Operation wird nun auf die Matrix Al nebst neuen rechten
a;
Seiten ausgeübt, indem die zweite Zeile mit dem Spitzenkoeffizienten
a;2 =F 0 (nötigenfalls wieder durch Zeilenumstellung zu erreichen) als
Eliminationszeile benutzt und hernach zur zweiten Zeile des gestaffelten
Systems gemacht wird, a~k = b2k • Sie ist mit den Faktoren
I I
ai2 ai2
CO? = - , - = -
~... a 22 b22
von sich selbst und allen übrigen Zeilen abzuziehen. Ergebnis: eine
Matrix A 2 = (a;k), deren beide erste Zeilen und Spalten Null geworden
sind. Auf diese Weise fortfahrend erhält man schließlich die Null-
matrix A" = O.

6.2. Verketteter Algorithmus als Matrizenoperation


Die hier zunächst Schritt für Schritt auszuführenden Operationen
lassen sich nun hintereinanderschalten, womit man zu einem verketteten
Alogrithmus gelangU. Das läßt sich so zeigen:
1. Schritt: A--'.>-Al durch Abzug Vielfacher der ersten Zeile b l von
A, d. h. aber Abzug des dyadischen Produktes Cl b l :
Al = A - Cl b l (4.1)
1 Im Schrifttum auch als "abgekürzter GAussscher Algorithmus" bezeichnet,
was indessen leicht dahingehend mißverstanden wird, als sei hier die Anzahl der
benötigten Operationen gegenüber dem Algorithmus in seiner gewöhnlichen Form
vermindert. Das aber trifft keineswegs zu. Die Operationszahl ist gcnau die gleiche
geblieben. Erreicht wird lediglich ein für die Eechenpraxis freilich überaus ein-
schneidende Hintereinanderschaltung = Verkettung aller der Operationen, die
sich in einem Zuge ausführen lassen. Dies in Verbindung mit der Eigenschaft der
Rechenmaschine, Produktsummen ohne Niederschreiben der Teilprodukte auto-
matisch zusammenlaufen zu lassen, führt zu ganz erheblicher Einsparung an
Sehreibarbeit und damit sowie durch zügigere Arlleitswcise zu außerordentlicher
Beschleunigung des Eliminationsprozesses. - Auch der gleichfalls gebräuchliche
Name "modernisierter Algorithmus" scheint mir das \Vcsen der Sache nicht ganz
zu treffen, zumal angenommen werden darf, daß GA1:SS selbst die "döglichkeit der
Verkettung sicherlich gekannt, ihr aber wegen Fehlens der Eechcnmaschine damals
keine praktische Bedeutung beigemessen hat. - Das Vorgehen selbst ist von ver-
schiedenen Seiten angegeben worden. Es findet sich für symmetrische Systeme zu-
erst bei ;\1. H. DOOLITTLE (D.S. Co ast and gcodetic report, 1878, S.115-120),
später in etwas abgewandelter Form bei CHOLESKY (BE);OIT, Bull. geodesique 2,
1924), SO dann erstmals unter ausdrücklichem Hinweis auf die Maschinentechnik
und für allgemeine Systeme bei T. BANACHIEWICZ (BulI. internat. acad. po.lon.
sci., Ser. A, 1938, S.393-404). Der enge Zusammenhang mit dem GAussschen
Algorithmus ist erst in neuerer Zeit aufgedeckt worden.
6.2. Verketteter Algorithmus als Matrizenoperation 61

mit

c, ~ (,~). ~ b' (b". b"•.. '. bh ) .

cnI
. t
Dann Cl aus der Forderung a l - Cl bll = o.
2. Schritt: A c -?-A 2 durch Abzug Vielfacher der 2. Zeile b 2 von AI'
also des dyadischen Produktes C 2 b 2 :
(4.2)
mit

C2 = [L], b 2 = (0, b22 , · · · , b2n ) .

cn2
. t
Dann c 2 aus der Forderung a 2 - Cl b12 - C 2 b22 = o.
So gelangt man schließlich zur Nullmatrix An = 0:
o = A - Cl b l - C 2 b 2 - ••• - C" b n = A - CB . (4)
Hier aber ist die Summe der Abzugsglieder (der dyadischen Produkte)
Ci b i nichts anderes als das Matrizenprodukt C B:

bl

CB = (Cl> c 2' •.. ,cn ) (,:,) ~ c, b' + c, ,,' + ... + c" b" .
bnl
GI. (4) erweist sich somit als eine Zerlegung der Ausgangsmatrix A ge-
mäß
I_A = C BJ (5)
in das Produkt zweier Dreiecksmatrizen

1 10 00 ...
... 00] [bll
0 bb bb bbIn]n l2 I3 • . .

[
C2l 22 23 • . • 2

C= ~3~ .C~2. ~,B= ~ .0 . . b~3 ... ~3:" (6)

CnI C,,21 ° ° 0 b"n


Cn3 . . .

Diese Dreieckszerlegung der Matrix A geht in der Weise vor sich,


daß man der Reihe nach 1. Zeile von Bund 1. Spalte von C, danach
2. Zeile von Bund 2. Spalte von C usw. bestimmt, wobei jeweils gerade
ein unbekanntes Element der bei den Dreiecksmatrizen auftritt, wie
weiter unten näher erläutert. Man kann die bei den Dreiecksma-
trizen ineinandergeschoben anordnen, wobei man die 1-Diagonalen
von C nicht anzuschreiben braucht. Niedergeschrieben werden also
lediglich die fertigen Koeffizienten bik des gestaffelten Systems (3)
62 § 6. Der GAusssche Algorithmus

sowie die Eliminationskoeffizienten cik . Von den Zwischensystemen


Al> A 2 , ••• des gewöhnlichen Algorithmus bleiben nur die Eliminations-
zeilen stehen. - Der ganze Vorgang wird auch noch auf die Zusatz-
spalte der rechten Seiten ai bzw. bi ausgedehnt sowie schließlich noch
auf je eine Summenzeile (Jk bzw. T k und Summenspalte Si bzw. ti , durch
welche die Rechnung fortlaufend durch Summenproben kontrolliert wird,
was bei umfangreichen Rechnungen ganz unerläßlich ist. - Das Bilden
der bei der Matrizenmultiplikation A = C B auszuführenden skalaren
Produkte Zeile mal Spalte aber erfolgt auf der Rechenmaschine durch
automatisches Zusammenlaufenlassen der Teilprodukte ohne deren
Niederschrift, und in dieser ganz erheblichen Ersparnis von Schreib-
arbeit liegt der große Vorteil des verketteten gegenüber dem gewöhn-
lichen Algorithmus, obgleich die Anzahl der auszuführenden Multipli-
kationen hier wie dort die gleiche ist. Der Rechenablauf ist weit-
gehend automatisiert worden. Zudem verringert sich, was u. U. sehr
wesentlich ist, der Einfluß von Rundungsfehlern.
Die explizite Rechenvorschrift zur Ermittlung der Elemente bik , Cik
ergibt sich aus der allgemeinen Produktformel Zeile mal Spalte unter
Beachten der Dreiecksform von Bund C zu
I
,
,
II b'k=a'k-c'lblk-e'2b2k-"'-c"
Z Z Z Z 1,Z- Ib z- I ' ,/~
: (7a)
I ~ik== (~k~Ci~IC Ci2 ~2k~' • __- C',"_I bk-1,lJ : ~kk_ (7b)

Die Formeln gelten sinngemäß auch für die beiden Zusatzspalten der
rechten Seiten und Zeilensummen und für die Zusatzzeile der Spalten-
summen. Zur praktischen Rechnung schreibt man vorteilhafter - cik
anstatt Cik nieder. Dann treten in den GIn. (7) nur Summen auf. In dem
unten aufgeführten Rechenschema lautet die Rechenvorschrift damit:

bik = a ik + skalares Produkt i-te Zeile - ciQ


mal k-te Spalte bQk (7aa)
Gik = (a ik + skalares Produkt i-te Zeile - eiQ
mal k-te Spalte bek ) : b"k I, (7bb)
I

Dabei macht das Produkt von selbst über bzw. vor dem zu berechnenden
Element bik bzw. Cik halt. Das ist alles, was man sich zu merken hat.
Die erste Zeile bu = a u entsteht durch bloßes Abschreiben der 'Werte au
einschließlich bl = a l und tl = SI = an + ... + aln + al . Die erste
Spalte - Cil = - ail : an entsteht durch einfache Division einschließlich
der Spaltensummenprobe - T l = -O"l:a n mit 0"" = L; a ik . Es folgt
die Berechnung der zweiten Zeile b2k unter Kontrolle durch t2 und
anschließend die der zweiten Spalte - Ci2 unter Kontrolle durch - T 2
usf., wobei in den Spaltensummen - T k das nicht angeschriebene Dia-
gonalelement - Ckk = - 1 zu berücksichtigen ist. Bei dieser Reihen-
6.2. Verketteter Algorithmus als Matrizenoperation

folge Zeile-Spalte wird jeder Zahlenwert kontrolliert, bevor er zu wei-


teren Rechnungen benutzt wird.
Vollständiges Rechenschema einschließlich Summenproben und Er-
gebniszeile für n = 4:
------- -------------------
0"1 0"2 0"3 0"4 II 0" S
- ---- . __._- --1------
an a12 a13 a14 al $1'

a21 a22 a23 a24 a2 $2

a31 a32 a33 a34 a3 $3

an a42 a43 a44 a4 $4


-------- --------- -------- _ .. _--

bn b12 b13 b14 : b1 i


- C21 b22 b23 b24 b2 I
- C31 - C32 b33 b34 b3 t3
,-cu - C42 - C43 i b44 b4 I t4
1-=---;1---=.:---=;:--1=1-1-0-1- 0--
1- ~1----X2 ----~- X 4 1 -1 0
L-_______ _

I
Sind die Koeffizienten bik , bi des gestaffelten Systems sämtlich er-
mittelt, so folgt die Au/rechnung der Unbekannten Xi' beginnend mit
der letzten x" und aufsteigend bis zu Xl' Für n = 4 rechnet man also

x 4 = b4 :b44 ,
xa = - ( - ba +b 34 X4) : b33 ,
(8)
X2 = - b2
(- +b
24 X 4 +
b2a x 3 ) : b22 ,
Xl = - ( - bl + b14 X4 + bl3 X 3 + bl2 x 2 ) : bn .
Wieder bildet man, und natürlich gleichfalls durch automatisches Auf-
laufenlassen in der Rechenmaschine, skalare Produkte, wobei die rechten
Seiten bi durch den Faktor -1 einbezogen werden. - Schließlich macht
man die Schlußkontrolle durch Einsetzen der Ergebnisse Xi in das Aus-
gangssystem nach

I ~i~XI -fa~2~2j_··~· ~_~i~~ ~ an ~=-1_=== ~I i = 1,2, ... ,n, (9)


also wieder in der Form skalarer Produkte. Kürzer, wenn auch nicht
völlig sicher, ist die Kontrolle mit den Spaltensummen
(9a)

Deutet sich bei der Einsetzungsprobe (9) mangelhafte Genauigkeit der


Ergebnisse an, hervorgerufen durch Rundungsfehler infolge begrenzter
Stellenzahl, so sind die Ergebnisse einer nachträglichen Korrektur zu
unterziehen, wie in § 23.5 näher ausgeführt.
64 § 6. Der GAusssche Algorithmus

Bezüglich der Rechentechnik beachte man, daß die Größen bik von
der (in sich meist gleichen) Größenordnung der a ik , die Quotienten Ci"
aber von der Größenordnung der 1 sind. Man hat demgemäß die bik
und ci" nicht mit gleicher Stellenzahl nach dem Komma, sondern mit
gleicher Gesamtstellenzahl zu rechnen (gleiche Anzahl geltender Stellen;
vgl. Beispiel auf S. 70). Man arbeitet zweckmäßig so, daß die Faktoren
bek ebenso wie die a ik durchweg in das Einstellwerk, die Faktoren c iQ
hingegen in das Umdrehungswerk der Maschine gegeben werden, wobei
sich die in GI. (7b) benötigte Division durch bkk glatt in den gesamten
Rechenablauf einfügt. Ist der Klammerausdruck (der Dividend) dabei
negativ, so erfolgt die Division durch Auffüllen bis zur Null mit positiv
geschaltetem Umdrehungszählwerk. - Sind die rechten Seiten ai von
anderer Größenordnung als die Koeffizienten ai'" so bringt man sie
zweckmäßig mit Rücksicht auf einwandfreie Zeilensummenprobe durch
Multiplikation mit einer geeigneten Zehnerpotenz 1Om auf gleiche Größen-
ordnung wie die aik , was gleichbedeutend mit Übergang auf die neuen
Unbekannten x~ = 10m Xi ist, die von der Größenordnung der 1 sind.

Beispiel: 2 Xl - X2 - xa + 3 X 4 + 2 Xs = 6
6 Xl - 2 x 2 + 3 Xa - Xs = - 3
- 4 Xl + 2 x 2 + 3 Xa - 3 X4 - 2 = - 5
Xs
2 Xl + 4 Xa - 7 X4 - 3 Xs == - 8
+ 8 xa -
X2 5 X4 - Xs = - 3

Ergebnis: Xl = 8, X2 = 21, xa = -2, x4 = 1, Xs = 3.


r-6--Ü 17 -1-;--=--5 ---=13- =7
I-~ --~ --=-~--~- _~ _~ 1~
1-4
I
2 3 -3 -2 -5 -9
I, 2 0 4 -7 -3 -8 -12
i 0 1 8 -5 -1 -3 o
!
1
2
_ _ _ _
-1 -1 3-~ 6 11
i -3 I 1 6 -9 -7 -21 -30
2 0 3 2 7 13
-1 -1 2 4 14 20

=: -;-_: I )I-_~-~-I
I
0 _-
_ 1_ _-_2 .______
1 i 6
._ _ _18: 24·L
_"- ____
I--
I
-3 -3
!-
1

x;= I
I
8 21
6.2. Verketteter Algorithmus als Matrizenoperation 65

Wir erläutern den Gang des verketteten Algorithmus an einern Bei-


spiel (s. S. 64) ganzzahliger Koeffizienten, wo auch die Rechnung ganz-
zahlig verläuft, damit die Rechnung bequem im Kopf auszuführen ist.
Der eigentliche Sinn des Algorithmus, das Arbeiten mit der Rechen-
maschine, kommt dabei natürlich nicht zum Ausdruck. Dazu verweisen
wir auf das Beispiel in 6.4, S. 70.
Bei den im Laufe des Algorithmus vorgenommenen Umformungen
des Gleichungssystems - Addition eines Vielfachen einer Zeile zu an-
deren Zeilen - ändert sich der Wert der Determinante bekanntlich
nicht. Die Koeffizientendeterminante des Ausgangssystems, det A, muß
also, wenn keine Zeilenumstellungen vorgenommen werden, die das Vor-
zeichen der Determinante umkehren, gleich der des gestaffelten Sy-
stems sein,
det A = det B.
Diese aber läßt sich nach dem Entwicklungssatz für Determinanten
sofort angeben, nämlich als Produkt der Diagonalelernente bii . Damit
liefert also die Elimination, der Algorithmus auch zugleich den Wert
der Koeffizientendeterminante zu

1 det A = bn b22 ••• bnn I· (10)


Wir fassen noch einmal zusammen: Der Eliminationsprozeß nach dem
verketteten Algorithmus läßt sich als Zerlegung der - einstweilen als
nicht singulär angenommenen - Koeffizientenmatrix A in das Produkt
einer unteren Dreiecksmatrix C und einer oberen Bauffassen (Drei-
eckszerlegung). Elimination sowie Aufrechnung der Unbekannten wird
auf Matrizenmultiplikationen zurückgeführt, freilich auf solche, in deren
Verlauf sich die Faktoren selbst erst elementweise aufbauen entspre-
chend dem inversen Charakter des Auflösungsvorganges des Gleichungs-
systems, wobei die Dreiecksform der Faktoren wesentlich ist. Im
einzelnen sind folgende Arbeitsgänge unterscheidbar:
1. a) Elimination von A, d. h. Aufbau der beiden Dreiecksmatrizen C
und B nach
CB=A-J>-
b) Ausdehnen der Elimination auf die rechten Seiten:

Cb = a -J>- l~l,
2. Aufrechnung der Unbekannten:

Bx=b-J>- x.
Der Arbeitsbedarf, ausgedrückt durch die Anzahl M der Multiplika-
tionen (solche mit 1 ausgenommen) einschließlich aller Proben und der
ZurmühI, Matrizen 4. Auf!.
66 § 6. Der GAusssche Algorithmus

Aufrechnung der Unbekannten beträgt für allgemeine n-reihige Ma-


trix sowie für die anschließend zu behandelnde symmetrische Koeffi-
zien tenmatrix
1 n3
Allgemeine Matrix: M=-(n 3 +6n2 +8n-9)::::::-. (11a)
3 3
, 1 ~
Symmetrische Matrix: 211 =ö(n3 +12n2 + 11n-12) ::::::6. (11b)
Abgerundete Werte:
n 211 211'

10 560 380
20 3 520 2170
40 24640 13940
100 353600 186850

6.3. Symmetrische Koeffizientenmatrix. Verfahren von Cholesky


Für den in den Anwendungen oft auftretenden Fall symmetrischer
Koeffizientenmatrix A = A', a ik = a ki erfährt die Rechnung eine we-
sentliche Vereinfachung, wobei die Anzahl der benötigten Operationen
auf rund die Hälfte zurückgeht. Auch die reduzierten Systeme Al> A 2 , •••
sind nämlich wieder symmetrisch:
a;k = a ik - Cd au = a ik - a il alk: an

a~i = a ki - Cu a li = a ik - au a il : au = a;k .

Ferner sind die Eliminationskoeffizienten der ersten Stufe:


Cil = an: an = al i : ~l = bli : bll '

und entsprechendes gilt auch für die folgenden Stufen, insgesamt also

(12)
Die Eliminationskoeffizienten Cik brauchen somit nicht mehr nach
GI. (7b) gesondert berechnet zu werden, sondern sie ergeben sich in der
k-ten Spalte aus den Werten bki der k-ten Zeile von B einfach durch
Division mit dem Diagonalelement bu ' womit der Arbeitsbedarf auf
angenähert die Hälfte zurückgeht.
Sind die Diagonalelemente bi ; sämtlich positiv, d. h. ist die sym-
metrische Matrix A auch noch positiv definit (vgI. § 11.2), was in vielen
Anwendungen zutrifft, so kann die Dreieckszerlegung voll symmetrisch
durchgeführt werden, indem anstelle der bik die Werte r ik = b;k: Vb i ;,
anstelle der Cki aber die Werte Cki· Vb" = bik : Vb ii = r ik benutzt wer-
den. Anstelle der Zerlegung A = C B tritt

IA=R'RI (1} )
6.3. Symmetrische Koeffizientenmatrix. Verfahren von CHOLESKY 67

mit der einen oberen Dreiecksmatrix R = ('ik)' Dieses Vorgehen ist


erstmals von CHOLESKY angegeben worden 1 und sei nach ihm benannt.
Schreiben wir nämlich Gl. (12) in Matrizenform
C' =D-1B
mit D = Diag (b ii ) und spalten diese Diagonalmatrix noch auf in
(vb;]' so wird aus der ursprünglichen Dreieckszerlegung
Dl/2 = Diag
A = C B = B' D-l B = B' D-l/2 D-l/2 B = R ' R
mit R = D-l/2 B, was der oben angegebenen Beziehung r ik = bik : Vb ii
entspricht. Explizit rechnet man nach den Formeln

I-;ik = (a~k - 'li 'u - r 2i '2k - ... - r i -1, i 'i-I, k) : r ii ,. (14a)


, rTi = a ii
1_.
- r~i - rt - ... - rLl,i_ _ _ _ _ _ _ _ _. _ _ _
. (14b)

Die Berechnung der Diagonalelemente rii erfordert also das Ziehen


einer Quadratwurzel, was praktisch indessen kaum eine Erschwerung
bedeutet und auf der Rechenmaschine folgendermaßen verläuft. Man
bildet, etwa mit dem Rechenschieber, einen
Näherungswert '0 und mit ihm r~ = r~i : ro (Di-
vision des Radikanden durch die Näherung).
Dann ist das arithmetische Mittel rl aus ro und r~
eine bessere Näherung, mit der man genau so ver-
fährt: Division r~ = 'Ti: rl und Mittelbildung r 2 •
Das Vorgehen führt nach zwei bis drei Schritten
zum Ziele. Da die Mittelbildung sich nur auf die
letzten noch abweichenden Stellen bezieht, ist sie
bequem im Kopf ausführbar und das Ganze
kaum mühsamer als eine gewöhnliche Division.
Die Matrix R wird zeilenweise aufgebaut, be-
ginnend mit
,;- Abb. 6.1. Schema zur Berech·
rn = r an , 'lk = alk: 'n . nung der Elemente rik der
i- ten Zeile der Dreiecksma·
Den im Rechenschema zurückgelegten Weg zur trixv! ~';;'~!~~en
Berechnung des Elementes r ik der neuen i-ten .
Zeile zeigt schematisch Abb. 6.1. Auch von der symmetrischen Matrix A
braucht nur der obere Dreiecksteil angeschrieben zu werden. Als Probe
genügt die durch die Spalten summen , die für die Schlußprobe ohnehin
nützlich sind. Für die Koeffizientendeterminante folgt aus GI. (13)
det A = (det R)2 = (rn r22 • •• 'nY. (15)
Ist die Matrix zwar symmetrisch, aber nicht mehr positiv definit,
so treten negative Diagonalelemente bii und damit imaginäre 'ii auf.
1 BENOIT: Sur une methode de resolution des equations normales etc. (proc6dc
du commandant CHOLESKY). BuH. geodesique, Vol. 2 (1924).
5*
68 § 6. Der GAusssche Algorithmus

Doch bedeutet dies keine nennenswerte Erschwerung. Mit rii werden


nach GI. (14a) auch alle übrigen Elemente r ik dieser Zeile rein imaginär,
und da bei den skalaren Produkten immer nur zwei Elemente der gleichen
Zeile miteinander multipliziert werden, so werden diese Produkte wieder
reell.
Das Verfahren hat sich namentlich dann als vorteilhaft erwiesen,
wenn die Koeffizientenmatrix fast singulär, ihre Determinante also un-
gewöhnlich klein ist. Es treten dann sehr kleine Diagonalelemente bii
auf, was zu beträchtlichem Stellenverlust führen und die praktische
Durchführbarkeit der Rechnung ganz in Frage stellen kann. Durch
das Arbeiten mit den Quadratwurzeln r ii = Vb,; wird dieser Stellen-
verlust u. U. wesentlich gemildert, indem die geltenden Stellen näher
an das Komma herangezogen werden (z. B. VO,ooal = 0,01). Hier-
durch erweist sich das CHOLEsKy-Verfahren auch noch bei ausgesprochen
"bösartigen" (ill conditioned) Systemen als brauchbar, ja oft als einzig
gangbarer Weg.
6-4- Reihenvertauschung bei bii = 0

°
Einwandfreier Ablauf des verketteten Algorithmus in der bisher be-
schriebenen Form setzt nichtverschwindende Diagonalelemente bii =t=
voraus. Wird nun im Rechnungsverlauf doch ein bii = °
(wenn nämlich
die i-te Hauptabschnittsdeterminante, d. i. die aus den i ersten Zeilen

°
und Spalten der Matrix gebildete Unterdeterminante yerschwindet), so
muß sich dies wegen vorausgesetztem det A = det B =t= durch Zeilen-
vertauschung, also ein Umstellen der Gleichungen stets beheben lassen.
Diese Umstellung braucht indessen nicht wirklich vorgenommen zu
werden, sondern läßt sich auf folgende Weise ohne Störung des Rech-
nungsablaufes durch leichte Modifikation der bisherigen Rechenyorschrift
berücksichtigen.
Wir eliminieren die Unbekannten in der bisherigen Reihenfolge
Xl' X 2 , X 3 , • . . • Ist nun etwa an = bn = 0, so ist die e~ste Gleichung
zur Elimination ungeeignet. Wir steigen dann in der ersten Spalte ab-
wärts, bis wir - in der Zeile Zl - auf das erste von Null verschiedene
Element a ztl stoßen, das wir zum neuen "Diagonalelernent" bZtl er-
klären und durch Umrahmen hervorheben. Damit wird der 1. Spalte
die Zeile Zl zugeordnet, kenntlich an dem umrahmten "Diagonalelernent" .
Die Elemente bZtk = aZt " dieser Zeile ergeben sich einfach durch Ab-
schreiben der Zeile Zl der Ausgangsmatrix A. Die Elemente Gil der
ersten Spalte aber sind Gil = a il : bz11 ' und sie sind oberhalb vom neuen
Diagonalelement Null, was indessen nicht wesentlich ist.
Nun geht man zur zweiten Spalte und sucht in ihr, von oben be-
ginnend - unter Überspringen der schon fertigen Zeile Zl - das erste
von Null verschiedene Element bz,2 =t= 0 auf, das wieder durch Cm-
6.4. Reihenvertauschung bei bii = 0 69
rahmen als "Diagonalelernent" gekennzeichnet wird, womit sich der
Spalte 2 eine Zeile Z2 zuordnet. Es folgt Berechnung der Elemente bz,k
dieser Zeile nebst Zeilensummenprobe, sodann die der noch ausstehenden
Elemente Ci2 der zweiten Spalte, kontrolliert durch Spaltensummenprobe.
Auf diese Weise wird jeder Spalte k eine Zeile Zk zugeordnet, der
natürlichen Reihenfolge der Spalten also eine permutierte Folge von
Zeilen:
Spalte 1 2 3 4 ...
Zeile Zl Z2 Z3 Z4'"

Diese Zuordnung hat man beim Bilden der skalaren Produkte nach
Gl. (7) zu beachten: Indem man die Faktoren ciQ einer Zeile i in der
natürlichen Reihenfolge durchläuft, findet man den zugehörigen Fak-
tor bZQ k der k-ten Spalte in der Höhe des jeweils über (oder auch unter)
c.'Q stehenden umrahmten "Diagonalelementes". In diesem Sinne sind
die GIn. (7) abzuwandeln.

.
Beispiel:
5 2 3 4 4 I -9

-=~- : ~r ~-n-~~ ~1;


I 9

2 -2 1 2 iI -10 -6
2 2 0 3 1 I -5 3
-- -- ----- -- - -------

~I -2 4 -3 2! 4 6

- 3
2 [:zJ
0- --- 30- 1-2l_
4
---=1=
- 2
=-=3=5 =-4
=(

J
-1 -2 0 2 2 2 4
- 2 - 3 I~I - 3 __ 3 = = 2= 3
-5 -6 -1 - -1-=-1' --01 o
X;= -8 2 5 2 1 -1 I o

Die Koeffizienten bik des gestaffelten Systems sind unterstrichelt, die


Cik kursiv gesetzt. Die Zuordnung Spalte-Zeile ist hier:

Spalte: 1 2 3 4 5
Zeile: 1 3 5 2 4
Diese Permutation enthält 3 "Inversionen", d. h. drei mal steht eine
größere vor einer kleineren Zahl (3 vor 2, 5 vor 2, 5 vor 4). Jeder solchen
'-l
o

Beispiele:
-- - - --------

Xl X2 X3 X4 X5 ai Si
-10 46 11 -37 -3 50 57
-----_ .. _---------- ~ ------ ----------

21 -31 11 -15 43 17 46 o!n


0-.
-39 58 -21 -18 -29 18 -31
Ij
-17 -35 28 (l)
18 10 37 41
7 -12 26 16 -24 -33 -20 0'"'
)-

21 12 15 -21 11 21 c::
-17 Ul
Ul
~-~---~- --------~-------_._--~-
- "-""----- . Ul
(")

21 -31 11 -15 43 17 46 ::r


(l)
.- - -----

1.857 I43 -0.0117 19 0.012386 -45·35005 50.48115 48.84233 53.97341 ;,.


------- - a:;
-26.42857 -22.14286 -----:-8.85715 22.42857 1.57142 0
-0.857 143 ,}6.5~4]._
-35.26172
'rt:"'
::r
-0·333333 0.045573 202890~1 19·99088 -38·73698 -37·64453
S
0:
0. 8095 24 0.111 979 -0.849326 -0.366067 ·27.23856 I 41.36635 68.60488 Cf;
- - ------ -- -

0.476 19 1 -0.854 166 -1.836 938 -1.366067 -1.00000

Xi= 0,363 897 1,667615 0,422 166 0,613 491 1,518669 -1 -0,00003

Die letzte Zahl rechts unten ist das Ergebnis der Schlußkontrolle.
6.4. Reihenvertauschung bei bii = 0 71

Inversion entspricht ein Vorzeichenwechsel der Determinante. Diese


hat also den Wert
det A = (-1)3·1 ·2·1 ·2·2 =- 8.

Auf gleiche Weise wird man vorgehen, wenn ein Diagonalelement


zwar nicht Null, aber doch untunlich klein wird derart, daß die Ge-
nauigkeit der folgenden Rechnung durch Stellenverlust beeinträchtigt
wird, vgl. das nebenstehende Beispiel, wo die Cik kursiv gesetzt sind.
Wieder wird man dann in der betreffenden Spalte ein anderes Element
annehmbarer Größe als Diagonalelement auswählen, vorausgesetzt, daß
es ein solches gibt. Andernfalls ist eben det A von sehr kleinem Betrag,
die Matrix ist fastsingulär, und die numerische Rechnung in jedem
Falle unsicher. - Man kann auch, insbesondere auf dem Rechenauto-
maten, in jeder Spalte systematisch das betragsgrößte Element auf-
suchen und es zum Diagonalelement machen und erreicht dadurch,
daß die Eliminationskoeffizienten Cik dem Betrage nach sämtlich ~ 1
werden. Hierdurch lassen sich die Rundungsfehler auf ein Minimum
herabdrücken, was bei umfangreichen Systemen

lif-
unerläßlich ist.
Bei symmetrischer Matrix würde durch das
geschilderte Vorgehen die Symmetrie und die
damit verbundene beträchtliche Arbeitser-
sparnis verloren gehen. Um sie zu erhalten, ist
jede Zeilenvertauschung mit gleichnamiger Abb. 6.2.
Spalten vertauschung zu verbinden, was wieder
durch bloßes Umnumerieren, durch Abändern der im Rechenschema
einzuhaltenden Reihenfolge bewerkstelligt wird. Wir erläutern den
Vorgang an Hand von Abb. 6.2, wo angenommen ist, daß b22 zunächst
Null wird. Man geht dann unter Überspringen der zweiten Zeile und
Spalte zum dritten, in der Abbildung mit 2 gekennzeichneten Diagonal-
element b33 über und berechnet zu ihm, falls es =F 0 ist, die zuge-
hörige Zeile der b3k (dicke wagerechte Linie) sowie die zugehörige Spalte
der - Ck3 nach Ck3 = b3k : 033 (dünne senkrechte Linie). Die Indizes be-
ziehen sich hier auf die wirklichen Zeilen- und Spaltennummern,
nicht etwa auf die Diagonalzahlen der Abb. 6.2. Dabei ragt jetzt die
dritte Zeile in die zweite Spalte, die dritte Spalte in die zweite Zeile
hinein. Es empfiehlt sich daher, die bik gegenüber den Cik in geeigneter
Weise (z. B. farbiges Unterstreichen) zu kennzeichnen. Anschließend läßt
sich nun das zweite Diagonalelement b22 - in der Abbildung mit 3
gekennzeichnet - , sofern es jetzt von Null verschieden ausfällt, nebst
zugehöriger Zeile und Spalte berechnen, nämlich nach
72 § 6. Der GAusssche Algorithmus

Die Rechnung verlangt also im Schema ein Überkreuzen der zunächst


übergangenen zweiten Zeile und Spalte.
Es kann eintreten, daß man mehr als eine Reihe überschlagen muß,
ehe man ein von Null verschiedenes - oder auch ein betragsmäßig nicht
zu kleines - Diagonalelement antrifft, vgl. das Beispiel der Abb. 6-3 a
mit der Reihenfolge 1 423 5 ... Es kann auch sein, daß das zunächst
üb"rsprungene sich auch nach Berechnung des Nachfolgenden noch
der Behandlung entzieht, Abb. 6.3 b mit der Reihenfolge 1 3 42 5 ...
Oder die Schwierigkeiten können gemischt auftreten wie in Abb. 6.3 c,
wo die Reihenfolge 1 42 5 3 ... erforderlich ist. Die beiden nachfolgen-

1. Beispiel: 7 16 -5 18 11 -22
2 -1 3 2 -3
2 4 --4 6 8 -8
-1 -4 3 1 -4 11
3 6 1 8 0 -3
2 8 -4 0 5 -19
1 3 2 -1 2 -3
(-2) ------------------------------
!-2 (-1) 4 2 6I
I
""""""""""""""''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''''1''''''''''''''''''''''''''''''''''''''''''''''
( 1) -2 4 -2 8
------------------
2
,....,,....,,......,......,,-..J
I
- --

(-3) (2) (-2) -1 2 2 I


""""""","-,,,-,,.....,......, ,.....,,.....,,......,,.....,......,,......,
(-2) (1) (1) (2) 5 5
I,......,,......,,.....,,.....,""""""""

(-7) (2) (-1)


--
(1) (-1) 0
Xi 2 -2 3 0 -1
----- --

2. Beispiel: 3 12 5 9 -2 20
1 2 -1 3 -2 -6
'2 4 2 4 0 10
-1 2 1 -1 4 12
3 4 -1 7 -4 --8
-2 0 4 -4 0 12
-- -------
I

1
I
3 2 -1 -2 --6
(-2) -------------------------------
2 2 (--1) 2
--
12
,.....,,.....,,......,,.....,,....., ,....,,.....,,.....,,.....,,....,,.....,,.....,',.....,,.....,,.....,,......,,.....,,......

( 1) (-1)
I
I
1 I
I
( 1) (1 j2) 3
,.....,,.....,,......,,.....,r-.;,--,

(-3) -2 2
,.....,,.....,,.....,,.....,,......,,.....,,.....,,.....,,......,,......,,.....,
-2 2 10
,.....,,.....,,.....,,.....,,....,,......, ,......,,.....,,....,,.....,,.....,

( 2) (-1) 2
,.....,,......,,....,,......,,.....,
1) 1-4 --2
"-,,",,-,,.....,,....,,......,,-...-
- - - -- --- --

(-3) (-3) (-1) 0) (-1/2) 0


xi = 2 1 3 -1 2 -1
----- --- --- --- ------ -
0-f cp~
6.5. Divisionsfreier Algorithmus 73

®-f10
TI' ~---:
0t-I I~ ~z
-2 1-
b
10 1-

Ahb. 6.3. a-c

den Zahlenbeispiele erläutern das Vorgehen, das erste den einfachen


Fall der Abb. 6.2, das zweite den der Abb. 6.3 c. Die Quotienten -eH
sind zur Unterscheidung von den bik kursiv und in Klammern gesetzt,
die bik sind unterschlängelt. - Beim CHOLEsKY-Verfahren sind die bik
durch die rik zu ersetzen, während die Gik entfallen.
6.5. Divisionsfreier Algorithmus
Bei ganzzahligen Koeffzienten kleiner Stellenzahl ist es oft störend, daß die
Ganzzahligkeit im Verlaufe des Algorithmus der bisherigen Form in folge der
Divisionen verlorengeht. Dies läßt sich durch einen abgewandelten, divisions-
freien Algorithmus vermeiden. :\lan eliminiert die erste Spalte, indem man die mit
ai, multiplizierte erste Zeile von den mit an = bn multiplizierten übrigen Zeilen
abzieht, also die reduzierte Matrix A, nach der Vorschrift bildet:
.'l,=bllA-c,b', (16.1)
worin (", gleich der ersten Spalte und b' gleich der ersten Zeile von.l gemacht wird.
Verfährt man bei der zweiten Stufe entsprechend, so zeigt sich, daß alle Elemente
der zweifach reduzierten Matrix durch das Diagonalelement bll teilbar sind. Um
zu Zahlen möglichst kleiner Stellenzahl aufzusteigen, wird man daher die Division
durch bll ausführen, also nach der Vorschrift
"4 2 = (b 22 A, - ("2 b 2) : bll (16.2)
rechnen, wo c 2 gleich der zweiten Spalte und b 2 gleich der zweiten Zeile von ..1,
ist. Mit GI. (16.1) wird nämlich
bll ..1 2 = b n b22 ;1 - b22 C, b' - c 2 1J2 .
Hier ist nun
b22 = bn a 22 - C2, b'2
('2= b n (12 - (~, b'2
b 2 = bn a 2 - C2 , I)' .

Damit erhalten wir für den Klammerausdruck in GI. (16.2)


+
bll ,-1 2 = b n b 22 A - (b n a 22 - C2, bd C, b' - b n (12 b 2 b n b'2 c, a 2 - c2, b'2 (", ,)1,
wo alle Glieder den Faktor b n enthalten bis auf die beiden sich tilgenden c2, b'2 C, lJ'.
Entsprechendes läßt sich auch für die folgenden Stufen zeigen, und man führt
daher die Reduktion fort nach
.1 3 = (b 33 A 2 - c 3 b 3) : b22 (16.3)
(16.4)

Übersetzt in die Rechenvorschrift der b ik • cik ergibt dies:


1. Zeile und Spalte b,k = a,k. Ci, = ai,
2. Zeile und Spalte: b2k = a 2k bn - C2, b,k
Ci 2 = ai2 bll - Ci, b'2
3. Reihe: b 3k = [(a 3k b n - C3, b,k) b22 - C32 b2k J : b n
Ci3 = [(ai3 b n - c" b'3) b22 - Ci2 bd : b n
74 § 6. Der GAusssche Algorithmus

4. Reihe: b' k = {[(a.k bll - Cu blk) b22 - C42 b2kJ ~ - c.3 b3k } : b22

ci. = l [(ai. bl l - Cil b14) b22 - Ci2 b..J ~- Ci3 bMI : b 22

Allgemein läßt sich die Rechenvorschrift in folgender Form darstellen: Man bildet
der Reihe nach die Ausdrücke

aikoll-cilblk =dik ' 2 (17.1 )


(dik'2b22 -- Ci2 b2k) : bl l = d ik ' 3 (17.2)
(d ik ' 3 b33 - Ci3 b3k ) : b22 = d ik .• : (17.3)
•••• i
__. _ _ _ .. _ _ _ _ _ _ _ _ _ I

Diese Rechnung endet bei den Elementen

I
dik-i == bik ! für k :2: i (18 a)
. d ik . k = cik. fürk;;:; i (18 b)

und es ist
(18 c)

gleich der i-ten Hauptabschnittsdeterminante. Das letzte Diagonalelement b""


ist also hier gleich der Koeffizientendeterminante det A. Allgemein stellen die d ik . j
j-reihige Unterdeterminanten der Matrix dar. Die Teilbarkeit der Klammeraus-
drücke in GI. (17) durch das vorhergehende Diagonalelement ist als Rechenprobe
zu werten. Außerdem sind natürlich auch wieder Summenproben angebracht. -
Anch dieser divisionsfreie Algorithmus ist mit Zeilenvertauschung durchführbar,
wenn nämlich eine Hauptabschnittsdeterminante d ii •i = b ii verschwindet.
Beispiel: 3 Xl - x2 + 2 x3 + 4 x. 11
2 Xl + 3 x 2 + X 3 - 2 x. + Xs = 6
Xl - 2 x 2 + 2 x3 - x. 1
4 Xl + 3 x 2 - 2 x 3 + x. - x b = 1
- Xl + 3 x 2 + 2 x 3 - x. + Xs = 8
9 6 5 -3 19
- - - - - - - _.. .- - ----_._-~

3 -1 2 4 0 11 19
2 3 -2 1 -6 -1
1 -2 2 -1 0
4 3 -2 -1 -1 4
-1 3 2 -1 -8 -4
--------

.) -1 2 4 0 11 19
2 11 -1 -14 3 -40 -41
1 -5 13 -49 5 -96 -127
4 13 -47 C-l~4 -7 -409 -610
-1 8 32 191 267 801 1068
.- .- -------------

9 27 -2 -3 267 0 0
--------- -- -
Xi = -2 -1 2 3 -1 0
-------
detA = 267.
6.6. Berechnung der Kehrmatrix. Matrizendivision 75
6.6. Berechnung der Kehrmatrix. Matrizendivision
Die Berechnung der Kehrmatrix X = A-l einer nichtsingulären Ma-
trix A verläuft, wie schon in § 3.1 angegeben, als Auflösung des Glei-
chungssystems
.:lX=1 (19)

mit den n Spalten e k der Einheitsmatrix als n-facher rechter Seite, wie
im Schema der Abb. 6.4 angedeutet. Die rechte Seite I verwandelt sich
im Zuge der Elimination in eine untere Dreiecksmatrix r = (Yik)' die
zufolge der Rechenvorschrift C r = I die Kehrmatrix von C ist. Zu
ihrer k-ten Spalte Yik als rechter Seite ergibt sich aus dem gestaffelten
System B X = r die k-te Spalte x k der gesuchten Kehrmatrix X als
Lösung. Ordnen wir diese Lösungsspalten im Rechenschema wieder
zeilenweise an, ,vas namentlich bei etwa erforderlicher Zeilenvertau-
schung bequemer ist, so erscheint X in transponierter Form X', wobei
die Zuordnung zur k-ten Spalte von r als rechter Seite durch das Ele-
ment -1 der rechts angeordneten negativen Einheitsmatrix erfolgt,
vgl. Abb. 6.4 sowie das folgende Rechenschema
S. 76. - Die insgesamt durchzuführenden Ma-
trizenoperationen sind: A
1. Aufbau von C und B nach

CB=A -:>- C,B'


c
2. Aufbau der neuen rechten Seiten r nach
C r = 1-:>- I-r~
X'
3. Aufrechnung der Unbekannten X nach
BX-rl=O-:>- xl
I
Abb.6.4. Schema zur Berech·
nun.~ der Kehrmatrix X = A-l

Die Zeilensummenprobe erstreckt sich natürlich außer über A bzw. B


über alle n Spalten der rechten Seiten I bzw. r. Die Schlußkontrolle,
die an sich durch Einsetzen von r in GI. (19) zu erfolgen hat, kann in
abgekürzter Form mit den Spaltensummen (J" von A vorgenommen
werden, und zwar für jede Zeile x~ von X' nach
(JICl:1k + (J2C1: 2k + ... + (JnCl: nk -1 = 0 (k = 1,2, ... , n). (20)
Für n = 4 zeigt S. 76 das vollständige Rechenschema sowie ein Zah-
lenbeispieI. Bezüglich Stellen zahlen vgI. Beispiel S. 79.
In ganz entsprechender Weise verläuft auch die in § 3.3 eingeführte
M airizendivision
(21)
76 § 6. Der GAusssche Algorithmus

i
1 1 i S
I

o o o
a 21 a 22 a 23 a24 o o
A
a 31 a 32 a 33 a 34 I 0 o 1 o S3

a 41 a 42 a 43 a 44 0 o o 1,
_1 _ _
S4
-~-~~----- 1- -

bll b12 b13 b14 o o o t}


-C 21 i b22 b23 b24 Y21 1 o o I t2
o

-Tl - T2 - T3 -1: 0 o o o Probe


----- ----"
X ll X 21 X 31 o o o
X 12 X 22 X 32 o o o
X'
X 13 X 23 X 33 X 43 ! 0 o -1 o o
X 14 X 24 x 34 X 44 '[ 0 o o -1 o

Beispiel:

2 2 -4

o -1 2 3
A
2 -1 -2 3 3
-1 2 2 -4 o
o 2 -5 -1

o -1 2 3
-2' -1 o -1 -2 -3
2 -4 -3 2 -3
o -2 2 4 -3 -2 2

-2 2 -3 -1
2 o 2 !-1 o
-1 1/2 -4 -3/2 i -1 o
(A-1)'
-1 1 -3 - 1 -1 o
1 -1/2 2 1/2 -1 o
6.7. Kehrmatrix bei symmetrischer Matrix 77

mit np-Matrizen P, X durch Auflösen des Gleichungssystems mit p-


facher rechter Seite P, bestehend aus den p Spalten Pk von P, denen die
p Spalten x k von X als Lösungen entsprechen. Das Rechenschema
Abb. 6.5 ist damit wohl ohne weitere Erläuterung verständlich. Die
Arbeitsgänge sind:
1. Aufbau von C und ß nach
C ß = A --+ I C, ~~I
2. Aufbau der neuen rechten Seiten Q nach

C Q =P --+ I_~ I
3. Aufrechnung der Unbekannten X = (x k ) nach

RX-QI=O--+l.,"f
Die Lösung der Di"isionsaufgabe X = A-l P durch gesondertes Be-
rechnen der Kehrmatrix A-l und anschließendes Multiplizieren "on P mit
A-l wäre demgegenüber ein nicht unbeträcht- n, p
licher Umweg. Denn zur Produkt bildung A-l P
benötigt man bei vollbesetzten Matrizen n 2 p n A p
Multiplikationen. Das sind gen au so viel, wie die
Operationen 2 und 3 erfordern. Die Operation 1
ist in beiden Fällen zu leisten. Zur Berechnung B
von A-l aber ist zusätzlich der Aufbau von rund n,
Berechnung von X = A-l durchzuführen. Diese c
Mehrarbeit ist ganz unabhängig von der Anzahl p
der rechten Seiten, für die das Gleichungssystem
gelöst werden soll; ja, solche rechten Seiten können
auch nachträglich noch in beliebiger Zahl hinzu- Abt>. 6.5. Schema zur Durch·
führung der Matrizendivision
gefügt werden. Ein Aufstellen der Kehrmatrix x ~ A-' P
ist also nur dann sinnvoll, wenn ihre Elemente ex ik
zu irgend welchen Zwecken ausdrücklich benötigt werden.

6.7. Kehrmatrix bei symmetrischer Matrix


In dem wichtigen Sonderfall symmetrischer Matrix A = A' verein-
facht sich die Berechnung von A-l = (ex ik ) beträchtlich1 . Zunächst ist
mit A auch A-l symmetrisch, wie aus (A-l A)' = A' A-l' = A A-l' = I
= A A-l folgt, A-l' = A-l. Der erste Teil der Rechnung, nämlich Auf-
bau der Dreiecksmatrizen C, ß verläuft wie unter 6.6, jedoch mit der
Vereinfachung, die im symmetrischen Falle für die Berechnung der
- - -

Nach einer Methode, die in der CHOLEsKyschen Form von T. BANACHIEWICZ


1
angegeben wurde: On the computation of inverse arrays. Acta Astron. c. Bd. 4
(1939), S. 26-30.
78 § 6. Der GAusssche Algorithmus

Gikeintritt, die nach GI. (12) praktisch mit den bki mitgeliefert werden.
Dann aber erübrigt sich hier die Berechnung der Kehrmatrix r von
C, aus der sich unter 6.6 die gesuchte Kehrmatrix X = A-l durch Auf-
rechnung ergibt nach
BA-l =
____ I
r . (22)

Denn wegen der Symmetrie von A-l kann man es hier so einrichten, daß
man in GI. (22) von der unteren Dreiecksmatrix r außer den Diagonal-
gliedern 1 nur die oberhalb der Diagonale auftretenden Nullelemente
r
verwendet, so daß man die Matrix im übrigen gar nicht zu kennen
braucht. Beginnt man nämlich bei der Matrizenmultiplikation GI. (22)
zur spaltenweisen Aufrechnung von A-l mit der letzten Spalte von A-l
und multipliziert der Reihe nach mit der letzten, der vorletzten, ...
Zeile von B, so erhält man der Reihe nach unter Benutzung der letzten
aus n - 1 Nullen und einer 1 bestehenden Spalte von die Elemente r
CX nnJ cxn-l,n' . . . '(Xln aus

Dann macht man das gleiche mit der zweitletzten Spalte von A-l, deren
letztes Element ()(n n-l aber wegen der Symmetrie gleich dem schon
bekannten Elemen't ()(n-l n ist, so daß hier die Berechnung erst von
der Hauptdiagonale an ~ufwärts zu erfolgen braucht, wo wieder alle
Elemente von r als Null und 1 bekannt sind, usf. Allgemein berechnen
sich die Elemente der k-ten Spalte von A-l von der Hauptdiagonale an
aufwärts nach der Vorschrift:
r----- ..._ - - ------- --
()(kk = (1 - b kn ()(nk - b k ,n-l ()(n-l,k - ... - bk,k-H ()(k+1,k) : b kk (24a)
I
_~ = ___ ~in_~k_~~,n-~()(n-==,~ +~.___ +!i,i!l ()(i~l,~) ~b~_ (24b)
i = k -1, k - 2, ... ,2,1,

wobei man stets von der Symmetrie von A-l Gebrauch macht. Dabei
wird man von A-l ebenso wie von A nur die Elemente oberhalb und auf
der Diagonale anschreiben und das unterhalb liegende Spaltenstück von
A-l durch das zur Diagonale gespiegelte Zeilenstück ersetzen.

Man beschreibt damit bei der Produktbildung GI. (24) den in Abb. 6.6
bezeichneten Weg, indem man sich in Bunter festgehaltenem k mit i
Zeile für Zeile aufwärts bewegt von i = k bis i = 1, und erhält so der
Reihe nach die Elemente ()(ik der k-ten Spalte. So verfährt man für
7.1. Lineare Abhängigkeit eines Vektorsystems 79

k = n, n - 1, ... , 2, 1, womit die Kehrmatrix fertig


ist. Nach jeder fertigen A-I-Spalte kontrolliert man
durch Einsetzen in die Spaltensummen (Jk von A
nach Gi. (20).
Wie aus GI. (24) zu entnehmen, sind die ElementetXik
von der Größenordnung 1jbik oder auch 1/aik , falls
nicht det A betragsmäßig ungewöhnlich klein. Man
arbeitet wie üblich mit etwa gleicher Anzahl geltender
Stellen für alle auftretenden Werte, vgl. das Zahlen-
beispiel.

Beispiel: Gesucht die Kehrmatrix zu


-14

I~l
17
( 38
-14 25 21 Abb. 6.6. Schema zur
A= 17 21 -18 3 . Berechnung der Kehr-
matrixA-l zu symme ..

~ ° 10 3 15 trischer Matrix A

41 42 23 28 134 Probe

38 -14 17
° 41
°
25 21 10 42
°
-18 3 23
°
15 28
°
38 -14
0,3684211 19,84206
17
27,263 16 10
41
°
57,10526 °
-4.10- 5

-0,447368 -1,3740081-63,06506 -10,74008 -73,80517 3.10- 5

° -0,503980 -0,'1403021 11,78926 11,78926

0,01878375 -0,00167502 0,01545690 -0,00197470


°
0,02664512 0,02568721 -0,02290085
A-l
-0,01339655 -0,01444549
0,08482297

1,000000 1,000001 1,000001 0,999998 Probe


Das Ergebnis ist stark umrandet.

§ 7. Lineare Abhängigkeit und Rang


7.1. Lineare Abhängigkeit eines Vektorsystems
Wir haben schon in § 1.6 den Begriff der linearen Abhängigkeit ein-
geführt und wiederholen zunächst das dort gesagte, um es in wesent-
80 § 7. Lineare Abhängigkeit und Rang

lichen Punkten zu ergänzen. Wir betrachten ein System von p Vektoren


u k zu je n Komponenten a7, also p Zahlen-n-tupel
Ul = { al a2 ,
l , I ••• , anl}l
.U~ ~.{~i: ~t. '.': ,.a~ ~ (1 )
U p -_ {P
al , Pt
a 2f> , . . . , anf

Als Komponenten a7 kommen in der Regel reelle, unter Umständen


aber auch komplexe Zahlen in Betracht, was sich jeweils aus dem Zu-
sammenhang ergeben wird. Läßt sich nun aus diesen Vektoren durch
eine Linearkombination mit Konstanten ck ' die dem gleichen Zahlen-
bereich (nämlich dem der reellen bzw. komplexen Zahlen) entstammen,
der Nullvektor erzeugen, so nennt man die Vektoren linear abhängig.
Definition 1: p Vektoren Ul> U 2 , ••• ,up mit Komponenten a7 aus
dem Bereich der reellen oder komplexen Zahlen heißen linear abhiingig,
wenn sich p nicht durchweg verschwindende Konstanten cl> C2' ••• , cp aus
dem gleichen Zahlen bereich angeben lassen derart, daß
.- - - ----
+ + ... +
~------ -----.- - --- --

I Cl U I C2 U 2 Cp U p = 0 i (2)

wird. Folgt dagegen aus GI. (2) notwendig Cl = C2 = ... = Cp = 0, so

I
heißen die Vektoren linear unabhängig.
Die Vektorgleichung (2) ist offenbar gleichbedeutend mit den n
Komponentengleichungen
a~ Cl + a~ c2 + ... + ai cp = 0

~~.c~ ~.a~ ~2 .+. '.': ~.a~ ~p.~ ~ (3)


a~ Cl + a~ c + ... + a~
2 Cp = 0,

also einem System n homogen linearer Gleichungen in den ck • Genau


dann, wenn dieses System nichttriviale, d. h. nicht durchweg ver-
schwindende Lösungen ck besitzt, die nicht eindeutig zu sein brauchen
- und es auch nicht sind - , ist das Vektorsystem GI. (1) linear abhängig.
Nur in gewissen Sonderfällen wird lineare Abhängigkeit oder Un-
abhängigkeit eines Vektorsystems unmittelbar ersichtlich sein, wäh-
rend es im allgemeinen besonderer Umformungen bedarf, um die Frage
nach Abhängigkeit oder Unabhängigkeit eines Vektorsystems zu beant-
worten. Ist aber einer der Vektoren gleich dem Nullvektor, etwa
uq = 0, so besteht laut Definition lineare Abhängigkeit, da sich hier
mit cq =!= 0, ck = 0 für k =!= q die Bedingung (2) erfüllen läßt. Das
Gleichungssystem (3) hat eine aus Nullen bestehende Koeffizienten-
spalte, so daß es mit cq =!= 0 lösbar ist. - Abhängigkeit liegt weiterhin
vor, wenn unter den Vektoren u k zwei gleiche vorkommen oder wenn
7.1. Lineare Abhängigkeit eines Vektorsystems 81

ein Vektor einem anderen proportional ist. Ist etwa U i = CU", so hat
man nur Ci = C und ck = - 1, alle übrigen Konstanten aber gleich
Null zu setzen, um GI. (2) zu erfüllen. - Auf die lineare Unabhängigkeit
der n Einheitsvektoren

el ={1 ° 0... 0}}


~2. ~ ~ ~ ~
.1 .. 0 .. : ..0 (4)

e n= {O ° O... 1}
wurde schon früher hingewiesen. Hier ist ja
Cl el + C2 e 2 + ... + Cn en = {Cl> C2 , ••. , Cn } = C ,

°sind. -
also gleich einem Vektor c mit den Komponenten Ci' und dieser ist dann
und nur dann Null, wenn alle Komponenten Ci = Aber auch
das System von n Vektoren der Bauart
_ {1 1 I I}
Ul - a l , a2 , a3 , •.• ,an \
U 2 = {O, ai, ai, ... ,a!}
U 3 ={0, 0, a;, ... ,a!} , (5)
. .. ... .
Un={O,O, O, ... ,a:}
in welchem überdies die "Diagonalkomponenten" ai, a~, ... , a: sämt-
lich von Null verschieden sind, a; °
=l= für alle i, ist linear unabhängig.
Denn für die einzelnen Komponenten lauten die Bedingungen für lineare
Abhängigkeit, also das Gleichungssystem (3):

ai = ° -+ Cl = °
° °
Cl
a~ + C2 ai = -+ C2 =
° °
Cl
Cl a~ + C2 a~ + C3 a~ = -+ C3 =

woraus der Reihe nach Cl = C2 = ... = Cn = folgt. °


In einem System linear abhängiger Vektoren ist wenigstens ein Vektor
eine Linearkombination der übrigen. Da nämlich wenigstens eine der
p Konstanten ck von Null verschieden sein soll, etwa cq =l= 0, so läßt sich
GI. (2) nach Division durch cq nach u q auflösen:
uq = kl u l + ... + k q_ l u q_ l + kq+l uq+l + ... + k p u p .
Dabei können einige (im Falle des Nullvektors uq sogar alle) Faktoren
k j auch Null sein.
Ist ein System von p - 1 linear unabhängigen Vektoren U v u 2 , ••. ,
u p_ I gegeben und tritt hier ein solcher Vektor u p hinzu, daß das Gesamt-
system u l , u 2' ••• , u p linear abhängig ist, so weiß man, daß der hinzutretende
Vektor u p von den übrigen abhängt. Wäre nämlich in GI. (2) cp = 0,
so würde Cl U l + ... + CP_ I U P_ l = 0 übrig bleiben, woraus wegen der
ZurmühI, Matrizen 4. Auf!.
82 § 7. Lineare Abhängigkeit und Rang

Unabhängigkeit der p ~ 1 ersten Vektoren Cl = c2 = ... = cp_ 1 = 0


folgen würde, d. h. aber lineare Unabhängigkeit des Gesamtsystems
entgegen der Voraussetzung. Also muß cp =1= 0 sein, und man kann nach
ap auflösen.
S atz 1: Sind die p ~ 1 Vektoren a 1 , a 2 , . • • ,ap_ 1 linear unabhängig,
dagegen die p Vektoren a1 , u 2 , •.• , a p linear abhängig, so ist
(6)
mit nicht sämtlich verschwindenden Konstanten Ck ' falls nur a p =1= 0 .
Ein Vektorsystem a v a 2 , • • • ,ap wird nun vom Range r genannt,
wenn es genau r linear unabhängige Vektoren enthält, r + 1 der Vek-
toren aber stets linear abhängig sind. Offenbar ist r :;:::; p, und für r = p
sind die Vektoren linear unabhängig.

7.2. Der Rang einer Matrix


Eine mn-Matrix A = (a ik ) läßt sich auffassen als das System ihrer 11
Spaltenvektoren a k von je m Komponenten oder als das System ihrer m
Zeilenvektoren a i von je n Komponenten. Jedem von ihnen ist eine
Rangzahl als die Maximalzahl linear unabhängiger Spalten bzw. Zeilen
zugeordnet. Es wird sich zeigen, daß diese beiden Rangzahlen mitein-
ander übereinstimmen, so daß der Matrix ein Rang r schlechthin zu-
kommt. Offenbar kann r dann nicht größer als die kleinere der beiden
Zahlen 'In oder n sein. Nur im Falle der Nullmatrix ist r = O.
Zum Nachweis unserer Behauptung und zugleich zur praktischen
Rangbestimmung einer Matrix ~ und damit eines beliebigen Vektor-
systems ~ unterwirft man die Matrix einer Reihe von Umformungen,
welche weder den Zeilen- noch den Spaltenrang ändern. Es sind dies
die drei folgenden sogenannten elementaren Umformungen:
I. Vertauschen zweier Zeilen oder Spalten;
11. ~Iultiplizieren einer Zeile oder Spalte mit einem von "Null WI-
schiedenen Faktor c 04= 0;
III. Addieren einer mit einer beliebigen Zahl c multiplizierten Zeile
oder Spalte zu einer anclern Zeile bzw. Spalte.
Wir haben zunächst zu zeigen, daß sich bei diesen Umformungen der
Rang r der Spalten vektoren a k , also der Spaltenrang der Matrix A nicht
ändert. Es seien irgend\Yelche r + 1 Spalten der }latrix ausgewählt,
etwa
(7)

Diese sind nach Voraussetzung über den Rang r linear abhängig, cl. h.
es besteht eine Gleichung
(8)
7.2. Der Rang einer Matrix S3
mit nicht sämtlich verschwindenden Konstanten ci" Der Vektorgleichung
entsprechen die m Komponentengleichungen
Cl a1i 1 + C2 a 1i2 + ... + C,+l a 1ir + 1 = 0 f
Cl a2 i + C2 a2 i +... + Cr + 1 a2 i r+1 = 0 (8')
. .
1 2
. . . . . . . . . . . . .
Cl ami1 + C2 ami2 + ... + C,+l amir + l = 0
Betrachten wir nun die drei elementaren Umformungen der Reihe nach.
I. Vertauschen zweier Zeilen oder Spalten:
a) Zeilen: Vertauschen zweier der Gleichungen in (S'); ohne Einfluß
auf die Lösungen ck ; der Rang ändert sich nicht.
b) Spalten: Ein Vertauschen der Spaltenvektoren hat auf die Maximal-
zahl r linear unabhängiger unter ihnen offenbar keinen Einfluß; der Rang
bleibt ungeändert.
II . Multiplizieren einer Zeile oder Spalte mit C =F 0:
a) Zeilen: Multiplizieren einer der Gleichungen (S') mit C =F 0; ohne
Einfluß auf die Lösungen ck ; der Rang ändert sich nicht.
b) Spalten: Falls die mit C multiplizierte Spalte unter den Spalten (7)
überhaupt vorkommt, etwa a i l ' so ist Cl durch cllc zu ersetzen und die
GIn. (8) bleiben bestehen. Eine Rangerhöhung tritt also nicht ein. Aber
auch keine Rangerniedrigung, da die Umformung II ja durch eine ent-
sprechende wieder rückgängig gemacht werden könnte, wobei sich dann
der Rang wieder erhöhen müßte, was nicht sein kann.
I I I. Addition einer mit C multiplizierten Zeile (Spalte) zu einer andern:
a) Zeilen: Addition einer mit c multiplizierten Gleichung in (S') zu
einer andern; ohne Einfluß auf die Lösungen ck ; der Rang ändert sich
nicht.
b) Spalten: Es werde a l ersetzt durch a l + C a 2, wodurch sich nur a l
ändert. Entweder kommt al unter den Spalten (7) gar nicht vor, dann
ändert sich an (S) nichts. Oder aber es kommt vor und es sei etwa
a 1 = a i r+l . Dann wird (7) ersetzt durch
(7 a )
Sind nun die r ersten Vektoren linear abhängig, so sind e3 auch die Vek-
toren (7a) und GI. (8) bleibt bestehen. Sind aber die r ersten linear unab-
hängig, so gilt, da der Rang r ist, also je r + 1 Vektoren linear abhängig
sind:
a 1 = iX l a t1 + 2 a + ... + a·t,.
iX t2
iX r

a2= ß1 a i1 + ß2 a i2 + ... + ßr air


und damit auch
u1 +Ca2= Y1 a i1 + Y2 a i2 + ... + Yr air
84 § 7. Lineare Abhängigkeit und Rang

mit Yk = (Xk + C ßk' Es besteht also auch mit dem neuen Vektor wieder
lineare Abhängigkeit, der Rang hat sich nicht erhöht. Wieder aber kann
er sich auch nicht erniedrigen, da die Umformung durch eine entsprechende
wieder rückgängig gemacht werden kann, bei der sich dann der Rang
erhöhen müßte, was nach dem vorhergehenden nicht sein kann.
Damit haben wir gezeigt, daß sich durch elementare Umformungen
der Spaltenrang einer Matrix nicht ändert. Aber auch der Zeilenrang
kann es nicht, da sich alle Überlegungen auf die transponierte Matrix A'
anwenden lassen, deren Spalten gleich den Zeilen von A sind.
Wir führen nun unsere Matrix durch die beim GAussschen Algorithmus
angewandten Zeilenumformungen über auf eine obere Dreiecksform,
die allgemein folgende Gestalt annehmen wird:
b ll b12 • • • b1 , 1 b1 , + 1 . . . b1 n
o b22 ••• b2 , 1 b2' , + 1 • .' . b2 n
. 1 . ' . . .. r
o 0 .. . b" 1 b",+l'" b,n
B= o -O~. ~ -0 10 - - - - 0 f (9)
1 m-r
00 ... 0 10 0
---",-- 1 -v---
r n-r
Zu der in § 6.4 beschriebenen Zeilenvertauschung kann hier noch eine
Spaltenvertauschung notwendig werden, nämlich dann, wenn sich in
einer Spalte in keiner der noch zu berechnenden Zeilen ein von Null ver-
schiedenes Element mehr findet, das zum Diagonalelement werden könnte.
Dann hat man lediglich zur nächst folgenden Spalte überzugehen und
hier in den noch freien Zeilen nach einem von Null verschiedenen Ele-
ment zu suchen, das dann die Rolle des Diagonalelementes spielt. - Es
mögen auf diese Weise - gegebenenfalls nach Zeilen- und Spaltenver-
tauschung - genau r nichtverschwindende Diagonalelemente bii =f= 0
gefunden sein. Dann sind offenbar genau r unabhängige Zeilen vorhanden,
der Zeilenrang ist r. Der Spaltenrang aber ist genau so groß. Die ersten
r Spalten sind wegen der Dreiecksform linear unabhängig. Jede weitere
Spalte s aber ist abhängig; denn

I
b1 + ... + c, b,
Cl + Cs bs = 0
ist ein Gleichungssystem der Form
bll + b12 c2 + : : : + bl , C, + bIs Cs : : 0
+ +b +b
Cl
b22 c2 2 , C, 2s Cs - 0 ,
. . . . . . . . .
b" e, b,s Cs = 0 +
das wegen bii =f= 0 eindeutig lösbar ist. Für Cs = 0 liefert es die Werte
Cl = ... = c, = 0, dagegen für Cs =f= 0 im allgemeinen von Null ver-
7.2. Der Rang einer Matrix 85
schiedene Konstante Ci' so daß auch der Spaltenrang genau gleich rist.
Die Matrix als solche besitzt somit den Rang r.
Definition 2: Eine mn-Matrix heißt vom Range r, wenn sie genau
r linear unabhängige Zeilen oder Spalten besitzt, während r 1 und mehr+
Zeilen und Spalten linear abhängig sind.
Wie dem Leser bekannt sein dürfte, wendet man die Umformung III,
die Linearkombination von Zeilen und Spalten beim Rechnen mit Deter-
minanten an, um sie auf eine einfacher auswertbare Form zu bringen.
Dabei ändert sich der Wert der Determinante bekanntlich nicht. Bei
Umformung I, Vertauschen zweier Reihen, ändert sich das Vorzeichen
der Determinante und bei II multipliziert sie sich mit C =l= O. Das Ver-
schwinden oder Nichtverschwinden der Determinante aber wird von
keiner der drei Umformungen berührt. Hieraus und aus der Dreiecks-
form der Matrix B, in die A durch elementare Umformungen überführt
wird, folgt, daß mit Bauch A wenigstens eine von Null verschiedene
r.reihige Determinante enthält, während alle in ihr etwa enthaltenen
Determinanten höherer Reihenzahl verschwinden. Man erhält so als
zweite Definition des Ranges einer Matrix
Definition 3: Eine m n·Matrix heißt vom Range T, wenn sie
wenigstens eine nicht verschwindende r-reihige Determinante enthält, wäh-
rend alle in ihr etwa enthaltenen Determinanten höherer Reihenzahl ver-
schwinden.
Beispiel: Gesucht sei der Rang der (quadratischen) Matrix

A = (-~ =! -;
-2 8 -5
-l =n.
-2 3)
1 -5 3 3-3
Umformung nach dem verketteten Algorithmus, ergänzt durch Summenproben
nach folgendem Schema:
-1 10 -3 8

-3 2 4 -2 2
-2 6 -4 -3 2 -1
3 -7 5 8 -3 6
-2 8 -5 -2 3 2
-5 3 3 -3 -1

-3 2 4 -2 2
L~
2 0 0 I 5 I -2 3
-3
2
L:J
-1
-1
0
-4
-2
3
0
0
0
--I 0 0 0
-----
-1 -1 0 -2 0 0
86 Lineare Abhängigkeit und Rang

In der 3. Spalte gibt es kein von Null verschiedenes Element mehr; man geht
auf die 4. Spalte über, wo sich in der 2. Zeile die 5 als Diagonalelement anbietet.
Xach Zeilenvertauschung erhält man so

B* = (~ ~ -~ -~ _~).
o
-
0 0 0 0
o 0 0 0 0
Entsprechend den drei von Null verschiedenen Zeilen hat B* und damit auch

f
.4 den Rang r = 3. Vertauschen der 3. und 4. Spalte ergibt die endgültige Drei-
ecksmatrix

B_(~ -~ -~ -~)
Aus der Dreiecksform erkennt man
S atz 2: Der Rang einer m n-Matrix ist höchstens gleich der kleineren
der beiden Zahlen moder n.
Daraus folgt dann auch der bedeutsame
S atz 3 : Mehr als n Vektoren a" zu J'e n Komponenten a7 sind stets linear
abhängig. Mit anderen Worten: Im n-dimensionalen Raum Rn gibt es
höchstens n linear unabhängige Vektoren.
Denn die Komponenten a7 der Vektoren - es seien etwa p mit p > n-
lassen sich spaltenweise als Elemente einer np-Matrix anordnen, deren
Rang dann höchstens gleich n ist, womit die p SpaItenvektoren a" wegen
p > n linear abhängig sind. Es folgt weiter - zusammen mit Satz 1 -
der
Satz 4: Sind n linear unabhängige n-dimensionale Vektoren a" gegeben,
so läßt sich ein beliebiger n-dimensionaler Vektor a darstellen als Linear-
kombination der a,,:
1------ --I
I_~:= Cl al +_c2a2_~~ .. + cn an I • (10)
Die Vektoren a" bilden, wie man sagt, eine Basis im Rn'
GI. (10) stellt ein inhomogenes Gleichungssystem mit nichtsingulä-
rer Koeffizientenmatrix A = (al' a 2, ... ,an) und rechter Seite a dar,
aus dem sich die Koeffizienten c" zu beliebigem a eindeutig errechnen
lassen.
7.3. Rang von Matrizenprodukten
Über den Rang eines Matrizenproduktes ABlassen sich, wenn die
Rangzahlen rA und rB der beiden Faktoren A und B bekannt sind, ver-
schiedene mehr oder weniger bestimmte Aussagen machen. Am einfach-
7.3. Rang von Matrizenprodukten 87

sten wird sie für den Fall, daß eine der beiden Matrizen A oder B qua-
dratisch und nichtsingulär ist. Es sei etwa A eine mn-Matrix vom Range
rund Beine nicht singuläre m-reihige quadratische Matrix, und wir
fragen nach dem Rang der Produktmatrix BA = e. Mit den n Spalten
ak von A schreibt sich das Produkt in der Form

BA = B (al' ... ,an) = (B al> ... ,B an) = (Cl> ... , Cn) = C.


Die Spalten c k von e ergeben sich als Transformierte der Spalten ak :
ck = BUk'

Es gibt nun r linear unabhängige Spalten a k , und wir dürfen unbeschadet


der Allgemeinheit annehmen, es seien dies die r ersten. Für jede weitere
Spalte U s mit s > r gilt dann nach Satz 1 :
kl a l + ... + kr ur + U s = 0 , (11)
oder kürzer
A s 1~ = 0 (11 I)
mit der Teilmatrix
As = (ul , ... , a r ' a s)
und dem Vektor
1~ = (kl , ... , kr ' 1)1 =l= 0 .
Damit aber folgt dann
B A s 1~ = es k = 0 , (12)
ausführlicher
kl Cl + ... + k r Cr + Cs = 0 . (12 1 )
Die r + 1 Vektoren ck sind also linear abhängig, und der l~ang von e
kann nicht größer als r sein. Da aber die Beziehung B ~4 = ewegen
Nichtsingularität von B umkehrbar ist, so kann man auf gleiche Weise
folgern, daß der Rang von A auch nicht größer als der von C sein kann.
Also hat e den gleichen Rang wie A. - Will man das Produkt A n
mit nichtsingulärer n n-Matrix B untersuchen, so geht man auf BI AI
über und erhält das gleiche Ergebnis.
S atz 5: Ist A eine m n-1'v1 atrix vom Range rund B quadratisch nicht-
singulär und verkettbar mit A, so hat auch die Produktmatrix AR oda
BAden gleichen Rang r.
Für quadratisch nichtsinguläres ."1 erhält man daraus als Sonderfall
S atz 6: Das Produkt L1 n zweier niehtsingulürer quadratischer Ai!l'
trizen A, B ist wiederum niehtsingulär.
Dies folgt übrigens auch aus dem in § 2.2 angeführten Determinanten-
satz 3. - \Vir können beide Sätze auch noch etwas anderes formulieren zu
S atz 7: Unterwir jt man ein F ektorsystem ul> ... ,up vom Range r
einer nichtsingulären Transfonnation B a k = C k ' so hat das neue System
88 § 7. Lineare Abhängigkeit und Rang

<;, ... , c p den gleichen Rang r wie das alte. Sind insbesondere die Vek-
toren a" linear unabhängig (r = P), so sind es auch die transformierten
Vektoren cp'
Sind nun beide Faktoren eines Matrizenproduktes singulär, so erhält
man gleich einfache und eindeutige Aussagen nur
noch in Sonderfällen. So gilt (vgI. Abb. 7,1) der
folgende
S atz 8: Das Produkt einer spaltenregulären
mr-Matrix A mit einer zeilenregulären rn-Matrix
B, die mn-Matrix C = AB, hat den Rang r.
Abb. 7.1. Zu Satz 8
Die Spalten von C sind Linearkombinationen der
r unabhängigen Spalten ab ihre Zeilen solche der r unabhängigen Zeilen bio
Die beiden letzten Aussagen ergeben sich leicht wie folgt:

bn ... bIn)
C = AB = (al' ... ,ar) ( . . . . . . . = (cl> ... , cn ) mit
brl . . . brn

c" = bl " al +b 2" a2 + ... + br" ar (k = 1,2, ... ,n) (13a)

C = AB = ... )
(~l~ ~l~ (~~) = (~~) mit
amI· .. amr b, C

Ci = ail b l + ai2 b 2 + ... + air b' (i = 1, 2, ... , m) (13b)


Die Matrix B enthält nun wenigstens eine nicht verschwindende
r-reihige Determinante, und wir nehmen einmal an, es sei die der r ersten
Spalten. Soll nun C vom Range r sein, so muß eine Gleichung
Cl Cl + ... + c, c, + Cd l Cs = 0 (14)
für beliebiges s > r mit nicht sämtlich verschwindenden Konstanten
c" erfüllt sein. Mit GI. (13a) wird hieraus:
(bn Cl + ... + bIs C,+l) ~ + (b21 Cl + ... + b2s C,+l) a 2
+ ... + (brl Cl + ... + brs Cd I) a r = 0,

=~ I
und da die Vektoren a" linear unabhängig sind, so folgt hieraus das
Gleichungssystem

~n ~l :- .: ..... + .blr.cr ~ ~IS ~d.l (15)


brlCI + +brrcr+brsc'+l-O
Hier können wir nun cr + I =l= 0 beliebig wählen. Da wir die Spalten von
B so angeordnet gedacht hatten, daß die Determinante der r ersten
Spalten nicht verschwindet, so läßt sich das System nach den restlichen
7.3. Rang von Matrizenprodukten 89

Unbekannten cl> ... , cr auflösen. Es gibt also nicht durchweg verschwin-


dende Konstanten ch derart, daß GI. (14) erfüllt ist, d. h. r + 1 der Vek-
toren c h sind stets linear abhängig. Setzen wir aber in GI. (14) die letzte Kon-
stante cr + I = 0, so wird aus GI. (15) ein homogenes System mit nicht ver-
schwindender Determinante, das nur die triviale Lösung Cl = C2 = ...
= cr = ° besitzt. Die r ersten Vektoren cl> ... , c r sind also linear unab-
hängig, womit die Matrix C gerade den Rang r besitzt.
Umgekehrt läßt sich jede mn-Matrix C vom Range r als Produkt
AB einer spaltenregulären mr-Matrix A mit einer zeilenregulären rn-
Matrix B darstellen, und zwar noch auf verschiedene Weise. Z. B. kann
man r unabhängige Spalten von C als die Spalten a k wählen, oder r un-
abhängige Zeilen von C als die Zeilen bio - Im Falle r = 1 wird das
Produkt zum dyadischen Produkt
C = ab',
wo die Matrix A = a aus einer Spalte, die Matrix B = b' aus einer Zeile
besteht, vgI. § 2,5. S. 27.
Im allgemeinen Falle beliebigen Ranges rA von A und rB von B läßt
sich der Rang rc des Matrizenproduktes C = AB nur noch in Schranken
einschließen. Der Einfachheit halber beschränken wir uns im folgenden
auf n-reihige quadratische Matrizen. Im Falle rechteckiger Matrizen
denken wir uns diese durch Anfügen von Nullreihen auf quadratische
n-reihige ergänzt.
Wir benutzen außer dem Rang r noch sein Komplement, den schon
§ 1.6 eingeführten Dejekt
(16)

mit dem sich die folgenden Aussagen bequemer formulieren lassen.


Ferner nehmen wir

an, andernfalls wir das Produkt Cf = B' A' behandeln können. Wir den-
ken uns nun A zunächst auf Dreiecksform, danach durch Spaltenum-
formungen III und II auf die sogenannte Normaljorm (vgl. auch 7.4)

1 0 0 0 0
0 1 0 0 0

NA = 0
0
0
0
1
0
0
0
0
0
= (~~)
0 o ... 0 o ... 0
90 § 7. Lineare Abhängigkeit und Rang

gebracht mit der r A-reihigen Einheitsmatrix 1. Die zum Ganzen er-


forderlichen Zeilenumformungen lassen sich durch Linksmultiplikation
mit einer nichtsingulären Matrix P, die Spaltenumformungen durch
Rechtsmultiplikation mit einer nichtsingulären Matrix Q herbeiführen:
P"1 Q = NA'
Betrachtet man die Matrix
pe =
--

C= P "1 Q . Q-l ß = NA 8 ,

so besitzt C = pe den gleichen Rang wie C und B = Q-l B den gleichen


wie B. Indern man nun B aufteilt in den oberen aus r A Zeilen bestehen-
den Teil Bi und den restlichen unteren Teil
8 2, so erhält man

Die Matrix C besteht also aus den r A oberen


b Zeilen von Bund n - r A = dA unteren Null-
Abb. 7.2a u. b. Zum Rang eineszeilen. Da nun 8 den Rang r B hat, so enthält
Matrizenproduktes
es rB linear unabhängige Zeilen. Ihr oberer
Teil kann somit maximal rA unabhängige Zeilen enthalten, Abb. 7.2a.
In dem Falle ist der gesuchte Rang r c = r A . Die linear unabhängigen
Zeilen von 8 können aber auch die r B unteren und jede der oberen
kann von ihnen abhängig sein, Abb. 7.2b. In dem Falle ist der Rang rc
mindestens gleich dem überdeckenden Teil der beiden Rangzahlen,
nämlich r A + rB - n = r A - dB , falls diese Größe nicht negativ ist;
andernfalls ist er ~ull. Zwischen diesen beiden Grenzen kann r c liegen,
also, da \\-ir r A :S r B annahmen:

(17)

Dies ist der Inhalt des unter dem Namen Sylvesters Law 01 Nullity
bekannten
S atz 9 : Haben die beiden n-reilzig quadratischen J1atrizen "1 und B
den Rang r A und r B bzw. den Deicht dA = 11 - r A und d B = n -- r n , so ist
der Rang rc der Produkt111atrix C == ./1 Jl oder C = BA höchstens gleich
der ldeinstcn der beiden Rangzahlen und mindestens gleich dem lcleinstcn
Rang, ~'er11li1Zdcrt um den kleinsten ])efeht.
Der I~ang der Produktmatrix ist damit in Schranken eingeschlossen,
deren \\'eite gleich dem kleinsten Defekt der Faktoren.11 oder B ist. Im
Sonderfall eines nichtsingulären Faktors fallen die Schranken zusammen,
und es ist r c = r,l' Satz 5.
7.4. Äquivalenz 91

Mehr als in Satz 9 kann im allgemeinen Falle nicht ausgesagt werden,


wohl aber in Sonderfällen, so insbesondere für die in § 2.7 eingeführte
Matrix Ar Ader GAussschen Transformation. Für sie werden wir in § 11.2
im Zusammenhang mit quadratischen Formen zeigen, daß sie vom Range r
der mn-Matrix A ist.

7.4. Äquivalenz
Eine mn-Matrix vom Range r läßt sich, wie wir sahen, durch Zeilen-
kombination, gegebenenfalls noch ergänzt durch Zeilen- und Spalten-
vertauschung auf die Dreiecksform mit r von Null verschiedenen Dia-
gonalelementen bi ; =1= 0 bringen, aus der man den Rang runmittelbar
abliest. Durch anschließende Spaltenkombination läßt sich diese Drei-
ecksmatrix auf Diagonalform überführen: Subtraktion der mit b1k : bll
multiplizierten ersten Spalte von der k-ten Spalte für k = 2,3, ... ,n
macht sämtliche Elemente bu der ersten Zeile mit Ausnahme von bl l zu
Null, Subtraktion der mit b2k : b22 multiplizierten zweiten Spalte von
den folgenden Spalten k = 3, 4, ... ,n so dann die Elemente der zweiten
Zeile, usf. Schließlich lassen sich dann noch alle diese Diagonalelemente
bii =1= 0 durch Division mit dem betreffenden bii (Umformung II) zu 1
machen, womit die Matrix in ihre sogenannte Normal/arm verwandelt
worden ist:
0 ... 010 0
0 ... 0 10 0
I

N=
00 ... 1 10 ... 0
----1---
00 ... °1 0 ... 0
f' =(~ ~) (18)

. I . ) m,
o 0 ... 01 0 ... 0
----v-
r n-r

Auf diese Normalform von m Zeilen und n Spalten mit der r-reihigen
Einheitsmatrix I in der linken oberen Ecke läßt sich offenbar jede
mn-Matrix vom Range r durch eine endliche Anzahl elementarer Um-
formungen überführen. Man definiert nun
Defini tion 4: Zwei m n-M atrizen A und B werden einander äquivalent
genannt, in Zeichen

(19)

wenn die eine in die andere durch endlich viele elementare Umformungen
überführbar ist.
92 § 7. Lineare Abhängigkeit und Rang

Dies ist offenbar genau dann der Fall, wenn beide auf gleiche Normal-
form (18) gebracht werden können, und es gilt daher
Satz 10: Äquivalente Matrizen haben den gleichen Rang. Matrizen
vom gleichen Typ mn und gleichen Rang sind äquivalent.
Es handelt sich hier um eine gewisse - allerdings ziemlich lose - innere
Verwandtschaft der beiden Matrizen. Bedeutsamer als die allgemeine
Äquivalenz sind engere Bindungen, so die schon früher angeführte
Ähnlichkeit (§ 5.3) und Kongruenz (§ 5.7) quadratischer Matrizen, die
sich beide als Sonderfälle der Äquivalenz erweisen werden.
Die Äquivalenz kann durch eine Matrizengleichung ausgedrückt
werden. Jede der elementaren Umformungen an einer Matrix A läßt
sich nämlich durch Multiplikation von A mit einer quadratischen nicht-
singulären Matrix einfacher Bauart herbeiführen, nämlich durch die in
§ 2.3 eingeführte Matrix J ik (Umformung I), eine Matrix Ci' entstanden
aus I durch Ersatz des i-ten Diagonalelementes 1 durch c =f= 0 (Umfor-
mung II) und schließlich die gleichfalls in § 2.3 gebrachte Matrix K ik
(Umformung III). Multiplikation der Matrix A von links her bewirkt
Umformung bezüglich der Zeilen, eine solche von rechts her Umformung
bezüglich der Spalten. Faßt man nun bei Hintereinanderschaltung der
Umformungen alle Linksfaktoren zur wiederum nichtsingulären m m-
Matrix P, alle Rechtsfaktoren zur nichtsingulären n n-Matrix Q zu-
zusammen, so erhält man zwischen Ausgangsmatrix A und einer aus
ihr durch elementare Umformungen hervorgegangenen, also mit ihr
äquivalenten Matrix B den Zusammenhang

(20)

der wegen nichtsingulärem P und Q umkehrbar ist zu


A = P-1B Q-1. (20a)
Besteht umgekehrt zwischen zwei Matrizen A, B eine Beziehung (20)
mit nichtsingulärem P und Q, so sind A und B äquivalente Matrizen.
Denn bei Multiplikation von A mit einer nichtsingulären Matrix ändert
sich laut Satz 5 der Rang von A nicht. Es gilt somit
Satz 11: Zwei mn-MatrizenA und Bsind dann und nur dann äquiva-
lent, wenn es zwei nichtsinguläre Matrizen P und Q gibt (von denen eine
auch die Einheitsmatrix sein kann) derart, daß Cl. (20) und damit auch (20a)
gilt. Insbesondere kann au/ diese Weise jede m n-Matrix A von Range rau/
ihre Normal/orm (18) gebracht werden.
Die schon erwähnte Ähnlichkeit zweier quadratischer Matrizen ordnet
sich hier als Sonderfall mit der Zusatz forderung P = Q-1, die Kongruenz
durch die Zusatzforderung P = Q' ein. Beidemale erfolgt die Bindung
also durch eine einzige nichtsinguläre Transformationsmatrix Q.
8.1. Allgemeine homogene Gleichungssysteme 93
§ 8. Allgemeine lineare Gleichungssysteme
8.1. Allgemeine homogene Gleichungssysteme
Während wir bisher, in § 6, bei der Auflösung eines linearen Gleichungs-
systems die Koeffizientenmatrix als quadratisch und nichtsingulär vor-
aussetzten, holen wir nun die Lösung allgemeiner Gleichungssysteme
mit auch nichtquadratischer Matrix nach und beginnen hier mit der
Behandlung homogener Systeme
(1 )
mit der mn-Matrix A und durchweg verschwindenden rechten Seiten.
Derartige Systeme bilden einerseits die Grundlage auch der allgemeinen
inhomogenen Gleichungen, andrerseits treten sie als solche mit quadra-
tischer Matrix im Zusammenhang mit der im IV. Kap. zu behandelnden
Eigenwertaufgabe auf. Zunächst hat das homogene System unter allen
Umständen die sogenannte triviale Lös1mg
Xl = x 2 = ... = X" = 0, kurz ~ = 0 , (2)
die freilich in der Regel ohne Interesse ist, da sie unterschiedslos bei
beliebiger Matrix A gilt. Bedeutsam sind allein nichttriviale Lösungen
x =1= 0, also solche, bei denen wenigstens eine der n Unbekannten Xi
einen von Null verschiedenen Wert annimmt. Hat das System aber eine
derartige Lösung, so hat es auch unendlich viele, die Lösung ist nicht
eindeutig. Das besagt
S atz 1: I st ~l eine Lösung von (1), so ist auch ~ = c Xl eine Lösung mit
beliebigemZahlenlaktorc. - Sind Xl und x 2 zwei Lösungen von (1), so ist
auch X = Xl + X 2 eine Lösung.
Diese charakteristische Eigenschaft homogen linearer Gleichungs-
systeme ergibt sich sofort durch Einsetzen:
A (c Xl) = cA Xl = 0 ,
A (~l + ~2) = A ~l + A ~2 = 0 •
Was nun die Existenz nichttri,.vialer Lösungen angeht, so wird aus
GI. (1) in der Form
+ a2 X 2 + ... + a" X" =
~---

I al Xl 0 I (1a)
mit den Spalten a" der Matrix A zufolge § 7.1, Definition 1 ersichtlich:
Satz 2: Ein homogenes Gleichungssystem in n Unbekannten x" hat
genau dann nichttriviale Lösungen, wenn die Spalten a" der Matrix linear
abhängig sind, der Rang r also kleiner als n ist, wenn also das System einen
positiven Defekt d = n - r > 0 hat. Ist Aspaltenregulär, so hat (1)
nur die triviale Lösung.
Daraus folgt dann
S atz 3: Ein homogenes Gleichungssystem mit weniger Gleichungen als
Unbekannten (m < n) hat immer nichtlriviale Lösungen.
94 § 8. Allgemeine lineare Gleichungssysteme

Denn dann ist der Rang r ~ m < n, die Bedingung von Satz 2 ist also
erfüllt. Es folgt weiter
Satz 4: Ein homogenes System von n Gleichungen in nUnbekannten
hat dann und nur dann nichttriviale Lösungen, wenn seine n n-M atrix
singulär ist, det A = 0 .
Die praktische Lösungsermittlung erfolgt wieder so, daß man die
Matrix A über den GAussschen Algorithmus in eine obere Dreiecks-
matrix B, das gegebene System also in ein gestaffeltes verwandelt, wo-
bei - nötigenfalls nach Zeilenumstellung - die r ersten Zeilen von Null
verschieden sind, während etwa vorhandene weitere Zeilen (bei m > r)
Null werden. Das System reduziert sich von selbst auf r linear unab-
hängige Gleichungen, während die restlichen Gleichungen entfallen.
Nötigenfalls nach Spaltenvertauschung (also nach einer Umnumerierung
der Unbekannten) erhält man genau r Diagonalelemente bii =1= 0, und
das gestaffelte System erscheint in der folgenden Form:

Xl X2 X, I Xr+, X r+' X"


- ---- --

bl l bl2 blr bj , ,+,


0 b22 b2r
b" r+,
bz , r+1 b" r+ 2 b,"\
... b2n
r

0 0 brr I br, r+, br, r+" ... brn


---- - --- --- -------------

Xl: X ll X 21 X rl 0 0 • Cl

X 2: X 12 X 22 X r2 0 1 0 • C2

X a: Xld X 2d X'd 0 0 • Cd
- ----- ------ -- -

r gebundene Unbek. I d freie Unbekannte

*
Die Unbekannten aber ordnen sich hier von selbst (wenn auch nicht
immer in eindeutiger Weise) in r zu Diagonalelementen bi ; 0 gehörige
und n - r = d restliche. Setzt man nun für diese letzten, die sogenannten
freien Unbekannten beliebige Zahlenwerte ein, so lassen sich die r ersten,
die gebundenen Unbekannten der Reihe nach aus dem gestaffelten System
errechnen. Setzen wir insbesondere für die freien Cnbekannten der
Reihe nach, wie oben angedeutet, die Komponenten der d-reihigen
Einheitsvektoren e k , so erhalten wir genau d linear unabhängige Lösungen
Xl' X 2 , . . . , x d . Aus ihnen aber ergibt sich die allgemeine Lösung, d. h. die
zu beliebigen 'Werten Ci der freien Unbekannten gehörige in der Form

(3)
8.1. Allgemeine homogene Gleichung~systeme 95
Für die oben getroffene Wahl sind die Ci mit den freien Unbekannten
x r +1> ... , x n identisch, so daß wir sie auch durch diese ersetzen können.
Bei allgemeinerer Wahl der freien Unbekannten kommt den Ci diese
spezielle Bedeutung nicht mehr zu. Doch gibt GI. (3) auch dann noch
die allgemeine Lösung, sofern nur die Werte der freien Unbekannten so
gewählt werden, daß die d Lösungen xI> x 2' ••• ,xd linear unabhängig
werden, was z. B. sicher zutrifft, wenn man alle freien Unbekannten bis
auf jeweils die erste, zweite, ... , d-te Null setzt. Damit gilt
Sa tz 5: Ein homogenes lineares Gleichungssystem in nUnbekannten
mit einer Matrix vom Range r hat genau d = n - r linear unabhängige
Lösungen Xl' ;C 2, •.• ,xd ' ein sogenanntes Fundamentalsystem, aus dem
sich die allgemeine Lösung in der Form GI. (3) mit d freien Parametern c"
aufbaut.
Indem nun die d Parameter c" in GI. (3) unabhängig voneinander den
gesamten Zahlenbereich durchlaufen, dem die Koeffizienten aik der
Matrix und damit auch die Komponenten X ik der fest gewählten Lösun-
gen x" entstammen (also etwa den reellen Zahlenbereich bei reeller
Matrix /1), überstreicht der Vektor x einen d-dimensionalen Unter-
raum des Rn' im Falle d = 1 also eine Gerade, im Falle d = 2 eine
Ebene usf., wobei diese Begriffe für n > 3 natürlich wieder im über-
tragenen, rein algebraischen Sinne zu verstehen sind. Man spricht dann
bei X auch von einem sogenannten linearen Vektorgebilde, gekennzeichnet
durch die Forderungen des Satzes 1, und zwar von einem Vektorgebilde
der Dimension d. Ein solches stellt also geometrisch einen durch den
Nullpunkt führenden d-dimensionalen linearen Unterraum dar. Wir
formulieren damit
S atz 6: Die allgemeine Lösung eines homogenen Gleichungssystems vom
Defekt d = n - r ist ein d-dimensionales lineares Vektorgebilde, sie spannt
cillen cl-dimensionalen linearen Unterraum des Raumes Rn aus.
Im Falle d = 1 stellt die allgemeine Lösung also eine räumliche Rich-
tung dar, die der :\Iatrix des Gleichungssystems eigentümlich ist, im
Falle cl = 2 eine räumliche Ebene usf. Jede spezielle Lösung ist in diesem
Unterraum gelegen. Die allgemeine Lösung ist die Gesamtheit aller
speziellen Lösungen.
V'/ir erläutern das vorstehende an zwei Beispielen, die zugleich die Rechen-
technik des Algorithmus zeigen mögen.

1. Beispiel:
Xl + 3x 2 - 5 X3 + 4 XI = 0
2 Xl + 3 x 2 - 4 x3 + 2 x4 = 0
3 x J + 2 x2 - x3 - 2 x4 = 0
Xl + 4 x 2 - 7 x3 + 6 %4 = 0
96 § 8. Allgemeine lineare Gleichungssysteme

3 -5 4 3
2 3 -4 2 3
3 2 -1 -2 2
4 -7 6 4
3 -5 4 3
-2 -3 6 -6 -3

Xl:
_~~;~tl~~~~
-1 2
o
o
o
o
o

.r2: 2 -2 o

Ergebnis:

Xl = -Cl + 2 c2
x2 = 2 Cl - 2 c2
oder

oder

Hier sind x a' x 4 als freie Unbekannte gewählt und die Gleichungen nach den
gebundenen xl' x 2 aufgelöst worden, was hier noch frei steht. Wollen wir z. B.
Xl' x 2 als freie Unbekannte ansehen und nach den gebundenen x a' x 4 auflösen, so
führen wir den verketteten Algorithmus unter Reihenvertauschung durch und
beginnen z. B. in der 3. Spalte mit dem 3. Element -1. Zur besseren Unter-
scheidung von Gleichungskoeffizienten und Eliminationsfaktoren setzen wir letztere
in Klammern:

-5 4 3
2 3 -4 2 3
3 2 -1 -2 2
4 -7 6 4
i--
0 0 (-5) (-1,4) I 0
-10 -5 (-4) [101 -5

~
-~
3 2 -2 2
I
0 0 (-7) (-2) 0
- -~ -~~-

Xl: 0 1 . Cl = Xl

X2: 0 1/2 !' C2 = X2


_~L_

Xl X2 X3 X4
8.1. Allgemeine homogene Gleichungssysteme 97
Ergebnis:
Xl = Cl

,~,,(},.c)
%2 = ~2

x3 = Cl + c2 oder
1
cl +
1, 1)2
x, = 2
c2 •

oder

2. Beispiel: Gleichungssystem mit der Matrix A aus § 7.2. S.85:

Xl - 3 x 2 + 2 x 3 + 4 x 4 - 2 x~ = 0
-2 Xl + 6 x 2 - 4 x 3 - 3 x. + 2 x 5 = 0
3 xl - 7 x 2 + 5 x 3 + :) x, - 3 x 5 = 0
- 2 Xl + 8 x 2 - 5 X 3 - 2 x, + 3 x 5 = 0
Xl - 5 X 2 + 3 x 3 + 3 x, - 3 x 5 = 0 .

Der Algorithmus ergibt: Rang r = 3. Defekt d = n - r = 2. Es gibt also


2 linear unabhängige Lösungen. Den Diagonalelementen des Algorithmus sind die
gebundenen Unbekannten zuzuordnen. in unserer Rechnung also xl' x 2• x,. Die
beiden andern x 3 • x 5 sind freie Unbekannte. denen wir z. B. die \Vertesätze (1.0).
(0.1) oder aber auch beliebige andere linear unabhängige Wertesätze zuordnen
können. z. B. (2.0) und (0.10). die sich mit Rücksicht auf ganzzahlige Lösungen
hier empfehlen. Die gewählten Sätze sind durch Fettdruck hervorgehoben.

1 -3 2 4 -2 2
-2 6 -4 -3 2 -1

3 -7 5 8 -3 6
-2 8 -5 -2 3 2
-5 3 3 -3 -1

1 I -3 2 4 -2 2

(2) o o
~J -2 3
(-3) [2- -1 -4 3 o
(2) (-1) o (-2) o o
(-1) (1) o (1) o o
-0.5 0.5 o o
-1.7 -0.7 o 0,4 1

2 o o
-7 o 4 10

Zurmühl. Matrizen 4. Auf!.


98 § 8. Allgemeine lineare Gleichungssysteme

Ergebnis:
Xl = - Cl - 17 c2
x2 = Cl - 7 c2
xa = 2 cl oder
X, = 4 c2
x5 = 10 c2

Xl = - 0,5 x a - 1.7 x 5
oder x2 = 0.5 x s -O.7 x s
0.4 x s '

8.2. Allgemeine inhomogene Gleichungssysteme


Während das homogene Gleichungssystem (1) in jedem Falle eme
Lösung besitzt, und sei es nur die triviale x = 0, trifft dies für das all-
gemeine inhomogene System
(4)
mit beliebiger mn-Matrix A und rechter Seite a =F 0 nicht mehr zu.
Hier wird sich zeigen:
1. Das System ist im allgemeinen nur noch für besondere rechte
Seiten a lösbar; eine Lösung x braucht nicht mehr zu existieren.
2. Gibt es aber eine Lösung, so braucht sie nicht mehr eindeutig zu
sein. Das besagt
Satz 7: Ist X o eine Lösung des inhomogenen Systems (4) und z die
allgemeine Lösung des zugehörigen homogenen Systems A z = 0 , also von
der Form
------ -- 1
+~~~__J::. ____ ~± :d za J
--------~---

z = ~Zl (5 )
mit d = n ~ r linear unabhängigen Lösungen Zk und d freien Parametern
so ist
Ck ,

Ix == X o
1_ _ _ _ _ -
+Z I
_'
(6)
die allgemeine Lösung des inhomogenen Systems.
Daß x eine Lösung ist, folgt aus
A x = A Xo +A Z = a +0 = a.
Es ist aber auch die allgemeine Lösung, d. h. jede beliebige Lösung x ist
in der Form GI. (5), (6) darstellbar. Ist nämlich X o eine bestimmte,
eine sogenannte Sonderlösung von (4) und x eine ganz beliebige andere.
so erhält man aus A X o = a, A x = a durch Subtraktion: A (x ~ x o) = 0,
d. h. x - X o = Z ist eine Lösung des homogenen Systems, womit GI. (6)
für fede Lösung x gilt. Die Lösung ist somit, falls überhaupt vorhanden,
8.2. Allgemeine inhomogene Gleichungssysteme 99
im allgemeinen nicht mehr eindeutig, sie enthält d willkürliche Kon-
stanten. Eindeutig ist sie nur für den Fall d = 0, also n = r, wenn also
die Matrix Aspaltenregulär ist. Ist überdies noch m = n = r, also A
quadratisch nichtsingulär, so ist laut § 7.2, Satz 4, GI. (10) auch noch die
Existenz der Lösung gesichert.
Daß nun eine Lösung gar nicht zu existieren braucht, zeigt das einf.ache
Beispiel
2x-y =},
4x-2y=7.
Ziehen wir nämlich hier die erste Gleichung zweimal von der zweiten
ab, S0 erhalten wir
0·x+O·y=1,
und dies ist offenbar durch kein Wertesystem x, y mehr erfüllbar.
Hier sind die linken Seiten der Gleichungen linear abhängig, die gesamten
Gleichungen mit Einschluß der rechten Seiten aber nicht. Das System
wäre nur dann lösbar, wenn die rechten Seiten die gleiche Abhängigkeit
aufweisen würden wie die linken, also z. B. für die rechten Seiten 3 und 6.
Sind allgemein die linken Seiten von GI. (4) linear abhängig, d. h.
existiert zwischen den Zeilen a i der Matrix A eine lineare Beziehung der
Form
(7)
mit gewissen Konstanten Yi' so ist das System dann und nur dann lös-
bar, die Gleichungen sind dann und nur dann miteinander verträglich,
wenn die gleiche Beziehung auch für die rechten Seiten ai gilt :
(8)
Nun bedeutet GI. (7) das homogene System
A'y=o, (7')
GI. (8) aber Orthogonalität dieses Lösungsvektors y mit a, so daß gilt:
Satz 8: Das inhomogene Gleichungssystem (4) ist dann und nur dann
lösbar, seine Gleichungen sind dann und nur dann lniteinandel' verträglich,
wenn die rechten Seiten a orthogonal sind zu allen Lösungen y des trans-
ponierten homogenen Systems (7').
Die Lösbarkeitsbedingung läßt sich auch noch anders formulieren.
Bezeichnen wir die Zeilen der sogenannten erweiterten Matrix A = (A, a)
mit (j,i, so muß mit GI. (7) auch
(9)
gelten. Ist nun A vom I~ange r, gibt es also für irgendwe1che r 1+
Zeilen a i von A eine Beziehung der Art von GI. (7), so muß die gleiche

100 § 8. Allgemeine lineare Gleichungssysteme

Beziehung auch für die (i; bestehen. Die erweiterte Matrix A darf also
keinen größeren Rang besitzen als die Matrix A selbst.
Satz 9: Das inhomogene Gleichungssystem (4) mit allgemeiner mn-
Matrix A vom Range r ist dann und nur dann verträglich, wenn der Rang
der erweiterten Matrix A = (A, a) nicht größer ist als der von A.
Praktisch ist dies sehr einfach festzustellen: Man unterwirft die Ge-
samtmatrix (A, a) wie gewöhnlich dem GAussschen Algorithmus. Das
System ist genau dann lösbar, wenn zu keiner der ganz verschwindenden
Zeilen b S = 0 eine von Null verschiedene rechte Seite b, =\= 0 auftritt.
Denn andernfalls hätte man
O· Xl + 0 . X 2 + ... + 0 . x n = bs =\= 0 ,
was durch kein \Vertesystem xk erfüllbar wäre. Das System ist somit
immer lösbar für den Fall zeilenregulärer Matrix A, also r = m mit
m ~ n, wo keine der B-Zeilen verschwindet. Nur für diesen Fall r = m
besitzt das transponierte homogene System (7') allein die triviale Lösung
y = 0, und nur in diesem Falle sind die rechten Seiten a keinen Be-
dingungen unterworfen; das zeilenreguläre System ist für beliebige rech te
Seiten lösbar.
Setzen wir nun Lösbarkeit voraus, so ergibt sich das folgende Lösungs-
schema, etwa für r = 4, d = n - r = 3:
gebunden frei b;
8
8
8
8 i
I
- - -- --

Zl: 0 0 0
Fundamentalsystem des
Zt: 0 0 0
homogenen Systems
Za: 0 0 1 0
X o: 0 0 0 -1 Sonderlösung
x: Allgemeine Lösung

Den von Null verschiedenen Diagonalelementen b;; =\= 0 ordnen sich von
selbst die gebundenen Unbekannten zu, nach denen aufgelöst wird.
Das Fundamentalsystem Zv . . . ,Zd erhält man genau so wie unter
8.1, indem man für die rechten Seiten b; Null setzt und für die freien
Unbekannten der Reihe nach die Wertesätze 1 0 0 ... , 0 1 0 ... usf.,
wie angedeutet. Eine Sonderlösung Xo aber erhält man am einfachsten,
indem man alle freien Unbekannten gleich Null setzt. - Im allgemeinen
wird wieder außer Zeilenvertauschung auch Spaltenvertauschung er-
forderlich sein, d. h. man wird nicht gerade nach den r ersten Unbekann-
9.1. Orthogonalisierung eines Vektorsystems 101

ten als gebundenen auflösen können, sondern eben nach denen, zu denen
ein Diagonalelement bii =!= 0 existiert. Vgl. das folgende
Beispiel: Xl -3 x2 + 2 x3 - x. 2
-2 Xl+ 6 x2 - 4;1;"3 + 3 x4 + 2 x5 = - 1

3 xl - 7 x 2 + 8 x 3 - 3 x. + x 5 = 4
o
4

:
5 -5 20 -2 11 I 9 I 38

-3 -~: ---;--- ~ -i -~-T

: =~
-2 6

~
3 -7
-1 I :
2 o 10 0 7 I 4 23
2 ~----~-I---;-~I-·_··-
-3
2 o o 2 ! 3 6
-3 1_ z..' 2 0 I -2 3

~
-1 -1 o o o o
-2 -3 o -2 I o o
-5 -5 o -3 o o o
-1 1 0 o o
-1 o -4 2 o
-1 o 3 o -1

Lösung:
x1 =
Xz
2-5 c l - 7 c 2
= -1 - Cl - (2

oder ;r=
(
2\
_~JI + Cl
(-5_~JI\+ (-7)
-~J. C2

I 3 I 0 -4
\ 0 \ 0 2

* § 9. Orthogonalsysteme
9.1. Orthogonalisierung eines Vektorsystems
Gegeben sei ein System von r reellen unabhängigen n-dimensionalen
Vektoren al> a 2 , ••• , a r mit r ;::;; n, die wir zur spaltenregulären n r-Matrix
A = (al' u 2' ... , ar) (1)
vom Range r zusammenfassen. Für manche Zwecke ist es nun nützlich,
aus diesem System durch Linearkombination ein anderes gleichen
Ranges
(2)
102 § 9. Orthogonal systeme

herzustellen, dessen Vektoren paarweise zueinander orthogonal sind:


x; x = 0
k für i =P k ,
wobei man in der Regel noch zusätzlich fordert, daß die x k Einheits-
vektoren sind, ihre Norm also gleich 1 ist. Sie erfüllen dann die sogenann-
ten Orthonormalbeziehungen
;---,----1
r
iXi_~-=r5i~ i, k = 1,2, ... ,r, (3')

1V X die wir zur Matrizengleichung

r
mit der r-reihigen Einheitsmatrix I zusammen-
Abb. 9.1. Orthonormal- fassen können, Abb. 9.1. Die Vektoren x k bilden
system X mit X' X = I ein normiertes Orthogonalsystem, ein Orthonormal-
system.
Der Prozeß der Orthogonalisierung des Ausgangssystems Azurn
Orthonormalsystem X läßt sich nach einem Vorschlag von UNGER sehr
einfach mit Hilfe des Matrizenkalküls durchführen1 , und zwar mit Hilfe
der symmetrischen (positiv definiten) rr-Matrix

lN ~'Al· (4)
Diese Matrix ist wegen linearer Unabhängigkeit der r Spalten ak nicht-
singulär. Denn wäre sie singulär, so hätte das Gleichungssystem A' A x
= 0 nichttriviale Lösungen x =P o. Für diese würde dann auch die
sogenannte quadratische Form Q = x' A' A x = y' y mit y = A x ver-
schwinden (vgl. § 11.1). Das aber ist nur möglich für y = A x = 0, was
wegen linearer Unabhängigkeit der Spalten ak von A sogleich x = 0 nach
sich zieht im Widerspruch zur Annahme nichttrivialer Lösungen x.
Zur Gewinnung des Orthonormalsystems X machen wir nun den Ansatz
.A = -x-c-I (5)

mit einer noch zu bestimmenden nichtsingulären Matrix C. Damit wird


N = A' A = C' X' XC,
woraus wegen der Orthogonalitätsforderung (3) folgt

i~-=-~CJ. (6)
Eine solche Zerlegung der (symmetrischen und positiv definiten) Matrix
N aber ist, wie wir in § 6.3 sahen, stets durchführbar, und zwar mit einer
oberen Dreiecksmatrix C, in § 6.3 mit R bezeichnet (Verfahren von CHO-
1 UNGER, H.: Z. angew. Math. Mech. Bd. 31 (1951). S. 53-54; Bd. 33 (1953).
S·3 19-331.
9.2. Vollständiges Orthogonalsystem 103

LESKY). GI. (5) gibt zugleich die Vorschrift der Orthogonalisierung, die
wir lieber in der Form
C' X' = A' (5a)
schreiben wollen. Sie besagt: Man dehne die r IV
CHOLESKY-Zerlegung von N = A' A auf die- AI
N r
ohnehin zur Bildung von N benötigte - Ma-

IX
trix A' als rechte Seite aus und erhält das ge-
suchte Orthonormalsystem X' als neue rechte x' r

Seite, vgI. das Rechenschema der Abb. 9.2, in


Abb.9.2. Rechenschema zur
dem die Matrix A fortgelassen ist, da N allein Orthogonalisierung einer
Matrix A vom Range r
aus A' berechnet werden kann.
Beispiel: Orthonormierung der Vektorsystems

3 1
-1 2
A= 3 -1
1 0
-4 -2
Rechnung:
36 6 3 -1 3 -4
6 10 2 -1 o -2
6 1 3/6 -1/6 3/6 1/6 -4/6
1 i 3 3/18 13/18 -9/18 -1/18 -8/18
- - ----

Ergebnis:

x~fs -! ~~J\ 3 -1
-12 -8

9.2. Vollständiges Orthogonalsystem


Ein System r linear unabhängiger n-dimensionaler Vektoren u k ' die
reell seien und deren spaltenreguläre Matrix jetzt mit Al bezeichnet sei,
(7)
läßt sich im Falle r < n zu einem vollständigen System n linear unab-
hängiger Vektoren, der nichtsingulären Matrix
A = (Al> A 2 ) (8)
104 § 9. Orthogonalsysteme

mit
(9)
ergänzen. Hieraus läßt sich dann ein vollständiges Orthogonalsystem
X von n orthogonalen Einheitsvektoren x" herstellen, also eine Ortho-
gonalmatrix mit der Eigenschaft
1- I
IX'X=I I. (10)
! i

Hierzu bestimmen wir zunächst die n - r = d neuen Vektoren a j von


A 2 derart, daß sie zu den r gegebenen Vektoren a" des Systems Al ortho-
gonal sind, also der Forderung

IA~a~= 0
---------
j = r + 1, ... ,n (11 )

genügen. Als homogenes Gleichungssystem von r unabhängigen Glei-


chungen besitzt (11), wie wir wissen (vgl. § 8.1), genau d = n - r linear
unabhängige Lösungen af • Diese sind dann auch zugleich unabhängig
von den r gegebenen Vektoren a k von Al. Denn wäre a j von ihnen ab-
hängig, so bestände eine Beziehung der Form
aj = Cl al + C2 (12 + ... + Cr ar = Al c
mit einem nicht identisch verschwindenden Konstantenvektor C = (c k ).
Multiplikation dieser Gleichung mit .4~ aber ergibt
A~ (li = 0 = ./t~ Al C ,

und hieraus folgt wegen nichtsingulärem .,4~ Al = NI sogleich c =0 ent-


gegen der Annahme.
Zum Aufbau des Zusatzsystems A 2 geht man nun zweckmäßig so vor,
daß man jeweils nur einen Vektor (li = a,+ t als Lösung von GI. (11) er-
mittelt. Diese Gleichung ist also so zu verstehen, daß die Matrix ..11
aus allen überhaupt bis dahin schon bekannten Zeilen (I" besteht. Das
hat zur Folge, daß der neu bestimmte Vektor a j nicht allein zu den ur-
sprünglich gegebenen r Vektoren a", sondern auch zu allen vor ihm be-
stimmten neuen Vektoren orthogonal ist, so daß sich eine nachträgliche
Orthogonalisierung der zweiten Matrix A 2 erübrigt. Ihre Vektoren
müssen lediglich noch mittels Division durch die Länge a j = ~/a;-aj
auf den Betrag 1 normiert werden. Die zur Orthogonalisierung erforder-
liche CHOLESKY-Zerlegung ist also praktisch nur für den ersten Teil

NI = A~ Al = C~ Cl (12)
durchzuführen. Für den zweiten Teil ist
N 2 = A;A 2 = m (13 )
9.2. Vollständiges Orthogonalsystem 105

gleich einer Diagonalmatrix aus den Betragquadraten = aj ai , durch a;


deren Quadratwurzeln die Komponenten der neu gebildeten Vektoren a j
dividiert werden.
Das Rechenschema zur Bestimmung der neuen zu Al orthogonalen
Matrix A 2 enthält in seinem oberen Teil von der Gesamtmatrix .4' zu-
nächst nur die gegebene Matrix A~, Abb. 9.3. Für sie wird im unteren
Teil des Schemas die Dreieckszerlegung zur Gleichungsauflösung (11)
nach dem verketteten Algorithmus vorgenommen mit dem Ergebnis A~.
Nun kann der erste neue Vektor a j = a Y + 1 berechnet werden, indem man
r d~n,-r n
r d=/V-r
o A't
r
iI A'1
d 0

r C;
c.'1

d 0

Abb. 9.3. Rechenschema 1 zur Ermittlung Abb.9.4. Rechenscbema 2 zur Ermittlung eines vollständigen
eines vollständigen Orthogonalsystems Orthogonalsystems

seine (r +
1)-te Komponente z. B. gleich 1, die folgenden Null setzt und
die r ersten Komponenten aus dem gestaffelten System (unten) auf-
rechnet. Das Ergebnis wird unmittelbar als (r +
1)-te Zeile a;l.l in den
oberen Schemateil als erste Zeile von A~ eingetragen und daran anschlie-
Cend wieder der Elimination unterworfen: (r +
1)-te Zeile des unteren
Schemateiles, der Dreieckzerlegung. Aus ihm wird dann der neue Vektor
a~+2 als Lösung von GI. (11) bestimmt und in die obere Schemahälfte
eingetragen, um anschließend wieder unten der Elimination unterworfen
zu werden, usf.
Abb. 9.4 zeigt dann das Schema der endgültigen Orthonormicrung der
GesamtmatrixA zur MatrixX durch CHOLEsKY-Zcrlegung vonN = A' A,
die sich praktisch auf den oberen Teil NI = A~ Al beschränkt, während
der untere Teil N 2 zur Diagonalmatrix D~ der a~ entartet, durch deren
Quadratwurzeln ak die Komponenten der Vektoren a k und A 2 zu divi-
dieren sind.
Wir erläutern die Rechnung an einem Beispiel. Gegeben sei das Ausgangs-
system
,_(3 -1 3 1 -4)
A1 -
1 2 -1 0 -2
,
106 § 9. Orthogonal systeme

das zu orthonormieren und zum vollständigen Orthonormalsystem X zu ergänzen


ist. Die beiden Schemata der Abb. 9.3 und 9.4 werden zu einem Rechenschema
zusammengelegt, dessen rechter Teil die Ergänzung durch Auflösung der GI. (11),
also den Eliminationsgang enthält, durchgeführt nach dem ganzzahligen (divi-
sionsfreien) verketteten Algorithmus (vgl. § 6.5), während der linke Teil die
CHOLESKY-Zerlegung zeigt.
N A'

o
36 6
°o o 3 -1 3
°
-4
6 10
° ° : 2 -1 -2
o o 110
° °o -10
-5 6 7 o
°°
°o ° ° 3190 -8 55

° ° ° 2349 .~ _ _
17____
3
9 ___7_ _2~_
-1 3 -4
-1 7 -6 -1 -2
5 -13 110 16 -38
10 7 ° 58 -14
- - 6 - --~T-~ 0 ° 3 -1 3 -4 :6
-1 I 3 I 0 0 ° 3 13 -9 -1 -8 : 18
-° ---o!y 110 - 0 0 : Vil0
,-0- 0
-5 6 7 o o
° ° iijl~O- -10 -8 55 o : Y3190
° ° I ° ° !V2349-
- - ----~ - ---- - - ----
33 17 9 7 29 :V2349
Ergebnis:
0,5 0,1666667 -0,4767313 -0,177 0536
0,680883 0 ]
-0,1666667 0,7222222 0,5720776 0,017 7054 0,3507579
x= ( 0,5 -0,5 0,6674238 -0,1416428 0,1856953 •
0,1666667 -0,0555556 ° 0,973 7946 0,1444297
-0,6666667 -0,4444444
° ° 0,5983517

9.3. Biorthogonalsysteme
Der Begriff des Orthogonalsystems erfährt eine Verallgemeinerung
im sogenannten Biorthogonalsystem. Es handelt sich um ein System-
paar von je r Vektoren zu n Komponenten mit r ~ n
X = x,) } ,
(Xl' ... ,
( 14)
Y = (Yl' ... , Yr )
zwei Vektorsysteme, die auf irgend eine Weise einander zugeordnet
sind und die nun den Bedingungen

(15 )
bzw.
(i,k=1,2, ... ,r) (15')
9· 3. Biorthogonalsysteme 107

genügen, Abb. 9.5. Aus dieser Forderung folgt zunächst, daß jedes der
Vektorsysteme in sich linear unabhängig ist, die Matrizen X, Yalso spat-
tenregttlär sind. Denn aus
Cl x~ + ... + cr x; = 0

folgt durch Rechtsmultiplikation mit Yk wegen GI. (15 ' )


(k = 1, 2, ... , r) .
Ebenso folgt aus
Cl YI + ... + C Y r r = 0
r

durch Linksmultiplikation mit x; wegen GI. (15 ' ) 7V Y


C, x; y, = Ci = 0 (i = 1, 2, ... , r).
Ist insbesondere r = n, so heißt das Biortho- r
gonalsystem wieder vollständig. In dem Falle
ist X' die Kehrmatrix Y-l von Y und Y' die Abt. 9.5. Zum Biorthogonal-
Kehrmatrix X-I von X. system X, Y mit X' Y = 1

Es gilt nun
Sa tz 1: Zwei spaltenreguläre Systeme A, B von je r linear unabhängi-
gen n-dimensionalen Vektoren ak , b k
A = (al' ... , ar) } (16)
B = (bi' ... , b r )
mit r ~ n lassen sich dann und nur dann in ein (normiertes) Biorthogonal-
system X, Y der Bedingung (15) überführen, wenn die r r-M atrix

(17)

nichtsingulär, also vom Range rist.


Im Gegensatz zu den n n-Matrizen A B' und B A', die nach § 7·3,
Satz 8 den Rang r haben, kann nämlich die r r-Matrix N auch von
niedrigerem Rang sein, wie das Beispiel zweier orthogonaler Vektoren
a, b, beide =F 0, zeigt: hier ist a' b = 0, also gleich einer 1, i-Matrix vom
Range 0, während a und b selbst den Rang 1 haben.
Die Richtigkeit des Satzes und zugleich die Durchführung der Bi-
orthonormierung eines gegebenen Matrizenpaares A, B in ein System-
paar X, Y der Eigenschaft GI. (15) ergibt sich folgendermaßeni. Zur
Gewinnung von X, Y setzen wir

A=XP}
B=YQ
(18)

1 'Nieder nach H. UNGER; vgl. Fußnote auf S. 102.


108 § 9. Orthogonalsysterne

mit noch zu bestimmenden nichtsingulären r-reihigen Transformations-


matrizen P, Q, die insbesondere wieder obere Dreiecksform haben
können. Dann ergibt sich für N = A' B = pi X' Y Q wegen GI. (15) die
Darstellung

(19)

die bei nichtsingulärem P, Q nichtsinguläres N nach sich zieht. Ander-


seits aber ist eine solche Produktzerlegung bei nicht singulärem N auch
tatsächlich durchführbar, nämlich eben mit zwei Dreiecksmatrizen P, Q,
wie sie ja im verketteten Algorithmus vorgenommen wird. Dabei sind
die Diagonalelemente einer der Dreiecksmatrizen noch frei wählbar,
insbesondere etwa, wie in der von uns gewählten
r
r--- Form des Algorithmus, Pii = 1. Die GIn. (18),
etwas deutlicher in der Form
B 7f,
pi X' = A' I ---,>-X'
rv (18a)
YQ=B ---'>-Y
N A' r
zeigen dann die Bildung der gesuchten Matrizen

X X' r X, Y: X' entsteht als rechte Fortsetzung der


Matrix Q aus der rechts von N geschriebenen
Matrix A'; Y als untere Fortsetzung der Ma-
Y rv trix pi aus der unter (oder über) N geschrie-
benen Matrix B, vgI. das Schema der Abb. 9.6.
Die Matrizen X, Y hängen dabei noch von der
-
Abb. 9.6, Schema zur Biortho- vVahl der Diagonalelemente Pii ab.
normierung zweier Vektor-
systeme A, B \·om Range r
Statt der Transformation beider Systeme .4, B
nach GI. (18) kann man auch eines von ihnen,
z. B. B unverändert lassen, also B = Y. Dann wird die nunmehr
vollquadratische Transformationsmatrix P gleich N', wie man sich
leicht durch ähnliche Rechnung wie oben klar machL In dem Falle
ist das Gleichungssystem N X' = A' zu lösen. Der Arbeitsaufwand ist
der gleiche.

(
Bei s pie I: Gegeben ist das Systempaar

3 2) 3 -2)
-2, -21 -1 3 0,
_4= -2 -4 -3 , B= 2 -2
~ : -1
3
:) 0
-3
:J'
9.4. Vollständiges Biorthogonalsystem 109

das biorthonormiert werden soll zu X. Y. Die Rechnung verläuft nach Schema


der Abb. 9.6.
3 -2
-1 3 o
B = 2 -2 -1
-3 2
o
- - ~- --- -- -

1 2 -2 -2 0 2
lI.'= 3 4 3 3 -4 3 -1 = A'
4 -3 4 2 -2 -3 2
2 1 -2 -2 0 2
3 - 3 0 7 2 3 -7 =X'
4 -7 1_-25 _ -2 55 19 23 -56
3 -2 14/25
-1 4 -14/25
}' = 2 -4 17/25
-4 12/25
0 -4/25
_._--_._~~-----

Damit die beiden Systeme X. Y Elemente annähernd gleicher Größenordnung


erhalten. kann man die bei Y auftretende Division durch die Diagonalelemente qkk
nachträglich auf beide Vektoren xk' Yk aufteilen. Indem wir im Beispiel den
Nenner 25 aufteilen in 5·5. erhalten wir als Ergebnis:

-0.41
r -~
-2 2.8\

X = r -2
-2
iO

2
11,0
3,8. Y= 2 -4
4
-~:: I·
I 0 3 4,6 -4
~ ~
2.4)
\ 2 -7 -11.2 -0.8
Man überzeuge sich vorn Erfülltsein der Forderung X' Y = I.

9.4. Vollständiges Biorthogonalsystem


Wieder läßt sich ein nicht vollständiges Biorthogonalsystem von je
r< n unabhängigen Vektoren zu einem vollständigen von je n Vek-
toren ergänzen. Es sei
Al : (al> ... , a,) }
(20)
BI - (bI' ...• b,)
das gegebene noch zu biorthonormierende Systempaar mit nichtsingu-
lärem NI = A~ B l . Es läßt sich zunächst ergänzen durch je d = n - r
linear unabhängige Vektoren ak • b k als Lösungen der Gleichungssysteme
rA~b-:-~ I
I
0
k = r + 1, r + 2 •...• n, (21)
B; ak =
,
I 0 I
110 § 9. Orthogonal systeme

zusammengefaßt zu
A2 : (ar + 1, . . . , an) } ,
(22)
B2 - (b r + 1 , · · ., bn )
womit sich GI. (21) schreibt:
A~B2 = O}. (21 ')
B1 A2 = 0
Dann läßt sich zunächst zeigen, daß die Gesamtsysteme
A = (A 1 ,A2 )}
B = (B 1 ,B2 )
(23)
aus je n linear unabhängigen Vektoren bestehen, also nichtsingulär
sind. Aus
Cl a l + ... + Cr a r + Cr + 1 a r + 1 + .... Cn an = 0 +
oder kürzer
Al Cl + A 2 C2 = 0
entsteht nämlich durch Vormultiplikation mit B~
B~ Al Cl + B~ A 2 C2 = N~ Cl +0 = 0 ,

woraus wegen nichtsingulärem NI folgt


Cl = {Cl' . . . , Cr } = 0

und damit wegen der linearen Unabhängigkeit der Vektoren in A 2 auch


C2 = {c r + 1, ••. , Cl'} = o.
Das gleiche beweist sich für B.
Damit ist auch N = A' B nichtsinguliir, und es hat mit Rücksicht
auf GI. (21 ') folgenden Bau:

(A~)
N = A' B = A; (BI' B 2) =
(A~ BI A~ z)
Li; BI "1; B 2
B =
(NI
0
0)
N2 ' (24)
so daß auch N 2 = A~ B 2 nichtsingulär ist, also auch das System A 2 , B 2
für sich biorthonormiert werden kann.
Für die praktische Durchführung der Ergänzung und Biorthonor-
mierung gehen wir nun wieder zweckmäßig so vor, daß wir jeweils nur
ein Vektorpaar a k , bk aus GI. (21) bestimmen und die so gewonnenen
Vektoren sogleich den Systemen Al' BI hinzuschlagen und der zur
Gleichungsauflösung erforderlichen Elimination unterwerfen. In GI. (21)
sind dann die Matrizen A~, B~ in diesem Sinne zu verstehen. Die Ma-
trix N 2 reduziert sich hierdurch auf Diagonalform mit den Elementen
a~ bk • Nun kann es bei unserem Vorgehen zunächst eintreten, daß
dieses Skalarprodukt verschwindet. Da aber die Gesamtmatrix N 2 nicht-
singulär ist, im Falle der Diagonalgestalt also keines der Diagonal-
elemente Null sein kann, so muß sich zu einem durch Auflösen der
9.4. Vollständiges Biorthogonalsystem 111

ersten GI. (24) errechneten b k eine Lösung a k der zweiten GI. (24) immer
so finden lassen, daß a~ b k =f= 0, der Prozeß also durchführbar ist.
Wir erläutern das Vorgehen wieder an einem Beispiel. Gegeben ist das Aus-
gangssystempaar

(-~ -~l
1 3\
-21
4-1J'
-3
(
A = ~ -~J' B = I1 1 3
-1 2 \-3 -2
das zunächst durch Lösungen der Systeme GI. (21) ergänzt wird. Die Elimination
ist im folgenden Schema nach dem ganzzahligen (divisionsfreien) Algorithmus
durchgeführt.
A' B'
-3 2 o -1 2 -1 4 -3
3 -2 -1 2 2 -2 -1 3 -2

-3 -2 o 0 o o
-7 4 3 6 0-1 7 11 14 o
63 -112 49 22 152 2 5 16 -9 19

1 -3 2 0 -1 2 -1 4 -3
- 3-l 7 -7 2 5 1-3 -6 -1
- 3
I

=111-28 22 34 -31 12 -6 -3
-7 -17 -0-1 76 36 i-1
-- -
-13 -0-1-76 11
- - - - ~-
----- ----------------

Die Biorthonormierung ist hier besonders einfach, indem N bereits obere Dreiecks-
form hat. Damit bleibt das System A unverändert. Im Endergebnis teilen wir
wieder die bei Yauftretenden Nenner auf X und Yauf.
2 -1 2
-1 -2 7
B 4 -1 11 16
3 0 14 -9
-3 -2 0 0 A'
---------

16 7 0 0 0 -3 2 0 -1 4
0 10 0 0 0 3 -2 -1 2 2 5
N 0 0 -4 0 0 -3 -2 0 0 4
0 0 0 152 0 -7 4 3 6 0 8
0 0 0 0 3040 63 -112 49 22 152 152
------_._----
2 2 -1 -1 2
-1 -25 -1 7 5
y 4 -44 -1 11 16
41 0 14 -9
-3 -11 0 0 19
-------
:16 :160 :4 :152 :3040
: 4 : 32 :1 : 19 : 20
112 § 9. Orthogonalsysteme

( 0."
-0,75
0,6
-0,4
-0,75
-0,50
--(),875
0,500 0.4"4737)
-0,7368421
X = ~,50 -0,2 0,25 0,375 0,322 3684
0,4
° 0,750 0,1447368
-0,25 0,4
° ° 1,0

( 0.50
-025
0,06250
-0,78125
-1
-1
-0,0526316
0,3684211 0,"]
0,25
Y = 1,00 1,37500 -1 0,5789474 0,80 .
0,25 1,28125
° 0,7368421 -0,45
-0,75 -0,34375
° ° 0,95

9.5. Halbinverse einer Rechteckmatrix


Die für ein (nichtvollständiges) Biorthonormalsystem X, Y kennzeich-
nende GI. (15), X' Y = I, hat offensichtliche Ähnlichkeit mit der
Beziehung zwischen Matrix und Kehrmatrix, in die sie im Falle des
vollständigen Systems ja auch übergeht. Dies legt den Gedanken einer
"Inversen" auch für eine nichtquadratische Matrix nahe, sofern nur
ihre Spalten oder Zeilen - je nach der kleineren Anzahl - linear un-
abhängig sind, die Matrix also spaltenregulär bzw. zeilenregulär ist.
Denn diese Bedingung erwies sich für das Bestehen eines Biorthonormal-
systems als notwendig (wenn auch noch nicht als hinreichend). Es
sei etwa A eine spaltenreguläre nr-Matrix mit r < n. Wir suchen nach
einer zweiten nr-Matrix X der Eigenschaft

X'A=I, (25)

also nach einer Matrix, deren Transponierte X' eine "Linksinverse" von
A ist. Eine "Rechtsinverse" Y mit

AY' =1

kann es bei r < n nicht geben, da Y gleichfalls r Spalten haben muß,


also höchstens vom Range r sein kann, womit das links stehende Pro-
dukt nach § 7.3, Satz 8 den Rang r hätte, während die rechts stehende
n-reihige Einheitsmatrix vom Range n wäre. Für nichtquadratische
Matrizen kann es also nur eine Halbinverse, nämlich entweder Rechts-
oder Linksinverse geben, je nach dem die Matrix zeilen- oder spalten-
regulär ist. - Aus GI. (25) wird durch Transponieren A' X = I, also
aus der Linksinversen X' zur n r-Matrix A die Rechtsinverse X zur
rn-Matrix A'. Wir können uns somit auf die Betrachtung von nr-Ma-
trizen mit r < n und deren Linksinversen beschränken, da man andern-
falls durch Transponieren leicht auf diesen Fall zurückführen kann.
9.5. Halbinverse einer Rechteckrnatrix 113
Nun kann man schon aus den Erörterungen über Biorthogonalsysteme
vermuten, daß eine Linksinverse X' aus GI. (25) allein noch nicht ein-
deutig festgelegt ist. Dem ist in der Tat so. Nehmen wir eine zweite
Lösung Y' von GI. (25) an
Y'A=I, (25a)

so folgt durch Subtraktion der GIn. (25) und (25a) für die Differenz
Z=Y-X
(Y' - X') A = Z' A = 0 , A'Z=O. (26)
Für den Unterschied Z zweier Lösungen von GI. (25) gilt also das homo-
gene Gleichungssystem (26), das bei r < n stets nichttriviale Lösungen
besitzt.
Will man nun die der GI. (25) innewohnende Vieldeutigkeit beheben
und zu einer ganz bestimmten, wohldefinierten Linksinversen A' einer
spaltenregulären nr-Matrix A gelangen mit

(27)

so bietet sich dazu die nicht singuläre Matrix N = A' A an gemäß der
folgenden
Definition: Zur spaltenregulären nr-Matrix A vom Range r ;:?; n
definieren wir als Halbinverse (Linksinverse) die zeilenreguläre rn-Matrix

[~===~__ ~'J l
(28)

mit der nichtsingulären rr-Matrix

(29)

Es gilt dann ersichtlich die für die Inverse charakteristische Beziehung

r-f A= A' f= 11
i ___ __ __ _ __________ '
(30)

Für den Fall r = n der nicht singulären quadratischen Matrix A geht


die Halbinverse A' über in die Inverse A-l.
Die praktische Ermittlung von A' erfolgt laut Gl. (28) durch Auflösen
des Gleichungssystems

Zurmühl, Matrizen 4. Auf!. 8


114 § 9. Orthogonalsysteme

insbesondere nach dem verketteten Algorithmus, vgI. Abb.9.8. Nach


Aufspalten der Matrix N in untere und obere Dreiecksmatrix P und
Q nach N = P Q rechnet man wie üblich
PA' = il' , --+.:1' ,

Q A' = "1' , --+ A' .


Denn dann ist
NA' = P Q Ä' = P At = A' .
r n.
r N AI
r

r- AI
r-

1\
n A G
r

A
Abb.9.7. Linksinverse A' einer Abb.9.8. Schema zur Bestim- Abb.9.9. :>fatrix G ~ AA'
spaltenregulären n 1'-Matrix A A
mung der LinksinverseIl A
mit A' A ~ I zur Matrix A

Für die Matrix Agelten außer der Haupteigenschaft GI. (30) folgende

-,
Beziehungen:
-I~-A

.~A.~.~~i (32)

I/'-./'-.
! AA' = AN2 A'
(33)
! AÄ' =A N-2A'
Während A' A = A' A = I die r-reihige Einheitsmatrix ergibt, ist

G = AA' = A. A' = AN A' = A N-l A' ! (34)

eine n-reihige symmetrische Matrix (Abb. 9.9.) vom Range r der be-
merkenswerten Eigenschaft
G2= G: i3 5)
_____ i

also auch Gn = G. Dies folgt unmittelbar nach

G2 = A A' AA' = Ä I A' = A./1' = G.


Matrizen dieser Eigenschaft (35) werden idempotent genannt.
10.1. Parametermatrizen. Charakteristische Determinante und Rangabfall 115

Beispiel: Gesucht die Halbinverse Ä' zur Matrix

A = (-~ ~) 2 -3 .
-2 1

18 -9 I 1 -3 2 -2
-9 15 2 -3
-_._-----
18 -9 -3 2 -2

~
21 5 1
2 2
--
2
-2 o

11
-
12
-
1 7
63 63 63 63
5 4
1
21
-----
21 21
o

"', _ 1
A-- (11
63 15 -
-12
3 -12
t -7) .
0

*§ 10. Polynommatrizen und ganzzahlige Matrizen


10.1. Parametermatrizen. Charakteristische Determinante und Rangabfall
In zahlreichen Anwendungen, etwa bei Schwingungsaufgaben, linearen
Differentialgleichungssystemen und vor allem bei dem in Kap. IV und V
noch ausführlich zu erörternden Eigenwertproblem treten Matrizen auf.
deren Elemente von einem skalaren Parameter Ä. abhängen:
F = F(Ä.) = (Io,(Ä.)) , (1 )
und die wir daher Parametermatrizen nennen wollen. Die Matrix F sei
n-reihig quadratisch. Die Funktionen tik(Ä.) können dabei noch beliebig
sein, wenn wir für die Anwendungen auch fast immer mit Polynomen
zu tun haben und dann von Polynommatrizen sprechen werden. In der
Regel treten Parametermatrizen und speziell Polynommatrizen als
Koeffizientenmatrizen homogener linearer Gleichungssysteme auf,
F(A.) x = 0 , (2)
womit sich als Bedingung für das Vorhandensein nichttrivialer Lösungen
x =l= () die Gleichung

ergibt, die sogenannte charakteristische Gleichung des Systems GI. (2).


F(Ä.) ist die charakteristische Determinante. Sind tik(Ä.) allgemeine, z. B.
transzendente Funktionen von Ä., so ist auch F(Ä.) = 0 eine solche Glei-
chung. Im Falle von Polynommatrizen aber ist auch F()') ein Polynom
s*
116 § 10. Polynommatrizen und ganzzahlige Matrizen

in A von noch zu bestimmendem Grade. Im allgemeinen, nämlich wenn


GI. 0) nicht gerade identisch für feden A-Wert erfüllt ist, was auch ein-
treten kann (sogenannter singulärer Fall), ergeben sich als LÖ3ungen von
GI. (3) ganz bestimmte Wurzeln Al' }'2' ... , die charakteristischen Wur-
zeln oder Eigenwerte des Problems (2), das dann ein Eigenwertproblem
darstellt, freilich eines von allgemeinerer Art als das in den Kap. IV und
V zu behandelnde. Für diese Werte Ai und nur für sie hat dann das
System (2) nichttriviale Lösungen Xi' die wegen des homogenen
Charakters höchstens ihrem Verhältnis nach bestimmbar sind und dann
noch in passender \Veise normiert werden können, z. B. zu x' X = 1 für
reelle oderx* X = 1 für komplexe Lösungen x, wo wir wie üblich mit x* den
zu X konjugiert transponierten Vektor bezeichnen, der im reellen Falle
mit x' übereinstimmt.
Es sei nun A = .Ä.u eine solche Wurzel. Für die Bestimmung zugehöriger
Lösungsvektoren x" ist dann der Rangabfall, der Defekt da = n - ra
der Matrix F(Aa ) maßgebend. Denn die Anzahl linear unabhängiger
Lösungssysteme von (2) ist ja gerade gleich diesem Defekt, wobei
mit ra der Rang der Matrix F(A,,) bezeichnet wird. Nun ist die Deter-
minante F(A) eine (homogene) Funkti"on ihrer Elemente lik(A) :
F(A) = FUn, 112' ... , I nn ) = FUik) . (4)
Die partielle Ableitung dieser Funktion nach dem Element lik aber ist,
wie man aus dem Entwicklungssatz für Determinanten, z. B. in der
Form einer Zeilenentwicklung
F(}.) = li1 F il + 1'2 F i2 + ... + I,n F 1n

unmittelbar ersieht, gleich dem algebraischen Komplement F ik dieses


Elementes:

Damit aber erhält man aus GI. (4) als vollständiges Differential dF der
Funktion F(.Ä.) :
dF(A) = F l l (?,) d/l l (A) + F I2 (.Ä.) dldA) + ... + Fnn(.Ä.) dln,,(?,)
oder schließlich für die Ableitung nach dem Parameter .Ä.:
F'(A) = Fll(.Ä.) 1~I(A) + F I2 (.Ä.) 1~2(?') + ... + Fnn(.Ä.) l~n(.Ä.)= 1: F ik I:
i, k
k •

Die erste Ableitung F'(.Ä.) der Determinante F(A) nach A ist also eine
Linearkombination, eine homogen lineare Funktion der algebraischen
Komplemente oder, wie man auch sagt, der ersten Minoren (= Unter-
determinanten) der Determinante F(A). - Für die zweite Ableitung
erhält man durch Weiterdifferenzieren
F"(A) = 1: Fik(.Ä.) lik(.Ä.)
i, k
+
1: Fik(.Ä.) l~fk(.Ä.) •
i, k
10.2. Polynommatrizen und ganzzahlige Matrizen. Äquivalenz 117

Für die Komplemente F ik (die ersten Minoren) gilt nun bezüglich ihrer
Ableitungen das gleiche wie für F: es sind homogen lineare Funktionen
der ersten Minoren der F ik , also der zweiten Minoren (der (n - 2)-
reihigen Unterdeterminanten) von F. Die F ik selbst aber sind nach dem
Entwicklungssatz gleichfalls homogen lineare Funktionen der zweiten
Minoren von F. Insgesamt ist somit auch F"('A) eine solche Funktion
dieser zweiten Minoren. Indem wir diese Überlegungen fortsetzen, er-
halten wir als
Satz 1: Die p-te Ableitung F(P)('A) der Determinante F('A) einer Para-
metermatrix F('A) nach dem Parameter ist darstellbar als homogen lineare
Funktion der p-ten Minoren (der (n - p)-reihigen Unterdeterminanten)
von F('A).
Ist nun 'Aa eine Pa-fache Wurzel der charakteristischen Gleichung
F('A) = 0, d. h. aber verschwinden außer F('A) auch noch die Pa - 1
ersten Ableitungen, während FIP a) ('A) =f= °
ist für 'A = 'Aa, so können
wegen Satz 1 nicht alle Pa-ten Minoren von F('Aa ) verschwinden, d. h.
aber der Rangabfall da von F('Aa) kann höchstens gleich Pa sein:

(5)

Im Falle einer einfachen Wurzel 'Aa (Pa = 1) folgt damit wegen F('A) = 0
der Rangabfall genau zu da = Pa = 1. Im Falle mehrfacher Wurzeln
P > 1 aber läßt sich über d in dieser Allgemeinheit nicht mehr als die
Schranke (5) angeben, noch ergänzt durch d ~ n.

10.2. Polynommatrizen und ganzzahlige Matrizen. Äquivalenz


Für alles Folgende betrachten wir den weitaus wichtigsten Fall,
daß die Elemente fik('A) der Parametermatrix Polynome in 'A sind, wir es
also mit einer Polynommatrix F('A) zu tun haben. Wir lassen dabei zu-
nächst auch wieder nichtquadratische Matrizen zu, es sei F etwa eine
mn-Matrix. Ist q der höchste vorkommende Grad in 'A unter den m . n
Elementen fik(}')' so heißt die Matrix F vom Grade q. Sie läßt sich dann
in der Form schreiben
r-----··--·-·---------- ----
i!('A) = A o + AI'A ~~2~2 +~~q_~~1 (6)
mit mn-Matrizen A., deren Elemente a~1 nicht mehr vom Parameter A
abhängen, also konstant sind.
Nun lassen sich Polynommatrizen auf ganz ähnliche Weise, wie wir
es in § 7.2 und 7.4 für gewöhnliche Matrizen durchgeführt haben, durch
eine Reihe elementarer Umformungen auf eine Diagonalform, die Normal-
form bringen, jedoch mit wesentlichem Unterschied gegenüber früher.
Die in der Normalform auftretende r-reihige Diagonalmatrix nicht ver-
118 § 10. Polynommatrizen und ganzzahlige Matrizen

schwindender Elemente beim Range r der Ausgangsmatrix F kann


nämlich nicht mehr wie dort zur Einheitsmatrix gemacht werden, womit
nun außer dem Rang r, der dort einzige Invariante äquivalenter Matrizen
war, weitere charakteristische Daten als äquivalenzinvariant in die
Normalform eingehen. Das hat seinen Grund darin, daß bei Polynomen
die Division als allgemein zulässige Rechenoperation ausscheidet, da ja
Division zweier Polynome im allgemeinen, d. h. wenn nicht die beiden
gerade durcheinander ohne Rest teilbar sind, nicht wieder auf ein Poly-
nom, sondern eine gebrochen rationale Funktion führt. Man hat hier ge-
nau die gleichen Verhältnisse wie auch bei den ganzen Zahlen: auch dort
führt ja die Division im allgemeinen aus dem Bereiche der ganzen Zahlen
hinaus, es sei denn, die Zahlen sind ohne Rest teilbar. Bei Bereichen
dieser Art, bei denen innerhalb des Bereiches nur die drei ersten Grund-
rechnungsarten -Addition, Subtraktion und Multiplikation - nicht aber
Division ausnahmslos durchführbar sind, spricht man in der Algebra
allgemein von einem Ring. Polynome mit reellen oder komplexen Koef-
fizienten und die (positiven und negativen) ganzen Zahlen einschließ-
lich der Null stellen also je einen Ring dar. Beide verhalten sich daher
auch in wesentlichen Zügen gleich, und es ist darum zweckmäßig, die
weiteren Betrachtungen für Polynome und ganze Zahlen gleichzeitig
durchzuführen, außer Polynommatrizen also auch ganzzahlige lvI atrizen,
d. h. solche, deren Elemente aus ganzen Zahlen bestehen, mit zu behan-
deln. Wenn sich auch von den Anwendungen her das Hauptinteresse auf
die Polynommatrizen richten wird, so sind doch auch Fälle denkbar, in
denen ganzzahlige Matrizen für Anwendungen bedeutsam werden können.
Für das Rechnen mit Ringen, also etwa Polynomen und ganzen Zahlen,
ist der Begriff der Einheiten wichtig. Das sind solche Elemente c, für
die das reziproke Element l/e wieder zum Ring gehört. Für die ganzen
Zahlen sind es die beiden Zahlen ± 1, für die Polynome aber jede be-
liebige Konstante c =f= 0.
Unter einer elementaren Umformung einer Polynommatrix bzw. einer
ganzzahligen Matrix verstehen wir analog wie früher eine der drei folgen-
den Operationen:
1. Vertauschen zweier Zeilen oder Spalten.
H. Multiplizieren eines jeden Elementes einer Zeile oder Spalte mit
einer Einheit; im Falle einer Polynommatrix also mit einer Konstanten
c =f= 0, im Falle ganzzahliger Matrix mit ± 1, wobei praktisch nur
Multiplikation mit -1 als eigentliche Umformung in Betracht kommt.
IH. Addieren einer mit einem beliebigen Ringelement (einem Polynom
P(A) bzw. einer ganzen Zahl P) multiplizierten Zeile (Spalte) zu einer an-
deren Zeile (Spalte).
Polynommatrizen bzw. ganzzahlige Matrizen A, B, welche durch eine
endliche Anzahl elementarer Umformungen ineinander überführbar sind,
10.2. Polynommatrizen und ganzzahlige Matrizen. Äquivalenz 119

werden wieder äquivalent genannt, A ,......., B. Die Äquivalenzbeziehung ist


wie früher reflexiv (A ,......, A), symmetrisch (mit A ,....., B ist auch B ,-..; A)
und transitiv (aus A ,....., B, B ,...., C folgt 11,...., Cl.
Auch hier können, ähnlich wie in § 7.4, die drei Umformungen durch
Multiplikation mit entsprechenden nichtsingulären Matrizen herbei-
geführt werden. Es entsprechen einander:
Umformung 1: Die Matrix J ik , entstanden aus der Einheitsmatrix
I durch Vertauschen der beiden Zeilen i und k.
Umformung II: Die Matrix Ci' entstanden aus I durch Ersatz des
i-ten Diagonalelementes 1 durch eine Einheit, bei Polynommatrizen also
durch c =F' 0, bei ganzzahligen Matrizen durch -1 .
Umformung III: Die Matrix K ik , entstanden aus I durch Ersatz des
Elementes 0 auf dem Platz i, k (i =f: k) durch ein Polynom P(A) bzw.
durch eine ganze Zahl p.
Alle drei Matrizen sind wieder nichtsingulär. Wichtiger aber ist hier
eine zusätzliche Eigenschaft, nämlich daß ihre Determinante gleich einer
Einheit ist, d. h. im Falle der Polynommatrizen eine Konstante, im Falle
ganzzahliger Matrizen gleich ± 1. Die Matrizen sind, wie man sagt,
unimodular (ihr "Modul" = Determinante ist eine Einheit). Dann und
nur dann existiert nämlich eine im Ringbereich liegende Kehrmatrix,
also eine solche, die wiederum Polynommatrix bzw. ganzzahlige Matrix
ist. Man spricht daher hier auch von unimodularer Äquivalenz, eine offen-
bar ganz wesentliche Einschränkung gegenüber der früher betrachteten
allgemeinen Äquivalenz. Insgesamt folgt so ähnlich wie früher unter § 7.4
Satz 2: Zwei Polynommatrizen bzw. ganzzahlige Matrizen A und n
sind dann und nur dann ( unimodular) äquivalent, d. h. durch eine end-
liche Anzahl elementarer Umformungen ineinander überführbar, wenn es
zwei nichtsinguläre unimodulare Matrizen P und 0 gibt derart, daß

A = P -1 B 0-1 1. (7)

Für den wichtigen Sonderfall linearer Polynommatrizen aber gilt der


zuerst von WEIERSTRASS bewiesene l
Sa tz 3: Zwei quadratische Polynommatrizen ersten Grades in A
A(A) = Ao + Al}'
B(A) = B o + BIA
mit nichtsingulärem LI l , BI sind dann und nur dann äquivalent, wenn es
zwei nichtsinguläre Iwnstante, d. h. von A unabhängige Matrizen P, 0
gibt derart, daß Gl. (7) gilt.
1 \VEIERSTRASS, K.: M. Ber. preuß. Akad. \Viss. 1868, S. 310- 338.
120 § 10. Polynommatrizen und ganzzahlige Matrizen

10.3. Die Smithsche Normalform. Elementarpolynome


und Elementarteiler
Wenden wir uns nun der angekündigten Aufgabe zu, eine Polynom·
matrix (bzw. eine ganzzahlige Matrix, auf die sich im folgenden stets die
in Klammern hinzugesetzten Aussagen beziehen) auf eine äquivalente
Diagonalform zu überführen. Dazu verfahren wir folgendermaßen. Sind
in unserer Matrix, sagen wir A, die Elemente aik nicht alle von gleichem
Grade in A (von gleichem Betrage), so gibt es ein Element kleinsten
Grades (Betrages). Gibt es mehrere solche, so wählen wir ein beliebiges
davon aus. Einem Element 0 wird hierbei überhaupt kein Grad (kein
Betrag) zugeordnet, es zählt beim Gradvergleich (Betragsvergleich)
nicht mit.
Ist der kleinste vorkommende Grad Null (der kleinste Betrag 1), so
kann man sofort mit der gleich zu besprechenden Elimination beginnen.
Ist er aber höher als Null (größer als 1), so versucht man zunächst durch
Reihenkombination, also Umformung III ein Element kleineren Grades
(kleineren Betrages) als vorhanden herbeizuführen. Man führt dies so
lange fort, bis man ein Element kleinsten auf diese Weise überhaupt
möglichen Grades (Betrages) erzeugt hat und bringt dies Element dann
durch Reihenvertauschung in die linke obere Ecke. Die so umgebaute
Matrix sei B, das Element kleinsten Grades (Betrages) also bu(A)
bzw. bll .
Dann ist bl l in allen Elementen der ersten Zeile wie auch der ersten
Spalte als Faktor enthalten!. Wäre dies nämlich nicht so, gäbe es also
etwa ein Element blk der ersten Zeile, von dem bl l nicht Teiler wäre, so
könnte man schreiben
b1k = q bl l +h
mit einem Divisionsrest h von notwendig kleinerem Grade (Betrage) als
bll • Dann aber könnte man eben durch Addition der mit -q multipli-
zierten ersten Spalte zur k-ten Spalten deren erstes Element zu h machen,
also entgegen unserer Voraussetzung ein Element kleineren Grades
(Betrages) als bl l herbeiführen. Das gleiche gilt für die erste Spalte.
Damit aber lassen sich nun durch Umformungen III alle Elemente
der ersten Zeile wie Spalte zu Null machen bis auf bl l =1= 0, womit A = (a ik )
insgesamt übergegangen ist auf

r b~l1 ~2~
0 ... 0
....• ~2~
1

\0 Cm2 ••• Cmn

1 Bei ganzzahligen Matrizen ist klar, was mit Faktor oder Teiler gemeint ist.
Bei Polynommatrizen versteht sich ein Teiler stets bis auf Einheiten, also kon-
+
stante Faktoren. So ist z. B. 3A ein Teiler von 2 A oder von A2 2 A.
10.3. Die SMITHSche Normalform. Elementarpolynome und Elementarteiler 121

Hierin ist aber bn als Polynom kleinsten Grades (als ganze Zahl kleinsten
Betrages) zugleich auch Teiler aller noch übrigen Elemente Cik • Denn
andernfalls könnte man durch Reihenkombination Reste von noch
kleinerem Grade (Betrage) als bn gegen die Voraussetzung erzeugen.
Es kann sein, daß sämtliche Elemente Cik gleich Null sind (wenn näm-
lich unsere Ausgangsmatrix A den Rang 1 gehabt hat); dann hört unser
Vorgehen hiermit auf. Sind aber nicht alle Cik Null, so wiederholen wir das
beschriebene Verfahren an der restlichen (m-1, n-1)-Matrix der Cik ' und
da die Gesamtmatrix jetzt in der ersten Zeile und Spalte für i, k > 2
lauter Nullen enthält, so sind alle Umformungen an der Restmatrix
auch solche an der Gesamtmatrix. Man erhält so, wenn wir für C22 gleich
das Element kleinstmöglichen Grades (Betrages) annehmen, die Matrix
bn ° 0 ... 0 )

[ ° C22 0 ... ° I
~ ..0 . . d~3 .. : .. d~n.),
° °d m3 ••
worin C22 wiederum alle Elemente dik der Restmatrix teilt.
.dmn

In dieser Weise gelangt man zu einer Matrix, welche links oben als
Untermatrix eine Diagonalmatrix mit r von Null verschiedenen Elemen-
ten und im übrigen Nullen enthält, wenn die Ausgangsmatrix vom Range
rist, d. h. wenn nicht alle r-reihigen Unterdeterminanten von Aidentisch
in Averschwinden. Machen wir noch durch Umformungen II die Koeffi-
zienten der höchsten A-Potenz in jedem Diagonalglied zu 1 (bzw. bei ganz-
zahliger Matrix das Vorzeichen aller Diagonalelemente positiv), so er-
halten wir aus der Polynommatrix (der ganzzahligen Matrix) A in ganz
eindeutiger Weise eine Matrix der Form

[
Ei
• I
)
N

:J
= E I (8)
r ,
\- -0 --

die sogenannte Smithsche Normal/arm. Für den besonders wichtigen Fall


einer quadratischen nichtsingulären Matrix A, was im Falle der Poly-
nommatrix nicht identisches Verschwinden von det A für ieden A-\Vert
bedeutet, wird r = n und die Normalform wird zur Diagonalmatrix
I--~-O-·--_·_--'

I N = ( '... ) ~ Diag (E,) I· (9)


1

. ° En I
122 § 10. Polynommatrizen und ganzzahlige Matrizen

Eine Polynommatrix ist sicher dann nichtsingulär, wenn die Koeffi-


zientenmatrix der höchstenA-Potenz nichtsingulär ist, in der Bezeichnung
von GI. (6) also det A q =l= o. Die Polynommatrix wird dann eigentlich
vom Grade q genannt. - Es kann sein, daß das erste Element bll klein-
sten Grades (kleinsten Betrages) eine Einheit ist, im Falle der Polynom-
matrix also eine Konstante, im Falle ganzzahliger Matrix ± 1. Dann
wird EI = 1. Dies kann sich einige Male wiederholen, bis das erste von
1 verschiedene Element E v erscheint.
Da bei den elementaren Umformungen sich die Determinante det /1
höchstens um Einheiten ändert, so ist sie, wie aus der Normalform (9)
unmittelbar abzulesen, bis auf Einheiten (d. h. also bis auf konstanten
Faktor bzw. bis auf das Vorzeichen) gleich dem Produkt der E v :

ld;~~-=-~I~E~~.-~ ~:J . (10)


Die für die Matrix charakteristischen Polynome bzw. Zahlen E v , die
gegenüber unimodularer Äquivalenz invariant sind, werden daher die
invarianten Faktoren der Polynommatrix bzw. ganzzahligen Matrix ge-
nannt. Auch die Bezeichnung zusammengesetzte Elementarteiler ist ge-
bräuchlich, die wir hier jedoch, da sie zu Verwechslungen mit den sogleich
anzugebenden eigentlichen WEIERSTRASsschen Elementarteilern führen
kann, lieber nicht verwenden wollen. Dagegen wollen wir die E v im Falle
der Polynommatrix die Elementarpolynome der Matrix nennen. Es folgt
für sie aus der Herleitung der Normalform, daß EI ein Teiler von E 2 , E 2
wieder ein Teiler von E a ist usf. Allgemein schreibt man für eine ganze
Zahl b, die Teiler einer zweiten Zahl a ist, bla (in Worten: b ist Teiler von
a oder b teilt a). So können wir schreiben:

i EI I E 2 I .•• I E n ! , (11)
I

wobei einige der E v auch untereinander gleich und die ersten insbeson-
dere auch gleich 1 sein können. Wir können zusammenfassen zu
Satz 4: Zwei Polynommatrizen bzw. zwei ganzzahlige Matrizen A und
B sind dann und nur dann unimodular äquivalent, wenn sie in ihren
Elementarpolynomen (ihren invarianten Faktoren) E v übereinstimmen.
Im Falle einer nichtsingulären Polynommatrix A(A) ergibt die charak-
teristische Gleichung
det A(A) = 0 (12)
die (s verschiedenen) charakteristischen Wurzeln Aa • Sind diese von der
jeweiligen Vielfachheit Pa, so ist die charakteristische Determinante zer-
legbar in der Form
10.3. Die SMITHSche Normalform. Elementarpolynome und Elementarteiler 123

Da nun die E v Faktoren von det A sind, so sind auch sie zerlegbar in der
Form
(14)

mit Exponenten eva, von denen einige auch Null werden können, wenn
nämlich das Elementarpolynom den Faktor (A - Aa ) nicht enthält. Die
Bestandteile
(15)

aber werden nach WEIERSTRASS die Elementarteiler der Matrix genannt!.


Wegen der Teilbarkeitseigenschaft GI. (11) ergibt sich für die Elementar-
teilerexponenten

(16)

Diese Exponenten bilden also, beginnend mit dem höchsten Exponenten


ena =l= 0, eine absteigende oder doch wenigstens nicht aufsteigende Folge,
die u. U. mit 0 abbrechen kann. Wegen GIn. (10), (13) und (14) ist ihre
Summe gerade gleich der zu Aa gehörigen Vielfachheit Pa:

(17)

woraus eben auch ena =l= 0 folgt.


Im Falle ganzzahliger Matrix A treten an die Stelle der Elementar-
teiler (1 5) Primzahlpotenzen

die natürlich auch wieder Elementarteiler heißen. Die invarianten


Faktoren E, lauten dann
(14a)
und die Gesamtdeterminante erscheint aufgespalten m Potenzen von
Primzahlfaktoren n a
(13 a)
\VO Gleichheit wieder nur bis auf Einheiten, d. h. hier bis auf das Vor-
zeichen gilt (~). Abgesehen hiervon und von der Reihenfolge der Fak-
toren ist die Aufspaltung eindeutig.
Wir kommen auf die die Polynommatrix betreffenden Aussagen später
im V. Kap., § 18, ausführlich zurück, wo sie dazu verhelfen werden, die
Frage nach der Struktur und Klassifikation einer Matrix entscheidend

1 WEIERSTRASS, K.: M. Ber. preuß. Akad. Wiss. 1868, S. 310-338.


124 § 10. Polynommatrizen und ganzzahlige Matrizen

zu klären. - Hier erläutern wir das bisherige an zwei Beispielen einer


Polynom- und einer ganzzahligen Matrix.
1. Beispiel : Polynommatrix.

A ~ (~. , ;
o
- 1 . zweite + dritte Zeile. 2 . zweite Spalte + ).2 • erste Spalte
dritte Spalte - (). - 2) . erste Spalte
o ) ().2_). ).4_).3+2). _).3+ 3 ).2_ 2 ).)
2).-4 '"""' ~ 0 0
3). ). ).3 _).2 + 5).
).4_).3+2). _).3+ 3 ).2_ 2 ).)
(
~

'"""' ~I 0 0
\ 0 ).3 _).2 + 5).
erste Zeile - (). - 1) • zweite Zeile
).4 _).3 + 2). _).3 + 3).2 -2 ).) '"""' ( 12). 1 ). (3). - 3)) '"""'
(
).3 _).2 5). + ) . 3 ) . (). - 5)

- 2· zweite Zeile + ).2 • erste Zeile

Damit lautet die Normalform nach Normierung:

N=(~~ ~
o 0 ).(3).3_3).2_"2).+ 10)
)
Die Elementarpolynome sind
E l = 1, E 2 = )., E 3 =). (3).3 - 3).2 - 2). + 10) .

2. Beispiel: Ganzzahlige Matrix.

A =
10
( 80
-12
50
- 4) (10
-40 '"""' 80 -130
2
4~) -(73~ -130
~l 0)
30900
40 - 4 -18 40 - 36 18 220 - 36

(
730
220
30) _ (10
90 40
30) '"""'
90
(I~OJ
40
0)
30
Also Normalform:
o
10 ~) .
o 30
Invariante Faktoren: E l = 2, E 2 = 10 = 2·5, E 3 = 30 = 2· 5·3
Gesamtdeterminante bis auf das Vorzeichen:
det A = 2 . 10 . 30 = 600 = 23 • 52 . 3 .
II!. Kap i tel

Quadratische Formen nebst Anwendungen


§ 11. Quadratische Formen
Darstellung quadratischer und bilinearer Formen

I
11.1.
Unter einer reellen quadratischen Form in n reellen Veränderlichen
Xl' X 2 , ••• , x n versteht man einen in den Xi homogenen Ausdruck zweiten
Grades mit reellen Koeffizienten aik :
Q= an x~ +2a l2 Xl X 2 + ... + 2 al n Xl X n
+ a 22 X~ + ... + 2 a 2n X2 X n
( 1 /)
+ ......... .
+ an .. X~.
Setzen wir überdies a ik = aki , so läßt sich dies so schreiben:
Q= Xl (an Xl + a l2 x + . . . + a n x n)
2 l }
+ x (a Xl + a + ... + a
2 21 22 X 2 2n X n ) •
mit aik = aki (1")
+ .................. . •

+ (an I Xl + a + ... + a x
Xn n2 X 2 nn n)

Hier aber steht rechts das skalare Produkt r-

des Vektors x' = (Xl> X 2' ••• ,xn ) mit dem trans-
formierten Vektor y = A x der Komponenten nx
Yi = ail Xl + ai2 X 2 + ... + a in X n ' n
womit wir für Q endgültig kurz schreiben
können
I-~--- -'', n A
"-
Q
! = x' A x' mit A' = A . (1)
_____ J
I_~

Die symmetrische Matrix A = (a ik ) wird Xi - Q=xl4x


Matrix der Form genannt, sie legt die Form, Abb, 11.1. Multiplikationsschema zur
quadratischen Form Q = x' A aJ
d. i. die quadratische Funktion der n Vari-
ablen Xi eindeutig fest. Denken wir uns für
die Xi Zahlenwerte gesetzt, so ergibt Q eine Zahl. Die Form Q ist also
eine skalare Größe, was wir übrigens auch dem der GI. (1) zugeordneten
Multiplikationsschema der Abb. 11.1 entnehmen können.
Quadratische Formen treten in den Anwendungen vielfach als Energie-
ausdrücke auf, z. B. als kinetische und potentielle Energie mechanischer
126 § 11. Quadratische Formen

elastischer Systeme, als Formänderungsarbeit in der Baustatik, als


magnetische oder elektrische Energie in der Elektrotechnik. In der
Mathematik begegnen uns Ausdrücke Q = konst. als Mittelpunkts-
gleichung von Kegelschnitten und Flächen zweiten Grades (n = 2 und 3),
und auch im Falle allgemeiner Dimension n deuten wir daher Q =
konst. ab Gleichung einer Fläche 2. Grades im R".

I
Neben quadratischen treten sogenannte bilineare Formen auf, d. s.
gekoppelt lineare Ausdrücke in zwei Variablensystemen
x = {Xl' X 2, . . . ,X,,} und y = {YI' Y2' . . . ,y",}, Ausdrücke der Form

P = an YI Xl + ~2 YI X2 + ... ..L aln YI X"


+ a 21 Y2 Xl + a22 Y2 X 2 + ... + a 2n Y2 xn (2')

! ~~l ~~ ~l·~ ~m·2 ~~;2 ~.... :~ ·a~~ ;m ·x~ ,

wofür wir wie oben kurz schreiben können

(2)

mit einer jetzt weder notwendig symmetrischen noch auch nur quadra-
tischen mn-Matrix A = (a ik ), deren Elemente wir nur wieder als reell
annehmen wollen. Auch P ist ein Skalar, was man sich auch wieder
anschaulich ähnlich wie in Abb. 11.1 klar machen kann, und es ist
daher gleich dem transponierten Ausdruck:

:P = y' A x = x' A' Y (2a)


,
-- ---- - --- --_., -- - ----- -

Auch bei quadratischem A sind P = y' A x und p* = x' A y = y' A' x


im allgemeinen verschieden, nämlich abgesehen von symmetrischem A.
Beispiel:

A=(_; :), P = y' A x = 2 YI Xl + YI X 2 - 3 Y2


p* = x' A y = 2 YI Xl - 3 YI X 2 + Y2
Xl + 4 Y2 X 2 ,
Xl + 4 Y2 X 2 .

Von der quadratischen Form Q als Funktion in n Variablen Xi oder


der bilinearen P als Funktion der n m Variablen Xi' Yi hat man+
vielfach die partiellen Ableitungen nach den Variablen zu bilden. Dies
gelingt mit Hilfe des Matrizenkalküls leicht unter Beachten von

(?)
( 1. J'
~\
~a: =
OXi
ei =

i3~
0Yi
= ei = l1.J (i-ter Einheitsvektor) .
.
o 0
11.2. Positiv definite quadratische Formen 127

Differenzieren wir in Q = x' A x zuerst nach dem linken F ak tor x', so-
dann nach dem rechten x, so erhalten wir
oQ 'A
--=Ci x+x'A C.=2ei'A x,
oXi '

wo der letzte Ausdruck durch Transponieren der Bilinearform x' A ei


= e; A' x = e; A x wegen A' = A folgt. Das Produkt e; A x aber ist
offenbar die i-te Komponente des Vektors A x. Fassen wir nun die
nAbleitungen CJQ/CJxi zu einem Vektor zusammen, für den wir sinnfällig
CJQ/CJx schreiben wollen, so erhalten wir als Differenzierregel der quadra-
tischen Form Q = x' A x

l~~~ 2A~J (3 )

Auf die gleiche Weise erhalten wir für die beiden Vektoren der Ab-
leitungen einer Bilinearform P = y' A x = x' A' y nach Xi bzw. Yi die
Ausdrücke
oP = A'y (4a)
OX '
oP
-=Ax (4b)
oy

Positiv definite quadratische Formen


11.2.

In den Anwendungen spielen eine wichtige Rolle solche quadratische


Formen, die ihrer physikalischen Natur nach nur positiv oder allenfalls
Null sein können, welche - reellen - Werte die Variablen Xi auch
immer annehmen:
Q= x' A x :::::: 0 für jedes x . (5)
Derartige Formen heißen positiv definit, und zwar eigentlich definit,
falls Q = 0 für nur x = 0, also Xl = X 2 = ... = X" = 0 möglich ist,
hingegen positiv semidefinit, wenn es Werte x =1= 0 gibt, für die Q = 0
wird. Z. B. ist der Ausdruck der kinetischen Energie eines Massen-
systems stets eigentlich positiv definit mit Geschwindigkeitskompo-
nenten Xi als Variablen. Die potentielle Energie eines federgefesselten
mechanischen Systems kann auch semidefinit sein, sofern gewisse Fes-
selungen fehlen, also auch Auslenkungen Xi mit potentieller Energie
Null vorkommen können. - Mit der Form wird auch ihre Matrix A
definit genannt. Sie hat dazu ganz bestimmte Bedingungen zu erfüllen,
mit denen wir uns noch beschäftigen werden. Zunächst aber gilt
Sa tz 1: Ist die Matrix A einer positiv definiten Form Q > 0 singulär,
so ist die Form semidefinit. Mit anderen Worten: Ist Q eigentlich definit.
so ist ihre Matrix A nichtsingulär.
128 § 11. Quadratische Formen

Bei singulärem A hat nämlich das homogene Gleichungssystem


Ax = 01 Xl + 02 X 2 + ... + On X n = 0

nichttriviale Lösungen Xi entsprechend der linearen Abhängigkeit der


Spalten 0k von 11. Es gibt also Wertesätze x =1= 0 mit Q = x' A x = 0.
- Wie wir erst etwas später zeigen, S. 130, gilt auch die Umkehrung:
TV S atz 2: Ist die 111atrix A einer positiv defi-
niten Form nichtsingulär, so ist die Form eigent-
m A
lich definit, Q > für x =1= o. °
Die beiden Vektoren x und y = .-1;1: können
m also bei positiv definiter 111atrix A nie ortho-
gonal sein.
TV
AI AJ1 Eine besondere Rolle spielen nun Formen mit
einer Matrix
Ahb.11.2. Die ~Iatrix A' A
ß= A'A (6)

bei beliebiger reeller mn-Matrix A. Die Matrix B ist zunächst n-reihig


quadratisch, vgl. Abb. 11.2. Sie ist ferner symmetrisch:
B' = (.tl' A)' = A' A = B .
Schließlich aber ist sie auch positiv (semi-)definit. Denn mit A;r = y
erhalten wir
Q = x' ß x = x' A' A x = y' y = Yi + y~ + ... + y;" ,
und das ist offenbar stets;:;; 0. Das Gleichheitszeichen aber steht hier
nur für den Fall
y = A x = 01 Xl + 02 X 2 + ... + U n Xn = 0 ,

und das ist mit x =1= 0 nur möglich, wenn die Spalten a k von A linear
abhängig sind:
S atz 3: Die symmetrische 111atrix B = A' 11 mit reeller mn-1I1 atrix A
ist positiv semidefinit oder eigentlich definit, je nachdem die Spalten a k
von A linear abhängig sind oder nicht. B ist regulär, falls Aspaltenregulär.
Weiter aber gilt dann
S atz 4: Die symmetrisch definiten 111atrizen A' A und "4 A' haben den
gleichen Rang wie die mn-1I1 atrix A.
Dieser Rang kann also nie größer sein als die kleinere der bei den Zah-
len moder n. - Hat nämlich A den Rang r, so gibt es genau r linear
unabhängige Spalten u k ' während r + 1 Spalten stets abhängig sind.
Denkt man sich die r unabhängigen Spalten zur Untermatrix Al zu-
sammengefaßt, während die übrigen Spalten A 2 bilden, .-1 = ("4 v .11 2 ),
so enthält A' A die nichtsinguläre Untermatrix A~ il v womit der Rang
von ll' A nicht kleiner als r sein kann. Er kann aber auch nicht größer
11.2. Positiv definite quadratische Formen 129

sein, da das Produkt A' 11 eine Linearkombination der Zeilen a i von A


darstellt, unter denen sich gleichfalls gerade r linear unabhängige be-
finden, und da eine solche Linearkombination die Zahl der linear un-
abhängigen Zeilen nicht erhöhen kann.
Entsprechendes gilt für A A'. - Eine Verallgemeinerung gibt
S atz 5: Ist A eine n p-M atrix vom Range rund n eine symmetrisch
positiv definite (nichtsinguläre ) nn-Matrix, so ist auch die p p-Matrix A' ß A
positiv (semi)-definit vom Range r.
Denken wir uns nämlich das positiv definite ß nach dem CHOLESKY-
Verfahren zerlegt in ß = R' R mit nichtsingulärem R, so wird A' ß A
= ;1' R' RA = C' C mit R L1 = C, was wegen nichtsingulärem R den
gleichen Rang wie .1 hat, womit die Aussage aus Satz 4 folgt.
Wir bezeichnen nun wieder mit A die symmetrische Formmatrix und
fragen nach den Bedingungen dafür, daß A positiv (semi-)definit sei.
Notwendig, jedoch nicht hinreichend für eigentliche Definitheit sind
durchweg positive Diagonalelemente

'aii> 0 für alle i. (7)

Denn setzt man alle Variablen x k = 0 bis auf eine einzige Xi 0, so *


wird Q = aii x7, und das kann für reelles Xi nur dann positiv sein,
wenn aii > O. Doch reicht das natürlich nicht aus, wie das Gegen-
beispiel

.1 = G;) , also Q = xi + 4 Xl x 2 + 3 x~
zeigt, wo Q für Xl = 2, x 2 =-1 den negativen Wert Q=4-8+ 3 =-1
annimmt. Ein sowohl notwendiges als auch hinreichendes Kriterium
für positive Definitheit aber läßt sich aus der Dreieckszerlegung A = C n
der Formmatrix .1 gewinnen, die sich, wie wir schon in § 6.3 zeigten,
auf die symmetrische Form
A = R' R mit R = n~1/2 B, D = Diag(bJ ,
das ist die Form der CHOLEsKY-Zerlegung, bringen läßt. Damit wird
Q = x' A x = x' R' R x = z' z = z~ + z~ + ... + z!
mit z = Rx, und dies ist genau dann> 0 für x 0, wenn z 0 und * *
reell ist. Das aber ist wiederum gen au dann der Fall, wenn die Drei-
ecksmatrix R nichtsingulär und reell ist, was zutrifft, wenn

=-- oi__
I

.b > für alle i. (8)


! ~t I
Es gilt also
Satz 6: Eine reell symmetrische Matrix A ist dann und nur dann
eigentlich positiv definit, wenn ihre Dreieckszerlegung A = C n mit Cii = 1
Zurmühl, Matrizen 4. Aufl. 9
130 § 11. Quadratische Formen

auf lauter positive Diagonalelemente bii > 0 führt. Sie ist semidefinit
vom Range r, wenn - gegebenenfalls nach Reihenvertauschung - die r
ersten der bii positiv, die n - r = d restlichen aber Null werden. - Die
Zahl d heißt Defekt der quadratischen Form.
Aus der Dreieckszerlegung folgt dann übrigens auch Satz 2, da bei
nichtsingulärem A auch B und damit R nichtsingulär wird, so daß
z = R x 9= 0 für x 9= 0, also Q > O.
Die Produkte der bii ergeben die sogenannten Hauptabschnitts-
determinanten von n, und da sich diese bei den Umformungen des
Eliminationsvorganges nicht ändern, so sind es auch die von A:
. an a12 al3
bu b22 b33 = :a21 a22 a23
.a31 a32 aa3
Die Bedingung (8) für positive Definitheit läßt sich daher auch dahin-
gehend formulieren, daß durchweg positive Hauptabschnittsdetermi-
nanten von ft notwendig und hinreichend für eigentliche Dcfinitheit
sind, während bei Semidefinitheit - gegebenenfalls nach Umordnung -
die r ersten positiv und die restlichen Null sind. Das praktische Kri-
terium dafür ist freilich stets bi i > O.

11.3. Transformation quadratischer Formen. Kongruenz


Unterwirft man die Variablen Xi der quadratischen Form Q = ;1;' iI;x~
einer nichtsingulären Transformation
x=Cy, (9)
so geht Q über in
Q = y' C' A C Y = y' B Y , (10)
die Formmatrix A transformiert sich also in

(11 )

Zwei quadratische Matrizen ..4, B, die in dieser Weise mit reellem nicht-
singulärem C zusammenhängen, werden, wie wir schon in § 5.6 ange-
führt haben, kongruent genannt, und man schreibt auch

(12)

Die Kongruenz ist offenbar ein Sonderfall der Äquivalenz n = P A Q


mit nichtsingulärem P, Q, und zwar in der Weise, daß alle Umfor-
mungen, welche die Rechtsmultiplikation von ..4 mit C in bezug auf
die Spalten von A bewirkt, durch anschließende Linksmultiplikation
11.3. Transformation quadratischer Formen. Kongruenz '131

mit C' auch auf die Zeilen ausgedehnt werden, ein Prozeß, bei dem die
Symmetrie einer Matrix gewahrt bleibt, wie formal auch aus GI. (11)
folgt: mit A = A' ist auch n = B'. Kongruenz wird daher in der
Regel auch nur für (reelle) symmetrische Matrizen in Betracht gezogen.
Zwei Matrizen LI, n sind kongruent, wenn die eine in die andere durch
eine endliche Anzahl elementarer Umformungen überführbar ist mit
der besonderen Maßgabe, daß jede Umformung in gleicher Weise auf
Zeilen und Spalten vorgenommen wird.
Wir können weiter, ähnlich wie in § 7, eine symmetrische Matrix A
durch Anwendung solcher Umformungen auf eine Normal/arm bringen,
wobei sich nun jedoch außer dem Rang noch eine weitere Zahl, der
Index oder die Signatur der reell symmetrischen Matrix als wesentlich
erweisen wird. Zunächst können wir die Matrix vom Range r durch
elementare Umformungen in Zeilen und Spalten auf eine Diagonal/arm
mit r von Null verschiedenen Diagonalelementen bringen, von denen
im allgemeinen einige positiv, andere negativ sein werden. Es seien
etwa p positive und q = r - p negative Elemente, die wir durch Reihen-
vertauschung jeweils zusammenfassen können, während d = n - r der
Elemente Null werden. Damit läßt sich die Diagonalform folgender-
maßen schreiben:

D=

~o o
mit reellen und z. B. positiven Größen di > O. Durch anschließende
Kongruenztransformation mit der Diagonalmatrix
o
1/d,
Co = C~ =
1

o 1
lassen sich nun noch die Beträge der von Null verschiedenen Elemente
von D zu 1 machen. Nicht aber lassen sich auf diese Weise mit reeller
Transformation C die Vorzeichen der Diagonalelemente beeinflussen.
Diese erweisen sich also gegenüber einer reellen Kongruenztransformation
132 § 11. Quadratische Formen

als invariant. Wir erhalten somit als endgültige Normalform der qua-
dratischen Form

(13 )
Außer dem Rang r ist damit die Anzahl p der positiven Elemente in
der Diagonalform, der sogenannte Index oder Trägheitsindex der Form
eine für die quadratische Form kennzeichnende, gegenüber reellen
Variablentransformationen invariante Größe. Dies ist der Inhalt des
sogenannten Trägheitsgesetzes von SYLVESTER:
S atz 7: Trägheitsgesetz. Auf welche Weise auch immer eine reelle
quadratische Form vom Range r durch eine reelle nichtsinguläre Trans-
formation in die Normalform GI. (13) überführt wird, stets ist neben der
Rangzahl r die Anzahl p der positiven Glieder (der Trägheitsindex der
Form) und damit auch die Anzahl q = r - p der negativen unveränderlich.
Anschaulich bedeutet dies z. B. für n = 2, daß ein Kegelschnitt Q= konst.
durch reelle Koordinatentransformation stets in einen solchen der gleichen
Art, eine Ellipse in eine Ellipse, eine Hyperbel in eine Hyperbel, eine
Parabel in eine Parabel überführt wird.
Zum Beweis des Satzes haben wir zu zeigen, daß bei Transformation der Matrix
.4 auf zwei verschiedene Diagonalformen mit Diagonalelementen bi bzw. Ci die
Anzahl der positiven Diagonalelemente beide Male die gleiche ist. Die erste Trans-
formation
x = B Y bzw. 11 = B x mit B = (ß,k) = /l-l
führe auf
Q= 2: b; YT = 2: b i (ßi1 Xl + ... + ßin x n )2
i= 1 i= 1
mit PI positiven und ql = r - PI negativen 'Werten bio Eine zweite
x = C z bzw. Z = rx mit r = (Yik) = C-I
führe auf r r
Q = 2:
i=l
ci z; = i =2:l Ci (;'i1 + ... +;'in X,,)2
Xl

mit P2 positiven und q2 = r - P2 negativen Werten ci ' womit

2: b;(ßi1 X1 + ... + ßin x n)2 = 2: C;(Yi1XI + ... + )'in x ,,)2. (14)


i=1 i=l

Es sei nun PI> P2' also r - PI +


P2 < r. Nun setzen wir in GI. (14) für die
Variablen Xl' ... , X n reelle Zahlenwerte ein, die nicht sämtlich verschwinden, aber
so beschaffen sind, daß die r - PI Klammergrößen links, die zu negativen b; ge-
hören, und ebenso die P2 Klammergrößen lechts, die zu positiven ci gehören, ver-
schwinden:
ßpl + 1, 1 Xl + ... + Pp, + 1, n xn = 0

pr1 Xl + + ßrn Xn = 0
Yll Xl + .. + Yl n Xn = 0

Y p" 1 Xl + .. + Yf',,"K n
=0
11.4. Hermitesche Formen 133
Das sind nach unserer Annahme r - PI + P2 < r ;::;; ~ homogene Gleichungen
für die gesuchten n Unbekannten xi, und diese Gleichungen haben stets nicht
sämtlich verschwindende Lösungen xi' Mit ihnen wird in GI. (14) die linke Seite
:2: 0, die rechte aber;::;; O. Wegen Gleichheit aber müssen beide Seiten = 0 sein,
womit 11 = z = 0, also auch x = 0 folgt entgegen unserer Voraussetzung. Damit
hat die Annahme PI > P2 auf einen Widerspruch geführt, und es folgt PI = P2 = P,
womit der Satz bewiesen ist.
p
Anstelle von Index und der Zahl q = r - p sind auch zwei andere
Werte gebräuchlich, nämlich außer ihrer Summe als dem Rang noch
ihre Differenz, die sogenannte Signatur der Form:
r = p +
q Rang
s = p - q Signatur.
Beide sind wie p und q Invarianten der quadratischen Form, und es
gilt der leicht zu beweisende
Satz 8: Zwei reelle symmetrische Matrizen A und B sind dann und
nur dann I~ongruent,
B Q A, d. h. B = C' A C
mit reeller nichtsingulärer Transformationsmatrix C, wenn sie außer im

°°
Rang noch in ihrem Index bzw. ihrer Signatur übereinstimmen.
Für r = s = p, q = kann die Form Q bei reellen Xi keine negativen,
für r = - s = q, p = kann sie keine positiven Werte annehmen.
Im ersten Falle ist die Form also positiv (semi)-definit, im zweiten heißt
sie negativ (semi)-definit, und zwar eigentlich definit für r = n, d = 0,
hingegen semidefinit für r < n. Negativ definite Formen gehen aus
positiv definiten durch bloße Vorzeichenumkehr hervor, weshalb wir
uns auf die - ohnehin praktisch allein bedeutsamen - positiv definiten
beschränken dürfen.
11.4. Hermitesche Formen
Die komplexe Verallgemeinerung quadratischer Formen sind die so-
genannten hermiteschen Formen

~= x* Axl (15)
mit einer hermiteschen Matrix A = A * von symmetrischem Real- und
antimetrischem Imaginärteil, wo wir die heute übliche Abkürzung
x' = x*, A' = A * verwenden, vgl. § 4.2. Diese Form stellt nun genau
wie die gewöhnliche reelle quadratische Form einen reellen Zahlenwert
dar. Denn es ist
H* = (x' A x)' = (x' A x)' = x' A' x = x' ~4 x = H .
Ausführlich erhalten wir mit den Real- und Imaginärteilen von Matrix
und Vektor:
x* A x = (u' - i v') (B + i C) (u + i v)
= u ' B u + v' B v + v' C u - u ' C V
+ i (u' B v - v' B u + u ' C u + v' C v)
1)4 § 11. Quadratische Formen

Hierin aber ist wegen


B'=B, C'=-C
11,' Bv = ViRu
11,' Cv = - V i Cu

11,' C u = Vi C V = 0.
Damit verschwindet der Imaginärteil von H, und es bleibt
,---- -- - --- - -
I
H = x' A x = 11,' B 11, + Vi B l' - 2 11,' C V !. (16)

Genau so zeigt man übrigens, daß die schiefhermitesche FormK = x* A x


mit der schiefhermiteschen Matrix .11 = - A * rein imaginär ist, und
zwar
K = x* ..:1 x = i (11,' C 11, Vi C V 2 u ' B v) . (17) + +
Geht man durch eine nichtsinguläre, jetzt aber im allgemeinen kom-
plexe Transformation
(18)
auf neue Variable Yj über, so transformiert sich die Formmatrix A dpr
Form H = x* A x gemäß H = y* C* A C Y = y* By auf die neue wieder-
um hermitesche Matrix

I B = C*A C (19)

Quadratische Matrizen, die in dieser Weise verknüpft sind, heißen


hermitisch kongruent oder auch konjunktiv, in Zeichen

1
.I
H
f'"ooJ
I">J !, (20)

wobei es sich in der I~egel um hermitesche Matrizen A, B handeln wird.


Ist insbesondere C unitär, C* C = I, so sind A und B unitär konjunktiv
und damit zugleich auch ähnlich, so wie orthogonal kongruente reelle
Matrizen einander ähnlich sind.
Eine hermitesche Ma trix A läßt sich nun wieder durch hermitesche
Kongruenztransformation Gl. (19) auf Diagonalform überführen, die ent-
sprechend der Definition hermiteschcr Matrizen (symmetrischer Real-
teil!) reell ist. Dabei gilt dann wieder
Satz 9: Trägheitsgesetz. Auf welche Weise auch immer eine lzermi-
tesche lvI atrix vom Range r durch nichtsinguläre komplexe Transjormation
Gl. (18) auj Diagonaljorm gebracht wird, stets ist die Anzahl p der positiven
Diagonalelemente (der Trägheitsindex) und damit die Anzahl q = r - p
der negativen unveränderlich. Anders ausgedrückt: Rang r = p q und +
Signatur s = p - q einer hermiteschen Matrix sind gegenüber hermitescher
Kongruenztransjormation invariant.
11.5. Geometrische Deutung 135

Insbesondere läßt sich auf diese Weise die - bis auf die Reihenfolge -
eindeutig festliegende Normalform
N=Diag{1, ... , 1, -1, ... ,-1, O ... ,O} (21)
. r+s
herstellen mit p =-2- Elementen + 1 und q = r-s
-2- Elementen-1-
Daraus folgt dann auch
Satz 10: Zwei hermitesche Matrizen A und B sind dann und nur
dann hermitisch kongruent, A!! B, wenn sie in Rang r und Signatur s
übereinstimmen.
Wieder nennt man die Form positiv definit bzw. semidefinit, wenn
die zugehörige Form H nur positive bzw. nicht negative Werte an-
nehmen kann für beliebige (komplexe), aber nicht sämtlich verschwin-
dende Variablenwerte xi'
Eine positiv definite hermitesche Matrix A läßt sich hiernach stets
darstellen in der Form
t22)

mit nichtsingulärem komplexen C, was ja einer Kongruenztransformation


auf die hierfür geltende Normalform N = 1 entspricht. Eine positiv
semidefinite nn-Matrix A vom Range r läßt sich in der Form GI. (22)
darstellen mit einer rn-Matrix C vom Range r, wie später (§ 15.4) ge-
zeigt wird. Ist A reell, also symmetrisch, so ist C reell und in GI. (22)
geht C* über in C'.

11.5. Geometrische Deutung


Im dreidimensionalen Raum stellt die Gleichung

~ x' Ax·- konst.) (23)

bekanntlich die Mittelpunktsgleichung einer Fläche 2. Grades dar. Auch


im allgemeinen n-dimensionalen Falle sprechen wir daher bei GI. (23)
von einer Fläche zweiten Grades im Rn' Neben dem Ortsvektor x kommt
nun hier auch dem mit A transformierten Vektor A x = y eine .an-
schauliche Bedeutung zu. Schreiben wir nämlich das Differential der
Funktion Q der n Variablen Xi
8Q iJQ oQ
dQ = 8~ dX1 + -iJX; dX 2 + ... + ox" dx"
in Matrizenform als skalares Produkt
Q
dQ= ( iJiJa: )' dx (24)
136 § 11. Quadratische Formen

mit dem Vektor ~Q der


c;r
partiellen Ableitungen, den man bekanntlich
auch den Gradienten der Skalarfunktion Q nennt und für den wir oben,
GI. (3) den Wert 2 A x fanden:

_~~d5~2 A ~ =2: '


18Q
(25)
18~
und fordern wir für das Orts-
vektordifferential dx ein Ver-
bleiben auf unserer Fläche Q=
konst., so ergibt sich mit

dQ = r'Q)' dx =
(8;rC 0 (26)

die Orthogonalität von Gra-


dientenvektor und dem in
der Fläche gelegenen Diffe-
rential dx. Der transformierte
Vektor
Abb.11.3. Fläche zweiten Grades () = x' A X = konst.
nebst Gradientenvektor y = A x 1
Y = A x = -2 grad Q (27)
ist somit gleich dem Normalenvektor auf unserer Fläche, Abb. 11.3.
Nun besitzt eine Fläche zweiten Grades im R 3 bekanntlich drei auf-
einander senkrecht stehende sogenannte Hauptachsen, die dadurch
gekennzeichnet sind, daß in ihnen und nur in ihnen Ortsvektor x
und Normalenvektor y = ~1 x in gleiche Richtung fallen. Diese Forderung
verallgemeinern wir auf den n-dimensionalen Fall, stellen also die
Aufgabe
(28)

mit noch unbestimmtem skalaren Parameter /l. Gesucht sind jene, der
- reell symmetrischen - Matrix A eigentümlichen Richtungen J~, für
die der transformierte Vektor y = A x die alte Richtung beibehält bei
Verzerrung der Länge auf das /l-fache. Diese sogenannte Eigenwert-
aufgabe, die offenbar nicht auf symmetrische Matrix A beschränkt zu
sein braucht, erweist sich nun als ein weit über das hier herausgegriffene
Beispiel der Hauptachsen der Flächen zweiten Grades hinausweisendes
allgemeines Problem und als für die gesamte Matrizentheorie von der
größten Bedeutung. Dieser Aufgabe sind die beiden folgenden Kapitel
gewidmet, und wir stellen daher auch die Lösung des vorliegenden so-
genannten Hauptachsenproblems bis dahin zurück, wo wir es in viel
allgemeinerem Zusammenhang erörtern können.
12.1. Anwendung in der Ausgleichsrechnung 137

§ 12. Einige Anwendungen des Matrizenkalküls


12.1. Anwendung in der Ausgleichsrechnung
Die klassische Verwendung der Matrix A' A geht auf GA1JSS 111 der
von ihm geschaffenen Ausgleichsrechnung zurück beim sogenannten
Ausgleich vermittelnder Beobachtungen 1 . Für n gesuchte Größen x"'
die einer unmittelbaren Beobachtung nicht zugänglich sind, liegen Be-
ziehungen in Form linearer Gleichungen mit gegebenen Koeffizienten a,k
vor, deren rechte Seiten ai durch Messung bestimmt werden. Da diese
Messungen fehlerbehaftet sind, macht man zum Ausgleich dieser 2\feß-
fehler eine größere Anzahl m von Beobachtungen a als zur Bestimmung
"
der nUnbekannten x k erforderlich wäre, stellt also m > n lineare
Gleichungen mit m Beobachtungen ai als rechten Seiten auf, wobei das
System genau n unabhängige Gleichungen enthalten muß. Infolge der
Meßfehler sind nun diese m Gleichungen nicht mehr streng miteinander
verträglich: aus verschiedenen Sätzen von je n unabhängigen dieser
m Gleichungen würden sich jeweils etwas andere x-'Werte ergeben. Um
nun die Gleichungen wieder verträglich zu machen, bringt man an
jeder von ihnen eine noch zu bestimmende Verbesserung Vi an und stellt
an diese Vi die naheliegende Forderung

I Q= ~ v7 = v' v = Min (1)

die dem Verfahren den Namen Methode der kleinsten Quadrate gegeben
hat. Anstelle des unverträglichen Gleichungssystems
Ax=a (2)
operiert man also mit den sogenannten Fehlergleichungen

IA~X~- ~~ ~i '
1
ausführlich:
an Xl + ... + a l n Xn - al = vl
a 2l Xl + ... + a2n X n - a2 = V2
m>n. (3')

alm Xl + ... + amn Xn - a m ::::::: Vm

Entsprechend der Forderung n linear unabhängiger Gleichungen ist die


mn-Matrix A vom Range r = n, d. h. sie ist spaltenregulär. Einsetzen
von GI. (3) in die Forderung (1) ergibt
Q = v' v= (A x - a)' (A x-al =x' A' Ax-x' A'a-a' Ax + a'o
= x' A' A x - 2 x' A' a + a' a = Q(x) = Min.

1 Näheres findet man z. B. in der Praktischen Mathematik [15] S. 290 ff.


138 § 12. Einige Anwendungen des l\Iatrizenkalküls

Das führt in bekannter Weise auf die n Bedingungen


oQ
-8 = 2 (~i'A' ~1 X - 2 e'A'
i a = 0 ,
Xi

was wir zusammenfassen zu

~Q =
cx
2 (A' A x - A' a) = 0

oder schließlich
I A' Ax=A' al (4)

mit der n-reihig symmetrischen nichtsingulären und positiv definiten


Koeffizientenmatrix 11' A und den rechten Seiten.!1' (f. Diese sogenannten
Normalgleichungen, die ein verträgliches Gleichungssystem für die Un-
bekannten x k darstellen, ergeben sich aus den unausgeglichenen und
daher unverträglichen Bedingungsgleichungen (2) rein formal durch
Linksmultiplikation mit der Matrix A', eine Operation, die man auch
Gaußsehe Transformation genannt hat. Die - eindeutigen - Lö-
sungen x, der Normalgleichungen (4) sind die gesuchten ausgeglichenen
Unbekannten, die sich den Meßwerten ai "möglichst gut" im Sinne
kleinster Fehlerquadratsumme Q anpassen.
Kürzen wir die Normalgleichungsmatrix A' A ab mit
A'A=N (5)
und lösen GI. (4) nach x auf, so ergibt sich ein Zusammenhang zwischen
den ausgeglichenen Unbekannten Xi und den fehlerhaften Beobach-
tungen ak in der Form

I
x = N-l A' a = A' a mit N-l A' = A' , (6)
ausführlich:
Xl = lXll al -I- lX 2l a2 -I- ... -I- lXml am

:.' ..~ ~m~, ~,,:


(6')
~n'~ ~l~ ~l'; ~2~ ~2'; .

Hier stellt die Matrix A' die in § 9.5 eingeführte Halbinverse der mn-
Matrix A dar mit der Eigenschaft
A' A = A' A = I. (7)
Die Matrix A' A aber ist gleich der Kehrmatrix von N:
A' A = N-l A' A N-l = N-l. (8)
Beispiel: Von einern Dreieck sind die drei Winkel IX, ß, y mit gleicher Genauig-
keit gemessen. Die Meßwerte seien al' a 2• aa' Da die drei Winkel die Bedingung
IX + ß+ y = 180 0 (A)
12.1. Anwendung in der Ausgleichsrechnung 139
zu erfüllen haben, ist die Messung mit den drei Meßwerten überbestimmt, die Summe
der a,
wird ein wenig von 180 0 abweichen:
(B)
Unbekannte xi sind nur zwei der Winkel, z. B. IX = xl' ß = x 2 ' womit,.. = 180 0 -

Xl -x 2 nach (A) festliegt. Die Fehlergleichungen sind somit

x 2 - a2 = v2
- Xl - x2 + a l + a2 - <5 = Va '

wo die letzte Gleichung aus,.. - aa = 180 0 - xl - x2 - aa = va mit (B) hervor-


geht. Damit wird

.4 =( ~ ~) , a= ( :~ ),
-1 -1 <5 - a l - a2

Normalgleichungen nebst Lösung:

2 Xl + x2 = 2 al + a2 - <5 I 21' -1
Xl + 2 x2 = al + 2 a2 - <5 : -1 2
- - ----- -------~.

3 Xl = 3 a l -<5
3 x 2 = 3 a2 -<5
Ergebnis:
IX = Xl = al - <5/3
ß= x2 = a 2 -t5/3
l' = a3 -0/3.
Der Winkelüberschuß <5 ist somit zu gleichen Teilen 0/3 von den drei Meßwerten ai
abzuziehen, gleiche Genauigkeit der Meßwerte vorausgesetzt. Verbesserungen vi
also VI = V 2 = Va = -<5/3.
Sind etwa die beiden Messungen a2 , aa von doppelter Genauigkeit wie al' so läßt
sich dies dadurch berücksichtigen, daß man die beiden letzten Fehlergleichungen
mit 2 multipliziert, freilich ohne auch die vi mit zu verdoppeln. Dann werden

.4 = ( 0 ~),
-2 -2
und die Normalgleichungen:
5 Xl + 4 x2 = 5 a l t- 4 a2 - 4 <5
4 Xl + 8 x2 = 4 al + 8 a2 - 4 <5 •
Ergebnis:
'" = Xl = al - 4 <5/6
ß= %2 = a2 - <5/6
i' = aa - <5/6.
Die bei den genaueren Meßwerte erfahren also, wie zu erwarten, eine geringere
Korrektur als der weniger genaue a 1 .
140 § 12. Einige Anwendungen des :VIatrizenkalküls

12.2. Berechnung von Fachwerken


Wir greifen auf das in § 1.1 gegebene Beispiel eines ebenen Fachwerkes
von m Stäben mit den Stabkräften Si und n Knotenlasten P k zurück,
die wir einfachheitshalber wieder als vertikale Lasten annehmen. Im
Falle beliebiger Lastrichtung ist jede Last in ihre x- und y-Komponente
zu zerlegen, womit sich die Kraftanzahl n einfach verdoppelt. Entspre-
chendes gilt vom räumlichen Fachwerk, wo jede Last in ihre drei Kom-
ponenten zerlegt wird. Das für uns 'vVesentliche tritt am hier vorgeführten

I
einfachsten Fall zutage. Wie früher erläutert, besteht zwischen den
Stabkräften Si - zusammengefaßt zum Vektor s - und den Lasten P k
- zusammengefaßt zum Vektor p - ein linearer Zusammenhang

+ + ... +
=
51 = Cu PI C12 P2 Cl n Pn

• ~2 ~21. ~l. 22
- : .C • .p~ ~. :.: : ~. C~n. ~~ (9')

Sm - Cml PI + Cm2 P2 + + C"", Pn


oder kurz
(9)

mit der mn-Matrix C = (C ik ), deren Elemente, die Einllußzahlen Cik


sich, wenn wir das Fachwerk zunächst als statisch bestimmt voraus-
setzen, auf die damals geschilderte Weise als Stabkräfte Si bei Last
P k = 1, Pi = 0 für j =f= k nach einem der üblichen statischen Verfahren
- Cremonaplan oder RITTER-Schnitt - , das n mal durchzuführen ist,
ergeben.
Man gelangt nun zu den Durchsenkungen rk unter den Lasten P k , wie
wir als bekannt annehmen dürfen, mit Hilfe der Formänderungsarbeit
(im folgenden mit FÄA abgekürzt) nach dem Satz von CASTIGLIA~O.
Diese Formänderungsarbeit für einen einzelnen Stab ist bekanntlich
gleich

mit den Federungen li = lJEFi C~achgiebigkeiten). Die des ge-


samten Fachwerkes ist somit gleich

1 In 1
A = -2.~" 52~~ I· = --2 s' Ps!
Oll
(10)
t=l

also eine quadratische und offenbar positiv definite Form mit der
Diagonalmatrix F o = Diag (f;) der Stabfederungen I,. Ersetzt man nun
hier die Stabkräfte s nach GI. (9) durch die Lasten p, so erhält man die
12.2. Berechnung von Fachwerken 141

FÄA als eine quadratische Form in den Lasten gemäß

l~~ =:~'~';~ ~P :=_:-~'~~I (11 )

mit der nun nicht mehr diagonalen, aber wiederum positiv definiten
Gesamt-Federungsmatrix

IF-_C!~CJ' (12)

Ihre Elemente haben die Dimension Länge/Kraft.


Nun ergeben sich bekanntlich die Durchsenkungen r i des i-ten Knotens
in Richtung der Last Pi als die partielle Ableitung der FÄA nach der
Last Pi (Satz von CASTIGLIANO), r i = 2A/2P i • Den gesamten Vektor r
dieser Durchsenkungen erhalten wir somit nach der einfachen Vorschrift
-- -- - -

aA -I

J.
I
(13 )
:_:' : a~ ==-li' P
Nehmen wir in dem in § 1.1 angeführten einfachen Beispiel mit gleichen
Längen li = 1 auch alle Querschnitte gleich an, F i = F, also t i = t =
l/EF, so vereinfacht sich die Rechnung mit Po = I zu t
P = C' Po C = t c' C = ;4 (~:
13
!: ~!)
24 31
und wir erhalten für die Durchsenkungen die Ausdrücke
24 E F rl = (31 PI + 24 P + 13 P 2 3) 1
24 E F r 2 = (24 PI + 44 P + 24 P 2 3) 1
24 E F r3 = (13 PI + 24 P + 31 P 2 3) l .
Die Rechnung läßt sich leicht auch auf statisch unbestimmte Fachwerke
ausdehnen. Hier seien s der Stäbe überzählig, die man aufschneidet und
als statisch Unbestimmte Xi einführt, also als - zunächst unbekannte
- äußere Kräfte, deren Größe sich nachträglich aus der Forderung er-
gibt, daß die Verformungen an den Schnittstellen verschwinden (Über-
gang zu einem statisch bestimmten Hauptsystem). Wir fassen diese
aufgeschnittenen Stäbe zu Sv die restlichen zu So zusammen, die Kräfte
Xi zu x. Die Stäbe So des statisch bestimmten Hauptsystems lassen sich
dann wieder linear durch die Lasten P sowie die als Lasten aufgefaßten
Unbestimmten x ausdrücken, und anstelle von GI. (9) haben wir

: So = Co P + Cl xi, ( 14)
!SI = X

wo man die Elemente Ci" von Co wie früher, die von Cl dadurch bestimmt,
daß man alle Lasten Null setzt, desgleichen die Unbestimmten Xi bis
142 § 12. Einige Anwendungen des Matrizenkalküls

auf eine einzige X k = 1. Teilen wir auch die Diagonalmatrix der ~tab­
federungen auf in F o, d. i. die der Stäbe des Hauptsystems, und F l ,
d. i. die der aufgeschnittenen (überzähligen) Stäbe, so schreibt sich die
doppelte F ÄA:
2A=s~FoSl+S~FlS2' (15)
Einsetzen von GI. (14) ergibt dann
2 A = (p' C~ + x' C;) Po (Co P + Cl x) + x' F l x
oder schließlich
; 2 A = p' F oo P + 2 p' POl X + X' F n x! (16)

mit den Federungsmatrizen


F oo = C~Po Co
F Ol = C~Fo Cl
(17)
F lO = C~Fo Co = F~l
F n = C~ F o Cl + 1<\ .
Dann folgen die statisch Unbestimmten ;1: und die Durchsenkungen r
nach CASTIGLIANO aus den Gleichungssystemen
BA
OX
= Ji\o p + P 11 X = 0 , -7 X (18)
BA
cp
n = F oo P +F OI X = r :I -7 l' • (19)

Aus GI. (18) ergeben sich die Unbestimmten Xi' Indem man sie in Gl.(19)
einsetzt, erhält man hieraus die rio Indem man die erste Gleichung
formal nach X auflöst
X = - PI? F lO p , (20)
und dies in die zweite einsetzt, folgen die Durchsenkungen )' auch
unmittelbar in Abhängigkeit von den Lasten p zu
f' = (Foo - F Ol F I? F lO ) p = F P: (21)

mit einer sich auf das Gesamtsystem beziehenden Federungsmatrix F.


- Die Leichtigkeit der formalen Rechnung und ihre Allgemeingültig-
keit und Unabhängigkeit vom Einzelfall erscheinen hier gleich bemer-
kenswert. Vgl. dazu auch die allgemeinen Aufgaben in § 25.

12.3. Behandlung von Schwingungsaufgaben


Ein namentlich für den Ingenieur überaus wichtiges Anwendungs-
gebiet der Matrizenrechnung ist die Schwingungstechnik, wo die Be-
handlung von Schwingungssystemen endlich vieler Freiheitsgrade un-
mittelbar auf Matrizengleichungen führt. Da sich auch kontinuierliche
Schwingungssysteme durch Unterteilung und näherungsweise Behand-
12.3. Behandlung von Schwingungsaufgaben 143

lung auf solche mit endlich vielen Freiheitsgraden zurückführen lassen,


so liegt hier ein weites Anwendungsfeld vor. Alle diese Probleme führen
auf die in §11.5 eingeführte Eigenwertaujgabe, ent-
weder in der dort angetroffenen speziellen Form
(22)
oder aber auf die sogenannte allgemeine Eigen-
Y, wertaujgabe der Form

Ya
ILl-~~-!! ~I· (23)
Die vollständige Behandlung dieser Eigenwert-
aufgabe bleibt den folgenden Kapiteln vorbe-
halten. Hier sei lediglich an Hand einiger Bei-

~~L OlL

~---~
A1Jb. 12.1. Sclnvingungskctte von Abb. 12.2. Drehschwingungskette von n l\-tas~cn Gi und H FC'l1nn ci
n !\Iassen lni und n Federn ci

spiele der Schwingungstechnik gezeigt, wie es zur Formulierung der


Eigenwertaufgabe kommt.
Als erstes Beispiel sei eine Schwingungskette von n Massen m i und
n Federn Ci untersucht, die nach Art der Abb. 12.1 oder aber auch bei
Drehschwingungen nach Abb. 12.2 angeordnet sind. Zwischen den Aus-
lenkungen Yi der Massen und den Federverlängerungen Zl besteht dann
der einfache Zusammenhang

Zl = Yl
Z2:: Y2 - Yl
1
~n'~ ~n'~ ~,,~; I
Z3 - Y3 - Y2

kurz
z=Ky (24)
mit der nichtsingulären Matrix
o
-1
-1
K=

~o
144 § 12. Einige ,\nwcndllngcn des :\Iatrizenkalküls

Die Aufstellung der Schwingungsgleichungen gelingt hier einfach mit


Hilfe der potentiellen und kinetischen Energie U bzw. T

(25)

(26)

mit den positiv definiten Diagonalmatrizen Co = Diag(ci ) und IU =


Diag(mJ Indem man nun die Verlängerungen z in GI. (25) nach GI. (24)
durch die Auslenkungen y ersetzt, wird aus der potentiellen Energie die
quadratische Form
U =-,1' Ir 1 , C' Y
1 , K' ('. d.1'J=····Y (27)
2 .1 O. 2

mit der wiederum positiv definiten Formmatrix


C = K'CoK. (28)
Damit lautet der Energie:3.tz
1
2 (y' C Y + y'•11'1.y) = konst. ,

aus dem durch Differenzieren nach der Zeit unter Beachten der Symme-
trie der Matrizen folgt
y' (C Y + My) = 0

oder schließlich, da der Geschwindigkeitsvektor y willkürlich wählbar


ist, als Bewegungsgleichung

.Cy+1Ujj=OI· (29)
Mit dem Sinusansatz
y = a sin w t
-y = - w 2 a sin w t = - w2 Y = - Je Y
wird daraus die Eigenwertaufgabe

ICy=JeMy, (30)

Diese Aufgabe vom Typ GI. (23) der allgemeinen Eigenwertaufgabe


würde sich durch Linksmultiplikation mit lU-l auf die spezielle GI. (22)
zurückführen lassen. Doch geht dabei die Symmetrie der Matrix ver-
loren, aus der sich, wie wir später sehen werden, wichtige Eigenschaften
der Lösung herleiten. Um die Symmetrie zu erhalten, geht man mit

(31 )
12.3. Behandlung von Schwingungsaufgaben 145

auf neue Veränderliche;r über und erhiilt damit nach leichter Umrech-
nung die spezielle Eigenwertaufgabe

(32)

mit der wieder symmetrischen und positiv definiten Matrix

11 = lU-1 / 2 C ~1-1/2 I• (33)


.... - - - I

Allgemein sind einem Schwingungssystem von n Freiheitsgraden die


Energieausdrücke
2 U = y' 11 y, 2 T = y' B iJ (34)
zugeordnet, also quadratische Formen mit den Matrizen 11 (Steifigkeits-
matrix) und B (Trägheitsmatrix) , wobei n eigentlich positiv definit,
11 dagegen definit oder auch semidefinit ist, letzteres nämlich, wenn
eine Federfesselung für gewisse Freiheitsgrade fehlt. Für kleine Aus-
schläge Yi darf man die Elemente a ik , bik der Matrizen als konstant, d. h.
unabhängig von den Auslenkungen annehmen. Dann erhalten wir auf
gleiche Weise wie oben durch Differenzieren des Energiesatzes U T = +
konst. das System der Bewegungsgleichungen
11 y + n!i = 0 (35)
und daraus wieder mit einem Sinusansatz für y die allgemeine Eigen-
wertaufgabe
Ay=}.By (36)

Da B nichtsingulär, bl3t sie sich durch Linksmultiplikation mit B-l auf


die spezielle Aufgabe mit der allerdings nicht mehr symmetrischen
l\Iatrix n- 1 cl zurückführen. Die Symmetrie bleibt erhalten, wenn wir
auf n die CHOLESKY-Zerlegung
n = ll' II (37)
mit der oberen Dreiecksmatrix II anwenden und damit die neuen Varia-
blen
lly=x (38)
einführen, womit dann GI. (36) übergeht in die spezielle Aufgabe

Cx = Ax ., A = w 2 (39)

mit positiv (serni) definiter Matrix

ll-l' A ll-l = C (40)


ZlIrIlllihl, :\Iatrizl'1l +. Auf!. I0
IV. Kap i tel

Die Eigenwertaufgabe
§ 13. Eigenwerte und Eigenvektoren
13.1. Problemstellung und Begriffe
Wie in den Abschnitten 11.5 und 12.3 an einigen Beispielen deutlich
wurde, wird man bei zahlreichen Aufgaben auf eine Fragestellung ge-
führt, die für die Theorie der Matrizen von der größten Bedeutung ge-
worden und geradezu als das Kernstück dieser Theorie anzusehen ist.
Es handelt sich darum, zu einer quadratischen, sonst aber beliebigen
(reellen oder komplexen) Matrix.:l Vektoren x derart zu suchen, daß der
mit A transformierte Vektor y = il ;L dem Ausgangsvektor ;1: proportional,
ihm parallel ist:
(1)

mit einem zunächst noch unbestimmten Parameter A. Ausführlich lautet


die Aufgabe
an Xl +a 12 x2 + ... + a l n Xn = A XII
a21 Xl +a 22 X 2 + ... + a 2n Xn = AX 2 ,
(1')
....................
anl Xl + an2 X 2 + ... + a nn X n = A xn
deren homogener Charakter deutlicher in der Schreibweise
(1 a)

hervortritt. Die Matrix dieses Gleichungssystems,

.4 _ A I = ( ~2~...
~l -A a l2
a 22
a1n)
-.A .' '... ~2 n (2)

anl an2 ••• ann-A


wird die charakteristische Matrix der Matrix A genannt. Sie spielt, wie
wir bald sehen werden, für die Eigenschaften der Matrix A eine ent-
scheidende Rolle.
Als homogenes Gleichungssystem besitzt GI. (1) bzw. GI. (1a) genau
dann nichttriviale (nicht identisch verschwindende) Lösungen ,r, wenn
13.1. Problemstellung und Begriffe 147

seine Koeffizientendeterminante verschwindet. Diese sogenannte charak-


teristische Determinante
, an - A a 12 a1 n
a21 a22 -A . .. a2n
D(A) = det (A - Al) = ! •• (,)

hängt vom Parameter A ab, und zwar ist sie, wie man sich etwa aus der
Produktdefinition der Determinante klarmachen kann, ein Polynom
n-ten Grades in A, das charakteristische Polynom der Matrix. Die Bedin-
gung für das Vorhandensein von Null verschiedener Lösungen x unserer
Aufgabe lautet also

I~(A) ..... de~(i .. Al2 = 0 (4)


Diese charakteristische Gleichung der Matrix A besitzt als algebraIsche
Gleichung n-ten Grades in A genau n (reelle oder komplexe) Wurzeln
Al> A2 , ••• ,An' wenn man, wie üblich, etwaige Mehrfachwurzeln entspre-
chend ihrer Vielfachheit zählt. Nur für diese Wurzeln Ai der charakteri-
stischen Gleichung, die Eigenwerte oder charakteristischen Zahlen (im
Englischen auch latent roots) der Matrix l besitzt demgemäß unser
Eigenwertproblem GI. (1) nichttriviale Lösungen
(5)
sogenannte Eigenlösungen oder Eigenvektoren der Matrix (im Englischen
auch modal columns genannt). Nur sie erfüllen die eingangs gestellte
Forderung, ihrer Transformierten proportional zu sein mit dem zuge-
hörigen Eigenwert als Proportionalitätsfaktor:
A Xi = Ai Xi (i = 1, 2, ... , n) . (6)
\Vir fassen zusammen in
Satz 1: Eine n-reihige quadratische Matrix A besitzt genau n (reelle
oder komplexe) Eigenwerte Ai als Wurzeln ihrer charakteristischen Gl. (4).
Nur tür diese Werte Ai des Parameters A hat die Eigenwertautgabe Gl. (1)
nichttriviale Lösungen, die Eigenlösungen oder Eigenvehtoren Xi der Matrix.
Aus der Definition der singulären Matrix als einer solchen, für welche
die Determinante det A selbst verschwindet, folgt weiter
1 Der Vorschlag, das Wort "Eigenwert" für die Kehrwerte 1/).i der charakteristi-
schen Zahlen).i zu reservieren, um eine vollständige Analogie zwischen der Eigenwert,
aufgabe der Matrizen und der der Integralgleichungen durchführen zu können,
hat sich in der neueren Matrizenliteratur nicht durchgesetzt. Im englischen und
französischen Schrifttum finden sich die Worte proper values, eigenvalues, valeurs
propres - neben den anderen Bezeichnungen - ausnahmslos im Sinne von charak-
teristischen Zahlen. Im Hinblick auf die dringend erwünschte internationale Ver-
ständlichkeit erscheint uns daher der oben genannte Vorschlag nicht ganz glücklich.
10"
148 § 13. Eigenwerte und Eigenvektor('n

Satz 2: Eine Matrix hat dann und nur dann wenigstens einen Eigen-
wert A = 0, wenn sie singulär ist, det "1 = O.
Schreibt man das charakteristische Polynom in der abgewandelten
Form mit positivem Zeichen bei ;.n
P(}.) = det (1.1 - A) = A" +a n _ 1}:t-1 + ... -1- a +
1 }, (10' (I)
so gilt für den ersten und letzten Polynomkoefiizicnten

- a"_1 = sp .LI ' (8a)


( - 1) n (/0 = det cl (8b)

Die zweite Beziehung folgt aus (7) sogleich für l = 0. Die erste ergibt
sich durch Entwicklung von det (Je J - A) nach der 1. Spalte, wobei nur
das Spitzenelement A - an zur Potenz },"-1 beiträgt. Fortgesetzte Ent-
wicklung der Unterdetermillanten führt dann zu (8a). Mit den bekannten
VIETAschen \Vurzclsätzen die sich aus einem Vergleich des Polynoms
(7) mit seiner Zerlegung in Linearfaktoren
Pt),) = (), - }'1) V- }'2) ... (A - }'n)
herleiten, folgt dann \yt.'itcrhin

sp A = }'1 + }.2 r- ... + ln «J a)


dd.:1 = }'1 }'2 ... }'n (C) b)

13.2. Die Eigenvektoren


Die Eigenvektoren ;J:, als Lösungen des homogenen Gleichungssystems
(1) oder (1a) mit}, = A, bzw. der Systeme (6) sind, wie wir wissen, nicht
eindeutig. Im einfachsten Falle, daß die zugehörige charakteristische
Matrix .LI - A, I vom Eangabfall d = 1 ist, gibt es zum Eigenwert }'I
gen au einen linear unabhängigen Eigenvektor XI' alle übrigen sind zu
diesem einen proportional. Der Eigenvektor ist hier nur bis auf einen
willkürlichen Faktor bestimmbar. Ist X)') ein beliebiger tester Lösungs-
vektor des Systems (6), so stellt

mit noch freiem Parameter c die allgemeine Lösung von GI. (6) dar, ein
lineares Vektorgebilde der Dimension 1, geometrisch gesprochen eine
Richtung. Nur in diesem Sinne der Eigenrichtung ist im Falle d = 1 das
Wort Eigenvektor zu verstehen. ~dan kann sich von der Unbestimmtheit
des Eigenvektors befreien, indem man ihn in passender Weise normiert,
beispielsweise so, daß man seine E uklidische Norm zu 1 macht:

(10)
13.2. Die Eigenvektoren 149

wo im Falle reeller Vektoren 3:* = 3:' wird. Ein reeller Vektor ist dann
bis auf sein Vorzeichen festgelegt, während bei komplexem Eigenvektor
noch ein Drehfaktor eig unbestimmt bleibt. Von dieser Möglichkeit der
>

Normierung machen wir des öfteren, wenn auch nicht immer, Gebrauch.
Ist aber der Rangabfall d der charakteristischen Matrix größer als 1,
so existieren d > 1 linear unabhängige Eigenvektoren. Bezeichnen
wieder 3:~J), 3:~2) , ••• , 3:~d) irgendwelche festen linear unabhängigen Lö-
sungen von GI. (6) zu einem bestimmten Eigenwert Ai' so stellt die all-
gemeine Lösung
(11)
mit d freien Parametern ck ein Vektorgebilde der Dimension d dar, es
spannt einen d-dimensionalen Eigenraum als Lösung zum Eigenwert Ai
auf. Die Vektoren 3:\") können wie oben normiert werden.
Es gilt nun zunächst der folgende
S atz 3 : Eigenvektoren zu verschiedenen Eigenwerten Ai sind stets linear
unabhängig.
Unsere Matrix A besitze etwa genau s verschiedene Eigenwerte
Al> A2, ••• , As '
und zu jedem dieser Eigenwerte wählen wir einen zugehörigen Eigen-
vektor x k aus. Aus der Bedingung für lineare Abhängigkeit
Cl 3:l + C2 a:'2 + ... + Cs 3: s = 0 (12)
folgen durch fortgesetzte Multiplikation mit der Matrix A unter Berück-

I
sichtigung von GI. (6) die s - 1 weiteren Gleichungen

...... ~l.Cl.~l ~.A~ ~2 ~2. - : .' ' •• ~s. ~s ~. ~


cs. (12a)
il.;.--t Cl 3:1 + A;·· 1 C2 X 2 + ... +A;·-l Cs 3: s = 0

Diese Gleichungen gelten aber auch für eine beliebige feste Komponente
X ik der Vektoren 3:k , womit GIn. (12) und (12a) ein lineares Gleichungs-
system in den Unbekannten Ck X ik (k = 1, 2, ... ,s) darstellt mit der
Koeffizientendeterminante
... 1
... As

I A;:-l A~-l ... A~-t


Diese sogenannte VANDERMoNDEsche Determinante aber ist für lauter
verschiedene Werte Ak von Null verschieden, wie man folgendermaßen
150 § 13. Eigenwerte und Eigenvektoren

einsieht. Durch Subtraktion der mit Al multiplizierten (5 - 1)-ten Zeile


von der 5-ten, der gleichfalls mit Al multiplizierten (5 - 2)-ten Zeile von
der (5 - 1)-ten usf., schließlich der mit Al multiplizierten 1. Zeile von der
2. erhält man
1 . " 1
o A2 - Al A3 - Al '" As - Al
V = 0 A~ - A2 Al A~ - A3 Al ... A: - As Al

und daraus durch Entwickeln nach der ersten Spalte und Vorziehen der
gemeinsamen Faktoren der übrigen Spalten:
! 1 · .. 1
A2 A3 · .. As
· .. A2s

I 1s-2 1s-- 2 1,-2 I


1\2 1\3 • • • I\s '

Indem man für die verbleibende (s - 1)-reihige Determinante entspre-


chend verfährt usf., erhält man schließlich den Ausdruck
V = (A 2 - Al) (A 3 - Al) (A4 - Al) (A s - Al)
(A 3 - A2 ) (A 4 - A2 ) ••• (A s - A2 )
(A4 -~) '" (A s - A3 )

(A s -AS - 1) ,

und das ist wegen der Annahme 5 verschiedener Eigenwerte ersichtlich


=f= O. Damit aber hat unser Gleichungssystem nur die triviale Lösung
Cl XiI = C2 X i2 = ... = Cs Xis = 0 , woraus, da dies für alle Komponenten
i gelten soll, Cl = C2 = ... = Cs = 0 folgt. Die Eigenvektoren sind
linear unabhängig.
\Vas nun den Rangabfall da der charakteristischen Matrix A - }'u I
zu einem Eigenwert Aa und damit die Anzahl linear unabhängiger Eigen-
vektoren, die Dimension des zu Aa gehörigen Eigenraumes angeht, so
haben wir in § 10.1 m allgemeinerem Zusammenhang gezeigt, daß da
in die Schranken
(13 )

eingeschlossen ist, wenn Pa die Vielfachheit des Eigenwertes i'a' der


Wurzel der charakteristischen Gleichung bedeutet. Nur für den Fall
einfacher Eigenwerte liegt somit dieser Rangabfall im allgemeinen von
vorn herein zu 1 fest:
13.}. Beispiele 151

Satz 4: Zu einem einfachen Eigenwert gibt es genau einen linear unab-


hängigen Eigenvektor, also eine Eigenrichtung.
Handelt es sich dagegen um einen mehrfachen Eigenwert A" der Viel-
fachheit p" > 1, so weiß man im allgemeinen über den Rangabfall der
zugehörigen charakteristischen Matrix nichts außer den Schranken (13):
Satz 5: Zu einem p,,-jachen Eigenwert gibt es wenigstens einen und
höchstens p" linear unabhängige Eigenvektoren, also einen Eigenraum der
Dimension mindestens 1 und höchstens p".
Da die Eigenvektoren verschiedener Eigenwerte linear unabhängig sind,
so spannt die Gesamtheit der Eigenvektoren einer n-reihigen Matrix
von s verschiedenen Eigenwerten A" einen Raum der Dimension
d1 + d2 + ... + d s ~ n (14)
auf, also im allgemeinen einen echten Unterraum des Rn' Nur in dem
überaus wichtigen Sonderfall, daß für alle Eigenwerte d" = p" gilt, be-
sitzt die Matrix n linear unabhängige Eigenvektoren, die den gesamten
Raum Rn aufspannen. Matrizen dieser Art bilden eine Klasse, die der
sogenannten diagonalähnlichen Matrizen, die sich durch zahlreiche wich-
tige Eigenschaften auszeichnen und auf die wir im folgenden § 14 aus-
führlich zurückkommen werden.

13.3. Beispiele
1. Beispiel: Matrix:

Charakteristische Gleichung:

I! )- - .1 4 I = .12 - 7.1 +6= 0.


1 2-.1
Eigen werte:
Al = 6, "'2 = 1. 2
Eigenvektoren :
-Xl + 4 x2 = 0
xl - 4 x 2 = O.
Die beiden Gleichungen sind, wie es sein
muß, abhängig. Aus jeder von ihnen folgt
Xl : x 2 = 4 : 1, also der Eigenvektor

normiert zu .2'1 =

4 Xl + 4 x2 = 0 Abb.13.!.
Xl + x = o.
2 Eigenrichtungen einer zweireihigen Matrix

x2 = (_~), normiert zu x 2 = 12(-~)'


Abb. I 3. I zeigt die beiden Eigenrichtungen im R 2 •
152 § 13. Eigenwerte und Eigenvektoren

2. Beispiel: Mehrfacher Eigenwert, Rangabfalli :

A = ( 5 4) , '5 - Ä 4 i
= Ä2 - 6Ä+ 9 = (A - 3)2 = [)
,-i 1 ! -1 1 -A I

)'1=)'2=3.

Hierzu gehört das Gleichungssystem zur Berechnung der Eigenvektoren


2 Xl + 4 x 2 = 0
-xl -2x2 = O.

Es liefert als einzige Lösung Xl : x2 = 2 :- 1, also den einzigen Eigenvektor

Xl = ( 2 '), normiert zu '1\ = 1_ ( 2 ).


\-1 VS-1
3. Beispiel: Mehrfacher Eigenwert, voller Rangabfall:

A = (-2 2-3)
2
-1-2
1 -6 ,
0
' - 2 -Ä

-1
21-A-6!=
I

-2
2 -3
- A3 -Ä2+21A+45=C
-AI
A1 =Ä2 =-3, A3 = 5,
Ä= -3: Xl + 2 x 2 - 3 x3 = 0
2 Xl + 4 x 2 - 6 x 3 = 0
- Xl - 2 x 2 + 3 x a = Cl

Offensichtlich ist nur eine einzige Gleichung unabhängig. Dem zweifachen Eigen-
wert entspricht hier voller Rangabfall d = P = 2 . Die Eigenvektoren bcstimmcn
sich aus der einen Gleichung
Xl = - 2 X2 3 x3 • +
Indem wir für die freien Unbekannten x 2 ' x 3 die \Vertesätzc (1,0) und (D,1j sctzen,
erhalten wir für Xl dic \Verte - 2 und 3, also dic linear unabhängigen \'cktorcn

.rl = (-~) und


0/

Zum zweifachen Eigcnwert gehört die Eigcnebene

mit zwei freien Parametern Cl' C2 • Jeder in dieser Form darstellbare, d. h. in eier
Eigenebene gelegene Vektor gehorcht der Beziehung A x = - 3 X, z. B, eier Vektor

wie leicht nachzuprüfen.


A3 = 5: --':7 Xl + 2 x2 - 3 x3 = 0
2 Xl - 4 x2 - 6 x3 = 0
-Xl - 2 X2 - 5 x3 = D
13· 3. Beispiele

Auflösung nach dem Algorithmus (nach Zeilenumstellung) :


-1 -2 -)

2 -4 -6
-7 2 -3
-1
2 i-8
-2 -5
-16
.1'3 = (=~)
-7 21 ()

-1 -2

4. Beispiel: Zweifacher Eigenwert 0, Eangabfall 1.

.1 = (-~
2-1)
3 1.
-J 8 1,

Die Matrix ist singulär vom H<lnge 2. Sie besitzt abo wenigstens einen Eigenwert
A = O. Die charakteristische Gleichung ist
},2 (5 -A) 0
und liefert )'1 -- 1. 2 -- 0 }.3 .-
S
}" ,2 - 0: 2 - 1 }'3 - 5: ---4 2 ··--1
-2 3 - 2 --2
-3 S -3 S -4
2 --1 -4 2 -1
2 --1 2 12 -6
3 --2 I
() 3 26 : (l

·1'1 : 1 ·1'3: 0 2

Zum zweifachen Eigenwcrt )'1 = 0 gchört nur ein Eigenvektof a'1 = (5 1 7)', zum
0

Eigenwert A3 = 5 def Vektor ~3 = (01 2)'. Die heiden Eigenvektoren spannen hier
nUf eine Ebene im R 3 aus.

S. Beispicl: Komplexe Eigenwcrte.


Für die :\ratrix der ebenen Drehung
. 1 ~, f cos rp - sin rp )
\ sin rp cos rp
ist die Eigenwertaufgabe, nämlich Vektoren zu finden, die bei der Transformation
.I1,Tin Vektoren parallel zu sich übergehen, naturgemäß reell nicht mehr lösbar.
Eigenwerte und Eigenvektoren werden dementsprechend komplex:
A, ,2 = cos rp ~: i sin rp ,~ e='= ''P .

6. Beispiel: Zweifacher Eigenwert, ein oder zwei Eigenvektoren.


Die anschauliche Bedeutung der bei einem zweif<tchcn Eigenwert eintretenden
unterschiedlichen Verhältnisse bezüglich der Anzahl der Eigenvektoren machen
wir uns an einem einfachen Beispiel klar, indem wir die Doppelwurzel durch all-
mähliches Zusammenrücken aus ursprünglich verschiedenen \Verten hen'orgehen
154 § 13. Eigenwerte und Eigenvektoren

lassen. \\'ir betrachten dazu die beiden Matrizen

und B = (°a aO,) ,


beide von der charakteristischen Gleichung

{A-a)2 = 0,
indem wir sie aus
und B = (ao 0)
a + C"
°
durch Grenzübergang, -+ hervorgehen lassen. Zu ihnen gehören die zunächst
verschiedenen Eigenwerte Al = a, ,1.2 = a +
E. Setzt man nun diese vVerte in die
Eigenwertgleichung ein, so erhält man:

im Falle .4.:
)'1 = a, Charakteristische Matrix (0 1)
,0 E

Xl = (~)
;'2 = a + t:, Charakteristische Matrix (-~ ~)
J'2 = (ci
1

Mit \"cr,chwindendcm E fallen hier die beiden zunächst getrennten \'ektoren in


den einen J'l zusammen.
Im Falle B:
,rl = (~)
-I.

-= a +
A. R 1 =
.° X2=(~)'
I, -),~ (

Hier werden die beiden Vektoren,cl' ;1'2 vom Grenzübergang s-~O gar nicht berührt,
ht aber I = °
geworden, so ist die charakteristische Matrix

0)' ,
0.

und damit ist außer J'l und ,.1'2 auch die Linearkombination

mit beliebigen Zahlen Cl' {2 ein Eigenvektor. Die von J'l' ,1'2 ausgespannte Ebene
ist zur Eigenebene geworden, jeder in ihr gelegene Vektor ist Eigenvektor.
Im ersten Falle rücken mit zusammenrückenden Eigenwerten auch die zuge-
hörigen Eigenvektoren zusammen, aus vorher zwei getrennten Eigenrichtungen
wird eine einzige, in die sie zusammenfallen. Im zweiten Falle aber bleiben die
beiden Eigenriehtungen ,"on dem Grenzübergang A2 -+ )'1 unberührt, nach voll-
zogenem Grenzübergang aoer ist die ganze ,"on den beiden vorher wohldefinierten
Eigenrichtungen ausgespannte Ebene zur Eigenebene geworden, in der Eigenvek-
toren beliebig wählbar sind.
13.4. Linkseigenvektoren. Orthogonalität 155

13.4. Linkseigenvektoren. Orthogonalität


Der Eigenwertaufgabe
IA;=A~l
--- --- -
(1)
ist die Aufgabe der transponierten Matrix

lA~~=_~yJ (15 )
zugeordnet, die wir auch in der Form

y'A=Ai! (15a)
.-.J
schreiben können, weshalb man die Eigenvektoren y von A' auch die
Linkseigenvektoren von .11 nennt. Beide Aufgaben haben wegen
det (A' -A I) = det (A -A I)
die gleichen Eigenwerte }'1' denen jedoch im allgemeinen verschiedene
Rechts- und Linkseigenvektoren Xi bzw. Yi zugehören. Nur im Falle
symmetrischer Matrix LI' = A fallen Rechts- und Linksvektoren zu-
sammen.
Nun folgt aus den Eigenwertgleichungen für zwei verschiedene Eigen-
werte }'i =l= Ak :
AXi =A,X i
y~ A = AkY~
durch Multiplikation mit y;, bzw. Xi und Subtraktion
y~j1Xi = AiY~Xi
y~AXi = AkY~Xi
o= (Ai - Ak ) y~ Xi
und daraus wegen vorausgesetztem }'i =l= Ak :

x: Yk = 0
I

i für Ai =l=Ak · (16)

S atz 6: Die Rechts- und Linliseigenvektoren Xi' Yk zweier v(wschicdener


Eigenwerte Ai =l= Ak einer J1.1atrix ~1 sind zueinander orthogollnl.
Hat nun unsere Matrix Il genau n linear unabhängige Vektoren ;r i und
damit auch nunabhängige !/i' gehört also A zur Klasse der diagonal-
ähnlichen Matrizen, so sind beide Modalmatrizen X und Y der H.echts-
und Linksvektoren nichtsingulär. Damit aber ist dann auch die Matrix

i X' Y ~~ (.1< Yk) = N I (17)


i_ _ ____ _-'

nichtsingulär. Sofern nun verschiedene Eigenwerte auftreten, sind die


Elemente mit i =l= k wegen GI. (16) gleich Null. Damit aber können
156 § 13. Eigenwerte und Eigenvektoren

die Diagonalclemente selbst nicht verschwinden:

(18)

und wir können lllsbesondere die beiden Vektorsysteme derart normieren,


daß
(19)

wird. Sofern aber mehrfache Eigenwerte auftreten, wo dann GI. (1(i)


nicht mehr zu gelten braucht, werden auch außerhalb der Diagonale
von Null verschiedene Elemente auftreten. Diese aber lassen sich dann

I
durch eine Lineartransformation

X' = CY~YBT' (20)


y=
mit nichtsingulärem C und n zu Null machen, wobei man überdies
auch noch die Diagonalclemente (Hj) zu 1 normieren kann. Fordert
man nämlich für das abgeänderte System X, Y die Eigenschaften der
Biortlzonormierung
X'Y=1', (21)

so erhält man für N die Beziehung


N=X'r=(!X'rn=cn.
Das aber läDt sich auffassen als Dreiec1,szerlcgung eier nichtsingulären
Matrix N in untere und obere Dreiecksmatrix C bzw. n. Sind C und
B auf diese \Veise bestimmt, so ergeben sich die abge:inderten Systeme X'
und Y der Eigenvektoren zufolge GI. (20) einfach dG.durch, daß der der
Zerlegung zugrunde liegende Vorgang auf die gegebenen Matrizen X' und
Y, die rechts neben bzw. oberhalb VOll N anzuordnen sind, ausgedehnt
wird, wie wir dies ausführlich in § <).3 als BiortllOnormicrung beschrieben
und auch an einem Beispiel vorgeführt habe!l. Damit gilt
Satz 7: Rechts- und Linkseigenvel,toren XI bzw. y,: einer tliagonulähn-
liehen Matrix.L1 lassen sich stets so auswählen, daß

(22)

bzw. X' Y = 1. Die Vel,toren bilden ein BiorthoJlormalsystem, X' ist


Kehrmatrix Ztt Y ttnd Y' Kehrmatrix zu X.
Für den Fall reell symmetrischer Matrizen faHen l{cchts- und Links-
vektoren zusammen (A' = A). Diese Matrizen sind überdies stets, wie
wir noch zeigen werden, auch diagonalähnlich, sie hesitzen das volle
13.5. Ähnlichkeitstransformation. Invarianten 157

System der nEigenvektoren. Diese aber sind dann zufolge Satz 7


selbst orthogonal bzw. - im Falle mehrfacher Eigenwerte - ortho-
gonalisierbar; ja sie sind auch, wie aus der N ormierbarkeit a'; Xi = 1 folgt,
stets reell, womit dann auch die Eigenwerte reell sein müssen, wie wir
auch noch auf anderem Wege zeigen werden.
Daß im Falle allgemeiner, nicht diagonalähnlicher Matrix die für das
vorhergehende und weiteres wesentliche Beziehung (18) nicht mehr zu
gelten braucht, zeigt folgendes Beispiel.
4 1) i 4 -.I. 1
A( = , =A2 -6A+9={A-3)2=0.
-1 2 -1 2-.1.
Zum zweifachen Eigenwert Al = .1. 2 = 3 gehört mit der charakteristischen
Matrix
A-AI=(
-1
1 1)-1
vom Rangabfalli nur je ein Eigenvektor, nämlich Xl = (1, -1)' und
Y1 = (1, 1)" und hierfür ist offenbar x;
Y1 = O. Näher werden wir auf
diese Verhältnisse allgemeiner nicht diagonalähnlicher Matrizen erst in
§ 19.2 eingehen.
13.5. Ähnlichkeitstransformation. Invarianten
Eine quadratische Matrix .11 läßt sich, wie wir wissen (vgl. § 5), als
zahlen mäßige Darstellung
Y = A X (23)
einer linearen Abbildung y = a(a~) in einem bestimmten Koordinaten-
system auffassen, in welchem die geometrischen Vektoren ;r, y als
algebr<lische Vektoren, d. h. als Spalten ihrer Komponenten erscheinen.
Bei Übergang auf ein ncues System mittels nichtsinglllärer Koordinaten-
transformation
X = l' .i~ , !J = 1'!i (24)
transformiert sich, wie gleichfalls bekannt, die Darstellung (23) zufolge
x
l' fj = A l' auf
fJ = n.i: (25)
mit der neuen Abbildungsmatrix

(26)
Bei einer solchen Ahnliclzl,citstransjormation der Matrizen bleiben nun,
wie leicht zu zeigen, charakteristische Gleichung und ihre \Vurzcln,
die Eigenwerte Ai der :Uatrix A unverändert. Es ist nämlich wegen des
Determinantensatzes 3 aus § 2.2, S. 21
det (B -.I. I) = det (1'-1./11' -.I. I) = det [T"1 (Ll-), I) TJ
= det T-1 det T det (A -.I. I) = det (A -.I. I) .
158 § 13. Eigenwerte und Eigenvektoren

Wir haben somit


Sa tz 8: Eine Ähnlichkeitstransjormation Gl. (26) läßt die charakte-
ristische Gleichung und ihre Wurzeln, die Eigenwerte einer Matrix unver-
ändert.
Charakteristische Gleichung und Eigenwerte sind demnach kennzeich-
nende Eigenschaften nicht allein einer Matrix, sondern darüber hinaus
solche der durch die Matrix dargestellten linearen Abbildung. Die
Matrix A ist Ausdruck der Lineartransformation in einem ganz bestimm-
ten Koordinatensystem, auf welches Vektorkomponenten und Matrizen-
elemente bezogen sind und in dem sie in der Form GI. (23) erscheint.
Charakteristische Gleichung und Eigenwerte aber sind vom Koordinaten-
system unabhängige, invariante Eigenschaften der Lineartransformation,
der Abbildung selbst. Damit erweisen sich dann auch gemäß GI. (9a, b)
Spur und Determinante der Matrix als gegenüber Koordinatentransforma-
tionen invariante Größen. - Zum gleichen Ergebnis gelangen wir, wenn
wir die GI. (6) der Transformation GI. (24) unterwerfen. Nach Multipli-
kation mit T-l erhalten wir:
T-l A T Xi - B Xi = I' i Xi .
Die Eigenvektoren Xi erscheinen natürlich in neuen, auf das neue System
bezogenen Komponenten.
Beispiel: Die Matrix

A =e ~)
mit der Spur s = 5 +2 = 7 und der Determinante A = 6 hat die charakteristi-
sche Gleichung
.11. 2 -7.11. +6= 0
mit den charakteristischen Zahlen.ll. 1 = 1, .11.2 = 6. Untnwirft man das System der
Lineartransformation
2) mit 'T-l = ( 3
3 -7
so transformiert sich die Matrix A in

B = T-l L1 T = ( 3 -2) (53


-7 5 19
121
(
= -276

Ihre Spur ist wiederum s = 121 - 114 = 7, ihre Determinante B = 6.


Aus der Ähnlichheitsl<lasse aller Matrizen des gleichen charakteristi-
schen Polynoms
P(Ä) = det (I, I - A) = ao + a + ... + an-
1 ;, 1 Ä,,-l + An (27)
hebt sich eine Matrix hervor, welche die Polynomkoeffizienten a k un-
mittelbar als Matrixelemente enthält. Das ist die dem Polynom zu-
13·6. Der RAYLEIGH-Quotient. 'Wertebereich einer :\Iatrix 1:;9

geordnete Begleitmatrix oder Frobcniusmatrix 1

... -a n _
~ )- 1
(27)

wo sich durch Entwickeln der charakteristischen Determinante


det (.1 I - F) nach der letzten Zeile gcrade das Polynom (7) aufbaut.
Beispielweise erhalten wir für n = 4:
}, -1 o o
o A -1 0
det (.1 I - /1') =0
o A-1
ao a1 a2 a3 + }"
-1 0 01 A o 0: !}, -1 Oi
- ao A -1 0 +a 0 -1 01- a io }. O!
-1! 0
1 2
o }. }, -1: 10 o -1

+ ( + ') , 011-
a3 A ~
}, -1
~ - ~ - ao + a1 I. -+ a2 fl.12 + a3 /-3. ,..I- "4 •
I.

Eigenvektoren sind mit den \\lurzeln Ai der charakteristischen Gleichung


(28)
wie man leicht durch Einsetzen in die Eigenwertgleichung (}'i I - P) J.'i=O
bestätigt. Die FHOBENlcsmatrix hat also soviele linear unabhängige
Eigenvektoren, wie das Polynom P(A) verschiedene Nullstcllen besitzt.
Die Begleitmatrix läßt sich bcispicl\\'cise dazu benutzen, numerische
Methoden der Matrizenrechnung zur \Vurzelbestimmung algebraischer
Gleichungen heranzuziehen.

13.6. Der Rayleigh-Quotient. Wertebereich einer Matrix


Als ein in theoretischer wie praktischer Hinsicht gleich wichtiger
Begriff erweist sich der Rayleigh-Quoticnt. Ist x =F 0 ein beliebiger
n-reihiger Vcktor, der auch komplex sein darf, ist ;r* der zu x konjugiert
transponicrte Vektor und A eine n-reihige :\Iatrix mit reellen oder kom-
plexen Elemcnten (lik' so versteht man unter dem zum Vektor .l~ mit
der Matrix il gebildeten R\ YLEICH-Quotienten elen Ausdruck

(29)

1 GEORG FROBENIUS, 1849~ 1917, Dcrlin, leistete \\csentlicl1C' BeiträgL' zum .\ usbau
der :\fatrizentheorie.
160 § 13. Eigenwerte und Eigcm·cktorcn

Sein Kenner ist als Kormquadrat de:i Ycklors reell positiv. Der Zähler
hingegen wird im allgemeinen eine komplexe Zahl sein und mit ihm
auch der RAYLEIGH-Quotient, R[x] = (!-' a ir, +-
Ist nun Xi ein Eigenvektor der Matrix und )'i zugehöriger Eig('I1\H'ft,
so folgt aus der Eigenwertgleichung "I Xi = J'i a~i durch Vormultipli-
kation mit x7:

und daraus wegen a:7 ;X:i =l= 0 für den Eigenwert

S atz 9: Der Rayleigh-Quotient einer JII atrix .L1, gebildet mit emclIl
Eigenvektor Xi der !Ir atrix, ergibt den zugehörigen Eigenwert )';'
Diesen Eigenwert erhält man bei vorliegendem Eigenvektor Xi mit den
Komponenten XI'), wenn wir für den transformierten Vektor "1 a'i = Zi
mit Komponenten schreiben, natürlich auch ab die Kompollentcn-
Quotienten

für alle f mit =!= O. Ist nun X kein Eigenvektor, aber die Näherung
eines solchen, so falkn die Quotienten qj kOl1lponentemveise verscllieden
aus und sind Käherungen für Ai' Der mit a: gebildete 1\.,\ YLEICH-Quotient
R[x] stellt dann eine gewisse :JIittelbildung der qj dar und ist als :\ähc-
rung für Ai zu betrachten. t'nter gewissen t'msEindcn, auf die wir noch
zurückkommen, ist diese - selbst bei nur grober ::\äherung X für den
Eigenvektor - bemlTkens\HTt gut. Hierauf IXTuht die große praktische
Bedeutung des R,\ YLEICH-Quotienten.
~lit Hilfe des 1\.,\ YLEIGH-Quotienten uml seiner Ikzielmng zu den
Eigenwerten lassen sich sofort wichtige Au,;sagen für Sonderfälle VOll
Matrizen herleiten. Ist nämlich A Izcrmites(/l, insbesondere reell symme-
trisch, .LI = A *, so bildet der Zähler :1;* "I X eine hermitesche Form,
von der wir in § 11.4 zeigten, daß sie auch bei kUlllpkxem Yektor ;x;
stets reell ist. Ebenso ist der Z~ihler im Falle schicfhcrmitescher :\latrix
"1 =.c - LI * rein imaginär. So erhalten \ür
S atz 10: Die EigenLeerte einer hCYilI ilcsclzen (reell symmetrischen) l"latrix
sind sämtlich reell, die einer sclzicjhcrJi/itcsclzen Jlatrix rein imaginär.
J)ie Eigem.ccrle einer positiv dejiniten u;;w, semidefiniten hermileschcn
Jlatrix sind sämtlich positiv bz7.c. nicht lIcgati~',
Auf \\'eitere bedeutsame Eigenschaften hermiteseher ~Iatrizen kommen
\"ir ausführlich in § 15 zurück,
Da es in (2<)) auf einen Faktor bei .1' offen::;ichtJich nicht ankommt,
der sich bei der Quotientcnbildung heraushebt, so dürfen wir X normiert
13.6. Der RAYLEIGH-Quotient. Wertebereich einer Matrix 161

annehmen etwa zu x* x = 1. Der RA YLEIGH-Quotient nimmt so die


Form an
R[x] = x* A x mit x* x = 1 . (29 a)
Läßt man nun x die Gesamtheit aller auf x* x = 1 normierter n-dimen-
si on al er komplexer Vektoren durchlaufen, so überstreicht die Zahl
R[x] =e = a +i i
in der komplexen Ebene einen bestimmten, der Matrix A eigentümlichen
Bereich, den sogenannten Wertebereich der Matrix (field of values), den
wir mit [A] bezeichnen wollen, Abb. 13.2, S. 162. Dieser Bereich ist be-
schränkt, wie man aus folgender Abschätzung ersieht. Zunächst gilt
IRI = Ix* A xl = 117 aik Xi xkl < 17 laikl lXii Ixkl .
Es sei nun a der maximale Betrag der Matrixelemente
a= Max laikl . (31)
i, k
Damit folgt weiter
IRI < a 17 Ixillxkl = a17 (lxil17 Ixki) .
i,k, i k

Nun erhält man aus der CAFCHy-SCHWARzschen Ungleichung (§ 2.4,


S. 26) mit dem Vektor e' = (1, 1, ... , 1) und dem Betragsvektor
x' = eXIl, Ix2 1,···, IXni)
le' xl = 2..' Ix;1 ~ lell;cl = Y; lxi·
oder wegen lxi = 1

Damit ist IRI abschätzbar zu


I

~I~na
Der Wertebereich einer Matrix liegt somit innerhalb eines Kreises vom
Radius n a mit dem maximalen Betrag ader Matrixelemente. Kreis-
randpunkte können dabei zum Wertebereich gehören.
Da R[x] für die Eigenvektoren der Matrix die zugehörigen Eigenwerte
annimmt, R[x;] = Ai' so liegen diese als diskrete Punkte der Zahlen-
ebene innerhalb oder auf dem Rande des Wertebereiches [A], Abb. 13.2.
Mit (32) hat man also auch für sie die Abschätzung

(3)

Damit hat man eine ganz einfach zu handhabende, wenn auch unter
Umständen noch recht grobe Aussage über die Lage der Eigenwerte einer
Matrix in der komplexen Zahlenebene.
Zurmühl, l\Iatrizen 4. Aufl. 11
162 § 13. Eigenwerte und Eigenvektoren

Im Falle hermitescher Matrix besteht der Wertebereich aus emem


Stück der reellen Achse, Abb. 13.3. Es wird, wie wir später zeigen, vom
größten und kleinsten Eigenwert begrenzt. Für die zugehörigen Eigen-
vektoren besitzt der RA YLEIGH-Quotient somit Extremaleigenschaft. -
Im Falle schiefhermitescher Matrix A ist i A hermitisch, somit i R[x]
reell, also R[x] rein imaginär. Der Werte-
Im, bereich erstreckt sich also auf der imaginären
Achse und wird wieder begrenzt von zwei
Eigenwerten extremen Betrages.

Re

Abb.13.2. Wertebereich [Al einer Abb.13.3. 'Vcrtebereich [A] einer hermiteschen ~Iatrix A
komplexen Matrix A

Im Für allgemeine reelle Matrix A = A müssen


),~ax etwaige komplexe Eigenwerte Je paarweise
konjugiert auftreten, also im Wertebereich
zur reellen Achse gespiegelt liegen. Aber
auch der Wertebereich selbst liegt symme-
Re trisch zur reellen Achse, Abb. 13.4. Denn es
wird
~?1 = R[x] = x* A x
,max
-"'s (12 = R[x] = x' A X = x' A X = (;1 •

Zu jeder Zahl (I des Bereiches gibt es also stets


Abb. 13.4. Wertebereich [Al einer -
reellen Matrix A auch die konjugierte Zahl (I.

13.7. Matrizenpotenzen. Matrizenprodukte


Eigenwerte und Eigenvektoren einer Matrizenpotenz Am mit ganz-
zahligem Exponenten m stehen in bemerkenswert einfachem Zusammen-
hang mit den charakteristischen Zahlen Ai und den Eigenvektoren Xi
der Matrix A selbst, nämlich:
Satz 11: Zur MatrizenpotenzAIn einer MatrixA mit den Eigenwerten
Ai gehören bei positiven oder (im Falle nichtsingulärer Matrix A) negativem
ganzzahligem Exponenten m die Eigenwerte

(34)

Die Eigenvektoren der Matrix A sind auch Eigenvektoren von Am.


13.7. Matrizenpotenzen. Matrizenprodukte 163

Daß die Zahlen Ai' Eigenwerte von ~4'" bei unveränderten Eigenvek-
toren Xi sind, kann man leicht zeigen. Aus
A Xi = Ai Xi

folgt nämlich durch Multiplikation mit A:


A2 Xi = Ai A Xi = A~ Xi

A3 Xi = Ai A2 Xi = A~ Xi

Ebenso folgt durch Multiplikation mit A-l und Division durch Ai:

A-l X
~
= : X
I· i ~

Daß die Matrix Am auch genau die Eigenwerte A:" und darüber hinaus
keine weiteren besitzt, erfordert einen etwas umfangreicheren Beweis,
der in allgemeinerem Zusammenhang in § 20.1 durchgeführt wird. Die
Eigenvektoren von LI sind auch Eigenvektoren von Am. Nicht dagegen
braucht auch stets jeder Eigenvektor von Am ein solcher von A zu sein.
Ist nämlich z. B. A = 0 eine mehrfache charakteristische Zahl von A, so
kann, wie wir später sehen werden (vgl. § 19.3)' die Potenz A''! einen
größeren Rangabfall als A haben, so daß bei Am eine größere Anzahl
linear unabhängiger Eigenvektoren zu A = 0 gehört als bei A. Ein
weiteres Beispiel dieser Art ist die Matrix der ebenen Drehung um den
Winkel 2 :re/m mit Am = I .
Beispiel: Zu A = (~ ~) gehören die Eigenwerte Ä1 = 1, Ä2 = 6. Zur Kehr-

. Al
matnx - = 1
... ( 2 -4) geh"oren d'le EIgenwerte
. Xl = 1, x 2 = -1 .
6 -1 5 6
Entsprechendes läßt sich für Matrizenpolynome zeigen:
Satz 12: Sind Ai die Eigenwerte der Matrix A, so hat das Matrizen-
polynom
(35)
die Eigenwerte
(36)
Die Eigenvektoren Xi der Matrix A sind auch Eigenvektoren der Matrix
B = P(A).
Einfache Beziehungen ergeben sich auch für die Eigenwerte und Eigen-
vektoren der bei den Matrizenprodukte AB und BA zweier quadrati-
11*
164 § 13. Eigenwerte und Eigenvektoren

scher Matrizen A, B. Es sei .I. ein Eigenwert der Produktmatrix Aß


und x ein zugehöriger Eigenvektor :

l~~-=-=~x (37a)

Linksmultiplikation mit B ergibt


ß A(B x) = A(B x) .
Ist nun B x = y =F 0, so folgt

IB~Y =Ayl· (37b)

Der Vektor ß x = y ist also Eigenvektor zu B A bei gleichem Eigen-


wert A. Durch Linksmultiplikation von GI. (37b) mit A aber folgt auch
umgekehrt
A B (A y) = }.(A y) ,
d. h. bei A y =F 0 ist A Y = x Eigenvektor zu Aß. Ist nun aber B x = 0
für einen Vektor x =F 0, so ist B und somit auch An und nA singulär,
und beide Produkte haben einen Eigenwert .I. = 0, und wegen AB x =
A . () = 0 ist x zugehöriger Eigenvektor zu L1 B. Das Entsprechende
gilt für einen Eigenvektor y bei A y = o. So haben wir insgesamt
S atz 13: Die beiden Produktmatrizen A Bund B A zweier quadrati-
scher Matrizen A, ß haben die gleichen Eigenwerte}, bei im allgemeinen ver-
schiedenen Eigenvektoren x bzw. y, die für .I. =F 0 zusammenhängen nach

L1 Y = ;x; i
I
falls A y =F 0 , (38a)
B x = !J i falls B x =F 0 . (38b)

Die Anzahl linear unabhängiger Eigenvektoren x und y braucht dabei


nicht übereinzustimmen, da der Rang der bei den charakteristischen
Matrizen A lJ - .I. I und B A - .I. I bei mehrfachem Averschieden
sein kann. - Einen einfachen Zusammenhang zwischen den Eigenwerten
AA und An der EinzelmatrizenA, B und dem WertA AB der Produktmatrix
ABgibt es im allgemeinen Fall nicht.
Sind nun A und B nicht quadratisch und in beiden Richtungen ver-
kettbar, so ist Satz 13 abzuwandeln in
Satz 14: Ist A eine mn-Matrix, R eine nm-Matrix und ist m < n, so
hat die nn-Matrix BA die gleichen EigenwerteA, wie die mm-Matrix AB
und darüber hinaus den (n-m)-jachen Eigenwert .1.0 = o. Die zu Ao = 0
gehörigen Eigenvektoren y~ sind Lösungen von A Yo = o. Die übrigen
Eigenvektoren Xi' Yi hängen wieder nach Gl. (38 a, b) zusammen, sofern
die linken Seiten nicht Null geben.
13.8. Die allgemeine Eigenwertaufgabe 165
Beispiel:

A = (1 2 -1). B=( ~ ~)
2 0 1
-2 -1

AB = (9
o -1
5). 1. 2 _ 8 I. - 9 = (I. - 9) (I. + 1) = 0

1.1 = 9: Xl = G)· Yl = BXl (-D


=

1.2 = - 1: x 2 = (_:). Y2 = BX2 = (-D


Ayo = 0 ergibt Yo = (-D.
BA = ( ; ~
-1)
-1.
1.3 -81.2 -91. =1.(1.-9) (I.
1.0 = O. 1. 1 = 9. 1.2 = - 1 .
+ 1) = 0

-4 -4 1 Eigenvektoren : Yo' Yl' Y2 .

13.8. Die allgemeine Eigenwertaufgabe


In den Anwendungen, insbesondere in der Schwingungstechnik (vgl.
§ 12.3), aber auch bei näherungsweiser Behandlung linearer Eigenwert-
aufgaben von Differentialgleichungen l kommt neben der bisher behan-
delten sogenannten speziellen Eigenwertaujgabe eine Verallgemeinerung
vor, die als allgemeine Eigenwertaujgabe bezeichnet wird. nämlich

!A_X = Je B_x I bzw. 1(~_X.ll) x =_0 I (39)

mit zwei n-reihig quadratischen Matrizen A und B, und die das spezielle
Problem GI. (1) als Sonderfall mit B = I enthält. Man spricht auch vom
Eigenwertproblem des Matrizenpaares A, B. Als Bedingung für die
Existenz nichttrivialer Lösungen x haben wir hier die verallgemeinerte
charakteristische Gleichung

i det (A
------
~ Je B)- =
---------
0 I,
I
(40)
ausführlich:
I an -A bl l .•. aln -A bIn
.••••••••••••••• I = 0. (40')
: ani -A bnl • .• ann -A bnn !

Das ist wieder eine algebraische Gleichung in Je, deren Absolutglied


gleich det A = A und deren Koeffizient von An gleich det B = Bist,
1 Vgl. etwa Praktische Mathematik [I5]. VII. Kap.
166 § 13. Eigenwerte lind Eigenvektoren

wie aus GI. (40') mit Ä = 0 bzw. }, = 00 folgt. Es ist somit gen au dann
eine Gleichung n-ten Grades in Ä, wenn B nichtsingulär, B =l= O. In
diesem Falle läßt sich das allgemeine Problem überhaupt durch Links-
multiplikation mit 8-1 auf das spezielle zurückführen:
B-1 .L1 x = C x = Ä x . (41)
Man hat dann die gewöhnliche Eigenwertaufgabe der Matrix C = B-1 A
und es existieren gen au n Wurzeln Äi der charakteristischen GI.
(40) oder der damit gleichwertigen gewöhnlichen charakteristischen
Gleichung det (C - Ä 1) = 0 der Matrix C.
Ist dagegen B singulär, so fehlt in der charakteristischen Gleichung
die höchste Ä-Potenz Än und unter Umständen auch noch niedere },-
Potenzen. Die Gleichung ist nicht mehr vom n-ten Grade und es gibt
nicht mehr nEigenwerte. Ja, es kann sogar eintreten, daß sich die
Determinante auf das konstante Glied A reduziert und es damit über-
haupt keine Wurzeln mehr gibt. So hat beispielsweise die Aufgabe für
das Matrizenpaar
A = (1 -4),
4 -2

mit singulärem B keine Lösung, da sich für die charakteristische Deter-


minante
1- Ä -4-3Ä'1
det (,4 - Ä B) = I , = 14
!4-2Ä -2-6Äi

eine von Null verschiedene Konstante ergibt. Ist auch noch A singulär,
so kann es eintreten, daß die Determinante identisch verschwindet, so
daß jede beliebige - reelle oder komplexe - Zahl Ä als Eigenwert des
Paares A, B angesehen werden kann. Von diesem letzten sogenannten
singulären Fall, dessen theoretische Behandlung weitergehende Hilfs-
mittel erfordert, sei hier ganz abgesehen.
Ist R singulär, aber A nichtsingulär, so kann man mit fl = 11Ä auf
(fl A - 8) x = 0 (42)
übergehen. Hier ist die charakteristische Gleichung dann wieder vom
n-ten Grade in fl, hat jedoch eine (unter Umständen p-fache) Wurzel
fl = O. Dann ist die ursprüngliche GI. (40) vom Grade n - p in Ä (es
tritt, wie man auch sagt, der p-fache Wert Ä = 00 auf). Für das obige
Beispiel haben wir in fl die charakteristische Gleichung
det (fl A - B) = 14 fl2 = 0
mit der Doppelwurzel fll = fl2 = O. Wegen der Möglichkeit des Über-
ganges auf GI. (42) dürfen wir die beim Parameter Ä stehende Matrix 8
in GI. (39) ausdrücklich als nichtsingulär voraussetzen.
13.9. Eigenwertberechnung bei komplexer Matrix 167

13.9. Eigenwertberechnung bei komplexer Matrix


Die Berechnung der Eigenwerte und Eigenvektoren einer komplexen
Matrix kann, ähnlich wie bei komplexen Gleichungssystemen (vgl. § 4.3),
auf rein reellem Wege erfolgen. Mit
A=B+~.·C} (43)
x=u+zv
erhält man aus
(44)
durch Aufspalten in Real- und Imaginärteil die beiden reellen Gleichungs-
systeme
B u-C v = A.U,}
(45)
Cu+Bv=A.v,
die zur Matrizengleichung

zusammengefaßt wird. Mit den reellen Matrizen

K=(B-C) C B' z=(:) (46)

tritt daher an die Stelle der n-reihigen komplexen Eigenwertaufgabe (39)


die 2 n-reihige reelle Ersatzaujgabe

(47)

wo wir aus bald verständlichen Gründen den Parameter A noch durch x


ersetzt haben. Das charakteristische Polynom q(x) der Ersatzmatrix K
besitzt als Polynom 2 n-ten Grades 2 n Wurzeln, die, soweit sie komplex
sind, paarweise konjugiert und, wie sich gleich zeigen wird, auch im
reellen Falle paarweise, also als Doppelwurzeln auftreten. Wir schreiben
sie daher in der Form

XiI = (Xi + i Yi j = 1,2, ... , n. (48)


x j2 = (Xi - i Yj

Diese Wurzeln hängen nun in einfacher Weise mit den gesuchten Eigen-
werten AI der komplexen Matrix A zusammen, nämlich es ist

AJ = +iß
(Xi j
(49)
mit ßi = + Yj oder -Yj
168 § 13. Eigenwerte und Eigenvektoren

Denn außer dem gegebenen Problem (44) führt auch das konjugierte
AX=AX (44a)
durch Aufspalten in Real- und Imaginärteil auf das gleiche reelle Ersatz-
problern (47) mit" = A. Die Wurzeln "j des Ersatzproblems müssen
also außer den_Eigenwerten Aj der Aufgabe (44) noch die dazu konju-
gierten Werte Ai liefern.
Hat man daher die 2n Eigenwerte "i der Ersatzmatrix K bestimmt, so
kennt man die Eigenwerte Ai von A bis auf das Vorzeichen ihrer Ima-
ginärteile ßi" über diese Vorzeichen entscheidet die Determinanten-
bedingung

\l1(CX, ß)- det


I
(~;: -= ~ + ~ :) -= 0 . (50)

Sie ergibt sich durch Einsetzen von GIn. (43) und (49) in (44) und Auf-
spalten, was auf die beiden Gleichungen
BU-CV=cxU-ßV} (51)
Cu+Bv=ßu+cxv
führt. Nach Vorliegen von cx, y hat man zu prüfen, für welchen der
beiden möglichen Werte ß = ± y die Determinante verschwindet,
m. a. W. für welchen Wert die in GI. (50) stehende Matrix singulär wird.
Im singulären Falle aber ist sie wenigstens vom Rangabfall 2, da der
dem System (51) entsprechende Eigenvektor x = u + i v noch bis auf
eine komplexe Konstante frei ist, so daß stets wenigstens zwei der Kom-
ponenten von z frei wählbar sind.
Die hier geschilderte Vorgehensweise ist übrigens auch im Falle reeller
Matrix A, aber komplexer Eigenwerte Ai und damit komplexer Eigen-
vektoren Xi anwendbar. Es ist dann B = A und C = o.
Ist A hermitesch, B' = B, C' = - C, so ist K reell symmetrisch und alle
Wurzeln "i sind reell und mindestens zweifach. Damit sind auch die Ai
reell, was sich hier auf sehr einfachem Wege ergibt.
Beispiel:

A = (2; i 1+ 2
-2 + 5
i)i ' K=
('
4 -2
1 2
,-,0
2
-5-2)
1
o 5 4 -2'
Bestimmung der charakteristischen Gleichung z. B. nach KRYLOV (vgl. § 14.2) ergibt:
,,4 + 10,,2 + 169 = 0
,,2 = - 5 ± 12 i
" = ±
± 3 i) .
(2
Die Determinante Ll(1X, ß) verschwindet hier für die beiden Werte
AJ=2+3i. A2 =-2+3i,
14.1. Das System der Eigenachsen. Transformation auf Diagonalform 169

während sie für die beiden anderen Werte von % nicht Null wird. Berechnung
der Eigenvektoren nach verkettetem Algorithmus mit Zeilenvertauschung:
A1 =2+3 i A2 =-2+3 i
-----
2 6 -7 6 5 10 -3

0 1 2 -2 4 1 2 -2
4 -4 0 -2 4 0 0 -2
-2 2 0 1 -2 2 4 1
0 2 4 -4 0 2 4 0

0 1_11 2 -2 4 2 -2

~ -4 0 -2 -1 1-1 -2 0

1/2 0 0 0 1/2 5/2 0 0


0 -2 0 0 0 2 0 0
-- -- --------
-1/2 -3 0 0 -3/2 7/2 0 0
- ---
Zl: -2 -2 0 0 Z2 0 0 2 0

~l- -C-i) 2 ~2= (~ i)


Eine der Komponenten läßt sich rein reell oder imaginär wählen.

§ 14. Diagonalähnliche Matrizen


14.1. Das System der Eigenachsen. Transformation auf Diagonalform
Die theoretische wie auch die praktische Behandlung der Eigenwert-
aufgabe erfährt eine wesentliche Vereinfachung für den Fall, daß die
n-reihige Matrix A gen au n linear unabhängige Eigenvektoren Xi be-
sitzt, daß also zu jedem etwa auftretenden mehrfachen Eigenwert Aa
der Vielfachheit Pa die charakteristische Matrix A - AaI den vollen
Rangabfall
,ad = a I. p--I
a = 1,2, ... ,s (1 )
----------

besitzt, wo wir mit s wieder die Anzahl der verschiedenen Eigenwerte Aa


bezeichnen. Matrizen dieser Art bilden eine gerade auch für die An-
wendungen besonders wichtige Klasse, die wir aus sogleich verständ-
lichen Gründen die Klasse der diagonalähnlichen Matrizen nennen wollen.
Die n linear unabhängigen Eigenvektoren spannenden ganzen Raum
Rn auf. Zu jedem einfachen Eigenvektor gehört eine bestimmte Eigen-
richtung, zu einem mehrfachen aber ein Pa-dimensionaler Eigenraum,
in welchem jeder Vektor Eigenvektor ist und in dem Pa linear unab-
hängige Vektoren willkürlich auswählbar sind. Der Matrix ist somit,
sofern sie zu der bezeichneten Klasse gehört, ein System n linear un-
abhängiger Eigenvektoren xl> x 2 ' ••• ,xn zuzuordnen, die wir spalten-
weise zur nichtsingulären Eigenvektormatrix (auch Modalmatrix genannt)
X = (xl> x 2 ' ••• , x n) (2)
170 § 14. Diagonalähnliche Matrizen

zusammenfassen können. Wir können uns die Vektoren auch noch


normiert denken nach
(i=1,2, ... ,n), (3 )
wodurch sich manche Beziehungen vereinfachen. Das System dieser
nEigenvektoren läßt sich dann als ein der Matrix Li eigentümliches,
im allgemeinen schiefwinkliges Achsensystem auffassen, das System der
Eigenachsen, und wir dürfen vermuten, daß, indem wir dieses
System als ein ausgezeichnetes Koordinatensystem zugrunde legen, alle
Beziehungen in besonders einfacher Form erscheinen werden. Das ist in
der Tat der Fall. Mit den Eigenwertgleichungen
(4)
erhalten wir nämlich
~4 X = (A Xl' "4 x 2 , • " • , A x n) = (Al xl> A2 x 2 , ••. , An X n) .
Hier ist die letzte Klammer dc:.rstellbar als Matrizenprodukt der Modal-
matrix X mit der Diagonalmatrix der Eigenwerte:

(5)

womit die Beziehung


!AX=XA (6)
!

folgt, die als Zusammenfassung der Eigenwertgleichungen (4) anzusehen


ist. Wegen nichtsingulärem X aber wird daraus durch Linksmultipli-
kation mit X-I:
. X-lAX =A , (7)
! _!
d. h. aber eine Ähnlichkeitsiransformation auf das System der Eigen-
achsen.
Satz 1: Jede Matrix mit n linear unabhängigen Eigenvektorenx i
transformiert sich bei Übergang auf das durch die Veldoren ;X:i festgelegte
System der Eigenachsen auf die Diagonalmatrix l\. = Diag(AJ ihrer Eigen-
werte.
Läßt sich umgekehrt A durch Ahnlichkeitstransformation auf Diago-
nalgestalt bringen:
T-I A T = D = Diag(di ) ,
so folgt AT = T D oder A t i = di t i (i = 1,2, ... , n). Damit aber er-
weisen sich die Spalten t i der Transformationsmatrix Tals n linear
unabhängige Eigenvektoren der Matrix mit den zugehörigen Eigen-
werten Ai = d i . Matrizen mit nunabhängigen Eigenvektoren sind somit
14.2. Der Entwicklungssatz. Verfahren von KRYLOV 171

auch die einzigen, die sich durch eine Ähnlichkeitstransformation


auf Diagonalform überführen lassen. Daher dürfen wir diese Klasse
von Matrizen als die der diagonalähnlichen Matrizen bezeichnen.
Auch die durch die Matrix A vermittelte lineare Abbildung
Ax=y ~
geht durch die Koordinatentransformation auf Eigenachsen
x=Xx, y=Xy
in die entsprechend einfache Form
lax-YI
, '
(9)
über, in Komponentenform also:

~l =
Y2 =
Al ~l)
A2 X2
(9')
......
Yn =Anxn
Dies läßt sich, wenigstens im Falle reeller Eigenwerte Ai> deuten als
Dehnungen in den Eigenrichtungen mit den Dehnungsmaßstäben Ai'

14.2. Der Entwicklungssatz. Verfahren von Krylov


Das System n (reeller oder komplexer) unabhängiger Eigenvektoren XI
einer diagonalähnlichen n-reihigen Matrix A, die wir im folgenden
einfachheitshalber als reell annehmen wollen, bildet, wie wir sahen,
ein der Matrix eigentümliches ausgezeichnetes Koordinatensystem, das
sich für viele Betrachtungen als vorteilhaftes Bezugssystem anbietet.
Es sei z ein beliebiger reeller Vektor, und er werde im System der
Eigenvektoren dargestellt oder, wie man sagt, nach den Eigenvektoren
entwickelt :
(10)

Die sogenannten Entwicklungskoejjizienten Ci' also die auf das System


der Eigenvektoren bezogenen Koordinaten des Vektors (die übrigens
bei reellen Eigenvektoren Xi reell sind) ergeben sich als Lösungen der
als inhomogenes Gleichungssystem aufzufassenden Beziehung (10), die
wir kurz in der Form
Xe = z (10a)
mit dem Vektor c = (cl> c2 , ••• , c,Y, der nichtsingulären Matrix X und
der rechten Seite z schreiben können. Explizit erhält man die Ci mit
Hilfe der Linksvektoren Yi der Matrix A, von denen wir annehmen
wollen, daß sie mit den Xi biorthonormiert seien:
y;xk = °ik·
172 § 14. Diagonalähnliche Matrizen

Linksmultiplikation von GI. (20) mit y; ergibt dann gerade


i ~ -; I
LC~=_YiZ , (11 )

was übrigens nichts anderes als Auflösung von GI. (10a) in der Form
c = X-I Z mit X-I = Y' darstellt.
Satz 2: Entwicklungssatz. Ein beliebiger reeller Vektor Z läßt sich
nach den Eigenvektoren Xi einer reellen diagonalähnlichen Matrix A in
der Form Gl. (10) entwickeln mit den Entwicklungskoejjizienten Gl. (11).
Von diesem Satz lassen sich zahlreiche, theoretisch wie praktisch gleich
bedeutsame Anwendungen machen.
Es sei Zo ein beliebiger reeller Ausgangsvektor, und wir bilden von
ihm aus mit der Matrix A die sogenannten iterierten Vektoren

Z2 = A Zl = A 2 Zo
. Z3 = A Z2 = A 3 Zo (12)
I .......... .

i-=-n =~~n ~_l ~ "~~ zo_


Diese n + 1 Vektoren Zo bis Zn sind nun bekanntermaßen linear ab~
hängig, da mehr als n Vektoren im Rn stets abhängig sind (§ 7.2, Satz 3)·
Insbesondere besteht in jedem Falle eine Abhängigkeit von spezieller
Form:
Sa tz 3: Ist
P(A) = det (A I - A) = a o + all, + ... + an-l }.,,-l + An (13)
das charakteristische Polynom der Matrix .Ll, so besteht zwischen dem be-
liebigen A usgangsve/dor Zo und den n ersten Iterierten Zl bis Zn die lineare
Abhängigkeit der Form

: P[zoJ= P(A) Zo = ao Zo + a l Zl + ... + a n- 1 zn-l + Zn = 0 (14)

mit den Koeffizienten ai des charakteristischen Polynoms als Fa/doren.


Für den Fall diagonalähnlicher Matrix A folgt dies aus dem Ent-
wicklungssatz zusammen mit den Eigenwertgleichungen A Xi = Ai Xi:
Zo = Cl Xl + C2 x2 + ... + eIl X" i . ao
Zl= Al Cl Xl + A2 c2 x 2 + ... + I. n C" J: n a l ! .

Z2 = A~ Cl J'I + ;.~ C2 X 2 + ... + }.~ C" X" ' . (l2


. . . . . . . . .. . ......... .. :

Zn = A~ Cl Xl + A~ C2 X 2 + ... + A~ C" X n 1 !

P[zoJ = P(}'l) Cl Xl + P(A 2) C2 X 2 + ... + P(A C" ;']'/1 II ) = 0


14.2. Der Entwieklungssatz. Verfahren von KRYLOV 173

Bilden wir nämlich damit, wie angedeutet, den Linearausdruck P[zoJ,


°
so ergibt sich wegen P(l;) = rechterhand Null, womit Satz 3 für den
Fall diagonalähnlicher Matrix A, wo wir den Entwicklungssatz an-
ziehen dürfen, bewiesen ist. Daß er darüber hinaus allgemein, für be-
liebige Matrix A, gilt, werden wir erst in 14.3 zeigen.
Die Beziehung (14) der iterierten Vektoren läßt sich nun unter be-
stimmten Voraussetzungen nach einem zuerst von KR YLOVI , später
- unabhängig - von FRAzER-DuNcAN-CoLLAR2 angegebenen Verfahren
zur Aufstellung des charakteristischen Polynoms, d. h. zur Berechnung
seiner Koeffizienten ai benutzen, indem (14) als lineares Gleichungs-
system der nUnbekannten ai angesehen wird. Das System ist genau
dann eindeutig auflösbar, wenn die Matrix
Z = (zo' Zl' . . . , zn-I) (15)
der n ersten Vektoren nichtsingulär ist, diese Vektoren also linear un-
abhängig sind. Wir prüfen darum, unter welchen Bedingungen dies
der Fall ist. Eine Abhängigkeit hätte die Form
+
g[zoJ = Yo Zo YI Zl + ... +
Yn-l Zn-l = 0
mit nicht sämtlich verschwindenden Koeffizienten Yi' Mit dem zu-
geordneten Polynom
g(A) = Yo ylA + + ... +
Yn_I An - 1
erhalten wir auf gleiche \Veise wie oben über den Entwicklungssatz:
g[zoJ = g(A I ) Cl Xl +
g(A 2 ) C2 X 2+ ... +
g(An ) Cn X n = 0 ,
woraus wegen der Unabhängigkeit der nEigenvektoren Xi folgt:
Cig(A i ) =0 füri=1,2, ... ,n. (16)
\Vir machen nun zwei weitere Annahmen, nämlich
1. Alle Ci =l= 0, d. h. Zo besitze Komponenten sämtlicher n Eigenvek-
toren, der Ausgangsvektor Zo sei, wie man sagt, an sämtlichen Eigen-
\'ektoren beteiligt.
2. Die n Eigenwerte Ai der Matrix seien sämtlich verschieden.
Aus der ersten Annahme folgt aus (16) zunächst
g(}'i) = 0 für i = 1, 2, ... , n .
Aus der zweiten aber folgt dann, da g(A) als Polynom vom Grade n - 1
nur n - 1 Nullstellen hat, das identische Verschwinden von g(A), d. h.
aber das Verschwinden sämtlicher Konstanten Yi' also die lineare Un-
abhängigkeit der n ersten Vektoren Zo bis zn-I' Somit gilt
S atz 4: Sind die Eigenwerte der Matrix A sämtlich verschieden und
ist der Ausgangsvektor Zo an allen nEigenvektoren der Matrix beteiligt,
1 KRYLOV, A. N.: Bul!. Aead. Sei. CRSS, Leningrad, 7. Ser. Classe mathem. 1931,
S.491-538.
2 Elementary Matriees [6], S. 141 ff.
174 § 14. Diagonalähnliche Matrizen

Ci =l= 0 für i = 1,2, ... , n, so ist die Matrix Z, Gl. (15), nichtsingulär,
das Gleichungssystem
(17)

ist somit eindeutig nach a = (a o, ... ,an-I)' auflösbar und liefert die
Koeffizienten ai des charakteristischen Polynoms P(A).
Damit haben wir - zunächst unter den beiden Annahmen genügend
allgemeinen Ausgangsvektors Zo und durchweg verschiedener Eigen-
werte - ein überaus einfaches Verfahren zur Aufstellung des charak-
teristischen Polynoms P(A) der Matrix gewonnen, dessen Berechnung
aus der charakteristischen Determinante det (A 1 - A) bei größerer
Reihenzahl n recht beschwerlich sein würde. Man bildet mit beliebigem
Ausgangsvektor zo' der nur sämtliche Eigenvektoren der Matrix ent-
halten muß, die iterierten Vektoren Zl bis Zn- Ihre Komponenten sind
dann die Koeffizienten eines inhomogenen Gleichungssystems, dessen
Lösungen ai die Koeffizienten des charakteristischen Polynoms dar-
stellen (Verfahren von KRYLOv).
Es bleibt noch zu untersuchen, was eintritt, wenn die Voraussetzungen
von Satz 4 nicht erfüllt sind. Wir lassen zunächst die zweite Annahme
durchweg verschiedener Eigenwerte fallen, nehmen aber die Matrix A
als diagonalähnlich an. Es seien
s verschiedene Eigenwerte Al> }.2' . . . , }'s mit s ;;;;: n
der Vielfachheiten Pl> P2' ... , Ps mit}; Pi = n .
Die Matrix A sei diagonalähnlich, besitze -also s unabhängige Eigen·
räume Xi der Dimension di = Pi' Mit s passend ausgewählten festen
Eigenvektoren Xi aus je einem der Eigenräume ist dann ein beliebiger
Vektor Zo wieder darstellbar in der Form
Zo = Cl Xl + C2 x 2 + ... + Cs X s •
Damit ergibt sich für Zo und die Iterierten Zl bis Zs unter Berücksichtigung
von A Xi = Ai Xi ein entsprechendes Schema wie oben, S.172, wobei
nur überall n durch s zu ersetzen ist. \Vir führen nun das Polynom
s- ten Grades
(18)
ein, welches die s Eigenwerte der Matrix als einfache Nullstellen hat,
und es sei
(19)
Im Falle diagonal ähnlicher Matrix A ist dies das sogenannte Minimal-
polynom der Matrix, eine Bezeichnung, die sich in 14.3 erklären wird.
Damit bilden wir ähnlich wie früher
m[zoJ == m(A) Zo = bo Zo + b1 Zl + ... + bs-1 ZS-l + Zs
14.2. Der Entwicklungssatz. Verfahren von KRYLOV 175

und wir erhalten wegen m(Ai ) = 0 auf gleiche Weise wie oben
m[zoJ = Cl m(AI ) Xl + C2 m(A2) X 2 + ... + Cs m(As) X s = 0,
also
m[zoJ = 0 , (20)
d. h. lineare Abhängigkeit der s +
1 Vektoren Zo bis Zs mit den Koeffi-
zienten bi des Minimalpolynoms m(A).
Ist nun wieder Zo an sämtlichen sEigenräumen beteiligt, Ci =F 0 für
i = 1,2, ... ,s, so folgt auf gleiche Weise wie oben lineare Unabhängig-
keit der s ersten Vektoren Zo bis z8-l> während Zs von ihnen abhängig
ist. Damit aber ist das System
i Z*b+;s~-;l (17a)

mit der spaltenregulären ns-Matrix


Z* = (zo, zl> ... , ZS-l) (15 a)
eindeutig auflösbar nach den Koeffizienten b = (b o' ... ,bs- l )'. Bei
Durchführen des KRYLov-Verfahrens erweisen sich im Falle s < n schon
weniger als n + 1 Iterierte als linear abhängig. Indem man die noch
folgenden einfach außer Betracht läßt, liefert das Verfahren bei genügend
allgemein gewähltem Zo gerade die Koeffizienten des Minimalpolynoms.
Die zugehörige Gleichung m(A) = 0 ergibt sämtliche Eigenwerte der
Matrix, jedoch ohne Vielfachheiten etwaiger mehrfacher Eigenwerte.
Ist aber Zo nicht mehr an sämtlichen Eigenräumen beteiligt, sondern
nur an q< s von ihnen, so dürfen wir unbeschadet der Allgemeinheit
annehmen, es seien die q ersten:
Zo = Cl Xl + C2 x + ... + cq x q
2

mit Ci =F 0 für i = 1, 2, ... ,q. Dann verläuft alles wie oben, wenn wir
an Stelle von m(A) das Polynom q-ten Grades
(18a)
benutzen, womit
q[ZoJ = 0 (20a)
folgt, also lineare Abhängigkeit schon der q + 1 ersten Vektoren Zo bis
Zq. - Wir fassen zusammen zu
S atz 5: Die Matrix A sei diagonalähnlich mit s verschiedenen Eigen-
werten Al>' .. ,A s (s ~ n) und Zo ein beliebiger Ausgangsvektor. Man
bildet die Iterierten Zl' Z2' ... mit Zv = A zv-l'
Ist Zo an sämtlichen sEigenräumen beteiligt, so sind die Vektoren Zo
bis Z8-1 linear unabhängig, Zs davon abhängig. Das Krylov- Verfahren
liefert die Koeffizienten des Minimalpolynoms m(A), Cl. (18), (19). Im
Falle s = n ist m(A) = P(A), das charakteristische Polynom.
176 § 14. Diagonalähnliche Matrizen

Ist aber Zo an nur q< s der Eigenräume beteiligt mit den zugehörigen
Eigenwerten Al, }'2' ... ,Aq , so sind Zo bis Zq-l linear unabhängig, aber
schon Zq davon abhängig. Das Krylov- Verfahren liefert die Koeffizienten
des zugehörigen Teilpolynoms q(A), Gl. (18a).
Ist A nicht mehr diagonalähnlich, so hat auch das Minimalpolynom
m(A) mehrfache Nullstellen, wie sich später zeigen wird. In jedem Falle
liefert das beschriebene Verfahren bei genügend allgemeinem Ausgangs-
vektor höchstens dieses Minimalpolynom, also durch Auflösen von
m(A) = 0 sämtliche Eigenwerte der Matrix, allerdings möglicherweise
nicht mit der jeweiligen vollen Vielfachheit. - Zeigt sich bei Durch-
führen des Verfahrens lineare Abhängigkeit schon früher als bei Zn'
so ist entweder Zo nicht allgemein genug gewesen, was sich durch Wahl
eines anderen Ausgangsvektors beheben lassen würde; oder aber - wenn
das Verhalten bei jedem Zo auftritt - es ist wenigstens einer der Eigen-
werte von größerer Vielfachheit, als das Minimalpolynom anzeigt,
dieses ist von geringerem Grade als P(A).
Es seien nun die Eigenwerte Ai durch Auflösen der charakteristischen
Gleichung P(A) = 0 oder der Minimumgleichung m(A) = 0 ermittelP.
Dann bleibt noch die Bestimmung der zugehörigen Eigenvektoren Xi.
Dies könnte durch Auflösen der homogenen Gleichungssysteme
i = 1,2, ... , n

geschehen, was jedoch recht umständlich ist. Wesentlich bequemer ist


folgender Weg. In den iterierten Vektoren Zj sind ja die Eigenvektoren
sämtlich enthalten, und es kommt nur darauf an, durch einen Elimi-
nationsvorgang einen einzigen, den zum Eigenwert Ai gehörigen Vektor Xi
auszusondern. Dazu bildet man das reduzierte Polynom

(bzw. m(A): (A - Ai) im Falle mehrfacher Wurzeln), welches


Pi(A) = c~ + C{A + ... + c~2A"-2 + ,1"-1 (21)

lauten möge mit Koeffizienten cl" die sich am einfachsten aus einem
mit A = }'i durchgeführten HORNEHschema ergeben 2, was ohnehin bei
Ermittlung der Wurzel Ai aufgestellt wird. Die Koeffizienten c1 des
Polynoms P,(A) sind also als gegeben zu betrachten. Mit ihnen bildet
man nun die Vektorkombination

1 Zur Auflösung algebraischer Gleichungen vgl. etwa Praktische Mathematik

[IS], S. 32-77. - 2 Vgl. Praktische Mathematik [IS], S. 35 ff.


14.2. Der Entwicklungssatz. Verfahren von KRYLOV 177
und das ist genau gleich dem gesuchten Eigenvektor :

(23)

Denn in der Entwicklung erscheinen bei den Vektoren x k die Faktoren


Pi(}'k)' und diese sind Null für i =F k, womit

P;Cz] = PP'i) ci Xi = konst .. Xi

wird, also auch gleich Xi' da es auf einen konstanten Faktor nicht an-
kommt. - Im Falle einer MehrfachwurzelAi erhält man auf diese Weise
nur einen zugehörigen Eigenvektor. Weitere linear unabhängige er-
geben sich, indem man den Prozeß mit jeweils neuem Zo durchführt
und mit den sich dabei ergebenden Vektoren Zk die Kombination
GI. (22) bildet. - Wir erläutern das Vorgehen an zwei einfachen Bei-
spielen.

1. Beispiel:

A = ( 2
-2
-3
1
1)
3
1 -4 2

Zo Zl Z2 Z3
1 -6 6 I 1 1 20 101

=~ --~I-o~~-~~ :~
1-4 2 1_~_1 12 47
2 11 43
o -2 -3 11
~i 1/21 ~/=-1O~':
-14 13 -5

Charakteristische Gleichung:

A3 -5A2 + 13A-14=0
A = 2

-5 13 -14
A = 2: 2 -6 14
-3 7 I -0-
Pl(A) = A2 - 3A + 7
3 1 ,-
A2 3 = -
• 2
± -2 11 19 i
'
Zurmühl, Matrizen 4. Auf!. I:
178 § 14, Diagonalähnliche Matrizen

2, Beispiel:

Zo Zl Z2 Z3 ZO ZI

0 2 -8 0 12 48 2

-1 2 -3 -1 8 20 0 2
2 2 -6 0 2 8 56 2
-1 -2 0 -1 -4 -28 0 -2
-1 8 20
0 2 8 56
,
0 1/2 I
0 0
--------------
m(x): -12 -4

Hier bricht das Verfahren vorzeitig ab, so daß eine Doppelwurzel zu vermuten ist.
Minimumgleichung
Ä2-4Ä-12 = 0
Äl = 6. Ä2 = - 2
Pl ().) =Ä +2
P2(Ä) = Ä- 6

P2[Z), gebildet mit den abgeänderten Vektoren zo,


Zl ergibt einen neuen von 3"2
unabhängigen Vektor x 3 • Pl[z) dagegen den alten Vektor Xl' Die Doppelwurzel ist
somit~ = - 2.

14.3. Cayley-Hamiltonsche Gleichung und Minimumgleichung

Setzen WIr in GI. (14) für die iterierten Vektoren Zk = A k zoo so er-
gibt sich

Da nun Zo beliebig wählbar ist, so kann dies nur gelten, indem der
Klammerausdruck verschwindet. Dies ist der Inhalt des einstweilen
nur für diagonalähnliche Matrix bewiesenen, jedoch allgemein gültigen
Satz 6: Cayley-Hamiltonsches Theorem. Eine beliebige quadratische
Matrix A genügt ihrer eigenen charakteristischen Gleichung, d. h. hat LI
das charakteristische Polynom
14.3. CAYLEy-HAMILToNsche Gleichung und Minimumgleichung 179

so erfüllt A die Cayley-Hamiltonsche Gleichung

[P(A) ~n + an~~~~-l-~ ••___ ~_al A + a o Ii-oj. (25)


Das Matrizenpolynom P(A) ist gleich der Nullmatrix.
Diese bemerkenswerte Tatsache, zu der es im Bereich der gewöhnlichen
Zahlen keine Parallele gibt, hat weitreichende Konsequenzen. Die Po-
tenz An und somit auch alle höheren Potenzen von A lassen sich durch
eine Linearkombination der Potenzen AO = I bis An- l ausdrücken.
Ein beliebiges Matrizenpolynom läßt sich somit stets durch ein solches
vom Grade ~ n -1 darstellen. Aber auch die Kehrmatrix A-I ist so
darstellbar, wie aus GI. (25) durch Multiplikation mit A-I folgt, und somit
auch jede negativ ganze Potenz, sofern nur A nichtsingulär ist. Somit
lassen sich auch gebrochen rationale Funktionen der Matrix auf ein Poly-
nom von höchstens (n-1 )-ten Grades zurückführen. Wir werden später,
§ 20, zeigen, daß das sogar für beliebige Matrizenfunktionen zutrifft.
Wir haben noch zu zeigen, daß Satz 6 allgemein, also auch für nicht
diagonalähnliche Matrizen gilt. Dazu bildet man zur charakteristischen
Matrix
C = C(A) = .I. I - A (26)
mit det C = P(A) die adjungierte Matrix C adi , für die bekanntlich die
allgemeine Beziehung
C . Cadi = Cad; C = det C . I = P(A) I (27)
gilt r§
3.2, GI. (16)J. Die Elemente von C ad ; als die (n - 1)-reihigen
Unterdeterminanten von .I. I - A sind, wie man sich leicht klar macht,
Polynome inA vom Grade n - 1 oder kleiner, so daß wir C adi in der
Form einer Polynommatrix vom Grade n - 1 in .I. schreiben können:
C adi = Co + CIA + C2A2 + ... + C n_ 1 An - 1

mit von .I. freien Matrizen Ci. Setzt man nun dies sowie GIn. (24) und
(26) in GI. (27) ein und vergleicht die A-Potenzen beider Seiten, so er-
hält man
-AC o = aoI ·I
Co -ACI - a l I
·A
Cl -AC2 - a2 I
· A2

C n _ 2 -AC n _ 1 = an_lI ·An-l


C n- 1 =1 · An
Multipliziert man hier, wie angedeutet, die 2. Gleichung mit A, die 3.
mit A2 usf. und addiert alles, so heben sich links alle Glieder auf zur
12 •
180 § 14. Diagonalähnliche Matrizen

Nullmatrix. Rechts aber erscheint gerade das Matrizenpolynom P(A),


womit GI. (25) bewiesen ist.
Ein zweiter kurzer Beweis ist folgender. Man bildet mit GIn. (24)
und (25)
P('A)I-P(A) = (J.n I-An) + an- 1 W- 1 I-An-I) + ... + ~(U-A),
wo das letzte Glied mit a o wegfällt. Hier ist nun jede der Klammern
durch 'A 1 - A teilbar (ein Ausdruck 'An - x n ist stets teilbar durch
'A - x), wir können also schreiben
P('A) 1 - P(A) = ('A I - A) . M('A)
mit einer nicht weiter interessierenden Matrix M('A) vom Grade n - 1
in 'A. Andrerseits ist wegen GIn. (26) und (27) auch P('A) I durch 'AI - A
teilbar, so daß dann auch P(A) hierdurch teilbar sein muß. Da nun
aber P(A) den Parameter'A gar nicht enthält, so muß P(A) gleich der
Nullmatrix sein.
Die gleichen überlegungen, die uns eingangs von GI. (14) her auf
die CA YLEy-HAMILTONsche GI. (25) führten, lassen sich im Falle mehr-
facher Eigenwerte 'Aa auf GI. (20) anwenden mit dem Ergebnis, daß die
diagonalähnliche Matrix bereits die Polynomgleichung s-ten Grades
(28)
erfüllt, wo m('A) gemäß GI. (18) sämtliche s Eigenwerte'Aa als einfache
Nullstellen enthält. Wir werden erst später in § 18.1 zeigen können,
daß dies auch die Polynomgleichung kleinsten Grades ist, die von der
Matrix erfüllt wird, woher m('A) das Minimalpolynom und GI. (28) die
Minimumgleichung der Matrix genannt werden. Vorbehaltlich dieses
späteren Nachweises formulieren wir hier
Satz 7: Eine diagonalähnliche Matrix A mit mehrfachen Eigenwerten
genügt außer der Cayley-Hamiltonschen Gleichung P(A) = 0 auch schon
der Minimumgleichung (28) mit dem Minimalpolynom m('A), welches hier
sämtliche EigenwerteÄa als einfache Nullstellen enthält.
Gleichfalls in § 18.1 wird sich dann zeigen, daß im Falle allgemeiner
nicht diagonalähnlicher Matrix das Minimalpolynom auch mehrfache
Nullstellen besitzt. Stets aber ist es ein Teiler des charakteristischen
Polynoms P('A) und besitzt alle Eigenwerte als Nullstellen, nur mit
möglicherweise geringerer Vielfachheit fta ~ Pa. Dann kann man auch
zeigen, daß das KRYLOv-Verfahren bei genügend allgemein gewähltem
Zo stets gerade auf das Minimalpolynom führt.
Beispiel: Die Matrix

A = (-:
-1 -2
~ -!)
1
14.4. Das v. MrsEssche Iterationsverfahren 181

hatte das Minimalpolynom m(l) = l2 - 4l - 12. Dementsprechend ist

8 8 -12)
m(A) = A2 - 4A - 121 = ( 8 20 -24 + (-8
4 -8
-8
12)
24
-4 -8 16 4 8-4
12 o o
- ( 0 12 ~) ('~
= o
o o 12 0 o
Für die Kehrmatrix folgt dann daraus

A-l = ~
12
(A-41) = _1 (-~ _~ ~).
12
-1 -2 -3

14.4. Das v. Misessehe Iterationsverfahren


Den sogenannten direkten Methoden zur numerischen Behandlung
der Eigenwertaufgabe - Aufstellen der charakteristischen Gleichung,
Bestimmung ihrer Wurzeln A.; und anschließende Berechnung der zu-
gehörigen Eigenvektoren - stehen die iterativen gegenüber, die nur
einen oder einige wenige Eigenwerte nebst zugehörigen Eigenvektoren
unmittelbar, ohne Zuhilfenahme der charakteristischen Gleichung auf
iterativem Wege liefern. Diese Verfahren sind besonders für umfang-
reiche Matrizen den direkten oft überlegen, zumal vielfach nur einer
oder einige wenige der Eigenwerte praktisch interessieren (Frequenz
der Grundschwingung oder einiger Oberschwingungen). Das bekann-
teste Iterationsverfahren geht auf v. MISES zurück 1 und ist von be-
stechender Einfachheit, wodurch es insbesondere für den Einsatz mo-
derner automatischer Rechenanlagen geeignet ist. Wir geben es an
dieser Stelle wenigstens schon dem Prinzip nach wieder, um es in allen
Einzelheiten erst später (§ 21) im Zusammenhang mit weiteren nu-
merischen Methoden zu behandeln. Von beliebigem reellen Ausgangs-
vektor Zo aus bildet man mit der hier ausdrücklich als reell angenom-
menen Matrix A wieder die iterierten Vektoren

~. =-~z~_~~. z~1 v = 1, 2, . .. . (29)


Diese Vektoren konvergieren unter bestimmten noch zu erörternden
Bedingungen gegen den sogenannten dominanten Eigenvektor Xl' d. h.
den zum dominanten = betragsgrößten Eigenwert ..1.1 gehörigen, während
zugleich das Verhältnis zweier aufeinander folgender Vektoren z. gegen
diesen Eigenwert konvergiert. Die theoretische Einsicht gewinnt man
auch hier mit Hilfe des Entwicklungssatzes. Wir setzen daher die
Matrix A als diagonalähnlich voraus, den Ausgangsvektor Zo also als
1 MI SES, R. V., u. H. GEIRINGER: Z. angew. Math. Mech. Bd. 9 (1929), S. 58-77.
152-164.
182 § 14. Diagonalähnliche Matrizen

entwickelbar nach den nunabhängigen Eigenvektoren


Zo = Cl Xl + C2 x 2 + ... + c n X" •
Dann wird
Z. = A~ Cl Xl + A; C2 X 2 + ... + A~ c" X"'
Denken wir uns nun die Eigenwerte nach absteigenden Beträgen ge-
ordnet und ist Al dominant:
lAll > 1.1.2 1 > ... > 1.1.,,1 , (30)
so konvergiert mit zunehmender Iterationsstufe v

(31)
(32)
oder
ql")t
= zl v )/ zIV-l)
t I
-+ A
1 . (32a)
Die Quotienten qi entsprechender Komponenten Zi zweier aufeinander
folgender iterierter Vektoren Zv konvergieren gegen den Eigenwert Al'
sofern die betreffende Eigenvektorkomponente Xi =1= ist. Voraus- °
setzung dabei ist Cl =1= 0, der Ausgangsvektor Zo muß eine Komponente
des dominanten Eigenvektors Xl enthalten. Die Konvergenz erfolgt
ersichtlich um so rascher, je größer das Verhältnis

ist, je stärker also Al dominiert. Einen oft sehr guten Näherungswert Al


für den dominanten Eigenwert Al erhält man in Gestalt des RA YLEIGH-
Quotienten für zv:

I' (33)

Über die Güte dieser Näherung wird weiter unten die Rede sein (§ 15.2).
Beispiel:

A = (-~ -~ -:).
-4 2 5
Rechnung einschließlich Summenproben :

A Zo Zl Z2 za Z4
---_._---

5 -2 -4 5 45 445 4445
-2 2 2 0 -2 -22 -222 -2222
-4 2 5 0 -4 -44 -444 -4444
--------- - ----~---_.-- ---
-1 2 3 -1 -21 -221 -2221
14.5. Spektralzerlegung diagonalähnlicher Matrizen 183
Hier herrscht sehr gute Konvergenz, dem Augenschein nach gegen ,1.1 = 10 und
ir1= (2, -1, -2)'. Sie erklärt sich aus dem stark dominierenden ersten Eigen-
wert: die Eigenwerte sind ,1.1 = 10, ,1.2 = ,1.3 = 1. Der RA YLEIGH-Quotient ergibt hier
die vorzügliche Näherung
z~ Z4 4444445
A = R[z] = - - = --- - - = 9999989.
1 3 z~ Z3 444445 '

14.5. Spektralzerlegung diagonalähnlicher Matrizen


Hat man für eine diagonalähnliche Matrix A einen der Eigenwerte,
etwa Al nebst zugehörigem Rechts- und Linkseigenvektor Xl bzw. Yl
bestimmt, z. B. nach dem Iterationsverfahren, so läßt sich aus A eine
neue Matrix B gleicher Reihenzahl n gewinnen, die bei gleichen Eigen-
vektoren die selben Eigenwerte Ai wie A besitzt bis auf den WertAl'
der in Null übergeht. Denken wir uns Rechts- und Linksvektoren
biorthonormiert:
(34)

so ergibt sich die Matrix B durch Abzug des dyadischen Produktes


Al Xl Y~, also einer n-reihigen Matrix vom Range 1 :

IB = A-AlXly~l· (35)
Dann nämlich erhalten wir
B Xl = A Xl - Al Xl y~ Xl = 0
Bx; = AXi -AlXlY~X; = Ai x; (i = 2,3, ... , n).
Durch Hinzutreten eines neuen Eigenwertes .I. = 0 ist der Rang von B
gegenüber dem von A gerade um 1 erniedrigt. Man spricht daher bei
der Umformung GI. (35) von einer Deflation der Matrix (= Schrumpfung).
Setzt man nun das Verfahren fort, wobei Eigenwerte Ai = 0 offensicht-
lich ohne Einfluß bleiben, so erhält man bei einer Matrix vom Range r
nach genau r Schritten eine Matrix vom Range Null, das ist aber die
Nullmatrix. Wir gewinnen so die bemerkenswerte Beziehung

[~~~l XIY~_ + A2x2~~~· ~___ +-AnXny:l· (36)


S atz 8 : Für eine n-reihige diagonalähnliche Matrix A vom Range r mit
den Eigenwerten Ai und den nach Gl. (34) biorthonormierten Rechts- und
Linkseigenvektoren Xi bzw. Yi gilt die sogenannte Spektralzerlegung Gl. (36).
Die Matrix erscheint aufgebaut aus r dyadischen Produkten, d. s. M a-
trizen vom Range 1.
Von der Deflation GI. (35) macht man zur numerischen Bestimmung
der höheren Eigenwerte Gebrauch, d. h. der Werte kleineren Betrages,
nachdem der dominante Wert Al nach dem Iterationsverfahren er-
mittelt worden ist. Näheres hierüber vgI. § 21.4.
184 § 15. Symmetrische und hermitesche Matrizen

Die Zerlegung (36) stellt übrigens nichts anderes als die Transforma-
tion (7) auf Diagonalform dar zusammen mit der Orthonormalbeziehung
(34) der Rechts- und Linksvektoren, Y' X = I:
A = X A X-I = X A Y'
lautet ausführlich

~4 = (Xl' .. , X,,) A (~~ ) = (Al Xl' ... , An Xn) (~~)' ,


Yn Yn
woraus GI. (36) unmittelbar folgt.

§ 15. Symmetrische und hermitesche Matrizen


15.1. Eigenwerte und Eigenvektoren
Für die Eigenwertaufgabe spielen die symmetrischen Matrizen eine
besondere Rolle, nicht allein wegen ihrer großen Bedeutung für zahl-
reiche Anwendungen aus Geometrie und Mechanik, sondern auch weil
sich für sie die Theorie des Eigenwertproblems besonders einfach und
durchsichtig gestaltet. Sie bilden daher auch historisch den Ausgangs-
punkt der Eigenwerttheorie, die freilich in der Folge über ihre hier
begründeten Anfänge weit hinausgewachsen ist. Die meisten der für
reelle symmetrische Matrizen charakteristischen Eigenschaften finden
sich auch bei der komplexen Verallgemeinerung, den hermiteschen
Matrizen wieder (vgI. § 4, inbes. 4.2), so daß es zweckmäßig ist, alle
Untersuchungen auch auf sie auszudehnen, auch wenn viele der An-
wendungen auf reell symmetrische, also reell hermitesche Matrizen
beschränkt sind. Die Bezeichnung "symmetrisch" wird dann auch
wohl in diesem verallgemeinerten Sinne hermitescher Matrix gebraucht.
Ein in der komplexen Denkweise weniger bewanderter Leser möge sich
hiervon nicht abschrecken lassen. Zu allgemeingültigen Aussagen kommt
man nur, wenn man auch komplexe Matrizen in die Betrachtung mit
einbezieht.
Hermitesche und insbesondere reell symmetrische Matrizen zeichnen
sich, wie wir in § 13.6 an Hand des RA YLEIGH-Quotienten zeigten,
dadurch aus, daß ihre Eigenwerte sämtlich reell sind, was ja - auch bei
reeller Matrix - keineswegs selbstverständlich ist. Ist die Matrix über-
dies positiv definit, so sind die Eigenwerte positiv; ist sie semidefinit
vom Range r < n, so tritt der (n - r)-fache Eigenwert A = 0 auf.
Für den Fall reell hermitescher, also reell symmetrischer Matrix fallen
auch die Eigenvektoren reell aus l , was bei nicht reeller hermitescher
1 genauer: sie sind stets in reeller Form darstellbar, sie sind reell abgesehen von
der Möglichkeit der Multiplikation mit beliebigem komplexen Faktor oder einer
Linearkombination reeller Vektoren mit komplexen Konstanten.
15.1. Eigenwerte und EigenvektoreIl 185

Matrix natürlich nicht sein kann. Nur die reell symmetrischen Matrizen
sowie solche, die sich durch eine reelle Ähnlichkeitstransformation in
sie überführen lassen, sogenannte reell symmetrisierbare Matrizen (vgl.
§ 16.1), besitzen ausnahmslos reelle Eigenwerte und Eigenvektoren, wo-
durch hier alle Verhältnisse eine willkommene Vereinfachung erfahren.
Für die Eigenvektoren reell symmetrischer Matrizen folgt aus § 13.4,
Satz 6 und 7 die wichtige Eigenschaft der Orthogonalität bzw. (im Falle
mehrfacher Eigenwerte) Orthogonalisierbarkeit der Vektoren. Die ent-
sprechende Verallgemeinerung läßt sich auch für hermitesche Matrizen
zeigen, und zwar auf ähnlichem Wege wie früher. Aus den beiden für
zwei verschiedene Eigenwerte A; =F Ak der Matrix angeschriebenen Eigen-
wertgleichungen

xi A * = Xi xi = Ai xi ,
von denen wir die zweite in konjugiert transponierter Form geschrieben
haben unter Beachtung der Realität von Ak , folgt durch Multiplika-
tion mit xi bzw. Xk und Subtraktion unter Berücksichtigung der Eigen-
schaft A * = A hermitescher Matrix
(A; -Ak ) xi X k = 0
und daraus wegen A; =F Ak :
(1 )
Die Eigenvektoren sind also konjugiert orthogonal oder, wie man sagt,
unitär (vgl. § 4.1), was im reellen Falle mit der gewöhnlichen Ortho-
gonalität übereinstimmt.
Sa tz 1: Zwei zu verschiedenen Eigenwerten gehörige Eigenvektoren
einer hermiteschen (bzw. reell symmetrischen) Matrix sind zueinander
unitär (bzw. reell orthogonal).
Wir werden bald zeigen, daß die hermiteschen (die reell symmetrischen)
Matrizen zur wichtigen Klasse der diagonalähnlichen gehören, daß sie
also stets genau n linear unabhängige Eigenvektoren besitzen. Damit
läßt sich dann ähnlich wie in § 13.4 nachweisen, daß sich die Eigen-
vektoren auch im Falle mehrfacher Eigenwerte stets unitarisieren (bzw.
reell orthogonalisieren) lassen, der Matrix also ein System n unitärer
(reell orthogonaler) Eigenvektoren, das System der Hauptachsen zu-
geordnet ist, jetzt - im reellen Falle - als ein rechtwinkliges Achsen-
system, in welchem die Matrix dann wieder in der ausgezeichneten Form
der Diagonalmatrix A = Diag(A;) erscheint, die aber hier - wegen
der Realität der Eigenwerte - in jedem Falle reell ist, eine besondere
Eigenschaft der hermiteschen sowie der in sie durch Ähnlichkeits-
transformation überführbaren, der sogenannten symmetrisierbaren Ma-
trizen.
186 § 15. Symmetrische und hermitesche Matrizen

15.2. Extremaleigenschaften der Eigenwerte


Der RA YLEIGH-Quotient einer hermiteschen (einer reell symmetri-
schen) Matrix A zeichnet sich außer durch seine Realität noch durch
eine weitere bemerkenswerte Eigenschaft aus, die insbesondere in nu-
merischer Hinsicht wertvoll ist. Wir nehmen zunächst reell symme-
trische Matrix A an, wo sich die Rechnung leicht explizit durchführen
läßt, um sodann die Überlegung auf allgemeine hermitesche Matrix zu
erweitern. Wir betrachten R[x] als reelle Funktion des jetzt als reell
angenommenen Vektors x, also als Funktion der n Variablen Xv x 2' ... 'Xn '
und wir fragen nach den Extremwerten dieser Funktion. Die Bedin-
gungen für das Auftreten solcher Extremwerte lauten bekanntlich
aR/exi = 0, die wir zur Vektorgleichung eR/ax = 0 zusammenfassen.
Mit dem RA YLEIGH-Quotienten
;c' A;c
R[x] =;c;c
,

erhalten wir nach den Differenzierregeln für quadratische Formen


aR 1 ;c' A;c 2
--;::-=
OJ~
'.
;c;c
2A;r-(·-,
;c ;c
)22X= ;c
,--(Ax-R[x]
x x) =0 (2)
oder
A x = R[;x~] x = Ax . (3)
Hier ist ja R[x] eine reelle Zahl, für die wir auch A schreiben können,
womit GI. (3) auch äußerlich die Form der Ei ~enwertaufgabe mit reell
symmetrischer Matrix annimmt. Ihre Lösungen, die Eigenwerte Ai sind
dann gerade die gesuchten Extremwerte des RA YLEIGH-Quotienten, die
dieser für die zugehörigen Eigenvektoren Xi annimmt.
Satz 2: Genau für die Eigenvektoren Xi nimmt der Rayleigh-Quotient
R[.7~J einer reell symmetrischen Matrix .11 seine Extremwerte R[xiJ = Ai
als die Eigenwerte der Matrix an. Denkt man sich die Eigenwerte nach
ihrer Größe geordnet:
(4)
so gilt insbesondere
R[;rIJ = Al = Max, R[;x~nJ = An = Min. (5)
Diese Extremaleigenschaft des RA YLEIGH-Quotienten ist nun für die
numerische Rechnung von größter Bedeutung. Ist nämlich x eine
Näherung für einen Eigenvektor, so stellt der mit ihr gebildete Quotient
R[x] eine besonders gute Näherung für den zugehörigen Eigenwert dar
in dem Sinne, daß der Eigenwertfehler von höherer Ordnung klein ist
gegenüber dem Vektorfehler. Dies hat insbesondere für das in § 14.4
beschriebene Iterationsverfahren zur Folge, daß man das Verfahren
15.2. Extremaleigenschaften der Eigenwerte 187

schon bei verhältnismäßig grober Näherung für den Eigenvektor ab-


brechen und mit dieser eine recht gute Näherung für den Eigenwert
aufstellen kann, jedenfalls eine wesentlich bessere, als etwa die Quotienten
qlV) = z~V)/Z/-l) der einzelnen Vektorkomponenten liefern. Handelt es
sich dabei überdies, wie es die Regel ist, um den dominanten Eigenwert
größten Betrages, so weiß man wegen der Extremaleigenschaft, daß der
RA YLEIGH-Quotient diesen Betrag stets von unten her annähert, daß
also jede dem Betrage nach größere Näherung, die auf diesem Wege
mittels RA YLEIGH-Quotient ermittelt wird, automatisch besser ist. Dies
alles aber gilt, wie ausdrücklich betont sei, ausschließlich für reell sym-
metrische Matrix oder ihre komplexe Verallgemeinerung, die hermitesche
Matrix. Im Falle allgemeiner nichtsymmetrischer Matrix braucht der
RA YLEIGH-Quotient weder eine besonders gute Näherung für den Eigen-
wert zu liefern, noch weiß man etwas über das Fehlervorzeichen. -
Für das in § 14.4 angeführteZahlenbeispiel erhalten wir für den RA YLEIGH-
Quotienten schon für die noch recht grobe Näherung Zl
445
R[ZlJ = - = 9,888 ...
45
mit einem Fehler von nur 1,11% gegenüber dem exakten Wert Al = 10,
während die zugehörigen Quotienten qi die noch stark streuenden Werte
ql = 45/5 = 9, q2 = 22/2 = 11, qa = 44/4 = 11
annehmen, also gegenüber einem Mittel von 10 einen Fehler von 10%
aufweisen. Mit dem 3. und 4. iterierten Vektor ergibt sich die beacht-
lich gute Näherung 9,999989.
Einen guten Einblick in das Fehlerverhalten und zugleich einen
Fingerzeig dafür, wie man den Quotienten im Falle nichtsymmetrischer,
aber diagonalähnlicher Matrix verallgemeinern muß, um zu ähnlichen
Ergebnissen zu kommen, gibt die folgende Rechnung, wo wir Ent-
wickelbarkeit der iterierten Vektoren voraussetzen. Wir denken uns den
Vektor y-ter Stufe z. nach den Eigenvektoren Xi der reell symmetrischen
Matrix entwickelt in der Form
z. = Xl C2 X 2 + + ... +
cn x n • (6)
Wir nehmen dabei die Eigenvektoren Xi als orthonormiert an:
x; x k = t5 ik • (7)
Dominiert der erste Eigenwert, lAll> IA2 1, und ist die Iteration weit
genug fortgeschritten, so dürfen wir die Entwicklungskoeffizienten Ci
der höheren Eigenvektoren gegenüber dem zu 1 angenommenen Koef-
fizienten Cl = 1 als klein ansehen. Zufolge der Orthonormierung GI. (7)
erhalten wir dann für Zähler und Nenner der RA YLEIGH-Quotienten
Z: + 1 Z. = 1 Al + A2 c~ + Aa c~ + ... + An C~ ,
z: Z. = 1 + C~ + C~ + ... + C~
188 § 15. Symmetrische und hermitesche Matrizen

und damit nach Umformung


R[ z ] = ~ (~+!~j-' ''-+ c;1=- (Al =- ~2) c~ -=- (~l -=-A cl- .. ~ -=- (~l -
3) An) c~
v 1 + c~ + ci + ... + c;
_ A _ (Al -A2) c~+: .._.+ (Al~An)_C; (8)
- 1 1 + c: + ... + c;
Hier bewirkt das Abzugsglied wegen der Annahme lAll> IAil stets ein
Verkleinern des Betrages, so daß R stets eine betragsmäßig zu kleine
Näherung ergibt. Vor allem aber ist dieses Fehlerglied quadratisch in
den Koeffizienten Ci' das sind die Verunreinigungen, die der iterierte
Vektor Zv gegenüber dem Eigenvektor Xl noch aufweist.
Bei der Herleitung der letzten Formel war offenbar die Orthogonalität
der Eigenvektoren der symmetrischen Matrix wesentlich. Bei allge-
meiner nicht symmetrischer, aber diagonalähnlicher Matrix muß man
demgemäß, um zu ähnlichen Ergebnissen zu kommen, den RAYLEIGH-
Quotienten dahingehend abändern, daß die Rechtseigenvektoren Xi mit
den Linksvektoren Yk der Matrix kombiniert werden. Außer den Ite-
rierten Zv sind also auch noch die Linksiterierten Vv zu benutzen, die, von
beliebigem Ausgangsvektor V o aus, nach
-,
I
I Vv = A' V"_l;' 'jI = 1,2, ... (9)

mit der transponierten Matrix gebildet werden. Entwickeln wir dann


den Vektor vI" einer (genügend hohen) Stufe f-l ähnlich wie oben nach den
Linksvektoren
(6a)
und setzen Biorthonormierung der Rechts- und Linkseigenvektoren vor-
aus:
Y;Xk = °ik' (la)
so erhalten wir für den abgewandelten Rayleigh-Quotienten

(10)

ähnlich wie oben


R = Al _ (~-A2~c2 d 2_+ .. ~+ (Al -An) C n d n (8a)
1 +c
2 d2 + ... + c" d"
Auch hier ist der Fehler wieder quadratisch in den Verunreinigungen
Ci'di der dominanten Vektoren xl> Yl' Über sein Vorzeichen aber kann
nichts mehr gesagt werden. Praktisch wird man die beiden Iterations-
stufen v und f-l einander gleich machen; es kommt lediglich darauf an,
daß in beiden Vektoren Zv und vI" der Einfluß der höheren Eigenvektoren
gegenüber den dominanten schon hinreichend stark zurückgegangen ist,
die Koeffizienten Ci und d; also hinreichend klein sind.
15.3. Extremaleigenschaft, Fortsetzung 189

Die Extremaleigenschaft des RA YLEIGH-Quotienten für die Eigen-


vektoren läßt sich im Falle reell symmetrischer Matrix anschaulich
deuten. Es ist offenbar die Forderung
Max Max
R[x] = M. gleichbedeutend mit x' A x = M. bei x' x = 1 (11a)
III III

oder, was auf das gleiche hinausläuft,


Max Min
R[x] = M. gleichbedeutendmitx'x=M beix'Ax=1. (11b)
In ax
Nun stellt, wie wir wissen,
Q = x' Ax = 1, A =A' (12)
die Mittelpunktsgleichung einer Fläche zweiten Grades dar. Die For-
derung GI. (11b) bestimmt also die Vektoren x extremaler Länge, und
das sind gerade die Hauptachsen der Fläche. Die orthogonalen Eigen-
vektoren Xi der symmetrischen Matrix, für die ja der RAYLEIGH-Quotient
sein Extremum annimmt, stellen also die Hauptachsen der Fläche Q =
konst. dar.
15.3. Extremaleigenschaft, Fortsetzung
Die soeben entwickelten anschaulichen Vorstellungen lassen sich auf
hermitesche Matrix A verallgemeinern und zu einem Beweis der Existenz
n unitärer und damit linear unabhängiger Eigenvektoren dieser Matrix
ausbauen, womit dann die hermitesche (die reell symmetrische) Matrix
als zur Klasse der diagonalähnlichen Matrizen nachgewiesen ist!. Wir
gehen aus von der hermiteschen Form Q = x * A x und fragen nach einer
Lösung der Maximalaufgabe

IQ~~~-==~:~:~= MaxJ, A = A* (13)


unter der Nebenbedingung
x*x = 1, (14.1 )
also unter Zulassung aller normierten n-dimensionalen Vektoren x.
Diese Aufgabe besitzt nach einem Satze von WEIERSTRASS - eine stetige
Funktion nimmt auf einer abgeschlossenen beschränkten Punktmenge
ihr absolutes Maximum in mindestens einem Punkte des Bereiches an -
sicher eine Lösung. Sie sei Xl und es sei Q[xl ] = Al das zugehörige Maxi-
mum. Sodann fragen wir weiter nach Lösungen der Aufgabe GI. (13)
unter den neuen Nebenbedingungen
x*x=1, x*xl=O, (14.2)
1 Wir folgen hier der Darstellung in R. COURANT u. D. H1LBERT: Methoden der
mathematischen Physik Bd. 1, 2. Auf!. Berlin 1931, S. 19-23 sowie L. COLLATZ:
Eigenwertaufgaben U], S. 289-294.
190 § 15. Symmetrische und hermitesche :Matrizen

Jassen also jetzt unter allen normierten Vektoren nur noch solche zu,
die zur gefundenen Lösung Xl unitär sind. Auch diese Aufgabe hat nach
dem gleichen Satz wieder eine Lösung; sie sei ;]'2 und Q[x2J = ,12 sei das
zugehörige Maximum der Form. Anschaulich etwa für den dreidimen-
sionalen Raum heißt das: Nachdem wir auf der Einheitskugelx' X = 1
jenen Punkt Xl gefunden haben, für den Q sein Maximum Al annimmt,
betrachten wir auf der Kugel nur noch Punkte in der Ebene senkrecht zu
Xl und suchen hier einen Punkt x 2 ' für den jetzt Q zum Maximum wird,
das wir ,12 nennen. Dann ist Al > ,12' wo das Gleichheitszeichen steht,
wenn es sich bei den Flächen Q = konst. um Drehflächen handelt, der
Wert von Q sich also in der durch die Vektoren xl> x 2 gelegten Ebene
nicht ändert. - Wir gehen zur dritten Maximumaufgabe über, nämlich
zur Ermittlung einer Lösung von GI. (13) unter den drei Nebenbedin-
gungen
X* x = 1, X* Xl = x* X2 = 0 , (14.3 )
wozu es (bei n > 3) sicher wieder eine Lösung X s mit dem zugehörigen
Maximum Q[xsJ = As gibt, und es ist Al > ,12 > As . Indem wir in dieser
Weise fortfahren, erhalten wir genau n unitäre Vektoren. Das Verfahren
endet von selbst, wenn sich kein zu den vorherigen unitärer, also von
ihnen linear unabhängiger Vektor mehr angeben läßt, und das ist der
Fall, wenn n Vektoren gefunden sind. Alle diese Vektoren machen den
RAYLEIGH-Quotienten GI. (1) zum Extremum. In ähnlicher Weise wie
zu Anfang von 15.2, nur jetzt für komplexe Vektoren und Matrix,
etwa durch Aufspalten in Real- und Imaginärteil, läßt sich dann zeigen,
daß der Extremalaufgabe gerade unsere Eigenwertaufgabe entspricht.
Wir fassen zusammen:
Satz 3: Eine n-reihige hermitesche (bzw. reell symmetrische) Matrix A
besitzt genau n linear unabhängige Eigenvektoren, die zueinander unitär
(bzw. reell orthogonal) auswählbar sind nach
---- -

! * _ i
(15 )
! Xi Xk - 0ik i
L ___ ._ _ _ _ _

und sich zur unitären (bzw. orthogonalen) Modalmatrix


X = (xl> x 2' ••• ,xn ) mit X* X = I (16)
zusammenfassen lassen. Hermitesche (reell symmetrische) Matrizen ge-
hören damit zur Klasse der diagonalähnlichen, und zwar transformiert sich
A durch die unitäre (reell orthogonale) Transformation

(17)

auf reelle Diagonalform der Eigenwerte.


15.4. Anwendung auf quadratische Formen 191

Das letzte zeigt man gen au so wie unter § 14.1, wobei lediglich noch die
Unitarität bzw. Orthogonalität GI. (16) der Eigenwertmatrix X benutzt
wird. Die unitären bzw. orthogonalen Eigenrichtungen werden die
H().uptachsen der Matrix, die Transformation GI. (17) Hauptachsentrans-
formation genannt.

15+ Anwendung auf quadratische Formen


Für eine reelle quadratische Form oder gleich wieder allgemeiner eine
hermitesche Form
Q = x* Ax = J: aikxi xk (iR)
mit hermitescher (reell symmetrischer) Matrix A = A * führt die Haupt-
achsentransformation
x =Xy (19)
mit der unitären (reell orthogonalen) Modalmatrix X als Transfor-
mationsmatrix auf reine Diagonalform mit den reellen Koeffizienten Ai:

r'Q=Y*X*AXY=Y*AY=i~/j;iYi I, (20)

aus der sich die Realität der Form unmittelbar ablesen läßt. Im reellen
Fall der quadratischen Form ergibt sich so

1_ Q --Al 2I
Y~ +.1.2 Y~-+-'. :-+-An I· (20a)

Die Mittelpunktsgleichung der Fläche zweiten Grades Q= x' A x = 1


nimmt dann die Hauptachsenform

f):l YI +.1. 2
, _ _ _ _ _ _ ._
Y~ +--:-~+in Y! --~-
~_ ~_~_~_i
I (21)

an, woraus wir durch Vergleich mit der bekannten Gleichung

;;. + Y~~2- + ... + Y~


YI
1 2
~2 = 1
n
(21 a)
mit den (reellen oder imaginären) Halbachsen a i die anschauliche Deu·
tung der Eigenwerte Ai als Kehrwerte der Halbachsenquadrate, Ai = 1/a~
ablesen. Die Formen (20) und (20a) sind ersichtlich genau dann positiv
bzw. nichtnegativ, d. h. aber sie sind positiv definit bzw. semidefinit,
wenn alle Eigenwerte positiv bzw. nicht negativ sind, Ai > 0 bzw. > C,
was wir schon mit Hilfe des RA YLEIGH-Quotienten in § 13 .6, Satz 10 fanden.
Hat die Matrix A den Rang r, so tritt der d-fache Eigenwert A = 0 auf
mit dem Defekt d = n - r, da Rangabfall d und Vielfachheit des Eigen-
wertes bei diagonalähnlicher Matrix übereinstimmen. Die Diagonal-
form (20) bzw. (20a) reduziert sich hier auf r Variable Yi' während d
restliche in ihr gar nicht vorkommen. Die Fläche entartet zum Zylinder.
192 § 15. Symmetrische und hermitesche J\Iatrizen

Wie wir wissen, ist bei beliebiger auch nichtquadratischer Matrix A


die mit ihr nach der GAussschen Transformation gebildete Matrix A * A
hermitesch bzw. im Falle reeller Matrix A reell symmetrisch, und sie
ist, wie gleichfalls bekannt, positiv definit oder semidefinit, je nachdem
der Rang r von A gleich oder kleiner als n ist (vgl. § 11.2). Es sei nun
umgekehrt die positiv (semi-)definite hermitesche Matrix B gegeben
und wir fragen nach der Darstellung dieser Matrix in der Form

IR =A*A:.
- -- ---

(22)

Als definite Matrix besitzt B ausschließlich positive bzw. nichtnegative


Eigenwerte Ai' für die wir daher Ai = x;
> 0 schreiben können. Ist nun
X die Unitärmatrix der Eigenvektoren von B, so folgt aus der Haupt-
achsentransformation
X* B X = l\. = K2
mit
(23)
für B:
B=XK2x* =XK (X K)' =A* A.
Damit haben wir die gesuchte Aufspaltung:
Satz 4: Eine positiv (semi-)definite hermitesche Matrix B läßt sich
stets darstellen in der Form (22), wo man A erhält aus

IA = KX*I
1_ _ _ _ _ _ I
(24)

mit der Matrix X unitärer Eigenvektoren und der Diagonalmatrix K der


positiven Wurzeln der Eigenwerte Ai = x7 > 0 von n.
Ist B eigentlich definit, Xi > 0, so ist A quadratisch nichtsingulär. Ist
dagegen B semic' :;finit vom Range r < n und setzen wir dann x,+l =
... = x n = 0, so werden die d = n - r letzten Zeilen von A Null. Wir
können sie dann überhaupt fortlassen und A reduziert sich auf eine rn-
Matrix vom Range r (r linear unabhängige Zeilen).

30) (23
100 -
3)=B.
10
15.5. Allgemeine Eigenwertaufgabe 193

15.5. Allgemeine Eigenwertaufgabe


Auch für die in § 13.8 eingeführte allgemeine Aufgabe des Matrizen-
paares A, B
(25)

spielt in den Anwendungen der Fall reell symmetrischer Matrizen A, B


die Hauptrolle, wie schon die in § 12.3 angeführten Beispiele von Schwin-
gungsaufgaben zeigten, und auch der Theorie ist dieser Fall sowie die
komplexe Verallgemeinerung hermitescher Matrizen am leichtesten
zugänglich. Indessen reicht hier Symmetrie der beiden Matrizen allein
noch nicht aus, um für Eigenwerte und Eigenvektoren von Matrizen-
paaren jene besonderen Eigenschaften zu sichern, durch die sich die Auf-
gabe bei symmetrischer Einzelmatrix auszeichnet. Geht doch beim
Übergang auf die spezielle Aufgabe durch Linksmultiplikation mit der
Kehrmatrix der etwa nicht singulär vorausgesetzten Matrix B die Symme-
trie im allgemeinen verloren, abgesehen von dem für die Anwendungen
wenig bedeutsamen Falle kommutativer Matrizen A, B. Wesentlich ist
hier vielmehr noch die Forderung positiver Definitheit für die beim Para-
meter stehende Matrix B. Bilden wir nämlich aus GI. (25) durch Links-
multiplikation mit x* die Beziehung
x* A x = Ax* B x ,
so läßt sich aus ihr der auf die allgemeine Aufgabe abgewandelte RA Y-
LEIGH-Quotient

(26)

sinnvoll nur bilden, wenn der Nenner nicht verschwinden kann, und
das ist gerade dann der Fall, wenn B positiv definit ist. Nur dann
folgt aus GI. (26) die Realität der Eigenwerte: zwar ist sowohl Zähler
wie Nenner in GI. (26) bei hermiteschem A und B reell. Für den Fall
aber, daß Zähler und Nenner gleichzeitig verschwinden, sagt das über
die Eigenwerte nichts mehr aus, wie das Beispiel der reell symmetrischen
Matrizen

A=(; ~) B=G :)
mit der charakteristischen Gleichung
'14-3A 1-2A ,
= -11.2 - 1 = 0
11-2A -A '
also komplexen Eigenwerten A = ± i zeigt, wo B zwar symmetrisch,
aber nicht definit ist. Für die zugehörigen Eigenvektoren verschwinden
Zurmühl, l\Iatrizen 4. Auf!. 13
194 § 15. Symmetrische und hermitesche Matrizen

hierin der Tat die beidenFormenx* _4x und x* Bx, wie leicht nachzu-
rechnen.
Ist nun B positiv definit, so ist GI. (25) auf die spezielle Aufgabe mit
hermitescher Matrix zurückführbar. Dann nämlich läßt sich, wie wir im
vorangehenden Abschnitt zeigen konnten, B aufspalten in B = C* C.
Mit der Abkürzung C-l = D erhalten wir nach Multiplikation mit 1)*
und Einschalten von D C = I
(D* A D) C x = A C x
oder mit C x = y schließlich das spezielle Problem
Ry =AY
mit der hermiteschen Matrix R = D* A D. Wir fassen zusammen III
Sa tz 5: Sind in der allgemeinen Eigenwertaufgabe GI. (25) die beiden
n-reihigen Matrizen A und B hermitesch (reell symmetrisch), ist H nicht-
singulär und überdies
entweder mit A vertauschbar, A B = BA,
oder positiv definit,
so ist die allgemeine Aufgabe Gl. (25) auf eine spezielle mit hermitescher
Matrix zurückführbar . Dann sind demnach sämtliche Eigenwerte der
Aufgabe reell, es gibt genau n linear unabhängige Eigenvektoren, die im
Falle reeller Matrizen reell sind. Ist auch noch A positiv definit oder semi-
definit, so sind alle Eigenwerte positiv bzw. nicht negativ.
Das letzte folgt sofort aus dem RAYLEIGH-Quotienten GI. (26). - Auch
die Hauptachsentransformation ist durchführbar. Nur hat man Normie-
rung und Unitarisierung (Orthogonalisierung) jetzt bezüglich der Matrix B
vorzunehmen, d. h. in der Form

;t~ Xk==:_Öik I· (27)

Die aus den so unitarisierten Eigenvektoren Xi gebildete Modalmatrix


X = (x k ) bildet dann eine bezüglich B unitäre Matrix mit der Eigen-
schaft
I x*Bx=li. (28)
_I_. _ _ _ J

Fassen W:A die Eigenwertgleichungen A Xi = Ai B Xi zusammen zu


AX=BXA
mit A = Diag(Ai ), so erhalten wir durch Multiplikation mit X* von links
her unter Berücksichtigung von GI. (28) die Hauptachsentransformation
von A auf Diagonalform

(29)
15.6. Schiefhcrmitesche und unitäre :Vlatrizeu 195

Satz 6: Ein Paar hermitescher (reell symmetrischer) Matrizen, von


denen A beliebig, B positiv definit ist, läßt sich durch eine gemeinsame
Hermitesche (bzw. reelle) Kongruenztransformation x = X Y gleichzeitig
auf Diagonalform überführen nach

X*AX=A (29)
X*BX=1 (28)

wo A in die Diagonalmatrix A der reellen Eigenwerte, B in die Einheits-


matrix übergeht. Transformationsmatrix X ist die Matrix der bezüglich B
unitären (bzw. reell orthogonalen) Eigenvektoren des Matrizenpaares.

15.6. Schiefhermitesche und unitäre Matrizen


Für s.chiefhermitesche Matrix A = -A * zeigten wir in § 1}.6, Satz 10,
daß ihre Eigenwerte rein imaginär sind. Ist nun A reell, also schief-
symmetrisch, so treten die Eigenwerte als Wurzeln der charakteristischen
Gleichung mit reellen Koeffizienten stets konjugiert komplex auf, also
in der Form
A=±iß, (30)

mit reellem ß. Die charakteristische Gleichung ist somit von der Form

An + an_ 2 An- 2
+ " . + a A + ao =
2 2 0 für gerades n} (31)
An + an _ 2 An - 2 + ... + tls A3 + al A = 0 für ungerades n
Daraus folgt für den letzten Fall wegen der Wurzel A = 0
Satz 7: Eine reell schiefsymmetrische Matrix von ungerader Reihen-
zahl n ist stets singulär. Der zu A = 0 gehörige Eigenvektor ist reell. Der
Rang einer reell schiefsymmetrischen Matrix ist stets gerade.
Für eine unitäre (eine reell orthogonale) Matrix A mit A * A = I folgt
aus AX=AX, X*A*=AX*
X* A* A x = x* x =;U x* x
und somit wegen x* x =l= 0:

(32)

Satz 8: Die Eigenwerte einer unitären Matrix liegen sämtlich auf


dem Einheitskreis der komplexen Ebene, sind also von der Form

13"
196 § 16. J\"onnale und normalisierbare Matrizen. Matrixnormen

Die Eigenwerte einer reell orthogonalen Matrix sind, soweit sie nicht
r;leich ±1 sind, paarweise konjugiert von der Form

(34)

Bei der reellen Matrix ist somit außer A auch stets 1/A Eigenwert, die
charakteristische Gleichung ist daher eine sogenannte reziproke, d. h.
sie ist von einer der beiden Formen
An + alll.',-t + a A,,-2 + ... + a
2 2 A2 + alA + 1 = 0 (35a)
A" - a },n- + a An -
l t 2 + ... - a
2 - 2 Jc2 +a 1=
l ), - 0 (35 b)
wobei die zweite Form höchstens für ungerades n in Betracht kommt.
Die Gleichung geht hier in sich über, wenn A durch 1/A ersetzt wird.
Die für hermitesche Matrizen geltende Unitariät zweier zu ver-
schiedenen Eigenwerten gehörigen Eigenvektoren trifft auch für schief-
hermitesche und unitäre Matrizen zu:
Sa tz 9: Für hermitesche, schief-hermitesche und unitäre Matrix sind
die zu verchiedenen Eigenwerten Ai =!= Ak gehörigen Eigenvektoren zuezn-
ander unitsär:
(36)

Die zu einem mehrfachen Eigenwert gehörigen lassen sich unitarisieren,


so daß bei Normierung auf 1 stets gilt

(37)

Für schiefhermitesche Matrix verläuft der Beweis ganz analog wie bei
hermitescher, 15.1, Satz 1. Für unitäre Matrix A mit A * = A -1 und
-
), = 1jJ. sieht ma n es folgendermaßen:
A xi = Ai xi -+ X,": A Xi = )'i xi; Xi
X'; A * = Ak X'; = X'; /}'k
X'; Ak = xi; A -+ xi; A Xi = Ak X'; x j
(Ai - Ak) x'; xi = 0 -+ x'; Xi = 0 für Ai =f= )'k .

§ 16. Normale und normalisierbare Matrizen. Matrixnormen


Nachdem wir bis jetzt die für die Anwendungen so bedeutsamen
symmetrischen Matrizen sowie ihre komplexen Verallgemeinerungen, die
hermiteschen, aber auch die schiefhermiteschen und die unitären Matrizen
als zur Klasse der diagnonalähnlichen Matrizen gehörig nachweisen
konnten, für die sich mit einfachen Mitteln eine geschlossenen Theorie
aufstellen ließ, § 14, soll nun diese Klasse durch die sogenannten symme-
16.1 Symmetrisierbare Matrizen 197

trisicrbaren, normalen und normalisierbaren Matrizen abgerundet werden.


Der im Anschluß daran eingeführte Begriff der Matrixnorm erweist sich
in zunehmendem Maße als ein Hilfsmittel größter Tragweite sowohl für
theoretische als auch für numerische Fragen der Eigenwerteingrenzung
und Fehlerabschätzung. Die beiden letzten Abschnitte 16.6 und 16.7
dienen lediglich der Abrundung.

16.1. Symmetrisierbare Matrizen


Darunter versteht man als Verallgemeinerung hermitescher Matrizen
solche, die sich durch Ähnlichkeitstransformation auf hermitesche Matrix
und somit auch auf reelle Diagonalform überführen lassen. Sie sind
darstellbar in der Produktform

.A=BC I (1 )

aus zwei Faktoren Bund C, welche beide hermitesch (im reellen Falle
also symmetrisch) sind, und von denen eine überdies noch (eigentlich)
positiv definit sein muß:

IR und C he~~itesch, I
I n oder C positiv definit I'
Ist nämlich z. B. C positiv definit mit (positiven) Eigenwerten x~ > 0,
so läßt sich C unitär (reell orthogonal) auf reelle Diagonalform K2 =
Diag(x7) transformieren, es gilt also
C = U* K2 U (2)

mit unitärer Matrix U, U* U = I. Damit wird aus GI. (1)


A = B U* K2 U = U* K-l (K U B U* K) K U
mit K = Diag(x i ), Xi > 0. Hier steht nun in der Klammer eine mit
B = B* hermitesche Matrix
II = K U B U* K = VB V*, H = 11* , (3)
und mit dem nichtsingulären V = K U erhalten wir die Ähnlichkeits-
transformation
:A = V-1llV . (4)

Die Matrix GI. (1) ist also einer hermiteschen Matrix II ähnlich, und da
diese einer reellen Diagonalmatrix i\. = Diag(Ai ) ähnlich ist mit den
Eigenwerten Ai von II, die zugleich die von A sind (vgl. § 13.5, Satz 8),
so ist es auch LI. Ist auch noch B positiv definit, so ist es nach GI. (3)
und § 11.2, Satz 5 auch II. Wir haben damit
198 § 16. Normale und normalisierbare Matrizen. Matrixnormen

Satz 1: Eine quadratische Matrix A ist symmetrisierbar, d. h. durch


Ähnlichkeitstransformation auf reelle Diagonalform ihrer Eigenwerte,
A = Diag(Ai ) überführbar, also einer hermiteschen Matrix ähnlich, wenn
sie darstellbar ist als Produkt zweier hermitescher Matrizen, von denen
eine eigentlich positiv definit ist. Ist auch der andere Faktor definit bzw.
semidefinit, so sind überdies sämtliche Eigenwerte )'i positiv bzw. nicht
negativ.
Die aus der allgemeinen Eigenwertaufgabe A x = A B x mit reell-
symmetrischem A und JJ und positiv definitem B entstehende spezielle
Aufgabe der Matrix B-l ..4 gehört somit hierher. Die Eigenwerte sind
sämtlich reell und bei positiv definitem A auch noch positiv, und die
Matrix Irl A ist diagonalähnlich.
Für symmetrisierbare Matrix GI. (1) besteht ein besonders einfacher Zu-
sammenhang zwischen Rechts- und Linkseigenvektoren Xi und Y" Es
sei etwa wieder C eigentlich definit. Mit A * = C B erhalten wir dann
wegen der Realität der Eigenwerte
A Xi = B C Xi = Ai Xi '
A * Yi = C B Yi = Ai Yi .
Multipliziert man die erste Gleichung mit C
C B (C x;) = Ai (C Xi)
und vergleicht mit der zweiten, so zeigt sich, daß

I C-~,~o= y~: (5)

Eigenvektor von A * ist. Da C nichtsingulär angenommen, so ist zu


Xi =l= 0 auch Yi =l= o. Ferner folgt dann noch aus GI. (5) wegen positiv
definitem C: ---- -

l~t_Yi = xt_ C;ri > 0], (6)


falls nur, bei mehrfachen Eigenwerten, die Vektoren Xi' Yi einander nach
Gl. (5) zugeordnet werden.

16.2. Normale und normalisierbare Matrizen


Zur vollen Klasse der diagonalähnlichen Matrizen kommen wir über
sogenannte normale und normalisierbare Matrizen. Normale Matrizen
sind solche, die der Bedingung

IA*A = AA* (7)

genügen. Im Falle reeller Matrix A wird A* = A'. Offenbar muß eine


normale Matrix quadratisch sein, da andernfalls GI. (7) nicht gelten
16.2. Normale und normalisierbare Matrizen 199

kann. Die normalen Matrizen umfassen als Sonderfälle:

Hermitesche Matrizen mit A*=A (reell symmetrische)


Schiefhermitesche mit i A * = - A (reell antimetrische)
Unitäre Matrizen mit iA*! = ~_A*=II (reell orthogonale).

Es gilt nun der bedeutsame


Satz 2: Eine Matrix A läßt sich dann und nur dann unitär auf die
Diagonalform 1\ = Diag(A) ihrer Eigenwerte transformieren:

I U~A~~J mit u* U = I, (8)


wenn die Matrix normal ist.
Zum Beweis zeigen wir zunächst einen von 1. SCHURI stammenden
S atz 3: Eine beliebige quadratische Matrix A läßt sich stets unitär auf
eine Dreiecksmatrix L transformieren, deren Diagonalelemente die Eigen-
werte 1.; von A sind:

Al 112 .,. 11n)


(
o 1.2 •• , 12n
U*A U=L= . . ... . (9)

o An

Es sei nämlich Al ein Eigenwert von A und ;:VI zugehöriger normierter


Eigenvektor, ;:vi ;:VI = 1. Dann lassen sich weitere linear unabhängige
Vektoren Y2" •. , y" so bestimmen, daß die Gesamtmatrix Xl =
(;:VI' Y2' ... ,Yn) unitär ist, Xi Xl = I. Sie überführt A wegen A;:VI =
Al ;:VI und;:vi y" = 0 in

wo die erste Spalte außer Al nur 0 enthält, während die erste Zeile im
allgemeinen von Null verschiedene, nicht weiter interessierende Elemen-
te * besitzt. Mit der (n-1)-reihigen Untermatrix Al> die die gleichen
Eigenwerte 1.; wie A mit Ausnahme von Al besitzt, verfährt man nun eben-
so: Zum Eigenwert 1.2 gehört ein Eigenvektor ;:V2 von n - 1 Komponen-
ten, normiert zu ;:v~ ;:V2 = 1. Man ergänzt wieder zu einem unitären
System ;:V2' Z3' ••• , zn und bildet damit eine n-reihige unitäre Matrix X 2,

1 SCHUR. 1.: Math. Ann. Bd. 66 (1909). S. 488-510.


200 § 16. l'\ormale und normalisicrbarc l\Iatrizen. l\Iatrixnormen

deren erste Zeile und Spalte die der Einheitsmatrix sind. Damit trans-
formiert man weiter zu
Al * * ... *
o A2 * ... *
X; X[ A Xl X 2 = 0 0

o 0
In dieser Weise fortfahrend erhält man schließlich, indem man das
Produkt aller Unitärmatrizen Xi zur Unitärmatrix U zusammenfaßt,
gerade die Transformation (9).
Es sei nun A normal. Dann ist es auch L, da die Normaleigenschaft bei
unitärer Transformation erhalten bleibt:

L*L = U*A*A U}
L* L = L L*.
LL* = U*AA* U

Mit der Dreiecksmatrix GI. (9) aber ist das Element auf dem Platz 1,1
von L* L gleich Al Al' das entsprechende Element von L L* dagegen
- -
AIAI + + ... +
112 112 lln lln' woraus wegen L* L = L L* folgt: 112 =
113 = ... = lln = O. Ein Vergleich der Elemente auf dem Platz 2,2
ergibt ebenso 123 = ... = 12n = 0 usf. Damit ergibt sich im Falle nor-
maler Matrix A für L gerade die Diagonalform A = Diag(A;). Da
andrerseits eine Diagonalmatrix mit ihrer konjugierten stets komnlU-
tativ ist, so ist auch jede mit ihr unitär kongruente wieder normal, womit
Satz 2 bewiesen ist.
Damit gehören außer den bereits im vorigen Paragraphen ausführlich
beschriebenen reell symmetrischen und Lermiteschen Matrizen auch die
schiefhermiteschen und unitären (im Reellen die schiefsymmetrischen
und orthogonalen) Matrizen in unsere Klasse. Ihre Gesamtheit aber
wird nun von den sogenannten normalisierbaren Matrizen ausgefüllt,
die die bisher betrachteten Arten als Sonderfälle mit umfassen. Eine
Matrix A wird normalisierbar genannt, wenn sie darstellbar ist in der
Produktform
(10)

zweier Matrizen B, C, von denen die eine, etwa C, hermitesch und positiv
definit ist:

C
·- C~
'-dC-f: ~l, (11 )
posItIvemIt I
16.2. Normale und normalisicrbarc :\Iatrizen 201

während die andere, B, der Bedingung

I B*CB = BCB* ' (12)

gehorcht, eine Bedingung, die als eine verallgemeinerte Normalität ange-


sehen werden kann: wir wollen sagen, B sei bezüglich C normal. Für
C = 1 ist A = B normal. Für C =f= 1, aber B* = Bist A symmetrisier-
bar. Ist dann auch noch C = 1, so ist .4 = B hermitesch. Während
sich die normalen Matrizen unitär auf die Diagonalform transformieren
lassen, ist dies bei den normalisierbaren nur noch durch allgemeine Ähn-
lichkeitstransformation möglich, wie wir gleich zeigen wollen. Da jede
normale Matrix und damit auch jede Diagonalmatrix auch normalisier-
bar ist (natürlich nicht umgekehrt!), so haben wir damit unsere Klasse
diagonal-ähnlicher Matrizen ganz ausgefüllt entsprechend dem

S atz 4: E ine Matrix A ist dann und nur dann durch eine Ählllich··
keitstransformation auf die Diagonalform A = Diag(Ai ) ihrer Eigen-·
werte zu überführen, wenn sie normalisierbar ist, d. h. wenn sie darstellbar
ist als Produkt einer positiv definiten hermiteschen Matrix C und einer
bezüglich C normalen Matrix B, GI. (12).
Der Nachweis verläuft ähnlich wie unter 16.1 für symmetrisierbare
Matrizen. Mit der positiv definiten Matrix

C = U* K2 U
wird
A = B U* K2 U = U* K-l (K U B U* K) K U,

und hier steht in der Klammer eine Matrix

G= K UB U*K,
die zufolge der Bedingung GI. (12) für B normal ist:

G*G K
= U(B* CB) U* K} G*G=GG*.
GG* = K U(BC B*) U* K
Die Matrix A ist somit nach

(13)

der normalen Matrix G ähnlich, hat also die gleichen Eigenwerte Ai'
und da G nach Satz 2 unitär kongruent, also auch ähnlich mit A =
Diag(Ai ), so ist auch A durch Ahnlichkeitstransformation in A über-
führbar, womit Satz 4 bewiesen ist. - Wir stellen noch einmal zusammen
202 § 16. Normale und normalisicrbare Matrizen. Matrixnormen

MatrixA

Reell symmetrisch i Orthogonal kongruent ' Reell X' AX= A


Hermitesch Unitär kongruent Reell U* A U= A
Symmetrisierbar Ähnlich Reell V-I A V= A

Normal Unitär kongruent Komplex U* A U= A


N ormalisierbar Ähnlich Komplex V-I A V= A

16.3. Matrixnormen und Eigenwertschranken


Zur numerischen Berechnung der Eigenwerte einer Matrix ist es wert-
voll, gewisse vorläufige Aussagen über die Lage der Eigenwerte in der
komplexen Zahlenebene, insbesondere Schranken für den größten Eigen-
wertbetrag auf einfache Weise aus den Matrixelementen zu gewinnen,
Aussagen, die sich dann für die genauere Bestimmung der Eigenwerte
verwerten lassen. Daß die Eigenwerte von der Größenordnung der
Matrixelemente abhängen, folgt schon aus der einfachen Tatsache, daß
zur k-fachen Matrix k A auch die k-fachen Eigenwerte kA gehören. Eine
erste leicht angebbare Schranke für 1,1.1 hatten wir in § 13.6 mit 1,1.1 :::;; n a,
a = Maxlaikl hergeleitet. In ihr geht nur ein einziges Element, das
betragsgrößte ein. Es ist zu vermuten, daß sich bessere Schranken in
der Weise aufstellen lassen, daß auch die übrigen Matrixelemente wenig-
stens ihrem Betrage und möglicherweise auch ihrer Anordnung nach
berücksichtigt werden, daß man also die in der Matrix enthaltene Infor-
mation vollständiger ausschöpft. Dabei soll aber der Umfang der zu
leistenden Rechnung nach Möglichkeit in erträglichen Grenzen bleiben.
Die oben zur Abschätzung von 1,1.1 benutzte Größe na stellt nun eine
unter vielen möglichen sogenannten Matrixnormen dar. Unter einer
Norm versteht man ein gewisses Größenmaß. Für einen Vektor x haben
wir bisher die in § 2.4 eingeführte und in § 4.1 auf komplexe Vektoren
erweiterte sogenannte Euklidische Norm, den Betrag

Ixl = yx* x = Vf IXiI2~ (14)

benutzt. Die ihr entsprechende Euklidische Matrixnorm ist

(15 )

vgl. § 2.7, hier erweitert auf komplexe Matrix. Es hat sich nun gezeigt,
daß auch andere Normen sinnvoll und nützlich sind, sofern sie nur
gewissen allgemeinen Forderungen genügen. Als gemeinsames Zeichen
für Normen verwendet man den Doppelstrich: man schreibt Ilxll für
die Norm eines Vektors x und IIAII für die Norm einer Matrix A. An
16.3. Matrixnormen und Eigenwertschranken 203

beide Arten von Normen stellt man nun sinnvollerweise folgende!


Forderungen Vektornorm Ilxll Matrixnorm IIAII
a-fl1Xn> o· a) IIAII > 0
--- ---

und = 0 nur für x = 0 und = 0 nur für A = 0


b) Ile xl! = lelllxli I b) Ile All = lelllAl1
für beliebigen skalaren
für beliebigen skalaren I Faktor c
Faktor e
c) Ilx + yll < Ilxll + Ilyll I, c) IIA + BII < IIAII + IIBII
Dreiecks-Ungleichung
d) IIA BII ~ IIAII . IIBII
Hier ist bei der Matrixnorm gegenüber der Vektornorm noch die Forde-
rung d) hinzugetreten. Man spricht dann von einer multiplikativen
Norm 2 •
Gebräuchliche Normen, welche die hier aufgeführten Forderungen
erfüllen, sind:
Vektornormen:
1. Ilxll = Max lXii
2. ,Ixll = 1: Ix;1
3. Ilxll = lxi = Vx* x, Euklidische Norm
Matrixnormen:
1. IIAII = M(A) = na mit a = Max laikl Gesamtnorm
2. IIAII = Z(A) = Max 1: laikl Zeilennorm
i k
3. IIAII = S(A) = Maxk
1: laikl
i
Spaltennorm

4. IIAII = N(A) = Vsp A* A Euklidische Norm


5. IIAII = H(A) = X max mit x 2 = AA.A HILBERT-Norm
Spektralnorm
Die fünf Matrixnormen 3 sind nach zunehmendem Rechenaufwand geord-
net. Die unter 5. aufgeführte Spektral- oder Hilbert-Norm erfordert
sogar Lösung einer Eigenwertaufgabe, nämlich Bestimmung wenigstens
des größten der rellen Eigenwerte x~ 2: 0 der positiv (semi-)definiten
Matrix A * A. Ihre positiv genommenen Quadratwurzeln Xi heißen auch
singuläre Werte der Matrix A.
1 Vgl. etwa A. OSTROWSKI: Über Normen von Matrizen. Math. Z. Bd. 63 (1955),
S.2-18.
2 Ohne die Forderung d) ist mit IIAII auch c11A11 mit beliebiger positiver Kon-
stanten c eine Norm. Diese stellt also nur ein relatives, kein absolutes Größenmaß
dar, was wir hier ausschließen wollen.
3 Die hier verwendeten Buchstabenbezeichnungen sind nicht einheitlich in
Gebrauch.
204 ~ 10. I\ormalc und normalisicrbare Matrizen. :\Iatrixllormcn

Von der Gesamtnorm Al(A) sieht man leicht, daß sie - von Sonder·
fällen abgesehen - größer als eine der drei folgenden Normen 2'(,1),
S(A) und N(A) ausfällt, aus denen sie hervorgeht, \venn man die Ele-
mente la; k i durch ihr Maximum a ersetzt:
2'(A) < Al(A) ( IGa)
S(A) < Al(A) (IG b)
N(A) ~ 2II(A) ( tGc)
Wie sich später zeigen wird, gilt überdies

H(A) < N(A) :s J11l4) (17)

Nun ist verständlicherweise nicht jede der hier aufgeführten Matrix-


normen mit jeder der drei Vektornormen sinnvoll kombinierbar. Die
in dieser Hinsicht zu stellende Forderung gibt folgende
Definition 1: Eine l11atrixnorm [lAll heißt zu einer bestimmten Vehtor-
norm Ilxll passend, mit ihr vCl'h>äglich, wenn für alle J.V1atrizen A
und alle V cktoren X die Ungleichung besteht

( tS)

Die Norm des transformierten Vektors y = A x soll also durch die zur
Vektornorm passende Matrixnorm gegenüber der ~orm des Ausgangs-
vektors x abgegrenzt werden. In der folgenden Übersicht sind zu den
drei gebräuchlichen Vektornormen zu ihnen passende Matrixnormen
aufgeführt. Die Bezeichnung lub(A) wird weiter unten erklärt.

---
Vektornorm
-- L Dazu passende J\Iatrixnormen
IIAII
----~-----

1. Ilxll = Maxixii = M(A) Gesamtnorm


I[L111 = Z(A) = lub(A) Zeilennorm
- -- --- --- - --

2. Ilxll = 2..'lxi l il.llil = M(A) Gesamtnorm


11~111 = S(A) = luh(Ll) Spaltennorm

3· Ilxll = lxi lAI =M(A) Gesamtnorm


Euklidisch lAI = N(.4) Euklidische Norm
lAI = H(A) = lub(A) Spektralnorm

Aus der Definitions-Ungleichung (18) folgt nun leicht die gewünschte


Schranke für Je:
für jede :\Iatrixnorm. (19)

S atz 5: Die Eigenu:erte einer j1,l atrix A liegen in der komplexen 2'alzlen-
ebene innerhalb oder auf dem Rande des Kreises um den Nullpttnkt mit
dem Radius IIAil bei beliebiger multiplikativcr Matrixnonn !'.L1:!.
16.3. :\Iatrixnormen und Eigenwertschranken 205

Aus A X = Je X erhält man nämlich durch Übergang auf die Normen


unter Berücksichtigen von (18)
IIAxl1 = IJelllxl1 < IIAII·llxll
und daraus wegen Ilxll =!= 0 die Schranke (19), in der die Vektornorm
nicht mehr erscheint. In (19) ist als Sonderfall auch die in § 13.6 gegebene
Abschätzung GI. (19) enthalten, die hier ohne besondere Herleitung
anfällt. Sie läßt sich aber wegen (16) leicht verbessern durch eine der
hinsichtlich Rechenaufwand etwa gleichwertigen Normen Z(A), S(A)
oder N(A), von denen man sich bei zahlenmäßig gegebener Matrix die
kleinste aussuchen wird.
Zu einer bestimmten Vektornorm ist unter allen mit ihr verträglichen
Matrixnormen die kleinste am wertvollsten, nämlich diejenige, für die
in der Ungleichung (18) das Gleichheitszeichen eintreten kann, die also
nicht unterschreitbar ist. Man hat sie Schrankennorm, kleinste obere
Schranke = least upper bound von A genannt und entsprechend der eng-
lischen Bezeichnung auch mit lub(A) abgekürzt!:
Definition 2: Unter der zu einer Vektornorm Ilxll gehörigen Schranlwn-
flOrm oder lub-Norm lub(A) einer Matrix A versteht man die kleinste Zahl (X
derart, daß
IIA xii < .xIIxii (20a)
tür alle Vektoren x:
lub(A) = Min (X • (20b)
Anders ausgedrückt: re

IIAxl1 !
lub(A) = Max -I~ (21)
re

In der ebersicht auf S. 204 haben wir zu jeder der drei Vektornormen die
zugehörige Schrankennorm lub(A) angegeben. Um sie als solche nach-
zuweisen, hat man, was anschließend geschehen soll, bei allgemeiner
Matrix A = (a ik ) einen Vektor x derart anzugeben, daß in (18) das
Gleichheitszeichen angenommen wird. Zugleich weisen wir dabei die
Verträglichkeit von Vektornorm und den dazu als passend aufgeführten
Matrixnormen nach.
Wir gehen aus von y = A x, also Y; = E aik x k und erhalten die
folgenden Cngleichungen.
1. Ilxll = Maxixii : IYil:S I laikllxkl ~ Ixkl max I laikl
k k

IYilmax = IIYII s: Ixkl max Max I laikl = Z(A) Ilxll


i k

1 Nach F. L. BAUER u. C. T. FIKE: Norms and exclusion theorems. Numer.


Math. Bd. 2 (1960), s. 137-141. - Vgl. auch P. HENRICI: Bounds of iterates etc.
Numer. Math. Bd. 4 (1962), S. 24-40.
206 § 16. Nonnale und nonnalisierbare Matrizen. :\Iatrixnormen

Wegen Z(A) < M(A) ist auch M(A) passend zu Ilxll. Wählt man nun
etwa bei reeller Matrix als Vektor x' = (± 1, ± 1, ... , ± 1) mit einer
solchen Vorzeichenfolge, daß in der Matrixzeile größter Betragsumme
bei Y. = 1: a'k xk lauter Additionen auftreten, so erhält man gerade
l!yll = Z(A) Ilxll, womit sich Z(A) als lub-Norm erweist.
2. Ilxll =}; Ix,l: f IYil < f (f laikllxkl) = f (Ixkl f laik l)

Ilyll < Max 1: laikl· 1: Ixkl = S(A) Ilxll·


k i k

Wieder ist wegen S(A) < M(A) auch M(A) zu Ilxll passend. - Wählt
man als Vektor x' = (0, ... ,1, ... ,0) mit der 1 an der Stelle k, wo in
A die größte Spalten-Betragsumme auftritt, so wird IIYII = S(A) Ilxll,
womit sich hier S(A) als lub-Norm erweist.
3. Ilxll = lxi: Für das skalare Produkt y, = aix gilt die CAUCHY-
SCHwARzsehe Ungleichung (§ 2.4) Iy,! < laillxl·
Quadrieren und anschließende Summation ergibt:

IYil 2 < lail2 x l2


I = (ai ai*) Ixl2
IYl2 < sp A A*lxl2 = sp A* Alxl2
lyl < N(A) lxi·
Indessen ist N(A) nicht lub-Norm. Denn das Gleichheitszeichen würde
in den SCHwARzsehen Ungleichungen nur stehen, wenn die Zeilenvek-
toren a i sämtlich zu x parallel liegen würden, was im allgemeinen nicht
zutrifft.
Die Schrankennorm lub(A) zur Vektornorm lxi erhalten wir folgender-
maßen aus y = A x:
x* A* A x
lyl2 = y* Y = x* A * A x = -~;-- Ixl2 = R[x] Ix l2 .
r..

Hier erscheint als Faktor der RAYLEIGH-Quotient R[x] der positiv (semi-)
definiten hermiteschen Matrix A * A. Er liegt im Wertebereich dieser
Matrix auf der reellen positiven Achse. Sein Maximum aber wird vom
größten Eigenwert x;;'ax der Matrix A * A angenommen:
IYl2 < Max Rlzllxl2 = x;'ax Ixl2 ,
also '"
Iyl = IA xl < X max lxi = H(A) lxi·
Wählt man nun als Vektor x speziell den zum Eigenwert x~,x gehörigen
Eigenvektor u der Matrix A * A, so wird das Gleichheitszeichen ange-
nommen, womit sich H(A) als die zur Euklidischen Vektornorm lxi
gehörige Schrankennorm lub(A) erweist.
16.3 Matrixnonnen und Eigenwertschranken 207

Für die Schrankennorm H(A) = lub(A) läßt sich außer der oberen
Schranke N(A) auch eine untere angeben, was oft nützlich ist. Es gilt
nämlich

(22)

Beide Schranken können angenommen werden, z. B. die untere für


A = a I mit N = y;;' a, H = a, die obere für A = (a. k ), a. k = a mit
N = n a = H. Zum Beweis geht man aus von A B mit beliebiger
Matrix B. Dafür ist
N2 (A B) = }; IA bi l2 < H2(A) }; Ib;12 = H2(A) N2(B) .
Setzt man hier B = I, so folgt (22) wegen N(I) = y;;,.
Die beiden zur Euklidischen Vektornorm lxi passenden Matrixnormen
N(A) und H(A) zeichnen sich nun durch eine wichtige Eigenschaft aus:
sie sind unitär-invariant. Wird die Matrix A unitär transformiert
auf
B = U* A U mit U* U = U U* = I,
so gilt
N (U* AU) = N(A)
H (U* A U) = H(A)

Dies folgt unter Zuhilfenahme der allgemeinen Beziehungen


sp (A B) = sp (B A), vgl. § 2.2, GI. (12),
A (A B) = A (B A), vgl. § 13.7, Satz 13
gemäß B* B = U* A * A U = C* C mit C = A U nach
sp (B* B) = sp (C* C) = sp (C C*) = sp (A A*) = sp (A* A)
und entsprechend für A (B* B) = A (A * A). Im reellen Falle wird die
unitäre Transformation zur orthogonalen, die geometrisch als Drehung
deutbar ist. Die Unitärinvarianz der Normen ist somit als Drehinvarianz
deutbar.
Indem wir dies auf die beiden Sätze 2 und 3 aus 16.2 anwenden, er-
halten wir
N2(A) = }; IA.12 , wenn Anormal, (24a)
N2(A) > }; IA;12 wenn A nicht normal. (24b)

Aus IAI;;"'x < };!A.12 erkennt man dann auch, wie weit lAI durch N(A)
überschätzt wird, nämlich um so stärker, je weniger sich JAlmax gegenüber
den übrigen Eigenwertbeträgen abhebt.
208 § 16. Kormale und normalisicrLare :\Tatrizcn. :'I1atrixnormen

('nt er den singulären 'Werten Xi der Matrix findet man mit X nzax nicht
nur eine obere, sondern mit Xmin auch eine untere Eigenwertschranke :

." <
I ;.emin ==
11
/'w!' <
= X max
.i· (25)

Die Eigenwerte liegen also in der komplexen Zahlenebene in dem durch


die H.adien Xmin und X max eingegrenzten Kreisringgebiet einschließlich
der Kreisränder. Denn mit A x = A x, also x* A * = A x* erhalten wir
x* A* A x = AA x* x.
Es gehört demnach J./, = IAI2 zum Wertebereich der Matrix A* A, der
nach oben und unten yon x;"'x und X;;'in begrenzt wird:
2
Xmin< 1112<"
== == %max
I\, 2 .

Der Kehrwert von Y.min aber ist dann Spektralnorm = Schrankennorm


der Kehrmatrix A -1:

(26)

Denn zu A *-1 A-I gehören die gleichen Eigenwerte 1/x~ wie zu A-I A *-1
= (A* A)-I, womit H(A -1) = Max (1/x i ) = 1/xmi~ folgt.
Der Kreis mit Radius H(A) enthält schließlich auch den Wertebereich
[A] der Matrix, ygI. § 13.6, definiert durch R[x] = x* A x mit x* x = 1.
Denn mit SCHwARzseher Ungleichung und nachfolgender Normabschät-
zung wird
Ix* A xi < lxi IA xl ::=; Ixl2 H(A) = H(A) ,
also
(27)

womit wir die in § 13.6, GI. (32) gegebene Abschätzung verschärft haben.
Nachfolgend finden sich die verschiedenen Normwerte für einige spezielle
Matrizen nebst ?ugehörigen exakten Eigenwerten zusammengestellt

Matrix A :M(A) Z(A) I S(A) I N(A) H(A)I J,


- ---

A =1 n y;~ A = 1 n-mal
A = al na a a y;a a A=a n-mal
A = Diag(d;) nd d d y:ETdJi d Ai = di
d = Maxldil I
la . .. a)'
A = na i-mal
A=('''' : na na na na na
A = 0 (n - 1)-mal
a ... a;
16.4. \Veitere Abschätzungen der Eigenwerte 209

16.4. Weitere Abschätzungen der Eigenwerte


Die bisher aufgeführten auf der Matrixnorm beruhenden Eigenwert-
abschätzungen grenzen das die Eigenwerte enthaltende Gebiet der kom-
plexen Ebene gemäß [A[ < [[A[[ durch einen Kreis um den Nullpunkt
ein. Sie können daher unter Umständen noch recht grob ausfallen,
nämlich dann, wenn sich die Eigenwerte nicht um den Nullpunkt
gruppieren, sondern ihm gegenüber in einer Richtung merklich verscho-
ben liegen. Es lassen sich nun Abschätzungen angeben, die - ohne viel
Mehrarbeit - solchen und anderen Besonderheiten Rechnung tragen,
indem sie die in den Matrixelementen enthaltene Information weiter-
gehend ausnutzen, als das durch eine einzige Zahlenangabe wie bei der
Matrixnorm geschieht.
Die erste Erweiterung in dieser Richtung eröffnet sich durch Heran-
ziehen der Diagonalelemente in Form der Matrixspur, in die diese
Elemente nicht mehr nur ihren Beträgen nach eingehen. Bekanntlich ist

Die Größe
1 1
s =-spA=-L'A. (28)
n n'
stellt dann die Schwerpunktskoordinate der Eigenwertpunkte in der
komplexen Ebene dar. Für reelle Matrix ist sie, wie es sein muß, reell.
Durch eine Nullpunktsverschiebung in den Punkt s läßt sich nun die
Norm auf einfache Weise und unter Umständen wirkungsvoll verkleinern.
Bezeichnen wir mit z eine zunächst beliebige komplexe Zahl und mit
)'A die Eigenwerte der Matrix A, so sind die Eigenwerte AB der Matrix

B = A - zl (29)
mit den Elementen aik - z 0ik gegenüber A4 sämtlich um z verschoben:
AB = AA - z (30)
bei unveränderten Eigenvektoren, wie man sich leicht klar macht. Durch
diese sogenannte Spektralverschiebung, die uns auch sonst noch
als nützliches Hilfsmittel begegnen wird, ändert sich die Matrixnorm.
Für die Euklidische Norm läßt sich das leicht formelmäßig verfolgen:
N2(B) = sp B* B = sp (A * A - A * z - A z I) z+ z
= N2(A) - 5 z - S Z n z z.+
Fragt man nun nach derjenigen Verschiebung z, für die N(B) zum Mini-
mum wird, so folgt aus elementarer Extremalrechnung z = s. Dafür
wird dann

MinN(B) =
Z
IN (A -
i
sI) = VNi(AT-=-n~.
I
(31 )

Zurmühl, Matrizen 4. Aufl. 14


210 § 16. Normalc und normalisierbarc :\Iatrizen. :\Iatrixnormcn

Die Eigenwerte, die innerhalb oder auf dem Rande des Kreises EI um °
mit Radius N(A) liegen, werden also auch eingegrenzt durch den Kreis E 2
um s mit Radius N (A - s I). Die Eigenwerte liegen somit im Durch-
schnitt der sich überschneidenden Kreise, d. i. das beiden Kreisen
gemeinsame Gebiet, Abb. 16.1.
Das führt zu einer weiteren Gebietseinengung. Fragt man nämlich
nach dem Durchschnitt aller Kreise um die Punkte z mit Radien N(B),
so erhält man, wie H. HEINRICH zeigt!, wiederum einen Kreis um 5 mit
dem verkleinerten Radius

l/;'~
e = V --;;- N (A - 5 I) (32)

Die Eigenwerte liegen sämtlich innerhalb oder auf dem Rande dieses
Kreises.
Im Im

Abb. 16.1. Abb. 16.2.

Beispiel: -1
A~( -~
= 8

~)
Z(A) }'1 = 0,435
3 5(A) = 9 }.2,3 = 4,383 ± 2,637 i
-1 2 N(A) = 8 1,11 = 5,11
H(A) = 6,49
sp A = 9, 5=3
Z(B) = 7
(=~ -~ ~)
)'1 = -2,565
B = 5(B) = 6 )'2,3 = 1,283 ± 2,637 i
-1 2 1 N(B) = 6,08 1,11 = 2,93
H(B) = 5,29
(! = 4,97
1 Zur Eingrenzung der charakteristischen Zahlen einer beliebigen Matrix. \Viss.
Z. T. U. Dresden Bd. 6 (1956/57), S. 211-216. Ferner: Ein Beitrag zur Lokalisie-
rung von n-Tupeln von Elementen im Euklidischen Raum. Arch. Math. Bd. 12
(1961), S. 193-201. Dortfindet sich auch eine weitere Eingrenzung nach V. MAURER
in Form einer Ellipse, worin weitere Matrixinformationen bcrücksichtigt sind.
16.4 ·Weitere Abschätzungen der Eigenwerte 211

Läßt man die Spektralnorm H(A) und H(B) als zu aufwendig außer
Betracht, so liegen die Eigenwerte im Durchschnitt der beiden Kreise
mit R = 8 um 0 und R = 6 um s = ) . Der Kreis mit (! um s = j liegt
noch innerhalb des Durchschnitts der beiden ersten Kreise.
Weitere Eingrenzungen der Eigenwerte geben zwei höchst bemerkens-
werte Sätze von S. GERSCHGORIN 1 , die auf ebenso einfache wie anschau-
liche Weise das Gebiet der Eigenwerte weiter einengen und es unter
Umständen in Teilgebiete aufspalten. Hier werden die Diagonalelemente
der Matrix ihrem vollen - im allgemeinen komplexen - Zahlenwert
nach herangezogen. Von den übrigen Elementen werden zeilen- oder
spaltenweise die Betragsummen gebildet. Die hier ohne Herleitung ange-
führten Sätze lauten:
S atz 6: Die Eigenwerte einer allgemeinen komplexen Matrix A = (aik)
liegen innerhalb oder auf dem Rande des Gebietes G der komplexen A-Ebene,
gebildet aus den 12 Kreisen K i mit den Mittelpunkten aii und den Radien
ri = L;"laikl , 03 a)
k4'i
also gleich den Zeilensummen der Beträge der Nichtdiagonalelemente. Das
gleiche gilt für das Gebiet G', gebildet aus den n Kreisen K; mit den gleichen
M ittelpunlden ai i und den Radien

r~ ,E'lakil '
= 03 b )
k4'i
also gleich den Spalten summen der Beträge der Nichtdiagonalelemente. Di",
Eigenwerte liegen somit im Durchschnitt der Gebiete G und G', d. h. in
dem beiden Gebieten gemeinsamen Teilgebiet.
S atz 7: Durchsetzen sich m der Kreise und bilden sie ein zusammen-
hängendes Teilgebiet H, das alle übrigen Kreise außerhalb läßt, so liegen
gen au m der Eigenwerte in H.
Für den Fall einer Diagonalmatrix sind alle Radien Null, und die Eigen-
werte sind genau bekannt, nämlich Ai = aii' Mit Zunahme der Elemente
außerhalb der Diagonalen vergrößern sich die Kreise, um sich mehr
und mehr zu überdecken. Solange sie sich gegenseitig trennen, liegt in
jedem von ihnen genau ein Eigenwert. -- Die beiden Sätze sind nützlich
in Verbindung mit einem wohlbekannten Iterationsverfahren von
].\COBI für reell symmetrische Matrizen, bei dem durch fortgesetzte
Orthogonaltransformationen (ebene Drehungen) die Nicht-Diagonal-
elemente nach und nach verkleinert werden, während die Diagonal-
elemente dabei gegen die Eigenwerte konvergieren; \gl. § 21.8.
1 Über die Abgrenzung der Eigenwerte einer Matrix. BuH. Acad. Sc. Leningrad
1'.131. S.74'.1-754. - Zum Beweis vgl. auch E. BODEWIG: Matrix ca1culus [2J,
S. 67 ff.
212 § 16. Normale und normalisierbare Matrizen. Matrixnormen

16.5. Konditionszahlen
Ein lineares Gleichungssystem ,4 x = a ist bekanntlich für den Aus-
nahmefall singulärer ::\Iatrix, det 11 = 0, im allgemeinen, für beliebige
rechte Seite a, nicht lösbar. Ist nun, was numerisch weit häufiger vor-
kommt, die Determinante zwar nicht exakt Null, aber betragsmäßig
sehr klein, so wird die numerische Lösung um so unzuverlässiger, je
kleiner D = ldet Al. Beim Eliminationsprozeß treten kleine Differenzen
großer Zahlen auf, es kommt zu Stellenverlust, der das Ergebnis der
Rechnung völlig verfälschen kann. Man spricht dann von einem schlecht
konditionierten (ill conditioned) System oder besser von einer schlecht
konditionierten Matrix. Die gleichen Schwierigkeiten treten dann auch
bei der Eigenwertberechnung der Matrix auf.
Um das Verhalten des Systems, der Matrix in dieser Hinsicht beurteilen
zu können, sucht man nach einem Konditionsmaß (condition number),
einer Zahl, die etwas über die Güte der Kondition aussagt und die mög-
lichst ohne viel Mehrarbeit aus der Eliminationsrechnung zu gewinnen
ist. Es liegt nahe, sie in Form einer relativen Größe des Determinanten-
betrages anzusetzen. Eine auf einer bekannten Determinantenabschät-
zung nach HADAMARD 1 beruhende Konditionszahl K isP
_ D
I\.H = V (34)

mit
D = idet Al, (35)
V = a1 a 2 an' (3 6)
VflaiJ"Z.
. ••

ai = lail =

Darin ist V das Volumen des aus den Zeilenvektorbeträgen ai gebildeten


Rechtkantes. l\ach der zitierten Determinantenabschätzung erfüllt K H
die
Forderung 1: o:sK < 1 (37)
K = 0 nur für det A = 0
K = 1 für unitäre (reell orthogonale) Matrix.
Sie erfüllt darüber hinaus auch noch
Forderung 2: a) K invariant gegenüber Zeilenvertauschung,
b) K invariant gegenüber Multiplikation der Zeilen mit
Faktoren Pi =f= 0:
K(P A) = K(A) mit P = Diag(Pi)' Pi =!= O. (38)
1 Vgl. etwa E. BODEWIG: Matrix calculus [2J, S. 78.
2 Statt I< werden auch die Kehrwerte 1/K als Konditionszahlen (condition num-
bers) yerwandt.
16.5. Konditionszahlen 213

Damit gilt K H = 1 außer für orthogonale Matrix auch noch für jede
nichtsinguläre Diagonalmatrix sowie für Matrizen mit orthogonalen
(aber nicht notwendig normierten) Zeilenvektoren. Auch die 2. Forde-
rung ist naheliegend, wenn man an die numerische Behandlung linearer
Gleichungssysteme durch Elimination denkt.
Eine zweite Konditionszahl basiert auf der Euklidischen Matrixnorm
N(A) = N, woran der Index N erinnern mag:
,

D I
K = - I. (39)
N (N/V n)~_1

Darin ist Nd;; = a


das quadratische Mittel der Zeilenvektorlängen ai ,
der Nenner also ein mittleres Volumen V = an.
Diese Zahl erfüllt ebenso
wie K H die Forderung 1 und auch noch 2a, nicht aber auch Forderung 2b
der Invarianz gegenüber Zeilenfaktoren. Wegen der bekannten Unglei-
chung zwischen geometrischem und arithmetischem Mittel ist
VV2 < N2jn,
n~

V « Nd-:;;)n
und somit

1~~~KH!' (40)

Wählt man nun l als Zeilenfaktoren


(41)
mit beliebiger Konstanten c > 0, d. h. macht man sämtliche Zeilen-
vektoren ai von gleicher Länge c, so wird

d. h. aber wegen (40) wird bei dieser Zeilennormierung die Konditions-


zahl K N zum Maximum K H bezüglich aller möglichen Zeilenfaktoren Pi'
Da nun - bei Gleitkommarechnung - etwaige Zeilenfaktoren Pi sich
auf Stellenverlust nicht auswirken, so kommt der gegenüber Zeilen-
faktoren invarianten HADA:\IARDschen Konditionszahl K H eine besondere
Bedeutung als Konditionsmaß zu.
Eine dritte Konditionszahl benutzt größten und kleinsten der singu-
lären Werte der Matrix und erfordert so zu ihrer Berechnung Lösung
einer Eigenwertaufgabe :

(42)

1 Die folgenden Überlegungen nach H. HEINRICH: Z. angew. Math. Mech. 43


(1963), H. 12.
214 § 16. Normale und normalisierbare Matrizen. Matrixnormen

mit
%1 = Min %i
(4})
%" = Max %i

Sie erfüllt Forderung 1, nicht aber 2a, b.


Mit /(0 läßt sich nun unmittelbar eine Fehlcrabschätzung für die
Lösung x des linearen Gleichungssystems
A x = q (44)
durchführen. Eine numerische Auflösung des Systems liefert anstelle
exakter Lösungen x die Näherungswerte
(45)
mit unbekanntem Fehlervektor z. Bei Einsetzen dieser Näherungen in
das Gleichungssystem ergeben sich Reste r = (r i ) anstelle der Nullen:
Ax-u=r. (46)
Unter Verwendung von (45) für x und (44) folgt daraus für die Fehler z
das System
Az= r, (47)
das wir später (§ 2}.5) zum Aufbau einer Korrektur benutzen werden.
Hier interessiert uns eine Fehlerabschätzung, die wir aus
z = A-l r
durch Übergang zu den K ormen erhalten:
1 1 Iri
Iz[ < !IA-lllirl = ~
..... 1
Irl = -]\.;-
0 Xn
(48)

mit der Norm (26) für die Kehrmatrix. Mit


N/Y-;; < Xn < N (22)
folgt daraus die gröbere Abschätzung

I - Iz[ ~ ~ ~ -I. (49)


i 0
--- -- -------

Aus kleinen Resten r folgen somit nur dann kleine Fehler z, wenn das
System gut konditioniert, die Koeffizientendeterminante also nicht zu
klein ist.
Die Konditionszahl /(0 ist numerisch nur mit größerem Aufwand und
überdies gerade im Falle schlechter Kondition auch nur recht ungenau
ermittelbar. J. FaCKEl gibt eine weitere Abschätzung, in der /(0 durch
I eber die Kondition linearer Gleichungssysteme. Wiss. Z. Univ. Leipzig 1962,

S.41-43.
16.6. Hauptachsensystempaar einer allgemeinen Matrix 215

K N ersetzt wird. Hier sei nur eine - für kleineK-Werte recht gute -
obere Schranke angeführt:

Y3 n [1'[
IZ I <~--­ (50)
= K N N

16.6. Hauptachsensystempaar einer allgemeinen Matrix


Es sei nun A wieder eine beliebige quadratische, im allgemeinen
nicht diagonialähnliche Matrix. Ihr sind durch die GAusssche Trans-
formation
A*A und AA*
zwei hermitesche positiv (semi-)definite Matrizen zugeordnet und
damit zwei unitäre Hauptachsensysteme der Eigenvektoren u j von A * A
und Vi von A A *. Diese Vektoren lassen sich nun in bestimmter Weise
einander zuordnen, womit man zu einem der Matrix A zugehörigen
Hauptachsensystempaar gelangt, das freilich nur im reellen Falle (A reell)
anschaulich deutbar ist. Der größeren Allgemeinheit wegen führen wir
jedoch unsere Betrachtungen wieder im Komplexen durch; für reelles A
wird A* = A'.
Die reellen Eigenwerte der beiden hermiteschen Matrizen A * A und
A A * sind nach § 13.5, Satz 9 einander gleich und sie sind wegen der
positiven (Semi-)Definitheit positiv oder (bei singulärem A) auch Null;
wir schreiben sie deshalb wieder in der Form x~ > O. Die beiden Eigen-
wertgleichungen lauten dann

. A * A u i = x~ u i (51a)
2 '
!
AA*vi=x,Vi I (51b)
1. . . _ . - .. _ _ _ __

'Vir gehen nun aus von einem festen, im Falle mehrfacher Eigenwerte
allerdings noch in gewisser Weise willkürlich wählbaren Hauptachsen-
system unitärer Eigenvektoren u i von A * A und denken uns die Eigen-
werte x~ nebst zugehörigen Vektoren wie folgt numeriert:
xi > x~ > ... > X~ > 0, X;+l = ... = X~ = 0;
die Matrix A habe also den Rang r ~ n. Dann legen wir zunächst zu
den zu x~ =F 0 gehörigen Eigenvektoren u i neue Vektoren Vi fest nach

i = 1,2, ... ,r (52a)

mit Xi = + Vi<; . Durch Multiplikation mit A * folgt hieraus in Ver-


bindung mit (51a)
216 § 16. Normale und normalisierbare Matrizen. Matrixnormen

und daher wegen X~ > 0:

I_A*Vi=_~~i I i=1,2, ... ,r. (52b)

Man erhält daraus weiter A A * Vi = Xi A U i = X; Vi' so daß die nach


GI. (52a) definierten r Vektoren Vi in der Tat Eigenvektoren von A A *
sind. Auch sie sind wieder unitär; denn aus GI. (52a) folgt für zwei
Zahlen Xi' X k

und damit wegen u7 Uk = (jik


v7v k =(jik' i,k=1,2, ... ,r. (53)
Nun ergänzen wir das System der unitären Vi durch n - r weitere
uni täre V s als Lösungen von
A*vs=o (s=r+1,r+2, ... ,n), (54)
so daß die GIn. (52a), (52b) allgemein gelten. Auch das gesamte Vektor-
system der vi (i = 1,2, ... ,n) ist wieder unitär; denn aus GI. (52a)
folgt durch Multiplikation mit vi unter Berücksichtigen von GI. (54)
für s =l= i.
Damit haben wir in

(55)

zwei unitäre Matrizen mit V* V = V* V = I. Mit ihnen und der Diagonal-


matrix K = Diag(xJ schreiben sich die beiden GIn. (52a), (52b) in der
Matrizenform

AV=VK -I (56a)
A*V= VK· (56b)

Daraus aber folgt dann als eine Verallgemeinerung der H auptachsen-


transformation
S atz 8: Zu einer beliebigen quadratischen Matrix A gibt es zwei uni-
täre Matrizen V, V, welche A nach

(57)

auf reelle Diagonalform überführen. Die Diagonalmatrix K = Diag(xJ


enthält die positiv gewählten Quadratwurzeln der Eigenwerte x~ > 0 von
A * A und A A *, und die Spalten u i' Vi der unitären Matrizen V, V sind
Eigenvektoren von A* A bzw. AA*.
16.7. Produktdarstellung als Drehstreckung. Radizieren 217

16.7. Produktdarstellung als Drehstreckung. Radizieren einer Matrix


Die GIn. (51) bzw. (56) lassen im reellen Falle eine unmittelbare
geometrische Deutung zu, die zu weiteren Beziehungen führt. Um uns
von der Anschauung leiten zu lassen, denken wir uns die Matrizen
zunächst reell und übersetzen anschließend wieder ins Komplexe. Eine
Lineartransformation mit reeller Matrix A, angewandt auf das Ortho-
gonalsystem U der reellen orthonormierten Eigenvektoren u i der sym-
metrischen Matrix A' A, überführt nach GI. (51a) bzw. (56a) dieses Sy-
stem in ein neues System wiederum orthogonaler, aber um die reellen
Dehnungsmaße "i > 0 verstreckter Vektoren Vi. Die Abbildung mit "i
A stellt also eine Drehstreckung dar, nämlich eine Dehnung der u i auf
"i "i
u i und anschließende Drehung in Vi' oder, was das gleiche ist,
zuerst eine Drehung der u i in die Vi und anschließende Dehnung auf
"iVi· Dementsprechend wäre A darstellbar in den beiden Produkt-
formen
i------I , - - _ 0 0 -1

i
A =D81
' - _ _ _ _1
·
und IA= 8 2 D, (58)

mit hermitescher (reell symmetrischer) positiv (semi-)definiter Deh-


nungsmatrix 8 1 bzw. 8 2 und unitärer (reell orthogonaler) Drehmatrix D.
Die Matrix 8 1 dehnt die u i in ihren Richtungen auf "i u i ' nimmt also
im Hauptachsensystem der u i die Diagonalform K = Diag("i) an. Die
Matrix 8 2 bewirkt das Entsprechende im System der ·vi . Damit ge-
horchen 8 1 und 8 2 den beiden Hauptachsentransformationen

(59)

Die Matrix D aber dreht die u i in die Vi' genügt also der Beziehung

DU=V I

~-==v~:J
(60)

Mit GIn. (59) und (60) ergibt sich aus GI. (58) in der Tat
A = D 8 1 = V U* U K U~ = V K U*
A = 82 D = V K V* V U* = V K U* ,
also beide Male gerade die Umkehrung der Transformation GI. (57). Wir
können somit formulieren
Satz 9: Eine beliebige quadratische Mairix A ist darstellbar als Pro-
dukt einer unitären Matrix D und einer hermiteschen positiv (semi-)-
definiten Matrix 8 1 , bzw. 8 2 in der Form (58). Die Unitärmatrix D über-
führt das System U der unitären Eigenvektoren u i der Matrix A * A in das
System V unitärer Eigenvektoren Vi von A A*, Cl. (60). Die hermiteschen
218 § 17. Eigenwerte spezieller Matrizen

°
Matrizen 8 1 und 8 2 , definiert durch GI. (59) mit der Diagonalmatrix
K2 = Diag(x~) der Ez'genwerte x~ 2- von A * A und A A *, sind die Qua-
dratwurzeln dieser beiden M afnun, d. h. sie genügen der Beziehung

(61 )

Diese letzte leicht nachweisbare Beziehung legt den Gedanken eines


allgemeinen Radizierens einer hermiteschen Matrix nahe, von der nur
positive (Semi-)Definitheit zu fordern ist. In der Tat finden wir
Satz 10: Zu einer positiv (semi-)definiten hermiteschen Matrix H gibt
es eine eindeutige positiv (semi-)definite Matrix R m derart, daß bei
beliebiger positiv ganzer Zahl m

(62)

Wir schreiben dann für R m auch

r~
m __ i

I R,,,- = ! • (63)
Hat nämlich H die Eigenwerte Ai > 0, so gilt mit der Unitärmatrix X
der Eigenvektoren von H die Hauptachsentransformation
X* H X = J\. = Diag(A;) .
Bezeichnen wir nun mit
I m_
W m~'=I'2-0
" At ~
I
--~-- ----

die positiv genommenen m-ten Wurzeln aus Ai' die wir zur Diagonal-
Matrix
m __ _
.Qm = Diag(wmJ = VJ\. mit .Q;;: = J\.
zusammenfassen, so finden wir die gesuchte Matrix zu

(64)

Denn damit wird


R:::, = (X.Q", X*) (X.Qm X*) ..• (X.Qm X*) (m Klammern)
= X.Q;;:X* = XJ\.X* = ll.

* § 17. Eigenwerte spezieller Matrizen


Aus einer großen Anzahl spezieller Matrizen, die heute in den Anwen-
dungen eine Rolle spielen, ist in diesem - für das Verständnis des
Weiteren nicht erforderlichen - Abschnitt eine kleine Auswahl zu-
sammengestellt.
17.1. Nichtnegative Matrizen. Einschließungssätze 219

17.1. Nichtnegative Matrizen. Einschließungssätze


In vielen Anwendungen treten Matrizen auf, deren Elemente positiv
oder nicht negativ sind, aik > 0 bzw. > O. Eine solche Matrix wird
positiv bzw. nicht negativ genannt, A > 0 bzw. > O. Die Eigenschaften
dieser Matrizen sind eingehend von FROBENIUS und später ergänzend
von WIELANDT untersucht worden 1, wovon wir hier das Wichtigste,
z. T. ohne Beweis, kurz zusammenfassen.
Über die Matrix A muß dabei noch eine bestimmte Voraussetzung
gemacht werden, nämlich daß sie unzerlegbar ist, d. h. sie darf weder
die Gestalt

haben mit quadratischen Untermatrizen Au, A 22 , noch darf sie durch


Umstellung der Zeilen und gleichnamige Umstellung der Spalten auf
diese Form gebracht werden können. Dann gilt der
Sa tz 1: Unter den Eigenwerten einer unzerlegbaren nicht negativen
Matrix A gibt es einen einfachen reellen positiven Wert A. = ", die soge-
nannte 111a;rinlalwurzel, die dem Betrage nach von keinem anderen Ei-
genwert der Matrix übertroffen wird:
I i
:~,I~~. (1 )

ZU A. =" gehört ein positiver Eigenvektor x > 0, d. h. einer mit nur


positiven Komponenten Xi> O. Die Maximalwurzel ist der einzige Eigen-
wert, zu dem ein nicht negativer Eigenvektor existiert.
Hieraus folgt nun weiter:
S atz 2: Bildet man mit der unzerlegbaren nicht negativen Matrix A
zu einem beliebigen positiven Vektor u mit Ui > 0 den transformierten
Vektor v = Au mit den Komponenten Vi > 0 und damit die Quotienten

(2)

so wird die Maximalwurzel" von A vom kleinsten und größten der Quo-
tienten qi eingeschlossen:

(3)

Mit der Diagonalmatrix Q = Diag(qi) gilt nämlich wegen GI. (2)


v = All = Qu. (4)
1 FROBENIUS, G.: über Matrizen aus positiven bzw. nicht negativen Elementen.
S. B. preuß. Akad. Wiss. (1908), S. 471-476, (1909), S. 514-518, (1912), S. 456
bis 477. - WIELANDT, H.: Unzerlegbare, nicht negative Matrizen. Math. Z. Bd. 52
(1950), S. 642-648.
220 § 17. Eigenwerte spezieller ::\Iatrizen

Zur transponierten Matrix A' gehört gleichfalls die :\laximalwurzel;){


mit einem nicht negativen Eigenvektor y gemäß
.c1' y = ;){y
Mit GI. (4) bilden wir
u' Q' y ~ u' ~4' Y = 0 = u' Q y ~ u' ;)( y
u' (Q ~ ;)( I) Y = 0 (5)
oder ausführlich

Da nun aber u i > 0, Yi > 0, so kann diese Gleichung nur gelten, wenn
die Faktoren (qi ~;){) nicht durchweg positiv oder negativ sind, d. h.
es muß sein
qmin ~;){ ~ 0, (3a)
qmax~x ~ 0, (3 b)
wobei das Gleichheitszeichen höchstens gleichzeitig auftreten kann,
wenn nämlich u der zu A = x gehörige Eigenvektor ist. Damit ist die
Abschätzung GI. (3) bewiesen.
Man kann den Satz dazu benutzen, die Maximalwurzel einer nicht
negativen Matrix nach und nach in immer engere Schranken einzu-
schließen, indem man einen zunächst willkürlich angenommenen posi-
tiven Vektor u in geeigneter Weise so abändert, daß die Schranken
qmin und qmax mehr und mehr zusammenrücken. Man kann das auch
mit dem in § 14.4 beschriebenen Iterationsverfahren kombinieren, den
Vektor v also als einen verbesserten Vektor u ansehen, mit dem man
die Rechnung wiederholt.
In den Anwendungen finden sich oft auch Matrizen, bei denen die
Vorzeichen der Elemente schachbrettartig verteilt sind bei positiven
Diagonalelementen :
+ +
+ +
+ +
+ +
Durch Vorzeichenumkehr jeder zweiten Zeile und Spalte geht die Ma-
trix dann in eine nicht negative über. Bezeichnet man nun allgemein
die aus einer Matrix A durch eine solche Schachbrett-Transfonnation
hervorgehende Matrix mit A+ und ebenso den aus einem Vektor x
durch Vorzeichenumkehr der 2., 4., ... Komponente entstandenen
Vektor mit x+, so gilt, wie man sich leicht klar macht: Zur Eigenwert-
aufgabe
(6a)
17.2. Spaltensummenkonstante und stochastische Matrizen 221

gehört die entsprechende Aufgabe


A+x+ =AX+ (6b)
bei gleichen Eigenwerten A. Zu einer unzerlegbaren Matrix mit schach-
brettartig verteilten Vorzeichen gehört also gleichfalls eine positive
Maximalwurzel als Eigenwert mit einem Eigenvektor mit Komponenten
von wechselndem Vorzeichen + - + ... .
Ein dem Einschließungssatz 2 ähnlicher ist für hermitesche Matrix A
und die allgemeinere Eigenwertaufgabe

'AX=ADx (7)
r

mit positiver Diagonalmatrix D = Diag(di ), di > 0, die sogenannte


Aufgabe der Zwischenstufe (zwischen der speziellen Aufgabe Ax = AX
und der allgemeinen A. x = A B x) von COLLATZ aufgestellt worden l :
S atz 3: Ist A eine hermitesche M afrix und D eine reelle positive
Diagonalmatrix mit d i > 0, bildet man mit einem beliebigen Vektor u mit
°
nicht verschwindenden Komponenten u i =1= den transformierten Vektor
v = Au mit den Komponenten vi und damit die Quotienten

q = ---'-
V' , (8)
, d, Ui
'I

------

so wird vom kleinsten und größten Quotienten mindestens einer der reellen
EigenwerteAj der Au/gabe GI. (7) eingeschlossen:
I - --~--- ---I

i q~in ~_A~:;;;; qmax I' (9)

Über die Nummer des von GI. (9) eingeschlossenen Eigenwertes wird
hier nichts ausgesagt 2 • Wieder kann man diesen Satz zur Eingrenzung
eines diesmal beliebigen Eigenwertes Aj durch passende Wahl von u
praktisch verwerten, vgI. Anm. 1.

17.2. Spaltensummenkonstante und stochastische Matrizen


In der Wahrscheinlichkeitsrechnung treten Matrizen A auf, bei denen
die Spaltensummen
a k = a u + a2k + ... ank
für alle Spalten k gleich sind, ak = a. Für derartige Matrizen gilt
Satz 4: Eine spaltensummenkonstante quadratische Matrix A mit der
Spaltensumme a hat den Eigenwert a. Die Matrix Am mit positiv ganzem
1 COLLATZ, L.: Eigenwertaufgaben [3], S. 304- 309.
" Eine Aussage darüber findet man bei F. W. SlNDEN: An oscillation theorem
for algebraic eigenvalue problems and its applications. Diss. E. T. H. Zürich 1954.
Prom. Nr. 2322.
222 § 17. Eigenwerte spezieller Matrizen

Exponenten m ist wieder spaltensummenlwnstant mit Spaltensumme und


Eigenwert (J.". Ist A nichtsingulär, so ist auch ~l-I spaltensummenkonstant
mit Spaltensumme und Eigenwert 1!(J. -
Summe und Produkt zweier spaltensummenkonstanter quadratischer
Matrizen A, n sind wieder spaltensummenkonstant, zmd für die Spalten-
summen der einzelnen Matrizen gilt

(JA ~ B = (JA + (J li (10a)


(JA B = (JlU = (JA • (JB (1Gb)

Die erste Aussage folgt mit einem Vektor s' = (1,1, ... , 1), der sich
als Eigenvektor von A' erweist beim Eigenwert (J:

A' s = [::: :.: .• ::.:] ( : ] (::: :; .•••. : ::.:] = [ : ] = (J ( : ] = (J s.


ain ann 1 aIn + +a nn (J 1

(Jist also Eigenwert zu A' und damit auch zu A. Dann folgt (J2 als
Eigenwert und Spaltensumme bei gleichem Eigenvektor für A2 usf.
Ebenso folgt aus A' s = (J S : ~. s
a
= A-l l s. - GI. (10a) ist unmittelbar
einzusehen. GI. (1 Ob) sieht man so: Mit den Zeilen vektoren a' von ./1
und den Spalten b k von n wird A n = (al b k ) und damit die k-te Spalten-
summe von AB:

(JAB = alb. + ... + a'b k

= allb +··· + a
lk b"k 1n

+ ............ .
+ a b + ... + a b
nl lk nn nk

= (b + ... + b
(JA ik = nk ) (JA· (JB·

Die m der Wahrscheinlichkeitsrechnung l auftretenden spalten-


summenkonstanten Matrizen sind reell und nicht negativ mit Spalten-
summe 1: die Elemente jeder Spalte stellen Wahrscheinlichkeiten
aik > 0 dar, deren Summe 1 ergibt. Die Matrix besitzt, wie aus den
Sätzen 1, 2 und 4 folgt, die Maximalwurzel }'l = (J = 1 als einfachen
Eigenwert. Von besonderem Interesse ist hier nun der Fall, daß die
Matrizenpotenzen AV mit wachsendem v gegen eine Matrix Lt co kon-
vergieren, die lauter gleiche Spalten besitzt. Wir zeigen dazu den
folgenden
1 SCHULZ, G.: Grenzwertsätze für die \Vahrscheinlichkeitcn verketteter Ereig-
nisse. Deutsche Math. Bd. 1 (1936), S. 665-699.
17.2. Spaltensummenkonstante und stochastische Matrizen 223

S atz 5: Ist A eine nicht negative unzerlegbare M afrix konstanter


Spaltensumme a = 1 und sind sämtliche EigenwerteA; von LI mit Aus-
nahme der Maximalwurzel Al = 1 dem Betrage nach kleiner als 1:

Al = ~,-_IAJ <::_~ I für i = 2,3, ... ,n, (11)

so konvergiert die Folge der Matrizenpotenzen A" mit wachsendem v gegen


eine wiederum spaltensummenkonstante Matrix, deren Spalten sämtlich
miteinander übereinstimmen:

JA" ~~aoJ für v ~oo (12)

[Li'" ~(~~n, .. ~) (13)

Die Spalte a dieser Grenzmatrix ist gleich dem zu Al = 1 gehörigen auf


Spaltensumme 1 normierten Eigenvektor von A:

(14)

Die letzte Gleichung ist wegen (13) gleichbedeutend mit


AAao = Aao. (15)
Die Matrix A ao besitzt außer dem Eigenwert Al = a = 1 als Matrix
vom Range 1 den (n -1)-fachen Eigenwert ? = o. - Wir gehen nun
aus von dieser durch GI. (14) definierten Matrix Aao und bilden mit
ihr die Matrix
B=A-A"", (16)
für die wegen GI. (15) gilt
B2 = A2 _AOOj
(17)
~~ ~.~3.~~~ •

Dann läßt sich zeigen, daß B die Eigenwerte


(18)
also die der Matrix A mit Ausnahme von Al = 1 besitzt, d. h. aber
lauter Eigenwerte vom Betrage < 1. Die Eigenvektoren der trans-
ponierten Matrizen A', A 00' und B' sind die gleichen. Zunächst ist
nämlich mit dem Vektor s' = (1,1, ... , 1)
s' LI = s' AA = 1
s' Aao = s'

AB = o.
224 § 17. Eigenwerte spezieller Matrizen

Ist nun A =1= )'1 em Eigenwert von A und y zugehöriger Eigenvektor


von A', y' A = ). y', so erhalten wir durch Rechtsmultiplikation mit
Acc wegen (15)
y' AAoo = y' Aco = AY' Aoo

und, hieraus wegen A =1= 1: y' Aoo = o. Y ist also auch Eigenvektor zu
A 00 mit einem Eigenwert O. Dann aber folgt aus

y' A =AY'
y' Aco = 0

y'(A-AOO) =y'B=Ay'.
Die Matrix B besitzt also die Eigenwerte (18), deren Beträge sämt-
lich < 1 sind. Für eine solche Matrix aber konvergiert, wie wir später
sehen werden (§ 20.3), die geometrische Matrizenreihe

B + B2 + B3 +"',
das heißt es geht
BV = AV _ Aoo --0>- 0 für l' --0>- 00 ,

womit unser Satz bewiesen ist.

17.3. Schach brettmatrizen


Hierunter verstehen wir Matrizen, deren Plätze schachbrettartig von
Nullelementen und von im allgemeinen nichtverschwindenden Elementen
besetzt sind. Dabei sind zwei Fälle zu unter-
scheiden, je nachdem die Diagonalelemente von
Null verschiedene oder Nullelemente sind.
I. Diagonalelemente nicht durchweg Null, Abb.17.1
Durch Vertauschen der Zeilen und entspre-
chendes Vertauschen der Spalten, wobei die
Eigenwerteigenschaften erhalten bleiben, geht die
n-reihige Ausgangsmatrix A über in die Form
Abb.17.1.
Schachbrettrnatrix, 1. Art
(19)

mit der s-reihigen quadratischen Untermatrix A_1 und der (n - s)-rei-


higen A 2 • Dabei ist
n
s=n-s= für gerades n
2

n+1 n-1
S = --;--, n- s= 2 = S -- 1 für ungerades n .
17.3. Schachbrettmatrizen 225

Hier zerfällt die charakteristische Determinante und charakteristische


Gleichung in
IA -A 11 = 1"41 -AIl l·IA 2-AI2 = Pl(A) P2(A) = 0 1

Pl(A) = 0 -+A = Al> A2, ... ,As


P2(A) = 0 -+ A = As + 1> As +2' ... ,An'
Al hat die s-reihigen Eigenvektoren Yl' Y2' ... , y"
A 2 hat die (n - s)-reihigen Eigenvektoren Zs + l' Zs + 2' ••• , zn'
von denen nicht alle linear unabhängig zu sein brauchen. Die Gesamt-
matrix A hat dann die n-reihigen Eigenvektoren

Xi=(~)' i=1,2, ... ,s, Xi =(:'), i=s+1, ... ,n, (20)


die linear unabhängig sind, soweit es die Yi und die Zi sind. Die zur
Ausgangsmatrix A gehörigen Vektoren Xi erhält man dann aus den Xi
durch entsprechendes Umstellen der Komponenten, womit auch diese
Eigenvektoren abwechselnde Nullkomponenten haben, soweit nicht
unter den zu Al und A 2 gehörigen EigenwertenAi gleiche Werte vor-
kommen, wobei dann auch Linearkombinationen der zu Al und A 2 ge-

[J ~ -: :~ ~)
hörigen Eigenvektoren möglich sind, deren sämtliche Plätze besetzt sind.

Beispiel: A = [-~ : ~ : _:), A=


° 020 000104
-60206 00°112
IAl-A 11 = (.I. - 1) (.I. - 2)2 = 0, Al = 1, ~ = Aa = 2

Yl = ( -D' Y2,3 =

IA 2 -.I. 11 = (.I. -
( -D Zur Doppelwurzel .I. = 2 gibt es
nur einen linear unabhängigen
Eigenvektor y.
1) (.I. - 6) = 0, .1., = 1, .1.6 = 6

z,=(_J Z5=(:)

"~HJ. vHJ. ,.~[-], ,·~[n


Hier sind aber auch ;c = a Xl + b x, Eigenvektoren zur gemeinsamen Wurzell = 1,
zu der also das zweidimensionale lineare Vektorgebilde

• - [ -: ~) ~tfrei= Ko~~ " b g'hM.

Zurmühl, Matrizen 4. Aufl. t5


226 § 17. Eigenwerte spezieller Matrizen

Xl X 2,3 X4 X5 X

0 0 a
0 0 4 b
Probe: A X = ÄX -2 -1 0 0 -2a
0 0 1 -b
2 0 2a
----~- -- ---

_~ 1-'
-i 0 0 a
0 5 0 4 o 0 0 24 b
8 0 0 oo -5 -2 -2
2 0 0 , -2a
0 1 0 2 0 0 0 6 -b
-6 0 2 o 6 2: 4
---.- - -- ~~- -~

I Ä= I
I I. Diagonalelemente sind Null, Abb. 17.2
Durch Zeilen- und entsprechende Spaltenvertauschung geht hier .4
über in
~
A- A
_(0 2
Al)
0 (21)

mit zwei quadratischen s- und (n - s)-reihigen Nullmatrizen. Ein


Zerfallen der charakteristischen Gleichung findet hier nicht mehr statt,
wohl aber wieder für die aus .4 durch Quadrieren entstandene Matrix

B= A2 = (AloA 2A0.)
.fl
= (BIO)
0 B 2 l 2
(22)

mit den Eigenwerten Xi = A7 bei gleichen Eigen-


vektoren Xi' Diese Matrix ist also wieder von der
Form GI. (19), jedoch mit der Besonderheit, daß
BI = .,l l .1't 2 }
(23)
B 2 = A 2 -,11 .
Abb.17.2.
Beide Matrizen, von denen BI s-reihig, B 2 (n - s)-
Schachbrettmatrix. 2. Art

reihig ist mit sund n - s wie unter I, besitzen


nun nach § 13.7, Satz 13 und 14 die gleichen Eigenwerte Xi bis auf X o = ()
im Falle ungerader Reihenzahl n als zusätzlicher Eigenwert von BI' Man
rechnet dann
(24)
und, falls Al Z =1= 0

-+Yi'
I

_Al~i=~iJ (25)
wozu im Falle ungerader Reihenzahl n noch

kommt.
IA2YO~=~] -+Yo zu X o= 0 (26)
17.3. Schachbrettrnatrizcn 227

Es sei nun zunächst x =1= 0, d. h. A 2 "41 ist nicht singulär und es ist
Al Z = Y =1= o. Damit folgt dann
A 2 Y = A 2 Al Z = X Z • (27)
Macht man dann für den Eigenvektor x von A den Ansatz

x =(:~),
so erhält man durch Einsetzen in die Eigenwertgleichung

.1X=(O
A Al)
0 (abZ
Y)\ =(bAlZ)=(
aA y x abY)=A(a
Z
y
bZ)
2 2

für die Konstanten a, b die Bedingung


Aa = b
Ab=xa,
woraus
(28)

folgt bei beliebigem a. Setzen wir a = 1, so erhalten wir als zu 'Xi =1= °
gehörige zwei Eigenvektoren

(29)

wozu im Falle ungerader Zahl n noch

!.~; : (Yo) l. (29 a)


!
;
° '!
0:
kommt. Die endgültigen Vektoren x und .lt ergeben sich aus .1~ durch
Umstellen, z. B. für n = 5:
Yl Yl
AZl -AZ1
;1'1 = Y2 , :1'2 = Y2
Z2 -},Z2

Y3 Y3
Ist nun aber einer der Eigenwerte Xi = 0, so sind 111 11 2 und A 2 Al
singulär. In diesem Falle sind, wie man sich auf ähnliche Weise wie
oben durch Ansatz für x klarmacht, nur solche Vektoren y, Z zulässig,
die die homogenen Gleichungen
1-'--·---
I Al Z = 0 (30)
I A2 y = 0
1S·
228 § 17. Eigenwerte spezieller Matrizen

erfüllen, von denen wenigstens eine einen von Null verschiedenen


Lösungsvektor besitzt. Damit wird dann

(3 1)

bei beliebigen Konstanten a, b. Ist nur einer der Vektoren y, z von


Null verschieden, so enthält x
nur diesen einen Vektor und a bzw. b
kann 1 gesetzt werden.
Beispiel:

A = [~ ~ ~ -~l'
2
0-2
:
0 0
0 -1
0 1
0

BI = Al A 2 = ( 1 2-1)
-4 -4
7 6 -1 ,
1

"1 = 9, "2 =- 1, :1(0 = 0


1.1 •2 = ± 3, 1.3 ,4 = ± i, 1.5 = 0

Damit lauten die 5 Eigenvektoren von A nebst Probe A J! = I. J! :

Xl X2 Xs X. x5
-2
3 1-3 -i 0
3 3 -1 -1 3
0 0 -2i 2i 0
-2 -2 0 0 4
- -

o
-
1
- -

0
--
0
_.~-

0
- 3-'-=--3~~ ---..::...r---0 -
1 o 2 0-1 9 i 9 -1 -1 0
o 3 0 2 0 9 i -9 -i 0
o
~-~I ~I ~
2 o 0 o 2
0-2 0-1 o o
--------+--+-------;---+----
A= I 3 I -3 I I-i o
17.4. Differenzenmatrizen 229

17+ Differenzenmatrizen
Im Zusammenhang mit dem Differenzenverfahren (Ersatz von Ab-
leitungen durch Differenzenquotienten) bei linearen Rand- und Eigen-
wertaufgaben von Differentialgleichungen treten Matrizen der Bauart
a -1
-1 a-1
-1 a-1
A= -1 a-1 (32)

-1 a-1
-1 a
auf, wobei die leeren Plätze mit Nullen besetzt sind. Solche Dijjerenzen-
matrizen erlauben eine formelmäßige Berechnung der Eigenwerte und
Eigenvektoren, die nur von a und der Reihenzahl n abhängen. Die
zugehörige k-te Eigenwertgleichung
-X"_l + (a -A.) x" - xHI = 0 (33)
ist eine sogenannte (homogen lineare) Dillerenzengleichung, die, wie man
leicht bestätigt, durch einen Potenzansatz
x" = r" (34)
mit noch zu bestimmendem r erfüllt wird, wobei sich für r die charak-
teristische Gleichung ergibt:
r Z - (a -A.) r + 1 = o. l35}
Setzt man nun
a-A.=2cosq;, (36)
so erhält man die Lösungen r in der Form
r = cosq; ± isinq; = e±i'1'
und damit für x,,:
x" = A cos k q; + B sin k q; (37)
mit noch freien Konstanten A, B, zu deren Bestimmung die Rand-
bedingungen der Aufgabe dienen, d. i. erste und letzte Eigenwert-
gleichung, die nicht die Form GI. (33) haben:
1. Gleichung: (a -A.) Xl - Xz = 0,
n. Gleichung: -X,,_I + (a -A.) x" = O.
Einsetzen von GI. (36) und GI. (37) ergibt für die
1. Gleichung: 2 cosq; (A cosq; + B sin q;) -A cos 2 q;-B sin 2q; = 0
oder nach leichter Umrechnung
A·1+B·O=O,
woraus A = 0 bei beliebigem B folgt. Es wird somit

I x" sin k--;-[ . (38)


230 ~ 17. Eigenwerte spezieller Matrizen

Damit wird aus der


n. Gleichung: - sin (n -1) Cf! +
2 cos p sin n Cf! = 0 oder
sin (n + 1) Cf! = 0 , (39)
woraus sich als Eigenwerte der Randwertaufgabe die Winkel
i:r
Cf!l = ;;.+ 1 f= 1,2, ... , n (40)

ergeben und als Eigenwerte Al von A nach GI. (36):

I Al ~ a --- 2 co~ Cf!~ ! . (41)

Die Komponenten des Eigenvektors xi sind also


• k 7. :r I

xk · = k = 1, 2, ... , n . (42)
: J
SIn
n
-
+1 : ,

Wir erhalten somit genau n verschiedene Eigenwerte Ai und n linear


unabhängige Eigenvektoren. Die Lösungen sind bei reellem areeil.
Die Größe a geht nur in die Eigenwerte A ein; die Eigenvektoren sind
von ihr gar nicht abhängig. Sie lauten ausführlich:
. 1 .
sm n + 1 J'lt
.2.
sm ;+--1 J 'lt

. n .
sm n +-1 J 'lt
Die Komponenten X k " für festes f aufgetragen über der fortlaufenden
Nummer k, ergeben Punkte einer Sinuskurve, die für die - nicht mehr
dazugehörigen - Werte k = 0 und k = n + 1 durch Null geht und
zwischen diesen Werten j/2 Perioden enthält.
Beispiel: a=2, n=5
:r
!PJ = j = j 30 0 I. i = 2 (1 - cas j 30 0)
6
Xki = sin k (Ti = sin k j 30 0

k Xl X2 J"'3 X4 J"'5

0,5 0,866 0,866 0,5


2 0,866 0,866
° -0,866 -0,866
3
1-0 ,866°
I
-1
° 1
4
5 ------
0,866
0,5 -------------
-0,866 ° 0,866
-0,866
-0,866
0,5
'Pi = 30 0 60 0 90 0 120 0 150 0
I
ij = 2-V3 2 3 , 2+ V3
17.5. Matrizen zyklischer Bauart 231

17.5 Matrizen zyklischer Bauart


Unter solchen mit den Differenzenmatrizen verwandten versteht man
Matrizen, deren Zeilen aus ihrer ersten durch zyklische Vertauschung
hervorgehen. Lautet die erste Zeile der n-reihigen Matrix
al
= (a o a l a 2 ... an_I) (43)
mit n beliebigen Elementen ak , so wird die Matrix

(44)

Mit den n-ten Einheitswurzeln


ik~
LB~ =~nJ k =0, 1, ... , n -
\--- J

1 (45)
sind dann die Eigenvektoren und Eigenwerte
1

(k=O,1, ... ,n-1)· (46)

B~-I

A" = ao +a l Bk + a 2 B~ + ... + a n_ 1 s~-' (47a)


oder kurz
lJ.k==_al~kJ (k = 0, 1, ... ,n -1). (47)
Daß diese Ausdrücke Eigenvektoren und Eigenwerte sind, also die Glei-
chung A x k = Ak x k erfüllen, ist mit B~ = 1 leicht zu verifizieren. Die
lineare Unabhängigkeit der n Vektoren x k folgt aus der Eigenvektor-
matrix X = (X k) , deren Determinan te als VANDERMoNDEsche Determinante
zu den n verschiedenen Zahlen Bk von Null verschieden ist (vgl. § 13.2).

:: :
Beispiel:

.1 = (
°~ -~3 ~ ~J - ~
° 3 2
2 -1 B2 =-1
-1 Ba =-i

x"~n
Ao = 4,
J,O" (J. x'~bJ· ~~ hJ·
23 2 § 17. Eigenwerte spezieller Matrizen

Eigenwerte und Eigenvektoren können auch reell ausfallen, z. B. bei


der reell symmetrischen Matrix zyklischer Bauart

A = (:
b
! :)
b a
mit
A1 =a+2b,A2 =A3 =a-b

/1 x,~ (-~'
~,~ (:). 1) ~,~ (_~1) ,
wo sich die aus (46) errechneten komplexen Vektoren x 2 , x 3 durch Linear-
kombination in reelle Form überführen lassen.
V. K api t el

Struktur der Matrix


Bisher haben wir unsere Betrachtungen auf diagonalähnliche Matrizen
beschränkt, das sind solche n-reihigen Matrizen, zu denen auch im Falle
mehrfacher Eigenwerte genau n linear unabhängige Eigenvektoren
existieren. Diese stellen ein der Matrix eigentümliches im allgemeinen
schiefwinkliges Achsensystem dar, das System der Eigenachsen, in
welchem die Matrix die besonders einfache Form der Diagonalmatrix
A = Diag(A;) ihrer Eigenwerte annimmt. Aus der Existenz n unab-
hängiger Eigenvektoren folgte weiter eine Reihe von Eigenschaften, die
sich sowohl für die theoretische als auch für die praktische Behandlung
der Eigenwertaufgabe als gleich bedeutsam erwiesen. Wir sahen aber
auch, daß es darüber hinaus Matrizen gibt, deren charakteristische
Matrix A - Aa I zu einem mehrfachen Eigenwert Aa der Vielfachheit Pa
einen Rangabfall da < Pa aufweist, so daß nicht mehr die volle Anzahl
von Eigenvektoren vorhanden ist. Wir deuteten auch schon an, daß
sich solche Matrizen durch Ähnlichkeitstransformation überhaupt nicht
mehr auf Diagonalform überführen lassen. Der Klasse der diagonal-
ähnlichen Matrizen, die, wie in § 16.2 gezeigt, mit den normalisierbaren
Matrizen identisch sind, stehen somit weitere Matrizenklassen gegen-
über. Für diese erhebt sich nunmehr die Frage nach einer der Diagonal-
form A entsprechenden abgewandelten Normal/orm der Matrix, die im
Falle diagonalähnlicher Matrix in den Sonderfall der Diagonalmatrix der
Eigenwerte übergeht, im allgemeinen nichtdiagonalen Falle aber außer
den Eigenwerten als numerischen Eigenschaften der Matrix auch noch
deren inneren Bau, ihre Struktur erkennen läßt. Sie wird dann auch
Auskunft geben über die zu erwartende Anzahl der Eigenvektoren im
Falle mehrfacher Eigenwerte, also über den Rangabfall der charakteri-
stischen Matrix. Die ganzen Überlegungen beziehen sich ja ohnehin
nur auf Matrizen mit mehrfachen Eigenwerten, da solche mit durchweg
verschiedenen charakteristischen Zahlen Ai eo ipso zur Klasse der dia-
gonalähnlichen gehören. Es erhebt sich weiter die Frage, auf welche
Weise sich das im Falle da< Pa unvollständige System der Eigenvek-
toren zu einem vollständigen System n unabhängiger Vektoren ergänzen
läßt in der Weise, daß die Matrix dieser Vektoren dann wieder die Rolle
der Modalmatrix X, d. h. der Transformationsmatrix bei Ähnlichkeits-
transformation auf die besagte Normalform übernehmen kann. Es wird
234 § 18. l\Iinimumgleichung, Charakteristik und Elassifikation

sich zeigen, daß zu den Eigenvektoren sogenannte Hauptvektoren treten,


von denen die Eigenvektoren ein Sonderfall sind.

& 18. Minimumgleichung, Charakteristik und Klassifikation


18.1. Die Minimumgleichung
Einen ersten Einblick in die hier angeschnittenen Fragen nach der
Struktur der Matrix gibt die schon in § 14.3 eingeführte Minimumglei-
chung der Matrix
(1 )

jene Polynomgleichung kleinsten Grades, die von der Matrix A außer


der dort ebenfalls behandelten Cayley-Hamiltonschen Gleichung

P(A) = 0 :I (2)
erfüllt wird. Darin ist

das charakteristische Polynom, hingegen


m(A) =A In + bm _ 1 A
IIl - 1 + ... + b1A + bo (4)
das noch näher zu charakterisierende Minimalpolynom der Matrix.
Für den Grad m dieses Minimalpolynoms hatte sich im Falle diagonal-
ähnlicher Matrix gerade die Anzahl s der verschiedenen Eigenwerte AI1 er-
geben, die alle Nullstellen von m(A) sind, so daß diese Nullstellen hier
sämtlich einfach sind. Das wird nun bei nicht diagonal-ähnlichen Matri-
zen nicht mehr zutreffen. Zwar sind auch hier noch die Nullstellen des
Minimalpolynoms gerade die s Eigenwerte, jedoch mit Vielfachheiten fll1'
die nicht mehr durchweg gleich 1 sind, sondern in den Grenzen

(5)

liegen, womit für den Grad m des Minimalpolynoms allgemein die Gren-
zen
(6)

folgen. Nur im Falle diagonal ähnlicher Matrix gilt s m, ~onst s < m.


=
Wir zeigen zunächst für das Minimalpolynom die beiden folgenden
Sätze.
S atz 1: Ist f(A) irgend ein Polynom derart, daß f(A) = 0, so ist f(A)
ein Vielfaches des 11,1inimalpolynoms m(A) der Matrix A, m(A) ist also
Teiler von j(A); das Polynom j(A) enthält m(A) als Faktor.
18.1. Die Minimumgleichung 235

Nchmen wir nämlich an, es blicbe bei der Division f(}.): m(}.) ein l\.est, cs
gelte also
f(}.) == q(}.) m(}.) ~ r(}.)
mit einem Divisionsrcst r(l.) , der dann notwendig von kleinerem Grade
als m(}.) ist. Setzen wir hier 11 für }., so erhalten wir wegen frA) == 0 und
m(il) == () auch r(il) == O. Da aber m(}.) laut Voraussetzung das Poly-
nom kleinsten Grades ist, das mit Li zu Null wird, so muß r(}.) =
0 sein.
- Damit folgt für das charakteristische Polynom p(}.)
S atz 2: Das Minimalpolynom m(}.) ist ein Teiler des charakteristischen
Polynoms P(}.).
Den genauen Zusammenhang zwischcn bei den und damit auch die
Antwort auf die Frage, wann charakteristisches Polynom und Minimal-
polynom verschieden sind, d. h. wann sein Grad m< n ist, wann die
Matrix A, wie man sagt, derogatorisch (== "geschmälert") ist, gibt der
folgende
S atz 3: Haben alle (n - 1 )-reihigen Unterdeterminanten der charak-
teristischen Matrix C == C(}.) == }. I - A einer n-reihigen Matrix A einen
gemeinsamen Teiler und ist q(}.) ihr größter gemeinsamer Teiler, so ist das
Minimalpolynom
--- -- .,-- --- -- -
• !
p(I.)
m(}.) == -(')'
q I. .
(7)

Den Beweis führen wir SOl: Es sei q(}.) größter gemeinsamer Teiler der
(n -1)-reihigen Unterdeterminanten von C, also der Elemente von C adl ,
w~ .
Cadj == q(}.) M(}') (8)
mit einer Polynommatrix M(}.), deren Elemente teilerfremd sind. Dann
ist auch P(}.) == det C durch q(}.) teilbar, da wir ja P(}.) nach einer Zeile
(Spalte) von C entwickeln, also als Produktsumme aus Unterdeterminan-
ten dieser Zeile (Spalte) darstellen können:
P(}.) == q(}.) m(}.) . (9)
Dann wird C' Cadj == q(}.) C M == P(}.) I == q(}.) m(}.) I
oder CM = ().
I - A) M == m(}.) I.
Setzt man hier 11 für }., so folgt
m(A) == 0,
d. h. m(}.) ist ein Vielfaches vom Minimalpolynom m(}.).
Es sei nun anderseits nach Satz 2:
P(}.) == q(}.) m(}.) . (10)
1 In Abwandlung von W. GRÖBNER: Matrizenrechnung [8], S. 135/36.
236 § 18. Minimumgleichung, Charakteristik und Klassifikation

Bilden wir mit GI. (4)


m(A) I -m(A) = m(A) I = (Am I-Am) +b m_ 1 (Am-II_ .111»-1) + ...
+b 1 (AI- A),
so folgt, daß m(A) I durch A I - A teilbar ist:
m(A) I = (A I - A) N(A) . (11 )
Multiplikation mit q(A) ergibt
P(A) I = q(A) (A 1 - A) N(}.) .
Subtraktion von
P(A) I = C· Cadi (A I - A) Cadi
ergibt
0= (A 1 - A) [q(A) N(A) - Cad ,] •

Nun ist aber (A 1 - A) bei beliebigem Parameter}. nichtsingulär (singulär


wird es ja nur für die Wurzeln AJ Damit aber muß die eckige Klammer
gleich der Nullmatrix sein, also
q(A) N(A) = C adi'
d. h. q(}.) ist Teiler der Elemente von Cadi •
Wäre nun q(A) nicht größter Teiler, so wäre es im Grade kleiner als
q(A). Dann aber wäre wegen GIn. (9) und (10) das Polynom m(A) im
Grade größer als m(A), von dem wir zeigten, daß es Vielfaches von m(A)
sein muß. Also ist der Faktor q(A) in GI. (10) wirklich größter gemein-
samer Teiler q(A) der (n - 1)-reihigen Unterdeterminanten von C, und
Satz 3 ist bewiesen.
Geht man nun schließlich in der Matrizengleichllng (11) zu den Deter-
minanten über, so folgt
(m(A) t = P(A) det N(A) ,
und hieraus folgt, daß jede Nullstelle Ai von P(A) auch Nullstelle des Mini-
malpolynoms m(A) sein muß. Das Umgekehrte: jede Nullstelle von m(A)
ist auch Nullstelle von P(A) folgt aus (7), so daß WIr erhalten:
Satz 4: Charakteristisches Polynom P(A) und Minimalpolynom m(A)
haben die gleichen Nullstellen bei möglicherweise verschiedener Vielfachheit.
Satz 5: Besitzt die Matrix lauter verschiedene Eigenwerte Ai' so stim-
men Minimalpolynom und charakteristisches Polynom überein, m(A) = P(A).
Hat dagegen die charakteristische Gleichung mehrfache Wurzeln, so
kann die Minimalgleichung von niedrigerem Grade als die charakteristi-
sche sein, sie braucht es indessen nicht. Die Matrix habe s verschiedene
Eigenwerte Aa von der jeweiligen Vielfachheit Pa ~ 1. Die gleichen
Eigenwerte und nur diese sind auch Wurzeln der Minimum gleichung, ihre
18.2. Determinantenteiler, Elementarpolynome und Elementarteiler 237

Vielfachheit sei hier !-l" ~ p" . Beide Polynome lauten dann in der Form
ihrer Linearfaktoren

I
P(A) - (J. - Al)PI (A -= A2)P, ... (A - As)Ps (12)
I m(A) = (A - Al)l" (A - ~)I" ... (A - As)"s (13)
und es ist
I Pi + P2 + ... + Ps = n I (14)
IPI + P2 + ... + !-ls = m . (15)
Im Falle m < n entfallen die in m(A) fehlenden Linearfaktorpotenzen
auf den größten gemeinsamen Teiler q(A) der (n -1)-reihigen Unterdeter-
minanten der charakteristischen Matrix:
q(A) = (A -Al)PI-I'1 (A -A2)P,-I" . .. (A -Als-I's , (16)
worin einige der Faktoren, nämlich die mit p" = !-l", auch zu 1 werden
können. Gibt es aber einen von 1 verschiedenen Teiler q(A), so enthält er
wenigstens einen Faktor =l= 1. Für diese Wurzel A = A" verschwinden
dann außer der charakteristischen Determinante selbst auch alle ihre
(n - 1)-reihigen Unterdeterminanten, ihr Rangabfall d" ist also größer
als 1, und zur betreffenden Mehrfachwurzel gibt es nicht nur einen linear
unabhängigen Eigenvektor. Wir können also sagen:
Satz 6: Das Minimalpolynom m(A) einer Matrix fällt dann und nur
dann mit ihrem charakteristischen Polynom P(A) zusammen ( die Matrix ist
genau dann nicht derogatorisch), wenn zu ledem der s verschiedenen Eigen-
werte A" nur ein einziger linear unabhängiger Eigenvektor existiert.
Ist die Matrix derogatorisch, m < n, so gibt es zu wenigstens einem der
mehrfachen Eigenwerte mehr als nur einen linear unabhängigen Eigen-
vektor. über die genaue Anzahl der Eigenvektoren aber können wir
im Augenblick noch nichts sagen.

18.2. Determinantenteiler, Elementarpolynome und Elementarteiler


Zur Beantwortung dieser Frage müssen wir nicht nur den größten
gemeinsamen Teiler q(A) der (n - 1)-reihigen Unterdeterminanten der
charakteristischen Matrix kennen, der auf das Minimalpolynom führt,
sondern auch noch die größten gemeinsamen Teiler aller folgenden Unter-
determinanten, soweit diese solche Teiler besitzen, die sogenannten
Delcrminantenteiler T v der charakteristischen Matrix C(A) = A1 - A .
Es sei also
Tl größter gemeinsamer Teiler aller Elemente von C(A)
T 2 größter gemeinsamer Teiler aller zweireihigen Unterdet. von C

T .. - l = q(A) größter gern. Teiler aller (n - 1)-reihigen Unterdet von C.


T" = P(A) = det C(A) = det (A I - A).
238 § 18. Minimumgleichung, Charakteristik und Elassifikation

Soll nämlich der die Anzahl der Eigenvektoren bestimmende Rangabfall


der Matrix C (..1.) für einen Eigenwert . 1. = Aa gerade gleich da sein, so müssen
sämtliche (n - da + 1)-reihigen Unterdeterminanten von C(A a ) ver-
schwinden, während wenigstens eine der n - da = r a -reihigen =l= 0 sein
muß. Der Determinantenteiler T n-da + 1 muß also den Faktor (..1. - Aa )
enthalten.
Da nun alle zweireihigen Determinanten die Elemente selbst mit ihrem
größten gemeinsamen Teiler Tl enthalten, so ist Tl auch ein Teiler von
T 2 • Ebenso ist T 2 wieder ein Teiler von Ta, da sich die dreireihigen
Unterdeterminanten nach dem Entwicklungssatz aus den zweireihigen
linear aufbauen ust. Mit der Bezeichnung bla für b ist Teiler von a könnel7
wir also schreiben

Tl
,
i T21·· ·ITn ,
(17)

Diese Determinantenteiler hängen nun auf engste Weise mit den in


§ 10.3 eingeführten Elementarpolynomen E v (den invarianten Faktoren)
der Sl1ITHSchen Normalform zusammen. \Vegen der Teilbarkeitseigen-
schaft der T v bilden die Quotienten der Determinantenteiler wieder
Polynome in ..1., und diese sind gerade die Elementarpolynome E,,:

=;< ~~: I
v=:::: 1, ~, ... , n , (18)

eine Beziehung, die auch noch für v = 1 gilt, wenn man T 0 = 1 setzt.
Damit folgen dann die T v selbst zu

Tl = EI
I T2 = EI E 2
Ta = EI E 2 E a (19)

Tn = EI E 2 ••• EI! I
_ _--.J

Die Determinantenteiler bleiben nämlich bei den in S 10.3 zur Erzielung


der Normalform durchgeführten elementaren Umformungen der Poly-
nommatrix unverändert, was unschwer zu zeigen ist 1. Sie lassen sich
also auch aus der Normalform ablesen. So treten z. B. bei einer Matrix
der Normalform

1 Vgl. etwa M. BÜCHER: Höhere Algebra [1]. S. 283-284.


18.3. :\Iinimalpolynom. Rangabfall 239

an dreireihigen nicht verschwindenden Unterdeterminanten auf:


EI E 2 E 3 , EI E 2 E 4 , EI E 3 E 4 , E 2 E 3 E4 •

Größter gemeinsamer Teiler dieser vier Determinanten ist aber wegen


der in § 10.3, GI. (11) festgestellten Teilbarkeitseigenschaft

(20)

gerade T 3 = EI E 2 E 3 • - Allgemein treten als nicht verschwindende


v-reihige Unterdeterminanten Produkte

auf, von denen EI E 2 ••• E v = T v größter gemeinsamer Teiler ist.


Von den Elementarpolynomen E v hatten wir früher (§ 10.3) die Faktor-
zerlegung
E
I v =·(A-=-AI)eV~~-=~2)eV-2~. ~~-~Asl'vsl (21)
'--------- -

mit den Elementarteilern

(22)

angegeben, wo für die Elementarteilerexponenten wegen GI. (20) die


Beziehung gilt
1-----·_·_-_··
.leI" < <
··-1
= e..:,,~ . ...... <= en "-. • (23)

Von en" ~ 1 an absteigend können die Exponenten mit absteigender


Nummer v höchstens abnehmen, wobei die Reihe auch vorzeitig mit 0
abbrechen kann. Die Exponentensumme ist für jedes a gerade gleich der
Vielfachheit P" des zugehörigen Eigenwertes ,1,,:
r-·--·- .-- -- -._-.
i e + e + ... + en" = P" I·
l " 2" (24)

18.3. Minimalpolynom. Rangabfall


Hiermit können wir nun nach Satz 3 wegen P(A) = T", q(A) = T,,-t
formulieren
Sa tz 7: Das Minimalpolynom einer Matrix ist gleich dem n-ten Elemen-
tarpolynom der Smithschen N (Jrmaljorm der charakteristischen Matrix:

im(A) = En(A) I. (25)


1. ___. - _. _ _ .

Die Vieljachheit {-l" einer N ullstelleA" in m(A) ist gleich dem höchsten zu ,1" ge-
hörigen Elementarteilerexponenten :

(26)
240 § 18. Minimumgleichung, Charakteristik und Klassifikation

Desgleichen folgt
Satz 8: Charakteristisches und Minimalpolynom einer Matrix stimmen
genau dann miteinander überein, m(Ä) = P(Ä), wenn sämtliche Elementar-
polynome E v = 1 sind bis auf E n = m(Ä) = P(Ä) . Die Normalform der
charakteristischen Matrix ist dann

(27)

Bezüglich des Rangabfalls da aber erhalten wir nun


S atz 9: Der Rangabfall da der charakteristischen Matrix C(Ä.) tür einen
Eigenwert Ä = Äa ist gleich der Anzahl der von Null verschiedenen Elemen-
tarteilerexponenten eva für das betrelfende u.
Hieraus folgen dann wegen GI. (24) die entscheidenden Sätze
S atz 10: Der Rangabfall da der charakteristischen Matrix ist genau
dann gleich der Vielfachheit Pa des betrelfenden Eigenwertes Äa , wenn die zu
Äa gehörigen Elementarteiler sämtlich linear sind, ena = en_ 1 , a = ... =
e(n-da+,),a = 1. Genau dann gibt es also zum Pa-fachen Eigenwert Äa die
volle Anzahl Pa linear unabhängiger Eigenvektoren.
Satz 11: Eine n-reihige Matrix besitzt genau dann n linear unabhängige
Eigenvektoren, wenn ihre charakteristische Matrix ausschließlich lineare
Elementarteiler hat.
Diesem Falle ausschließlich linearer Elementarteiler kommt damit eine
ganz besondere Bedeutung zu. Die in § 14 bis 16 ausgesonderte Klasse
diagonalähnlicher = normalisierbarer Matrizen ist offenbar gerade von
dieser Eigenschaft, da für sie ja stets n linear unabhängige Eigenvek-
toren existierten. Man kann also weiter folgern
Satz 12: Eine Matrix A läßt sich genau dann durch Ähnlichkeits-
transformation auf die Diagonal/orm
A = Diag(Ä;)
ihrer Eigenwerte überführen, wenn ihre charakteristische Matrix ausschließ-
lich lineare Elementarteiler besitzt.
18+ Charakteristik und Klassifikation einer Matrix
Die Elementarteilerexponenten eva lassen sich, aufgeteilt nach den
verschiedenen Eigenwerten Äa , zu folgendem Schema anordnen:
Ä1 Ä2 Äs I
n
n-1
18.4. Charakteristik und Klassifikation einer Matrix 241

Die Summe der ersten Zeile, die zugleich die Vielfachheiten fla der Null-
stellen im Minimalpolynom aufweist, ist gleich dem Grad m dieses Poly-
noms, die Summe jeder Spalte gleich der Vielfachheit Pa des betreffenden
Eigenwertes, die Summe der Pa schließlich gleich n. Die Anzahl der in
jeder Spalte a auftretenden von Null verschiedenen Exponenten eva aber
gibt gerade den Rangabjall da der charakteristischen Matrix Aa 1 - A an.
Dieses Schema wird die (SEGREsche) Charakteristik der Matrix l genannt
und kürzer in folgender Weise angegeben:
[(en,e n _. " , ••• ) (e n2 en _ ,2 . .. ) ... (ensen-l,s . . )],
1 (28)
d. h. man schreibt die Exponenten gleichen Eigenwertes Aa in absteigen-
der Reihenfolge hintereinander und faßt sie durch runde Klammern zu-
sammen, soweit nicht zu einem Aa nur ein einziger Exponent vorkommt,
wo die Klammer dann fortbleibt. Alle diese geklammerten oder ein·
fachen Zahlen schließt man in ein eckiges Klammerpaar ein.
Beispielsweise ist [(221) (3 1) 21] die Charakteristik einer n = 12-
reihigen Matrix mit vier verschiedenen Eigenwerten Al bis ,1" von der
Vielfachheit PI = 5, P2 = 4, P3 = 2, PlI = 1, wozu insgesamt 7 linear
unabhängige Eigenvektoren existieren. Ausführlich lautet das Schema
der Exponenten

Minimal- und charakteristisches Polynom sind von der Form


m(A) = (,1 - ~)2 (A - A2)3 (A - Aa)2 (A - ,14) ,
P(A) = (A - Al)S (A - A2)4 (A - Aa)2 (A - A4 ) •
Die Elementarpolynome sind
E12 = (A - Al)2 (A - A2)a (A - Aa)2 (A - A4 ) = m(A)
EIl = (A - A1)2 (A - A2 )
E lO = (A - Al)
E 9 = Es = ... = EI = 1 .
In der Charakteristik, dem Schema der Elementarteilerexponenten
haben wir, wie sich bald zeigen wird, ein vollständiges Abbild für den
inneren Bau, die Struktur einer Matrix gewonnen. Matrizen gleicher
Charakteristik sind als zur gleichen Klasse gehörig anzusehen; die Charak-
1 SEGRE, C.: Atti Accad. naz. Lincei. Mem. III, H. 19 (1884), S. 127-148.
Zurmühl, Matrizen 4. Auf!. 16
242 § 18. Minimumgleichung, Charakteristik und Klassifikation

teristik ist das Mittel einer Klassifikation der Matrizen. Die in § 14 auf-
gestellte Klasse der diagonalähnlichen = normalisierbaren Matrizen, die
nach Satz 11 und 12 nur lineare Elementarteiler besitzen, zeigen Charak-
teristiken mit lauter Zahlen 1; genau dann stimmen Summe und An-
zahl der eva miteinander überein, die Matrix besitzt nunabhängige Eigen-
vektoren.
Sind von zwei Matrizen außer den Elementarteilerexponenten ihrer
charakteristischen Matrizen auch noch die Elementarteiler selbst, d. h.
also die Eigenwerte Aa einander bezüglich gleich, so weisen die bei den
Matrizen eine noch viel engere Verwandtschaft miteinander auf als bloße
Strukturgleichheit wie Matrizen der gleichen Klasse. Sie sind dann, wie
wir gleich zeigen werden, einander ähnlich, d. h. sie repräsentieren ein
und dieselbe Lineartransformation, bezogen auf zwei verschiedene Koor-
dinatensysteme. Eine Lineartransformation ist, außer durch die Matrizen-
struktur, wesentlich bestimmt durch die Eigenwerte der Transformations-
matrix. Diese beschreiben jedoch lediglich die besonderen Maßzahlen
der Transformation, z. B. Drehwinkel und Verzerrungsmaßstäbe, wäh-
rend ihre Struktur durch die Charakteristik der Matrix festgelegt wird.
Für diese Struktur sind daher auch die zufälligen Zahlenwerte der charak-
teristischen Zahlen Aa nicht von Belang. Allenfalls interessiert der be-
sondere Wert A = 0 wegen der dabei auftretenden Entartungen der Ab-
bildung. Man deutet das in der Charakteristik wohl durch eine kleine
Null über dem betreffenden Exponenten an. Ist etwa in unserem Bei-
spiel A,2 = 0, so schreibt man die Charakteristik dann in der Form
o 0

[( 2 2 1) (3 1) 2 1].
Noch eine andere Darstellung hat sich als nützlich erwiesen, nämlich
ein Punktschema. Für einen bestimmten Eigenwert Aa stellt man die zu-
gehörigen Elementarteilerexponenten eva für jede Stufe v durch neben-
einander gesetzte Punkte dar, deren Anzahl gleich eva ist. Diese Punkt-
reihen werden für die einzelnen Stufen v untereinander angeordnet,
beginnend mit der obersten Reihe für ena' Für unser Beispiel erhält man
für die vier Eigenwerte die Schemata:
Eigenwert Al I
!
Charakteristik (3 1)
Punktschema

Hier gibt also die erste Punktzeile die Vielfachheit jeder Wurzel im
Minimalpolynom, jede Punktzeile die VieHachheit im Elementarpoly-
nom E v' die Gesamtpunktzahl die Vielfachheit Pa im charakteristischen
18.5. Matrizenpaare, simultane Äquivalenz und Ähnlichkeit 243

Polynom. Die erste Punktspalte aber gibt gerade den Rangabfall da der
charakteristischen Matrix an, also die Anzahl der zum Eigenwert Ao
existierenden linear unabhängigen Eigenvektoren. Auf die Bedeutung
der weiteren Punktspalten werden wir im nächsten § 19 zurückkommen.

18.5. Matrizenpaare, simultane Äquivalenz und Ähnlichkeit


Die Elementarpolynome und ihre Elementarteiler sind,i wie aus den
allgemeinen überlegungen von § 10 hervorgeht, nicht auf d e charakteri-
stische Matrix A - A I einer Matrix A beschränkt, sondern sind auf be-
liebige Polynommatrizen anwendbar, Matrizen, deren Elemente Poly-
nome des Parameters 11. sind. Insbesondere sind daher alle hier angestell-
ten Betrachtungen auch auf die allgemeine Eigenwertaufgabe
1-------------- -

l. (A __ 11. ~L~_~_ ' (29)

also AIatrizenpaare A, B übertragbar, wobei wir wie früher die beim


Parameter stehende Matrix B als nicht singulär voraussetzen,
det B =!= 0 . (30)
An die Stelle der charakteristischen Matrix A - A I der speziellen Auf-
gabe tritt hier die allgemeinere
C=A-A.B. (31)
Zu dieser Matrix, m. a. W. zum Matrizenpaar A, B können wir genau so
wie oben das charakteristische Polynom P(A.) = det C, die Elementar-
polynome E v und ihre Elementarteiler sowie das Schema der Elementar-
teilerexponenten eva, die Charakteristik des Matrizenpaares bilden. Es
gelten dann die den früheren Sätzen entsprechenden Aussagen:
Satz 13: Der Rangabfall da der charakteristischen Matrix A -11. B
eines Matrizenpaares mit nichtsingulärem B für einen Eigenwert 11. = A.a
ist gleich der Anzahl der von Null verschiedenen Elementarteilerexponenten
eva' Er ist genau dann gleich der Vielfachheit Pa des Eigenwertes, wenn die
zu A.a gehörigen Elementarteiler sämtlich linear sind.
Satz 14: Zur allgemeinen Eigenwertaufgabe (29) mit den n-reihigen
Matrizen A, Bund nichtsingulärem B gibt es genau dann n linear unab-
hängige Eigenvektoren, wenn die charakteristische Matrix A -11. B aus-
schließlich lineare Elernentarteiler aufweist.
Man nennt nun zwei Matrizenpaare Al> BI und A 2 , B 2 simultan äqui-
valent, wenn es zwei konstante nichtsinguläre Matrizen P, Q derart gibt,
daß gleichzeitig
A 2 = P Al Q
(32)
i B 2 =P BI Q
16*
244 § 18. l\Iinimumgleichung, Charakteristik und Klassifikation

gilt. Diese simultane Äquivalenz ist eine sehr viel weiter gehende For-
derung als etwa die gewöhnliche Äquivalenz zweier Einzelmatrizen. Wäh-
rend zur letzteren die bloße Übereinstimmung des Ranges der bei den
Matrizen zu fordern ist, haben wir hier eine wesentlich schärfere Bedin-
gung zu erfüllen. Es gilt nämlich zunächst der
Satz 15: Zwei Matrizenpaare Al' BI und A 2 , B 2 mit nichtsingulären
BI' 8 2 sind dann und nur dann simultan äquivalent im Sinne von GI. (32),
wenn die beiden charakteristischen Matrizen Cl = Al -).. BI und C2 =
A 2 - ) . . R 2 unimodular äquivalent sind:

(33)
mit unimodularen Polynommatrizen P und Q, d. h. aber, wenn die
beiden charakteristischen Matrizen Cl' C2 die gleichen Elementarpolynome
besitzen.
Die Notwendigkeit der angegebenen Bedingung, nämlich daß aus GI. (32)
die Beziehung (33) folgt, ist sofort einzusehen, indem man die zweite der
GIn. (31) mit).. multipliziert und von der ersten abzieht, woraus folgt
C2 = P Cl Q.
Die beiden konstanten Matrizen P, Q sind ja auch als unimodulare
Polynommatrizen aufzufassen, freilich vom Grade Null (vgI. dazu § 10.2).
Daß die Bedingung (33) aber auch hinreicht, d. h. daß aus dem Bestehen
der Beziehung (33) bei echten Polynommatrizen P, Q auch GI. (32)
mit konstantem P, Q folgt, bedarf eines längeren auf WEIERSTRASS zu-
rückgehenden BeweisesI, den wir hier nicht wiedergeben wollen.
Für den Fall der speziellen Eigenwertaufgabe mit BI = B 2 = I aber
wird dann P Q = I, womit die erste der GI. (32) in eine Ähnlichkeits-
beziehung übergeht. Schreiben wir Q = T, also P = T-l, und setzen
wir weiter jetzt Al = A, A 2 = n, so können wir formulieren
S atz 16: Zwei Matrizen A, B sind dann und nur dann einander äh1llich

B = T-lAT I, (34)

wenn die beiden charakteristischen Matrizen A -). I und B - ).. I die


gleichen Elementarpolynome (gleiche Charakteristik bei gleichen E igen-
werten Aa) besitzen.
Simultanäquivalenz ist also die für Matrizenpaare gültige Verallgemeine-
rung der Ähnlichkeitsbeziehung einzelner Matrizen.
Schließlich finden wir noch
S atz 17: Ein Matrizenpaar A, 8 mit nichtsingulärem n kann genau
dann durch simultane Äquivalenz auf die beiden Diagonalmatrizen A =
1 Vgl. Fußnote S. 119; aber auch W. GRÖBNER: Matrizenrechnung [8J, S. 1 i9
bis 18t.
19.1. Die JORDANsehe Normalform 245

Diag(A;) und Einheitsmatrix I überführt werden,


---I
PAQ=A I
PBQ=1 I, (35)
- ________ I

wenn die charakteristische Matrix A - A B ausschließlich lineare Elementar-


teiler besitzt.
Denn nur in diesem Falle gibt es n linear unabhängige Eigenvektoren Xi
der allgemeinen Eigenwertaufgabe (29). Mit der nichtsingulären Matrix
X = (Xi) der Eigenvektoren erhält man dann aus der Eigenwertbeziehung
A X = B X A die Transformation
X-I B-l A X = A ,

und dies entspricht gerade GI. (35) mit Q = X, P = X-I ~l.


Von der Voraussetzung, daß eine der Matrizen des Paares nicht-
singulär sei, befreit man sich, indem man an Stelle der charakteristischen
.Matrix 11- AB die allgemeinere u A + A B mit zwei unbestimmten Para-
metern u und A betrachtet, für die man die Theorie der Elementarpoly-
nome und Elementarteiler in ähnlicher Weise aufbauen kann. Die Über-
legungen sind dabei im wesentlichen die gleichen wie bisher, solange man
sich nach dem Vorbilde von WEIERSTRASS auf den sogenannten nicht-
singulären Fall mit det (u A +A B) =1= 0 beschränkt. Die Behandlung
des singulären Falles mit det (u A + A B) _ 0, die auf KRONECKER
zurückgeht, erfordert die Einführung neuer Begriffe, auf die hier nicht
eingegangen sei 1.

§ 19. Die Normalform. Hauptvektoren und Hauptvektorketten


19.1. Die Jordansehe Normalform
Den diagonalähnlichen = normali,ierbaren Matrizen ist, wie wir wissen
im System der den ganzen Raum aufspannenden Eigenvektoren ein aus-
gezeichnetes Achsensystem zugeordnet - im Falle reell symmetnscher
Matrix das Orthogonalsystem der Hauptachsen - , in welchem die Matrix
die besonders einfache Form A = Diag(A;) annimmt. Wir suchen nun
entsprechendes für den Fall allgemeiner, nicht diagonal-ähnlicher Ma-
trizen, für die nicht mehr die volle Anzahl n linear unabhängiger Eigen-
vektoren existiert, das lineare Vektorgebilde der Eigenvektoren also
nur noch einen Unterraum geringerer Dimension k < n aufspannt. Wir
fragen:
1. Gibt es auch für die nicht diagonalähnlichen Matrizen und die durch
sie vermittelten Lineartransformationen ein bestimmtes ausgezeichnetes
Bezugssystem, in welchem die Matrix eine der Diagonalform A entspre-
1 Vgl. etwa P. MUTH: Theorie und Anwendungen der Elementarteiler. Leipzig
1899·
246 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

chende besonders einfache Gestalt, eine sogenann te Normalform oder


kanonische Form annimmt und wie lautet diese?
2. Wie lautet dann die Transformationsmatrix T, welche die Matrix A
durch Ähnlichkeitstransformation T-l AT auf die Normalform über-
führt, m. a. W. welches System linear unabhängiger Vektoren t i tritt
hier an die Stelle des unvollständigen Systems der Eigenvektoren Xi
derart, daß in ihm die Matrix jene Normalform annimmt?
Was die erste Frage nach der Normalform angeht, so ist leicht einzu-
sehen, daß diese bei allgemeiner nicht diagonalähnlicher Matrix nicht
mehr die einfache Diagonalmatrix l\. = Diag (Ä- i ) sein kann. Denn dann
würden sich Matrizen mit gleichen Eigenwerten, aber verschiedener
innerer Bauart in ihrer Normalform gar nicht unterscheiden. In der
Normalform müssen also außer den durch die Eigenwerte gegebenen
numerischen Eigenschaften auch die durch die Charakteristik festgelegten
Struktureigenschaften der Matrix in eindeutiger Form zum Ausdruck
kommen. Beide, Eigenwerte wie Charakteristik einer Matrix sind nach
Satz 16 des letzten Abschnittes ja ähnlichkeitsinvariant ; die Eigenwerte
stellen die numerischen Invarianten, das Schema der Charakteristik die
nicht minder bedeutsamen Strukturinvarianten einer Matrix dar, also
jene Eigenschaften, durch welche die der Matrix entsprechende Linear-
transformation vollständig gekennzeichnet ist. - Eine solche Form,
die beides, Eigenwerte wie Struktur der Matrix, sichtbar macht und die
im Falle diagonalähnlicher Matrix von selbst in die Diagonalform über-
geht, ist nun die sogenannte Jordansche Normalform 1. Hat unsere
Matrix A die s verschiedenen Eigenwerte Ä-a der Vielfachheit Pa' so zeigt
die JORDAN-Matrix folgenden Bau:

(1 )

mit Pa-reihigen quadratischen Untermatrizen Ja' die ihrerseits wieder


aus quadratischen Untermatrizen aufgebaut sind. Gehären nämlich zu
Ä-a die da = n - ra von Null verschiedenen Elementarteilerexponenten
ena, en_l ,(J' + ,1 a mit dem Rang ra der charakteristischen Ma-
,er a
•••

trix A -Ä-a 1, so lautet Ja:

Jna 0)
J _ ( J n- 1 ,(1
(2)
a- ° '. 'Jra+1,a .
1 JORDAN, C.: Traite des substitutions et des equations algebriques. Livre 2,
S.88-249. Paris 1870.
19.1. Die }ORDANsche Normalform 247

Die evO'-reihigen Untermatrizen JvO' sind schließlich

JvO' = ['" ~. 0).


'..
. :1
o AO'
Die Gesamtmatrix J setzt sich also aus diesen sogenannten Elementar-
bestandteilen (3), diagonal aneinandergereiht, zusammen, die in der
Diagonalen die Eigenwerte AO' enthalten, in der oberen Nebendiagonalen
aber überdies je evO' - 1 mal eine 1. Für den Fall eines linearen Ele-
mentarteilers, evO' = 1, reduziert sich der Elementarbestandteil (3) auf
ein einziges Element AO', und im Falle durchweg linearer Elementar-
teiler wird somit die JORDAN-Matrix J zur Diagonalmatrix A = Diag(AJ
Für das in § 18.4 angeführte Beispiel der Charakteristik [(221)
(3 1) 2 1J erhalten wir, wenn wir für die vier verschiedenen Eigen-
werte Al bis At kürzehalber a, b, c, d schreiben, die JORDAN-Matrix

a I
I-b-i -0
J= lob 1 I
10 0 b I
b l
c
1_
I 1 I
I 0 c I
o :d :
Wir behaupten also
Sa tz 1: Eine beliebige quadratische Matrix A läßt sich durch Ähnlich-
keitstransformation
J= T-IAT (4)
auf die Jordansche Normalform (1) überführen, die aus den ev,,-reihigen
Elementarbestandteilen (3) der Elementarteiler der charakteristischen M a-
trix Al - A mit den Zwischenstufen (2) aufgebaut ist.
Zum Beweis unserer Behauptung haben wir zu zeigen, daß die charak-
teristische Matrix Al - J der Normalform die gleichen Elementar-
polynome Ev wie A 1- Ader Ausgangsrnatrix A besitzt. Durch Zeilen-
und entsprechende Spaltenvertauschung fassen wir zunächst alle zum
248 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

v-ten Elementarpolynom Ev(A) gehörigen Teilmatrizen J va zusammen


zur Matrix

deren charakteristische Determinante, wie leicht ersichtlich

ergibt. Dies aber ist zugleich auch das Minimalpolynom von J:. Denn
streicht man die erste Spalte und letzte Zeile eines der Elementar-
bestandteile AI - J va für A = Aa , so erhält man eine Unterdeterminante,
in der der Faktor A-Aa nicht mehr vorkommt. Der größte gemeinsame
Teiler aller dieser um eine Reihe kleineren Unterdeterminanten ist
somit gleich 1, und damit stimmen nach § 18.1, Satz 3, Minimalpolynom
und charakteristisches Polynom von J: miteinander überein. Die
SMITHsche N ormalfoml von AI - J: ist somit

Durch Zeilen- und Spaltenvertauschung gelangt man für die Gesamt-


matrix AI - J zu deren SMITHscher Normalform, welche genau die
gleichen Elementarpolynome Ev(A) wie A 1 - A besitzt. Daraus folgt
dann nach § 18.5, Satz 16 der behauptete Satz 1.
Damit ist unsere erste Frage nach der Normalform, die sowohl die
numerischen als auch die Struktureigenschaften einer Matrix in Evidenz
setzt und als Verallgemeinerung der Diagonalmatrix A = Diag(A;)
diagonalähnlicher Matrizen anzusehen ist, vollständig beantwortet.
Eigenwerte und Charakteristik einer Matrix legen die JORDAN-Matrix
- bis auf die Reihenfolge der Elementarbestandteile - eindeutig fest.

19.2. Orthogonalität von Rechts- und Linkseigenvektoren


Für die Aufstellung der die JORDAN-Form J herbeiführenden Trans-
formationsmatrix T spielt die in § 13.4 erstmals angeführte Ortho-
gonalität von Rechts- und Linkseigenvektoren x und y einer Matrix,
also die Lösungen der beiden einander zugeordneten Eigenwertaufgaben

-IAX=AX : (5)
y' A = AY' I
19.2. Orthogonalität von Rechts- und Linkseigenyektoren 249

eine Rolle. Wir fanden damals, daß für verschiedene Eigenwerte Ai =1= Ak
stets gilt Y'i x k = O. Für den Fall diagonalähnlicher Matrizen fanden
wir weiterhin, daß sich - auch bei mehrfachen Eigenwerten - die
Vektoren Xi' Yi stets so wählen lassen, daß
Y; x k = alk ' (6)
also insbesondere
Y; Xi =1= 0 (Ga)
gilt. Für den nun zu behandelnden allgemeinen Fall nicht diagonal-
ähnlicher Matrizen aber, deren charakteristische Matrix also auch nicht-
lineare Elementarteiler aufweist, gibt es, wie wir jetzt zeigen wollen,
stets auch Vektorpaare Xi' Yi' für die GI. (6a) nicht mehr gilt, sondern wo

i y;x i ____ ~J (7)

wird. Diese Orthogonalität beim gleichen Eigenwert wird sich als


bedeutsam zur Ergänzung des hier unvollständigen Systems der Eigen-
vektoren erweisen.
Zur Klärung der Verhältnisse können wir uns der Normalform der
Matrix bedienen, an der alles besonders durchsichtig wird. Unterwerfen
wir nämlich die beiden Vektoren X und Y einer sogenannten kontra-
gradienten Transformation (vgI. § 5.5)
X = T X, T' Y = fj, (8)
die die skalaren Produkte invariant läßt:
y' X = jj' T-l Tx = T/ x, (9)
so bleibt einerseits die Orthogonalitätseigenschaft erhalten. Andrer-
seits ergibt sich durch Einsetzen von GI. (8) in GI. (5)
T-IATx =AX,
y' T-IA T = kil.
Wählt man T speziell so, daß A in J überführt wird, T-l A T = J, und
schreiben wir wieder x, Y für x, fi, so erhalten wir die den GI. (5) ent-
sprechenden Beziehungen in der Normalform

i JX=AX i
(10)
I J'y=~_y I'
wO wir die zweite der Gleichungen noch in transponierter Form ge-
schrieben haben. Wir können somit für die weiteren Betrachtungen
die Normalform J der Matrix zugrunde legen.
Wir nehmen zunächst zur Vereinfachung an, die Matrix besitze nur
einen einzigen Eigenwert Al der Vielfachheit p = n bei gegebenen Ele-
mentarteilerexponenten ev1 = e.. Die charakteristische Matrix für
250 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

A = 1.1> C = J -All besteht dann in der Hauptdiagonalen aus Nullen,


und soweit nichtlineare Elementarteiler auftreten, ev > 1, steht rechts
neben der Null noch (e v - 1)-mal eine 1, während alle übrigen Elemente
Null sind. Beispielsweise ist für die Charakteristik [(3 21)]
o 1 o
o o
o
C' =
o
o 1 o
o 1 0
o o
Aus den Eigenwertgleichungen C x = 0, C' Y = 0 folgt dann für alle
Komponenten xe + I bzw. YQ, bei denen die Spalte e 1 bzw. e in C +
bzw. C' eine 1 enthält, der Wert xe + 1 = 0, Ye = 0, während die übrigen
Komponenten, wo in den Spalten von C bzw. C' nur Nullen stehen,
noch beliebige Werte annehmen können. Treten nun ausschließlich
nichtlineare Elementarteiler auf, so entspricht jeder nicht zwangs-
läufig verschwindenden Komponenten xi =l= 0 eine Komponente Yj = 0
und umgekehrt. In diesem Falle gilt also stets die Orthogonalität
y;x k = 0 für alle Nummern i, k, auch für i = k. Nur soweit lineare
Elementarteiler existieren, soweit also in den Matrizen C und C' die
Null erzeugende 1 in gleicher Spalte fehlt, können von Null verschiedene
Komponenten Xj' Yj der gleichen Nummer j und somit Paare Xi' Yi mit
y;x i =l= 0 auftreten. - Das Ergebnis ist leicht auf den allgemeineren
Fall ausdehnbar, wo außer Al noch weitere Eigenwerte Aa vorhanden
sind.
Satz 2: Dann und nur dann, wenn zu einem Eigenwert Aa auch lineare
Elementarteiler auftreten, eva = 1, gibt es zu ihm Paare von Rechts- und
Linkseigenvektoren mit
Y~ Xi =l= 0 .
Für das oben angeführte Beispiel erhalten wir als Eigenvektoren :
0 o
0 o
C
0 o C'
0 o
0 o
------ --
0 01-I
0 0 0 0 0 00 000 1

,
X· 0 0 0 1 0 0 o 0 0 0 1 0 I Yi
o 0 0 0 o I 0 0 0 0 0_1 __ 1

X *_~~_*_~---*__I ~~__*__ 0 __*


I__ * IY
19.3. Die WEYRschen Charakteristiken 251

19.3. Die Weyrschen Charakteristiken


Zum Aufbau der Transformationsmatrix T bei nicht vollständigem
Eigenvektorsystem liegt es nahe zu vermuten, daß die vorhandenen
Eigenvektoren in irgend einer Form in die Transformationsmatrix ein-
gehen, es sich also nur darum handelt, das unvollständige Eigenvektor-
system in passender Weise zu ergänzen. Unsere Frage ist daher: Gibt
es zu einem p-fachen EigenwertA im Falle d < P noch weitere der
Matrix A zugeordnete Vektoren, die an die Stelle der fehlenden Eigen-
vektoren treten und so die leeren Plätze in der Transformationsmatrix
auffüllen können? Dies trifft nun in der Tat zu. Die Ergänzung der
Eigenvektoren wird in Gestalt der sogenannten Hauptvektoren gefunden.
Sie basieren auf einer Erscheinung, die zuerst von E. WEYR eingehend
untersucht worden ist! und ihn zu einem zweiten Satz von Struktur-
invarianten, den nach ihm benannten Weyrschen Charakteristiken ge-
führt hat. Es ist die Tatsache, daß sich der Rangabfall d" der charak-
teristischen Matrix A - A" I im Falle d" < p" durch Potenzieren dieser
Matrix erhöht, und zwar nach ganz bestimmten durch die Elementar-
teilerexponenten ev " festgelegten Stufen fortschreitend.
Zur Untersuchung dieser Erscheinung bedienen wir uns wieder der
JORDAN-Matrix J als der einfachsten Gestalt einer Matrix A. Wir fassen
einen bestimmten Eigenwert ..1" der Vielfachheit p" und von gegebenen
Elementarteilerexponenten ev " ins Auge. In der charakteristischen Ma-
trix J - A" I fehlen dann in allen zum Index a gehörigen Kästchen J VC1
die Diagonalglieder A", und es bleiben die ev,,-reihigen Kästchen
0 0 0
0 0 0
K v ,,= (11)
0 0 0 1
0 0 0 0
Der Rang eines jeden dieser Kästchen ist ersichtlich gleich ev " - 1,
sein Rangabfall also 1. Der gesamte Rangabfall der charakteristischen
Matrix J - ..1" I somit gleich der Anzahl der Kästchen K v ,,' also der
Anzahl der zu A" gehörigen Elementarteilerexponenten ev ". Genau dann,
wenn sämtliche zu A" gehörigen Exponenten eva = 1 sind, ist ihre An-
zahl auch gleich ihrer Summe p" und daher d" = p", wie wir schon in
§ 18.3 festgestellt haben.
Der Rangabfall der charakteristischen Matrix J - A" I und damit
auch der ihr ähnlichen Matrix A -- ..1" I läßt sich nun für d" < Pa' also
bei Auftreten nichtlinearer Elementarteiler durch Potenzieren der cha-
rakteristischen Matrix erhöhen (auch die Potenzen beider Matrizen
1 WEYR, E.: Mh. Math. Phys. Bd. 1 (1890), S. 163-236.
252 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

sind ja wieder einander ähnlich!). Dabei potenzieren sich nämlich


einfach die Kästchen, aus denen J -}.a 1 besteht, und unter ihnen auch
die zum Wert ,1." gehörigen Kästchen [{v,,, Die Potenzen [{:a' [{~a, . . .
aber gehen aus [{va ersichtlich durch bloßes Verschieben der 1-Reihen
um jeweils einen Platz nach rechts hervor, wobei in jedem Kästchen
die Anzahl der 1-Elemente und damit ihr Rang genau um eins abnimmt,
bis bei der Potenz [{::adas Kästchen ganz zur Nullmatrix geworden
ist, soweit es nicht schon aus nur einem einzigen Element 0 im Falle
ev" = 1 bestanden hatte. Bei jeder Potenzierung erfährt somit die
Gesamtmatrix .1 - Aa 1 eine Rangverminderung gleich der Anzahl der
noch von Null verschiedenen Kästchen. Die Verhältnisse werden auf
einfachste Weise verdeutlicht an dem in § 18.4 eingeführten Punkt-
schema der Elementarteilerexponenten. Gehören beispiel >weise zur be-
trachteten Zahl ,1" die Exponenten eva = 5, 4, 2, 2, also eine Charak-
teristik von der Form [... (5 422) ... ], so ist das Schema

Die Matrix hat zunächst einen Rangabfall gleich der Anzahl der vor-
handenen evc" also gleich der Punktzahl der ersten Punktspalte, im
Beispiel gleich 4. Beim Bilden von (.J - A" 1)2 nimmt jedes der von
Null verschiedenen Kästchen im Range um eins ab, der Rangabfall
steigt um die Punktzahl der zweiten Punktspalte an, im Beispiel um
nochmals 4 auf 8. Jetzt sind in unserem Beispiel die beiden letzten
(zweireihigen) Kästchen zu Null geworden, und beim nochmaligen Po-
tenzieren auf (.J - },,, 1)3 tragen nur noch die beiden ersten Kiistchen,
die noch 1-Elemente enthalten, zur weiteren Eangminderung bei, wo-
mit der I\.angabfall um die Punktzahl der dritten Spalte, niimlich um
2 auf insgesamt 10 zunimmt usf. Die Zunahme des Rangabfalles durch
Potenzieren der charakteristischen :Watrix erhalten wir denmach aus
den Elementarteilerexponenten eva einer bestimmten charakteristischen
ZahU" in höchst einfacher \Veise nach unserem Punktschema als die
Punktzahl der Spalten, durchlaufen von links nach rechts, wenn die
Punktzahl der Zeilen gleich den Exponenten e,,cr gemacht \Yirc1.
Bezeichnet man allgemein die Zunahme des l\angabfallcs beim Über-
gang von (A - A<T I)T-1 auf (.1-}.a Ir mit :\rrr' sn ergeben sich die nach-
einander folgenden Rangdefekte :
""I - Aa 1 hat den lüngabfall ex al =~ da
(. 4 - }." 1)2 hat den Rangabfall iX" 1 -:- iXa~
(...1-}'a 1)3 hat den I{angabfall iX"l +
iX a2 .+. CA a 3

(. 4 - }'a 1)"" hat den Rangabfall iX al + iXa2 -+- ... + rx""a = Pa·
19.4. Die Hauptvektoren 253

Diese von WEYR eingeführten Zahlen aa, gleich den Punktzahlen der
Spalten im Punktschema sind für die Matrix A genau so charakteristisch
wie die WEIERSTRAssschen Elementarteilerexponenten. Sie werden Weyr-
sc he Charakteristiken genannt und bilden wie die Exponenten eva, mit denen
sie in der beschriebenen einfachen 'Weise zusammenhängen, einen zweiten
\ ollständigen Satz von Strukturinvarianten der Matrix. - Für unser
Beispiel sind ihre Werte 4,4, 2, 2, 1. Ihre Summe ist - ebenso wie
die der Exponenten - gleich der Vielfachheit Pa:
aal + aa2 + .. 'aal"a = Pa' (12)
Auch für die Zahlen aar gilt, daß sie mit fortschreitender Ordnung
höchstens abnehmen können,
da =aal>aa2>···>aal"a>1, (13)
was mit der entsprechenden Eigenschaft der eva aus dem Punkt schema
folgt. - Für den wichtigen Sonderfall durchweg linearer Elementar-
teiler, für den das Punkt schema nur aus einer einzigen Spalte besteht,
gilt offenbar aal = da = Pa' während weitere aa, nicht mehr existieren.
Daraus folgt dann
S atz 3: Die charakteristische Matrix A - A 1 einer Matrix A hat für
einen Eigenwert Aa genau dann nur lineare Elementarteiler, wenn der
Rang der quadrierten Matrix (.4 - Aa 1)2 gleich dem der Matrix A - Aa I
selbst ist.
Die praktische Entscheidung dieser Frage erfolgt allerdings bequemer
auf etwas anderem Wege, wie sich bald zeigen wird (vgI. S. 258).
19-4- Die Hauptvektoren
Die Erhöhung des Rangabfalles bei da < Pa durch Potenzieren der
charakteristischen Matrix legt es nun nahe, die fehlenden Eigenvektoren
eines Pa-fachen Eigenwertes Aa zu ersetzen durch Lösungen der Glei-
chungssysteme
(A~-~lrx
- -------
=;;1
-----'
1: = 1, 2, ... , fla , (14)
die an die Stelle der Eigenwertgleichung
(A -)'a I) x = 0
treten. Für 1: = fla hat die Koeffizientenmatrix von GI. (14) den vollen
Rangabfall Pa erreicht, womit gen au Pa linear unabhängige Lösungen x
zu dieser höchsten Potenz existieren. Lösungen der GIn. (14) werden
nun Hauptvektoren der Matrix.11 genannt, und zwar Hauptvektoren
der Stufe 1:, bezeichnet mit x', wenn

(A-Aal)'x' = 01' (15 )


dagegen (A - Aa 1)'-1 x' =f= o •.
--------~

Eigenvektoren sind in diesem Sinne Hauptvektoren der Stufe 1.


254 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

Hauptvektoren einer Stufe i sind zugleich auch Lösungen einer


höheren Stufe und insbesondere solche der höchsten Stufe /-ta' Denn mit
GI. (14) folgt
(A -Aa I)"a x' = (A -Aa I)"a -, [(A -A" I)' xl = o.
Die Gesamtheit der Lösungen der einzelnen Systeme GI. (14) ist somit
in der allgemeinen der Gleichung höchster Potenz (T = Pa) enthalten.
Aus
(A -Aa 1)' x' = (A -Aa 1)'-Q [(A -Aa I)Q xTJ = 0
folgt aber für (! < T, daß die Größe in der eckigen Klammer einen
Hauptvektor der Stufe i - (! darstellt:
(A -Aa I)Q x T = x T - Q, (! < i . (16)
Insbesondere folgt hieraus für (! = 1 für Hauptvektoren aufeinander
folgender Stufen die bedeutsame Rekursionsformel

I (A-A a I) x' = X'-ll r = 1,2, ... ,Pa' (17)


I '

die auch noch für T = 1, also für Eigenvektoren gilt, wenn man XO = ()
vereinbart. Die Hauptvektoren aufeinander folgender Stufe ergeben sich
also nacheinander aus dem Formelsatz

(A - Aa I) Xl = 0 (17.1 )
(A - Aa 1) x 2 = Xl (17.2)
(A -Aa 1) x 3 = x 2 (17·3)

Nun stellt jede der GIn. (17) mit Ausnahme der ersten ein System inho-
mogener Gleichungen mit der singulären Koeffizientenmatrix (A - Aa I)
dar. Diese Gleichungen aber sind, wie wir aus § 8.2, Satz 8 wissen, dann
und nur dann miteinander verträglich, wenn der Vektor X,-l der rechten
Seite orthogonal zu allen Lösungen y des transponierten homogenen
Systems __ _
i !

L(A' -_A a I~y:= 0 I, (18)


d. h. aber zu allen zu Aa gehörigen Linkseigenvektoren y der Matrix A.
Die Verträglichkeitsbedingungen der Systeme (17) sind also
I - - I
; y' X'-l = 0 , r = 2,3, ... , (19)

wobei y die allgemeine Lösung von (18) darstellt.


Von den Eigenvektoren Xl gibt es nun, wie wir in 19.2 sahen, genau
dann Vektoren mit
y' Xl = 0, (19.1 )
19.4. Die Hauptvektoren 255

wenn nichtlineare Elementarteiler zu A" vorkommen, wenn also Rang-


abfall und damit Zahl der Eigenvektoren kleiner als die Vielfachheit Per
ist. Möglicherweise erfüllen nicht alle Eigenvektoren Xl diese Bedingung,
wenn nämlich auch lineare Elementarteiler auftreten, wenn also die
WEYRsche Charakteristik 1X2 < 1XI ist. Ist aber 1X2 > 0, so gibt es sicher
1X 2 Hauptvektoren x 2 zweiter Stufe als Lösungen von GI. (17.2), und
da diese zusammen mit den 1XI Eigenvektoren Xl Lösungen des homo-
genen Systems mit der Matrix (A - A" 1)2 vom Ranganfall 1XI 1X 2 +
sind, so sind alle diese Vektoren Xl und x 2 linear unabhängig. - Ist
nun auch noch 1XI +
1X 2 < Per' so gibt es 1Xa > 0 Vektoren unter den x 2 ,
für die die neue Verträglichkeitsbedingung
y'x 2 = 0 (19.2)
erfüllt ist, von denen aus also ein weiterer Aufstieg zu 1X3 Vektoren
dritter Stufe x 3 nach GI. (17.3) möglich ist. Wieder sind dann alle
1XI+ +1X 2 1Xa Vektoren Xl, x 2 , x 3 nach gleicher überlegung wie oben
linear unabhängig.
Für unser Beispiel einer Charakteristik [... (5 42 2) ... ] mit dem
zu A" gehörigen Punktschema

erhalten wir auf diese Weise das folgende zu A" gehörige Vektorsystem :
x~ --+ x~ --+ x~ --+ xt --+ x~
x~ --+ x~ --+ x~ --+ x~
x~ --+x~
x! --+x!
wo die auf gleicher Zeile i stehenden Vektoren x~ nach den GIn. (17) zu-
sammenhängen. Derartig zusammenhängende Hauptvektoren wollen wir
eine Hauptvektorkette nennen. Die Länge der i-ten Kette ist dabei offen-
bar gleich dem Exponenten ev " = e dessen Index v mit dem der Zeile i
+ +
Vl

nach i = n 1 - v, v = n 1 - i verknüpft ist. Einen Vektor x: der


i-ten Zeile, von dem aus ein Aufstieg bis zur Stufe ev möglich ist, wollen
x;
wir dann auch mit 'v bezeichnen:
1 e-- -e I

+ 1-
-u----'----~_···---"-e

I x· V--+x·10 v--+x. v--+ ... --+x.v


~ ~ Z
VI (i = n v). (20)
-- - ----_._----- -

Mit der Gesamtheit dieser einer Matrix A zugehörigen zu Ketten ge-


ordneten Hauptvektoren haben wir nun gerade die Spalten t; der ge-
suchten Transformationsmatrix T gefunden, die unsere Matrix auf die
256 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

JORDAN-Form überführt. Wir fassen zunächst jede der zum Eigen-


wert Aa gehörigen Ketten der Länge ev zur Teilmatrix T,." zusammen:
(21)
wo wir den Index (J nur einmal hinter die Klammer gesetzt haben.
Diese T va fassen wir wieder zu
(22)
und diese schließlich zur Gesamtmatrix
T = (Tl> T 2 , ••• , T s) (23 )
zusammen. In unserem Beispiel wird
T na = (xP X~5 xr 5 X~5 xr 5 )
T n - 1,a = (X~4 X~4 X~4 X~4)
T n - 2,a = (X~2 X~2)
T n - 3,a = (X!2 X !2)
Wegen GI. (17) ist dann nämlich
e - 1, e
... ,X;" v + AX;" V).
e e

Hier aber steht rechts gerade das Produkt der Matrix T va mit der
JorwAN-Teilmatrix J va :
(24)

Insgesamt haben wir damit A T = T J oder

(25)

Praktisch ist übrigens die Bildung der Kehrmatrix T-l nicht erforder-
lich, nachdem die Hauptvektorketten und damit T aufgestellt ist.
Denn mit diesen Ketten liegt ja die Struktur der Matrix und damit
- bei bekannten Eigenwerten Aa - auch die JORDAN-Matrix vollständig
fest, und diese Matrix J kann unmittelbar angeschrieben werden.
Hauptvektoren und Hauptvektorketten lassen sich auch für das
allgemeine Eigenwertproblem

(A-AB)x=o i' (26)


19.5. Aufbau der Hauptvektorketten 257

also Matrizenpaare A, B bei nichtsingulärem B aufstellen. An die Stelle


der H.ekursionsgleichungen (17) treten die Formeln
1~-~B)x~-BX'-ll T = 1,2,3,... (27)

Diese führen in gleicher Weise wie oben zu Hauptvektorketten und


mit ihnen zur Transformationsmatrix T, für die dann gemäß Gl. (27)
die Beziehung
AT=BTJ
oder
I T-IB-IAT=~ (28)
gilt. Die Matrix J ist also die JORDAN-Form der Matrix A., wie ja B-l
überhaupt das allgemeine Problem Gl. (26) durch Linksmultiplikation
mit n-l in das spezielle Eigenwertproblem übergeht.

* 19.5. Aufbau der Hauptvektorketten


Der Aufbau der Hauptvektorketten verlangt eine besondere Rechen-
technik. Dies hat seinen Grund darin, daß schon bei der Berechnung
der Eigenvektoren als Lösungen des homogenen Systems mit der singu-
lären Matrix A - AG 1 im allgemeinen, wenn nämlich nicht gerade
a 2 = a l ist, alle Vektoren Xl Komponenten von Vektoren x H enthalten,
d. h. von Vektoren der Kettenlänge 1, von denen aus also ein weiterer
Aufstieg zu Vektoren zweiter Stufe x 2 nicht möglich ist. Die a l Roh-
vektoren Xl, die wir zu einer Matrix Xl zusammenfassen wollen, sind
daher zunächst einem Reinigungsprozeß zu unterwerfen, der aus ihnen
einerseits die Vektoren x H , zusammengefaßt inXll, andererseits a2 Vek-
toren Xli mit t > 2, zusammengefaßt in XII aussondert, wobei allein von
XII aus ein Aufstieg zu Vektoren x 2 möglich ist. Fassen wir noch die

°
Linksvektoren y zur Matrix Y zusammen, so gilt dann Xli' Y = 0, wäh-
rend Xll' Y =f= eine Matrix vom Range a l - a2 ist. Aber auch die aus
GI. (17.2) mit Xlt als rechten Seiten berechneten a 2 Vektoren zweiter
Stufe x 2, zusammengefaßt zu X2, sind wieder erst Rohvektoren, die im
allgemeinen Vektoren x H , X l2 und X 22 enthalten, von denen aus ein Auf-
stieg zu Vektoren 3. Stufe x 3 nicht möglich ist. Auch diese Rohmatrix X2
muß also wieder einem Reinigungsvorgang unterworfen werden, der sie in
eine Matrix X22 mit Vektoren X 22 und eine zweite X2 1 mit a 3 Vektoren X 21
der Kettenlängen t > 3 aufspaltet. Wieder wird dann X22' Y =f= 0, hin-
gegenX 2t ' Y =0, so daß die GIn. (17.2) mitX2 t als rechte Seiten verträglich
sind und a3 Vektoren 3. Stufe x 3 , zusammengefaßt in X3 liefern. In
dieser Weise fortfahrend ist also jedem neuen Aufstieg mittels Gl. (17)
eine Reinigung der zuvor erhaltenen Rohvektoren vorzuschalten, bis

X33' Y =f= °
das Verfahren von selbst aufhört, z. B. mit der 3. Stufe, wenn nämlich
gerade a 3 Zeilen enthält, womit a 4 = 0 wird.
Zurmühl, Matrizen 4. Aufl. 17
258 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

Die Reinigung der Rohvektoren, also das Abspalten der zu weiterem


Aufstieg ungeeigneten Vektoren geschieht nun auf einfache Weise mit
Hilfe des verketteten GAussschen Algo-
a1 =d rithmus I a··hn rIC h WIe
. unter § 9.3. Das
Schema der Rechnu ng zeigt Abb. 19.1-
Zunächst bilden wir die (XI-reihige Matrix
;.V1 = XII Y,
y 711
die im allgemeinen vo11 besetzt sein wird,
aber vom Range (Xl - (X2 ist. Hat aber NI
vollen Rang (Xl' so gib t es zu Aa außer den
711

a., ~ X1

at +
XE
Nz

~ X3

""
po'
Q1 X 11
*
1 5(1t X1
0 a2 I------

R,' ,1"-i~~I Q2 X""


X2 *
21 0 ~~ 5(zt ~

P!.31 ip,'~
: 32: 33 C -
x33 }5(3J*
Abb.19.1. Schema der Vektorreinigung zum Aufbau der Hauptvektorketten

Eigenvektoren keine weiteren Hauptvektoren mehr, es ist da = Pa und


eine Weiterrechnung entfällt. Für singuläres Nt> (X2 > 0, wird NI im
verketteten Algorithmus aufgespalten nach
NI + P; QI = 0 _PI> QI
mit den oberen Dreiecksmatrizen PI> Ql> die (X2 Nullzeilen enthalten.
Ausdehnung des Algorithmus auf die rechts stehende Matrix XI' nach
XII + P~ XI' = O_XI

liefert die neue Matrix Xl = (XlI, XII), wo XII zu den Nullzeilen von
QI gehört und zu Y orthogonal ist, XiII Y = O. Damit erfolgt Aufstieg
1 Nach H. UNGER: Zur Praxis der Biorthonormierung von Eigen- und Haupt-
vektoren. Z. angew. Math. Bd. 33 (1953). s. 3 1 9-331.
19.5. Aufbau der Hauptvektorketten 259

ZU X2 nach

und Bilden von


N 2 = X2' Y,
sodann Aufspalten dieser aus (X2 Zeilen und (Xl Spalten bestehenden
Matrix nach
+
N 2 P;l Ql +
P;2 Q2 = 0 -+P2l , P 22 , Q2'
wo die Dreiecksmatrizen P 22 , Q2 jetzt (X3 Nul1zeilen aufweisen. Aus-
dehnen des Algorithmus auf X2' nach
X2' + P;l Xl1 ' + P;2 X2 = 0 1
-+ X2
- -
ergibt X2 = (X22, X2t), wo X2t zu den Nul1zeilen von Q2 gehört und zu
Y orthogonal ist. X2t Y = 0, so daß damit Aufstieg zu xa nach
1

(A -AO' 1) xa = X2t
möglich ist. Damit Bilden von
Na = xa l Y
und Aufspalten in
Na + P;l Ql + P;2 Q2 + P;3 Q3 = 0 -+Pal , P a2 , P aa, Qa
und Ausdehnen des Algorithmus auf xa nach
xa l + P;l .KU' + P;2 X221 + P;3 Xal = 0 -+ Xa .

Ist nun etwa (X4 = 0, d. h. ist Na vom Range (X3' so ist das Verfahren
beendet und es ist X a = X 3a .
Nunmehr liegen die höchsten Kettenstufen X tt jeder Kette der Länge t
fertig vor bis zur längsten Kette mit t = enO' = #0'. Diese fertigen Ge-
bilde bezeichnen wir jetzt einfach mit XII (ohne Überstreichung). Durch
den Reinigungsprozeß ist jedoch inzwischen der Kettenzusammenhang,
der von XII auf X2, von X2t auf xa usw. führte, wieder zerstört worden.
Er wird nun nachträglich einfach durch Absteigen wieder hergestellt,
also durch bloße Multiplikation mit der charakteristischen Matrix:
(A -AO' 1) X 22 = X12
(A -AO' 1) xa3 = X23, (A -AO' 1) X23 = Xl3
(A -AO' 1) X44 = X34, (A -AO' 1) X34 = X24, (A -AO' 1) X24 = X14

woraus man die endgültigen unteren Kettenglieder


X12; X2a; Xl3; X34, X24, X14; ...
erhält. Besteht die Kette einer Länge t aus mehreren Reihen, d. h.
enthält die Endmatrix xtt der Kette mehrere Vektoren:

17"
260 § 19. Die Normalform. Hauptvektoren und Hauptvektorketten

so muß für jede Reihe auf den Kettenzusammenhang geachtet werden.


Die zum Eigenwert}"" gehörige Teilmatrix T" baut sich dann für den
Teil dieser Kettenlänge t so auf:
T" = ( ... ; xii xii ... x~t; Xl
2
x 2t
2
... x~t; ... ) .
Wir erläutern das Ganze an einem

Beispiel: Die sechsreihige Matrix


-4 0 -5 -4

A ~ ,1
[
-8
-3 -1 -3 -4
-7
-2
8
0-11 -7
-4
10
-1
9 J]
-6 9 2 9 11 -6
hat den sechsfachen Eigenwert ).1 = 0, womit die Matrix mit ihrer charakteri-
stischen übereinstimmt (beim Eigenwert ).1 = a wären lediglich die Diagonalele-
mente um a vergrößert). Damit wird der Algorithmus zur Bestimmung der Eigen-
vektoren ;r1 und y sowie später der Hauptvektoren:
x
It X 2t
6 3 -4 4
------
11
l ____ I
5 1
I -5
I
--------- -- --,---~-~-T--------~

4 -4- 0 -5 -4 3 -6 3 --1. 1
2 -3 -1 -3 -4 2 -7 : -2 - 2 1 - 2
10 -7 0 -11 -7 6 -9 10-4,-8
4 -2 -4 -1 2 0 4 0 0
-8 8 10 9 -6