Sie sind auf Seite 1von 489

Rudolf Zurmiihl .

Sigurd Falk

Matrizen
undihreJ\nwendungen
ftir Angewandte Mathematiker,
Physiker und Ingenieure

Fiinfte, iiberarbeitete und erweiterte Auflage

Teil2: Numerische Methoden

Mit 103 Abbildungen

Springer-Verlag
Berlin Heidelberg NewYork Tokyo 1986
Dr.-Ing. Rudolf Zurmiihl t
o. Professor an der Technischen Cniycrsitat Berlin

Dr.-Ing. Sigurd Falk


o. Professor an dcr Technischen L"niversitat Braunschweig

Die ersten vier Auflagen erschienen unter dem Titel


.. Zurmiihl, Rudolf: Matrizen und ihrc technischen Anwendungen"

ISBN-13: 978-3-642-64885-4 e-ISBN-13: 978-3-642-61614-3


001 : 10.1007/978-3-642-61614-3

CIP·l\.urztitelaufnahme dec Deutschen Bibliothek


Zunntihl, Rudolf:
Matcizen und ihre Anwendung Hir Angewandte ~Iathematiker, Physiker und Ingenieure/
Rudolf Zunntihl; Sigurd Falk. - Berlin; Heidelberg; ~ew York; Tokyo: Springer
Bis 4. Aufl. u. d. T.: ZurmUhl, Rudolf: )Iatrizen unci. ihre technischen Anwendungen
:\E: Falk, Sigurd:
Teil 2. :Sumerische Methoden. - 5., iiberarb. u . erw. Aufl. - 1986.

Das \\'erk ist urheberrechtlich geschiitzt. Die dadurch begriindeten Rechte, insbesondere die dec Ober-
setzung, des Nachdrucks, dec Entnahme von Abbildungen, dec Funksendung, dec \Viedergabe auf photo-
mechanischem odee ahnlichem \Vege und dec Speic herung in Datenverarbeitungsanlagen bleiben, auch
bei nur auszugsweiser Verwertung, \'orbehalten. Die Verglitungsansprliche des § 54, Abs. 2 UrhG werden
durch die ,Verwertungsgesellschaft \\'ort', ~llinchen, wahrgenommen.

© Springer·Veriag Berlin, Heidelberg 1950, 1958, 1961 , 1964 and 1986


Softcover reprint of hardcover 1st edition 1986
Die \Viedergabe von Gcbrauchsnamell, Handelsnamen , \\"arenzeichen usw. in diesem Buch berccbtigt
auch ohne besondere Kennzeichnung nicht zu der Annahme, daB solche Xamen im Sinne der "'aren-
zeichen- und Markenschutzgesetzgebung als frei zu betrachten waren und daher von jedermann benutzt
werden dlirften.

Bindearbeiten: Llideritz & Bauer, Berlin


2160 1 30~0· ;43210
Vorwort zum Teil 2 der fiinften Auflage
Der zweite Teil der MATRIZEN vollzieht, wie im SehluBwort
des ersten Teiles angekundigt, den Sehritt von der Theorie zur Praxis
und ist daher sowohl ein Mathematik- wie ein Reehenbueh in einer den
Anwender zum Ausprobieren wie den Forseher zu weiterem Naeh-
denken uber sein Arbeitsgebiet anregenden Synthese, die fUr die
lineare Algebra mit ihren "nur" vier Grundreehenarten ebenso beispiel-
gebend wie typiseh ist. Dank des vorbereitenden Charakters von Teil 1
enthalt Teil2 nur wenige Beweise, dafur viele Programmieranleitun-
gen, zahlreiehe erlauternde Abbildungen und Schemata und etwa
hundert Zahlenbeispiele mit ~latrizen der Ordnung n = 2 bis
n = 200000.
Dem Kenner der Materie empfehle ieh, mit den Resumees zu den
§§ 40 und 43 zu beginnen und von dort aus die einzelnen Kapitel zu
erschlieBen. Hingegen sind fur den Anfanger beim erst en Studium
allein die mit dem Zeiehen • versehenen Absehnitte gedaeht, die etwa
die Halfte des Textes ausmaehen und ein in sieh gesehlossenes Werk
bilden.
Einige der in diesem Bueh besehriebenen Algorithmen sind Erst-
veraffentliehungen, so der RAPIDOjRAPIDISSDW zur Lasung von
linearen Gleiehungssystemen, der Selektionsalgorithmus BOXAVE~­
TURA, die Globalalgorithmen SECt:RITAS (Bt:DICH 1979) und VELOCITAS
fUr Matrizenpaare und der ECP (Expansion des eharakteristisehen
Polynoms) fUr Polynommatrizen, der T-S-Algorithmus fUr nichtlineare,
aueh transzendente oder gebrochen rationale l\Iatrixelemente; unver-
affentlicht ist bislang aueh der Determinantensatz fUr die Einsehlie-
Bung von Eigenwerten eines Paares ~4; B.
Wie der Leser bemerken wird, ist entgegen der Ankiindigung im
Teil1, S. XIII, einiges nieht aufgenommen worden, und zwar aus
versehiedenen Grunden. Da im gleichen Verlag eine erweiterte ~euauf­
lage des bekannten Werkes ~Iatrizentheorie von F. R. GA~L\fACHER
und eine Neuerseheinung von \V. :\l.UHIS uber Kiehtlineare Ketzwerk-
theorie in Kurze herauskommen werden, konnte ieh auf die §§ 46
und 47 (Systeme von linearen Differentialgleiehungen) ebenso wie auf
die §§ 51 und 52 (l\1atrizen in der Elektroteehnik) leiehten Herzens
verziehten. Ferner habe ieh die §§ 53 bis 60 stark gerafft und zu den
neuen §§ 44 und 45 zusammengefaBt. em den Rest tut es mir leid,
aber irgendwo muSte ein SehluBstrich gezogen werden, wenn nicht
ein weiteres Jahr vergehen und die Seitenzahl 1000 erreicht werden
sollte.
Nachgeholt sei die im Tei11 unterbliebene Danksagung an aIle
Helfer, Mitarbeiter und Korrektoren, die direkt oder indirekt an
VI Yorwort

diesem Buch mitgewirkt haben. Dazu gehoren: Frau Dr. AN:-<A LEE,
wissenschaftliche Hauptmitarbeiterin im mathematischen Forschungs-
institut der Ungarischen Akademie der \Vissenschaften in Budapest,
Herr Prof. Dr. G. ZIELKE von der Universitat Halle, Herr Prof. Dr.
K. VESELIC von der Fernuniversitat Hagen, Herr Dipl.-Phys. Dr.-Ing.
W. ~IATHIs vom Institut fUr Allgemeine Elektrotechnik der Techni-
schen Universitat Braunschweig und schliel3lich mein bewahrter
Mitarbeiterstab, bestehend aus den Herren Dr.-Ing. H. BAHREN,
Dipl.-Ing. K. BERG:lIAXX, mathem.-techn. Assistenten H. BUDICH,
Frau GISELA KOCH'!, meinem Kollegen Prof. Dr.-Ing. habil. P. RUGE,
sowie den Herren Dr.-Ing. C. SCHLIEPHAKE und Dr.-Ing. J. SCHXEIDER,
dem ein besonderes Lob gebuhrt fur die laufende Dberwachung des
Manuskriptes ebenso wie fur das sorgfaltige Lesen der Korrekturen.
l\Ieinem l\Iitarbeiter H. Bt:DICH sei in herausgehobener Weise gedankt
fur seine mehrjahrige unermudliche Pionierarbeit vor dem Bild-
schirm, ohne die wichtige Teile dieses Ruches niemals entstanden
waren, und fUr seine auf dem Grof3rechner Amdahl 470 V/7 B und
IBM 4341 in souveraner :?IIeisterschaft programmierten und in eigener
Regie entworfenen Zahlenbeispiele.
Der Deutschen Forschungsgemeinschaft danke ich fur die finanzielle
L~nterstutzung beim Austesten des Determinantensatzes an Serien
von eigens dafUr konstruierten groBen ~Iatrizen und schlief3lich dem
Springer-Verlag fUr die erfreuliehe und forderliche Zusammenarbeit
und die ErfUllung so mancher Sonderwunsehe.
Nun zu den Lesern. leh wunschte mir sehr, einen weitgefacherten
Abnehmerkreis zu erreichen, angefangen von den Physikern, Inge-
nieuren, Statistikern, Volkswirten und sonstigen am Matrizenkalkul
Interessierten, deren Wissensehaft vom Computer mehr und mehr
erfaBt und geformt wird, bis hin zu den angewandten, numerischen
und - als bedeutendste Zielgruppe - den theoretischen ~Iathemati­
kern. Dies ware schon deshalb ein Gewinn, weil mehr als in der Ver-
gangenheit aus der "reinen" ~Iathematik die Impulse kommen sollten,
welche die N urn erik der nachsten J ahrzehnte voran bringen konnen;
die Anwender wart en darauf, denn die ~rehrzahl der Fragen ist nach
wie vor offen.
Mit diesen von Optimismus getragenen Bemerkungen eines enthusi-
astisehen Ackerers auf dem Felde der automatischen Rechnerei, der
ebenso wie RUDOLF Z1:R:llL'HL zeitlebens vor Verbrauchern und nicht
vor Herstellern von Mathematik als Lehrer und Forscher gestanden
hat, wunscht seinen Lesern, Freunden und Kritikern intellektuelles
Vergnugen wie praktische Nutzanwendung
Braunschweig, im Sommer 1986 Sigurd Falk
\Vendentorwa1l15 A
Inhal tsverzeichnis1

VII. Kapitel. Grundzuge der Matrizennumerik


§ 24. Grundbegriffe und einfache Rechenregeln ............. .
.24.1. Reine Mathematik, Numerische Mathematik und An-
gewandte Mathematik. Einige Vorbemerkungen ...
.24.2. Die Lange einer Operationskette. Vorwarts- und
Rtickwartsrechnen ........................... . 6
24·3· Verfahren mit Vorgabeverlust ................. . 8
24.4. Matrizen mit ausgepragtem Prafil ............. . 9
• 24.5. Die fUnf Lesearten eines Matrizenpraduktes ..... . 12
24.6. Die Matrizenmultiplikation von Winograd ...... . 13
24.7. Die geometrische Reihe ....................... . 15
24.8. Blockspektralmatrix und Blockmodalmatrix ..... . 18
24.9. Der Sylvester-Test fUr hermitesche Paare ....... . 19
24.10. Die additive Zerlegung einer hermiteschen Matrix 20
24.11. Taylor-Entwicklung einer Parametermatrix. Ab-
lei tung der charakteristischen Gleichung ........ . 21
.24.12. Konstruktion von Matrizen mit vorgegebenen
Eigenschaften. Testmatrizen .................. . 24
24.13· Skalierung einer Zahlenfolge. Die s-Jordan-Matrix 28
• 24.14. F okussierung ................................ . 29
.24.15. Rechenaufwand fUr die gebrauchlichsten Matrizen-
operationen ................................. . 31
§ 25. Norm, Kondition, Korrektur und Defekt .............. . 33
.25.1. Die Norm eines Vektors ...................... . 33
• 25.2. Die Norm einer Matrix ....................... . 34
• 25.}. Norm und Eigenwertabschatzung .............. . 39
25.4. Das normierte Defektquadrat (Norm III) ....... . 40
25.5 . Die Kondition einer Matrix. Skalierung. Sensibilitat 45
• 25.6. Defekt und Korrektur ........................ . 50
§ 26. Kondensation und Ritzsches Verfahren ............... . 51
• 26.1. Die Matrizenhauptgleichung und der Alternativ-
satz. Resonanz und Scheinresonanz ............ . 51
.26.2. Kondensation als Teil fUr das Ganze ........... . 55
1 Die mit dem Zeichen • versehenen Abschnitte bilden in sich ein geschlossenes
Ganzes und sollten als erstes studiert werden.
VIII I nhalts\'erzeichnis

.26·3· Hermitesche Paare. Der Trennungssatz ......... . 58


26.4. Hermitesche Kondensation .................... . 61
• 26.5. Lokaler Zerfall einer Parametermatrix. Bereinigung .
Die Zentralgleichung ......................... . 61
26.6. Zentraltransformation und Minimumvektor. Split-
ten eines Vektors ............................ . 67
26.7. Die Optimaltransformation .................... . 71
.26.8. Kondensation einer quadratischen Form ........ . 72

VIII. Kapitel. Theorie und Praxis der Transformationen


§ 27. Eine allgemeine Transformationstheorie ............... . 77
• 27.1. Uberblick. Zielsetzung ........................ . 77
• 27.2. Aquivalenz und Ahnlichkeit (Kongruenz) ....... . 80
.27.3. Das Generalschema einer multiplikativen Transfor-
mation ..................................... . 81
27.4. Der Transport durch die Informationsklammer.
Phantommatrix ............................. . 8')
27.5. Diskrepanz und Regeneration ................. . 85
27.6. Die Zuriicknahme einer Aquivalenztransformation 86
27.7. UnWire (orthonormierte) Transformation ....... . 87
27.8. Dyadische Transformationsmatrizen ............ . 88
27.9. Unvollstandige und vollstandige Reduktion eines
Vektors. Der e-Kalfaktor ..................... . 94
27.10. Der Mechanismus der multiplikativen Transforma-
tion ....................................... . 98
27.11. Progressive Transformationen ................. . 101
§ 28. Aquivalenztransformation auf Diagonalmatrix ......... . 103
.28.1. Aufgabenstellung ............................ . 103
• 28.2. Direkte und indirekte linksseitige Aquivalenztrans-
formation auf Diagonalmatrix ................. . 104
28-3. Die linksseitige Aquivalenztransformation auf
obere Dreiecksmatrix ......................... . 105
28.4. Singulare Matrix. Rangbestimmung ............ . 109
.28.5. Die Rechtstransformation auf Diagonalmatrix. Nor-
malform .................................... . 110
.28.6. Hermitesche und positiv definite Matrix ........ . 111
.28.7. Die dyadische Zerlegung von Banachiewicz und
Cholesky .................................... . 113
28.8. Die Normalform eines diagonalahnlichen Matrizen-
tupels ...................................... . 115
Inhaltsverzeichnis IX

§ 29. Ahnlichkeitstransformation auf Fastdreiecksmatrix 116


• 29.1. Aufgabenstellung ............................. 116
• 29.2. Der Mechanismus einer multiplikativen Ahnlich-
keitstransformation ........................... 117
.29.3. Multiplikative Transformation auf Hessenberg-
Form ....................................... . 119
29.4. Multiplikative Transformation auf Tridiagonal-
form ....................................... . 119
29.5. Multiplikative Transformation auf Kodiagonalform 119
.29.6. Multiplikative Transformation eines hermiteschen
Paares auf Tridiagonalform ................... . 119
29.7. Progressive Transformation auf Kodiagonalform
(Begleitmatrix) .............................. . 120
29.8. Progressive Transformation eines hermiteschen
Paares auf Tridiagonalform ................... . 121
29.9. Der Zerfall einer Fastdreiecksmatrix ........... . 123

§ 30. Iterative Ahnlichkeitstransformation auf Dreiecks- bzw.


Diagonalform ...................................... , 126
• 30.1. Uberblick. Zielsetzung ......................... 126
.30.2. Transformation in Cnterraumen. Die Elementar-
transformation .............................. . 128
• 30·3· Das explizite J acobi-Verfahren ................ . 130
30.4. Das halbimplizite J acobi-Verfahren fUr beliebige
Paare G; D .................................. . 133
30.5. Das halbimplizite J acobi-Verfahren fur beliebige
Paare A; B ................................. . 138
30.6. Die Regeneration (Auffrischung) des J acobi-Verfah-
rens. Abgeanderte (benachbarte, gestorte) Paare ., 139
30.7. J acobi-ahnliche Transformationen. Zusammenfas-
sung ........................................ 141

IX. Kapitel. Lineare Gleichungen und Kehrmatrix

§ 31. EinschlieJ3ung und Fehlerabschatzung. Kondition ....... 143


• 31.1. Defekt und Korrektur ......................... 143
.31.2. EinschlieJ3ung mittels hermitescher Kondensation
(Spektralnorm) ............................... 144
.31.3. EinschlieJ3ung bei diagonaldominanter Matrix .... 148
• 31.4. Stabilisierung schlecht bestimmter Gleichungs-
systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
x Inhaltsvcrzcichnis

§ 32. Endliche Algorithmen zur Auf10sung linearer Gleichungs-


systeme ........................................... . 151
·32.1. Zielsetzung. "Endlichkeit" der Methode ........ . 151
·32.2. Ein- und zweiseitige Transformation ........... . 152
• 32·3· Der GauBsche Algorithmus in Blocken .......... . 152
32.4. Partitionierung einer Block-Hessenberg-Matrix .. . 155
32.5. Partitionierung einer Blocktridiagonalmatrix .... . 158
·32.6. Vierteilung einer Bandmatrix .................. . 163
32.7. Die Aquivalenztransformation als dyadische Zerle-
gung. Exogene und endogene Algorithmen ...... . 165
32.8. Die Kongruenztransformation als dyadische Zer-
legung. Das \'erfahren von Hestenes und Stiefel .. 167
32.9. Mehrschrittverfahren ......................... . 174
.32.10. Zusammenfassung ........................... . 175

§ 33. Iterative und halbiterative Methoden zur Auf10sung von


linearen Gleichungssystemen ........................ . 176
• 33·1. Allgemeines. Cberblick ....................... . 176
• 33·2. Stationare Treppeniteration (GauB-Seidel-ahnliche
Verfahren) .................................. . 177
33·3· Instationare Treppeniteration. Der Algorithmus
"Siebenmeilenstiefel" ......................... . 180
• 33.4· Korrektur und Diskrepanz. N achiteration ....... . 182
• 33·5. Abgeanderte (benachbarte, gestorte) Gleichungs-
systeme .................................... . 183
33·6. Der restringierte Ritz-Ansatz .................. . 186
33·7. Das normierte Defektquadrat ................. . 187
33·8. Der zyklisch fortgesetzte Ritz-Ansatz. Minimalre-
laxation .................................... . 189
33·9. Dber- und Cnterrelaxation .................... . 192
33·10. Der vollstandige Ritz-Ansatz .................. . 192
33·11. Eir:e generelle Kritik ......................... . 193
• 33·12. Der Algorithmus RapidojRapidissimo .......... . 194
• 33·13· Nochmals Nachiteration. Abgeanderte (benach-
barte, gestorte) Gleichungssysteme ............. . 197
·33·14. Zusammenfassung ........................... . 200

§ 34. Kehrmatrix. Endliche und iterative Methoden ......... . 203


• 34.1. Dbersicht. Zielsetzung ........................ . 203
.34.2. Auf10sung des Gleichungssystems AK = 1 ...... . 203
.34.3. Die Eskalatormethode der sukzessiven Randerung 205
34.4. Das Verfahren von Schulz .................... . 207
34.5. EinschlieBung der Elemente einer Kehrmatrix ... . 209
Inhaltsycrzeichnis XI

x. Kapitel. Die lineare Eigenwertaufgabe

§ 35. Spektralumordnung und Partitionierung .............. . 211


• 35.1. Dberblick. Zielsetzung ........................ . 211
.35.2. Umordnung des Spektrums mit Hilfe von Matrizen-
funktionen. Schiftstrategien ................... . 211
35.3. Umordnung des Spektrums mit Hilfe von Eigen-
dyaden. Deflation ............................ . 214
.35.4. Partitionierung durch unvollstandige Hauptachsen-
transformation. Ordnungserniedrigung .......... . 216
• 35.5. Elementarmatrizen und Austauschverfahren ..... . 219
.35.6. Sukzessive Ausloschung. Produktzerlegung der Mo-
dalmatrizen ................................. . 223
35.7- Bereinigung und lokaler Zerfall einer Matrix ..... . 226
·35.8. Besonderheiten bei singularer Matrix B ......... . 226
35.9. Transformation auf obere Dreiecksmatrix ....... . 228
• 35.10. Einfiihrung von Linkseigenvektoren ............ . 230
§ 36. EinschlieBungssatze fiir Eigenwerte und Eigenvektoren .. 233
·36.1. Dberblick. \Yozu EinschlieBungssatze? ......... . 233
·36.2. Die Satze von Gerschgorin und Heinrich. Der Kreis-
ringsatz .................................... . 235
36-3. EinschlieBung isolierbarer Eigenwerte bei Diagonal-
dominanz ................................... . 239
·36.4. Quotientensatze. Der Rayleigh-Quotient ......... . 239
·36.5. Der Satz von Krylov und Bogoljubov und seine \' er-
scharfung von Temple ........................ . 242
·36.6. Der Perturbationssatz fiir hermitesche Paare .... . 245
·36.7. Der Satz Acta Mechanica fiir hermitesche positiv
definite Paare ............................... . 248
·36.8. Der Satz Acta Mechanica ftir norm ale Paare ..... . 255
• 36.9. Der Satz Acta Mechanica mit vorgezogener Zentral-
transformation .............................. . 259
.36.10. Der Determinantensatz ........................ 260
36.11. Komponentenweise EinschlieBung von Eigenvek-
toren normaler Paare .......................... 267
36.12. EinschlieBung bei Mammutmatrizen . . . . . . . . . . . .. 269
.36.13. Zusammenfassung. Schlu13bemerkung . . . . . . . . . . .. 270
§ 37. Determinantenalgorithmen ........................... 271
.37.1. Dbersicht .................................... 271
• 37.2. Die direkte Methode. Explizites und implizites Vor-
gehen ....................................... 272
37-3. Systematisierte Suchmethoden . . . . . . . . . . . . . . . . .. 274
XII Inhal tsycrzcichnis

·37.4. Die Ritz-Iteration ........................... . 275


37.5. Ritz-Iteration mit vorgezogener Zentraltransforma-
tion ........................................ . 279
37.6. Der Algorithmus Bonaventura ................. . 282
• 37.7. Der Algorithmus Securitas. GleichmaI3ige Konver-
genz gegen das Spektrum ..................... . 285
37·8. Der Algorithmus Securitas fUr singulare Paare ... . 293
37.9. Einige Varianten zum Algorithmus Securitas .... . 295
·37.10. Iterative EinschlieI3ung von Eigenwerten ....... . 298
37·11. Ein N achtrag ............................... . 303
§ 38. Extremalalgorithmen ................................ 304
• 38.1. Das Prinzip. Dberblick ........................ 304
38.2. Koordinatenrelaxation bei hermiteschen Paaren .. 305
.38.3. Defektminimierung durch Schaukeliteration ...... 305
38.4. Weitere Extremalalgorithmen. SchluI3bemerkung 309
§ 39. Unterraumtransformationen .......................... 310
39.1. Das Prinzip .................................. 310
39.2. Kongruenztransformationen mit J acobi-Strategie 311
39·3· Ahnlichkeitstransformationen mit J acobi-Strategie 311
39.4. SchluI3bemerkung............................. 312

§ 40. Potenzalgorithmen .................................. 312


.40.1. Die Potenziteration nach yon Mises ............. 312
• 40.2. Die Potenziteration fUr Matrizenpaare ........... 316
.40·3· Simultaniteration............................. 319
.40.4. Iteration gegen Linkseigenvektoren. Verbesserter
Ritz-Ansatz und Spektralumordnung ............ 325
• 40.5. Die inverse (gebrochene) Iteration von Wielandt .. 326
40.6. MaI3nahmen zur Konvergenzbeschleunigung ...... 328
40.7. Ritz-Ansatz oder Orthonormierung? Ein KompromiI3 329
40.8. Simultaniteration mit n Startvektoren. Direkte Cni-
tarisierung ................................... 330
40.9. Dreiecks- und Diagonalalgorithmen ............. 331
40.10. Aquivalenztransformation auf obere Dreiecksma-
trix ......................................... 334
40.11. Ahnlichkeitstransformation auf obere Dreiecksma-
trix ......................................... 338
40.12. Kongruenztransformation hermite scher Paare auf
Diagonalmatrix ............................... 342
40.13. Transformation auf obere Blockdreiecksmatrix ... 343
40.14. Dreiecks- und Diagonalalgorithmen mit progressi-
vern Schift ................................... 345
Inhalts\'erzeichnis XIII

40.15. Sukzessive Ordnungserniedrigung oder gleichmaJ3ige


Konvergenz gegen das Spektrum? .............. 349
• 40.16. GleichmaBige Konvergenz gegen das Spektrum
durch partielle Ahnlichkeitstransformation 351
40.17. Die Transformation singularer Matrizen auf Normal-
form ........................................ 356
.40.18. Der WSS-Algorithmus (\\'ielandt-Iteration mit se-
quentiellem Schift) ............................ 359
• 40.19. Der WSS-Algorithmus filr normale Paare ........ 363
.40.20. Der Globalalgorithmus Velocitas ................ 364
40.21. Singulare Paare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
• Resilmee zum X. Kapitel. Was will der Praktiker? ...... 371

XI. Kapitel. Die nichtlineare Eigenwertaufgabe

§ 41. Die nichtlineare Eigenwertaufgabe mit einem Parameter 378


• 41.1. Dberblick. Zielsetzung ........................ . 378
41.2. Polynommatrizen. Expansion ................. . 379
41.3· Parameterdiagonalalmliche und parameternormale
Polynommatrizen ............................ . 382
41.4. Die Bequemlichkeitshypothese. (Modale Dampfung) 383
• 41.5. Der Algorithmus Bonaventura ................. . 390
• 41.6. Die Taylor-Entwicklung des Schur-Komplements .
(Der T-S-Algorithmus) ........................ . 392
41.7- Der T-S-Algorithmus mit hOheren Ableitungen .. . 398
• 41.8. Defektminimierung .......................... . 400
41.9. Parameterabhangige Transformationsmatrizen ... . 401
41.10. EinschlieBungssatze .......................... . 402
.41.11. Zusammenfassung und Ausblick ............... . 402
§ 42. Das mehrparametrige Eigenwertproblem .............. . 403
• 42.1. Aufgabenstellung. Probleme und Begriffe ....... . 403
42.2. Parameterdiagonalahnliche und parameternormale
Matrizen .................................... . 404
.42.3. Das zweiparametrige Eigenwertproblem ........ . 406

XII. Kapitel. Matrizen in der Angewandten Mathematik und Mechanik

§ 43. Auflasung skalarer Gleichungen durch Expansion. Der


Eigenwertalgorithmus ECP . . . . . . . . . . . . . . . . . . . . . . . . . .. 410
.43.1. Problemstellung .............................. 410
.43.2. Lasung algebraischer Gleichungen durch Diagonal-
expansion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 411
XIV Inhaltsverzeichnis

.43.3· EinschlieBung von Nullstellen .................. 414


.43.4. Die inverse Iteration von Wielandt .............. 415
.43.5. Ritz-Iteration und Bonaventura................ 417
.43.6. Iterative EinschlieBung und sukzessive Aktuali-
sierung. Globalalgorithmus ..................... 422
.43.7. Der Eigenwertalgorithmus ECP (Expansion des
charakteristischen Polynoms) ................... 425
.43.8. Zur Wahl der Stlitzwerte ...................... 431
.43.9. Zusammenfassung ............................ 434
• Reslimee zu den numerischen Methoden ............... 435
§ 44. Die linearisierte Mechanik von Starrkorperverbanden .... 438
.44.1. Die linearisierte Mechanik . . . . . . . . . . . . .. . . . .. ... 438
• 44.2. Der frei bewegliche Verband von starren Korpern 440
.44.3. Offene und geschlossene Schreibweise. Elimination
und Kondensation ............................ 441
44.4. Bindungen und Reaktionen .................... 443
.44.5. Die ebene Gelenkkette ... . . . . . . . . . . . . . . . . . . . . .. 445
§ 45. Diskretisierung und Finitisierung hybrider Strukturen ... 451
.45.1. Problemstellung .............................. 451
.45.2. Diskrete Modelle ............................. , 452
.45.3. Der Ubergang zum Kontinuum ................. 452
.45.4. Finite t'bersetzungen . . . . . . . . . . . . . . . . . . . . .. . . .. 457
.45.5. Hybride Systeme ............................. 457
.45.6. Finite-Elemente-Methoden (FEM) ............... 458
.45.7. Zusammenschau.............................. 460
Literatur zu Teil 1 und Teil 2 461
Namen- und Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 471
Inhalt des 1. Teils xv
Inhalt des 1. Teils
Grundlagen
I. Kapitel. Der Matrizenkalkiil
§ 1. Grundbegriffe und einfache Rechenregeln
§ 2. Das Matrizenprodukt
§ 3. Die Kehrmatrix
§ 4. Komplexe Matrizen
§ 5. Lineare Abbildungen und Koordinatentransformationen

II. Kapitel. Lineare Gleichungen


§ 6. Der GauBsche Algorithmus
§ 7. Lineare Abhangigkeit und Rang
§ 8. Allgemeine lineare Gleichungssysteme
§ 9. Orthogonalsysteme
§ 10. Polynommatrizen und ganzzahlige Matrizen

III. Kapitel. Quadratische Formen nebst Anwendungen


§ 11. Quadratische Formen
§ 12. Einige Anwendungen quadratischer Formen

IV. Kapitel. Die Eigenwertaufgabe


§ 13. Eigenwerte und Eigenvektoren
§ 14. Diagonaliihnliche Matrizen
§ 15. Symmetrische und hermitesche Matrizen
§ 16. Normale und normalisierbare Matrizen
§ 17. Eigenwerte spezieller Matrizen

V. Kapitel. Struktur der Matrix


§ 18. Minimumgleichung, Charakteristik und Klassifikation
§ 19. Die Normalform. Hauptvektoren und Hauptvektorketten
§ 20. Matrizenfunktionen und Matrizengleichungen
§ 21. Parametermatrizen

VI. Kapitel. Blockmatrizen


§ 22. Definitionen, Siitze und Regeln
§ 23. Expansion von Polynomen und Polynommatrizen

SchluBbemerkung
Weiterfiihrende Literatur
Namen- und Sachverzeichnis
VII. Kapitel

Grundziige der Matrizennumerik

§ 24. Grundbegriffe und einfache Rechenregeln


.24.1. Reine Mathematik, Numerische Mathematik
und Angewandte Mathematik. Einige Vorbemerkungen
Mathematik ist eine Wissenschaft, Rechnen ist eine Kunst. Wir
haben im Teil1 dieses Buches die mathematischen Grundlagen er-
arbeitet, soweit sie fUr das praktische Rechnen erforderlich sind; jetzt
stehen wir vor der Aufgabe, die inhomogene bzw. homogene Matrizen-
hauptgleichung
F(A) x = r bzw. F(A) x = 0
konkret zu lasen. Einige Vorbemerkungen zu dieser Aufgabe sind un-
erHiBlich.
I. Die Dreiteilung in reine,
numerische und angewandte :\Iathematik
Reine Mathematik: AufstelIen mathematischer Satze. Beweistech-
nik. Existenz und Ein- oder ~Iehrdeutigkeit der Lasung.
Numerische Mathematikl : Faktische Durchfiihrbarkeit. Erfinden
von Algorithmen.
Angewandte Mathematik: ModelIbildung zu den Problemen aus
Technik, Geistes- und N aturwissenschaft. Ubersetzung von auBer-
mathematischen FragestelIungen in solche der :\lathematik. Be-
schaffung der Daten, die der .-\lgorithmus verarbeiten solI. Deutung
und Auswertung der Ergebnisse.
Dazu ein typisches Beispiel. Zu lasen ist das Gleichungssystem
A x = r mit nicht verschwindender Determinante.
1. Reine Mathematik. Es existiert eine eindeutige Lasung x. J ede
Komponente ist getrennt von den iibrigen nach der CRA~IERSchen
Regel (3.20) alsQuotient zweier Determinanten zu gewinnen; insgesamt
waren somit n + 1 Determinanten nach dem Entwicklungssatz zu
berechnen, das sind n +
1 mal n! :\Iultiplikationen und fast ebenso

1 Umfassender Praktische 1Iathematik. Dazu ziihlt unter anderem die Nomo-


graphie, die graphische Statik (Kraft- und Seileck), wie uberhaupt eine Fulle von
zeichnerischen Methoden.
2 § 24. Grundbegriffe und einfache Rechenregeln

viele Additionen, fUr It = 10 beispielsweise 39916800 1Iultiplika-


tionen.
2. Numerische :Mathematik. Yorherige Transformation auf ein ge-
staffeltes Gleichungssystem nach dem GAussschen Algorithmus 2 • Ge-
samtaufwand rund n3f3 Operationen, das sind fur It = 10 weniger als
400 an stelle von fast 40 l\Iillionen nach CR.UIER.
3· Angewandte Mathematik. Als Beispiel zeigt die Abb. 24.1 ein
Bauwerk mit der Gleichgewichtsbedingung ..t ;r = ". Dabei besteht die
folgende Zuordnung:

I
I
tg

1 I
Abb.2-1.1. Zur Statik dill's Bauwerkes

Matrix A ~ Geometrie und :\Iaterialkonstanten des Bauwerkes,


Vektor r ~ Belastung (auch \Yiirmedehnung) des Bauwerkes,
Vektor;r ~ Weg- und Kraftgr6I3en.
1m allgemeinen sind die :\Iatrix A und der Yektor " gegeben, und der
Vektor;r wird gesucht .

.. . .iT···

··~i\'11
.. ::~::

:: .
' . "::::EO,.·
J~gewc~cte
<d
Mothe;r,ot;~er
terech~ende !ngenieure

:;;:";",";~;"JI,Jw:*~';.g;";,, H~";::k;i1~;\t;;:~::c~;YC{~\;{;{;
Abb.2 . 1-.2. Besiedlungsdicht{· cler komplexl'1l ZahlC'I1ebene nach H. \". Sandell

Die Angewandte Mathematik gilt unter Studierenden als die schwie-


rigste aller Disziplinen; es sind die bereits in der Schule gefUrchteten
"eingekleideten" Aufgaben, bei denen man sich etwas den ken muI3,

2 Wie man heute weiB, den Chinesen bereits vor 2000 J ahren bekannt.
24.1. Reine Mathematik, ~umerische :'IIathematik, Angewandte :'IIathematik 3
wahrend reine Mathematik auswendig gelernt werden kann und zumeist
aueh wird. Die Abb. 24.2 zeigt die Auswirkung dieser im Kindesalter
vorprogrammierten Fehlsteuerung auf Forsehung und Wissenschaft:
fangs der Aehsen herrseht diehtes Gedrangel; dort, wo Mathematik erst
lebendig und interessant wird, dafUr weitgehend :".Iensehenleere, ein
Zustand, der sieh - hoffentlich! - andern wird dureh das Eindringen
der Tasehenreehner und Heimcomputer in das BewuBtsein der Offent-
liehkeit. Dem Leser sei zu dieser Thematik die Lekture der Auto-
biographie von KONRAD ZUSE :46: dringend empfohlen, speziell der
Seiten 146 und 147, wo der Verfasser in ebenso geistreieher wie seherz-
hafter Manier uber abgewandte, angewandte, gewandte und ab und zu
gewandte Mathematiker plaudert. ZUSE trifft damit genau das zur
Zeit dringendste Problem der :'IIathematikausbildung an unseren
Teehnisehen Hoehsehulen und Cniversitaten.

II. Fiktion und Wirkliehkeit


Papier ist geduldig, der Rechenautomat seiner Natur nach aueh,
aber es ist eben wider die Natur einer digitalen :'\Iasehine, die mit
endlich vielen Stellen reehnet, Entscheidungen zu verlangen, die erst
im Unendliehen zu treffen sind und sieh daher, so wie sie auf dem
Papier stehen, nieht im Automaten realisieren lassen.
Was gemeint ist, erkennt man am besten an der Erzeugung einer
Null. Die Frage Null oder nieht Null ist fur die lineare Algebra in
Theorie und Praxis buehstablieh die Frage um Sein oder Nichtsein
und daher von existentieller Bedeutung. ~ehmen wir einige Beispiele:
1. Stabilitat eines Gleiehungssystems A x = J': det A ~ ull oder nicht
Null ?
2. Gleiehheit zweier Eigenwerte Ai und }'k der Gleichung F(A) x = 0:
Ai - Ak = 0 oder =1= o? Davon abhangig Rangabfall und Struktur
der Matrix, n linear unabhangige Eigenvektoren vorhanden oder
Hinzunahme von Hauptvektoren erforderlieh, Diagonalahnlichkeit
oder JORDAN-Form?
3. Orthogonalitat (im Komplexen Unitaritat): yT x bzw. y* x Null
oder nieht Null? Davon abhangig eine Reihe von Algorithmen, die
auf der Unitaritat basieren, z.B. die Rotation von JACOBI.
Da die Null indes ein Gedankending ist (in der :'Ilasehine entsteht sie
h6ehstens bei ganzzahliger Rechnung mit nicht zu groBen Zahlen),
brieht damit das ganze Gebaude der linearen Algebra "in Wirklich-
keit" zusammen; ubrig bleibt eine Fiktion: das intellektuelle Spiel mit
Gesetzen, deren souverane Beherrschung fUr den ~ umeriker hin-
wiederum mehr als ein Spiel ist; denn allein die profunde Kenntnis der
Theorie versetzt ihn in die Lage, die Reaktionen der :'\laschine zu ver-
4 § 24. Grundbegriffe und einfache Rechenregeln

stehen und ihre Warnsignale - etwa drohenden Dberlauf - recht-


zeitig zu beachten und Gegenmal3nahmen einzuleiten.

III. Stellenkult und ComputergHi.ubigkeit


Merksatz: Je weniger Rechmlng, desto "luniger Fehler.
Gegen diese banale Schiilerweisheit wird heute in unglaublichem
Mal3e verstol3en. Verfiihrt durch die Moglichkeit des digitalen Rechen-
automaten glaubt fast jedermann an die Cnfehlbarkeit der "schwarzen
Kiste", die es schon bringen wird, egal wie. Dabei geht es weniger urn
die vergeudete Rechenzeit, die ja bezahlbar ist, falls man mit Geld
nicht rechnen mul3 (an den CniversiUiten zum Beispiel), als urn die
Anhaufung von Rundungsfehlern, die das Ergebnis urn so mehr in
Frage stellen, je langer gerechnet wird. Es ist daher besser, einen
Algorithmus vorzeitig abzubrechen und sich mit einer mathematisch
exakten, wenn auch relativ groben Einschliel3ung zufriedenzugeben -
etwa: ein Eigenwert liegt zwischen 17,6 und 17,9 - als endlos "weiter-
zunudeln" im Vertrauen darauf, dal3 jene Dezimalstellen, die sich nicht
mehr andern, richtig sind, was im allgemeinen auch zutreffen wird,
aber auch eben nur im allgemeinen.

IV. Algorithmen mit und ohne Vergangenheit


Nicht nur die gescheite Rechnerin vor der Maschine 1 , auch der
Algorithmus in der :\Iaschine lebt mit und ohne Vergangenheit. Wir
haben demnach zwei Kategorien zu unterscheiden:
I. Kategorie. Ein erster Schritt determiniert die gesamte Zukunft des
Algorithmus. Ein Eingreifen ist nicht mehr moglich; einmal begangene
Fehler sind nie wieder gutzumachen. Hierhin gehoren beispielsweise
die Dreieckszerlegungen von CHOLESKY bzw. BANACHIEWICZ, die Ko-
ordinatenverschiebung eines Poly noms nach HORNER und andere
Rechenanweisungen.
II. Kategorie. ] eder Schritt ist ein erster Schritt. Das Verfahren hat
zwar Vergangenheit, doch wird diese bei jeder Regeneration (Auf-
frischung, A ktualisier ung) a bgestol3en: es erfolgt ein neuer Start unter
von :\Ial zu Mal besseren Anfangsbedingungen.
Postulat: Nur ein Algorithmlls ohne rergangenheit ist prinzipiell
lebensfahig.
Aul3erhalb dieser Klassifizierung ist noch folgendes wichtig. Algo-
rithmen, die entweder im Laufe der Rechnung Teile der Gesamt-
information abstol3en (Ordnungserniedrigung, Deflation o. a.) oder
1 Dabei fallt mir ein: wenn in diesem Euch (wie in anderen Eiichern auch) immer
vom Leser die Rede ist, so ist die geneigte Leserin selbstredend mit eingeschlossen,
auch wenn dies nicht jedesmal C'xpressis "erbis "ermerkt wird.
24.1. Reine Mathematik, Numerische xIathematik, Angewandte :\Iathematik 5
von vornherein darauf verzichten (Verfahren von RAYLEIGH-RITz) sind
mi:iglichst zu vermeiden. Dazu pragen wir uns ein den
Merksatz: jeder Algorithmus, der die GesU'lutinformation leugnet.
ist seiner N atur nach zum Scheitern verurteilt.
Etwas weniger polemisch formuliert: er kann nur Naherungen lie-
fern. die nachtraglich auf andere Weise zu verbessern und mi:iglichst
einzuschlieBen sind.
Den iiberzeugendsten Beweis dieser Thesen liefern die im § 43 be-
schriebenen Nullstellensucher von algebraischen Gleichungen. die
durch standige Aktualisierung unter Bewahrung der Gesamtinforma-
tion zum Resultat fiihren. wahrend so1che Algorithmen. die lineare
oder quadratische Faktoren iiber das ein- oder doppelzeilige HORNER-
Schema abspalten (und damit die Gesamtinformation ignorieren). schon
bei Ordnungszahlen ab n = 20 ohne Ergebnis zusammenbrechen oder.
was weitaus schlimmer ist. mit Lottozahlen Ergebnisse vortauschen.
Ein Beispiel dazu gibt STOER in ~41. S. 221J.

V. Makro- und Mikronumerik


Die Technische Mechanik des berechnenden Ingenieurs ist seit den
Modellvorstellungen von BER~OULLI und KIRCHHOFF eine reine
Makromechanik. Zwar werden die Elemente des starren oder verform-
baren Ki:irpers als unendlich klein gedacht. aber nicht so klein. daB
der Aufbau des kristallinen oder amorphen Gefiiges. die Beschaffenheit
der Molekiile und Atome in die der ~Iechanik zugrundeliegenden
Gleichungen bzw. Differentialgleichungen eingehen. Erst wenn ein
Bauteil zu Bruch geht. erlangen so1che Fragen innerhalb der Werkstoff-
kunde. die ein Teil sowohl der Physik wie der Chemie ist. Bedeutung.
A.hnlich in der Numerik. Die Algorithmen. mit denen der Anwender
rechnet. sind reine Makronumerik; erst wenn die Rechnung versagt.
wird - erzwungenermaBen - die Frage nach der :Mikrostruktur des
numerischen Ablaufes relevant. Dazu gehi:iren in erster Linie: Fehler-
fortpflanzung (Rundungsfehleranalyse). Stellenausli:ischung. Intervall-
arithmetik und einige verwandte Problemstellungen. die auch auBer-
halb der linearen Algebra von grundlegender Bedeutung sind. Der an
diesen Fragen interessierte Leser orientiere sich bei BU~SE/BuNSE­
GERSTNER [31. s. 30-36J. MAESS [37. S. 11-38J und STOER [41
S. 1-30. ferner S. 148-162J.
Indessen bahnt sich eine - revolution are - Entwicklung an durch
die von KULISCH und seinen ~1itarbeitern geschaffene neue Arithmetik
ACRITH. nachzulesen in [136aJ und [136bJ. die vi:illig neue Wege geht.
Kernstiick dieser Methode ist das Skalarprodukt l,' a i bi , auf das sich
nahezu samtliche Operationen der linearen Algebra zuriickfiihren
6 § 24. Grundbegriffe und einfache Rechenregeln

lassen. Da die neuen Rechner mit belie big langer :\Iantisse arbeiten,
muB nach AusfUhrung des Skalarproduktes nur ein einziges ~Ial gerun-
det werden, und zwar zur sicheren Seite hin. AIle Spekulationen iiber
die zufaIlsverteilten Rundungsfehler mit ihrer meist zu pessimistischen
Einschatzung sind daher gegenstandslos, womit eine neue Ara der
Mikronumerik eroffnet wird. \Yer sich nur kurz unterrichten will,
lese die einfUhrende Arbeit yon ~IATHIS und KA:-'UTZ [136c] .

• 24.2. Die Lange einer Operationskette. Vorwarts- und Riickwartsrechnen


Nicht die Anzahl der Rechenoperationen ist es, die infolge unvermeid-
licher Rundungsfehler ein Ergebnis verHi.lscht, sondern die Lange der
Operationskette (z.B. eines Skalarproduktes) gibt den wesentlichen
Ausschlag fUr die Stabilitat einer Rechnung. Dies ist jedem klar. Lost
man beispielsweise 100 ~Iillionen quadratische Gleichungen, so wird
die erste wie die letzte die jeweils zwei KuIlsteIlen mit gleicher Ge-
nauigkeit liefern einfach deshalb, weil es sich insgesamt gesehen urn
eine zwar sehr groBe Anzahl von Operationsketten handelt, deren
jede extrem kurz ist, und allein das ist entscheidend. Priifen wir
daraufhin das Produkt y = A:£ mit einer 1t - n-Matrix von relativ
geringer Breite b, jedoch hoher Ordnung 1t. Die Komponenten YI des
Vektors y sind die n voneinander unabhangigen Skalarprodukte
Yi = aj,i-b Xj_b + ... + a j i xi + aU-.-1 Xj+l + ... + ai, j+b Xj-,.b (1)
der Lange 2 b + 1, die sich urn so genauer berechnen lassen, je kleiner
die Breite b, je kiirzer also die einzelne Kette ist: wir nennen diesen
Vorgang Vorwartseinsetzen oder Yorwartsrechnen. Dagegen besteht
die umgekehrte Aufgabe, die Ermittlung von :£ = A-I Y aus einer
einzigen Produktkette von groBer Lange, wobei die Anzahl der Gesamt-
operation en exakt die gleiche ist wie die zur Errechnung des Bild-
vektors y = A:£.
Die Lange der yom ersten Schritt an determinierten Operationskette
hat zur Folge, daB an stelle des gesuchten Vektors:£ ein fehlerbehafteter
Vektor!i entsteht, der als Naherung zu betrachten ist, und dieser wird
urn so unzuverlassiger, je groBer die Zahlen n und b sind. Dagegen ist
der sogenannte Defektvektor (auch Rest- oder Residuumvektor)
d : = A ;i - y =F 0 , (2)
weil durch Vorwartsrechnen mit vielen, aber kurzen Ketten nach (1)
entstanden, sehr vie I genauer errechenbar und deshalb als ein verlaB-
liches MaB fUr die Vertrauenswiirdigkeit des durch Riickwartsrechnung
entstandenen Naherungsvektors !i zu betrachten.
Noch ein zweiter Aspekt ist in diesem Zusammenhang von Wichtig-
keit. Wahrend die Vorwartsrechnung y = A :£ nach (1) keine Division
24.2. Die Lange einer Operationskette 7

erfordert, zerstort die Umkehraufgabe x = A-I Y im allgemeinen yom


ersten Schritt an infolge der erforderlichen Divisionen die (etwa vor-
gegebene) Ganzzahligkeit und zwingt dadurch zur Aufrundung; ein
ProzeB, der bei Vorwartsrechnung lange hinausgeschoben, ja bei
kurzen Ketten oft ganz vermieden werden kann. Pragen wir uns nach-
haltig ein: Bestiinde dieser grundlegende L n terschied zwischen Vor-
warts- und Riickwartsrechnung nicht, so konnte die Genauigkeit einer
langeren Rechnung gar nicht iiberpriift werden, und das ware das
Ende jeder Matrizennumerik! ~Iachen wir uns diesen Sachverhalt
nochmals an einem Beispiel klar. Die Herstellung der Inversen K
einer vollbesetzten Matrix A erfordert genau n 3 ~Iultiplikationen (bzw.
Divisionen) und n 2 (n - 1) Additionen (bzw. Subtraktionen), von denen
mehr als zwei Drittel in einer einzigen Kette verflochten sind. Die
Kontrollrechnung A K = I dagegen zerfallt in n 2 getrennte Ketten
der Lange n, und erst dies macht die unerlaBliche Einsetzprobe genauer
als die von Schritt zu Schritt sich verschlechternde, zudem divisions-
behaftete Berechnung der Kehrmatrix K.
Drittens rufen wir uns ins Gedachtnis zuriick, daB die Anzahl der
erforderlichen Operationen wesentlich abhangt von der Reihenfolge,
in der ein mehrfaches Produkt ausgefiihrt wird. Auch dazu ein iiber-
zeugendes Beispiel. Es seien A und B quadratische vollbesetzte Ma-
trizen der Ordnung n = 100, Y und x dazu passende Vektoren, {3 ein
Skalar, und zu berechnen ist die Bilinearform b = yT {3 A B x. In der
Reihenfolge {3 A, ({3 A) B, ({3 ~4 B) x, yT({3 A B x) = b kostet dies
n 2 + n 3 + n 2 + n = 1020100 :\Iultiplikationen und fast ebensoviele
Additionen, dagegen in der Reihenfolge B x, ~4(B x), yT(A B x),
{3(yT A B x) nur n 2 + n 2 + n + 1 = 2 n 2 + n + 1 = 20101 Multi-
plikationen und etwa ebensoviele Additionen. Der Unterschied ist also
betrachtlich!
Eine immer wiederkehrende Produktkette (etwa bei den ()ber-
tragtmgsmatrizen der Mechanik oder bei der Potenziteration nach
VON MISES) ist die folgende

(3)
Hier ist jedem klar, daB der Vektor Zk von rechts nach links, niemals
von inn en heraus berechnet wird. Weniger evident ist dies schon beim
mehrfachen Produkt von lauter quadratischen Matrizen
(4)
Auf den erst en Blick scheint es gleichgiiltig zu sein, mit welcher Matrix
die Multiplikation begonnen wird; doch werden wir im Abschnitt 27.10
erkennen, daB sich auch hier die :\Iultiplikation beginnend mit Lk oder
Rk als die vorteilhafteste erweist.
8 § 24. Grundbegriffe und einfache Rechenregeln

Als Fazit aller dieser AusfUhrungen beenden wir dies en Abschnitt


mit dem
Mer ksa tz: Vorwiirtsreclznung geht t'or Riickwiirtsrechnung. Viele
kurze Ketten sind gunstiger als wemge lange, selbst u;enn der Gesamt-
aufwand fur diese geringer ist.

24.3. Verfahren mit Vorgabeverlust


Eine groJ3e Zahl von Algorithmen erfordert eine Vorleistung, von der
man hofft, daJ3 sie sich im weiteren Verlauf der Rechnung bezahlt macht.
Die dieser Vorleistung geopferte Zeit nennen wir die Totzeit T. Sie
erbringt bezuglich der eigentlichen Fragestellung, etwa nach den Eigen-
werten eines Matrizenpaares, keinerlei Information. Startet aber zur
Totzeit T der bis dahin lediglich aufbereitete Algorithmus, so kann
dieser nun sehr viel schneller laufen und daher den langsamer arbei-
tenden Algorithmus im direkten Zugriff (das heiJ3t ohne Vorleistung)
bei einer gewissen Zeit T ein- und uberholen, siehe dazu Abb.24.3.

!nformotion
Algorithmus mit n
Vorleistung ~.
. direkter Zugriff
IAlgorithmus ohne Vorleistu~gJ

. T r Zeit f
1---Totzeit--I
Abb.24.3. Direkter Zugriff lund Algorithmus mit Vorleistung II

Wirtschaftlich ist ein solches Vorgehen naturlich nur dann, wenn nicht
im direkten Zugriff zur Zeit T (oder friiher) der Algorithmus die ge-
wunschte Information (etwa die Berechnung einiger Eigenwerte auf
nur zwei oder drei gultige Stellen) hatte ebenfalls liefern konnen.
Beispiele fUr solche Vorleistungen sind:
1. Spektralverschiebung oder Schiftung. (Von to shift, verlegen, den
Ort verandern.)
2. Die Transformation eines Paares A; B auf eine spezielle Form, etwa
B-1 A; I oder H; 1, wo Heine Fastdreiecksmatrix ist.
3. Abspalten von naherungsweise bekannten Eigendyaden; Ordnungs-
erniedrigung.
4. Bilden von Polynomen P(A) einer :\latrix A.
5. Vorgezogene Orthogonalisierung, Skalierung und verwandte MaJ3-
nahmen zur Verbesserung der Kondition einer ~latrix.
6. Der SYLVESTER-Test bei hermiteschen :\latrizen.
7. Expansion eines Matrizentupels.
24.4. l\Iatrizen mit ausgepragtem Profil 9

In der Praxis sind solche Vorleistungen fast die Regel, und es gibt kaum
einen Algorithmus, der nieht mindestens eine der genannten Opera-
tionen verlangt. Ausnahmen sind die Potenziteration naeh VON MISES
[197J, die JACOBI-Rotation naeh FALKjLAXGDlEYER [172J und einige
wenige andere.

24.4. Matrizen mit ausgepriigtem Profil


Das Profil einer Matrix wird bestimmt dureh Anordnungsart und
Anzahl ihrer regelmaBig verteilten Nullen. Wir unterseheiden die
folgenden Typen.
a) Diagonalmatrix, speziell Skalarmatrix, noeh spezieller die Ein-
heitsmatrix:
S = Diag (s); 1= Diag (1) . (5)
b) Bandmatrix. Sie ist (mindestens) besetzt in der Hauptdiagonale
(deren Elemente aueh samtlieh gleieh Null sein di.irfen), auBerdem
laufen noeh bl Kodiagonalen (Nebendiagonalen) unten links und b,
Kodiagonalen oben reehts nebenher naeh folgendem Schema

(6a; b)

wo bl als linksseitige und b, als reehtsseitige Bandbreite bezeiehnet wird.


In den Anwendungen ist meistens bl = b, = b. In dieser Ausdrueks-
weise hat die Diagonalmatrix die Bandbreite b = 0 und die voll-
besetzte Matrix die Bandbreite b = n - 1. Eine )latrix T mit je
eincr Kodiagonale links und reehts heiSt Tridiagonalmatrix; hierhin
geh6rt aueh die Differenzenmatrix K (17.39).
c) Obere (untere) Dreiecksmatrix, mitunter aueh als reehte (linke)
Dreieeksmatrix bezeiehnet:

Eine Sonderform ist die JORDAx-JJatrix (19-3) mit nur einer einzigen
Kodiagonale. SehlieBlieh unterseheiden wir noeh eel/te (oder aueh
10 § 2~. Grundbegriffe und einfache Rechenregeln

strikte) Dreiecksmatri::en, deren Diagonalelemente gleich Null sind


0 a l2 a l3 alII 1 r0 0 0 01
0 0 a23 a21 0 0
-
~ = 0 0 0 0
a~H
- a 31 a32 0 (8a; b)
~ = 0

0
" . . ..........
0 0 ... 0 l~':l· ·~II~ ~IJ~ ·.·
• .... ~J
sowie das obere und untere Trapez

~~r~l ~ =

r~l (9a; b)

das sowohl zu den Bandmatrizen als auch zu den Dreiecksmatrizen


gehort.
d) Obere (oder untere) Fastdreiecksmatrix II (meistens als HESSE:\"-
BERG-Matrix bezeichnet) mit nur einer einzigen Kodiagonale. Sonder-
formen sind die Tridiagonalmatrix T (6b) und die Begleitmatrix P G
(23 ·8).

(lOa; b)

e) Ein weniger ausgepragtes Profil besitzt die Hiille, deren von ~ull
verschiedene Elemente sich mehr oder weniger regellos urn die Haupt-
diagonale scharen, etwa nach folgendem :\Iuster

(II a; b)

f) Schwach besetzte :\Iatrizen (sparse matrices). Die Xullen sind


regellos verteilt, aber von grol3er Anzahl. Die hohe Kunst des Rech-
nens besteht darin, diese Nullen bei nachfolgenden Operationen, wie
Transformation, Multiplikation usw. moglichst nicht zu zerstoren bzw.
numerisch zu nutzen.
24.4. l\Iatrizcn mit ausgepragtem Profil 11

g) Alles Gesagte iibertragt sich in leicht verstandlicher Weise auf


Blockmatrizen, so etwa die Blockdiagonalmatrix, Blockdreiecksmatrix
und andere, siehe auch (41). Eine Biille (11 a) Ial3t sich stets durch
eine Blocktridiagonalmatrix (11 b) umfassen, die dann als blockweise
Biille bezeichnet wird.
Eine Frage von groBter \richtigkeit ist naturgemaB die nach der
Erhaltung bzw. Zerstorung eines Profils, sei es infolge :\Iultiplikation
mehrerer Matrizen oder durch Invelsion einer :\Iatrix. Wie durch N ach-
rechnen leicht zu iiberpriifen, gilt fiir die :\Iultiplikation zweier :\Iatrizen
das folgende.
1. Diagonal- und Bandmatrizen. Das Produkt P = A B zweier Band-
matrizen der Breiten bA und bB hat die Breite

(12)

2. Dreiecksmatrizen. Das Produkt belie big vieler unterer (oberer)


Dreiecksmatrizen ist wiederum eine untere (obere) Dreiecksmatrix;
die Multiplikation ist somit profilerhaltend. Dagegen ist das Pro-
dukt aus unterer und oberer (oberer und unterer) Dreiecksmatrix
vollbesetzt.
3. Das Produkt aus einer oberen (unteren) Dreiecksmatrix mit einer
Bandmatrix der Breite b ist eine obere (untere) Fastdreiecksmatrix
mit b Kodiagonalen.
Nun zur Kehrmatrix, vorausgesetzt, daB diese existiert.
4. Die Inverse einer Diagonalmatrix ist eine Diagonalmatrix.
5. Die Inverse einer Bandmatrix ist vollbesetzt!
6. Die Inverse einer oberen (unteren) Dreiecksmatrix ist ihrerseits eine
obere (untere) Dreiecksmatrix mit den Bauptdiagonalelementenaijl.
7. Die Inverse einer Fastdreiecksmatrix ist vollbesetzt.
Die 5. Aussage ist schlechthin niederschmetternd, da gerade Band-
matrizen entweder infolge der physikalischen Katur des Problems
(Nachbarkopplung in der Strukturmechanik) oder als finite Dber-
setzungen von gewohnlichen linearen Differentialgleichungen in den
Anwendungen in Biille und Fiille auftreten. Insbesondere sei A; B
ein Paar mit den (kleinen) Bandbreiten bA und bB ~ 1 (B sei also keine
Diagonalmatrix). l\Iit B-1 ist auch im Paar B-1 A; I die Matrix B-1 .4
vollbesetzt
12 § 24. Grundbegriffe und einfache Rechenregeln

und dies hat zur Konsequenz, daB in keinem Stadium der Rechnung die
Produktmatrix B-1 A explizit in der :\Iaschine erscheinen darf, sondern
geschickt zu umgehen ist .

• 24.5. Die fiinf Lesarten eines Matrizenproduktes


Das Produkt P zweier zueinander pas sender Matrizen A und B
nach (1.7)

(14)

laBt sich auf verschiedene Weise interpretieren und auch numerisch


auswerten.
Lesart 1: Die komprimierte symbolische Schreibweise
P=AB, (15)
die lediglich als Rechenanweisung zu verstehen ist, wobei iiber die
konkrete Durchfiihrung nichts gesagt wird.
Lesart 2: Die ElementePik der ProduktmatrixP sind die Skalarprodukte
Pjk = ai bk • (16)
Lesart 3: P wird als Summe von n Dyaden vom Format m X p be-
rechnet
P = ~ bi +
a2 b 2 + ... +
an b n • (17)
Lesart 4: Es werden die P Eilder der Spalten b i berechnet
P=(Abl>Ab2, ... ,Abp)' (18)
Lesart 5: Es werden die m Zeilen

(19)

berechnet.
Es sel ausdriicklich hervorgehoben, daB die Anzahl der erforder-
lichen Operation en in jedem Fall die gleiche ist, namlich, wenn A
und B vollbesetzt sind, m . n . P :\Iultiplikationen und m . P . (n - 1)
Additionen, bei schwach besetzten ~Iatrizen weniger. Fiir Rechner in
Gruppenarbeit (teamwork) eben so wie fiir die (im Entstehen begriffene)
nachste Generation der - echten - Parallelrechner jedoch ist von
gr6Bter Wichtigkeit, daB bei jeder der vier angefiihrten Vorgehens-
24.6. Die l\Iatrizenmuitipiikation von \VI:<:OGRAD 13
weisen die erforderlichen Teiloperationen (Skalarprodukte, Dyaden,
Matrixvektorprodukte) in verschiedener Weise
a) in beliebiger Reihenfolge,
b) unabhangig voneinander und damit
c) gleichzeitig
durchgefiihrt werden konnen !
Fur die Rechnung von Hand (personal-computer) empfiehlt sich im
allgemeinen die Lesart 2. \' on den Lesarten 4 und 5 wird bei den im
Abschnitt 32.7 geschilderten progressiven Transformationen mit Vor-
teil Gebrauch gemacht.

24.6. Die Matrizenmultiplikation von Winograd


Durch einen von WI:':OGRAD :140] erdachten Kunstgriff kann der zur
Multiplikation zweier Matrizen erforderliche Rechenaufwand erheblich
reduziert werden, indem das Skalarprodukt zweier Vektoren der
Lange n
S = XlYl + Xd'2 + ... + x,,~I)'n~1 + xnY", (20)
sofern n gerade ist, folgenderma13en geschrieben wird
S = (Xl + Y2) (X2 + Yl) + ... + (X"~l + Yn) (xn + Yn~l)
- (Xl X2 + '" + X"~l Xn) - (YlY2 + ... + Yn~IYn) (21)
oder mit den drei angegebenen Teilsummen kurz
S=P-~-'rJ· (22)
Diese auf den erst en Blick abstrus erscheinende Berechnungsart macht
sich in der zweiten Lesart (16), die allein mit Skalarprodukten operiert,
bei voll oder doch fast voll besetzten ~Iatrizen bezahlt deshalb, weil
n Mal die gleichen Zeilen bzw. Spalten zu multiplizieren sind, namlich
die Summe ~ fur jede Zeile von A und die Summe 'rJ fur jede Spalte
von B. Als Verallgemeinerung von (22) wird dann
A B = P - (X + 1') =
.Pu P12 ... PIn) (' ~l + til ~1 + 'rJ2 ... ~1 + 'rJ n )
( ~2.1, ,P,2~ ....... ~2," _ ~2 .'..:1.. ~2. ~ :~ . : " : ~~ ~ .:n (23)

Pnl Pn2'" Pnn ~n T 'rJl ~"i 'rJ2 " . .;" + 'rJn.


mit dem Halbfertigprodukt P und dem Subtrahenden X + r. Diese
Ausfuhrung erfordert bei quadratischen vollbesetzten ~Iatrizen A und
B nur n 3 /2 + n 2 Multiplikationen, dafiir jedoch 3 n 3 /2 + 2 n(n - 1)
Additionen gegenuber n 3 ~Iultiplikationen und n 2 (n - 1) Additionen
bei der herkommlichen Berechnungsart, und da Additionen sehr viel
schneller vonstatten gehen als ~Iultiplikationen, bedeutet dies bei
14 § 2+. Grundbegriffe und einfache H.echenregelr.

groJ3en Ordnungszahlen n eine Ersparnis von fast 50% der Rechenzeit.


1st 11 ungerade, so wird im Skalarprodukt (20) der Summand 0 . 0
hinzugefiigt. Beim ~Iatrizenprodukt "4 B hat man somit die :\Iatrix A
durch eine Nullspalte und die ~Iatrix B durch eine Nullzeile zu er-
ganzen.
Erstes Beispiel. Es sei n = 4 und
;r = (2 1 - 3 2) T , Y= (1 -2 -1 I)T.
Wir berechnen der Reihe nach
P = (2 - 2) (1 -i- I) + (-3,1) (2 - I) = 0 - 2 = -2,
~=2'1+(-3)2=-4, II~' 1(-2) + (-1)' 1 = -3,
somit wird nach (22) s = ;rT Y = P- ~ - I) = -2 + 4 + 3 = 5.
Zweites Beispiel. Die Matrizen

A = (I: 0-1
~ -3
3
-~\;
5)
B = (_:
-1
~ _:
()
~)
0
(a)

1 2 -6 -1/ 1 3 6-7

sind nach WIl\OGRAD zu multiplizieren. \\"ir bcrechncn die 16 Elemente des Halb-
fertigproduktes P. Die vier ersten sind

Pn = (2 - 2) (1 + I) + (- 3 -:- 1) (2 - 1) = U- 2 = - 2, }
P12 = (2 + 1) (1 + u) -i- (- 3 -i- 3) (2 + 1) = 3 -i- 0 = 3 ,
(b)
PI3 = (2 - 5) (1 + +) -i- (- 3 -i- 6) (2 -i- 0) = -15 + 6 = - 9,
P14 = (2 + 0) (1 + 1) + (-3 -7) (2 -'- 0) = -+ - 20 = -16.

Die ubrigen sind in (d) cingetragen. Sodann sind die Subtrahenden


~I = 2·1 + (-3) .2 = -4, III = 1 . (-2) + (-1)·1
-3, }
~2 = 4·0 + 1· (-1) = -1 , 1)2 = n. 1 + 1 . 3 = 3,
(c)
~3 = 0 . (- I) + 3. 5= 15 , 1/3 = 4 . (- 5) + () . 6 = - 20,
~4 = 1· 2 + (-6)· (-1) = 8, 114 = 1 . () + 0 • (- 7) ~, u
zu berechnen, und damit wird nach (23)

-") C
+ Y)

-')
A B = P - (X =

C
3 -9 -1 -2-+
-2 0 -11 10 --+ 2 -21 -1
16 35 30 -20 12 18 -5 15
5 -12 8

-")
7 4 -24 16 11

4 15

~ (~ -2

-7
17
-12
10
35 -35
11

8
(d)
24.7. Die geometrische Rcihe 15

24.7. Die geometrische Reihe

Die aus dem Skalaren bekannte geometrische Reihe


(1 - m') = (1 - m) (m,-1 + m,-2 + ... + 1112 + 111 + 1), (24)
eine oft mit Vorteil benutzte Iclentitat, gilt eben so fur beliebige
quadratische l\Iatrizen
(I - .,.,1'') = (I - M) (M"-l + M"-2 + ... + M2 + M + 1), (24a)
wie man durch Ausmultiplizieren leicht bestatigt. enter der Voraus-
setzung, daB keiner der n Eigenwerte J'j des Paares.lI; I gleich Eins sei
j = 1,2, ... ,n (25)
hat die Matrix I - 111 und damit die }Iatrix I - .1I P keinen Eigenwert
Null; beide sind somit regular. Es existieren daher die Kehrmatrizen
(I - 2U)-1 und (I - .i1l' J-1, mit denen die Gleichung (25) von links
bzw. von rechts multipliziert werden kann, und da aIle hier auf-
tretenden Matrizen als Polynome ein und derselben }Iatrix .1I (man
setze I = llIO) vertauschbar sind, bestehen die beiden Identitaten

(I - ~1I') (I - .11)-1 = 8'_1 bzw. (I - .1IJ-I (I - .1/'') = 8'. __ 1


mit 8"_1:= .11"-1 + .l/"-2 + . , , + .1I + .11 + I
2

(26a; b) (27)

Die Berechnung der hier auftretenden Teilsummen laBt sich durch eine
geschickte Klammerung fUr die speziellen Indizes 1, 3, 7, 15 usw. erheb-
lich abkurzen, z. B. fUr v = 15

(28)
Anstelle der additiven Schreibweise (24a) tritt dann die multiplikative

(I - 11l2") =
(M2"-1 + I) .. , (illS + I) C;1I + 1) P1 + I) (M + I) (I -
4 2 .1I), (29)

ein Vorgehen, dessen N utzen fUr die }Iatrizennumerik zuerst von


SCHULZ [161J erkannt wurde, Die erforderlichen Potenzen werden dabei
in der Reihenfolge
M, .112.1I 2 = .1/4 , 11]4 .1/4 = .1Is usw. (30)
16 § 24. Grundbegriffe und einfache Rechenregeln

berechnet. Wir stellen fiir spater einige Indizes a aus (29) den Indizes v
aus (25) und (26) gegeniiber:
a 10 1 2 3 4 5 I 10 1 15 20 30 _ (30a)
vii 2 4 8 16 32 i 1024 132768 , 1048576: 10737411824' .
Nun zur Frage der Konvergenz. Verlangen wir, daB samliche Eigen-
werte des Paares .1I; I innerhalb des Einheitskreises der komplexen
Zahlenebene liegen oder anders ausgedriickt, daB der Spektralradius e
des Paares 111; I kleiner als Eins ist, so ist nicht nur die zur Invelsion
von 1- MV erforderliche Voraussetzung (26) erfiillt, sondern dariiber
hinaus konvergieren die Potenzen Ai der Eigenwerte gegen Null und
damit die Matrix "1'/" selbst gegen dIe Nullmatrix; die Faktormatrix
I -ll'P strebt dann gegen die Einheitsmatrix I, und dies bedeutet
offenbar den
Satz 1: Notwendig und hinreichend fur die Konvergenz der geometri-
schen Reihe 8,'_1 gegen die Matrix (I - llI',)-1 fur v -+ 00 ist, dafJ der
Spektralraditts des Paares 111; I kleiner als Eins ist:
Q(llI; I) < 1. (31)
Zufolge dieser Eigenschaft wird die :\latrix ~1I in den Anwendungen
geradezu als K onvergenzmatrix bezeic hnet; wir werden ihr noch des
ofteren begegnen. Zum Konvergenzverhalten siehe Abb.24.4 und
24.5.
iv ivl


••


• I
f

o! u u

• i. =u+.,·v

Abb.24.-J.. Kein Eigenw('rt des Paan:s.ll; I Abb.24.;. Kein Eigenwe.rt des Paares 4'1; I
ist gieich Eins liegt auOerhalb d"!s Kreises K mit dem
Spektralradius e

Unser Satz ist indessen noch nicht allgemein genug. Eine regulare
Matrix A werde aufgespalten in einen regularen Hauptteil H und den
Rest N = A - H, dann ist
A = H - N = H(I - JI-l X) = JI(I - .1I) mit M:= JI-l N, (32)
und die Inverse von A wird unter Bcnutzung von (27)
A-I = (I - .11)-1 JI-l = 8._ 1 (1 - M") H-l. (3~)
24.7. Die geometrische Reihe 17
Die Eigenwerte des Paares "ll; 1 sind aber nach Abschnitt 1}.7 die-
selben wie die des Paares N; H, so mit haben wir als Verallgemeinerung
von (31) den
Satz 2: Diegeometrische Reilze mit der Konvergenzmatrix"l'I = H-l N
konvergiert genau dann, wenn der Spektralradius des Paares N; H
kleiner als Eins ist:
e(N;H) < 1. (34)
Dieser Satz findet eine hochwichtige Anwendung. Das Matrizen-
paar A; B habe die Eigenwerte ai' und zu invertieren sei die Matrix
F(A) = A - A B oder allgemeiner mit Schiftpunkt A
F(~)=A-~B mit A:=A-AB, ~:=A-A. (35)
Dann ist
A A A

F-l(~) = (A - ~B)-l = (1 - ~ B-1 A)-lA-l


= (1 + ~ M + ~2 .1l2 + ... + ~"-1.11"-1) A-I, (36)
.t!
A A

und ein Vergleich mit (33) zeigt, daB M = ~ B-1 A, H = und


N = ~ B ist; es geht also urn die Eigenwerte des Paares ~ B; A oder
~B; A - AB oder auch B; (.4 - AB)/~, und das sind offenbar die
Werte ~/(ai - A), deren Betrage samtlich kleiner als Eins sein miissen
~
I(]j _ A I <
1
1 --+ I~I < la i -- AI , (37)

und damit haben wir den


Satz 3: Die geometrische Reihe fur
A

(A -= ([A - A BJ - ~ B)-l
~ Btl

mit der Konvergenzmatrix ill = ~ A-I B konvergiert im Innern eines


jeden Kreises der komplexen Zalzlenebene, der frei ist von Eigenwerten
des Paares A; B.

Abb. 2~.6. Zur Konvergenz der geometrischen Reihe

Aus Abb. 24.6 wird ersichtlich, daB die Konvergenzgeschwindigkeit


urn so gr6Ber ist, je naher der Punkt ~ am Schiftpunkt A liegt, und
das heiBt, je kleiner das Verhaltnis I~/RI ausfallt, wenn R der Ab-
stand von A zurn nachstgelegenen Eigenwert ak ist.
18 § 24. Grundbegriffe und einfache Rechenregeln

Die geometrische Reihe bildet die Grundlage fUr die leistungs-


fahigsten Iterationsverfahren sowohl zur L6sung von Gleichungs-
systemen bzw. zur Gewinnung der Kehrmatrix wie zur iterativen Ein-
schlieJ3ung von Eigenwerten beliebiger :\Iatrizenpaare.

24.8. Blockspektralmatrix und Blockmodalmatrix


Hat ein reelles Matrizenpaar .4; B die konjugiert-komplexen Eigen-
werte )'i = wi ± i6 i , so geh6ren dazu die Rechtseigenvektoren
xi = u i ± i't'i' Die Gleichung

A xi = )'i B J!i --+ .4(ui ± i 1") = (W j ± i 6 i ) B(u i ± i Vi) (38)


ist dann aquivalent den beiden reellen Gleichungen
A u i = wi B Uj - 6i B l'i} (39)
A·l'i = ()j B Ui + wi B "'i
oder auch

A ( U;. r;) ~ B (,,;. 'X;,; -,::) (40)

Es seien nun e reelle und a konjugiert-komplexe Eigenwerte vor-


handen. Dann ist in der Gleichung .4 X = B X A die Spektralmatrix A
nicht von der reinen Diagonalgestalt (14.5), sondern eine Block-
diagonalmatrix der Art

breelle Eigenwerte

% r'11'
"' '
A= (41)

Bl" 1
"ge oo<e .

Mit Hilfe der reellen Rechtsmodalmatrix


X = [Xl' .• Xe! U 1 { ' I ' .. Ud Va] (42)
und der ebenso aufgeteilten Linksmodalmatrix Y lassen sich A und B
auf A = yT A X und Ii = r T B X von der gleichen reellen Block-
diagonalform (41) transformieren.
Dazu ein Beispiel. Es ist
24.9. Der SYLVESTER-Test fur hermitesche Paare 19
Man findet die Eigenwerte Al = 4, }'2,3 = 2 ± i, dazu die Rechtseigenvektoren

und die Linkseigenvektoren

Mit den reellen Block-Modalmatrizen

4 3\
x = ( ~ 2-1) und l' = ( : ; :)
-1 -5 -5 -,) -1 0

entsteht das transformierte Paar


-4 o
A = yT AX = (
: o o :)
2 -1

von Blockdiagonalform.
Aus det (A - AB) = 0 folgt jetzt getrennt
a) (- 4 + A) = 0 ~ Al = 4 und

b) det(O- A 5-~A)= -5i.2-;-2ni.-25=()~i'2.3=2±i.


5-2A 0+).

24.9. Der Sylvester-Test fiir hermitesche Paare


V orgelegt sei das hermitesche Paar
A* =A; B* = B pos. deL (43)

und ein ree11er Schiftpunkt (shift point) A, dann ist auch die ~Iatrix
PtA) = A - A B hermitesch. Sie \Verde nach GAl'SS oder CHOLESKY
auf die Form gebracht

1 0 0 0 hll 0 0 ... 0 112 r 13 rln


-
r12 0 0 0 h22 0 ... 0 0 1 .1'23 Yin
PIA) -
r13 r23
-

0 0 0 h33 . . . 0 0 0 Y;3n
,
... ... .. . ... .........
l Yl11 r2n r 3n • •• 1 J 0 0 0 . .. hnn lo 0 0 ... 1
(44)
und nun besagt das Tragheitsgesetz von SYLVESTER, Satz 9 aus Ab-
schnitt 11.4 den
20 § 24. Grundbegriffe und einfache Rechenregeln

Satz 4: (SYLVEsTER-Test) Die Dreieckszerlegung einer hermiteschen


Matrix F(A) = A - A B naclz G.-\USS oder CHOLESKY fiihrt auf eille
reelle Diagonalmatrix
II = Diag (hi» ; j = 1,2, ... ,n. (45 )
Die Anzahl der negativen (Positic'en) Diagonalelemente hi} ist gleich der
A nzahl der Eigenwerte des Paares A; B, die kleiner (grofJer) sind als
der Schiftpunkt A. Sind In ~ n Elemente hi} gleich Null, so ist A ein
m-facher Eigenu'ert. Die Reilzel1jolge, in 1C'elc/zer die negativen (Positiven)
H auptdiagonalelemente in II auftreten, ist dabei ohne Bedeutung.
Dieser Test wird bisweilen auch als STcR~l-sequence-check bezeich-
net, da die Bestimmung der Anzahl der positiven und negativen Null-
stellen des charakteristischen Polynoms det F(A) mit Hilfe einer
STUR~lschen Kette damit in engem Zusammenhang steht, siehe [40,
S. 134-143J und '31, S. 272~.
Dazu ein Beispiel. Gegeben sei das Paar .4; I mit

0)
-1 (J
°
°
-1 -1 I)

cl = n-l -1 0 = 5 I - K;
I) 1)-1 -1

o
° -1
()

Die Matrix F(4,9) = .4 - 4,9 I ergibt naeh GAL'SS zerlegt die Diagonalmatrix
H = D (0,1 -9,9 0,20 -4,87 0,31).
Es liegen somit zwei Eigenwerte links und drei reehts von 4,9. Die exakten Eigen-
werte findet man aus (17.48) mit a = 5.

Von besonderer Wichtigkeit fur die Anwendungen ist der SYLVESTER-


Test fUr hermitesche Blockdiagonalmatrizen
j = 1,2, ... , m. (46)
FaBt man die In Diagonalmatrizen 1111> 1122 , ••• , IImm der einzelnen
Dreieckszerlegungen (44) zu einer Hypermatrix II zusammen, so gilt
nunmehr fur die Gesamtheit der Diagonalelemente aus allen Blacken
der Satz 4.

24.10. Die additive Zerlegung einer hermiteschen Matrix


Der multiplikativen Zerlegung einer hermiteschen Matrix nach
GAUSS bzw. CHOLESKY
A = R* II R (47)
steht an der Seite die ohne jeden Aufwand erhaltliche additive Zer-
legung
A = ,,1* + D + ,,1 (48)
24.11. TA YLoR-Entwicklung ciner Parametermatrix 21

mit der reellen Diagonalmatrix der Hauptdiagonalelemente


j=1,2, ... ,n (49)

.
llnd der echten oberen Dreiecksmatrix
r0 a I2 a I3 • •. a1"

,1 = l~ ~ .~@ •.•••.. : : :
(50)

o 0 0 ... 0
Eine mit A gebildete hermitesche Form If = .r* ",,1.r oder allgemeiner
das dreifache Produkt
fP = X* A X = X*(,1* + D + ,1) X
=X*,1*X+X*DX+X*,1X (51)
mit einer beliebigen rechteckigen oder quadratischen }latrix X wird
demnach so berechnet
lP = (X* ,1X)* + X* DX + (X* ,1 X) = lP~ + fPD + lPL!' (52)
Da der erste Summand durch konjugiert-komplexe (im Reellen durch
einfache Transposition) aus dem dritten Summanden entsteht, redu-
ziert sich der Rechenaufwand etwa auf die Halfte.

24.11. Taylor-Entwicklung einer Parameter matrix.


Ableitung der charakteristischen Gleichung
Fur jede beliebige (rechteckige oder quadratische) Parametermatrix
PtA) mit den Elementen fjk(}') gelten beziiglich der Differential- und
1ntegralrechnung diesel ben Gesetze wie im Skalaren. Zum Beispiel ist

fP(A) di, = (f fjk(i.) d)') , (53)

ein Sachverhalt, von dem wir beispielsweise bei der Herleitung der
Tragheitsmatrix (Drehmatrix) (12.20) Gebrauch gemacht haben, und
Entsprechendes gilt fur die hoheren Ableitungen. Die TA YLOR-Ent-
wicklung in einem beliebigen Schiftpunkt A

ubertragt sich demnach auf die Parameter matrix als Ganzes

P().) = PtA) + (i, - A) F'(A) +~


2!
(i, - A)2 F"(A) + .... (55)
1st P().) insbesondere eine Polynommatrix
PtA) = Ao + AAl + A2 .4 + ... + i,e AQ '
2 (56)
22 § 24. Grundbegriffe und einfache Rechenregeln

so findet man die TAYLOR-Entwicklung mit Hilfe des vollstandigen


HORNER-Schemas ~ 45, S. 49J genauso wie im Skalaren. Fur g = 1, 2, 3
geben wir diese Reihenentwicklung explizit an:
g = 1 : F(~) = F(A) + ~ .4 1 ' (57)
e= 2: F(~) = F(A) + ~(Al + 2 A A 2) + ~2 A2 , (58)
e= 3: F(~) = F(A) + ~(Al + 2 A A2 + 3 A2 A 3) +
+ ~2(A2 + 3 A A 3) + ~3 A3 (59)
mit
(60)
Zwei weitere Operationen sind fUr die Anwendungen von grof3tem
Interesse: Die Ableitungen der Kehrmatrix K(A) von F(A) und die
Ableitungen der charakteristischen Funktionf().) = det F(A). 1m ersten
Fall schreiben wir (unter Fortlassen der Argumentenklammer) F K = 1
und differenzieren dies nach )., das gibt
P' K +FK' = 0 a)
---+ K' = -K F' K (61)
F" K + F' K + F K' + F K" = 0 b)
---+ K" = - K F" K + 2 K F' K F' K . (62)
Die Identitat (61) folgt, wenn a) von links mit K multipliziert wird
wegen KF = 1, und ebenso folgt (62), wenn b) von links mit K multi-
pliziert und (61) eingesetzt wird. So fortfahrend kann man die Ab-
leitung der Kehrmatrix stets ganz auf die Ableitungen von F abwalzen.
1st insbesondere F(A) = A - ). B, so wird F' = -B, F" = F '" =
... = 0, und damit entsteht die Folge

K ' = -1!KBK, K"=2!KBKBK,


(63)
K"'= -3!KBKBKBK, ... ,
wo das Bildungsgesetz leicht zu erkennen ist.
Nun zur Ableitung von f().) = det F().). Sei zunachst F(A) =
Diag <fi(A) >, dann ist det F().) = fl (A) . f2()') ... fn(A), also wird nach be-
kannten Regeln der Differentialrechnung
j'(A) = f(A) [f:i()') +12().) + ... +1~().)] , (64)
11 ().) i"().) in().)

und da F-l = Diag <Jjl().) > ist, laf3t sich dies auch so formulieren
j'(A) = Spur {F-l().) F'(A)} f(A) (65)
oder wegen F().) F-l(A) = F adj ().) nach (3.17) ohne Division
j'(A) = Spur {FadP) F'(A)} , (66)
24.11. TAYLOR-Entwicklung einer Parametermatrix 23
eine Gleichung, die, wie sich nach den AusfUhrungen im AnschluB
an (10.4) zeigen laBt, auch fur beliebige vollbesetzte ~Iatrizen gultig
ist und die fUr n = 1 wegen iadP,) = 1 in die nichtssagende Identitat
j'(J..) = j'(J..) libergeht. LAXCASTER zeigt in -20, S. 82f£.', daB fUr die
zweite Ableitung gilt

r(J..) = f(~.) [J'2(J..) + Spur {FadP) )(1.) F"(J.) - P'(i.) FadP) F'(i·r}] ,
(67)
und auch diese Gleichung geht fUr n = 1 in die Identitat r(J..) =
r(J..) liber.
Speziell fUr F(J..) = A - },B wird P'(J..) = -B, F"(J..) = O. Die ersten
beiden Ableitungen der charakteristischen Gleichung sind dann nach
(66) und (67) mit i(J..) = det VI - i. B)
j'(}.) = - Spur {FadP) B} , (68)

r (i.) = f(~) 'r(}·) - Spur CFadj(i,) f" (i,):2 r. (69)


Dazu ein Beispiel.

P(},) = [2 +A 1 - 1.3 ] , ""(i.) = [1 - 3 i. 2 ] ,


P"(/.) = [~
). 1 1 ()

Padj(A) = [ 1 - 1 + i:3] ; f(i.) = dct P(i,) = 2 + 1,4 .


-I. 2 + I.
Wir berechnen die :\Tatrizenprodukte

[ -3 i.2
o
] r(i.)

-1 + ),3][ 1,3
P adj (A)
[-; 2 +). 2
] Padj(/.) r(i,)

P'(A)
[ 1
1
-3),2 ]
o
[-6i'02 + i.3
1. 3
-3i.2, -02 9i. 5]p,(0)P
-jA
.(O)P'(O)
I. ad] I, I.

und bekommen aus (66) die erste Ablcitung


/'(A) = Spur {Fadj(i.) r(i.) } = ).3 + 3 i,3 = 4 },3 .

Sodann berechnen wir fur (67) die J\Iatrix


G(A) : = f(A) P" (}.) - P' (A) =

[~
und daraus das Produkt
Padj(A) G(/,) = [6},2..-. ).6 ...]
181,2 - 3 i,6 .
Mit der Spur 24A2 - 4A6 wird dann nach (67) endgultig

f"(A) = ~ (4A3)2 + 24i.2 _ 4i.6 = 24i,2 + 12i,6 = 12),2.


fW 2+»
24 § 24. Grundbegriffe und einfache Rechenregeln

In der Tat folgt durch direkte Rechnung eben falls

det F(A) = f(A) = 2 + i.4 • f'(}.) = 4i.3 • f"(A) = 12A2 .

• 24.12. Konstruktion von Matrizen mit vorgegebenen Eigenschaften.


Testmatrizen

Fiir viele Zwecke, namentlich fUr das Austesten numerischer Ver-


fahren, ist es niitzlich, :;\fatrizen auf Vorrat zu haben, deren charak-
teristische Daten wie Determinante, Kehrmatrix, Spektral- und
:\'lodalmatrix exakt bekannt sind. Zur Konstruktion solcher :\Iatrizen
bzw. Matrizenpaare und -tupel gibt es verschiedene Vorgehensweisen,
von den en wir nur die wichtigsten schildern wollen.
1. Man wahlt ein ~Iatrizenpaar A; 1 bzw. A; B mit vorgegebenem
Spektrum, am einfachsten ~4 und B beide von oberer (oder unterer)
Dreiecksform mit den Eigenwerten J'j = aiilb jj • Mit Hilfe zweier regu-
larer Transformationsmatrizen Lund R (am einfachsten untere oder
obere Dreiecksmatrizen) wird das Paar transformiert auf A = L A R
und i = L 1 R bzw. Ii = L B R. Als Ausgangspaar A; 1 eignet sich
auch die Begleitmatrix (23.8) mit vorgegebenem charakteristischen
Polynom PtA).
2. Ausgehend von einer regularen :\Iatrix B (am einfachsten D oder
I) und zwei vorgegebenen :\Iodalmatrizen r und X werden die Eigen-
dyaden (21.7) berechnet, mit vorgegebenen Eigenwerten Ai des Paares
A; 1 multipliziert und anschlieBend addiert zur :\Iatrix A nach (21.11).
3. Polynome von A heranziehen. Die Eigenwerte der Polynom-
matrix PtA) sind nach (13 -36) p(J) fiir j = 1, 2, ... , n mit den Eigen-
wert en Ai und den Eigenvektoren xi des Paares A; I.
4. Hermitesche Paare mit schmalen Bandern erzeugt man am
einfachsten mit Hilfe der Differenzenmatrix K = K + a 1 und ihrer
Pot en zen mit der Matrix K (17.39) und einem reellen Wert a. Wird die
Eigenwertaufgabe (K - ~a - a] I) x = 0 von links multipliziert mit
K b, so fiihrt dies auf ein hermitesches Paar ~4; B mit

, j;r .
A = Kb+l; "j = a - 2 cos - - , j = 1, 2, ... , 11 (70)
11 +1
zu den gleichen Eigenvektoren (17.51) des Paares K; I. Die Bandbreite
von A ist b + 1, die von B ist b. Die Potenzen Kb werden so berechnet:

+ a 1)2 = K2 -+- 2 a K + a 2 I,
A

K2 = (K
(71)
(K + a 1)3 = K3 + 3 a K2 + 3 a2 K + a31
A

K3 = usw.
24.12. Konstruktion von :\Iatrizen mit yorgegebenen Eigenschaften 25

Benotigt werden somit allein die Potenzen von K seIber; z. B. ist


1 0 1 0 0 01 fo 2 0 0 0
0 2 0 1 0 0 2 0 3 0 0 0
1 0 2 0 0 0 0 3 0 3 0 0
K2= 0 1 0 2 0 0 K3= 1 0 3 0 0 0
. ...... . .. .. ..... .................

l:
0 0 0 0 2 0 0 0 o ... 0 2
0 0 0 0 0 1 0 0 o ... 2 oj
(72a; b)
5. Eine hermitesche (reellsymmetrische) Tridiagonalmatrix T mit
Partner D oder lund vorgegebenem reellen Spektrum wird erzeugt nach
[144, S. 327J.
6. Matrizentripel (-tupel) nach der Bequemlichkeitshypothese
(21.76). Die Eigenwerte miissen paarweise (gruppenweise) Losungen
der n Gleichungen zweiten (hoheren) Grades (21.81) sein. Scharfer
Test!
Davon unabhangig findet man in der Literatur eine Fiille von :\Ia-
trizen mit bekannten Eigenschaften angegeben, von denen wir hier
nur einige auffiihren wollen.
7. Matrix von BOOTHROYD/DEKKER, beschrieben in L141, S. 78-79J.
Die Elernente der Testmatrix Tn sind die positiven ganzen Zahlen

tll,ik = (n+. j - 1) (nn-kJ+k-1


- 1) . n z.B. Ta= (36 83 D·1731
)-1 10 15
und die Inverse Kn = T;;l hat die Elemente
. 3 -3
k",ik = (_1)i-ik. tll,ik z.B. Ti,l = Ka = (-6 8
10 -15
Die Vorzeichen sind somit schachbrettartig verteilt, die Haupt-
diagonalelemente positiv; die Zeilensummen der Inversen sind ab-
wechselnd + 1 und ---1. Die Kondition von Tn verschlechtert sich
rasch mit wachsender Ordnungszahl n, siehe dazu das zweite Beispiel in
Abschnitt 25.5. Die Eigenwerte sind reell, positiv und voneinander
verschieden
o < Al < A2 < ... < AII_I < An ' (75)
und es gilt fiir n gerade
n
mit V=-. (76)
2
26 § 24. Grundbegriffe und einfache Rechenregeln

Fur n ungerade ist


n
}," = 1 ; f1 = -2 -L
. 1. (77)

Da die Determinante das Produkt aller Eigenwerte ist, folgt daraus


det Tn = det Kn = 1 . (78)
8. Die Matrix It a a a a
b h a a a
b b It a a
A=
b b b h a

b b b b ... h
a(h - bIn - b(h _ a)n
mit det A = .-'----- fUr a =1= b , (79)
a-b
det A = (It - a),,-l ~h + (n - 1) a: fUr a = b. (80)
9. Die l\Iatrix 2 I - K - 1 . en eJ =

Die Eigenwerte des Paares .4 R ; I lassen sich explizit angeben:


2j - 1
= 2 - 2 cos - - - :T ; j = 1,2, ... ,n. (82)
+1
i(.
1 2 n

Sie sind reell, voneinander verschieden und begrenzt durch


j = 1,2, ... ,n, (83)
vgl. dazu (17.58).
24.12. Konstruktion yon :\Iatrizen mit vorgegcbenen Eigenschaften 27

Weitere Testmatrizen findet der Leser bei ZIELKE ~142J, sowie bei
BERG [134J und MAESS [37, S. 107-109:.
10. Zur Konstruktion sehr groBer :\Iatrizen, etwa n ~ 1000, bedient
man sich folgender Technik. Die Blockmatrix C (auch als direkte
Summe der einzelnen Blocke bezeichnet) wird mit zwei regularen
Matrizen Lund R transformiert, so daB die Einschniirungen in C
verwischt werden. Das Paar A; B mit A = L C R und B = L I R =
= L R hat als Eigenwerte die Yereinigungsmenge aller Eigenwerte der
einzelnen Blockpaare C j ; I (j = 1,2, ... ,11/).

C= A. :=LCR; B :=LR. (84)

11. Parametermatrizen. :\Ian wahle eine :\Iatrix A mit vorgegebenen,


moglichst ganzzahligen Eigenwerten a j zum Partner lund bilde
m Funktionen, am einfachsten Poly nome Pk(A), ferner m skalare
Funktionen fk()')' Die Parametermatrix
(85)
hat nach den Ausfiihrungen von Abschnitt 20.5 offenbar die Eigen-
terme
f jj ().) = A().) P1().j) + f2().) P2(i-;l + ... + f",(},) Pm(}); j = 1, 2, ... , 1l .
(86)
Somit definieren die n Gleichungen fll().) = 0, ... ,jnn(i.) = 0 n Serien
von jeweils C{Jj (im allgemeinen unendlich vielen) Eigenwerten i'jv der
Parametermatrix F()').
Besonders geeignet ist wieder die Matrix K (17.39) mit den explizit
angebbaren, wenn auch nicht ganzzahligen Eigenwerten a j (17.48).
Geht man mit der Potenz von K nicht allzu hoch, so bleibt auch das
Band der Matrix F()') relativ schmal.
Dazu ein Beispiel. Es sei m = 3. Mit den Funktionen
, 1
fI(A) = cos A, fz(A) = -A, f3(1·) =-
}.

und den Polynomen in K

PI (K) = KO = I , P3(K) = K3 + IX K + f3 I
28 § 24. Grundbegriffe und einfache Hechenregeln

wird die Parametermatrix (86)

F(i,) = cos I, . 1 - I. K + -~- (K3 - ex K + (31) .


I.

Die n Definitionsgleichungen (86)

fij(I.) = cod· 1 - i,oj + ~- (01 -+- ex OJ -+- (3.1) = 0; j = 1,2, . . . . It


I.

legen jeweils unendlieh \'iele Eigenwerte i. ,. fest. Speziell fUr ex = {3 = 0 hat wegen
(72a; b) die :\Iatrix F(I.) das Aussehen

rcos i. -i.
2
I.
0
i,
3
-J, cos I. -I. 0
I.
2 3
-i, eos i. -;,
F(A) = A ;,
3
0 -;, eos ;. -i,
;,
I
t. .;'
3
() -I, eos I.
;.

1st ...1 diagonalahnlieh (normal), so sind die auf dicsc \Ycise konstruierten :\Iatrizen
F(i,) parameterdiagonalahnlich (parameternormal), wie leieht einzusehen.

24.13. Skalierung einer Zahlenfolge.


Die e- Jordan-Matrix

:JIitunter wird es erforderlich, eine Folge von reellen oder kom-


plexen Zahlen zu skalieren, worunter verstanden wird, daB ihre Be-
trage mit Hilfe der arithmetischen, geometrischen, harmonischen oder
sonst einer geeigneten }1ittelbildung einander gleich gemacht werden,
wobei die Argumente bzw. Yorzeichen der so skalierten Zahlen un-
verandert bleiben. Hat man mehrere Folgen

so wird man zu erreichen suchen, daB lajl = Ibil = ... = IPil wird.
In den Anwendungen sind die Folgen (87) zum Beispiel die Elemente
einer Zeile gleicher Kummer von }Iatrizenpaaren bzw. }Iatrizen-
tupeln.
Eine andere Art der Skalierung ist die Ahnlichkeitstransformation
mit Hilfe der Diagonalmatrix

D = Diag (8 j - 1 >; j = 1,2, ... , n; 8=}=0 . (88)


24.14. Fokussierung 29

Die Gleichung F(}.) x = l' geht dann liber in J7(A) Z = r mit


i'(A) : = V-I F(A) V , r := V-I l' , (89)
und den transformierten Gra13en
hk(C;) = fik(}') c;k-i , (90)
Die Elemente oberhalb der Hauptdiagonale (k > j) werden demnach
mit den Potenzen von c; multipliziert, die Elemente unterhalb (k < j)
dividiert, wahrend die Hauptdiagonalelemente unverandert bleiben.
Wird diese Transformation angewendet auf ein JORDAx-Kastchen zum
v-fachen Eigenwert }'G' so kommt nach (19-3)
Aa 0 0 0 }·a c; 0 0 0
0 Aa 0 0 0 }·o C;2 0 0
J vo = 0 0 Aa 0 , V-IJ,.oV = 0 0 }·o C;3 ... 0 . (91)
............... . ..............
0 0 0 0 .. . Ao 0 0 0 0 ... Aa
Wahlt man (auf Kosten des transformierten Vektors z) den Faktor c;
beliebig klein, so la13t sich die Kodiagonale praktisch zum Verschwinden
bringen. Mit anderen Worten: im Rahmen der N umerik kann jede
Matrix als diagonalahnlich angesehen werden. Auf dieser Interpreta-
tion beruht beispielsweise die Ahnlichkeitstransformation von EBER-
LEIN und BOOTHROYD ~l72J, siehe auch Abschnitt 39.3 .

• 24.14. Fokussierung
Ein fUr die numerische Praxis wichtigster Kunstgriff besteht in der
sogenannten Fokussierung einer Polynommatrix F(}.) im Eigenwert-
problem
F(}.) x = 0
mit (92)

worunter folgendes verstanden wird. }Ian wahle einen Fokus /l als


Mittelpunkt eines Einheitskreises K" und spiegele den Parameter J.
an diesem Kreis, womit die Punkte }. in Punkte , der komplexen
Zahlenebene libergehen, und zwar besteht die eineindeutige Zuordnung
1 1 ~ 1
JI.=/l+-¢=?.,=--. (93)
C }. - fl
Auch die Eigenwerte gehorchen dieser Beziehung; insbesondere gilt
(94)
30 § 24. Grundbegriffe und einfache Rechenregeln

Liegen (fast) alle Eigenwerte }'I au13erhalb des Fokuskreises K", so


liegen zufolge der Spiegelung (fast) alle Eigenwerte ~j innerhalb des
Kreises. Dieser hat daher die \rirkung eines Brennglases, welches die
in der unendlieh ausgedehnten komplexen Zahlenebene verstreut
liegenden Eigenwerte )., sammelt, daher der ~ame.
Bei der Spiegelung geht ein beliebiger Kreis K R ;! mit dem Radius R
und dem Mittelpunkt .11 uber in einen Kreis KQJI mit dem Radius e und
dem Mittelpunkt M, der jedoeh nicht Spiegelpunkt von .Ii ist. Handelt
es sieh urn einen zum Kaherungswert ..1 gehorigen Einsehlie13ungskreis,
so umfa13t der Kreis K,z mit dem Spiegelpunkt Z und dem Radius r,
wo
1 R
Z=,u+A' r = ---- - - - - (95)
Z:(Z -r)

ist, den (weiter nieht interessierenden) Kreis KQJI' wobei die relative
Genauigkeit der Einsehlie13ung gewahrt bleibt, das hei13t es ist
r R
(96)
~=A,'
Dureh die Fokussierung wird das Spektrum der Eigenwertaufgabe
(92) geandert, nieht aber die Gesamtheit der Links- und Reehtseigen-
vektoren. Die fokussierte ~Iatrix findet man dureh Einsetzen von
.Ie = ,u + 1/~ und l'msortieren der so entstehenden Terme, und zwar
unterseheiden wir die explizite und die implizite Fokussierung.
a) Explizite Fokussierung
Mit Hilfe des vollstandigen HOR>:ER-Sehemas wird zunaehst die
Spektralversehiebung yom Xullpunkt 0 in den Fokus,u vorgenom~en,
wie in (56) bis (60) gesehildert. Dies fuhrt auf die neuen ~Iatrizen Av
'" A A A A

~40 = F(,u), ..11' ~42' ... , Ae~l' ~4Q = AQ . (97)


Fur e= 3 beispielsweise ist naeh (59)
Ao = F(,u) = Ao + .fl 1 ,u + A2,u2 + A3,u3;
r (97 a)
+ 2 ~42,u + 3 A3,u2; .1 2 + 3 A 3 ,u;
A A

Al = Al ~42 = ..13 = A3 •

Naeh dieser Spektralversehiebung erfolgt die Spiegelung, das hei13t


der Ersatz von ~ = I. -,u (60) dureh ~ = 1/~ und ansehlie13ende
Multiplikation von F(~) mit ~e, das gibt endgultig
Fe(C) = Ae + AQ~l : + AQ~2 ~2 + ... + Al ,e~l + ~40 ~e, (98)

wo nun die ~Iatrizen ~4v gegenuber (92) in umgekehrter Reihenfolge


erseheinen. Der Index e weist auf die explizite Fokussierung hin.
24.15. Rechenaufwand fiir die gebrauchlichsten ~Iatrizenoperationen 31
Fur Kontrollzwecke ist es oft nutzlich, die Spur s der expandierten
Matrix (23.16) zu berechnen
Q"
L CI = Spur (A;1 A Q _ 1) = Spur (.4 g _ 1 ..1.;1) =: s , (99)
i~l

wo AQ = P(p,) regular.
Die Vertauschbarkeit hatten wir in (2.11) bewiesen.
b) Implizite Fokussierung
Bei dieser Methode werden die :\Iatrizen .-tv aus (92) nicht umgerech-
net, auch ihre Reihenfolge bleibt erhalten, und zwar wird, wie eine
einfache Rechnung zeigt, mit
f3:=1+p,~ (100)
die implizit fokussierte :\Iatrix (der Index i weist auf implizit hin)
v (~)
~'i" = A o· 1 . "~Q + A 1 1'''
R2 ~Q·-l...l.. "
I
R ~Q-2 ...l..
·-0.2 I' ., I· . .

+A Re-2r2
Q-2t-' ~
+A Q-1
RQ-l ~
P ~
,
T
-t
J.. ()
RQ
fJ .
1 (101 )
Die hier beschriebene Fokussierung ermoglichst den Zugang zu
wichtigen Algorithmen und wird uns in den Abschnitten (40.21) und
(43.7) weiter beschaftigen .

• 24.15. Rechenaufwand fUr die gebrauchlichsten Matrizenoperationen


Zum SchluB dieses Paragraphen stellen wir in Tabelle 24.1 den fUr
die wichtigsten Matrizenoperationen erforderlichen Rechenaufwand
zusammen, wobei weder Additionen von Subtraktionen noch :\Iultipli-
kationen von Divisionen unterschieden werden. Die Al1zahl der
Additionen (Subtraktionen) ist generell nur geringfugig kleiner als die
Anzahl der Multiplikationen (Divisionen) und wird deshalb nicht
gesondert angegeben. :\Iultiplikationen bzw. Divisionen mit einer der
Zahlen 0, 1 oder -1 werden nicht mitgezahlt. :\Ian pruft leicht nach,
daB fur die Bandbreite b = It - 1 (Vollmatrix) die Formeln rechts
in jeder Spalte in die links danebenstehenden Formeln ubergehen. Fur
n = 1 und/oder b = 0 verschwindet der Rechenaufwand, wie es sein
muB. AuBerdem bemerken wir: die Anzahl der :\Iultiplikationen (und
auch der nicht angegebenen Additionen) ist fur die Rechenoperationen 1
und 3 identisch!
Die fUr die Praxis wichtigste Einsicht ist die, daB bei schmalen Band-
matrizen (b ~ n) der Rechenaufwand fur die Dreieckszerlegung nur
proportional zu n und nicht zu n 3 anwachst wie bei einer Vollmatrix!
Niemals sollte deshalb durch eine Transformation oder die Umwand-
lung eines allgemeinen Paares A; B in B-1 A; I das Profil einer Band-
matrix zerstort werden. Man vergleiche dazu (13).
Tabelle 24.1. Anzahl der erforderlichcn Multiplikationen bzw. Divisionen fur die gebrauchlichstcn Matrizenoperationen

'-'"
Vollbcsetzte Matrix Matrix mit Bandstruktur tv
Rechenoperation I
unsymmctrisch symmctrisch unsymmctrisch symmctrisch
-----~ ---~--~~ -----~~

1. Matrix mal
n2 n(2b + 1) - bib + 1) ~n(2b + 1)
Vektor

2. Dreieckszerlcgung b
b {3 n (b -I- 3) - 2(b + 2) .
nach GAUSS oclcr n - (bl 1) (3 n - 2 b - 1) (, tv
BANACHIEWICZ - (n - 1) (nl 1) ~ (n - 1) (n 1- 4) 3 ~
I () bn
3 . (b 1)} ~ - (b -I 3)
uzw. CHOLESKY ~b nib 11) + o...,
2
"::>
3. Lasung fur cinc §:
oq
rcchte Scitc am n2 n (2 b I- 1) - bib I 1) ~ n(2b -I- 1) "
zerlcgtcn Systcm ~
(1)

bl- b -I- 1 "5-


{n(n 1) - bib I 1)}1 b n 2 ~ - -~ ~ (3 n(n f- 1) - b(2 bl 7) (1)
2 (,
4. Bcrechnung clcr n3 n (2 n2 I~ -' 11 ~- 2) ::r0;'
Kchrmatrix u2 n 2
-' (")
~ (3 b I 1) + b- n (n + 3) ~ - (2 b -I- 1) ::r"
2 2 2
"?::i
(1)
fiir b ~ 11/2: fiir b ?; n/2: (")
::r"
(1)
::;
...,
2 b n2 - n (n2 - 3 n - 1) b n(n ~I- 1) - -~ (n 2 - 3 n - 4) (1)
.3 () OQ
(1)

b Q
ij
- !J (2 b 2 I 3 b I 1) (b" -I- 3 b + 2)
5. Matrix mal 112 3 3
11 3 (111- 1)
Matrix 2
2 ~n 2 (2 bl- 1- -~ ) 1/
~-2 ( 2bl- - -j-)
fur b S n/2: furb£n/2:
5b
11(4 b2 1 4 b -I 1) - - . n(2 b2 1 3 b + 1) - -~ (5 b2 +-
3 3
. (2 b 2 + 3 b -I- 1) "" 4 11 b2 + 9 b + 4) ~ 2 n b?
25.1. Die ~orm cines Yektors 33
§ 25. Norm, Kondition, Korrektur und Defekt

.25.1. Die Norm eines Vektors


Das Skalarprodukt zweier im allgemeinen komplexer Yektoren y
und x, deren Koordinaten (Komponenten) wir zweckmaBig in Polar-
koordinaten formulieren
'\'. = ly.11
- 1
eiV'j
'
\'. = 1\''1.1 e iqj
. 1 '
(1 )
ist
n 1t n
yT X = .2-' y; x; =.2: IY;I ei~'j Ix;1 ei'lj = ~ 1)';1 Ix;1 ei(V'i-'/j) . (2)
1-1 1-1 ;-1

Nur fUr den Sonderfall, daB


"P;+fP;=O fUr j=1,2, ... ,n (3)
ist, besteht die Gleichung
.
yT X = 2; ly;1 Ix;l; (4)
;-1
im allgemeinen aber gilt wegen lei(v'q)1 ~ 1 die Cngleichung
.
lyT xl ~ 2; IYil 1.\) , (5 )
;-1
die wir ein weiteres Mal abschatzen, indem wir die maximale Kompo-
nente von y bzw. x aus der Summe herausziehen
" ) n (6)
lyT xl ~ ( ~IIYil ~:~ Ix;1
bzw.
(7)

Neben diesen beiden fUr das folgende grundlegenden komp1ementaren


Abschatzungen des Ska1arproduktes gewinnen wir eine weitere tiber
das Betragsquadrat mit Bilfe einer geeigneten Erweiterung auf f01-
gende Weise:
;r* ij yT ;r
(yT x) * (yT x) =- ;r*,r,
. x* x = Q x* x . (8)

Bier erscheint der Formenquotient (RAYLEIGH-Quotient) Q einer


hermiteschen Dyade vom Rang Eins, die (n - 1)-ma1 den Eigenwert
Null und auBerdem das Ska1arprodukt yT y = y* y a1s Eigenwert
besitzt, und damit ist auch das Ska1arprodukt (8) im reellen Werte-
bereich des Paares Q; I eingesch10ssen
o~ lyT xl2 ~ (y* y) (x* x) . (9)
34 § 25. Norm, Kondition, Korrektur und Defekt

Das Gleichheitszeichen steht hier, wenn y und ;£ kollinar, somit linear


abhiingig sind
lyT ;£1 2 = (y* y) (;£*;£) fUr IXy + f3;£ = 0, (10)
wie leicht nachzupriifen. Halten wir fest: jedesmal wurden zwecks
Abschatzung des Skalarproduktes dem Zeilenvektor yT und dem
Spaltenvektor;£ in wohlbestimmter Weise reelle nichtnegative Zahlen
zugeordnet, die etwas iiber die GroBe (den Betrag) von y und ;£ aus-
sagen. So1che Zahlen heiBen die Norm eines Vektors und werden mit
11·11 bezeichnet, wobei ein angehangter Index oder auch eine Namens-
gebung die drei hergeleiteten ~ormen unterscheidet. ~Ian definiert fUr
einen beliebigen Vektor ;£

Norm I: 11;£111 := max IXil ~Iaximumnorm (kubische Norm), (11)


i~l

Norm II: 11;£11 11 : = " I.t';l


1.: Betragssummennorm (12)
i~l (oktaedrische Norm),

Norm III: 11;£11 111 := +


~';£*;£ euklidische (sphiirische) Norm. (13)
In dieser Nomenklatur lauten dann die Abschiitzungen (6), (7) und (9)
lyT;£1 ;;:;; Ilyllll 11;£11 1 , (14)
lyT;£1 ;;:;; Ilylll 11;£11 11 , (15)
lyT;£1 ~ Ilyilm 11;£1 1m . (16)

XI!

1I ~ \ \ -
i,~~
0 - -
-Norml -;
Xl

-.
-Normm -,
-Normll
Abb.25.1. Die drei Yektomormen fUr " ~ 2 im Reellen

Die Abb. 25.1 veranschaulicht die Bedeutung der ~ormen in der reellen
Ebene am rechtwinkligen Dreieck. Es sind dies der Reihe nach: die
maximale Kathete, die Kathetensumme und die Hypotenuse .

• 25.2. Die Norm einer Matrix


Wir versuchen jetzt, die Norm eines Vektors mit Hilfe der durch
eine Matrix A vermittelten Abbildung y = A;£ mit
25.2. Die Xorm einer :\Iatrix 35

A=

auf die Matrix A zu ubertragen, indem wir den Zusammenhang zwi-


schen der Norm 11;r11 des Originalvektors ;r und der Norm Ilyll des
Bildvektors y herstellen als Ungleichung der Art

Ilyll ~ IIAIIII;r11 , IIAII>O, (18)


wo IIAII die Norm der Matrix A heiBt.
Nun ist die Komponente Yi des Bildvektors y das Skalarprodukt ;r, aT
und damit besteht fUr jede Zeile des Gleichungssystems (17) die Ab-
schatzung (14):
(19)

Fur die betragsgroBte Komponente des Vektors y gilt somit


m m
max Iykl = Ilylir = max ilaklln 1I;rllr , (20)
k=l k=l

und damit haben wir schon die sogenannte Zeilennorm IIAllr gefunden
m
Ilylir ~ IIAllr 11;r111 mit IIAII I := max Ilaklln. (21)
k~l

Schatzen wir dagegen die Betrage der Komponenten des Bildvektors y


einzeln ab
Iykl ~ lakll IXII + lad IX21 + ... + lakml IXml (22)
und bilden daruber die Summe
n n
IIYlln = Ilfltlln IXII + IIa211n IX21 + ... + Ilanllulx,,1 ~ max Ilakllu L'lxil ,
k=1 j=1

(23)
so folgt daraus die zur Zeilennorm komplementare Spaltennorm IIAllu

IIYlln ~
" Ilaklln .
IIAlln 11;rllu mit 11.41Iu:= max (24)
k=l

Nun zur dritten Norm. Neben der Gleichung y = A;r besteht auch
die transponiert-konjugierte Gleichung y* = ;r* A *. :\Iultipliziert man
diese beiden miteinander (hermitesche Kondensation) und erweitert
geeignet, so kommt
;r* A * A;r
y* Y = ;r* ;r = oc 2 ;r* ;r . (25)
;r*I;r
§ 25. :\'onn, Kondition, Korrektur und Defekt

Hier ist CX;2 der Formenquotient (RAYLEIGH-Quotient) zum hermite-


schen Paar A * "4; 1 mit den reellen nichtnegativen Eigenwerten X],
den Quadraten der singularen Werte des Paares A; I, die den Werte-
bereich von CX;2 begrenzen
(26)
und damit folgt aus (25) die gesuchte - hier sogar beidseitige! - Ein-
schlie Bung
(27)
deren rechte Halite wir so schreiben

IlyllIII ~ IIAIIIII II·rIIIII mit IIAII III := Xmax , (28)

und hier steht offen bar das Gleichheitszeichen fUr den Eigenvektor x"
zum maximalen Eigenwert x~ax des Paares A * A; I. Diese dritte
Norm heiBt Spektralnorm oder HILBERT-Norm. Sie ist die aufwendigste
aber auch beste der drei abgeleiteten Grundnormen.
Resumieren wir: fur alle drei X ormen besteht die C ngleichung

IIA xii ~ IIAllllxl1 , (29)


sofern jedesmal dieselbe Korm I oder II oder III benutzt wird. Die
drei Normen heiBen deshalb zueinander passend oder vertraglich und
durfen innerhalb einer Gleichung (Cngleichung) nicht ohne weiteres
untereinander ausgetauscht werden. Stellen wir nochmals ubersichtlich
zusammen:
Yektornorm ;,x ~Iatrixnorm iiA
m
IlxilI = "
max Ix,,1 :'IIaximumnorm II~tll I = max IlakllII Zeilennorm (30)
k~l k~l

11;rIIII = E" IXkl " lIajllII Spaltennorm


Betragssummen- II~"IIII = max (31)
k~l
norm i~1

11;rllm = + v;r*;' euklidische :\'orm II~"IIIII = "max Spektralnorm (32)

Alle drei sind Schrankennormen, was bedeuten soll, daB die Gleich-
heitszeichen in den definierenden Cngleichungen (21), (24) und (28)
fur spezielle Vektoren x auch wirklich angenommen werden, wie wir
anhand der Herleitung in Abschnitt 25.1 gezeigt haben. ~Iit anderen
Worten: diese Schrank en sind ohne weitere Informationen uber den
Vektor x nicht zu verbessern; sie heiBen daher auch least-upper-bound-
Normen, man schreibt abkurzend lub (A), eine Gutebezeichnung, die
erforderlich wird, da es auch Yergroberungen der drei hergeleiteten
Grundnormen gibt, fur welche das Gleichheitszeichen in (29) fur
keinen Vektor angenommen zu werden braucht. Es sind dies die mit
25.2, Die Xorm einer :\Iatrix 37
allen drei Vektornormen I, II und III vertragliche Gesamtnorm

IIAIIG := It
"
max lajkl
j,k~l

und die sehr viel wertvollere, jedoch allein mit der euklidischen
(spharischen) Vektornorm III vertragliche euklidische .11atrixnorm

IIAIIE:= + -Vi~ k~ lajk l 2 = + I Spur A* A , (34)

zu der man gelangt, wenn der groBte singulare \Vert durch die Summe
aller ersetzt wird
(35)

Dies erspart zwar die aufwendige Ermittlung des maximalen sin-


gularen Wertes X max • doch ist die dadurch verursachte Vergroberung
umso bedenklicher, je groBer die OrdnungszahI It ist; man wird deshalb
weniger rabiat gemaB der Abschatzung

IIAII;n ~ x~ax ~ x ~ L'" xJ


2
j~I
-+ 1l~411III ~ i( (36)
die Spektralnorm durch die klein ere und damit bessere Naherung x
ersetzen, wie man iiberhaupt bei einiger Ubung sich nicht zu sklavisch
an die hier gebotenen Regeln halten wird. Der Leser notiere, daB das
Reehnen mit Normen letztIich nichts anderes ist als das systematisierte
Hantieren mit Ungleichungen, wobei lediglich darauf zu aehten ist,
daB die folgenden Forderungen nicht verJetzt werden, denen, wie
leieht naehzupriifen, aueh die aufgefiihrten fiinf (und weitere, hier
nieht hergeleitete) Normen geniigen:
-.~--~--------

Skalarnorm Ixl Vektornorm II.rll :\Iatrixnorm 11.411


Betrag Ixl >0 II.rll > 0 IIAII >0 (37)
a) und gIeich XuJl genau fiir
x=o .r=o .4= 0 (38)

Homogenitat
b)
Ie xl = lellxl IIe.rll = lei II.rll ! lie .411 = lei 11.411 (39)
1---- ----------
Dreiecks- !
ungleichung I
c)
Ix+yl ~ II.r + yll ~ II.r11 - IIIJil 1I.4...!.. BII (40)
~ Ixl + Iyl ~ 11.411 + IIBII
- - ----------- .
skalares Skalarprodukt :\Iatrizenprodukt
Produkt
d) la bl = lallbl lyT.r1 ~ lIylli II.rlln 11.4 BII ~ IPIIIIBIl (41)
lyT.r1 ~ IIyllII 1I.r1l1
lyT .rl ~ lIuli III 1I.r1l III
§ 25. C\orm, Kondition, Korrektur und Defekt

Aufgrund der Eigenschaft d) werden die :\Iatrixnorm (einschlieBlich


Gesamtnorm und euklidischer N'orm) auch (sub)multiplikative Normen
genannt.
Wir sehen: durch konsequente Betragsabschatzungen skalarer kom-
plexer Zahlen ist es gelungen, die von den komplexen (oder reellen)
Zahlen gelaufigen Abschatzungen a) bis d) auf Vektoren und l\Iatrizen
zu ubertragen. Es existiert ein umfangreicher, von OSTROWSKI [13 7J
begrundeter Normenkalkul, siehe dazu auch die Darstellungen in [17,
S. 133-140J, 31, S. 36-50:,37, S.47-51J und [41, S.148-156J.
Ohne Beweis stellen wir einige der wichtigsten dort angegebenen For-
meln zusammen. Zunachst gilt offensichtlich fur die Einheitsmatrix 1
/////1 = 1I111n = 1I111m = 1, lillie = 11, (42)
somit nach (41)
= 11111 ~ /lA-III /lAIl fiir I, II, III , (43)
eine L'ngleichung, die in dieser Form kaum zu gebrauchen ist; jedoch
folgt zusammen mit der fUr aile Kormen gultigen Abschatzung

IIx - y/l ~ /lxll - lIyll (44)


nach einigen trickreichen Umformungen fUr die drei Grundnormen I, II
und III
II(A + B)-III :s;; __ "A-lll_
- 1 - IIA-l BII
falls 1 > IIA-I BII (45)

bzw. starker

II(A ± B)-I/I ~ -1---=1(11;liIIiBII falls 1 > IIA-IIIIIBIi. (46)

Fur A = 1 gehen beide Formeln uber in


11(1 + B)-III :s;; _ 1 __ . falls 1 > IIBII , (47)
~ - 1-IIBII
alles Abschatzungen, die bei der Beurteilung und EinschlieBung von
fehlerbehafteten Losungen linearer Gleichungssysteme von groBter
Bedeutung sind.
Dazu ein Beispiel. Gegeben ist eine :'Iatrix A und ein Vektor x, womit der Bild-
vektor y = A x bereehnet werden kann:

Wir ermitteln zunaehst die :'Iatrixnormen. ~aeh reehts ziehen wir die Betrags-
summen und Bctragsquadratsummen der Zeilcn heraus und naeh unten die Betrags-
25.3. Norm und Eigenwertabschlltzung 39
summen und Betragsquadratsummen der Spalten, das gibt die eingekreisten maxi-
malen Werte 8 und 9.

(-:-1
-1
3
2
0
~
)
8

7
30
13
21
5 6 9
9 14 41 64

Fur die Spektralnorm muG die l\Iatrix .-1 T .-1 explizit berechnet werden. Aus der
kubischen Gleichung
det (.-1 T .-1 - J) = (I ,,2
folgt dann der maximale 'Vert "max = 6.49.
Mit den drei Vektornormen fUr y und ;r machen wir jetzt die Probe:

Vektornorm Ilyll 11.r11 IIAII Probe

I Maximumnorm 7 2 8 7 < 2·8


3 = 16
max IXil
i~l

II Betragssummen-
3
V32 + t'34 + 7 ~ 9 18,49<4'9
= 18.49 = 36
norm E IXil

v;rT ;r
i~l

III euklidische Norm vm = 10,72 ViS = 2.45 "max = 6,49, to,72


< 2.45·6,49
= 15,90

Als Vergroberungen haben wir die Gesamtnorm II.-IIIG = n· 5 = 3' 5 = 15, die
groGer ist als die drei Normen IIAliI = 8, 1I.-Illu = 9 und 11.4.llm = 6,49 und die
euklidische Vektornom 11.4.IIE = V64 = 8> 6.49 = 1I.4.llm, \Vie es sein muG .

• 25.3. Norm und Eigenwertabschatzung


Seine wichtigste Anwendung findet der Normenkalkul beim spe-
ziellen Eigenwertproblem. Es sei A eine beliebige quadratische Matrix,
dann folgt aus
y=A;r=}.;r (48)
fur jede beliebige Norm nach den Regeln (39) mit c = A
1..11 II;rll ;;:;; IIAII II;rll
Ilyll = IIA;rll = (49)

und daraus nach Division durch 11;r11 =f= 0 die Abschatzung


1..11 ;;:;; IIAII , (50)
die wir auch aussprechen konnen als den
Satz 1: Jede beliebige Norm iiberschiitzt den Spektralradius:
Q(A) ~ IIAII . (51)
40 § 25. Norm, Kondition, Korrektur und Defekt

Diese relativ grobe Abschatzung laSt sich durch geeignete Kunst-


griffe wie Spektralverschiebung (Schiftung). Blockunterteilung mit
anschlieSender Kondensation mit oder ohne Elimination nach [1751,
Heranziehung des Durchschnittes von Einschlie13ungsmengen usw.
in mannigfacher Weise verscharfen, und, was das vVichtigste ist, auf die
Eigenwerte von 11atrizenpaaren und -tupeln verallgemeinern. Die
fUr die Anwendungen wertvollsten Satze dieser Art werden wir im
§ 36 - zum gr613ten Teil ohne Beweis - zusammenstellen. Dem
mindestens groben Verstandnis dieser Satze und als Ideenskizze
dienen die folgenden Abschnitte 25.4 und 25.5, die beim ersten Studium
iiberschlagen werden k6nnen.
Ein Beispiel. Die Eigenwerte ).j des Paares .4; I mit der ::-'fatrix A aus dem
Beispiel des Abschnittes 25.2 sind einzuschlieBen. J\Iit den drei Matrixnormen
IIAIII = 8, IIAlln = 9 und IIAllm = 6,49 haben wir die drei EinschlieBungskreise
von Abb. 25.2. Die Eigenwerte sind ).\ = 0,345,}.2.3 = 4,383 ±
2,637 i; der Spektral-

5i

, , .A "
glAI i. z

f-
o~_~ccc_-. _
AI 6,49 10

i. ~

.-\bb.23.2. Sptktralradius und !'orm

radius des durch .1.2 und .1.3 festgelegten Kreises betragt daher e(A) = 5,11 und wird
urn einiges uberschiitzt.

25.4. Das normierte Defektquadrat (Norm III)


In enger Beziehung zur Spektralnorm (28) steht das aus dem Defekt-
vektor
d(A, x) : = F(}.) x (52)
gebildete Defektquadrat
b2 (A, x) : = d*(}., x) d(}., x) ~ 0, (53)
das fUr jeden festgewahlten Vektor x eine nichtnegative reelle Flache,
ein sogenanntes Reliefiiber der komplexen Zahlenebene darstellt. Dabei
ist F(A) eine beliebige, auch rechteckige Parametermatrix, speziell ein
25.4. Das normierte Defektquadrat (~orm III) 41

Vektor oder Skalar. Das Studium so1cher Reliefs als Funktion des
Parameters A eraffnet den einfachsten Zugang zu den EinschlieBungs-
satzen von Eigenwerten der Matrix F(A) = A - A B sowie zu den auf
der Defektminimierung gegriindeten Relaxationsmethoden zur iterati-
ven Lasung von Gleichungssystemen .4 ;r = )' in § 33. Es ist daher von
aUgemeinem Interesse.
a) Das Skalarparaboloid. Es seien a und b zwei Skalare, dann ist
der Defekt und sein Betragsquadrat
d(}.) = a -). b;
b (A) = d(A) d(A) =
2 (a - ). b) (a - ). b) = aa - (a b A + ). b a) +.1), b b,
(54)
und dies laBt sich mit dem Vektor

1:=(1 ) (55)

auch als hermitesche Form schreiben

b2(A}=l*Ql mit Q:=(_~: -i:)=:(~: ~n (56)

mit den Abkiirzungen


ex 2 := aa ~ 0; fJ2 := b b ~ 0; y := b a i. aUg. komplex. (57)
Da das Defektquadrat fUr kein Wertepaar (1, ).} negativ werden
kann, ist die hermitesche Matrix Q positiv (halb-)definit; ihre Deter-
minante
(58)
kann deshalb nicht negativ werden.
Wie sieht nun das zugeharige Relief aus? Hier sind zwei FaUe zu
un terscheiden.
a 1) Es ist b = O. Dann wird b2 = ex 2 = const, und das ist eine Hori-
zontalebene mit Abstand ex 2 iiber der komplexen Zahlenebene bzw. fiir
ex = 0 die komplexe Zahlenebene selbst.
a2) Es ist b =l= O. Eine Umformung der Gl. (53) ergibt

b2(A) = b b (~ -~)(: - A) = fJ 2ClJ -}.} (P - ).) = fJ 2 1P - .11 2 , (59)

und dies ist ein nach oben geaffnetes Rotationsparaboloid iiber der
komplexen Zahlenebene, das diese im (einzigen) Eigenwert A = alb,
dem FuBpunkt
P = alb (60)
des Paraboloides von oben beriihrt, siehe dazu Abb. 25.3a.
42 § 25. Norm, Kondition, Korrektur und Defekt

b) Das Vektorparaboloid. Mit zwei Yektoren a und b wird der


Defekt und sein Quadrat
d(J.) = a - ). b; 62 ().) = cl*().) d().) , (61)

)
a u
b
Abb.25.3. a:1 Skalarparaboloid; b) \"ektorparaboloid; c) ~Iatrixparaboloid

und wieder ist

62 ().) = 1* Q I mit 0
~
= ( a* a
-b*a
-a*
b* b
b) = (C(2
-y
-Y)
(32
(62)

wie in (56), jetzt mit den Skalarprodukten


C(2 := a* a ~ 0; (32:= b* b ~ 0; y:= b* a i. aUg. komplex. (63)
bi) b = o. Horizontalebene 62 = C(2 const,
b2) b =1= o. Paraboloid. Die Flachengleichung
+ y).) + (32).).
- -
62().) = (J(2 - (y). (64)
schreiben wir mit Hilfe einer quadratischen Erganzung in der Form

(65)

mit der minimalen Ordinate


62 .
mm
= 62 (P) =
(J(
2 _ Yf32y = det
f32
Q (66)
und dem FuJ3punkt
(67)

siehe Abb. 25.3 b. Wir sehen: Das Yektorparaboloid kann die kom-
plexe Zahlenebene nur beriihren, wenn a = a b ist, dann namlich setzt
es im FuJ3punkt P = b * alb * b = a auf, und da jetzt die Determinante
von Q verschwindet, wird 62 (P) = 62 (a) = 0, wie es sein muJ3.
c) Das l\Iatrixparaboloid. Es sei nun a = .4;r und b = B;r mit
zwei beliebigen, auch rechteckigen :\Iatrizen A und B. Dann gilt alles
unter b) Gesagte, doch wollen wir uns auf quadratische Matrizen be-
~5.4. Das normierte Defektquadrat (Norm III) 43
scbranken, die beide singular sein dtirfen. em uns von der Lange (dem
Betrag) des Vektors ;£ zu befreien, geben wir von der bermiteschen
Form zum Formenquotienten tiber; auBerdem erweist es sich als
vorteilhaft, das Defektquadrat mit Hilfe zweier hermitescher positiv
definiter Matrizen lU und N zu normieren. Auf diese Weise entsteht aus
dem Defektvektor (52) als Verallgemeinerung von (53) das normierte
Defektquadrat

b2 (A. ;£) := d*(A,:r).U-1 d(i.,:r) ~ 0 {M* =JIpos. def. ,(68)


, :r* X:r
._------
-'
~
"T*
= N pos. def.
das sich wiederum schreiben laBt als

b 2 (A.,;£) = l* Q(;£) l mit (69)

doch bangt die hermitesche }Iatrix Q(;£) jetzt vom Vektor ;£ abo Sie
heiBt die Formenquotientenmatrix, denn ihre Elemente sind die reellen
nichtnegativen hermiteschen Formenquotienten
:r* A * M-l A :r fJ2(;£) : = :r* B* .11- 1 B:r ~ 0 (70)
(X2(;£) : = ~ 0
:r* N:r -, :r* N:r -
und die im allgemeinen komplexen Quotienten y(;£) und y(;£) mit
:r* B* ~lf-l A :r
y(;£) := . (71)
:r* N:r
Wieder haben WIr wie unter a) und b) die Fallunterscheidung zu
treffen:
c1) b = B;£ = o. Dies ist fUr niehtverschwindenden Vektor;£ nur
moglich, wenn B singular ist. Das Relief ist dann die Horizontalebene
2 2 :r* .4 * .,""-1 A :r
b (;£) = (X (;£) = - - - - - - - ~ 0 (72)
:r* N:r
bzw. fUr A;£ = 0 die komplexe Zahlenebene selbst.
e2) b = B;£ =f= o. Wie im Vektorparaboloid (man hat nur a und b
durch A;£ und B;£ zu ersetzen) laBt sich mit Hilfe der quadratischen
Erganzung eine Umformung vornehmen, und man bekommt mit dem
FuBpunkt
:r* B* .1I- 1 A :r
P(;£) = :r* B* !'to' B :r (73)
und der dort angenommenen minimalen Ordinate des Paraboloides
b 2 . (;£) = b2(P ;£) = (X2(;£) _ ~(:r) y(:r) = __
1 det Q(;£) ~ 0 (74)
mm' P2(:r) P2(:r) -
die Flachengleichung in der durchsiehtigen Form
(75)
44 § 25. Norm, Kondition, Korrektur und Defekt

Fiir jeden festgewahlten Vektor ~ ist dies mit A x = a und B x = b


ein wohlbestimmtes Vektorparaboloid (64). Die Gesamtheit all dieser
Vektorparaboloide bildet eine Schale, die nach Abb. 25.3c fiir jeden
Punkt A einen Wertebereich JV(i.) besitzt, der als die SPanne der Schale
bezeichnet wird. 1st insbesondere A = a B und B regular, so wird der
Defekt d(A, x) = (A - A B) x = (a - i.) B x = (a - A) y mit y : = B x.
Die Schale schrumpft dann zu einem Yektorparaboloid mit der Spanne
Null zusammen, ist somit unabhangig vom Vektor y = B x. Bei be-
liebigen Matrizenpaaren indes laBt sich hochstens erreichen, daB die
Spanne in einem vOIgegebenem Schiftpunkt A (speziell im Null-
punkt 0) gleich Null wird durch die :\IaBnahme der Biindelung, die
uns schon von Abb. 21.8 her vertraut ist, und eben diesem Zweck dienen
die beiden N ormierungsmatrizen .1I und N. Es sei namlich A bzw.
A := F(A) = A - A B regular und A = P Q eine beliebige Zer-
legung von A, beispielsweise eine Dreieckszerlegung nach GAUSS bzw.
BANACHIEWICZ oder auch die primitive Zerlegung, wo P oder Q gleich
der Einheitsmatrix list. Setzen wir
M= P*P, N= Q* Q; PQ=A, (76)
so wird, wie leicht nachzurechnen, (X2 = 1 = const fiir jeden Vektor x,
und damit ist die Biindelung im Schiftpunkt A bzw. im Nullpunkt 0
erreicht. SolI dagegen {32 = 1 werden, so lei stet das die analoge Zer-
legung der Matrix B (die allerdings regular sein muB); alle Rotations-
paraboloide haben jetzt die gleiche Kriimmung (32 = 1 und sind daher
einander kongruent und gegeneinander verschoben, siehe Abb. 21.3 bis
21.5.
Wir fragen nun, unter welchen Bedingungen das Defektquadrat
verschwindet. Dies ist, wie wir in b) sahen, nur moglich, wenn a = a b,
hier also A x = a B x wird; dies abel" bedeutet, daB a = Ai ein Eigen-
wert des Paares A; B und :ri der zugehorige Eigenvektor sein muB.
Das Relief c5 2(i'i' Xi) heiBt dann das Eigellparaboloid der ~ummer j.
Es beriihrt die komplexe Zahlenebene im Eigenwert i'i von oben.
Wahlt man nun einen beliebigen von ~ull verschiedenen Testvektor
(Versuchsvektor) x und nimmt fiir diesen im FuBpunkt p das Defekt-
quadrat zwar nicht den Wert Null, jedoch einen kleinen Wert an, so
kann gezeigt werden, daB ein Eigenwert in der Nahe von p liegt. Urn
die auf dieser Tatsache basierenden EinschlieBungssatze (die wir im
§ 36 kennenlernen werden) zu vereinfachen, ist es erforderlich, die
Spanne W(A) der Schale durch zwei Grenzflachen
!y().) ~ W(A) ~ W(i.) (77)
oder noch einfacher zwei Rotationsflachen
!f(r) ~ W(A) ~ W(r); (78)
25.5. Die Kondition einer :\Iatrix. Skalierung. Sensibilitat 45
mit der Drehachse im Schiftpunkt A einzuschlieBen. Auf dieser Idee
beruht zum Beispiel der Determinantensatz (42.21) ebenso wie eine
Reihe anderer, auf den Normen I und II basierender EinschlieBungs-
satze fUr die Eigenwerte von Polynommatrizen.
AbschlieBend diskutieren wir die Besonderheiten eines normalen
Paares
A*B-IA = AB-l.4*; B* = B pos. def. (79)
Wahlen wir JI = N = B, so werden die Formenquotienten der :\Ia-
trix Q(;r)
;r* A * B-1 A ;r ;r* .4 ;r
cx 2 (;r) = ;r* B;r
; (32 = ;r* B;r
;r* B;r
= 1; y(;r) = ;r*
-B;r- = R(;r) .
(SO)
Hier wurde also die B-Normierung erreicht, ohne daB B zerlegt werden
miiBte, und y(;r), damit auch wegen (32 = 1 der FuBpunkt p(;r) , ist
nichts anderes als der RA YLEIGH-Quotient. Das heiBt: Bei festgewahltem
Testvektor;r wird das Defektquadrat eines normalen Paares minimal
fUr den RA YLEIGH-Quotienten.
1st andererseits die Matrix .-1 hermitesch und positiv definit und
wahlt man lU = N = A, so wird in analoger Weise mit
;r* B* ..J.- 1 B;r
2
cx----
_;r* A;r _ 1
(32 (;r) = - _ . - -.; y(;r) -B;r
= ;r* -= R-l(;r)
;r* A;r ;r* .t ;r ;r* .t ;r
(S1)
die Biindelung im Nul~punkt oder allgemeiner im Schiftpunkt A er-
reicht, wenn A durch A := F(A) = A - A B ersetzt wird.
SchlieBlich erinnern wir an das in diesem Zusammenhang wichtige
Korrespondenzprinzip (21.41), wonach die Berechnung bzw. Ab-
schatzung des Formenquotienten cx 2 (;r) (SO) auf die leichter zu er-
mittelnden Eigenwerte des normalen Paares A.; B selbst abgewalzt
werden kann. Zum anderen erkennen wir: die Eigenparaboloide eines
normalen Paares A; B sind die Betragsquadrate ihrer Eigenebenen.
Speziell fUr hermitesche Paare bedeutet das: die Eigenparabeln iiber
der reellen }.-Achse sind die quadrierten Eigengeraden.
Das normierte (oder mit ~1I = AT = lauch nicht normierte) Defekt-
quadrat spielt eine fundamentale Rolle sowohl beim Eigenwert-
problem wie bei den im § 33 beschriebenen Relaxationsmethoden zur
iterativen Lasung eines linearen Gleichungssystems.

25.5. Die Kondition einer Matrix. Skalierung. Sensibilitat


1m Zusammenhang mit der Auflasung von linearen Gleichungs-
systemen
A;r = l' (S2)
46 § 25. Xonn, Kondition , Korrektur und Defekt

tritt die Frage der Konditiutt der 2'Iatrix in den Vordergrund, worunter
verstanden wird, daB sich (82) be! gutkonditionierter ~Iatrix A fur
jede beliebige rechte Seite numerisch stabil auflasen laBt; anderenfalls
heiBt die Matrix schlecht konditioniert (oder ill conditioned). Was ge-
meint ist, versteht man sofort, wenn man zwei reelle Gleiehungen zeieh-
neriseh zu lasen versueht durch den Sehnitt zweier gerader Linien mit
einer dureh die Zeiehenungenauigkeit bedingten Toleranzbreite fl
bzw. ft..
Xl

",J
I

a c
Abb. 25.4. Zeichneriscbe Losung ein es Gleich ungssys tems Hir 11 = 2 im Reellen. a) bestens konditioniert:
senkrecht e Schnitte; b} maOig konditioniert; c) schlech t konditionie.rt: schleifcnde Schnitte

I I
- r f- --
I
I
0
I
Abb.25 .5. Schnittverhaltnisse bei diagonalcr KoeffizientC'nmatrix Hir It = 2 im Rcellen

Man erkennt: je "orthogonaler" die Sehnitte, urn so sieherer die


Lasung. Dies wird noeh augenseheinlieher, wenn die Sehnittfigur von
Abb. 2S.4a naeh Abb. 25.5 aehsenparallel gedreht wird, wodureh die
Kondition sich nieht andert, doch sind die beiden Gleiehungen nunmehr
entkoppelt und haben die voneinander unabhangigen Lasungen Xl = a l
und x 2 = a2 , was niehts anderes bedeutet, daB infolge der Drehung
die Matrix A diagonal geworden ist. Genau diese Transformations-
eigensehaft aber besitzt jede unitare ~Iatrix A . Der Dlehung auf
Hauptaehsen entsprieht die ~Iultiplikation der Gl. (82) von links mit
A * (das ist die GAusssehe Transformation (2.39))
A*Ax=A*t, mit A*.4 = Diag(aja j ) , (83)
25.5. Die Kondition eincr :\Iatrix. Skalierung. Sensibilitat 47

womit die entkoppelten Losungen


(a*J a.)
J
x·J = a*}1"' J =1,2, ... ,10 (84)
fertig vor uns stehen. 1st A uberdies normiert, so wird wegen aj a i = 1
noch einfacher
.r·1 = a*
J 1"' j=1,2, ... ,n . (85)
Aufgrund dieser Eigenschaft erhalt die normiert-unitare ~Iatrix als
sogenannte Konditionszahl x das Pradikat x = 1, wahrend fur be-
liebige Matrix die Note x ~ 1 vergeben wird. Eine singulare Matrix
bekommt den Wert x = 00; es bezeichnet dies die Cnauflosbarkeit des
Gleichungssystems fur beliebige rechte Seiten, wobei der Begriff der
Vertriiglichkeit in die Konditionsbestimmung nicht eingeht, der Rang
einer singularen Matrix so mit unbewertet bleibt.
An Definitionen solcher Zahlen, die dieser Bedingung genugen, hat
es in der Vergangenheit nicht gefehlt, doch setzt sich die

Konditionszahl x = IIAII ·IIA- 1 11 (86)

mehr und mehr als verbindlich durch. "'ir test en sie fur drei Sonder-
falle.
1. A = D ist Diagonalmatrix. Dann gilt offen bar fUr Zeilennorm,
Spaltennorm und Spektralnorm
n 1t

X = max IdUI . max Idj} I (87)


i~1 i~1

denn die Diagonalelemente von D sind die Eigenwerte des Paares


D;I.
2. A ist normal. Dann ist die Spektralnorm gleich dem Betrag des
betragsgroJ3ten Eigenwertes des Paares "4; I, und da "4 -1; 1 die rezi-
pro ken Eigenwerte besitzt, gilt
" " IAil max
x = max IAjl . max IAil1 - -~- (88)
j~l j-d - I)'jlmill

wie unter (87), aber eben nur fUr die Spektralnorm.


3. A ist normiert unitar (und damit normal). Dann liegen alle Eigen-
werte auf dem Einheitskreis, somit wird x = 1 nach (88), wie ein-
gangs definiert.
Ein offenbarer Nachteil der durch (86) erklarten Konditionszahl ist,
daJ3 wir weder die Inverse noch das Spektrum von A. kennen, in praxi
ist man deshalb auf Schatzungen bzw. die EinschlieJ3ungssatze aus dem
§ 36 angewiesen.
Dazu ein einfaches Beispiel. 1m GleichungssystcmA ;r = r sei.4 cine Dyade vom
Rang 1 mit vertraglicher rechter Seite r:
48 § 25. Xorm, Kondition, Korrektur und Defekt

Subtrahiert man Yon der zweiten bis n-ten Zeile die erste, so ist (scheinbar) alles in
bester Ordnung: die letzten n - 1 Gleichungen sind fur jeden Yektor;r erfiiIlt, und
in der ersten sind n - 1 Komponenten des Yektors ;r frei wahibar. Trotzdem ist
die Konditionszahl " = 00, und das ist gut so; denn die kieinste Starung der
rechten Seite zerstart schon die Yertraglichkeit und macht das Gieichungssystem
unauflasbar.
Was wird nun im allgemeinen Fall aus der GAussschen Transfor-
mation, die bei der normiert-unitaren :\Iatrix nach (85) sofort zur
Losung fiihrte ? \Vir wollen die regulare Systemmatrix G nennen, dann
folgt aus
G x = l' --+ G* G = G* l' , G regular, (89)

wo nun G* G hermitesch und positiv definit ist, allerdings von im


allgemeinen schlechterer Kondition als G seIber, was man im Falle der
hermiteschen Matrix G sofort einsieht, denn G* G = G G = G2 hat
die Eigenwerte A.7, womit das Spektrum auseinandergezogen und damit
der Quotient (88) vergrof3ert wird.
Urn zu einem weiteren niitzlichen Begriff zu kommen, nehmen wir
eine Spaltennormierung (Skalierung) der :\Iatrix G vor, was der Ein-
fiihrung neuer Unbekannter gleichkommt.

G .
X=gl''\l + . . . + gn''\n=
' / gi (/~-')
*-\glg1'\1 + ...
WI g1
+ g;, i (\,i:-Yn Xn) =: 91 Xl + ... + Yn Xn . (90)
Vg"gn

Fiihren wir jetzt die GAcsssche Transformation durch, so wird


(91)
oder kurz
(92)
mit der hermiteschen und positiy definiten :\Iatrix

f1 al2 al3 al>i 1


a 2l a 23 a'2.n
A a3l a 32 a311
.......... . . . ...
anI a n2 ana ... 1
25.5. Die Kondition einer Matrix. Skalierung. Sensibilitat 49

Wir definieren nun als weiteres KonditionsmaB (nicht Konditions-


zahl), das auch als MaB fUr die Diagonaldominanz von A dienen kann,
die
I 'l I
. NiveauhOhe 13 := max la'kl; j =l= k . (94)
. k=1
1,
1 .i

Damit laB! sich die Spalten- und Zeilennorm der Matrix A abschatzen
zu
IIAIII,II ~ 1 + (n - 1) 13, (95)
und weiter folgt aus dem Satz von GERSCHGORI~ (36.6) im Verein mit
Satz 1 in Abschnitt 25.3
1
IIA-lIII,II ~ 1 - (n - 1) 13 falls e<~-,
11 - 1
(96)
somit nach (86)
x ::; 1--=+-_(11 -1) E falls 13 < ~1~ . (97)
- 1 - (11 - 1) E n - 1
Man sieht, die wiehtige Zusatzbedingung fur 13 ist unentbehrlieh; sie ist
gleichzeitig ein MaB fur die Diagonaldominanz von A und damit die
Spaltenregularitat von G.
Die abgeleiteten Beziehungen lassen eine einfache geometrisehe
Deutung zu als die Kosinusquadrate der Winkel zwischen zwei Spalten
der Nummernj und k, denn es ist
~- *
cos 2 y. := -(gA'!'-gA~) (gA*gA ) = (gj*gk) (gj gk) = ajkali!.., (98)
lk 1 k J k (g*g.)
jl
(g*g)
kk
a .. a kk
/1

und aIle zweireihigen Hauptminoren der :'Ilatrix A (93) sind

A jk =( 1 (ijk)., d et A jk = 1 - a- jk a jk = 1 - cos2 <


Yjk = sm Yjk = 1 .
' 2
ajk 1
(99)
Man erkennt indessen, daB eos 2 Yik
kein MaB fUr die Kondition ist
auBer im Fall n = 2, wo naeh (97) aus x ~ (1 + (3)/(1 - e) mit
13 = lal2 1die Singularitat fur 13 = la12 1= 1 sieher ist.
Fur den Anwender weitaus wiehtiger als die Diskussion solcher
Konditionszahlen bzw. -maBe ist die Frage, was gegen eine schlecht
konditionierte Matrix zu unternehmen ist. Eine - wenn auch zumeist
reeht aufwendige - Radikalkur besteht in der im Absehnitt .30·3
beschriebenen JAcoBIsehen Rotation, mit deren Hilfe die Niveauhohe
so klein und damit die Auflosung des rotierten Gleiehungssystems so
stabil gemaeht werden kann wie immer man wunseht. Geometrisch
bedeutet dies, daB das zur hermitesehen und positiv definiten GAUSS-
schen Matrix A = a*
Ggehorige Ellipsoid x* A x = eonst mehr und
50 § 25. ~orm, Kondition, Korrektur und Defekt

mehr zu einer Kugel zusammengestaucht bzw. gereckt wird, so daB


schlieBlich keine Raumrichtung vor der anderen ausgezeichnet ist, da
A gegen I konvergiert.
Beziiglich weiterer Auskiinfte zu dies em Problemkreis sei der Leser
verwiesen auf eine Arbeit von HEIXRICH ~ 136J sowie auf die Dar-
stellung von MAESS :37, S. 96~1lO~ .

• 25.6. Defekt und Korrektur


\Vird in die Gleichung
F(/.) x = l' (100)
ein Naherungswert A fUr A und ein Kaherungsvektor z fUr x eingesetzt,
so entsteht der Defektvektor
F(A) z ~ l' = :d , (101)
dessen Norm ein :'IraB fUr den begangenen Fehler oder die (negative)
Korrektur
1:= z - x (102)
ist. Fiihrt man z in (100) und anschlie13end l' in (101) ein, so entsteht
die von r freie Gleichung
[F(A) ~ F(A)] z + Ji'(/.) I = d. (103)
Insbesondere beim inhomogenen Problem mit vorgegebenem Para-
meterwert A = A (erzwungene Schwingungen, Knickbiegung u. a.) ver-
schwindet der Klammerinhalt in (103), und es verbleibt
F(A) I = d, (104)
und das gleiche gilt bei von vornherein fehlendem Parameter (etwa in
der Statik, Theorie erster Ordnung), wo dann meist F(A) mit A.
bezeichnet wird. Die Gleichungen (100) und (104) zusammengenommen
besagen dann
.4 x = " ~ .4 I = d !. (105)

Wir ersehen daraus: Fehler lund Defekt d geniigen derselben Gleichung


wie Lasung x und lechte Seite t'. Dieser einfache Zusammenhang setzt
uns in den Stand, mit Hilfe des Defektvektors bzw. seiner Norm den
Fehler der Naherung und damit die Korrektur k = ~I exakt in
Schranken einzuschlieBen. Da dariiber hinaus, wie wir in (24.2) sahen,
der Defekt im Gegensatz zur ~aherung z aus einer weniger fehler-
behafteten, weil divisionsfreien und in zahlreiche kurze Ketten zer-
fallenden Vorwartsrechnung entsteht, die urn vieles vertrauenswiirdiger
ist als die Ermittlung von z, kommt der Zuordnung (105) allergraBte
Bedeutung zu. Wir beschlie13en daher diesen Paragraphen gleich mit
zwei Postulaten.
26.1. Die Matrizenhauptgleichung und der Alternati\"satz 51

Erstens:
Traue nur dent Defekt!
und
zweitens:
Jeder Algorithmus endet mit einer EinschliefJung.

§ 26. Kondensation und Ritzsches Verfahren

.26.1. Die Matrizenhauptgleichung und der Alternativsatz.


Resonanz und Scheinresonanz
Fast jedes Problem der angewandten linearen Algebra fiihrt auf die
Gleichung
F(A) ;r = t' , (1 )

die wir deshalb geradezu als M atrizenhauptgleichzmg bezeichnen wollen.


1m allgemeinen ist die Matrix F(A) und die rechte Seite r gegeben, der
Vektor ;r gesucht. Wenn r = 0 ist, heiBt die Gleichung homogen,
sonst inhomogen. Die Matrix F(A) sei quadratisch, dann ist zu unter-
scheiden, ob die Determinante von F(A) verschwindet oder nicht, ob
also fur den gewahlten Parameterwert A die Matrix singular oder
regular wird. Damit begegnen uns die folgenden vier FaIle:
1. Die homogene Gleichung F(A) ;r = o.
Fall 1.1. Die Determinante verschwindet nicht, A ist somit kein
Eigenwert. Es existiert nur die Triviallosung ;r = o.
Fall 1.2. Die Determinante verschwindet fur einen Eigenwert )'j'
a) Es existiert die Triviallosung;r = o.
b) Zum Eigenwert Ai gehort als Losung der Gleichung F(A1) ;rj = 0
ein Eigenvektor (Xi;ri mit beliebig wahlbarem skalaren Fak-
tor (Xi' der auch Null sein darf, was wieder auf die Trivial-
losung a) fiihrt. 1st der Eigenwert )'i von der Vielfachheit CPi'
so gibt es dazu mindestens einen und hochstens CPi linear un-
abhiingige Eigenvektoren.
2. Die inhomogene Gleichung F(A) ;r = 1'.
Fall 2.1. Die Determinante verschwindet nicht; dann existiert eine
eindeutige Losung;r = F(A)-l t'.
Fall 2.2. Die Determinante verschwindet; eine Kehrmatrix existiert
nicht.
a) Es ist keine Losung vorhanden, da das System (1) wider-
spruchlich ist,
b) Fur eine vertragliche rechte Seite r ist das System 16sbar, je-
doch nicht eindeutig, siehe Abschnitt 8.2.
52 § 26. Kondensation und HITzsches Yerfahren

Wir fassen alles Gesagte noch einmal ubersichtlich in der folgenden


Tabelle zusammen, deren Inhalt als Alternativsatz bezeichnet wird:

F(}.) x = T
det F(}. ) =1= 1I detF(}.) = 0
}. nicht Eigenwert ;. = )'iEigenwert

homogen Fall 1.1 : Fall 1.2:


F(}.) x = 0 x = o a) x = 0 Triviallasung
Triyiallasung b) x = (Xi xi Eigem'ektor

Fall 2.1: F a ll 2.2:


inhomogen x = F-l r a) Keine Lasung "orhanden: Resonanz.
F(}') x = T Lasung eind euti g b) Falls T Yertraglich, Lasung yorhanden,
aber nicht eindeutig: Scheinresonanz.

(Ia)

Dieser Satz gilt auch dann, wenn die "latrix F = A konstant ist,
also gar keinen Parameter enthalt. :\Ian hat dann lediglich nachzu-
prufen, ob die Determinante von .4 verschwindet oder nicht.

;'H >c
j:sponn'

Sc
j:tsponr.

Abb. 26.1. Zum Rcsonanzphi.lllomen

Was bedeutet nun Resonanz in den Anwendungen? Greifen wir


aus der Fulle der Probleme als einfachste Anschauungsbeispiele die
beiden mechanischen Systeme der Abb. 26.1 mit den zugehorigen
GIn. (1 b) und (1 c) heraus.

f(}.) x = K, (1 b)

f(}.) xmax = (-i. III + c) Xmax = K, A. = Q2 . (1 c)


In beiden Fallen ist zu verlangen, daB d er Klammerinhalt der linken
Seite nicht verschwindet , wei I sonst die Gleichung fUr K =!= 0 zum
Widerspruch fiihrt. Es darf also weder}. = c l/H sein (kritische Knick-
26.1. Die Matrizenhauptgleichung und der AlternatiYsatz 53
Hi.nge l bzw. kritiseher Kniekparameter A) noeh A = elm, somit
Q2 = w 2 = elm (kritisehe Kreisfrequenz oder Eigenkreisfrequenz).
Das Resonanzphanomen ist stets ein Hinweis darauf, daB unzulassig
linearisiert wurde (meistens handelt es sieh urn ein Verzweigungs-
problem). Das physikalisehe System wird dann dureh die mathemati-
sehe Gleiehung nieht allgemein genug - wenn aueh fUr gewisse Frage-
stellungen ausreiehend - besehrieben. Keinesfalls aber ist es so, (wie
man bisweilen h6ren oder lesen kann), daB bei Resonanz die Ampli-
tude x "iiber alle Grenzen" wiiehse.

,
Xi

Abb.26.2. Gekoppeitc S ysteme. Scheinresonanz

Hat das System mehrere Freiheitsgrade, so gel ten als Verallgemeine-


rung von (1b), (1e) die Gleiehungen
F(A):r = ( _ Je 1: + c):r = k, (1d)
F(A) :rmax = (-},.lJ + C) :rmax = 1~. (1e)
Der Begriff der Seheinresonanz ist im Skalaren inhaltslos, bei Syste-
men mit mehreren Freiheitsgraden naeh Abb. 26.2 indessen von
fundamentaler Bedeutung. Urn ihn besser verstehen zu k6nnen, nehmen
wir an, F(Je) sei eine Diagonalmatrix, dann ist die }Iatrizenhaupt-
gleichung (1) entkoppelt und zerfallt in die It voneinander unabhangigen
skalaren Gleichungen
fjj(Je) Xj = r j ; j = 1, 2, . . . , n . (2)
Werden nun einige oder alle Elemente gleieh Null , weil}, Eigenwert ist,
so hat man zu unterseheiden, ob die rechte Seite ebenfalls versehwin-
det, dann ist 0 . xi = 0 fiir beliebige \rerte von xi erfiillbar (Sehein-
resonanz), oder aber es entsteht der \riderspruch O· xi = r i =F 0
(Resonanz). Die Eigenvektoren sind hier die n Einheitsvektoren:r j = e i ,
und die Vertraglichkeit bedeutet eben nichts anderes als daB bei einem
entkoppelten Verband von n Einzelsystemen der Abb. 26.1 das System
54 § 26. Kondensation und RITzsehes Yerfahren

der Nummer j nicht mit seinem eigenen Eigenwert Ai erregt wird, denn
fUr das Einzelsystem der Nummer k braucht Ai nicht eigener Eigenwert
zu sein. Etwas vereinfacht ausgedriickt: Resonanz herrscht nur dann,
wenn das entkoppelte System an der "verkehrten Stelle" erregt wird.
1st nun die Matrix F(A) parameterdiagonaHi.hnlich, so HiBt sich die
Matrizenhauptgleichung (1) auf die Diagonalform ihrer n Eigen-
gleichungen yT F(A) X = }'T 1" (1 d) transformieren, und an die Stelle
der Einheitsvektoren e i treten die Rechtseigenvektoren J:i = X ei .
Dazu ein einfaehes Beispiel. Gegeben ist die auf Knieken beansprnehte Gelenk-
kette der Abb. 26.3a mit

c=c(~ ~). H H( 2 -1),


=
-1 1
T = (Kl)
K2
, (a)

- !- ·-1-

Abb.26.3. Auf Knicke n beanspruchte Gelenkkette

siehe aueh (44.2). Man lost das homogene Problem F(A.) ;E = 0, findet die beiden
Eigenwerte (b) und die Modalmatrix (e) und transformiert damit die Matrizen-
hauptgleiehung auf die DiagonalformF().) i =r (g), (h).

(b)

(e)

(d)

o
(e)
H
-A. 5 -
1
+
26.2. Kondensation als Teil fUr das Ganze 55

r= XT T = ( I\~ ~
21\1' )
,](2.),
n 2
(f)

(-A 5~ + 10e)xl = 1\1- K 2 , (g)

( - ). 5~ + 60 e);2 = 2 1\1 + 3 K2 . (h)

Aus diesen beiden entkoppelten Gleiehungen bereehnet man Xl und ;2 und


gewinnt damit aueh die gesuehten Auslenkungen (Amplituden) Xl und x 2 naeh (d)
mit X aus (e).
Fall 1. Homogenes System. 1\1 = 1\2 = O. Reines Knieken mit den Kniekfiguren
(Eigenkniekformen) der Abb. 26.3a und b.
Fall 2. Inhomogenes System.
2a) A ist kein Eigenwert. Dann wird die Losung durch (g) und (h) eindeutig
bestimmt.
2 b) A ist Eigenwert. Alternativsatz: entweder keine Losung oder unbe-
stimmte Losung (Scheinresonanz). Beispielsweise sei ;. = Al = 2 c [jH,
dann lauten die beiden Gleichungen (g) und (h)
(i)

Die erste verlangt Kl = K2 = 1\, und damit liefert die zweite 50 c 2 x


x
= 5 K, somit 2 = 0,1 Kjc; Xl = ex Kjc ist beliebig. Die Losung ;r wird
zuriicktransformiert und ergibt

x- = ( ex )](
- , x -_ X x- _
- ( ex + 0,2) -1\ -_ ex Xl ...L
' (0,2) -K . (J')
0,1 c -ex+0,3 c 0,3 c
Die Abb. 26.3d zeigt die Losung fiir ex = 0, somit Xl = 0,2 Kjc und x 2 = 0,3 ](je.
Die beiden zugehorigen Federkrafte (Riickstellkrafte) sind 6 C • Xl = 1,2 K und
4 e . x 2 = 1,2 K. Die c\lomentensumme fiir den reehten Stab beziiglich des Ge-
lenkes G
I M(G) = (1,2 K - K) [ - 2 e I(X2 - Xl) = 0,2 K [ - 2 C I· 0,1 Kje = ° (k)
und die Momentensumme fiir den Gesamtverband beziiglich des festen Gelenkes u
I M(o) = (1,2 K - K) 1 + (1,2 K - K) 2l - 2 e l· x 2
= 0,4 K [ - 2 c [ . 0,2 Kjc = ° (I)
verschwinden, wie es sein mull. Der Leser fiihre die analoge Rechnung fiir den
zweiten Knickwert A2 = 12 c ljH durch .

• 26.2. Kondensation als Teil fUr das Ganze

Kondensation oder Verdichtung bedeutet, daB aus der Matrizen-


hauptgleichung (1) der Ordnung It ein fur die spezielle Fragestellung
moglichst reprasentativer Unterraum der Ordnung 111 < n heraus-
geschnitten wird. Grundlage des Verfahrens ist eine Transformation
mit den beiden regularen n X n-~Iatrizen
tt
R=lRl:R2;'
~; ]~
L=
[ ]
_~:- r~, (3)

+--n---+
56 § 26. Kondensation und RITzsches Verfahren

wonach die Originalaufgabe iibergeht in

mit den Teilvektoren ZI und Z2

(5)

und einer neuen rechten Seite. Eliminieren wir aus der ersten Block-
gleichung (4) den Vektor Z2' so entsteht nach dem Vorgehen ausAb-
schnitt 22.2 mit der reduzierten :\Iatrix
F l1 ,red().) = F l l (A) - FI2(A) Fi2 1 ().) F 2I (}·) (6)
und der reduzierten rechten Seite
r I, red (A) = LI I' - Fd).) Fi21(A) L2 r (7)
das gestaffelte Gleichungssystem

[ F ,red()')
l1 0 [[ZI] = ["l,red(A)] , (8)
F2I (A) F 22 (A) Z2 L2 r
und das bei der Kondensation verfolgte Prinzip besteht darin, anstelle
der exakt giiltigen ersten Blockgleichung
Fll,red(A) ZI = r1,red()') (9)
unter Nichtachtung der beiden Teilmatrizen L2 und R2 die beiden
Subtrahenden in (6) und (7) fortzulassen und die so verstiimmelte
Gl. (9)
(10)

mit dem verstiimmelten Vektor

(11)

als Ersatz fUr die vollstandige Gleichung F(}.) x = I' heranzuziehen, ein
Vorgehen, das natiirlich nur dann Erfolg verspricht, wenn die beiden
rechteckigen Teilmatrizen aus (3)

L[ = [11' '2' ... ,,,,,J1 ; RI = b, 1'2' . . . "'m] f (12)


geeignet gewahlt werden, namlich so, daB die dadurch entstehenden
Rander FI2 (A) und F 2I (A) fur aIle Parameterwerte A moglichst klein aus-
fallen. Genau dann wird in der reduzierten :\Iatrix (6) der Subtrahend
quadratisch klein, der begangene Fehler so mit akzeptabel, und auf
dieser Voraussetzung beruht die praktische Brauchbarkeit der Me-
26.2. Kondensation als Teil fUr das Ganze 57
thode. Besteht R (bzw. L) insbesondere aus einer Linearkombination
von m Rechtseigenvektoren (bzw. Linkseigenvektoren), so wird
F 21 (A) = 0 (bzw. F I2 (A) = 0), wie man sich leicht klar macht, und dies
bedeutet daB das Ergebnis der Kondensation urn so besser ausfaIlt,
je weniger die Ansatzvektoren lj und 1'1 in den :\Iatrizen (12) von irgend
m Links-(bzw. Rechts-)eigenvektoren der Aufgabe F(A)X = 0 ver-
schieden sind, und solche Naherungsvektoren liegen gerade in den
technischen Anwendungen sowie bei den benachbarten (gestorten,
abgeanderten) Systemen haufig vor. Da nun bei inhomogenen Proble-
men (erzwungene Schwingung, Knickbiegung u. a.) eine Aussage liber
nur m Komponenten des Gesamtlosungsvektors wenig nutze ist, wird
in der Praxis die Kondensation eigentlich nur auf das Eigenwert-
problem angewendet. Die grundlegenden Ideen dazu gehen auf RA Y-
LEIGH [138J und RITZ [139J zurlick, weshalb die Kondensation meist
als RITzsches Verfahren bezeichnet wird. Zur Erleichterung fUr den
Anwender geben wir das folgende
Schema einer Kondensation nach Rayleigh-Ritz
1. Kondensationsstufe m < n festlegen.
2. Zweimal m linear unabhangige Naherungsvektoren (12) wahlen.
3· Das Kondensat Fn(A) = LIF(A) RI berechnen.
4. 1m m-reihigen Ersatzproblem Fll(A) ZI = 0 einige oder aIle Eigen-
werte
AI> A 2 , . . • ,Av

mit den zugehorigen Rechts- und Linkseigenvektoren

mit Hilfe eines geeigneten Algorithmus ermitteln. Die Werte Aj


gelten dann als Naherungen fUr die gesuchten Eigenwerte Ai der
Matrix F(A) und die Vektoren
2
X2 = Rl Zl' ... , Xv = RI ZI
bzw.
1 2
fII =Ll WI' fl2 = Ll WI> . . . , 'ilv = Ll WI
als Naherungen fUr die Rechts- und Linkseigenvektoren der Aufgabe
F()') x = 0 bzw. yT F(}.) = OT .
5. Kontrolle. Es werden die Rechts- und Linksdefekte
j = 1,2, ... , v
berechnet. Anerkannt werden nur solche ~aherungen, deren De-
fekte nicht zu groB ausfallen. Diese Entscheidung ist zu prazisieren
durch
58 § 26. Kondensation und RiTzsches Verfahren

6. EinschlieBungssatze fUr Eigenwerte und Eigenvektoren, mit denen


die Kondensation grundsatzlich schlieBen sollte. Naheres dazu im
§ 36.
7. Sind die Ergebnisse unbefriedigend, weil die EinschlieBung zu grob
ausfallt, so kann die Kondensation verbessert werden entweder
durch Erhahung der Kondensationsstufe m, also Hinzunahme wei-
terer Naherungsvektoren 1'm~-1". und ' m - I . . . oder Austausch
einiger oder aller Vektoren in (7) durch bessere Naherungen oder
beides.
Die einfachste Kondensation ist die skalare mit m = 1. Man wahlt
je eine Naherung fUr einen Links- und Rechtseigenvektor bestimmter
Nummer und berechnet aus dem skalaren Kondensat
IT F(J.) l' . Z = 0 -+ IT F(J.) T = 0 (13)
die Ersatzeigenwerte AI> A 2 , ••• ,A v , wahrend die Ansatzvektoren I
und T nicht zu verbessern sind. 1m linearen Fall F(J.) = A - J. B
liefert die Methode als einzigen Naherungswert den RAYLEIGH-
Quotienten
IT A l'
A=R=--. (14)
IT B1'

Ein spezieller RITz-Ansatz ist der mit m Einheitsvektoren e i . Offen-


bar wird dadurch aus der ~Iatrix F(J.) ein Hauptminor der Ordnung m
herausgeschnitten, womit der ganze Kondensationsaufwand zur Be-
rechnung von Ll F(J.) Rl entfallt, doch fUhrt dies nur zum Erfolg, wenn
F(J.) ausgepragt diagonaldominant ist; die exakten Rechts- und Links-
eigenvektoren sind dann von den Einheitsvektoren e i nur wenig ver-
schieden, wodurch der Ansatz gerechtfertigt wird.
Das RITzsche Verfahren ist keineswegs auf die homogene Aufgabe
F(J.) ;£ = 0 beschrankt, sondern bewahrt sich ebenso bei der Lasung
des Gleichungssystems A;£ = T, wie wir in Abschnitt 33.6 noch sehen
werden.

.26.3. Hermitesche Paare. Der Trennungssatz


Speziell fUr hermitesche Paare
F(J.) = A -J.B, A* =A, B* = B pos. def. (15 )
wird man auch das Kondensat hermitesch erhalten wollen. Dies gelingt,
indem man L = R * wahlt; es wird dann
An = R* AR, Bn = R* BR pos. def., (16)
und dieses Paar wird mit Hilfe der im Abschnitt 24.10 beschriebenen
additiven Zerlegung berechnet. Ordnet man Originalspektrum und
26.3. Hermitesche Paare. Der Trennungssatz 59
Ersatzspektrum der GroBe nach
A] ~ .1.2 ~ .1.3 ~ .•. ~ )'n , (17)
Al ~ A2 ~ A3 ~ ... ~ Am; m<n, (18)
so besteht aufgrund des in Abschnitt 15.2 hergeleiteten }\{axi11lu1Il-
Minimum-Prinzips von COURANT ~135] das folgende Zuordnungs-
schema
Al ~ AI' m < n (19)
und ebenso
m < n. (20)
Die Naherungswerte A, sind also der aufsteigenden Reihe nach groBer
und gleichzeitig der absteigenden Reihe nach kleiner als die exakten
Eigenwerte Ai' Tragt man beide Spektren nach Abb. 26.4 auf zwei

Abb.26.4. Zum :'!aximum·~Iinimum-Prinzip

parallelen Geraden auf, so bedeutet dies, daB die Verbindungslinien von


AI, ... , Am zu den erst en (letzten) m Eigenwerten Ai nach links (rechts)
unten fallen oder hochstens senkrecht verlaufen konnen. Speziell fUr
einen Ansatz der hochstmoglichen Ordnung m = n - 1 (m = n ergabe
die exakte Losung und ware somit kein Naherungsverfahren) gehen (19)
und (20) liber in
Al ~ Al ~A2 ~ A2 ~A3 ~ A3 ~}'4 ~ . . . ~An-l ~ A n- 1 ~}'n' (21)
eine Einschachtelung, die als Trennungssatz bezeichnet wird, siehe dazu
Abb.26.5.

\ \
\ \
\
\
\
\

J.) i.~

Abb. 26.;. Zum Trennungssatz

Ferner gilt: die aus dem RITz-Verfahren gewonnenen n-reihigen Nahe-


rungsvektoren sind B-unitar
fL, 11 = 1, 2, ... , m . (22)
60 § 26. Kondensation und RITzsches Verfahren

Ein Beispiel. Gegeben ist das reellsymmetrische Paar A; I mit der Differenzen-
matrix
0 -1 0 0 0
-1 0 -1 0 0
.... -K= 0 -1 0 -1 0
0 I) -1 0 -1
0 0 0 -1 oj
,Vir gehen nach dem angegebenen Schema vor.
1. Es sei m = 2.
2. Der zweireihige RITz-Ansatz mit

Rl = ( 1
2 2 2 I)T
11 12 2 -s -9

hihrt nach leichter Reclmung auf das Kondensat


- 24 - 14),)
11"') =R1F(,,)R1=R
3. F( T, T T
1 AR1-AR 1 IR 1 =
(-24-14A_
-24 - 14). -424 - 414A
4. mit den Ersatzeigenwerten

.11 = -12/7,
und den Vektoren

Die Niiherungsvektoren - hier ist y = J; - werden damit


1 2
( 1 2 2 2
1 2
;r2 = -1 -Zl + 1 'Zl = (10 10 0 -10 _JOlT oder

wo wir den Faktor 10 herausgezogen haben.


5. Die Defektvektoren sind

-4 3

o 0

Da d 2 der Nullvektor ist, muG :;'2 exakt ein Eigenvektor sein, also ist auch der
zugehorige 'Wert .12 = - 1 exakt. Ansonsten besagt die GraGe des Defektes nicht
viel, da die Niiherungen mit beliebigen Faktoren multipliziert werden durfen.
Aussagekraft hat erst das normierte Defektquadrat bzw. ein EinschlieGungssatz.
Da das Paar .4; I reellsymmetrisch ist, gelten die Besonderheiten (19) und (20)
bzw.Abb.26.4, und so entsteht hier mitAl = -12/7 = -1,71429 und den exakten
Eigenwerten Al = -y3
= -1,73205, ;'2 = -1 (nach (17.48) mit n = 5) die in
Abb. 26.6 wiedergegebene Situation.
Ferner ist nach (22) das Produkt i'i
I :;'2 = 0, wie es sein muG.
Das Besondere an diesem Beispiel ist, daG die beiden Ansatzvektoren sich zu
einem Eigenvektor linear kombinieren lassen. Dicser kann bei einem RITz-Ansatz
26.5. Lokaler Zerfall einer Parametermatrix. Bereinigung 61
also nicht etwa untergehen, sondern wird durch das Verfahren exakt heraus-
gefiltert!

Abb.26.6. Das ~Iaximum-)linimum-Prinzip fUr n = 5, III = 2

26.4. Hermitesche Kondensation


Einer der wichtigsten Kunstgriffe bei der Herleitung von Ein-
schlieBungssatzen ist die hermitesche Kondensation einer Gleichung,
worunter man folgendes versteht. Aus der skalaren Gleichung 11 = 12
folgt 11 = 12 und nach Multiplikation der linken und rechten Seiten
dieser Gleichung die Zuordnung
- -
11 = 12 -.. 1t/l = 1212 , (23)
die eben nur bedeutet, daB zwei gleiche komplexe Zahlen auch die
gleichen Betragsquadrate haben. Wird nun ein homogenes lineares
Gleichungssystem additiv aufgeteilt
(24)
so besteht neben
F1 (A) x = -F2(A) x (25)
auch die konjugiert-transformierte Gleichung
x* F!(A) = -x* F;(A) , (26)
und nun ergibt die beiderseitige Multiplikation nach dem Vorbild
(23) - hier weniger banal - die Gleichheit zweier hermite scher Formen
x* F~(A) F1 (A) x = x* F;(A) F2 (A) x , (27)
und dies sind zwei Reliefs liber der komplexen Zahlenebene, die nur
in solchen Punkten A eine gemeinsame Ordinate haben, fUr die auch die
Ausgangsgleichung (24) gilt, also genau fUr deren Eigenwerte! Dieser
Vorgang der hermiteschen Kondensation wird besonders wirkungsvoll,
wenn vorweg die Matrix in vier, neun, ... Blocke unterteilt wird, siehe
dazu die grundlegende Arbeit [175J .

• 26.5. Lokaler Zerfall einer Parametermatrix.


Bereinigung. Die Zentralgleichung
Mit der Kondensation verwandt ist die Erstellung der Zentral-
gleichung, die einen wichtigen Zugang zu zahlreichen Yerfahren der
numerischen linearen Algebra darstellt und die wir zum SchluB dieses
62 § 26. Kondcnsation und RITzsches Yerfahrcn

Kapitels herleiten wollen. Wieder gehen wir aus von der in vier B16eke
un terteil ten :\Iatrizenha u ptgleieh ung

P(}.) x = l' (Pn(~) F 12 V.)) (Xl) = (1'1). II (28)


F2l (I.) 2
->
F 22 V,) x T2 f r

Wenn die beiden Randbloeke F12 (}.)


und F2l
(A) identiseh versehwinden,
so zerHiJIt das System in die beiden voneinander unabhangigen Teil-
systeme
P n V·) = Xl 1'1 , (29)
F 22 (A) x 2 = 1'2 , (30)
und die Frage entsteht, ob eine solche - fur die Numerik hoehst er-
wunsehte - Entkopplung oder Dekomposition nieht wenigstens fUr
einen festgewahlten Parameterwert }. = A (den Sehiftpunkt) erreieht
werden kann. Dies gelingt in der Tat mit Hilfe einer Aquivalenztrans-
formation
LP(A)Rx =L1';
mit den speziellen }Iatrizen

L = (_L_~_) =
L2
(_J~!_) =
. E22
(In0
,
11/[2) ,
122
det L = 1 , (32)
und

R= (Rl
, .
:R2) = (Zl •E22) = (InZ2l 0 ),
122
det R= 1. (3)

Fuhrt man diese Transformation dureh, so wird der Reihe naeh

und nun verlangen wir, da/3 fUr einen vorgegebenen Wert A die beiden
Rander in PtA) versehwinden
F12(A) = P 12 (A) + Wl~P22(A) = 0;

eine Forderung, die unter der nun wesentlieh werdenden Voraus-


setzung, da/3
(38)
26.5. Lokaler Zerfall einer Parametermatrix. Bercinigung 63
ist, die beiden konstanten Teilmatrizen (lndexkette beachten!)
W[2 = - F I2 (A) F2':/(A); Z21 = _F2':!l(A) F 21 (A) (39)
festgelegt, womit auch die beiden gesuchten Transformationsmatrizen
Lund R als ganze gefunden sind:

L =( -FdA) F2':!l(A)) ,
122
(40)

R = ( 122
-F221 (A) F 21 (A)
o
). (41)

Die neue rechte Seite wird danach


r = (rl - F 12 (A) F2':!l(A) ) , (42)
1'2

und der transformierte Vektor ist

X = (:: _ Fil(A) F 21 (A) xJ· (43)

Die auf diese Weise mit den wohldefinierten :'Iatrizen (40) und (41)
transformierte Matrizenhauptgleichung

(44)

nennen wir die Zentralgleichung. Sie lautet ausfiihrlich

F(A) x= ( Fn(A)",
(A - A) F 21 (}.)
(A -_~) FI2 V.)) (~l) =
J1d}.) x2
(1\)
r2
(45)

und hat die folgenden Eigenschaften :


a) die letzten r = n - l Gleichungen der 1Iatrizenhauptgleichung sind
fUr den Parameterwert A = A exakt erfiillt. Daher ist
b) die Matrix F(A) entkoppelt, oder wie wir auch sagen wollen, be-
reinigt: es ist F I2 (A) = 0 und F 21 (A) = O.
c) Die Parametermatrix F(A) erfahrt einen lokalen Zerfall (local
decomposition) im vorgegebenen Schiftpunkt A. Daraus folgt, daS
bei einer Reihenentwicklung der beiden Randblocke der Faktor
A - A erscheint, wie in (45) bereits angegeben.
x
d) Der homogene Fall P(A) = o. 1st A = Av ein Eigenwert, so wird
Fn(Av) Xl = 0 , F22(Av) X2 = 0 ,

und da nach Voraussetzung (38) die Blockmatrix F22(Av) regular ist,


x
folgt 2 = 0, somit Xl =1= 0 (anderenfalls ware X der von vornherein
ausgeschlossene Nullvektor) und das heiSt: Av ist sowohl Eigenwert
-
der Matrix F(A) wie der Blockmatrix Fn(A).
-
64 § 26. I\:ondensation und RlTzsches Verfahren

ABe diese Eigenschaften bleiben mit einem urn so geringeren Fehler


erhalten, je weniger der willkiirlich gewahlte Schiftpunkt A von einem
Eigenwert).. bzw. einem vorgegebenen Parameterwert Aexakt abweicht.
Auf der Zentralgleichung basieren aufgrund dieser Tatsache eine
Reihe der leistungsstarksten Algorithmen, so etwa die (iterative) Ein-
schlieBung Acta Mechanica und die Algorithmen BONAVENTURA und
SECURITAS, ferner der auch beim nichtlinearen Eigenwertproblem
praktikable T-S-Algorithmus (TA YLOR-Entwicklung des SCHuR-Kom-
plementes).
1st nun die lJntermatrix 1<'22(A) exakt oder numerisch singular und
damit die Bedingung (38) nicht erfiillt, so gelingt die Bereinigung den-
noch, wenn die rechten Seiten in (37) vertraglich sind; der Leser
studiere dazu den Alternativsatz im Abschnitt 26.1.
SchlieBlich ist ein Yergleich mit dem RITzschen Verfahren ange-
bracht. Gehen wir ebenso wie in (8) zum gestaffelten System iiber, so
wird

(46)

mit der reduzierten Matrix (dem SCHGR-Komplement) der transfor-


mierten Matrix 1<'().)

F F
J,'ll,red(A) = J'll()') - (). - A)2 I2 (A) F;;21().) 21 ().) . (47)

Wir sehen: auch hier wird der Subtrahend quadratisch klein aufgrund
der vorweggenommenen Bereinigung, die den VorfaktOI (A - A)2 er-
zeugt, der urn so kleiner wird, je naher der Schiftpunkt A an einem
Eigenwert ).. liegt. Da im Gegensatz zum RITzschen Verfahren der
Subtrahend nicht einfach fortgelassen wird, konnen wir die Gleichung
(47) auch als Korrektur des RITzschen Yerfahrens auffassen mit der
Besonderheit, daB
a) die Blocke L'{ und R2 in den Gesamttransformationsmatrizen L
und R nicht einfach miBachtet werden und
b) die Blocke l-lTl und ZI mit den Ansatzvektoren wi, ... , wJ und
Zv •.. , Zz nicht von auBen herangetragen sondern nach Wahl eines
Naherungswertes A - unter aBerdings betrachtlichem Mehrauf-
wand! - aus der ~Iatrix 1<'(A) selbst gewonnen werden.
Dazu ein Beispiel. Gegeben ist

I' ().) = ( ~3 +-+ i.4i.


- 1 ;2
i.4 )
i.3 ;

cos i.. 1 p. ).
26.5. Lokaler Zerfall einer Parametermatrix. Bereinigung 65
Mit der Blockaufteilung I = 1 und r = 2 und dem Schiftpunkt A = 2 wird

F(2)=(-:
cos 2
11

4
0,5
:
16)
'
F;"(2) = (
-l/S
1/2
-:)
Damit folgen die beiden Transformationsmatrizen
-3,5
6)
0, R =
(1+ 0 1) 0.5 2 e 1 0 mit c := cos 2

° 1 \-U,125-c ° 1
und weiter nach einiger Rechnung die transformierten GraBen

I."~ - .),)
, " "I.3 -;- 6 A")
.
}3 ,.
i.

mit den drei Elementen der ersten SpaJte \"on F(i.)

111(A) = -A4 (0,125 +c) +i,3(O,375 + 3,5e) +).(0,5 - 5c) -;- 6 cos).
+ (3 + 12 c)/A + (2,5 - 8 c) ,
121(A) = "- A3(0,125 + c) + ;,(0,5 -l- 2 c) - (1 - .. e) ,
131(A) = - A(0,125 + c) + cos). + (0,5 + 2 e)f).,
und in der Tat verschwinden die beiden Rander von F(i.) fur i. c.~ A = 2, wie es
sein muB:

_ (°,50311898 0 0)'
F(2) = 0 .. 8 .

° 0,5 2
Alles Gesagte gilt fUr eine beliebige Parametermatrix F(},). Liegt nun
speziell die line are Eigenwertaufgabe
F(J.) x = (A - ). B) x = 0 (48)
vor, so wird daraus nach Wahl eines Schiftpunktes A
[F(A) - ~ BJ x = 0 mit .F(A) = .4 - A B , ~ = }. - A, (49)
und wir fragen, wie die Transformation, welche zur Bereinigung der
lVlatrix F(A) fiihrt, sich auf die Partnermatrix B auswirkt. Offen bar
wird

L F(A) R= F(A) = (~11(/1) ~12(A)) =


F 21 (A) .F22 (A)
(WT.F(A)
0
Z 0) , F 22 (A)
(50)
66 § 26. Kondensation und RITzsches Verfahren

und B geht iiber in

L B R = jj = (~11 ~12) = ( lJTT B Z B12 + B22Z21). (51)


B21 B22 B21 + lJTfl B22 B22
Fiir die praktische Durchfiihrung ist es indessen vorteilhafter, die
Matrix F(A) in zwei Streifen zu unterteilen

Fl(A) ) 1
F(A) = (---- f
F2(A) ,,-I
.j,
dann wird aufgrund der Bereinigung, wie leicht nachzurechnen
1. Der Block
--l- ---1--

--n_ ---l---
1m Sonderfall 1 = 1 sind dies die Skalare
tn(A) = P(A)z bzw. il;(A) = wTfl(A) . (54)

2. Die neuen Rander in B berechnen sich kiirzer als in (51) angegeben,


so:

Bn! B12] I
- t ~l-++-n-l~
Bn
=- -) t
r'
I
(
B z := B Z = - Bw : = lJTT B = [ (55)
B2l l

bzw. fUr 1 = 1

(56)

Wir operieren also mit den unzerlegten Blacken (bzw. Vektoren) Z


und lJT und der unzerlegten ~Iatrix B und finden die einzelnen Anteile
~ie in (5~) und (56) angegeben, wobei das zweimalige Auftreten von
Bn bzw. bn als Kontrolle dienen kann.
26.6. Zentraltransformation und Minimumvektor 67
26.6. Zentraltransformation und Minimumvektor.
Splitten eines Vektors
Wir kommen nochmals zuriick auf die Blockunterteilung (28). Es
kann fur die numerische Durchfiihrung sicherlich nicht gleichgiiltig
sein, welche der I Zeilen und Spalten aus der Gesamtmatrix heraus-
gegriffen und zu Blacken zusammengefaBt werden. Wir wollen deshalb
fortan die Indizes 1 und 2 durch j und k ersetzen, urn deutlich zu
machen, daB irgend I - und nicht die ersten I - Zeilen und Spalten
darunter zu verstehen sind, beispielsweise fiir I = 2

• (57)

Welche Aufteilung solI man nun wahlen? Urn diese Entscheidung


eindeutig zu machen, teilen wir die Matrix F(A) additiv auf in
F(A) = F(A) + K(A) (58)
mit
K(A) := F(A) - F(A); K(A) =0 (59)
und machen die alles weitere beherrschende A.quivalenztransformation
LF(A) R £= LF(A) R f + L K(A) R f; £= R;x: (60)
mit
F(A) = L F(A) R = Diag (15 •• ) =: DF ' (61)
die wir §eradezu als Zentraltransformation bezeichnen wollen. Die
Matrix F(A) ist damit total bereinigt, denn fUr A = A verschwindet
nicht nur eine, sondern samtliche Restzeilen und -spalten der Ma-
trix F(A). DieBlockaufteilung ist nun so vorzunehmen, daB
a) I der n Gleichungen aus F(A) £= 0 fUr A = A exakt befriedigt
werden,
b) der Defektvektor
d(A) := F(A) z (62)
einen minimalen Betrag besitzt. Dies ist offenbar gewahrleistet, wenn
die betragskleinsten Diagonalelemente 15 .. , welche die Zeilen- und Spal-
tenindizes und damit die als Minimumvektoren bezeichneten Einheits-
vektoren
(63)
68 § 26. Kondensation und Ritzsches Yerfahren

festlegen, herausgesucht werden. Die Gesamtheit der l Einheitsvek-


toren (63) nennen wir den JIinimu1I1block. 1st das betragskleinste
Element
" (64)

deutlich kleiner als alle iibrigen, so wahlt man natiirlich l = 1 mit dem
zugehorigen :\Iinimumvektor e j'
Urn nun die vier Blocke der transformierten :\latrix
B=LBR (65)
zu berechnen, zerlegen wir wie in (32) und (33) die Matrizen Lund R
in Streifen, wobei wir uns der schon in (1. 7) eingefiihrten Schreibweise
mit hochgestellten Indizes anstelle des Transpositionszeichens T be-
dienen wollen

(66)

( )
was bisweilen zweckmaJ3iger ist. Damit wird offen bar
B
LBR.=
1
_ .--. 11._ , VB R = ( Hij Hi k) ,
I
(67)
Bki
wo der Block Bji zweimal erscheint, was zur Kontrolle dienen kann;
ferner ist
Lk B Rk = Hkk . (68)
Gang analog findet man die Blocke der transformierten Matrix
lirA) = L lirA) R (69)
aus

und
(71)
Nun brauchen wir nach (7) bzw. (39) die Inverse von likk(A), und
wir fragen uns, ob diese nicht aus der bereits durchgefiihrten Zentral-
transformation an der Gesamtmatrix lirA) zu gewinnen ist. Dies
gelingt in der Tat nach den in Abschnitt 22.2 vorgefiihrten Methoden
der blockweisen Inversion. Es seien der einfachen Darstellung halber
die l Zeilen und Spalten die ersten, dann liefert die Auflosung des
Gesamtgleichungssystems

li(A) X = (Iij
o
0 )
Ikk
--> X = 1<'-1(.1) (Iij
0 Ikk
0) = «~U.>. liki
26.6. Zentraltransformation und :'IIinimun1\'ektor 69
die vier Bloekanteile gleieher Position der Kehrmatrix K = F-l(.A) ,
und aus diesen HiBt sieh, wie im wesentliehen bereits in (22.27) vor-
gefiihrt, die gesuehte Teilreziproke der Ordnung n - l folgendermaBen
zusammensetzen, eine Teehnik, die wir als Splitten eines Bloekes bzw.
eines Vektors bezeiehnen wollen;
Fkl(A) = (Kkk) - [KkiJ <K jj >-1 {Kik } = (Kkk) - Gki{Kik } , (73)
wobei die vier untersehiedliehen Klammersymbole die Orientierung er-
leiehtern sollen. Es ist zweckmaBig, den als Geriist bezeichneten Block
G ki : = [KkiJ <Kii> -1 (74)
gesondert zu berechnen. Wird nicht die Kehrmatrix von Fkk(A) selbst,
sondern - wie etwa in (43) - das Produkt
Fki/(A) Fki(A) = [(Kkk) - Gkj{Kik}J Fkj(A)
(Kkk) Fki(A) - Gki{Kik } Fkj(A)
= (75)
benotigt, so hat man vorweg aus der Gleichung

F(A) X = (~i) __ X = F-l(A) (~i) = «::::) = G ki (76)

das Gerust und sod ann aus

F(A) Y = ( 0 ) __ Y = F-l(A) ( 0 ) = ({K jk } Fki(A)) (77)


Fkj(A) Fkj(A) (Kkk) Fki(A)
den Rest zu bereehnen und hat damit aIle fur (75) benotigten Anteile
beisammen. Benutzen wir noch die Beziehung
LF(A) R = DF --+ F-l(A) = R Di l L (7S)
und setzen dies in (76) und (77) ein, so wird

X = RD-FL(Iii)
OIl.
I «K >) = jj = G .
kJ
(79)
. - k 1-
und
(SO)

und ganz analoge Gleiehungen bestehen fur die Linksmatrix JVT, wie
wohl im einzelnen nieht ausgefiihrt werden muB.
AbsehlieBend eine wichtige Bemerkung. Ziel der Zentraltransfor-
mation ist es im allgemeinen, den Schiftpunkt A so zu wahlen, daJ3 die
Matrix F(A) und damit aueh DF fastsingular wird. em nun die Auf-
10sung von (79) und (SO) numeriseh stabil zu machen, ersetzen wir die
Kehrmatrix von DF durch die sogenannte Epsilonmatrix

EF ;= eD;:1 = J)iag(~
o,,J\, (S1)
70 § 26. Kondensation und RITzsches Verfahren

deren betragsgroBtes Element 1 ist, womit ein Uberlauf der Rechnung


auch bei extrem klein em 'Vert von B verhindert wird. Offenbar wird
das Geriist G ki von dieser l\IaBnahme gar nicht betroffen, weil sich nach
(75) der Faktor 1/B herauskiirzt, doch sind die beiden Anteile (80) zum
SchluB der Rechnung durch B zu dividieren.
Ein Beispiel mage das Gesagte erHi.utern. Gegeben ist die Matrix F(A). Wir
machen die Zentraltransformation L F(A) R = D Fund bekommen der Reihe nach:

-2/3
1
0)
0, DF=
(
3/2
0 1/6
0

-2/3 1 o 0

Da das betragskleinste Element 1522 = 1/6 ist, liegt mit j = 2 die Blockunterteilung
der Matrix F(A) fest; sie wurde oben bereits gestrichelt eingezeichnet. Es seien nun
die beiden folgenden Aufgaben zu lasen.

V = Fk~(A) a mit a = (:) und lC = Fk~(A) b mit b = (_~) .


Die Rechnung wird im nachfolgenden Schema a) durchgefiihrt.
a b

a)

L (~J o

DF1
( 0
2/3 o
6
2/3
-8 -4
4/3)
\ 0 o 2/3 -2/3
-2/3 (6)
(4) )
{ -8} {-4 }
R ( :
-2/3 (6) (2)

9 = (-4)-4
(6)-1 = (-2/3).
-2/3
b)

Fk"l(J1) a = (6) _(-2/3) {-8} (-2/3).


6 -2/3
=
-2/3
c)

Fk~(A) b (4) _(-2/ 3){-4}


=
2 -2/3
= (
-2/3
4/3). d)
26.7. Die Optimaltransformation 71
Da e = 1/6 nicht allzu klein ist, eriibrigt sich die Einfiihrung der Epsilonmatrix (81).
Wir ermitteln zunachst aus R DEl Lea die beiden durch [ ] und <>gekennzeichneten
Anteile und daraus das Geriist (b) (hier ein Yektor wegen I = 1). Sodann multipli-
zieren wir den urn eine Null erweiterten Yektor a an L, D"Fl und R vorbei und
berechnen nach (73) den Vektor (c):ein Ergebnis, welches der Leser durch direktes
Nachrechnen bestatigen mage. Dasselbe fiihren wir mit dem erweiterten Vektor b
in der dritten Spalte des Schemas durch und bekommen den Vektor (d).

26.7. Die Optimaltransformation


Wir gewinnen der Zentralgleichung noch einen neuen, hochst wir-
kungsvollen Effekt abo Die Zentraltransformation (61) liiBt die Deter-
minante von F(A.) unveriindert; es ist
det F(A) = det DF = bn b22 ••• bnn . (82)
Wir stellen uns nun die Aufgabe, das betragskleinste Element dieses
Produktes so klein wie moglich zu machen. Da wir dieses im vorhinein
aber nicht kennen, gehen wir umgekehrt vor und versuchen, jedes neu
zu berechnende Element in der Anordnung
Ibnl ~ Ib22 1~ Ib33 1~ ... ~ Ibnnl = e (83)
so groB wie moglich zu machen, denn da das Produkt (82) vorgegeben
ist, muB auf diese Weise das letzte Element bnn optimal klein werden.
Man wiihlt also das betragsgroBte Hauptdiagonalelement fii(A) von
F(A) als erstes Pivot element bn und sodann in der verbleibenden
Untermatrix der Ordnung n - 1 wiederum das betragsgroBte Haupt-
diagonalelement als Pivot usw. bis zum SchluB eine obere Dreiecks-
matrix iibrigbleibt, deren Hauptdiagonalelemente mit denen der
Diagonalmatrix DF iibereinstimmen. AnschlieBend werden in einem
zweiten Arbeitsgang durch Linearkombinationen der Spalten Nullen
auch oberhalb der Hauptdiagonale erzeugt. Diese Vorgehensweise mit
dem Ziel der Anordnung (83) nennen wir die Optimaltransformation.
Nun werden wir, wie bereits im Abschnitt 5.6 angedeutet, in § 27
noch sehen, daB es auBer der GAussschen Transformation noch weitere,
ganz andere Moglichkeiten gibt, vor allem die mit dem sogenannten
Reflektor (oder HOUSEHOLDER-Matrix) durchgefiihrte orthogonale
(im Komplexen unitiiren) Transformation, welche die Summe aller
Betragsquadrate einer Spalte invariant liiBt. Sucht man also zu Beginn
der Transformation jene Spalte heraus, welche die groBte Spalten-
betragssumme Sl besitzt, so geht diese in die Hauptdiagonale und ist
damit der erste Faktor des Produktes (83). )lit der verbleibenden
Untermatrix der Ordnung n - 1 verfiihrt man ebenso und so fort, bis
am Ende der Transformation das betragskleinste Hauptdiagonal-
element bnn unten rechts iibrigbleibt.
Der mit der Optimaltransformation verbundene relativ geringfiigige
Mehraufwand macht sich bei allen EinschlieBungssiitzen und Algorith-
72 § 26. Kondensation und RITzsches Yerfahren

men, die auf der Zentralgleichung basieren, mehr als bezahlt und sollte
deshalb nicht gescheut werden.
Dazu ein Beispiel. Die :\Iatrix

F(/t) = (3~2 3/2 ~)


o 3/2
ist optimal zu transformieren. Da aile drei Hauptdiagonalelemente gleich groB
sind, scheint keine Spalte vor der anderen ausgezeichnet zu sein; beginnen wir also
mit der ersten. Man schreibt F(A) und I nebeneinander auf und macht gemeinsame
Zeilenkombinationen. 1m ersten Schritt wird die mit -2/3 multiplizierte erste
Zeile zur zweiten addiert, das gibt

( F(A) :
,
I) = (3~2 3;2 ~ : ~ ~
0 1 3/2: 0 0
1m zweiten Schritt addieren wir die mit - 6/5 multiplizierte zweite Zeile zur dritten
und bekommen
3/2 1 o o
( o 5/6 1 ; -2/3
o 03/10 1 4/5 -6/5
Das Produkt der Hauptdiagonalelemente yon L F(A) ist gleich 3/8, und das ist der
Wert der Determinante von F(A), wie leicht nachzupriifen. Da bei der nachfolgenden
Rechtstransformation die Hauptdiagonalelemente sich nicht mehr andern, haben
wir
611 = 3/2, 633 = 3/10,
somit ist mit j = 3 die Blockaufteilung festgelegt.
Diese Transformation ist aber keineswegs optimal. Beginnt man namlich mit der
zweiten Spalte und macht zunachst die beiden Elemente 112(.11) und 132 (.11) zu Null
und erzeugt sod ann eine weitere Xull in der dritten Spalte, so entsteht zunachst die
Matrix L aus dem Beispiel des letzten Abschnittes und sod ann durch Spalten-
kombination die Matrix R. Dort aber ist das kleinste Element 622 = 1/6, und das ist
wesentlich kleiner als 3/1O!
DaB die mittlere Spalte nicht allein aus Symmetriegriinden vor den beiden
anderen ausgezeichnet ist, besagt auch ihre Spaltenbetragssumme S2 = 17/4, die
groBer ist als SI = S3 = 13/4. \Yir werden spater noch zeigen, wie durch eine ortho-
gonale Transformation das betragskleinste Element 6j j noch kleiner als 1/6 gemacht
werden kann.

• 26.8. Kondensation einer quadratischen Form


Wahrend wir uns bislang von rein numerischen Aspekten lei ten
lie/3en, kommen wir zum Schlu/3 dieses Paragraphen auf einige tech-
nisch-mechanische Anwendungen der Kondensation zu sprechen. Vor-
gelegt sei die quadratische Form
<P(~) = t~T A ~ - ~T r + const mit A = AT reell pos. def., (84)
26.8. Kondensation einer quadratischen Form 73
deren gleich Null gesetzter Gradient nach (11.25) auf die notwendige
Bedingung fiir ein Minimum fiihrt
grad $(x) = A x - }' +0 = 0 . (85)

n
Kondensieren wir dagegen mittels einer spaltenregularen l x l1-:'IIatrix

x =Rz, R=[ (86)

die Form (84) auf


$(z) = i ZT RT A R z - ZT R T }, + const , (87)
so liefert die Minimalforderung das Gleichungssystem der kleineren
Ordnung l < n
Az=r mit A:=RTAR, :;':=R T 1'. (88)
In der Mechanik sind die wichtigsten solcher quadratischer Formen die
kinetische Energie (12.26) und die potentielle F ederenergie (12·33),
dort fUr den gemeinsamen Knoten Baller Stabe der .\bb. 12.6 angege-

Abb. 26.7. Frei bcweglicher fcdcrgcfessdtcr starrer Korper iIll H.aull1

ben. Greift nun nach Abb. 26.7 die Federkraft im Pt:nkt B; emes
starren Korpers an, so gilt als Verallgemeinerung von (12.33)
AI"
C.' = y.
.aa·T a·te T)
I l 'I
, I (w.aT Wtc tT
~ t ~

(89)
mit den Federzahlen Ci = Yi C und den Vektoren
---> J' .
ai = (AiB;)O, U'·
,
= -' X a·
I ' '
(90)
wo c bzw. l eine zweckmaf3ig eingefiihrte Vergleichsfederzahl bzw.
Vergleichslange ist.
74 § 26. Kondensation und RiTzsches Verfahren

Wir wahlen nun einen beliebigen korperfesten Punkt F (den soge-


nannten Translationspunkt) und beschreiben die Lage des starren
Korpers durch den Ortsvektor x F = OF und den Drehwinkelvektor q; ;
beide fassen wir zur Matrizenspalte x zusammen

x = (X1F Y1F z; fjJx q;y fjJz

Zufolge der Division des Ortsvektors x F durch I geht die Massenma-


r (91)

trix (12.28) iiber in

(92)

wo nun i1F ebenso wie CF dimensionslos ist. Die Bewegungsgleichung


bzw. die Gleichgewichtsbedingung des starren Korpers lautet dann
mMF x + cif x = },F bzw. C cFX = },F in N/cm (93)
mit der in F reduzierten Dyname

11) (94)
}' F = ("
lnFI12

alIer Krafte und l\1omente mit Ausnahme der Federkrafte.


Wird nun die Bewegung durch I ~ 6 Zwangsbedingungen behindert
(das sind im alIgemeinen geometrische Bindungen wie Gelenke,
Schlaufen, lose oder feste Einspannungen u. dgl.), so fiihrt die Konden-
sations mittels der Matrix R (86) auf die reinen, d. h. von Reaktionen
freien Bewegungsgleichungen bzw. Gleichgewichtsbedingungen

f=Rx-+ m (RT 2n.F R)i + C (RT CF R) f = RT l,F


--- '- - -.- in N/cm. (95)
m lU: i + c Crond f = }'[ond
ollrl

Kondensation als Teil fiir das Ganze bedeutet hier also: Aufstellen der
reinen anstelle aller Bewegungsgleichungen bzw. Gleichgewichts.
bedingungen, und dieses Prinzip iibertragt sich in formal gleicher Weise
auf Verbande von beliebig vielen starren Korpern, wie wir in Ab-
schnitt 44.2 noch zeigen werden.
Dazu ein Beispiel. Aus einem homogenen Quader der Dichte 12 mit dem :\Iittel-
punkt F wird ein kleinererQuader nach .-\bb. 26.5 herausgeschnitten. Die Bewegungs-
gleichungen sind aufzustellen a) ftir den frei beweglichen Quader, b) fUr den gefUhrten
Quader mit zwei Freiheitsgraden.
Da ftir den ganzen Quader F = S1 ist und tiberdies die eingezeichneten Ko-
ordinatenachsen Schwerpunktshauptachsen sind, ist die Massenmatrix diagonaL
Man findet in jeder Formelsammlung
M~=~.m112Diag<12 12 12 68 68128) mit 111 1 = 1281213 (a)
26.8. Kondensation einer quadratischen Form 75
und fiir die Tragheitsmatrix des kleinen Quaders beziiglich seines Schwerpunktes 52
ahnlich
@S=-Am212Diag(17 17 32) mit m 2 = 16e13=ml/8. (b)

Mit dem Vektor "'5/1 = FS


2 /1 = (2 2 0,5) T reduzieren wir mit Hilfe des STEINER-
schen Satzes (12.23) die Matrix (b) von 52 nach Fund k6nnen nun subtrahieren:

-,;
Abb.26.8. Federnd gelagerter starrer Korper (Riitteltisch) unter Eigengewicht

MF = Mf - Mr, (cl ). Nach leichter Rechnung finden wir auch die Federmatrix
(c s) und die Dyname (d) aufgrund des Eigengewichtes

1344 0 0 0 -96 384


0 1344 0 96 0 -384

MF=-
e 13 0 0 1344 -384 384 0

12 0 96 -384 7616 76R 192


-96 0 384 768 7616 192
384 -384 0 192 192 14336
8 0 0 0 -8 0
0 16 0' 16 0 0
0 0 16 0 0 0
CF=c -~-------

0 16 0 272 0 0
-8 0 0 0 264 0
0 0 0 0 0 384
".F = (0 0 -112 32 -32 0) T e12 g in N/cm, (d)

und damit ist die Bewegungsgleichung (93) fiir den frei beweglichen K6rper mit den
sechs Freiheitsgraden (91) aufgestellt.
Die Bewegung werde nun eingeschrankt. Durch die beiden Punkte Fund G des
K6rpers geht eine Achse mit dem Richtungsyektor g, die in zwei raumfesten
Schamieren I und II drehbar und verschieblich gelagert ist. Die beiden verbleiben-
den Freiheitsgrade sind dann die Verschiebung s in Richtung von g und die Dre-
76 § 26. Kondensation und RITzsches Yerfahren

hung ex um die Scharnierachse gg. :\Iit dem spcziell yorgegebenen Ycktor g wird die
Kondensationsmatrix R aufgestellt

x=RI mit R=(: :), (e)

und die Kondensation durchgeflihrt

.-wronel = ~ (1344 ~F
Ckolld =
1(160
-- 32)
12 0 12 32 36S0 '

F (-112) f!12 g
Tkond = 0 -}i3 ' (f)

womit die Bewegungsgleichung (95) gewonnen ist. Aus der Gleichgewichtsbe-


dingung (man setzt f = 0) berechnet sich die statische Ruhelage

r
)stat
_(S/I)
~
_f!-12
- -
g (-4,858)
. (g)
ex stat C 0,042

Die aus der Gleichgewichtslage gezahlte neue Koordinate I macht die Bewegungs·
gleichung homogen
- ~F;'; AF -
I := I - Istat -. In .1hond f -:- c Ckond I = 0 , (h)

und nun fuhrt der Ansatz 1(1) = y(A cos (I) 1 + B sin (I) I) auf die Eigenwert·
gleichung
(i)
Eine elementare Rechnung ergibt die beiden harmonischen Schraubschwingungen

(j)

um die statische Ruhelage (g).


Zur Dbung fur den Leser: Die Gerade gg geht nicht durch den Punkt F. Man
tuhre auch daflir die Kondensation durch.
VIII. Kapitel

Theorie und Praxis der Transformationen

Eine Vorbemerkung. Die ersten zehn Abschnitte dieses Kapitels


konnen vom AnHinger eigentlich erst dann ganz verstanden werden,
wenn er die darauf basierenden Transformationsalgorithmen praktisch
anzuwenden gelernt hat. Andererseits laSt sich eine geschlossene Trans-
formationstheorie fUr den Fortgeschrittenen und Experten nicht in
Stucke reiSen. Dem Leser sei daher empfohlen, den § 27 zunachst
diagonal zu lesen und immer wieder darauf zuruckzugreifen, wenn in
den spateren Partien des Kapitels konkret darauf Bezug genommen
wird.

§ 27. Eine allgemeine Transformationstheorie

• 27.1. Uberblick. Zie!setzung

Multipliziert man die Matrizenhauptgleichung


F(}.,);r =}' (1)

von links mit einer Matrix L(}") , was einer Linearkombination der
Zeilen gleichkommt, so entsteht die Gleichung

L(}") F(}") ;r = L(}") r (2)

mit veranderter rechter Seite, doch blieb der Vektor ;r erhalten. Das
Umgekehrte geschieht, wenn wir die Spalten der ~latrix F(l) linear
kombinieren, dann wird aus (1) die Gleichung

F(}") R(l) z = r; ;r = R(}") z, (3)


und dies lauft ersichtlich auf die EinfUhrung eines neuen Vektors z
hinaus. Schliel3lich kann man beides zugleich durchhihren und be-
kommt

L(}") F(/.) R(}") z = L(}.) }' (4)


oder kurz
F(}.) z = )' (5)
78 § 27. Eine allgemeine Transformationstheorie

mit den Elementen der neuen )Iatrix F(A) als den Bilinearformen

hk(A) = lnA) F(A) rk(A) (6)


und der neuen rechten Seite r(A), deren Komponenten (Koordinaten)
die Skalarprodukte
- T
r;=l;(A)r (7)
sind. Ober die beiden Transformationsmatrizen L(A) und R(A) (von links
und rechts, left und right herriihrend) braucht man an sich nichts voraus-
zusetzen. Sie brauchen weder quadratisch zu sein (RITz-Ansatz!) noch
miissen sie regular sein, auch diirfen sie in beliebiger Weise yom Para-
meter A abhangen, wie durch die Argumentenklammer angedeutet.
Von einer Transformationstheorie im engeren Sinne spricht man in-
dessen im allgemeinen nur dann, wenn zwei Voraussetzungen erfiillt
sind: die beiden Transformationsmatrizen sind quadratisch (von der
Ordnung n) und regular fiir jeden Parameterwert, und dies wiederum
bedeutet:

I det L(A) =: J L =*= 0; det R(A) =: J R =l= 0 . (8)


I

Nach dem Determinantensatz (2.10a) ist dann

det F(A) = det L(A) . det F(A) . det R(;,) = J L . det F(A) . J R , (9)
und dies hat zur Folge, daB die Determinante der Originalmatrix F(A)
nur verschwinden kann, wenn auch die Determinante der transfor-
mierten Matrix F(A) verschwindet und umgekehrt

I detF(A) = 0 .... detF(A) = 0, (10)

und nur von so1chen Transformationen solI im folgenden die Rede


sem.
Urn in die fast uniibersehbare Fiille moglicher Transformationen
eine gewisse Ordnung zu bringen, lassen sich die verschiedensten Kate-
gorien und Kriterien heranziehen, doch sind die Darstellungen in der
Literatur nicht einheitlich. Einen Versuch zur systematischen Er-
fassung so ziemlich aller Aspekte stellt die nachfolgende Aufgliederung
dar.

!
1. Einseitige und beidseitige Transformationen.
2. Die Matrix L undjoder R wird gewonnen
2a) explizit,
multiplikativ halbimplizit,
implizit,
2b) progressiv.
27.1. Uberblick. Zielsetzung 79
3. Die Transformationsmatrix L und(oder R ist
3 a) uniHir (im Reellen orthogonal bzw. orthonormal).
3 b) nicht unitar.
4. Das Profil von L und(oder R (man vergleiche Abschnitt 24.4):
Diagonalmatrix, Dreiecksmatrix, Elementarmatrix u. a. Dasselbe
in Blacken.
5. Wirkungsweise einer Transformation, falls F(J.) ein ausgepragtes
Profil besitzt. Die Transformation ist
5a) profilerhaltend,
5b) profilzerstarend.
6. Wie verhalt sich die Transformation zum Partner I?
6a) Aquivalenz L 1 R =l= 1,
6b) Ahnlichkeit L 1 R = 1,
6c) Kongruenz R* 1 R = 1.
7. Aufbau der Transformationsmatrix. Spaltet man von L und(oder
R die Einheitsmatrix ab,
L = 1 - ZL' R = 1- ZR' (11 )
so wird der eigentlich wirksame Bestandteil Z als Transformations-
trager unterschieden in
7a) die echte (strikte) untere bzw. obere Dreiecksmatrix (24.8)
0 0 0 0 0
* * *
0 0 0 0 0
* * * (12)
ZL= 0 0 ZR = 0 00 *
*.. . *. . . . . . . . . ............
0 ... 0
* * * ... 0 0 0
7b) die dyadische Elementmatrix yom Rang 1
Z =vw T (13 )
mit Leitvektor v und Stiltzvektor w.
7c) sonstige Matrizen.
8. Die Transformation ist
8a) endlich,
8b) nicht endlich (iterativ),
9. Die Transformation verlauft
9a) rational,
9b) algebraisch oder transzendent irrational (Eigenwerte und Eigen-
vektoren !).
10. Die Elemente der Transformationsmatrix L und(oder R sind
10 a) konstant,
10b) Funktionen des Parameters J. oder mehrerer Parameter
80 § 27. Eine allgemeine Transformationstheorie

Sicherlich lieBe sich noch manches hinzufiigen, doch geniigt diese


Aufschliisselung vorerst unseren Bediirfnissen. Praktisch am bedeut-
samsten sind naturgemaB Transformationsmatrizen mit konstanten
Elementen. Da Lund R insgesamt nur 2 n 2 Elemente als verfiigbare
Unbekannte enthalten, ist von vornherein klar, daB maximal auch nur
2 n 2 Gleichungen erfiillt werden konnen, etwa bei Vorgabe von zweimal
n 2 - n AuBenelementen eines Paares A; B

Ctjk = If A 1'k' bjk = IT B T k ; j =f= k; j, k = 1,2, ... , n (14)

und dazu weiteren Gleichungen zur Normierung von B (oder auch A)


j = 1,2, ... , n . (15 )
Ein Matrizentupel mit mehr als zwei Partnern (z.B. Tripel bei ge-
dampften Schwingungen) laBt sich mit zwei konstanten Matrizen L
und R im allgemeinen nicht simultan auf Diagonalform transformieren.
Eine Ausnahme liegt vor im Fall der im Abschnitt 21.6 untersuchten
Parameterdiagonalitat bzw. Parameternormalitat; infolge der dann
erfiillten Vertauschbarkeitsbedingungen besitzt auch das Tupel hoch-
stens 2 n 2 wesentliche Elemente ebenso wie das Paar. 1m allgemeinen
jedoch laBt sich eine Polynommatrix F(J.) nur mit Hilfe zweier von .I.
abhangiger Matrizen
L(J.) = LIJ + .I. Ll + .1. L2 + ...
2

R(J.) = Ro + J.~ + J.2R 2 +.. . (16)


auf Diagonalform transformieren, wo nun mit den beiden Tupeln {L}
und {R} geniigend viele Konstante zur Verfiigung stehen. Der Leser
vergleiche dazu die Ausfiihrungen zur S~nTHschen Normalform (10.8).

* 27.2. Aquivalenz und Ahnlichkeit (Kongruenz)


Es sei nun speziell die im Parameter .I. lineare Matrix F(J.) = A - .I. B
mit dem Matrizenpaar A; B vorgelegt. Die Transformation mit zwei
konstanten regularen )Iatrizen Lund R heiBt dann eine Aquivalenz-
transformation
A =LAR, B = L B R, speziell I =LIR (17)
und die Matrix jj bzw. i der Aquivalenzpartner von A. Eine A.quivalenz-
transformation, die ihren Partner invariant laBt, wird als Ahnlich-
keitstransformation bezeichnet, wobei in herkommlicher Weise aller-
dings nur B = I angesprochen wird (was nicht notig ware, doch fiigen
wir uns diesem Brauch):
LR = I, d. h. L-1 = R bzw. R-1 = L, (18)
27.3. Das Generalschema einer multiplikati\'cn Transformation 81

oder was dasselbe besagt


A = L-I AL bzw. A. = R AR-I. (19)
Ein Sonderfall der A.hnlichkeit ist die Kongrztenz mit L = R *. Es wird
dann
A=R*AR, I=R*IR (bzw. B
- = R* BR), (20)
und diese Transformation wird man vornehmlich dann bevorzugen,
wenn das Paar A; B hermitesch ist; offenbar ist dann auch A; B
hermitesch, und B ist positiv (negativ) definit, wenn B es war.
Zur Losung eines linearen Gleichungssystems ~4 x = r (im Gegensatz
zum Eigenwertproblem A x = A. B x) benotigt man die beidseitige
Transformation der Matrix ~4 allein; dennoch wird eine (gedachte)
:\'latrix B, speziell die Einheitsmatrix I mittransformiert. Wir sprechen
diese nicht unbedeutende Tatsache aus als
Merksatz: Jede Aqttivalenztransformation erzeugt (nolens volens)
ihren Aquivalenzpartner .

• 27.3. Das Generalschema einer multiplikativen Transformation


Ihrem Wesen nach unterscheidet man zwei Arten von Transforma-
tionen, die progressiven, die wir im Abschnitt 27.10 beschreiben
werden, und die multiplikativen, denen wir uns zunachst zuwenden
wollen.
Jede multiplikative Transformation liiuft nach dem folgenden
Generalschema ab
o
I J=L o ···L2 L l { J } R 1 R 2 ···R o ,(21)
I Linkstransformation Information Rechtstransformation

gleichviel, urn we1chen Typ von Transformationsmatrizen es sich


handelt und unabhangig von der :\Iatrix Jim Innern der sogenannten
Informationsklammer { }. 1m konkreten Fall besteht J mindestens aus
einer Matrix, etwa A, im allgemeinen jedoch aus dem Produkt meh-
rerer Matrizen, etwa
J = B-1 A , J = P ~4 Q ,
J = Lo P A Q R o , J = Aij - Ajk ~4k/ ~4ki usw., (22)
und jede der (J Transformationsmatrizen hat (fast immer) die Form
v = 1,2, .... (23)
Eine Folge von n - 1 Teiltransformationen k = 1, 2, ... , n - 1 heiJ3t
ein (vollstiindiger) Durchlauf oder eine TOllr. Exaktes Rechnen voraus-
82 § 27. Eine allgemeine Transformationstheorie

gesetzt, endet jede endliche Transformation (wie der GAusssehe AIgo-


rithmus) bereits mit dem ersten Durehlauf, wahrend die iterativen
(nieht endliehen) Transformationen sieh in unendlieh vielen Dureh-
laufen dem Endziel zu nahern suehen (zum Beispiel bei der Trans-
formation auf Hauptaehsen). Theoretiseh ist dieser Untersehied fun-
damental, praktiseh jedoeh kaum bedeutsam. Denn die endliehe Trans-
formation bleibt eine Fiktion, die sieh als urn so triigeriseher erweist,
je hoher die Ordnungszahl n ist. In praxi dient der erste Durehlauf
lediglieh als Vorlauf, dem noeh so viele N aehlaufe folgen miissen, bis
eine gewiinsehte Genauigkeit (etwa der Nullen im GAusssehen AIgo-
rithmus) erreieht worden ist.
Beziiglieh der numerisehen Durehfiihrung einer multiplikativen
Transformation unterseheiden wir drei Strategien.
a) Explizit. Die Produkte

2 (24)
J
------
= L2Ll {J} R1R2

werden von innen naeh auBen explizit ausgefiihrt.


b) Halbimplizit. Es werden allein die Produkte der Transformations-
matrizen explizit ausgefiihrt.

2
(25)
3
J = L3L2Ll {J} R1R2R3 usw.
-..- -..-
e) Implizit. Die Transformationsmatrizen Li und R j sowie der Inhalt
der Transformationsklammer bleiben unverandert stehen.
Natiirlieh sind aueh kombinierte Strategien praktikabel, indem etwa
nur einige wenige Matrizen explizit multipliziert werden, wahrend
andere unberiihrt stehenbleiben; eine Entseheidung hierfiir kann nur
von Fall zu Fall anhand einer konkreten Aufgabe getroffen werden.
Eine multiplikative Transformation heiBt uniform, wenn - fiir
mindestens einen Durehlauf - der gleiehe Typ von Transformations-
matrizen Lv undjoder Rv herangezogen wird. Beispiele sind: nur
Reflektor (HOUSEHOLDER-Transformation), nur Elevator (GAussseher
Algorithmus, Transformation von HESSENBERG), nur echte Dreiecks-
matrix (L-R-Transformation von RUTISHAUSER). Der versierte
Reehner wird indessen so sehematiseh nieht vorgehen wollen, sondern
den Algorithmus weehselweise an die besonderen Gegebenheiten des
27.4· Der Transport durch die Informationsklammer. Phantommatrix 83
vorliegenden Problems individuell anpassen; eine solche Transforma-
tion nennen wir alternativ.
Zum Schlul3 zur wichtigsten Frage, der Konvergenz. Diese ist auf-
grund der additiven Aufteilung (11) sofort beantwortet.
Satz 1. Eim multiplikative Transformation kOIn·ergiert genau dann,
wenn die beiden Kernmatrizen Z Lund Z R als die eigentlichen Trager der
a a
Transformationsvorschrift gegen die lVullmatrizen, somi! L ltnd R selbst
gegen die Einheitsmatrizen konvergieren.
Wird namlich die Transformation so lange fortgefiihrt, bis Z Lund
ZR (falls das iiberhaupt moglich ist) die }Iantissenkapazitat der benutz-
ten Maschine erreicht haben, so registriert diese (zu im allgemeinen
verschiedenen Zeiten) ZL und ZR als Nullmatrizen und transformiert
ab dann - fehlerfrei, obgleich das exakte Ergebnis nicht erreicht zu
sein braucht! - im Leerlauf

ad infinitum: die Maschine ist am Ende ihrer }Ioglichkeiten angelangt


und lal3t die zuletzt errechnete Matrix.J X> unverandert.
Eine ganz andere Frage ist natiirlich, wie man die Konvergenz eines
Verfahrens voraussagen kann und von welcher Giite sie ist. Dies kann
nur von Fall zu Fall entschieden werden und ist eine Frage an die
"reine" Angewandte Mathematik, besser an die Autoren solcher
Algorithmen. Wir werden anlal3lich der konkreten Beschreibung der
wichtigsten Transformationsalgorithmen ausfiihrlich auf deren Kon-
vergenz zu sprechen kommen.

27.4. Der Transport durch die Informationsklammer. Phantommatrix


Kommen wir nochmals auf den fundamentalen Cnterschied zwischen
der expliziten und der (halb)impliziten Strategie zuriick. 1m ersten
Fall mul3 die aktuelle transformierte }Iatrix in jedem Transformations-
schritt vollstandig erzeugt und weggespeichert (nach jeder Teiltrans-
formation iiberschrieben) werden. Nicht so bei der impliziten Strategie.
Bier ist die transformierte ~Iatrix in keinem Stadium der Rechnung
fal3bar vorhanden sondern nur als Gedankending. Solche nur in der
Vorstellung existierenden Matrizen nennen wir Phantommatrizen und
geben zu ihrer Erkl3.rung die folgende
Defini tion: Eine Phantommatrix ist eine .11 atrix, die als solche
nicht existiert (daher auch keinen Speicherplatz benotigt) , jedoch in jedem
Stadi~tm der Rechnung mit Hilfe existenter .11 atrizen und/oder Vektoren
(die gespeichert sein mussen) ganz oder teilz£'eise hergestellt werden kann.
84 § 27. Eine allgemeine Transformationstheorie

Urn nun IIIeinem beliebigen Stadium der Rechnung die Zeile iIJ
bzw. Spalte Uk einer Phantommatrix .4 aufzudecken, hat man
ui = eJ A bzw. Uk = Ae
k (27)
zu berechnen, und das ist konkret das Produkt
a_.J = e iTA- = e jT La· .. L2 L I{A} RI R2 ... Ra (28)
bzw.
Uk = A e k = La· .. L 2 L l {A} R I R 2 • •• Ra e k • (29)
Dies setzt voraus, daJ3 alle Links- und Rechtstransformationsmatrizen
gespeichert sind, was aber nicht erschrecken muJ3, denn zufolge der
Bauart (23) enthalten Lv und R,. nur wenige von Null und Eins ver-
schiedene signifikante Elemente, wie wir im einzelnen noch sehen
werden.
Jede einzelne Teiltransformation yerHi.uft nach dem Schema (26),
nachdem beim Start der Inhalt J der Informationsklammer bereit-
gestellt wurde, in drei Schritten:
1. Schritt. Rechtstransformation.
2. Schritt. Transport durch die Informationsklammer {J}.
3. Schritt. Linkstransformation
bzw. in umgekehrter Reihenfolge, wenn eine Zeile aufgedeckt wer-
den soIl.
:\Iachen wir uns diesen Yorgang an einem einfachen Beispiel klar. Es
-
sei J = B-1 A, dann wird die Spalte i; der Phantommatrix J
-
ii = J ei = La ... L2 L l {B-l .4} Rl R2 ... Ra . e i , (30)
z
und wir erinnern mit ~achdruck an die Bemerkung (24-3), wonach
eine Produktkette niemals yon innen nach auJ3en - das heiJ3t hier mit
der expliziten Erstellung von B-1 A. - bei Bandmatrizen eine Kata-
strophe nach (24.13)! - sondern entweder von links oder von rechts
begonnen wird. Kommt also der durch die Kette Ra bis Rl durch-
geschleuste Einheitsvektor e; als aktueller Yektor z von rechts an die

I
Informationsklammer heran, so ist im zweiten Schritt der Vektor

I
y = B-1 A z zu berechnen in der Reihenfolge
GAcssscher Algorithmus
A z =: z, By = z --> R\XACHIEWICZjCHOLESKY --> y, (31)
Iteratiye Lasung (§ 31)
und dies bedeutet, daJ3 eben B-1 .4 nieht explizit ermittelt werden muJ3.
Vielmehr ist ein Gleichungssystem aufzulasen, entweder exakt oder
iterativ nach einer der im § 31 beschrie ben en :\Iethoden. Der dritte
27.5. Diskrepanz und Regeneration 85
Schritt schlieBlich ergibt problemlos den gesiuchten Vektor
i; = J e. = La ... L2 L1 Y , (32)
womit - ein scheinbar langer Weg - die i-te Spalte der Phantom-
matrix vor uns steht. SchlieBlich sei noch vermerkt, daB beim Start
oftmals zwei Naherungsmatrizen Lo und Ro vorgegeben sind, die wir
mit in die Klammer nehmen,
{J} = {Lo B-1." Ro} , (33)
oder auch bei beidseitiger Zedegung von B nach CHOLESKY

{J} = {Lo C~-l .4 Cli 1Ro} (34)


und ahnlich bei anderen Problemstellungen.
Ein Beispiel. Die Matrix B-1 A wurde mit Hilfe von Lund R transformiert auf
P = L B-1 A R, aber nicht weggespeiehert. Das Element P21 dieser Phantommatrix
ist aufzudeeken. Gegeben:

R= (
-1
-1
2) .
o
Es ist P21 = el P e 1 = el L B-1.4 R "1' "'ir bereehnen daher von reehts naeh
links der Reihe naeh

1. R"l = (:::::) = : z ,

2. A z = (:::: ~) = : Z , B-1 Z= yoder B y = Z gibt y = ( 5).


-11

3. L y= (:::::)=:P1'
Der Leser multipliziere das Produkt P = L B-1 .4 R explizit aus und iiberzeuge sieh
von dem - hier infolge der klein en Ordnungszahl 11 = 2 allerdings nur gering-
fiigigen - Reehenvorteil der impliziten Vorgehensweise.

27.5. Diskrepanz und Regeneration


Infolge der unvermeidlichen Rundungsfehler und Stellenausl6schun-
gen geschieht in der Maschine nicht exakt das, was das Programm vor-
schreibt. Macht man nach einer - als gedankliche Zielvorstellung kon-
zipierten - Transformation die faktische Gegenprobe (falls iiberhaupt
durchfUhrbar), so resultiert anstelle der Nullmatrix als Diskrepanz
zwischen Wunsch und Wirklichkeit eine Differenzmatrix
LI:=A-LAR, (35)
die wir deshalb geradezu als Diskrepanz(matrix) bezeichnen wollen und
deren Norm IILlII ein geeignetes :\;IaB fUr die aktuell erreichte Genauig-
keit darstellt. Ihrer schrittweisen Verkleinerung dient die in praxi
unerlaBliche Regeneration oder A uffrischltng (refreshing) des Algorith-
mus, die darin besteht, daB die im ersten Durchlauf von der )Iaschine
86 § 27. Eine allgemeine Transformationstheorie

erzeugten Transformationsmatrizen Lund R, jetzt mit Lo und Ro


bezeichnet, nach (33), (34) mit in die Informationsklammer genommen
werden
a
A = La' .. L2 L1{Lo A Ro} Rl R2 ... Ra = L{Lo A Ro} R (36)
und so fortfahrend von Transformation zu Transformation, bis im
Endzustand (26) L = 1 - Z Lund R = 1 - Z R faktisch die Einheits-
matrizen, somit Z Lund Z R selbst N ullmatrizen sind:
a a a (J a
L = 1 - Z L ~~c;6 I, R = 1 - Z R --;;=;:;; I; Z L a-.c;6 0 , Z R a::;.c;6 O. (37)
Die N ormen von Z Lund Z R stellen deshalb ebenfalls ein MaS fiir die
erreichte Genauigkeit dar, und dies erspart die aufwendige Berechnung
der Diskrepanzmatrix (35).
Wie bereits erwahnt, konnen zwei :'\Iatrizen Lo und Ro bereits vor
dem Start gegeben sein, dann beginnt der erste Durchga~g mit
J = Lo A Ro. Dies trifft besonders dann zu, wenn eine Matrix A trans-
formiert und anschli~Send leicht abgeandert wurde in A; fiir diese
stellen dann die zu A gehorigen Transformationsmatrizen ausgezeich-
nete Naherungen dar.

27.6. Die Zuriicknahme einer Aquivaienztransformation


Wir denken uns eine Aquivalenztransformation durchgefiihrt; das
Paar A; 1 ist dann iibergegangen in das Paar
A. =LA.R;
-
I=LIR, (38)
und der Aquivalenzpartner i solI wieder auf 1 zuriicktransformiert
werden. Dies kann auf zwei A.rten geschehen.
a) Beidseitig. :'IIultiplikation der beiden transformierten :\Iatrizen
LA R und L 1 R von links mit L-l und rechts mit R-l reproduziert
zwar wie gewiinscht den Partner I, macht aber auch die Transformation
wieder riickgangig, so daG damit niehts gewonnen ist.
b) Einseitig. Anders jedoch, wenn wir die Gleichungen (38) von rechts
bzw. von links mit (L R)-l multiplizieren, dann entstehen die Paare
LAR(LR)-l; 1 bzw. (LR)-lLAR; 1 (39)
oder
I LAL-l; 1 bzw. R-IAR; 1 (40)

Bier blieb somit die Transformation von A wirksam, die von 1 wurde
zuriickgenommen. Wir haben damit den
Satz 2: Die einseitige Zurucknahme einer Aquivalenztransjormation
[uhyt auj eine Ahnlichkeitstransjor11lation.
27.7. UnWire (orthnormierte) Transformation 87
Auf dieser Basis arbeiten beispielsweise der L-R-Algorithmus von
RUTISHAUSER und die Modifikation von FRAXCIS und KCBLAXOW-
SKAJA, beschrieben in § 40.

Ein Beispiel. Gegeben sind die drei l\Iatrizen

A=(_~ !), L = (2 -1),


1 1
R = ( 1 ~).
-2 .)

A=LAR=(
-13
111),
22
Wir berechnen die Matrix
A j-l = ( 1
-2
3),
5
und das ist dasselbe wie LA L-l, wie man leicht nachpriift. Der Leser kontrolliere
auch die zweite Beziehung (40).

27.7. Unitiire (orthonormierte) Transformation


In diesem Abschnitt sprechen wir ausschliel3lich von normiert-uni-
taren (im Reellen orthonormierten) ~Iatrizen mit der Eigenschaft
u* u = 1- U* = U-l (41)
und ihren Einwirkungen auf eine quadratische, allgemeiner rechteckige

c:) ~ (~~ . .
m X n-Matrix

A ~ a.) ~i a ;.) (42)

nach dem Schema

(43)

Die Multiplikation von links mit einer m-reihigen unitaren ~Iatrix Um


ergibt
(44)
88 § 27. Eine allgemeine Transformationstheorie

wobei zufolge der Cnitaritat die Betragsquadrate der Spalten


*
ajaj=aia j , -* - . j=1,2, ... ,n (45)
und damit auch deren Summen invariant bleiben, und das ist nichts
anderes als

ar a
/I

Spur A * L4 = 2.' j (46)


i~l

wo A * A eine hermitesche It X n-~Iatrix ist.


Analog dazu erzeugt die ~Iultiplikation von rec/zts mit einer n-

,
reihigen unitaren :\Iatrix Un die In X n-~Iahix

A en = j = [~:l (47)

J am
und hier sind nun die Betragsquadrate der Zeilen
(ak)*a k = (a k) * Uk; k = 1,2, ... , In (48)
und deren Sum men als Spur der hermiteschen m X m-~Iatrix A A*
invariant
m ,n
Spur A A * .
A A /".. /'>

Spur A A * = 2.' (a k) * a k = }; (a k) * a k = (49)


k~l k~l

Die beiden Summen (46) und (49) sind aber offenbar einander gleich,
somit gilt ausgedriickt in den Betragsquadraten del' Elemente a jk

L 2.' lajkl 2 = Spur L4 * L4 = Spur A A * =: S2 ~ 0, (50)


i~l k~l

und diese GroSe ist invariant gegeniiber unitaren Spalten-und Zeilen-


kom bina tionen.

27.8. Dyadische Transformationsmatrizen


Wie schon in (23) vermerkt, laSt sich jede Transformationsmatrix T
als Differenz
T=I-Z (51 )
ansetzen, wo die Kernmatrix Z eigentlicher Trager der Transforma-
tionsvorschrift ist. Dies hat erstens den Vorteil, daS auch das Produkt
mit einer beliebigen :\Iatrix L4 in additiver Weise erscheint
A := T A = (I - Z) A = A - Z A
bzw. (52)
A : = A T = A(I - Z) = A - A Z ,
27.8. Dyadische Transformationsmatrizen 89
zweitens hat nach der Identitat von WOODBURY (22.69) auch die Kehr-
matrix T-I = I - IT diese Form, so daB bei einer A.hnlichkeitstrans-
formation links und rechts der Informationsklammer lauter :\Iatrizen
vom Typ (51) stehen.
Wahrend der langen Entstehungsgeschichte des ~Iatrizenkalkiils
haben sich nun fUr die Kernmatrix Z zwei als fUr Theorie und Praxis
besonders wirksame Vertreter herausgebildet. Entweder ist Z nilpotent
zum Index 2, somit Z2 = 0, dann wird
T T-I = (I - Z) (I + Z) = 1 - Z2 = 1 , (53)
somit
T = 1 - Z, T-l = 1 +Z fUr Z2 = 0 (54)

oder Z ist ein Projektor, d. h., es ist Z2 = Z. Damit wird


T T-l = (I - 2 Z) (I - 2 Z) = 1 - 4(Z - Z2) = I, (55)
somit
: T = 1 - 2 Z = T-l fUr Z2 = Z . (56)
1_ _ _ _ _ _ _ .

In beiden Fallen ist die einfachste Darstellung von Z das dreifache


dyadische Produkt
Z=V.llW (57)
vom Rang m mit einer spaltenregularen Leitmatrix V und einer zeilen-
regularen Stiitzmatrix W, ferner einer regularen N ormierungsmatrix .ll

]t1.
der Ordnung m in nachfolgender Anordnung

WI
W = [ w2

4 __
~~ 1
n~

<---m~

(58)
Damit wird dann in (54) mit W V = 0
Z2 = VMW· VMW= 0; JJ regular (59)
und in (56) mit M = (W VJ-I
Z2=VMW·VMW=
= V(WV)-l WVMW= VMW = Z; WV regular (60)
wie verlangt. Speziell kann man hier W = V* setzen, dann wird
Z = V(V* V)-l V. (61)
Fassen wir zusammen. \Vir fanden drei spezielle dyadische Matrizen,
die wir mit Namen belegen und der Reihe nach mit E, K und W be-
90 § 27. Eine allgemeine Transformationstheorie

zeichnen
1. Block-Elevator.
E=I-V"l1JV; E-1=I+VJIWmit WV=O; (62)
.ill regular,
2. Block-Kalfaktor.
K = 1- 2 V(JVV)-l W; K-1 = K; (63)
JV V regular,
3. Block- Reflektor.
4» = 1- 2 V(V* V) V*; 4»-1 = 4» = 4»*; (64)
V* V regular.
Der Reflektor ist sowohl hermitesch wie unitar: es ist 4»* 4» = 4»2 = I,
wie leicht nachzurechnen.
Urn einige fur das Folgende wichtigc Beziehungen aufzudecken,
multiplizieren wir die :\Iatrizen (62) bis (64) von links mit IV bzw. V*
und bekommen
JVE = JVI -ll"V"l1W =lJ' - 0 -dV E = IV,
(65)
JV K = JV I - 2 IV V(JV Vt 1 W = lJ' - 2 JV -> JV K = - IV ,
(66)
v* 4» = V* I - 2 .,.* IT(V* V)-l V* = V* - 2 V* -> V* 4» = - V* .
(67)
Es werden nun die Bilder U eines Originalvektors a mit
E a =: uE, Ka = : UK , 4» a = : U<I> (68)
bezeichnet. ~Iultiplikation der drei Gleichungen (65) bis (67) mit a von
rechts ergibt dann der Reihe nach die drei Vertriiglichkeitsbedingltngen
JV E a = Wa -> W(a - UE) = 0, (69)
W Ka = -n'a -> W(a + UK) = 0, (70)
V* 4» a = - V* a -+ V*(a + U<I» = 0 - a* a = u~ U<I> , (71)
deren letzte, wie sich leicht zeigen laJ3t, gleichwertig ist der zufolge
der Unitaritat des Reflektors bestehenden Invarianz (45). Beide Be-
ziehungen sind danach durcheinander ersetzbar, was fur die An-
wendungen von \Vert ist.
Fur den einfachsten und wichtigsten Sonderfall m = 1 stellen wir
die drei dyadischen Transformationsmatrizen nochmals ubersichtlich
zusammen. Die :'.Iatrix"l1 wird zum Skalar m, den wir unbeschadet der
Allgemeingultigkeit gleich Eins setzen durfen; v ist der Leitvektor und
w der Stutzvektor.
27.8. Dyadische Transformationsmatrizen 91

Elevator E = 1- V wT; E-1 = 1 + t' W T . U,Tt' = 0, (72)


i
Kalfaktor K = 1 - 2 ~T-;
't~ leT

w v
K-1 = K . W T" '* 0, (73)

Reflektor <I» = 1 - 2 vv* ;


v* 't~
<1»-1 = <I» = <1»*. ,,* V '* O. (74)

Um die Wirkung dieser drei ~Iatrizen auf einen Originalvektor a zu


erproben, multiplizieren wir E, K und <I» der Reihe nach von rechts mit
a und bekommen mit den verabredeten Abkurzungen (6S) die folgenden
Beziehungen zwischen Leit- und Stutzvektor einerseits und Bild- und
Originalvektor andererseits:
1. Elevator E (75)
-
aE := E a = (1 - v wT
) a = a -T 1 -
t'(w a) --+ I' = ~- (a - aE)
wTa
.

2. Kalfaktor K (76)
VWT) n·Ta 1 wTv _
aK : = K a = (1 - 2- a = a - 2 ~- v --+ t' = - ~- (a - aK) .
wTv teTv 2 wTa

3. Reflektor <1». Man setze w T = v*, dann wird aus (76) (77)

--+ v = -1 v*
- v (a - U<l» .
2 t'* a
Wir sehen: der Leitvektor v hat die Richtung des Differenzvektors
a - a, unterliegt allerdings gewissen Einschrankungen, namlich den
Vertraglichkeitsbedingungen (69) bis (71) - dort ist IV und r* durch
w und v* zu ersetzen - die gleichzeitig garantieren, daB die Nenner
in (75) bis (77) von Null verschieden sind. Andererseits bemerken wir,
daB in (76) wie in (77) die Vektoren w und v durch beliebige Vielfache
IX w und f3 v ersetzt werden durfen, da sich die Skalare IX und f3 wieder
herauskurzen. Dies enthebt uns der Beachtung der Vorfaktoren, die
wir einfachheitshalber gleich Eins set zen (womit dann 2 wI' a = wTv
bzw. 2 v* a = v* v wird), und damit haben wir alles fUr die Praxis
erforderliche Rustzeug beisammen.

I Leitvektor v Vertraglichkeit

1 -
Elevator E v = ~-(a - aE) w T (a - aE) = 0, (7S)
wTa
Kalfaktor K i v = a - aK w T (a + aK) = 0, (79)
Reflektor <I» lv=a-a<l> a* a = a~ a<l>' (SO)
92 § 27. Eine allgemeine Transforma tionstheorie

Ihre ganze Bedeutung erlangen diese Abbildungen erst im Zu-


sammenhang mit der Transformation einer ~Iatrix A von links, also
Kombination ihrer Zeilen, wo nun a j eine Originalspalte von A und j u
ihr Bild ist. Die Cbersicht (7S) bis (SO) wird damit das Kernstiick der
multiplikativen Transformationen iiberhaupt.
Zum SchluB dieses Abschnittes erwahnen wir noch zwei Besonder-
heiten. Der Elevator (von elevare: herausheben, emporheben) ist die
alteste dyadische Transformationsmatrix und wird fUr die spezielle
Wahl des Stiitzvektors tv = e j als Elementarmatrix odet ]ORDAK-
:\Iatrix bezeichnet
Ej = 1 - veJ ' ETI = 1 + t' e;; eJ " = 0 --+ Vj = O. (S2)
Bier verlangt die Vertraglichkeitsbedingung das Verschwinden der
Komponente vi des Leitvektors 1" somit wird z. B. fUr n = 4 und j = 2

E'("i ~ (~
-'i'l

-L'3
0
0 0)oo = 1- v e 9
T
~
• (S3)

-'U4 0 1

Eine zweite historisch bedeutsame Transformationsmatrix ist die


bereits am SchluB von Abschnitt 2.S angegebene :'IIatrix von Drehung
und Spiegelung (daher der Kame Reflektor)

T=(c~sCP Sincp). detT=-1, T2=1. (S4)


Sill cp - cos cp
In der Tat: geht man auf den halben Winkel iiber, so wird nach be-
kannten Formeln

cos 2 £ - sin £2 cos '-E-)


COS cp sin cp) (1 o (
2 2
_ cos cp = 0
(
T = sin cp 1) - 2 _ sin '-E- cos £ sin 2 £ .
2 2 2

(S5)
und dies ist mit dem Leitvektor

. - cos ~ )
V= ( , 't,T V = 1 (S6)
sin '-E-
2

nichts anderes als der (reelle) Reflektor

T=cIl=I_ 2 t:'t:'T. (S7)


vTv
27.8. Dyadisehe Transformationsmatrizen 93
Indes werden wir im allgemeinen der :'.Iatrix der ebenen Drehung ohne
Spiegelung

J =( cos cp sin cp) =( 1 tan q:)


1 cos q: , detJ = 1 (88)
- sin cp cos cp - tan q:
in den Anwendungen den Vorzug geben, erstens, weil ihre Determinante
positiv ist und zweitens, weil sie fur den speziellen Winkel cp = 0 in die
Einheitsmatrix I ubergeht, was auf den Reflektor beides nicht zutrifft.
In der Literatur werden, wenn auch nicht immer einheitlich, die
Matrizen T bzw. J als GIVExs-:'.Iatrix bzw. JACoBI-:'.Iatrix bezeichnet.
Dazu ein einfaehes Beispiel. Eine :\Iatrix .. I ist "on links zu transformieren, so daO
die dritte Spalte u a in eine yorgegebene Spalte "a iibergeht. Es ist

A=[~ _~ -n· "a = [ -J,],


also d:=ua-ua=[-;j; s:=ua+(ia=[~].
1. Elevator. Wahlen wir als Stiitn'ektor Ie = (1 j3 I)T mit noeh unbestimm-
tern Parameter p, so folgt aus der Yertragliehkeitsbedingung (78) wegen
u,T(u a - ua) = uS d = -8 + 2/1 + 4 = 0 der Wert j3 = 2, somit U' = (1 21}T.
Der Leitvektor wird

v = _1 d
w T ua
= ~3 [-~]
=
4 3
~,
und in der Tat ist n,T t' = 0 wie nach (72) Yerlangt. Xun die Transformation. Es ist
A= E A = (1 - t' n,T) A. = .·1 - t'· (n· T .-1). :\Iit fl·T ... = (2 1I 3) wird naeh leich-
ter Rechnung

A
_ [19/3
-4/3
=
o2 5]
-1.
-5/3 -4/3 0
Tatsachlich ist die dritte Spalte in u a iibergegangen.
2. Kalfaktor. Die Vertraglichkeitsbedingung (79) u-T(u a -,- "a) = n ist mit dem
beim Elevator gewahlten Stiitzvektor U' = (1 f3 l) T unerfiillbar. cia f3 aus cler
Gleichung herausfiillt. Nehmen wir clagegen If' = (f3 1 1)T, so wircl (J = -2, somit
W = (-21 I)T. :\Et dem LeitYektor t' = d liefert die Transformation

A= KA = (1 - 2 VleT):t~. ... - _~". (leT :1) = .• - -~l" (-1 -211)


u-Tv fl·Tt' 22

naeh einfacher Rechnung

-~l
3/11 -16/11
.4 = [ 2/11 26/11
15/11 -36/11 II

mit der gewiinschten Spalte "a'


94 § 27. Eine allgemeine Transformationstheorie

3. Reflektor. Die in (80) geforderte Yertraglichkeit wird von dem hier vor-
a
geschlagenen Yektor 3 erfiillt: a[ a 3 = 26 = iii a
3 . :\fit v = d wird dann

A= 4>A = (/- 2.L./. T ) .... = .... _ --c2_1~' (I· T .... ) = .... - ~r. (-4 -12 42)
vTr 1. 1 /. 84

und nach kleiner Rechnung

5/21
A = [ 4/21 -16/7
18/7 -~Sl
29/21 -20/7
wie verlangt.
Der Leser iiberzeuge sich, daO - wie es bei jeder unitaren Transformation von
links sein muO - aile drei Spaltenbetragssummen invariant gebJieben sind.

27.9. Unvollstandige und vollstandige Reduktion eines Vektors.


Der c-Kalfaktor

Angenommen es seien die ersten j - 1 Spalten der Matrix J = A


bzw. J = B-1 A (oder ahnlich) auf eine vorgeschriebene Form ge-
bracht, die im weiteren Yerlauf der Rechnung nicht wieder zerstort
werden solI. Was ist von der kiinftigen Transformation zu verlangen,
damit diese Forderung garantiert wird? Jede der drei dyadischen
Transformationen hat den Aufbau

D = 1- Y n w T , (89)

somit entstehen bei Linkstransformation (Linear kombinat ion der Zei-


len von A) bzw. Rechtstransformation (Linearkombination der Spalten
von A) die transformierten ?lIatrizen

t][
[0 •.. N-]wTA

l:~DA~ (I-y,,,"T)A ~A_YV(,"TA) ~A-y [ ~


(90)
bzw.
[0 ... 01--] w T

A :~AD~A(I-y,"vT) ~A-y(Av)1vT ~A-Y[+][ ~


(91 )
27.9. Unvollstandige und vollstandige Reduktion eines Vektors 95

Wir sehen: die Subtrahenden in (90) und (91) verandern die erst en
j - 1 Spalten von A genau dann nicht, wenn der Stutzvektor als erste
Komponenten j - 1 Nullen enthalt

I w = (0 0 ... 0; (92)

SolI w insbesondere ein Einheitsvektor sein, so kommt demnach allein


w = e j in Frage. Auf die fundament ale Forderung (92) in Verbindung
mit dem Generalschema (21) grunden sich samtliche bis heute be-
kannten und noch auszudenkenden dyadischen Transformations-
algorithmen, und jetzt endlich kommen wir zur Sache. N achdem wir
studiert haben, wie man eine Matrizenspalte a j in einen (in gewissen
Grenzen) vorgegebenen_ Bildvektor ii.1 transformiert, setzen wir uns
nunmehr zum Ziel, in a j moglichst viele Nullen zu erzeugen; ein Vor-
gang, den wir als Reduktion einer Spalte bezeichnen, und zwar heiBt die
Reduktion vollstiindig, wenn der Bildvektor n - 1 Nullelemente auf-
weist

alj 0

aj = au --+ aj = ajj a
k; = 0 fUr k ot=j, (93)

ani 0

sonst unvollstiindig. Es sei nun gelungen, eine vorgelegte (im allgemeinen


rechteckige) Matrix auf die Gestalt

1- - - -I
all 0 0 0 al; I al,i+ 1 an.
o a22 0 0
I
a2j a:!,i+l a2n
o 0 a33 0 I a3; aa,i+ I aan
j-l ....................•
In
A = 0 0 0 ... ai-l,i- 1 ai-I, j aj -I,H 1 ... ai-I, ..
o 0 0 ... 0 ajj I aj,jH . . . aj" I

I
I

II@ ............... .

o 0 0 ... 0 I a",; : a"',i+l ... am ..


1- - - - I

(94)
96 § 27. Eine allgemeine Transformationstheorie

zu transformieren. SolI im nachsten Schritt die Spalte a j vollstandig


reduziert werden, also in aU e j iibergehen, so wird .

aj --+ aj = a1! e j : 1-' = aj -


-a j
- eJ;
= a; - au
a j + iii = a j + aJi e j , (95)
und nun determinieren die Vertraglichkeitsbedingungen (27.78) bis
(27.80) die einzige verbleibende Komponente ii j I des Bildvektors ii j
auf folgende Weise:

Elevator E: U'
T
] J
-
(a.-a.)
J
= U'
T -
(a.- a·
]
e.) = 0
JJ J
--+
-
a··
]J
= tCT"j
- -= -
IC Te j
If'T"j
-,
Wj;

(96)
K a If a k tor K : u' T(
j aj + a)
- = U' T( a j + a- e ) = j; j 0

--+
- u-J "j
a;j = - ,cT e. =
IcT
- -;;.-:-'
Uj
(97)
1 1 .11

R efl ek tor cI»: a *


j aj -- OJ
-* OJ- --+ - 2 -- a*j a j
/au! , (98)

wobei wir nochmals festhalten wollen, daO der Stiitzvektor w nicht


willkiirlich wahlbar ist, sondern der Bedingung (92) geniigen muO;
doch k6nnen wir iiber die nichtverschwindenden letzten Komponenten
1£'j' ••• , 1£'n in geeigneter Weise nrfiigen derart, daO die zur Trans-
formation erforderliche Rechnung minimal wird. Fiir den Elevator ist
dies gesichert mit der speziellen 'Yahl
Wj = e j = (0 0 ... 0; o ... 0 0) T --+ a- jj = a jj , (99)

womit nach (96) das Hauptdiagonalelement unverandert bleibt. Fiir


den Kalfaktor dagegen brauchen wir im Stiitzvektor tV mindestens
zwei von Null verschiedene Elemente, und zwar wahlen wir vorteilhaft

Wj = (0 0 ... 0; o ... c"j ... 0 O)T = ei + c"je", (100)

dann namlich wird nach leichter Rechnung das transformierte Diagonal-


element
- =
a jj - a jj - c"j a"j' (101)

und die jetzt als c-Kalfaktor bezeichnete Transformationsmatrix ist

Kj = I - =~ . "(eT + c,'; e;)


JI
(102)

oder noch spezieller mit c,. j = -1 fUr aIle Spalten


-
a jj = avj - a j; (103)
27·9. Gnvol!standige und vollstandige Reduktion eines '"ektors 97

und

(104)

Urn den Nenner maglichst groB zu machen, wird v so bestimmt, daB

aii = max (a ii - a,);


v
v>j; (105)

der spezielle e-Kalfaktor erfordert daher den gleichen Rechenaufwand


wie der Elevator, vermeidet aber die Zeilenvertauschung selbst wenn
aj j = 0 sein sollte.

Nicht unerwahnt lassen wollen wir einen interessanten Cbergang


vom Kalfaktor zum Reflektor. Bei diesem ist IC T = lJ *. Wahlt man
nun weniger aufwendig w T = V*, wo im Yektor i; etliche der betrags-
kleinen Elemente von v durch Kull ersetzt werden, so ist der auf diese
Weise entstehende Pseudo-Reflektor so gut wie unitar und leistet
dieselben Dienste wie der Reflektor mit erheblich geringerem Rechen-
aufwand. 1st beispielsweise der Leitvektor
v = (0 0 ... 0; 10 -1 0,4 23 0,01 -2 0,9 1,1 45 2,11 - 1,2)T
und wahlt man statt dessen
v = (0 0 ... 0; 10 0 o 23 0 o 0 0 45 0

so ist die Abweichung von der Unitaritat minimal, wavon der Leser
sich iiberzeugen mage.
Dazu ein Beispiel. Die erste Spalte einer :\Iatrix .-t sol! yollstandig reduziert
werden mit j = I. Gegeben:

3) (all)
0 3 5
( I -I
A= (: u1 .....,. iiI = 0 •
-2 o 2 -8 0
10 -I ()

Die Differenz (105) ist fur v =4 am gr6l3ten. Damit folgt nach (103) das transfor-
mierte Hauptdiagonalelement all = au - all = 10 - I) = 10 und hiermit der
Kalfaktor

_ __(~) (I:~) _(-I~)


Davon unberuhrt ist der Leitvektor wie stcts gleich der Differenz

V-U-Cl- - - ,
-2 0 -2

\() 0 10
98 § 27. Eine allgemeine Transformationstheorie

und nun berechnen wir das Bild.i der :\Iatrix A

-
A := KIA = I A
1
+ -v(eT - eJJ.4 = A + -v (a I - a').
1IJ 10

Mit der Differenz der beiden Zeilen

fF:=a l -a'=(-10 244)

entsteht die Dyade D und damit die Bildmatrix .4 = A +D mit reduzierter erster
Spalte wie verlangt:

-2 -4 -4)
0,2 0,4 0,4 ,

)
-0,4 -0,8 -0,8

2 4 4

-
.4=A+D=

c °
~
-0,8
-0,4

3
1,4

1,2

5
-,0,4
-8,8

3

27.10. Der Mechanismus der multiplikativen Transformation

Als Resiimee aller unserer Bemiihungen stellen wir in diesem Ab-


schnitt auszugsweise das :\Iinimum dessen zusammen, was fUr die
praktische Anwendung erforderlich ist. Urn eine durchgehende Nomen-
klatur fUr die Programmierarbeit zu schaffen, verabreden wir fiir jede
dyadische Transformationsmatrix (nicht nur fUr die drei hergeleiteten
Grundtypen) die folgende Schreibweise

1 T
T=l-v-y. (106)
N

Dabei ist der Leitvektor


v:= a - a (107)
gleich der Differenz aus Original- und Bildvektor, N ist ein fUr die
jeweilige Matrix charakteristischer Nenner und y ist der Stiitzvektor
(nicht in jedem Fall identisch mit dem friiher eingefUhrten Vektor w).
z
Das von der Matrix T erzeugte Bild eines vorgegebenen Vektors z ist
dann
- 1
Z := T z = z - t" - (y T z). (108)
.V

Die Nenner sind N = a j im Elevator, X = -ai im Kalfaktor, und im


27.10. Der Mechanismus der multiplikativen Transformation 99

Reflektor ist

v* v
1~
on
= -2- = 21 ( - - 1 - -
a - a)* (a - a) = 2 (a - a j ej )* (a - a j e j )
(
109)

oder nach leichter Rechnung

a=
1
l/ti* a '
(110)

und dies erspart uns die Berechnung des Skalarproduktes v* v.


Die bei der partiellen Reduktion nach un ten entstehenden Vek-
toren a (Bildvektor) und v (Leitvektor) ergeben sich ohne jede Rech-
nung auBer den beiden Komponenten aj und vi = a j - ai

f o

aj_l o
1--"1
a= I a· ---a= l~=a-a=
~ _1_ J.

aii-l o

o
(111 )

im vorstehenden Schema eingerahmt. Diese aber wurden in den voran-


gehenden Abschnitten berechnet, und damit haben wir das benotigte
Werkzeug vollstandig beisammen:
------- -

Neues Leit- Transforma tions- Bildvektor


Nenner
Element I element matrix von z

_ 1
Vj = 0 z = z - v - z·
X 7

_ 1
= Vi = K = 1- I" -~. z = z - v - (Zj + E z,.)
aj
- aj - E a v i 2 aj + E a v: X .v
. (eT + f e;'l
I Vj = z= z - v ~.-
X
(v* z)
I aj =+= aj
-------'
(112)
100 § 2i. Eine allgemeine Transformationstheorie

Der Vektor z, der in z


abgebildet wird, ist entweder eine weiter
rechts stehende Spalte der zu transformierenden :\Iatrix A oder bei im-
pliziter Durchfiihrung der Transformation der von rechts nach links
nach dem Schema (27.30) durchzuschleusende aktuelle Vektor, mit
des sen Hilfe die nachste zu reduzierende Spalte der Phantommatrix
A = LA aufgedeckt wird. Davon unabhangig mage ein einfaches
Beispiel die Anwendung der Programmiervorschrift (112) erlautern.

Beispiel. n = 3, j = 2. Der gegebene Yektor a ist nach unten zu reduzieren. Man


ermittle den Bildyektor % yon z. Gegeben:

'Vir berechnen der Reihe nach fur EleYator, Kalfaktor und Reflektor aile benotigten
Daten und tragen diese samt Ergebnis in die Tabelle unten ein; dies ist das getreue
Abbild der Dbersicht (112).
1. Elevator. Erledigt sich von selbst.

2. Kalfaktor. Es ist v = 3, und wir wahlen E = -1.


,
3. Reflektor. Zu bcrechnen ist 0* 0 = 3· 3 -1- 4· 4 = 25 ~ somit 2 = ±5. at a
Es ist Realteil (a 2 ) = Realteil (3) = 3. Beide Faile werden vorgefiihrt. In praxi
wahlt man den groGeren Xenner, hier also 40 und nicht 10.

Neues Leit- , ~en- Transforma tions- I Bildvek-


Element element ner matrix tor von z
I I
a2 v2 = a2 - «2 i f..' L=I-v_ y T I
1
N
z =Lz
: I
Elevator «2 = 3 () E = 1- v-e 2
3
1 T
[!]
[-Jf
1_ _ _ 3
I
-~

Kalfaktor
(v = 3. a2 = 2a 2 - aa = 2 1 K=I-v~.
-a;!+a 3 = 1 1
e = -1)
. (eI - ef)

l~'81-
--~-

a2 = +5 a2 -5=-2 10 4» = 1- v ~v*
10
4,4

[-~'8l
Reflektor

a2 = -5 a2 -5=8
I 40
4»=I-v~v*
40 -4,4
I

Fur den unitaren Reflektor ist zT z = z[ ZI = z[ %2 = 29, wie es sein muG.


27.11. Progressiyc Transformationen 101

27.11. Progressive Transformationen


Die progressiven Transformationen basieren auf einer vollig anderen
Idee als die multiplikativen. Aus dem Transformationsgleichungspaar

A =LAR; B =LBR; B regular (113)

wird eine der beiden regularen Transformationsmatrizen

(114)

eliminiert. Dies flihrt auf

B-IAR =RB-IA bzw. .4 jj-l L = L A B-1 (115)

Von den hier auftretenden jeweils flinf 1Iatrizen sind .4 und B gegeben,
A und jj in gewissen Grenzen vorschreibbar; Lund R sind gesucht. In
den Anwendungen beschrankt man sich meist auf die spezielle Wahl
von
B
-= D
- = Diag (d-ii > , (116)

was nicht in jedem Fall optimal sein muS. Damit gehen dann die
GIn. (115) tiber in

B-1 A R = RD-l A bzw. .4 i)-I L = L A B-1 (117)

oder in ihre n Spalten bzw. Zeilen aufgelost durch )Iultiplikation mit


ei von rechts bzw. eT von links
B-1 A r.
1
= R i)-I a.
l '
bzw aTI i)-I L = lj A. B-1.
'

j=1,2, ... ,n, (118)

und dies ist nach Lesart flinf (24.19) nichts anderes als das homogene
System von n Vektorgleichungen

-al' - -a .
B-1 A r·1 = rl ~
..., + 1':2-...3:J....
a.'
+ ... + J'n---"1...
, j = 1,2, ... , n, (119)
du d 22 d '"'

oder ausflihrlich angeschrieben und leicht umgeordnet


....
o
tv

tv
":"
a 21 anI
o = (rl ~ll - B-1 A rl) + r2~ + ra~~ + ... + rn~ tTl
d ll d 22 d 33 d"n
S'
'e:."
- riQ
r a 12 a 22 a 32 a1~ 2
o ~~ r2~--- ra;;.--- + ... + '"S
1-
du
+ (- d 22
)+ -
- B -1 A r 2
d 33
r n----
d"n '"S'
(120) '"
...III>-l
0= a l3
l'1 '--- + r2~~ --I- (r3~3~:- B-1 A ra) + ... + rn~":l ::l
d ll d 22 ~
~3 ~ ...o
S
III
M-
0'
alit ::l
0= rl~ + r 2 ~2n + ra ~3n + ... + (l'n~nn - B-IA rn) if>

d ll d 33 d 33 d nn ;.
'"o...
iii'
28.1. Aufgabenstellung 103

und entsprechend entsteht aus der zweiten Gl. (118) ein Gleichungs-
system fUr die Linksvektoren 'i' dessen Niederschrift dem Leser iiber-
a
~assen sei. Die in (120) auftretenden unbekannten Elemente jk und
d jj sind die mit den Vektoren aus (114) gebildeten Bilinearformen

(121)

wobei zu beachten ist, daB diese Elemente in transponierter Anordnung


im Gleichungssystem (120) erscheinen. Von praktischem Wert ist dieses
System ~ndessen nur, wenn verlangt wird, daB die transformierte
Matrix A von HESSENBERG-Form (24.10a) ist. Dann namlich lassen
sich nach Wahl eines ersten VektOls 1'1 auch die iibrigen Vektoren
r 2 , ••• , r n rekursiv ermitteln, naheres dazu im § 29.

§ 28. Aquivalenztransformation auf Diagonalmatrix

.28.1. Aufgabenstellung

Eine der wichtigsten Problemstellungen der numerischen Algebra


(z. B. beim Auflosen linearer Gleichungssysteme) ist die Transforma-
tion einer quadratischen Matrix A auf Diagonalform oder zumindest
auf Block-Diagonalform, ein Vorgang, der ein- oder beidseitig, im
letzteren Fall dazu vorwarts- oder riickwartsgerichtet angelegt werden
kann: MaBnahmen, wodurch die verschiedenen Algorithmen sich
unterscheiden. Allen Transformationen voran steht eine
Grundregel: Die Originalmatrix .4 wird unter keinen U mstanden
zerstOrt (uberschrieben) , sondern bleibt Itnberuhrt i m Speicher II
Der Leser kann sich dies gar nicht fest genug einpragen. In der
Praxis ist die Matrix A im allgemeinen von hoher Ordnung, etwa
n = 10000 mit einem meist ausgepragten Profil (schwache Besetzung,
Hiille, Band usw., vgl. Abschnitt 24.4), deren viele :\Iillionen Elemente
oft in auBerst miihseligen und aufwendigen Prozeduren aus einer
mechanischen Modellbildung samt anschlieBender finiter Ubersetzung
von gewohnlichen oder partiellen linearen Differentialgleichungen bzw.
mit Hilfe von Finite-Element-:\iethoden (FEl\l) gewonnen wurden.
Diese immense technische Information zu zerstoren, ware der groBte
Widersinn, abgesehen davon, daB zum Schluf3 der Rechnung die
Losung etwa der Gleichung A x = l' einzuschlief3en bzw. abzu-
schatzen ist, und - noch wichtiger - die Transformation ein- oder
mehrmals regeneriert werden muf3, was selbstredend nur an der un-
verfalschten Ausgangsmatrix gelingen kann.
104 § 28. Aquivalenztransformation auf Diagonalmatrix

• 28.2. Direkte und indirekte linksseitige Aquivalenztransformation


auf Diagonalmatrix
Das natiirliche (direkte) Vorgehen besteht in der Linearkombination
der Zeilen allein, und dies ist gleichbedeutend mit der :'IIultiplikation
der Matrix A mit einer regularen :'IIatrix L von links; das Paar A; I
geht dann iiber in

(1 )

und diese Transformation wird schrittweise durchgefiihrt nach dem


Schema
i j i
A = Lj • •• L 2L I {.4}; 1= L j • •• L2LI = L;

j = 1, 2, ... , n - 1 , (2)

wobei man wie stets die \Yahl hat zwischen expliziter, halbimpliziter
und impliziter Durchfiihrung, welch letztere im allgemeinen den Vor-
zug verdient. Es werden dann lediglich beim Aufdecken der Spalte ii j
das transformierte Element {iji sowie die in einer :'IIatrix r vereinigten
Leitvektoren VI' . . . , t'lI~l weggespeichert. Da vollstandige Reduktion
in jeder Spalte erforderlich ist, der Leitvektor V somit stets die volle
Lange n besitzt, andererseits nach (27.92) der Stiitzvektor tv nach
jedem Schritt kiirzer werden muB, kann der Reflektor, bei welchem
w T = v* ist, aufgrund dieses inneren Widerspruchs die geforderte
Transformation nicht leisten. :'IIan hat somit nur die Wahl zwischen
Elevator und Kalfaktor, siehe die Cbersicht (27.112).
So naheliegend die direkte linksseitige Transformation ist, so hat
sie doch zwei gravierende :'IIangel. Erstens wird zuviel :'IIaterial bewegt,
was zur Folge hat, daB bei Vollmatrizen rund n 3 /2 Operationen er-
forderlich werden, wahrend die beidseitige Aquivalenztransformation
mit n 3 /3 auskommt, zweitens versagt die :'IIethode bei singularer
Matrix A, weil ohne Rechtstransformation, d. h. Linearkombinationen
der Spalten, die Diagonalform. nicht zu erreichen ist. Beide Nachteile
werden vermieden durch Aufteilung der Transformation in zwei
Arbeitsgange. 1m ersten wird durch partielle ReduktioJt der Spalten
nach unten (bzw. nach oben) eine obere (bzw. untere) Dreiecksmatrix
hergestellt und sodann entwedel durch Spalten- oder Zeilenreduktion
die Diagonalmatrix erzeugt. Diese Trennung wird in den folgenden
Abschnitten strikt durchgehalten, wobe; die eigentliche Problematik
im erst en Arbeitsgang liegt. \Yurde die Dreiecksform einmal ge-
wonnen, so ist der in Abschnitt 28.5 beschriebene Gbergang auf die
Diagonalmatrix in jeder Hinsicht problemlos.
28.3. Die linksseitige AquiYalcnztransformation 105

28.3. Die linksseitige Aquivalenztransformation auf obere Dreiecksmatrix


Wir schildern als erstes die Linkstransformation einer regularen
:JIatrix A auf obere Dreiecksform
.4 = L{A} = ~;
-=
J L{J} = L; A regular, 0)
wobei wir den Aquivalenzpartner i nicht aus dem Auge verlieren. \Vie
immer wird die Matrix L aufgelOst in ein Produkt von n - 1 dyadischen
Transformationen
i-I i-I j-l
A = Lj_1 • •• L 2 L 1 {A}; J = L j _ 1 • • • L 2 L 1 {J} = L, (4)
wo nach J - 1 Teiltransformationen die folgende Zwischen phase er-
reicht wurde
i-I
teiltransformierte :Jlatrix .4
(an a 12 · • · al,j_1

o a 22 . . . a2,j_1

o o voll ( Sa)
o o
o o

o 0 ... 0
transformierter Teil
---j-I ->1
..... - - - - - 1 1 - - - - -

Speichermatrix S

vi-I, I ('j-1,2
-
aj -1.j-1 /I I

vii Vj2 '('j,j-1 leer (5b)


vi+ I, I '"[-'i "':-1, 2 lJ_- 1,j-1

'V n 1 1'H2 't'n, j--1

- - - - - H - - - ----- - --------~
106 § 28. Aquivalenztransformation auf Diagonalmatrix

In den beiden Zusatzzeilen der Speichermatrix werden die Nenner Ni


aus (27.112) und eine Kennziffer Xj hinterlegt, und zwar
I Elevator I E-Kalfaktor I Reflektor
(6)
v > i Vertauschung -v Pivot I Null

Diese Kennziffern dienen der Weichenstellung. Xj > 0 bedeutet Eleva-


tor, Xj < 0 Kalfaktor und Xj = 0 Reflektor. Verwendet man fiir den
Kalfaktor einen anderen \Y ert als E j = -1, so ist dieser in einer dritten
Zusatzzeile einzutragen. Damit ist die Transformationsmatrix L j _ 1
eindeutig gekennzeichnet.
Die Reduktion der nachsten Spalte a j ist stets durchfiihrbar, da
zufolge der vorausgesetzten Regularitat der :\latrix A der untere Teil-
u
vektor j in (8) nicht der Kullvektor sein kann, und erfolgt in fiinf
Etappen. j

1. Erstellung der Spalte a j der transformierten Matrix A.


Explizite Strategie. Die Spalte a j aus dem Speicher abrufen.
Implizite Strategie. Die Spalte a j aufdecken durch die Vektorfolge
aj = Lj_ 1 ••• L2 L1{A} e j • (7)
2. Verarbeitung dieser Spalte nach dem folgenden Schema

2a)

2b)

2c) (8)

2d)

2a) Die erst en i - 1 Komponenten werden unverandert iiber-


nommen.
2b) Aus au wird das neue Element ajj nach (27.112) berechnet.
2c) Das Leitelement 'Vjj des Leitvektors 1'1 ist Vjj = ajj - ajj.
28.3. Die linksseitige AquiYalenztransformation 107

2d) Die Komponenten ai+l,i' ... , alii sind identisch mit vi! I,i"'" vi"'
Alle diese n + 1 Elemente werden gespeichert.
3. Entscheidung
3a) Elevator. Spalten-Pivotsuche nach unten und Zeilenvertau-
schung mit Hilfe der Vertauschungsmatrix (Inzidenzmatrix)
j l'
\. 1 I
\.1 I
0---1-- J
F iv = j (9)
: '" i ~1',
1---0--
I '" I v

'"
die sich von del Einheitsmatrix I nur in vier Positionen unter-
scheidet. Zusammen mit dieser }Iatrix tritt der Elevator stets
als Dublett auf, und die ::\lultiplikation mit einem Vektor z
(10)
bedeutet nur, daB dessen Komponenten der Nummern j und l'
zu vertauschen sind; erst dann erfolgt die Transformation mit
dem Elevator. 1st ajj selbst Pivot, so unterbleibt die Vertau-
schung, da ril' = list. Rechnet man explizit (schon aus diesem
Grunde nicht zu empfehlen), so muB entweder die Vertauschung
der Matrizenzeilen j und 11 faktisch vorgenommen oder aber
(dies ist gebrauchlicher) durch eine Umdatierung indirekt be-
wirkt werden, siehe dazu die im Abschnitt 6.4 geschilderten
MaBnahmen.
3b) e-Kalfaktor. Pivotsuche erforderlich, falls ci = -1 bevorzugt
wird. Sonst ci geeignet wahlen und in einer dritten Zusatzzeile
unterhalb "i im Schema (8) wegspeichern. Yorteil: keine Zeilen-
vertauschung.
3c) Reflektor. Keine Pivotsuche, beste Stabilitat der Linkstrans-
formation. Dafiir doppelt so hoher Aufwand wie bei Elevator
und Kalfaktor und somit doppeJt so viele Rundungsfehler!
Daher sparsam anwenden. Pseudo-Reflektor aus Abschnitt 27.9
bevorzugen.
4. Das Hauptdiagonalelement aii
nach (27.112) berechnen und weg-
speichern.
5. Den Nenner N j nach (27.112) berechnen und wegspeichern.
Damit ist die Matrix L j berechnet, und es erfolgt die nachste Trans-
formation
(11)
108 § 28. Aqui\'alenztransformation auf Diagonalmatrix

Bezuglich der Profilzerstorung gilt: der Elevator erhalt die Band-


form, der Kalfaktor zerstort sie leicht, der Reflektor betrachtlich.
Doch ist dies bei impliziter Durchfuhrung nicht wesentlich, da das
untere Dreieck der transformierten :\Iatrix ohnehin nicht gespeichert
wird.
Favorisiert man, aus welch en Grunden immer, die explizite Strategie,
so ist eine komfortablere Pivotsuche "im rechten Winkel" nach folgen-
dem Schema moglich, indem das betragsgro13te von allen eingerahmten
Elementen zum Pivot erklart wird, was eine Zeilen- oder Spaltenver-
tauschung erforderlich macht. Noch aufwendiger ist die vollstiindige
Pivotsuche, bei welcher die ganze :\Iatrix unten rechts der Ordnung
n - j durchgekammt wird.

n-

11 I
I
1t-J
.

j - ---- n - j~

1st die Matrix L = U unitar - am einfachsten als Produkt von


11 - 1 Reflektoren - so wird wegen C* C = I mit Q : = u*

u* . I V .4 = '\J ~ .4 = U* '\J = :QR . (12)

Es erscheint somit die vorgelegte regulare :\latrix .4 als Produkt aus


einer unitaren :'.Iatrix Q und einer oberen Dreiecksmatrix '\J = R,
sogenannte Q-R-Zerlegung.
Wir kommen abschlie13end auf die bislang zuruckgestellte indirekte
linksseitige Transformation auf Diagonalmatrix zu sprechen. Es sei A
und damit '\J (numerisch hinreichend) regular, dann wird mit der
letzten Spalte beginnend die R eduktion nach oben durchgefuhrt, bis die
Diagonalform L '\J = D hergestellt ist.
Dieses Vorgehen, das gleichbedeutend ist mit der sukzessiven Berech-
nung der Unbekannten in der Reihenfolge x n ' X,, _ l,' .. , Xl, erweist sich
beim Auflosen Ii nearer Gleichungssysteme .4 X = I' als optimal, weil
es ohne Einfuhrung von Hilfsvektoren (Zwischenvektoren) auskommt
im Gegensatz etwa zur beidseitigen Transformation von CHOLESKY bzw.
BANACHIEWICZ; wir kommen im § 22 noch darauf zuruck.
28.4. Singulare :-'fatrix. Hangbestimmung 109

28.4. Singulare Matrix. Rangbestimmung


Es sei nun A singular vom Rang r < 11. Dann werden Spalten-
vertauschungen erforderlich, unter C mstanden mehrere pro Reduk-
tionsschritt. Sei beim ersten Schritt a1 die Nullspalte, dann wird diese
mit der letzten Spalte an vertauscht; ist auch diese gleich K ull , so
erfolgt eine Vertauschung mit a ll _ 1 usw . nach folgendem Schema

Al = {A} rIll rl ,n_1... = : {A.} r


A 1
. (13)
Steht nach n - 1 Vertauschungen noch immer die Kullspalte vom, so
war A die Nullmatrix, und eine Transformation eriibrigt sich. Anderen-
falls aber erfolgt
1 1
A = Ll {A} r = Ll {.4} R 1 (14)

usw. von Transformation zu Transformation. Diese Taktik hat zur


Folge, daB nach r - 1 Reduktionsschritten die obere Dreiecksmatrix

A
,-1 = L,_1 ... L z L1{A} r1 r·
2 .. r-l
r = L{A} R = f-o Aol_2]
I: (15)

mitsamt dem .i\quivalenzpartner

J=L{J}R = LR (16)

erzeugt wurde. Beziiglich der Pivotsuche unterscheiden wir auch hier:


a) Partielle Spalten-Pivotsuche nach unten. Es wird eine Niveauho/ze
(treshold, Schwellwert)
(17)

beginnend etwa mit e = 5 oder Q = 10, vorgegeben. 1st das Betrags-


quadrat der aktuellen Restspalte aus (8) kleiner als der moment an
gespeicherte Schwellwert
(18)

so erfolgt ein Austausch der Spalten wie beschrieben, anderenfalls wird


reduziert. Gibt es keine Spalte mehr, die der Bedingung (18) geniigt,
so wird der Exponent e urn eins erhoht, und so fort, bis die Aussage-
kraft der Maschine erschopft ist. Auf diese Weise wird der numerische
Rang einer Matrix bestimmt, wahrend der "wahre" Rang als bloBe
Fiktion selbstredend unbekannt bleibt, vgl. die Bemerkungen im Ab-
schnitt 24.1.
110 § 28. Aqui\"alenztransforrnation auf Diagonalrnatrix

b) Bei expliziter Durchfiihrung ist eine vollstiindige Pivotsuche mog-


lich. Nach jeder Teiltransformation (Reduktion) werden samtliche noch
nicht reduzierten Restspalten-Betragsquadrate (18) berechnet und
davon die groBte nach vorn gebracht. Sehr aufwendig, aber das Beste
vom Besten!
Ein Beispiel. Die Matrix .4 wurde transforrniert auf A = E( 4>3 K2 E} A, so daB
.4 obere Dreiecksforrn annirnrnt.
Der Elevator E ist irnrner dann \"orzuziehen , wenn
das aktuelle Hauptdiagonalelernent eine vorgegebene Schranke (etwa lO- Q ) nicht
unterschreitet.

_1}A{
-6 -6 6 12

A~
6 12
-3 3 ~ -14 0 32 11
2 12 - 4 0 10
4
10,6 -16,1 ) ,
(;
-9 3 -8 -j 0 0 0 -26,9 -9,29
4 10· lO- s 2 - 19 0 0 aS3 0 0,309

a
S3 = -0,106. 10- 20 .

• 28.5. Die Rechtstransformation auf Diagonaimatrix. Normalform

Es sei nun das Paar


,- I ,- I
A = L'_ I . . . L2 Ll {A} ; 1 = L,_ I' .. L 2 L 1 {1}; r ~ n (19)

hergestellt, einerlei mit Hilfe welcher uniformen oder fakultativen


Transformation in expliziter oder (halb-)impliziter Durchfiihrung.
Dann besteht der bis jetzt aufgeschobene zweite Arbeitsgang darin, die
r-reihige obere Dreiecksmatrix in (15) mitsamt der Blockmatrix A 12 ,
also das Trapez
n
(20)

~-- n - r - --

durch Spaltenkombination so zu transformieren, daB die Haupt-


diagonale allein stehenbleibt, die Gesamtmatrix somit iibergeht in

A=
A

DA = L{A} R I mit DA = 0 [D, 0]O· (21)

Multipliziert man dies von links mit der Diagonalmatrix


D = Diag <dill, ... , d;,l; 1, .. . , 1) , (22)
so entsteht daraus die Normalform (7.16) als def einfachste signifikante
Reprasentant des Ranges einer ~latrix.
28.6. Hermitesche und positiv definite Matrix 111

Wie geht nun die Reduktion der Zeilen nach rechts vonstatten? Als
erstes bemerken wir, daB Kalfaktor wie auch Reflektor, angewendet von
rechts, die erreichte Form wieder zeIstoren wurden; es verbleibt somit
allein der Elevator. 1m erst en Schritt ist offenbar

(23)

wo das Dach die Restzeile kennzeichnet, in der das Hauptdiagonal-


A

element fehlt. In der Tat ist


1
A = A El = A - A e 1 - a 1 = A - e1 . a 1 (24)
A A

. ,
an
~

womit die erste Restzeile verschwindet, und so fahrt man fort bis zur
Zeile der Nummer r, bei regularer ~latrix bis zur letzten Zeile der
Nummern.

• 28.6. Hermitesche und positiv definite Matrix


Wenn A hermitesch ist, wird man R = L* wahlen, damit Links- und
Rechtstransformation gleichartig ablaufen. Anstelle von (21) wird
dann
A

1= L I L* = LL* , (25)

womit A auf die reelle Diagonalmatrix D A transformiert wurde. 1st


uberdies A positiv definit, so sind die Elemente von DA positiv; was
aber nicht heiBt, daB die Pivotsuche entfallt. Dies selbst dann nicht,
wenn vorweg durch Skalierung alle Hauptdiagonalelemente von A zu
Eins gemacht wurden, da diese Einsen im Verlaufe des Algorithmus
wieder verlorengehen.
Fragen wir nun, ob unsere dyadischen Transformationsmatrizen die
Forderung (25) erfullen konnen. Es ist

L = I - v -1 y T ---. L* = I - -y -::::-v
1 *, (26)
N N

Leit- und Stutzvektor vertauschen so mit ihre RoUen. Studieren wir


den ersten Schritt. Damit die Transformation in den nachfolgenden
Schritten nicht wieder zerstort wird, muB nach (27.92) die erste Kom-
ponente des Stutzvektors (dort w genannt), somit das Leitelement
vll = an - an verschwinden -: dies aber trifft nach (27.112) allein zu
fur den Elevator! Kalfaktor und Reflektor fallen deshalb als hermi-
tesche Transformationsmatrizen aus. Beim Reflektor ist dies schon
aus einem anderen Grund evident. Da namlich 4» unitar ist, geht (25)
112 § 28. A.quiYalenztransformation auf Diagonalmatrix

liber in

DA = ~{A} ~* ; 1 = ~~* = I. (27)


Auf diese Weise ware das Paar A; 1 simultan auf Diagonalform trans-
formiert worden; das aber leistet allein die :\lodalmatrix der Eigen-
vektoren, die jedoch durch rationale Cmformungen (im allgemeinen)
nicht zu gewinnen ist. Der Reflektor mochte also gewisserma13en zuviel
und ist gerade deshalb nicht zu gebrauchen.
Ralten wir uns also an den Elevator. Nach j Teiltransformationen
entsteht die hermitesche :\Iatrix

l~ ol
i i
LAL*=E j ",E 2 E1 {11} El* E~* , , , E*
j = -- I - - , (28)
o II A II..

wo die Blockmatrix unten rechts ihrerseits hermitesch ist. Nun la13t


aber der Rechtselevator ersichtlich den Rauptminor Ali unten rechts
unverandert, mithin mu13te dieser schon vorher die endgliltige her-
mitesche Form haben aufgrund der Linkstransformation allein

(29)

Wir haben damit den


Satz 1: Der Elevator als Linkstransjormation (GAussscher Algo-
rithmus) bewahrt die Hermitezitiit aller Hauptminoren.
Ein Beispiel.

2l 1- Z)
( 2 2+ (2 __2_+_2~ _l_-_i)
A = 2 - 2l 1 -z -> .4 1 = 0 -3 Z
,
1 +1 0 -I 4

1m ersten Schritt wurde die mit (- 1 + i) multiplizierte erste Zeile zur zweiten
und die mit - (1 + i) /2 multiplizierte erste Zeile zur dritten addiert. Die da-
durch entstehende zweireihige :\latrix untcn reehts ist ihrerseits hermiteseh. Im
nachsten Schritt wird dic mit -i/3 multiplizierte zweite Zeile zur dritten addiert,
und auch die einreihige :\latrix unten rcehts ist hermitesch (namlich reell). wie es
sein muO.
28.7. Die dyadische Zerlegung von BAXACHIEWICZ und CHOLESKY 113

.28.7. Die dyadische Zerlegung von Banachiewicz und Cholesky


Es ist ublich geworden, die schon 1878 von DOOLITTLE : 105 ~ konzi-
pierte und spater von CHOLESKY [106: (1924) und BA,",ACHIEWICZ [107J
(1938) vervo11kommnete Dreieckszerlegung einer :'IIatrix als rechen-
technisch vorteilhafte Variante des GAcssschen Algorithmus anzu-
sehen. Dies trifft jedoch keineswegs zu; im Gegenteil, es handelt sich
dabei urn zwei diametral entgegengesetzte Transformationen. Denkt
man sich namlich die Zerlegung von A. durchgefuhrt in der Form

A=PI)AQ (30)
o
mit Dreiecksmatrizen P und Q und der Diagonalmatrix D A' so folgt
nach Multiplikation mit P-l von links und Q-l von rechts die Be-
ziehung (31), wahrend GAuSS nach (21) die Transformation (32) be-
werkste11igt:
o
BA,",ACHIEWICZ p-l A. Q-l = DA . (31)
GAUSS L A.R = DA . (32)

Es entsprechen daher einander

i P-l - L, Q-l_ R, (33)

und bei gleicher Pivotisierung ist sogar


,
p-l = L, Q-l = R, VA = DA • (34)

Die beiden Algorithmen erzeugen also die jeweils reziproken Zer-


legungen. Nun zeigten wir im Abschnitt 24.4, daB die Inverse einer
unteren (oberen) Dreiecksmatrix ~(""l) zwar ihrerseits eine untere
(obere) Dreiecksmatrix ist, diese aber - und das ist die Crux - vo11-
besetzt auch dann, wenn A von Bandform, somit ~(""l) von Trapez-
form war

Auf gar keinen Fall durfen daher die :'IIatrizen Lund R aus dem GAUSS-
schen Algorithmus (der Elevatortransformation) explizit hergeste11t
werden, was wir im vorangehenden denn auch peinlichst vermieden
haben.
114 § 28. Aqui\'alenztransformation auf Diagonalmatrix

Dberzeugen wir uns anhand cines Beispiels. Die :'Iatrix .4 soll a) nach GAUSS
transformiert, b) nach BAXACHIEWICZ dyadisch zerlegt werden.
a) Der GAusssche Algorithmus wird an .4 und I gleichzeitig von Hand durch-
gefUhrt. 1m ersten Schritt wird die mit 3 multiplizierte erste Zeile zur zweiten
addiert, im zweiten Schritt die zweite zur dritten addiert. Der Einfachheit halber
fassen wir.4; I als 6 X 3-:'Iatrix auf.

o o
U) (1 2 o
(-~ :~) ~ (~ ~
() ,
2 I) (J

-4 1 o 1 () ~ 0 2 3 1 1 3 1
-2 3 o () 1 0 -2 3 (J II 1 0 0 4 3 1

Damit ist LA und L I = L hergestellt. Jetzt werden die Spalten kombiniert. \Vir
schreiben die :'Iatrizen L.-I und I untereinander und bekommen: Erster Schritt:
die mit -2 multiplizierte erste Spalte wird zur zweiten addiert. Zweiter Schritt:
die mit -0,5 multiplizierte zweite Spalte wird zur dritten addiert:

LA 0
2
2
0
0
0
2
0
0
0
2
0
0
1 r LAR=DAI1
0 0 4 0 0 4 0 0 4

I'J
-~----

0 0 1 -2 0 1 -2
I 0 0 0 I) 0 -1/2 IR = R
lo 0 d 0 n 0 0

Der Leser uberzeuge sich, da13 LA R = D A = Diag <1 2 4) ist.


b) Die dyadische Zerlegung von BAXACHIEWICZ. Erster Schritt: Es ist
( 2 0)

.4
= (-D(-~
2
-6
0
0+0
0)
n
C 0 -2
0
2 D = DI + RI ·

Diesen Rest zerlegen wir weiter und bekommen

2 1) (0 0 4)

~ ~) + (~) (~ ~ ~)
-2 -1 1 0 0 4

Dies aber ist nach der dyadischen Lesart drei (24.17) das Produkt aus P und DA g,
niimlich

P =
(
-3
1

o -1
0
1 0)~ ,
DAg =
(~
2
2
0
I) ( I) C
1
4
= 0
0
0
2
0
Il
4
2
1
0
II
~I, 5
)
'

n
Es ist somit A = D A und daher nach (34) auch P-I = Lund g-I = R bzw.
PL = lund g n = I, wie leicht nachzurechnen. Die Identitiit beider Yerfahren
beruht hier auf der gleichen Pivotisierung; es wurden weder Zeilen noch Spalten
vertauscht.
Ein kritischer Vergleich verlangt zu bemerken, daJ3 die Riickwat ts-
zerlegung von CHOLESKY und BAXACHIEWICZ zwei nicht zu untcr-
schatzende N achteile aufweist. Erstens ist die Regeneration aufgrund
28.8. Die Normalform eines diagonaiiihnlichen :\Iatrizentupeis 115

der dyadischen Zerlegung ein schwieriges Geschaft, zweitens laBt sich


immer nur eine einzelne Matrix zerlegen, niemals ein Produkt von
~latrizen und schon gar nicht eine Summe von Produkten, wie dies
beispielsweise bei der schon in (22) angehihrten reduzierten ~Iatrix
(dem SCHuR-Komplement) (22.10) erforderlich wird, es sei denn, der
Inhalt der Informationsklammer wiirde vorweg explizit errechnet, und
das ist ein nicht vertretbarer Aufwand. Beide Erfordernisse werden
dagegen vom GAussschen Algorithmus problemlos bewaltigt, weshalb
wir im folgenden von der Zerlegung nach CHOLESKY bzw. BAXACHIE-
WICZ keinen weiteren Gebrauch machen werden. Der Leser sei bei
dieser Gelegenheit nochmals auf die grundsatzlichen Erorterungen im
Abschnitt 24.2 hingewiesen.

28.8. Die Normalform eines diagonaiiihnlichen Matrizentupeis


Vorgelegt sei das Tupel (21.28) mitsamt einer regularen ~ ormierungs-
matrix N
{A} = {Ao, AI' A 2 , ••. ,AQ}; .V regular. (36)

Bringen wir N auf Diagonalform


L NR = Ds (37)
und schicken jeden der Partner des Tupels in die Informationsklammer

Av := Ln~l" . L 2 L 1 {A v} R 1 R 2 •• • R,,_I; v = 1, 2, ... , (! , (38)

so entsteht die Normalform


""' -- -- - .-
{A} = {Ao, AI' A 2 , ••. , AQ}; Ds regular (39)

mit diagonaler Normierungsmatrix D.\..


Speziell bei der linearen Matrizenhauptgleichung
F(A) ;r = (A - A B) ;r = J'; B regular (40)
mit N = B (selbstnormierend, vgl. Abschnitt 21.4) bedeutet das als
immer wiederkehrende Standardaufgabe die Transformation

(41)
oder, wenn B hermitesch ist, mit RB = Lt

(42)
116 § 29. Ahnlichkeitstransfonnation auf Fastdreiccksmatrix

§ 29. Ahnlichkeitstransformation auf Fastdreiecksmatrix


.29.1. Aufgabenstellung

Zahlreiche Eigenwertalgorithmen (Eigenloser, eigensolver) verlangen


als Vorleistung (vgl. Abschnitt 24.3) die Transformation der Eigenwert-
aufgabe
.4.r =}.B.r; B regular (1 )
auf die spezielle Form
Ho Z = }. I z bzw. llu Z = AI z, (2)
wo Ho (bzw. llul eine obere (untere) HEssExBERG-~Iatrix (24.10a) ist
oder als Sonderform auch die Tridiagonalmatrix T (24.6b) oder die
Kodiagonalmatrix P G (24.10b). Bezuglich der numerischen Durch-
fUhrung ist wie stets zwischen der multiplikativen und der progressiven
Vorgehensweise zu unterscheiden, siehe die Cbersicht (3). \Venn auch -
mit einer Ausnahme - alle dort aufgefuhrten Verfahren ursprunglich
fUr das spezielle Paar A; I konzipiert waren, so ist die Verallgemeinerung
auf A; B ein leichtes, weshalb wir im folgenden von vornherein diesen
in der Praxis allein interessierenden Fall ansteuern werden, und zwar
beschreiben wir zunachst die multiplikative und spater die - numerisch
nicht ganz problem lose - progressive ~Iethode, diese allerdings aus-
fUhrlich nUl fur den Sonderfall des hermiteschen Paares .4; B.

~I ulti plika ti ve
Typ der ~Iatrix Progressin ~Iethoden
~Iethoden

HESSE:-iBERG- \\'ILKIKSOX 1959


HESSEXBERG 1941
Matrix H
HOCSEHOLDER 1959
Tridiagonal- L.-\xczos 1951 GIYEXS 1954
matrix T FALK 1950,1954 !

Kodiagonal- KRYLOFF 1931


matrix P G FRAZERjDcKCAK! DAKILEWSKI 1938
KOLLAR 1953

Bei den multiplikativen ~Iethoden wird vorweg die ~Iatrix B auf


Diagonalform transformiert
(4)
wobei, falls B hermitesch ist, auch die Kongruenztransformation mit
R B = L~ gewahlt werden kann. Formale ~Iultiplikation der Gleichung(1)
29·2. Mechanismus einer multiplikati"en Ahnlichkeitstra nsformation 117

von links mit B-1 gibt dann

RB Dii i LB .4 x = i.I x (5)


oder
(6)

und dieses vierfache Produkt geht in die Informationsklammer, durch


welche der aktuelle Vektor Zj von rechts
A z, = {RBDiil LB .4} Zj (7)

mit den Zwischenschritten A Zj' LB(A Zj), Dii l (L B .4 zj),RB(Dii i LB .4z,)


hindurchgeschickt und nach links weitergeleitet wird.
Die progressiven Methoden erfordern diese Vorbereitung nicht ,
sondern set zen direkt an der Ausgangsgleichung (1) an .

• 29.2. Der Mechanismus einer multiplikativen Ahnlichkeitstransformation

Wie bei der im § 28 besprochenen .\quivalenztransformation handelt


es sich wiederum urn die vollstandige oder unvollstandige Reduktion
der Spalten einer vorgelegten :'Ilatrix {J} mit Hilfe von geeignet zu
wahlenden Leitvektoren Vi' "-'2' . .. , ",,~~ nach folgendem Schema

Leit- Endform
vektoren
It_

LSJ
partielle Reduktion (8)
nach unten n If.

lS]
partielle Reduktion
nach oben
If.. (9)

LSJ
vollstiindige Reduktion I

G. (10)
118 § 29. Ahnlichkeitstransformation auf Fastdreiecksmatrix

Eine wesentliehe Einsehrankung besteht alierdings darin, daB wir


nieht mehr ohne Riieksieht auf den Aquivalenzpartner die Links- und
Reehtstransformationsmatrizen voneinander unabhangig wahlen kon-
nen, sondern zufolge der Ahnliehkeitsforderung L 1 R = I, somit
R = L-l die Transformationsgleiehung
i
J=Li···L2Ll{J}Ll1L21 ... Lj·l; j=1,2, ... ,n-2 (11)
entsteht, wo jedes einzelne Paar fUr sieh ahnlieh sein muB
Rv=L;l; v=1,2, ... ,n-2, (12)
was indessen aufgrund der idealen Eigensehaften alier dyadisehen
Transformationsmatrizen nieht die geringste Ersehwernis bedeutet,
denn es ist ja
Elevator L=E, L-l=3 mit 3:=I+vw T , (13)
Kalfaktor L = K, L-l = K, (14)
Reflektor L = cit , L-l = cit , (15 )
und fUr das infolge Pivotisierung entstehende Dublett E r wird wegen
r- 1 = r
in fast ebenso einfaeher Weise
L = (Er), L-l = (F3), (16)
so daB damit die Gl. (11) das Aussehen bekommt
i
J = ... cit··· K··· (E r)··· {J} ... (F 3) ... K··· cit···
(17)
in spiegelbildlieher Anordnung zur Informationsklammer {J}. An-
sonsten verlauft die Transformation wie in §§ 27 und 28 gesehildert,
entweder in expliziter oder (halb)- impliziter Strategie, wenn aueh
unter Beaehtung der folgenden :,!Iodifikationen:
1. Anstelle der oberen (unteren) Dreieeksform wird eine obere
(untere) Fastdreieeksform erzeugt, wobei der Zusatz "Fast-" besagt,
daB nunmehr eine Kodiagonale links unterhalb (reehts oberhalb) des
Dreieeks mitlauft.
2. Dies hat zur Folge, daB die Transformation sogleieh mit dem
zweiten Sehritt beginnt; es lauft deshalb der Index j aueh nur bis
n - 2 und nieht bis n - 1 wie bei der Aquivalenztransformation.
3. Aus diesem Grunde sind alle Leitvektoren urn eine Komponente
kiirzer. Die Leitelemente sind V 21 , ~132' ••• , V,,_l, n-2.
Halten wir aber fest, daB von alledem die grundlegende Vorsehrift
(27.112) - die ja von Haus aus mit der Kullenerzeugung aueh nieht
das mindeste zu tun hat! - in keiner \Veise beriihrt wird.
Wie stets laBt sieh die Gesamttransformation uniform durehfiihren
oder aber alternativ, indem in jeder der n - 2 Teiltransformationen
eines Durehlaufes einer der drei Typen E, K. cit den Erfordernissen der
aktuell zu reduzierenden :\Iatrizenspalte von A angepaBt wird.
29.6. :\Iultiplikative Transformation cines hermiteschen Paares 119

.29.3. Multiplikative Transformation auf Hessenberg-Form


HESSENBERG [146J fiihrte als erster die Transformation auf die nach
ihm benannte Fastdreiecksform progressiv durch; spater publizierten
WILKINSON [152J und HOUSEHOLDER -147J fast gleichzeitig eine multi-
plikative uniforme Version mit Hilfe des speziellen Elevators (wi = e i ,
element are Umformungen) bzw. Reflektors (der deshalb bisweilen auch
als HOUSEHOLDER-Matrix bezeichnet wird), doch empfiehlt sich im all-
gemeinen ein fakultatives Vorgehen in impliziter Strategie.

29.4. Multiplikative Transformation auf Tridiagonalform


Diese Transformation verlauft in drei Schritten. Zunachst wird das
Paar A; B nach (4) bis (6) auf A; lund anschlie13end nach (S) auf das
Paar Ho; I transformiert. Sodann wird nach Schema (9) von
rechts nach links fortschreitend, also beginnend mit der letzten (nicht
ersten) Spalte der Matrix H o' mittels partieller Reduktion nach oben
eine untere HESSENBERG-~iatrix Hu gewonnen. Diese aber ist eine
Tridiagonalmatrix, da die bereits erzeugten Nullen im unteren linken
Teil der HESSENBERG-Matrix Ho bei der zuletzt durchgefiihrten Trans-
formation erhalten bleiben.

29.5. Multiplikative Transformation auf Kodiagonaiform


DANILEWSKI [143J transformiert mit Hilfe des Elevators E durch
vollstandige Reduktion nach unten ltnd oben das Paar A; I auf P G; I
nach Schema (10). Da nur Pivotsuche nach unten (oder oben) moglich
ist, wird das Verfahren bei gro13en Ordnungszahlen instabil; es ist daher
kaum im Gebrauch .

• 29.6. Multiplikative Transformation eines hermiteschen Paares


auf Tridiagonalform
Soll bei hermiteschen Paaren ".f; B die Hermitezitat bewahrt werden,
so darf man nicht nach (4) bis (6) vorgehen, sondern mu13 die Kon-
gruenztransformation (2S.42) vorwegnehmen, wobei zusatzlich DB = I
gemacht wird, was durch eine Skalierung zu erreichen ist. Es ist dann
A= LB A L~ hermitesch, und nun wird per Reflektor durch Reduktion
nach unten die Transformation auf hermitesche Tridiagonalform durch-
gefiihrt
i
J = fPj .•• fP2 fPI {L B A L~} fPI fP2 . . . fP i ; J = 1,2, ... , n - 2.
(1S)
120 § 29. Ahnlichkeitstransformation auf Fastdreiecksmatrix

War von vornherein in (23) B = I, so kommt auch die von HOUSE-


HOLDER vorgeschlagene explizite Durchfuhrung in Betracht, da infolge
der Hermitezitat nur die obere (oder untere) Halfte der schrittweise
transformierten }Iatrix berechnet werden muB, ein Vorzug, den die
implizite l\fethode nicht ausnutzen kann. Eine Auszahlung der er-
forderlichen Operationen ergibt jedoch, daB (abgesehen yom hoheren
Speicherbedarf) die Originalmethode von HOUSEHOLDER nur fur re-
lativ breitbandige, stets also fur vollbesetzte }Iatrizen A im Vorteil ist.

29.7. Progressive Transformation auf Kodiagonalform (Begleitmatrix)


Von KRYLOV :149J stammt der Vorschlag, die }Iatrix A auf die
transponierte Begleitmatrix (23.8) als einer speziellen Form der Ko-
diagonalmatrix Go (10) progressiv zu transformieren. Da in der letzten
Spalte dieser }Iatrix
(0 0 0 0 ~ho
1 0 0 0 ~h1
0 1 0 0 ~h2
G0 = (19)
........ , ..........
0 0 0 0 ~h"~2
0 0 0 ... 1 ~hll~1

die Koeffizienten hi des charakteristischen Polynoms


(~1)" det (Go ~ A I) = J." + hll~1J."~1 + ... + h2A2 + hlA + ho
(20)
explizit erscheinen, lauft das Ganze auf die bereits im Abschnitt 14.2
hergeleitete l\lethode der Vektoriteration hinaus, wie unschwer zu
erkennen, denn nun gehen zufolge der geforderten Endform (19) die
Rekursionsformeln (27.120) mit der )Jormierung

dii = I'; Bl'i = 1 (21)

und wenn wir noch aik = hjk setzen, uber in


o = (0 ~ B- 1 .it "I) + 1'2 }
o = (0 ~ B-1 ~4 1'2) + 1'3
o = (0 ~ B-1 A 1'''~2) + 1',, __ 1
(22)
+ ... + 1',,_1 h"~1,11 +
+ (rn ~ B-1 A 't'n) ,
(23)
29.8. Progressive Transformation auf Tridiagonalform 121

wo die Elemente hI,,, h2", . . . , lz"-I,,, der letzten Gleichung nichts an-
deres sind als die Koeffizienten des charakteristischen Polynoms (20).
Hier wird also ausgehend von einem Startvektor )'1 in den ersten
n - 2 Gleichungen (22) die KRYLOy-Folge
1'1> 1'2 = (B-1 A) 1'1' )'3 = (B-1 .tl)2 1't, . . . , 1",,-1 = (B-l.4)"-2 1'1 (24)
aufgebaut (vgl. (14.12) mit B = I, dort etwas anders bezeichnet) und
sodann die Gesamtinformation (23) zum Schlu/3 mit einem Schlage
verarbeitet, und genau das ist der Tod des \'erfahrens. Dies deshalb,
da, wie wir im § 40 noch sehen werden, die fortlaufende Potenzierung
in (24) die Spalten des Endgleichungssystems (23) (bzw. in anderer
Bezeichnungsweise (14.17)) mehr und mehr linear abhangig und dam it
die Auflosung praktisch unmoglich macht, und zwar urn so ausgepragter,
je gro/3er die Ordnungszahl It ist.

29.8. Progressive Transformation eines hermiteschen Paares


auf Tridiagonalform
Wir haben im letzten Abschnitt die progressive Transformation nur
des historischen Interesses wegen erwahnt, ohne sie zu propagieren. Bei
hermiteschen Paaren A; B jedoch ist die :\Iethode durchaus kon-
kurrenzfahig und soIl deshalb ausfiihrlich dargestellt werden. Da die
Transformation nunmehr B-unitar ablauft
R*AR=T=T*; R*BR=niag(d~j> d:j=l'fB1'j>0, mit
(25)
wird mit L = R* aus der HESSEXBERG-Form die hermitesche Tri-
-

diagonalmatrix T* = T, somit hjk = hkj , und da aIle Elemente au/3er-


halb des dreigliedrigen Bandes verschwinden, vereinfachen sich die
Rekursionsformeln (27.120) ganz erheblich. Es verbleibt

0= ( 1't h_ll
d ll
_ B-1 A 1'1) + 1'2 h_21
d 22
, 1

(26)

0=1'11- l_h",,,~
.....
+ (I'n -h lln - B-l.4 I' ) .
n
d n -l, /I-I d""
\Vahlt man einen von Null verschiedenen Startvektor 1'1' so lassen
sich rekursiv (progressiv) die Vektoren 1'2' . . . ,1'n berechnen. Diese
122 § 29. Ahnlichkeitstransformation auf Fastdreiecksmatrix

normieren wir zweekma13ig so, da13 die Quotienten h21/d 22 usw. den
\Vert -1 annehmen, es wird dann
-
h32 = -d33 , ..• , h ll ,II_1 -dllll • (27)

Nun sind aber die hermitesehen Formen = B rj aueh bei d;j 1'7
komplexem Vektor 1'j reell, somit werden aueh die Kodiagonalele-
mente h21 = h12 usw. reell, und damit gehen die GIn. (26) tiber in die
Rekursionsvorsehrift

r2 = (1'1 ~ll
d ll
- B-1 .41'1 )
r3 = (1'2 ~22 - B-l.4 1'2 ) - 1'1 ~2
d 22 d ll
(28)
r 4 --
(
\r3
h
=--
33 - B-l.4 1'3 ) - 1'2 ~3
d 33 d 22

rn = (~,• n-l -""-::1,,,::-1


_ - B-1 A'
1 11 _ 1) - 1,11 -2 --0_;;---'----
i,'-I,n-l
dn-l, n-l d n -2,n-2

o = (1' h nn
n- - B- 1 A)
rn - r ll _ dnn
1 -_---. (29)
d nn dn-I, ,,-1

wo die letzte Gleiehung als Kontrolle dient. :\1it den hier allein auf-
tretenden reellen hermitesehen Formen
I1j j = * 4
1\. 1'j'
d-J..J = 1'*
1
B 1'·J (30)

nimmt dann das transformierte Paar die Gestalt an

hll -d22 0 0 0
-d 22 -d33 0 0
h22
- - -
H= 0 -d33 h33 0 0 D = Diag (d jj ). (31)

0 0 0 -d nn hnnJ
1st nun au13er B aueh .4 positiv definit, so sind die Hauptdiagonal-
elemente hj j positiv, und nun la13t sieh dureh eine naehfolgende Nor-
mierung erreiehen, da13 alle Zeilensummen von H au13er der letzten
versehwinden. Das so entstehende reellsymmetrisehe Paar C;.lI ist
dann deutbar als Feder- und ~Iassenmatrix einer links freien und
reehts eingespannten Sehwingerkette. Kaheres dazu findet sieh in der
Originalarbeit )44J.
29·9. Der Zerfall einer Fastdreiecksmatrix 123

SchlieBlich noch einige Worte zum Rechenaufwand. Sind .4 und B


vollbesetzt, so erfordert die Transformation einschlieBlich der Dreiecks-
zerlegung von B rund 7/6 n 3 Operationen, bei Bandmatrizen wesentlich
weniger.
Ein Beispiel. Das vorgelegte PaaL"'; 1:1 ist progressh· auf II; j) zu transformieren.

A =
2-1
( -~ 2
4
B = (0
I II)
1 t ,
-t 1 o -l 2

Eine Dreieckszerlegung von 1:1 eriibrigt sich hier, da B-1 leicht angebbar ist.
1. Schritt. Der Startvektor '"1 ist beliebig. \Vir wahlen '"I = e 1 und berechnen
1'1 = e1 --.. hll = 1't(A 1'1) = 2, ~1 = '"t 1:1 '"I = 4. .... 1'1 = a 1 wegspeichern.
2. Schritt.

1'2 = G) : -(=t) GJ = --"/z22 = 1'~(.4 '"2) = 30,

A 1'2 wegspeichern.
3. Schritt.

1"S = (~.) 30 _ (1~~4i .) _ (~) ~4 (_~) =


2t 5 1+12t 0 -1

--.. hss = 1': (A 1's) = 5, dss = '"1 1:1 1's = 5. A. 1's wegspeichern.
Damit steht das transformierte Paar (31) bereits fertig vor uns, dazu die Trans-
formations matrix R.
-5
30 0)
- 5 , D = (4 0 0)
0 5 0 . R = (1'1' '"2' '"s) = (1
0
o3 0)
-i .
-5 5 0 0 5 0 2i -1
4. Schritt. Kontrolle. In der Tat produziert Gl. (29) den ~ulh·ektor

(-~) +-(-3 ~
\-1 -1 -
i .) -
2t
(~.) ~ (~),
21
=
0

wie es sein muB. Der Leser iiberzeuge sich auBerdem, daB R* A R = II und
R* B R = jj ist und wiederhole die Rechnung mit einem anderen Ausgangsvek-
tor, etwa 1'1 = (1 1 1)T.

29.9. Der Zerfall einer Fastdreiecksmatrix


1m Verlaufe der Transformation - einerlei ob multiplikativ oder
progressiv durchgefiihrt - kann die nicht vorhersehbare Situation ein-
treten, daB auBer den geforderten ~ullen unterhalb (bzw. auch ober-
halb) der Kodiagonale eines oder mehrere Elemente der Kodiagonale
selbst zu Null werden, so daB die transformierte JIatrix H und damit
124 § 29. .~hnlichkeitstransformation auf Fastdreiecksmatrix

auch die Parametermatrix F().) = H - ). D in Bl6cke zerfalIt

r"A~ rO~-,----~----~----

"'A22 A 23
H= "
, F(A) = H - AD dito, (32)
o ,
"' ,,
"'
A",,,,

wo jeder Hauptdiagonalblock AU seinerseits von HESSENBERG-Form


ist. Dies hat den Vorteil, daB die Determinante von F(A) sich nunmehr
als Produkt schreiben laBt

womit das Eigenwertspektrum in 11t voneinander unabhangige Teil-


spektren zerfallt.
Wann aber tritt ein so1cher Zerfall ein? em der Antwort naher zu
kommen, streichen wir in der oberen Fastdreiecksmatrix Ho bzw. T
oder auch Go (10) die erste Spalte und Ietzte Zeile. Die verbleibende
Untermatrix der Ordnung It - 1 hat als Hauptdiagonale die Ko-
diagonale der Fastdreiecksmatrix und damit die vom Parameter A un-
abhangige Determinante

(34)

1st keines dieser Elemente gleich ~ull, oder anders ausgedriickt, zer-
falIt die Fastdreiecksmatrix H nicht, so ist (34) eine nicht verschwin-
den de Unterdeterminante der Ordnung n - 1 der charakteristischen
Matrix F(A) = H - A 1, und damit wird der Rangabfall von F(A i ) fiir
jeden beliebigen Eigenwert genau gleich Eins. Nun sei das Paar H; 1
diagonalahnlich, dann stirn men Rangabfall und Vielfachheit (Ji eines
Eigenwertes Aj iiberein, und damit haben wir den
Sa tz 1: Ein ."vIatrizenpaar H; 1 mit diagonaliihnlicher F astdreiecks-
matrix H besitzt lattler verschiedene Eigenwerfe.
1st insbesondere das Paar H; 1 hermitesch, somit H = T, so sind
die Eigenwerte reell. Der einfachste Yertreter dieser Klasse ist das
29.9. Der Zerfall einer Fastdreiecksmatrix 125

Paar K; I (17.39) mit lauter verschiedenen reellen Eigenwerten (17.48),


siehe auch Abb. 17.3.
Hat nun das vorgelegte diagonaHi.hnliche Paar .... ; B mehrfache
Eigenwerte, so trifft dies auch fur das transformierte Paar H; I bzw.
H; D zu. Dieses muJ3 daher in eine :\Iindestanzahl yon Blacken zer-
fallen dergestalt, daJ3 deren jeder lauter verschiedene Eigenwerte be-
sitzt, wobei ein daruber hinausgehender Zerfall nicht ausgeschlossen
ist. Dies sehen wir auf einfachste \Veise so ein: Angenommen, wir
starten mit einem Eigenvektor 1'1 = J'J' zum Eigenwert A..I = R;. = hn/dn ,
dann wird nach (28)

1'2 = 1'1 ,?1 - B-1 A )'1 = 1'1 Rl - B-1 ;'} 1'1 = 0 (35)
dn

und damit h21 = 0, womit bereits die Kontrollzeile (29) vor uns steht!
Der Zerfall hat demnach offenbar etwas zu tun mit der Wahl des
Startvektors, nicht allein mit der Struktur des Paares .4; B, Ver-
haltnisse, die ubrigens bereits im Abschnitt 14.2 auch fUr nicht-
diagonalahnliche Matrizenpaare klargesteUt wurden. Betreffs weiter-
gehender Fragen sei der interessierte Leser auf die grundlegende Arbeit
von UNGER [151J sowie auf das Buch von GAxnIAcHER und KREIN ~33J
verWIesen.
Was geschieht nun, wenn der Zerfall, sagen wir mit hp + I . P = ein- °
tritt? Bei der multiplikativen Transformation eriibrigt sich dam it die
Reduktion der Spalte der Nummer p, was bedeutet, daJ3 die Teiltrans-
formationsmatrix Lp = I zu setzen ist, und man geht uber zum nach-
sten Schritt.
Bei der progressiven DurchfUhrung dagegen reiJ3t die Vektorkette
ab, weil mit dem Verschwinden des Elements hp .. I • P der Nullvektor
r p +1 = 0 erscheint. Urn die Transformation fortsetzen zu kannen, hat
man daher einen Ersatzvektor TpI zu wahlen, der von den bereits
berechneten Vektoren B 1'1' . . . , B l'p linear unabhangig ist. Bei der
B-unitaren Transformation (28), (29) auf Tridiagonalmatrix heiJ3t dies,
daB TP-',--l zu allen bereits berechneten Vektoren B 1'1' • . . ,B l'p unitar
sein m uJ3; ein so1cher Vektor ist zum Beispiel

s =F 0 belie big. (36)

SoUte auch hier zufallig der Nullvektor herauskommen, so ist ein


anderer Vektor s einzusetzen.
ZerfaUt die Kette ein weiteres :\Ial, so geht man genauso vor.
126 § 30. Itcratiyc Ahnlichkeitstransformation anf Dreiccks- bz\\". Diagonalform

§ 30. Iterative .A.hnlichkeitstransformation


auf Dreiecks- bzw. Diagonalform

.30.1. Uberblick. Zielsetzung

Besteht ein .\Iatrizenpaar A; B aus oberen (oder unteren) Dreiecks-


matrizen

fall - a-l3
a l2
-
alII

0
- a-23
a 22
-
a2n

A -
0 0
-
a 33
-
a:l ll

................
-
lO 0 0 a/in

( bll b-l2 b-l3 -


bill
0 b22 b23
- b~1I
- - -
B= 0 0
baa ball regular (1 )
................
to 0 0 b""
oder noch spezieller aus Diagonalmatrizen

all 0 0 0
0 -
a 22 0 0
-
.4 0 0 a33 0
..............
0 0 0 a lln
-
bl l 0 0 0
-
0 b22 0
B - regular, (2)
0 0
baa 0
...............
-
0 0 0 ... bnn
so lassen sich die Eigenwerte als die mit den Einheitsvektoren gebilde-
ten RA YLEIGH-Quotienten ohne jede Rechnung ablesen
T -
'.=
AJ
R.=ej
J
Aej =aji
T -
f··ur J. = 12
, , ... , n . 0)
ej H ej bjj

Dariiber hinaus hat das Diagonalmatrizenpaar (2) die Einheitsvektoren


als Eigenvektoren, wahrend beim Dreieckspaar (1) der Eigenvektor zu
30.1. Cberblick. Zielsetzung 127

Ak = akklbkk eine Linearkombination der ersten k Einheitsvektoren


(4)
ist. Immerhin ist auch hier Xl = e 1 . Die Idee aller in diesem Para-
graphen zu schildernden Verfahren besteht darin, ausgehend yom
Originalpaar A; B die Nullen in (1) bzw. (2) iterativ zu erzeugen,
indem die Betrage der zunachst an deren Platz stehenden AuBen-
elemente von Schritt zu Schritt kleiner gemacht werden. Dabei kon-
vergieren die RA YLEIGH-Quotienten gegen die Eigenwerte

j=1,2, ... ,n, (5)

wahrend eine Konvergenz gegen die ~Iodalmatrizen IT und X nur


stattfindet bei Diagonalahnlichkeit
(J

(6)
bzw. Diagonalkongruenz bei normalen Paaren. DaB eine solche iterative
Transformation zumindest prinzipiell moglich sein muB, lehrt uns die
Theorie, wonach jedes normale Paar unabhangig yom Spektrum sich
B-unitar simultan auf Diagonalform transformieren laBt
x* A X = Diag (a j ) ; X* B X = Diag (h j ) (7)
mit Hilfe einer einzigen Modalmatrix X, wahrend bei emem nur
diagonalahnlichen (nicht normalen Paar) dies mit Hilfe der beiden
voneinander verschiedenen Modalmatrizen der Links- und Rechts-
eigenvektoren Y und X gelingt,
yT A X = Diag (a ji ) ; yT B X = Diag <bjj ) , (8)
wobei wir uns nochmals in Erinnerung rufen, daB ~Iatrizenpaare mit
lauter (numerisch hinreichend) verschiedenen Eigenwerten stets diago-
nalahnlich sind. Gibt es aber mehrfache (numerisch zusammenfallende)
Eigenwerte und ist ein solcher mehrfacher Eigenwert Aj defektiv, was
heiBen soU, daB der Rangabfall der :\Iatrix Jl()'j) kleiner ist als die
l\Iehrfachheit von Ai' so ist fiir diesen Eigenwert nur noch das jORDAx-
Kastchen (19-3) erreichbar. Die fehlenden Eigenvektoren sind dann
durch Hauptvektoren ansteigender Stufe, eine sogenannte Haupt-
vektorkette zu ersetzen wie in A bschnitt 19.5 beschrie ben und in
Abschnitt 24.13 dahingehend gemildert, daB die in der Kodiagonale
stehenden Einsen durch Skalierung belie big klein gemacht werden
konnen. Dies aber bedeutet: innerhalb der durch die Genauigkeit der
Maschine gegebenen oder durch einen vorgeschriebenen Schwellwert r:;
willkiirlich gesetzten Grenzen laBt sich jedes beliebige Paar simultan
auf Diagonalform (oder wie man auch sagt, auf Hauptachsen) trans-
formieren.
128 § 30. Iteratiyc Almlichkcitstransformation auf Dreiccks- bz,,". Diagonalform

Die in der Literatur aufgefiihrten iterativen Transformationen auf


Diagonalform bzw. Dreiecksform sind zahlreich und unterscheiden
sich durch Rechenaufwand, Konvergenzgiite, Anwendungsbreite usw.
erheblich. Da im allgemeinen die Gewinnung des Eigenwertspektrums
Ziel aller dieser Yerfahren ist, werden wir sie erst im X. Kapitel ab-
handeln. Eine Ausnahme bildet das JACoBIsche Rotationsverfahren,
das ein allgemeines Interesse beanspruchen darf und als Dniversal-
algorithmus zu gelten hat. Seiner Yorbereitung dient der folgende
Abschnitt 30.2, der dariiber hinaus exemplarische Bedeutung auch
fiir andere, sogenannte ].-\coBI-ahnliche Yerfahren besitzt .

• 30.2. Transformation in Unterriiumen. Die Elementartransformation

Die Idee dieser Methode ist ebenso einfach wie naheliegend. Mit
Hilfe eines RITz-Ansatzes wird ein Cnterraum der Dimension m < n
aus dem Gesamtraum herausgeschnitten und das so entstehende
Paar A; B der Ordnung In angenahert oder exakt auf Diagonalform
transformiert. Wiederholt man dies geniigend oft durch immer neue
Kondensate in weiteren Cnterraumen, so wird, falls eine geeignete
Strategie unterlegt wird, nach und nach die Diagonalform erreicht. Ein
solches Verfahren ist allerdings sehr aufwendig (man vergleiche auch
die RITz-iteration aus § 32) und im allgemeinen nur praktikabel unter
Heranziehung der durch irgend m Einheitsvektoren e j aufgespannten
Koordinatenriiume (subspaces). Der RITz-Ansatz selbst ist dann mit
keinerlei Rechenaufwand verbunden, da lediglich In Zeilen und Spalten
gleicher Nummer als Hauptminor der Ordnung m aus der Gesamt-
matrix F(}.) = A - }. B herauszugreifen sind, und hier wiederum ist
die einfachste "orgehensweise die mit m = 2, die deshalb als Elementar-
transformation bezeichnet wird. Ihre Einbettung in die Gesamttrans-
formation zeigt das folgende Schema, das auch fiir nichtlineare :\ia-
trizen F(}') Giiltigkeit hat:

ki ki
F(}.) = R= (9)

Yon der Elementartransformation werden demnach nur die Spalten


und Zeilen der ~ummer j und k betroffen, und Ziel einer jeden Teil-
transformation ist es, moglichst aile vier A.uf3enelemente ajk, akj und
bjk , bkj in Ajk und Bjkzuannullieren. Zwar gehen die auf diese Weise
30.2. Transformation in Unterraumen . Die Elementartransiormation 129

erzeugten Nullen im Laufe der Rechnung wieder verloren, doch ist dies
ohne Belang, da das Verfahren ohnehin profilzerstorend ist nach fol-
gendem Muster

(10)

ein allen Verfahren dieser Klasse innewohnender ~Iangel, der jedoch


aufgewogen wird durch die Einfachheit der Elementartransformation
selbst. Sei namlich eine beliebige (auch rechteckige) Matrix S von
recMs mit R zu multiplizieren, dann verlangt dies infolge der einfachen
Bauart der Matrix R nach (9) nicht mehr als die Linearkombination der
beiden Spalten der N ummern j und k nach der Vorschrift

""Ir.11 rik
R
I~Ir
rhi
, kk

,"'- ~; ~ s; Y;; + s. Y.; }. (11)


sl< = si 'il< + sl< 'hi<

S si
I
Sh S.
1
I
Sk SR

I I I I
Dbrigens bemerken wir elllen wesentlichen Unterschied beziiglich
der von der Gesamttransformation S : = L S R betroffenen Elemente,
von denen vier quadratisch, alle iibrigen jedoch linear abhangig sind
von den zweimal vier Parametern II"" und rl"" aus (9).
J k
...

J -<
o quadratisch (12)
k ---linear

-
Nun zur Reihenfolge der Annullierungen . Hier unterscheiden wir zwei
Strategien.
130 § 30. Iterative Ahnlichkeitstransformation auf Dreiecks- bzw. DiagonaJform

a) Standard. Die AuBenelemente werden nach (13 a) kodiagonalweise


von der Mitte nach unten links zu Xull gemacht. \Vahrend eines solchen
Zyklus wird jeder RAYLEIGH-Quotient genau (n - i)-mal verbessert.
Diese Vorgehensweise yermeidet anfangliche Leerlaufe bei Band-
matrizen.

(13 )

a) Standard b) Parallel-
rechnung

b) Parallelrechnung. \Vir denken uns die :V[atrix A ein zweites Mal


unterhalb von A hingeschrieben. Auf diese \Veise entstehen n - 1
Schragzeilen mit je n Elementen, so daB wahrend eines solchen Doppel-
zyklus jeder RAYLEIGH-Quotient 2(n - i)-mal verbessert wird. Inner-
halb einer jeden Schragzeile wird nun in Zweiergruppen annulliert
derart, daB immer ein Element ubersprungen wird, beispielsweise
werden also in der Schragzeile 1 im ersten Lauf die Indexpaare 21, 43,
65, ... und im zweiten die Indexpaare 32, 54, 76, ... herangezogen.
In jedem dieser beiden Laufe konnen samtliche Teiltransformationen
gleichzeitig und unabhangig, somit parallel durchgefUhrt werden, da die
einzelnen Operation en einander nicht storen, wie man sich leicht
uberlegt.

• 30.3. Das explizite Jacobi-Verfahren


Als klassisches :\Iusterbeispiel einer Elementartransformation gilt
das Verfahren von JACOBI aus dem jahre 1846, im Original entworfen
fUr reellsymmetrische Paare ~4; lund daher geometrisch deutbar als
ebene Drehung (deshalb auch als j.-\coBIsche Rotation bezeichnet),
doch ist es ohne Schwierigkeit auf hermitesche Paare A; D und von
dort auf beliebige Paare A; B mit regularer :\Iatrix B zu verallgemei-
nern. Das Produkt der n-reihigen Teilmatrizen R j der Struktur (9)
a
R :=R1 R 2 " ·Raa--?~X (14)
30.3. Das explizite ]AcoBI-Yerfahren 131

strebt gegen die Modalmatrix X aus (7), wobei die zweireihige Unter-
matrix

(15 )
das spezielle hermitesche Paar

Aik = (ail li ki );
aki akk
Dk =
J
(d0ji 0 )'
dkk '
(16)

transformiert auf

(17)

- j k = R*jk D jk R jk
D = (diiOLl ik (18)

Wie in (12) vermerkt, ist das Aul3enelement in (17) eine quadratische


Funktion im Parameter taus (15). :\1 ultipliziert man die Form k i a
= rt Ajk rj aus und setzt sie gleich ::\ull

so erfiillen beide Wurzeln dieser quadratischen Gleichung die Be-


dingung ajk = 0 und damit auch akj = ajk = o. Es ist numerisch giinstig,
die betragskleinere von beiden zu wahlen (was geometrisch nichts
anderes bedeutet, als dal3 eine Drehung beispielsweise urn ({! = 30 und
nicht urn das Komplement -87 0 durchgefiihrt wird) und diese in die
Transformationsmatrix Rjk (15) einzusetzen. Damit liegt auch die
zugehorige Gesamttransformationsmatrix Rcr der Ordnung n fest, und
nun erfolgen zwei Schritte. a
1. Erneuerung der Transformationsmatrix, d. h. Ersatz yon R durch
a+l
R , wovon allein die Spalten der ::\ummern j und k betroffen werden,
die nach (11) zu ersetzen sind durch
(20)
- -
2. Erneuerung der Matrizen .4 = R* AR; D = R* DR, deren je-
weils vier Elemente in den vier Schnittpunkten des Schemas (12) das
Untermatrizenpaar A jk ; Djk bilden. Die beiden Elemente

a- j j-- '•.j* A jk'j'


•. (21 )
132 § 30. Iterati,-e Ahnlichkeitstransformation auf Dreiecks- bz\\". Diagonalform

sind als hermitesche Formen zu berechnen, die Elem:nte d jj und du


- -
stehen in (18). Es fehlen noeh die beiden Spalten von "4 mit Ausnahme
der gerade in (21) bereehneten Elemente. Diese Restspalten werden -
wieder naeh (11) - ersetzt naeh der Yorsehrift
ii j = u j - t diJ a k ' Uk = a k + t du a j , (22)
und da alles hermiteseh abHiuft, haben wir damit aueh die Restzeilen
von A
iij=iij, iik=iit; (23)
es braueht daher nur der obere (oder untere) Dreieeksteil wegge-
speichert zu werden. em unnotige Reehnerei zu vermeiden, empfiehlt
es sieh, eine Niveauhjjhe ce einzufiihren und in jedem Nivellement aIle
Transformationen auszulassen, fur welche die {jngleichung

(24)

erfiillt ist. Findet man innerhalb eines Zyklus kein so1ches AuBen-
element mehr vor, so ist das zu ce gehorige Kivellement abgesehlossen,
und ce wird verkleinert oder aber die Iteration beendet.
Es sei nun das Paar G; jj vorgegeben mit regularer Diagonal-
matrix D, wahrend G beliebig ist. 1st jj reell und positiv, so setzen wir
D = n, anderenfalls aber wird das Paar G; D entweder mit oder n*
D-l von links multipliziert, womit das neue Paar
""AA A"
D* G; D* D bzw. D-l G; I (25)
entsteht. Bezeiehnen wir den linken Partner mit G und den reehten
mit D, so liegt die dem Ausgangspaar G;
aufgabe
n
zugeordnete Eigenwert-

GX=ADx; D = Diag <du) , (26)


vor; und urn den AnschluB an das ]AcoBI-Verfahren zu gewinnen,
gehen wir uber auf die korrespondierende Gleichung (16.41)
G* D-l G u = Du (27)
-.--
~2

oder
A u = ~2Du, A* = A pos. (halb-)def. (28)
und verfahren wie besehrieben, indem G* D-l G = A explizit aus-
gereehnet und weggespeiehert wird. Die RA YLEIGH-Quotienten R j
= aiilbii konvergieren dann gegen die singularen Werte ~7, siehe dazu
aueh die Ausfuhrungen im naehsten Absehnitt.
30.4. Das halbimplizite J ACOBI- Yerfahren fiir beliebige Paare G; D 133
30,4, Das halbimplizite Jacobi-Verfahren fUr beliebige Paare G; D
Wegen des immensen Speicherbedarfs nach dem Schema (14) ist die
explizite Strategie des JAcoBI-Verfahrens nicht zu empfehlen. Gegen
die implizite Vorgehensweise spricht die grofie Zahl der erforderlichen
Teiltransformationen, deren Daten ja ebenfalls gespeichert werden
miiBten. Ideal ist daher die halbimplizite Durchfiihrung, bei welcher
der AuBenbereich der transformierten ::\latrix A als Phantommatrix
behandelt wird, wahrend die Hauptdiagonalelemente von A im Speicher
mitgefUhrt werden ebenso wie die aktuelle Diagonalmatrix D. Dabei
verkompliziert es den Algorithmus in keiner Weise, wenn wir von
vornher~in von einem beliebigen Paar G; D mit reguHi.rer Diagonal-
matrix D ausgehen und nach (25), (26) in das hermitesche Paar (27)
iiberfiihren, Anstatt aber die Matrix A = G* D-l G explizit zu er-
stellen, schreiben wir dafUr mit der positiven Wurzel aus D das Produkt

A = R* AR = R* G* D- 1/ 2 • D- 1/2 GR = S* S (29)
mit der fUr die Gesamtinformation verantwortlichen Iterationsmatrix

(30)

Auf diese Weise wird die Transformationsmatrix R mit G vereinigt, ein


Kunstgriff, auf welchem die Uberlegenheit der halbimpliziten \'or-
gehensweise beruht. SchlieBlich berechnen wir noch die nicht im
Speicher mitgefUhrten AuBenelemente der Phantommatrix A als
Skalarprodukte
(31)

und damit ist das benotigte 1Iaterial beisammen, siehe die Program-
mieranleitung auf Seite 134.
Interessiert man sich auBer fUr die zum SchluB vorliegenden RA Y-
LEIGH-Quotient en R; = aj;/dii = xj auch fiir einige oder alle der zu-
gehorigen Eigenvektoren Uj = rj, so miissen diese, da die Trans-
formationsmatrix R mit S verschmolzen wurde, herausgelost werden
durch Multiplikation von S mit dem Einheitsvektor e j ; das gibt
S e·J = Sf = D- 1 j2 GR e·1 = D- 1 /2 G 1'·
1
(32)
oder
(33)

und dies bedeutet die Auflosung eines Gleichungssystems, wozu die


Aquivalenztransformation L G R = DG nach einem der im § 28 be-
schriebenen Verfahren erforderlich wird.
134 § 30. Iterative Ahnlichkeitstransformation auf Dreiecks- bz\\". Diagonalform

PROGRAl\I:\IIERANLEITCXG ZCR JACOBI-ROTATION


1. KONSENS. Das vorgelegte Paar G; D (26) verbleibt im Speicher
und wird nicht iiberschrieben.
2. SPEICHERBEDARF. Zu reservieren sind 2 n Speicherplatze zur
Aufnahme der aktuellen (immer wieder zu iiberschreibenden) Ele-
mente von
DA = Diag <ali) und D = Diag <d jj ) ,
sowie n 2 Platze fUr die in Spalten angeordnete :'.Iatrix
S = (81 S2 . . . Sn) .
3· VORBEREITCl\G. Gegeben sei eine Naherungsmodalmatrix R o,
mittels welcher das Paar G* D-1 G; D transformiert wird auf
Rt G* D G Ro; Rt D Ro. Doch sind yon diesem Paar nur die
Hauptdiagonalelemente wegzuspeichern
aJJ = r~ G* D-1 G l'Oi ~ 0, dJi = 1'~ D 1'01 > 0; j = 1, 2, ... , n .
Von Ro ist auBer der Regularitat zu fordern, daB Rt D Ro diagonal
ist. 1st keine bessere Startmatrix bekannt, so wahlt man Ro = 1.
4. STRATEGIE. Je ein Zyklus yon ll(n - 1) Rotationen nach (13a)
oder ein Doppelzyklus nach (13 b).
5. ITERATIOl\.
5 a) Niveauhohe Co < 1 yorgeben.
5 b) Nach 'Wahl eines Indexpaares j, k die Spalten sf und s" aus S
herausgreifen und damit das Element ajk = st Sk berechnen.
5c) Die Elemente au = sf Si und au = sf Sk abrufen und testen:
_I~ < c "' f nein, dann weiter mit 6.
yajfakk = Q' 1
ja, dann weitermit 5d).
5 d) Die Elemente df j und d!: k abrufen. Damit liegt das aktuelle Paar
A ik ; Dik vor, womit
5e) die quadratische Gl. (19) aufgestellt und gelost werden kann.
5f) :\1it der betragskleinsten \Yurzel t die beiden Vektoren ti und tk
sowie
5 g) die Determinante .J f k (15) bereclmen.

I
5h) Erneuerung der :'.Iatrizen D A , S und D:
aii := l'j AIk l'i ; akk := l,t .4 jk l'k' (A)
Sj :=sf-tdiisk; Sk :=S,,+tdkkS i , (B)
dji:=djiiJ jk ; dkk:=dkkiJik' (C)
Mit diesen neuberechneten GroBen die alten iiberschreiben.
6. Neues Indexpaar j, k wahlen und nach 5a gehen.
7. Fallt fUr einige Paare j, k der Test 5 b negativ aus, so wird die
Niveauhohe cg verkleinert oder
8. die Iteration beendet.
30.4. Das halbimplizite J ACOBI-Yerfahren fiir beliebige Paare G; D 135

1st nun das vorgelegte Paar G; D normal, so gilt nach der Korre~
spondenztafel (16.41)

Uj = XI fur j = 1, 2, ... , n , (34)

so daB auf diese \Veise, gewissermaBen als Xebenprodukt, auch das


Originalpaar G; D angenahert auf Diagonalform transformiert wurde.
Der Eigenwert )'j selbst wird mit dem zugehorigen Xaherungsvektor rj
(33) als RAYLEIGH-Quotient zum Paar G; D berechnet. Diese Rechnung
entfallt, wenn G hermitesch ist. \Vir unterscheiden:
a) Gist positiv (halb-)definit, dann ist

)'j = + Y"7 fUr j = 1, 2, ... , n . 05)

b) Gist nicht positiv (halb-)definit. Dann wahlt man einen reellen


Wert A so, daB die geschiftete ~Iatrix G - AD nunmehr positiy
(halb-)definit ausfallt und verfahrt wie unter a).
1st aber das Paar G; D normal, so wurde, ob beabsichtigt oder nicht,
das zugeordnete Problem (16.51 a) - und bei Yertauschung von G *
und Gauch (16.51 b) - gelost. Ralten wir jedoch ausdriicklich fest:
der Algorithmus selbst wird von der Fallunterscheidung normal oder
nicht normal in keiner Weise beriihrt!
Erstes Beispiel. Das normale Paar G; D hat die Eigenwerte A1 = 15 + 9 i,
A2 = 15 - 9 i und Aa = - 3 zur Cl.lodalmatrix (:1:1 a'2 a'a) = X. Die singuHiren Werte
sind "i.2 = IA 1 .21 2
= 306 und ,,~ = j).aI 2 = 9. Der Leser iiberzeuge sich, daB schon
nach wenigen Rotationen die RAYLEIGH-Quotienten Rj = ajj/djj fiir j = 1, 2, 3
gleich diesen Werten sind.

G = (- ~ ~ ~ 1~); D = (~ ~ ~). X = (~ - ~ ~) .
8 -12 26 0 II 2 2 i - 2 i -1

Zweites Beispiel. Das normale Paar G; I mit

a ±i n 0 ... 0 0
±i a ±i 0 ... 0 0
0 ±i a ±i ... 0 0
G=aI±iK= 0 0 ±i a ... 0 0 (a)

o 0 0 0 a ±i
l 0 0 0 0 ... ±i a J
hat nach (17.48) die Eigenwerte

A] = a ± i Gj = a ± i . 2 cos --j-:T ;
n-l
j = 1,2, ... ,11, (b)
136 § 30. Iterative Almlichkeitstransformation auf Dreiecks- bzw. Diagonalform

siehe Abb. 17.3 und 30.1. Die singularen 'Verte sind zufolge der ~ormalitat des
Paares G; I die Betragsquadrate Y.; = I/'jI2. Fur reellen Parameter a gilt somit
Y.]=IAjI2=aj':'GY; a2 ;::;1y.}12<a 2 -:--l; j=1,2, ... ,n. (c)

IV

2i

\\
\\
- ----0---0---- - - -
•I 5

Abb.30.1. Eigenwetre i.j und \\-(,ftC"


-

Xj
.

fur das Paar G: I. schematisch

Die Eigenvektoren des Paares G; I stimmen uberein mit denen des Paares 1(; I
(17.51). Es sei a = 3, dann gilt nach (c) die Eingrenzung
9 ;::; y.7 < 13 . (d)

Speziell fur n = 100 sind die beiclen kleinsten bzw. gr6Bten singularen 'Verte

= 9 + -l cos2 (-~:7)
101 . I
f
9,U0096H35416023, (e)

9 + -l cos 2
C~»
12,99613119426719. (f)

Wir starten mit Ro= I. In cler Tabelle (g) sind fUr verschieclene Niveauh6hen
lO-Q von e = 2 bis e = 12 clie ersten und letzten beiclen RAYLEIGH-Quotienten
/b
Rl = o'1 1 11 ,R2 = a
22 /b22 und R99 = a
99 /b99 , RIOO = o'lOo/blOOausgeclruckt. Sie streben
rasch gegen die singularen Werte (e) bz\\,. (f). DaB von clen n singularen 'Yerten
(c) nach Abb. 30.1 je zwei einancler gleich sincl, stort clas JAcoBI-Verfahren nicht
im geringsten. Die vorletzte Spalte der Tabelle (g) enthalt clie Anzahl cler Teil-
clrehungen (Rotationen) pro Nivellement, clie letzte SpaJte clie Gesamtanzahl aller
bis clahin clurchgefuhrten Teildrehungen. Das Zuruckgehen cler Zahlen cler vor-
Ietzten Spalte ist ein Hinweis clarauf, claB zu Anfang clie Konvergenz linear, spater
quadratisch ist, wie sich theoretisch nachweiscn laBt. Bei nur Ii nearer Konvergenz
waren diese Zahlen etwa einancler gleich.
w
:=>
U>
Tabelle (g) zum zweiten Beispiel
tJ
Il>
<J>
e Rl R2 R99 R 100 ::r
Il>
2 9.004161125514153 9.010802580081116 12.97516293011191 12.98367716707949 3688 3688 0=
3 9.001478562298168 9.006370016268371 12.99295310215908 12.99583279)19073 1364
S'
5052 '2.
N'
4 9.001044509569617 9.001068639668390 12.99605239328993 12.99611731003869 923 5975 ;::.:
(J>

';.--
5 9.000968091611745 9.000969195410515 12.99612361553188 12.99613028381780 731 6706 n
0
6 9.000967487173975 9.000968000733602 12.99613040002557 12.99613066708153 531 7237 ~
~
7 9.000967457414071 9.000967742145645 12.99613117692190 12.99613118729606 438 7675 (g) '"....p;o
8 9.000967435832634 9.000967437809725 12.99613118993630 12.99613119345081 417 8092
::r
....
(J>
;:l
9 9.000967435441489 9.000967435690561 12.99613119319015 1 2 • 9961 3119 41 26 24 352 8444 C
....
10 9.000967435422166 9.000967435434737 12.99613119426114 12.99613119426456 305 8749 ct
~
(>'
11 9.000967435416266 9.00C967435417459 12.99613119426478 12.99613119426712 316 9065 ct
oq'
(J>
12 9.000967435416076 9.000967435416121 12.99613119426486 12.99613119426734 258 9323 "j
Il>
Il>
....(J>
~
.,
~
....,.
\jC>
..... 1
138 § 30. Iteratiye Ahnlichkcitstransformation auf Dreiecks- hz\\,. Diagonalform

30.5. Das halbimplizite Jacobi-Verfahren fUr beliebige Paare .4; B

Es sei nun die allgemeine Eigenwertaufgabe


.11w = }, B w; B regular (36)
vorgelegt. Obschon nicht unbedingt erforderlich - siehe die Arbeit
[172J - lohnt es sich, vorweg die :\Iatrix B auf Diagonalform zu trans-
formieren, es sei denn, es wurden nur sehr wenige Rotationen durch-
geftihrt. Der durch die Transformation in Kauf genommene Vorgabe-
verlust wird nach Abb. 24.1 gegenuber dem direkten Zugriff I schnell-
stens wieder eingespielt infolge der i. a. hohen Zahl von erforderlichen
Elementartransformationen, deren Gesamtaufwand urn ein Vielfaches
groBer ist als die einmalige Aquivalenztransformation von B auf DB
nach einer der im § 28 beschriebenen :\Iethoden

und Einftihrung neuer Vektoren gemaB


A A

G;r = }, D;r mit G: = /.,.11 R, D: = L B R, ;r = R w, (38)


wo die transformierte :\Iatrix
G = L"_I" ·/"2Ll{.11} R 1 R 2 •• ·R,,_l [. e j -.. lUi; J = 1,2, ... , n
(39)
explizit zu berechnen ist, indem der Reihe nach die Einheitsvektoren
e 1 bis en von rechts nach links durch die Folge (39) geschickt werden
wie angedeutet, und clamit ist cler AnschluB an clie Gleichungen (25)
und (26) hergestellt. Xur der Vollstancligkeit halber vermerken wir
noch, daB wenn B hermitesch und positiv definit ist, wegen R = L*
und da D = L B L* positiv ist, der \'organg (25) entfallen kann.
Kommen wir schlieBlich zur wichtigsten Frage, dem Rechenaufwand.
Zunachst halten wir fest, daB die Auflosung der quadratischen Gleichung
(19) ebenso wie die Erneuerungen cler Diagonalmatrizen D A und D
- -
bei groBen Orclnungszahlen n nicht ins Gewicht fallen gegenuber den
folgenden Operationen.
a) Halbimplizit. Erneuerung von Sj und Sk je n Operationen, Skalar-
produkt sj Sk n Operationen.
b) Explizit. Die transformierten unci nach (10) aufgeweiteten .\fa-
- -
trizen A und B werden im Speicher mitgeftihrt. Ihre Erneuerung ebenso
wie die der :\Iatrix R kostet nach (20) dreimal 2 n Operationen und
genau das Doppelte, wenn - wie in der Originalarbeit von ].-\COBI
angegeben - anstelle cler :\Iatrix (15) mit

- sin cp) b zw. T = ( c.os -r (f' m)


sin -r (Reflektor) (40)
cos cP S111 cP - cos cP
30.6. Die Regeneration (.~uffrischung) des] ACOBI- Yerfahrens 139

gearbeitet und damit D = I unverandert gelassen wird. Stellen wir


gegenuber:

Anzahl der Speie herbedarf


-

Operationen fur fur fur fur


pro Zyklus - Summe
S A B R
- - - " - - - - - ----- ----

halb-
1,5 n 3 112 n2 (41)
implizit

3 n 3 mit
MatrixR (15) n2 112
explizit
6 n 3 mit
~---~- n2 = 2n2
2 2
!
i l\IatIix T (45) -_.--
------ ------------ -

Da mit sehr vie len Zyklen gereehnet werden muG, spielt demgegenuber
die vorwegzunehmende Transformation (37) bis (39) ebensowenig eine
Rolle wie das (eventuell erforderliehe) Abtrennen von ttj aus S naeh
(32).
N aeh Tabelle 24.1 aus Absehnitt 24.15 kostet die Dreieekszerlegung
einer hermiteschen (bzw. reellsymmetrischen) \'ollbesetzten :\Iatrix
nach GAUSS oder CHOLESKY rund n 3 /6 Operationen; es resultiert daher
nach der Dbersicht (41) die (erschreckende) Bilanz

1 Zyklus = 9 Dreieckszerlegungen (42)

bzw. 4,5 Zerlegungen bei nichthermiteseher :\Iatrix.


Dessenungeachtet erweist siell die J.-\coBI-Rotation als ein nieht zu
entbehrendes Cniversalverfahren. Es dient der nallerungsweisen Be-
stimmung der Eigenwerte und Eigenvektoren normaler Paare bz\\,.
der singularen Werte beliebiger Paare sowohl wie der Stabilisierung
schlecht bestimmter Gleichungssysteme und arbeitet in jedem Fall
sicher, auch bei mehrfachen Eigenwerten bzw. singularen Werten. Die
Konvergenz ist anfanglich linear; wenn die A.uJ3enelemente einen ge-
wissen Betrag untersehritten haben, sogar quadratisch.

30.6. Die Regeneration (Auffrischung) des Jacobi-Verfahrens.


Abgeanderte (benachbarte, gestorte) Paare
Infolge der unvermeidlichen Rundungsfehler entsteht eine Diskre-
panz, weil die drei Erneuerungen 5A, 5B und 5C der Programmier-
anleitung von Seite 134 getrennte \Yege gehen: die im Speicher mit-
140 § 30. Iterative Ahnliehkeitstransformation auf Dreieeks- bz\\,. Diagonalform

gefiihrten Werte SA und 5C sind eben nicht die mit den Vektoren 5B
transformierten GroBen! Aus diesem Grunde wird nach einer Anzahl
von Zyklen die Diskrepanz getilgt: man iiberschreibt die Diagonal-
matrizen D A und jj durch die explizit zu berechnenden hermiteschen
Formen

a.. = 1'* A 1'· = 1'* G* D-l G 1'} = 1'* G* D- 1/2. D-l/2 G 1'· = s* s·
11 1 1 1 1 1 1 J
(43)
und
~j = 1'/ D 1'j • (44)
Wahrend die Vektoren sl im Speicher stehen, somit die Auffrischung def
)Iatrix A nur n Skalarprodukte kostet, miissen fiir (44) die n Vek-
toren rj explizit nach (33) berechnet werden. Damit ist ein fehlerfreier
Ausgangszustand geschaffen, und die Iteration kann mit der ge-
speicherten MatrixS neu gestartet werden. Je groBer die Ordnungszahl,
umso ofter ist eine solche Regeneration vorzunehmen.
Sind aus welchen Griinden immer bereits zu Anfang der Iteration
brauchbare Naherungsvektoren 1'1' ... ,1'n bekannt (z.B. aus benach-
barten, gestorten Paaren infolge kleiner konstruktiver Anderungen des
zugrundeliegenden physikalischen oder geometrischen Problems), so
beginnt der Algorithmus bereits im ersten Schritt mit einer Regene-
ration.
Dazu ein Beispiel. Die Matrix.4 = 2 1 - K (17.57) wird in den ersten und letzten
beiden Zeilen geringfiigig abgeandert in A.

f -0,9
1,7 -1J,9 I) () 0
I
1,9 -1
°
()

A= 0 -1 2 ... II 0

o o o ... 1,9 -0,9


o o o ... -0,9 1,7

Das }Iatrizenpaar A; 1 gehiirt zur Sehwingerkette <ler Abb. 30.2 mit <len Eigen-
schwingungszahlen w7
= )'j elm.

L~ ~A~,,17 17 7J
m m m m I

j;8~-J~:-:v~ """~/V1
- C : J,9c J,Bc ;

.\bb. 3n.2. Syml1wtrisrh abgeandertc homogeIlc Schwingerkette

Die ~Iatrix A ist naeh JACOBI zu rotieren fur II = S bis zur Xh'eauhiihe e = 10-14•
Startet man naiv mit Ro = 1, so werden t t 7 Teil<lrehungen (Rotationen) beniitigt,
dagegen mit der Startmatrix Ro = X (t 7. 51) nur 33, das sind 28~~ des obigen Auf-
wandes!
30·7· J ACOBI-ahnliche Transformationen. Zusammenfassung 141

30.7. J acobi-ahnliche Transformationen. Zusammenfassung

Das auf hermitesche Paare A; D angewandte ].\coBlsche Verfahren


zeichnet sich dadurch aus, daB es D-unitar ablauft, was zur Folge hat,
daB die beiden Wurzeln t1 und t2 der quadratischen Gl. (19) reell aus-
fallen. Bei nichthermiteschen Paaren sind diese Wurzeln eventuell
komplex (bei reellen Paaren konjugiert komplex), und es sind anstelle
der einen Transformationsmatrix R nun die beiden :\Iatrizen Lund R
mitzufiihren, wenn man nicht von vornherein auf die Annaherung an
eine Diagonalmatrix verzichtet und sich mit einer oberen (oder un-
teren) Dreiecksmatrix zufrieden gibt, wobei dann wieder L = R*
gesetzt werden kann. Ansonsten verlauft alles wie gehabt; man spricht
daher von JAcoBI-ahnlichen Verfahren (JACOBI like methods). Sie sind
indessen weniger universell einsetzbar und dienen in erster Linie als
Eigenwertalgorithmen; wir kommen im § 39 noch einmal kurz darauf zu
sprechen.
IX. Kapitel

Lineare Gleichungen und Kehrmatrix

Neben dem Eigenwertproblem ist die Auflosung linearer Gleichungs-


systeme der groBe Komplex innerhalb der ~Iatrizennumerik. Die
theoretischen Grundlagen dazu wurden im § 6 gelegt; im folgenden
geht es um die praktische Durchfiihrung vor allem im Hinblick auf
groBe Gleichungssysteme (:\Iammutmatrizen) mit 100000 und mehr
Unbekannten, wie sie als Endprodukte der Finite-Elemente-Methode
(FEM) undjoder der finiten Cbersetzungen von linearen (oder lineari-
sierten) Differentialoperatoren heute gang und gabe sind. Es ist ein-
leuchtend, daB bei derart hohen Anforderungen besondere MaBnahmen
erforderlich werden, urn erstens iiberhaupt noch eine brauchbare
~aherung z ~;r zu gewinnen und, was wei taus wichtiger ist, einige
oder alle Komponenten xi des Losungsvektors ;r in mathematisch
gesicherte Grenzen einzuschlieBen. Diesem Aspekt wenden wir uns
daher vor der Beschreibung der eigentlichen .\lgorithmen im § 31 als
erstes zu.
In den Anwendungen ist man selten am Gesamtlosungsvektor ;r
interessiert, sondern meist nur an einigen wenigen, oft einer einzigen
Komponente xi. Ideal ware es demnach, wenn sich diese - mit ent-
sprechend geringem Aufwand - unabhangig von den iibrigen berech-
nen lieBen. Dies ist zwar nach der CRA:lIERschen Auflosungsformel (3.20)
theoretisch moglich; praktisch kommt man diesem "'unschziel indessen
einigermaBen nahe durch eine yorgezogene Spaltenvertauschung, indem
die allein interessierenden m Komponenten nach rechts gebracht wer-
den. (Bei symmetrischen ~Iatrizen kann eine entsprechende Zeilen-
vertauschung erfolgen, falls man die Symmetrie erhalten will.) Wird
die so umgeordnete ~Iatrix auf obere Dreiecksform transformiert,
LA = "l, so fallen in der Tat die gesuchten Losungen Xl> x 2 , ••• , xm
als erste an.
Breitester Raum wird auBerdem der fiir den Anwender so wichtigen
Frage nach der Losung abgeanderter (benachbarter, gestorter) Glei-
chungssysteme gewidmet, wie sie infolge von Serientests sowie aufgrund
(meist geringfiigiger) Abanderung konstruktiver ~Ierkmale die Praxis
des berechnenden Physikers und Ingenieurs beherrschen.
1m § 32 wird als Kernstiick des IX. Kapitels die seit GAl"SS klassische
(theoretisch) endliche oder "exakte" Gleichungsauflosung beschrieben,
31.1. Defekt und Korrektur 143

sodann folgen im § 33 die auf der geometrischen Reihe beruhenden


halbiterativen und die durch das Defektquadrat gesteuerten echten
iterativen Methoden, wobei die letzteren unter dem Gesichtspunkt des
RITzschen Verfahrens geschildert werden. Eine optimale Kombination
aller dieser Vorgehensweisen liegt dem Algorithmus RAPIDO/RAPI-
DlSSIMO zugrunde, der als einer der starksten Gleichungsloser zu gelten
hat.
Die "exakte" und iterative Berechnung der - in praxi selten be-
notigten - Kehrmatrix im § 34 beschlie13t dieses Kapitel.

§ 31. EinschlieBung und Fehlerabschatzung. Kondition


.31.1. Defekt und Korrektur
Wir rufen uns nochmals die im Abschnitt 25.6 gemachten Aus-
fUhrungen ins Gedachtnis zuriick. Dem vorgelegten Gleichungs-
system A ~ = r ist beigeordnet ein au13erlich gleichartig gebautes zwei-
tes System, wo anstelle von Losung ~ und rechter Seite " die Korrek-
tur k und der Defekt d stehen; eine Dualitat, die im folgenden eine
entscheidende Rolle spielt und die wir uns deshalb fest einpragen
wollen:
! a) A ~ = l' {= A k = d b) (1 )
!

mit
!
!
k: = z - ~ und d: = A z - " (2)

Das zweite System ist dem ersten aber nicht etwa gleichgestellt, wie
man auf den ersten Blick vermuten konnte, sondern iibergeordnet.
Denn wahlt man als Naherung speziell den l\ullvektor, Z = 0, so
wird d = -1' und k = -~, womit (1b) in (1a) iibergeht, und dieser
Bezug legt es nahe, von yornherein yon der Gleichung .4 k = d aus-
zugehen. Jeder Algorithmus bzw. jeder Einschlie13ungssatz gilt dann
unbesehen auch fUr das Ausgangssystem A;r = ".
Die Umkehrung der Gleichungen (1) liefert die beiden formalen
Losungen
~ = A-I 1'; k = A-Id,
deren erste zusammen mit (2) ergibt
~ = Z - A-Id = z - _1_A adi d' det .-1 =f= 0 . (4)
det .4. '

\Vir erkennen daraus: die an der Kaherung z anzubringende Yer-


besserung -k = -A-I d kann selbst bei kleinem Defekt (I betracht-
liche Werte annehmen, wenn nur die Determinante ,"on .-1 klein genug
144 § 31. Einschlic13ung und Fehlerabschatzung. Kondition

ist; eine Einsicht von groJ3ter Bedeutung, die wir aussprechen wollen
als
Merksatz: Auch bei beliebig kleillem Dejekt kann die Siiherung z
praktisch unbrauchbar sein, z['elln die .11atrix A schlecht konditionier! (ill
conditioned) ist.
Es ist daher bei der Beurteilung einer Naherung z mit Hilfe des
Defektes grol3te Vorsicht geboten, solange liber die Determinante bzw.
liber die Norm von A keine Aussage voriiegt.
Dazu ein Beispiel. Das Gleichungssystem

.Lr = T mit cl = C ~), T = C)


hat die Lasung

x = (~).
Mit der Naherung

z = (O~E)
wird der Defekt d und damit die Korrektur k

1st beispielsweise 0 = to- 30 , c1er Dcfekt somit extrem klein, und E = 10-80, so wird

k = 1080 d = ( (J ).
1050

J\Ian erkennt an dieser konstruierten Aufgabe sehr gut die grundsatzliche Proble-
matik, die bei gro13en Orclnungszahlen n au13erorclentliche :-'[a13nahmen erfordert.
wenn Uberhaupt ein brauchbares Ergebnis resultieren solI.

.31.2. EinschlieBung mittels hermitescher Kondensation (Spektralnorm)


Hermitesche Kondensation der Gleichung A k = d und anschliel3ende
Division durch k* k flihrt auf die skalaren Gleichungen
k*"4*Ak =d*d-c>-k*"4*Ak=d*d (5)
k* k k* k
mit dem reellen und nichtnegativen Formenquotienten $(k), dessen
Wertebereich abgeschlossen wird durch den kleinsten und grol3ten
Eigenwert des Paares A * "4; I (das sind die singuHiren Werte des
Paares A; I)
k* .... * .4 k
$(k) k* k - - , (6)

und daraus folgt auf einfachste Weise die Eingrenzung


d* cl ::;; k* Ii < d* d
(7)
(j2 - =7'
31.2. Einschliel3ung mittels hcrmitescher Kondcnsation 145

Dabei sind rp2 und cp2 auJ3ere Schranken fur die im allgemeinen un-
bekannten Werte g;r und rp~.
Da nun die betragsgroJ3te Komponente des Yektors k nicht groJ3er
sein kann als das Betragsquadrat h* 1~, ist damit zugleich jede einzelne
Komponente von h fUr sich eingeschlossen

/ d* d
lkkl = IZk - xkl ~ ~ (t k = 1,2, ... , n, (8)

doch wird diese Vergroberung urn so unannehmbarer, je groJ3er die


Ordnungszahl n ist. Wir gehen deshalb etwas sorgfaltiger vor, greifen
aus dem Gleichungssystem A h = d eine Zeile der Nummer j heraus
ail kl + aj2 k2 + ... + ajk kk + ... + ail: k n = dj (9)
und schreiben diese mit der Restzeile
(if := (ajl ... aj,k-l 0 aj,k l ' .. ajll) (10)
nach leichter umordnung kurzer so
(ajk kk - d j ) = -ai k . (11 )
Erweitern wir das Betragsquadrat dieser Gleichung (man beachte
iiaT=a*a!)
(12)
mit den beiden Seiten der ersten Gleichung (5) und dividieren durch
h* h, so wird daraus
k* A * A k Ii* ili* ilj k
- - - - l a k kk dl 2 = - - - - - . d* (I (13 )
k* k ) 1 k* k
oder kurz
(14)
wo offenbar
(15)
gilt. Nun ersetzen wir in (14) den Formenquotienten $(h) durch seine
untere und P(k) durch seine obere Schranke und bekommen die fur
aIle n Zeilen gultige Ungleichung
( 16)
doch betrachten wir im folgenden nur jene Indexpaare j, k, fUr welche
ajk von Null verschieden ist. Die Division durch lajkl 2 ergibt dann (t
, d· 12 9 d* d
I kk - ---.!..l ~ C~k-- mit "- . a i a i * 1 :?_ 0; ajk=l=O,(17)
ai k 1 2 rr::
clk .= lajkl 2 -

oder kurz
(18)
146 § 31. EinschlicJ3ung und Fchlerabschatzung, Kondition

und damit haben wir den


Satz 1. Die Komponente kk des KorrektltY'i'ektors k liegt nicht au/3erhalb
des Kreises Kjk mit dem Jfittelpunkt fljk und dem Radius ()jk mit
Yd· d " ai ai*
r--'
d,
fljk=~' ()jk=Eid, f= E-,'k=---1:2::0; aJ'k=l=O.
a;k 2lajkl -

(19)
Damit ist aber wegen x = z - k nach Abb. ,1.1 auch die Kompo-
nente x k im Kreis Kik mit dem Durchmesser ()jk eingeschlossen.
iVi

Abb. 31.1. Einschlieilung de[ Komponentc Xk im Kreis iDk

Da unser Satz fUr aIle 111 ~ It definierenden Ungleichungen (17) gilt,


kann die Komponente kk des Korrekturvektors nur im Durchschnitt
aller zugehorigen Kreise Kjk liegen, der nach Abb. 31.2 zu ermitteln
ware, doch wollen wir uns auf den reeIlen Fall beschranken; man
braucht dann von den m ~ 11 reeIlen EinschlieBungsbereichen nur von
den unteren Schranken das 2'Iaximum und von den oberen das .Mini-
mum zu wahlen, und es folgt
Satz 2: Sind A und l' reell und wird z reell gewiihlt, so gilt fur die
Komponente kk des Korrektun'ektors k die Einschlie/3ung
mid, d' I
- + Ejkfl;
I '" !
max i~ Ejd. ~ kk ~ min. ---.l. ajk =1= O. (20)
J~ 1 I a1 k 1 )- 1 ~ aj"
Nun zur Kernfrage: wie gewinnen wir eine untere Schranke q;2 fur
den kleinsten Eigenwert des hermit esc hen Paares A * A.; I? 1st "4 nor-
mal, so sind die singularen \rerte gleich den Betragsquadraten der
Eigenwerte
j = 1, 2, ... , It , (21)
so daB es geniigt, eine untere Schranke fUr I}'II zu finden. Insonderheit
sei A hermitesch und positiv definit, dann gilt noch einfacher
9Jj=}'j; j=1,2, ... ,11, (22)
also ist 9J ~ }'I eine erlaubte untere Schranke fiir unseren Einschlie-
/3ungssatz; man berechnet sie iiber den Satz Acta }Iechanica (36.7)
31.2. EinschlieBung mittels hermite,;chcr I\:ondensation 147

mit einigem Aufwand (n 3 /6 Operationen). 1st aber A nicht hermetisch,


so muB A *A explizit gebildet werden (n 3 /2 Operationen), bevor der
Satz anwendbar wird.

iv I

Abb. 31.2. Ermittlung des Durchschnitts von m ::; 11 Einschlie13ungskreisen

Wir sehen: ein miihseliges Gesch1lft, doch ist bei (nahezu) voll-
besetztel Matrix A eine EinschlieBung nicht billiger zu haben. SchlieB-
lich erw1lhnen wir noch, daB die S1ltze (19), (20) auch fUr das originale
Gleichungssystem A;r = l' giiltig sind; man hat lediglich k durch ;r
und d durch r zu ersetzen.
Ein Beispiel. A x = l' mit der Matrix.4 = KR (24.81) und der angegebenen rech-
ten Sei te 1'.
0)
2 2 2 2
A 2 3 3 3 1' = 0

2 3 4 4 - 1
2 3 4 0
Es ist 1'T l' = 2, und da nach (24.83) das Spektrulll yon .4 R zwischen (I und 4,
somit die Eigenwerte von A = KR zwischen 1/ 4 und 00 liegen, ist <£. = 1/4 eine
untere Schranke, da KR reellsymmetri sc h und damit hcrmitesch ist. Dcr Faktor f
berechnet sich damit zu f = \i 1'T 1'/ (1 /4) = \32.
jI

~----------*--- x, ---- __ ~

-5 5

Abb. 31. 3. Einschliel3ung dcr l\:ompOJwlltC'.\"~ I..k's LU5ullg~ \ T'k t ()r<;;z


148 § 31. Einschlief3ung und Fehlerabschiitzung. Kondition

Die folgende Tabelle enthiilt aile erforderlichen "Verte flir k = 4. siehe auch
Abb.31.3. Die Einschlief3ung lautet -8,00:::; x 4 :::; + 7,50; die Lasung ist
x = (-1 20 -2 1)T. Tatsiichlich ist die yierte Komponente x 4 = -2 einge-
schlossen, aber wie! Die Information ist praktisch unbrauchbar. wie an der \'011-
besetzten J\Iatrix L1 vorauszusehen. Der Leser schlief3e noch einige weitere Kompo-
nenten ein.
- ----- ----

j , ai aiT! ai4
2
Ej 4 Ei4 bi4 Ilj 4 fli4- bit I-flit ~ bit
-~ ----------------

5 5/1 2 - 1 2 11,314 0 -11,314 11,314


2 17 2 17/22 - 1 1,803 10,199 1/2 -9,698 10,698
3 32 3 32/3 2 - 1 1,5<)<) 9,043 0 -<),043 9,043
4 I 46 4 46/4 2 - 1 1,369 7,746 -1/4 -7,996 7.496
5 55 4 55/4 2 - 1 1,561 8,832 0 -8,832 8,832

.31.3. EinschlieBung bei diagonaldominanter Matrix

Wir fragen jetzt, unter welch en Bedingungen der Satz (19) die
exakte Lasung liefert. Dazu mu13ten in (14) die beiden Formen-
quotienten P (k) und (/>(k) unabhangig yom Vektor k Konstante sein,
damit die nachfolgenden Cngleichungen zu Gleichungen werden, und
dies bedeutet
1. aIle Restzeilen iii mussen verschwinden, damit P(I~) = 0 = const
wird, dann ist A diagonal;
2. A mu13 eine Skalarmatrix A = a I sein, dann ist (/>(k) = lal 2
= const, und es wird rp = fi5 = lal.
Beide Forderungen werden nun annahernd erfullt, wenn A diagonal-
dominant in einer speziellen Weise ist,

A=I+R, (23)
wo die Restmatrix R in der Hauptdiagonale Nullen und au13erhalb
betragskleine Elemente Yjk enthalt.
Es sei nun A hermitesch mit lauter positiven Hauptdiagonal-
elementen ajj' Dann transformieren wir das vorgelegte System A k = d
auf
A k = d mit A= D-l!~ A D- 1 !2 , ajj = 1, D = Diag (aU> , (24)
ferner
k=1,2, ... ,n (25 )

und trennen von der so vorbehandelten ~Iatrix A die Einheitsmatrix I


ab; es verbleibt dann die ~Iatrix R aus (23), deren Zeilennorm (! wir
berechnen
(26)
31.4. Stabilisierung schlecht bestimmter Gleichungssysteme 149

1st diese kleiner als Eins, so gilt nach dem Satz von GERSCHGORIX (36.6)
die Abschatzung
(27)
wir diirfen daher nach (22) als untere Schranke q; = 1 - Q wahlen,
und damit wird der in (19) und (20) benotigte Faktor
. lid· d
J=- Q< 1 , (28)
1 - e

wo in allen Formeln natiirlich A durch A sowie kk durch kk zu ersetzen


ist. Nach (25) ist damit auch kk selbst eingeschlossen.
1st A nicht hermitesch, so berechnen wir die Spaltenbetragssummen
Y7 := aj aj > 0; G = Diag (Yj) (29)
und fiihren den neuen Korrekturvektor k ein,
Ak=d. (30)
Diese Gleichung multiplizieren wiI von links mit A *
A*A k = A*d oder Ak =d,
-
und jetzt hat zufolge der )IaBnahme (29), (30) A die Form 1 +R,
wonach alles wie oben verlauft.
Nun ist die Zeilennorm e (26) nur kleiner als Eins bei ausreichender
Diagonaldominanz del Matrix ~4. em diese herbeizufuhren, wird man
im allgemeinen das Gleichungssystem ~4 k = (f durch indirekte Links-
transformation nach den )Iethoden des § 28 auf L2 Ll ~4 k = L2 Ll d
mit Ll A = ~ auf (angenaherte) Diagonalform transformieren mussen,
urn dann erst mit (24) einzusetzen. Xach dieser Yorkonditionierung
handelt es sich somit "nur noch" urn den EinfluB der Rundungsfehler,
und in diesem Zusammenhang gewinnt die EinschlieBung erst ihre
eigentliche praktische Bedeutung. Der Leser studiere zu diesem Fra-
genkreis auch die abgeanderten (benachbarten, gestorten) Gleichungs-
systeme, beschrieben in den Abschnitten 30.6 und 33.13·

.31.4. Stabilisierung schlecht bestimmter Gleichungssysteme


Die beste Kondition besitzt die normiert-unitare (im Reellen ortho-
normale) Matrix U zufolge der Beziehung
L'* U = e F* = 1. (31)
'Wir nennen daher eine Matrix e qllaSiltllitiir, wenn die hermitesche und
positiv definite )Iatrix A nur wenig von I abweicht
~4 : = u* if = I + .1 ; 11,111 ~1, (32)
somit der unitiire Defekt ,1 betragskleine Elemente aufweist; eine
wunschenswerte Eigenschaft, die durch das explizit durchgefiihrte
150 § 31. EinschlieBung und Fehlerabschatzung. Kondition

JACOBI-Verfahren in Abschnitt 30-3 nach ~153J auf folgende Weise


bewirkt werden kann. Es sei das Gleichungssystem
G;r=1' (33)
mit schlecht konditionierter ~Iatrix G vorgelegt, dann berechnen wir
die Matrix A = G G* (Reihenfolge der Faktoren beachten!) und
starten mit dem Paar A; 1, das zu
-
A =R*GG*R;D
- (34)
rotiert wird. Die Matrix A. normieren wir mit Hilfe ihrer Haupt-
diagonalmatrix
D.1 = Diag (a ii ) (35)
zu
P Q
As = D"A1/2 R* G· G* RD"A1/2, (36)
----~
u* U
wonun
AN := U* e = 1 + A; bii = 0 fUr j = 1,2, ... ,n (37)
die angestrebte Form (32) besitzt.
Fur das weitere haben wir zwei ~Iethoden zur Auswahl.
1. Methode. ""ir multiplizieren das Gleichungssystem (33) von
links mit D"AI/2 R* und bekommen
U*;r = r (38)
mit
r = D"AI/2R* r. (39)
Das dreifache Produkt [T* wird aber nicht etwa explizit erstellt, son-
dem geht in die Informationsklammer und wird in fakultativer Manier
auf obere Dreiecksform transformiert
i 6* = L,,_I ... L2 L {D"A I/2 R* G} =
1 ';J, (40)
sodann wird die neue rechte Seite
o
l' = LD"A II"- R* l'
0
(41)
berechnet und das Gleichungssystem '\I;r = t' gelost. Wahlt man
speziell als dyadische Elementarmatrizen Reflektoren Li = fIJi' so
ist infolge der Quasi-Unitaritat von U* die Matrix '\I rechts oberhalb
der Hauptdiagonale mit betragskleinen Elementen besetzt.
2. Methode. Mit der eckigen Klammerung aus (36) schreibt sich die
hermitesche Matrix Ax als Aquivalenztransformierte
As = PG Q (42)
32.1. Zielsetzung. "Endlichkeit" der :\Iethode 151

und damit das Originalsystem G;r = l' als


AN z = P G Q z = P l' mit ;r = Qz. (43)
Man berechnet also aus dem gutkonditionierten Ersatzsystem
As z = ,", ;-, = P l' = D.4 12 R* l' (44)
den Hilfsvektor z und daraus die Losung
;r = Qz = G* R DAn. (45)
Mit Ai\" = J +
,1 nach (37) hat man ubrigens in idealer Weise den
AnschluJ3 an die halbiterative Treppeniteration in Abschnitt 33,2;
denn mit H = J und N = -,1 verHiuft der Algorithmus von GACSS-
SEIDEL
j = 0, 1, 2, ... (46)
bzw.
ki~l = d - ,1 Iii' j = 0, 1, 2, . . . (47)
divisionsfrei - das Beste, was man sich wunschen kann!
Der Preis £iiI das Erreichte ist allerdings nach der Bilanz (30.42)
beachtlich. Man wird daher mit der Xiveauhohe nicht allzuweit
hinuntergehen, in praxi ist e = 0,8 bis 0,6 vollig ausreichend, wobei
die Anzahl der erforderlichen Teiltransformationen (Rotationen) im
allgemeinen urn so groJ3er ist, je schlechter die Kondition (25.86) der
Ausgangsmatrix G war, doch bestatigen Ausnahmen die Regel.

§ 32. Endliche Algorithmen zur Auflosung linearer Gleichungssysteme


.32.1. Zielsetzung. "Endlichkeit" der Methode
Setzt man in die Matrizenhauptgleichung (26.1) einen vorgegebenen
Parameterwert A ein, oder ist gar kein Parameter vorhanden, so ent-
steht das Gleichungssystem
F(A);r = l' bzw. .4;r = 1', (1)
wo eine yom Parameter freie :\Iatrix im allgemeinen mit A bezeichnet
wird. Unser Ziel ist es, mit einer "exakten" :\Iethode, und das heiJ3t mit
im voraus abzahlbar endlich vie len Operationen (:\Iultiplikationen und
Additionen) die Losung zu errechnen, was wie wir wissen, eine Fiktion
ist infolge der unvermeidlichen Rundungsfehler und Stellenaus-
loschungen, die bei schlechter Kondition der :\Iatrix A das Ergebnis bis
zur Unkenntlichkeit verfalschen konnen. Aus diesem Grund ist bei
groJ3en Gleichungssystemen fast immer eine Nachiteration bzw.
Regeneration der Rechnung erforderlich, die niemals enden sollte ohne
die im § 31 aus diesem Grunde so ausfuhrlich dargelegte EinschlieJ3ung
einzelner Komponenten, gewonnen aus einem im Prinzip beliebig vor-
gebbaren Naherungsvektor z.
152 § 32. Endliche Algorithmen zur ;\ufi6sung linearer Gleichungssysteme

.32.2. Ein- und zweiseitige Transformation


Falls A regular und gut konditiniert ist, genugt die linksseitige
Transformation der Gleichung (1), d. h. die Linearkombination ihrer
Zeilen allein in zwei Schritten
L1 A = '\) , L2 '\l = D A' (2)
also
DA X = i' mit i,:= L 2 (L 1 1') , D A = Diag <d jj > , 0)
womit die Losung explizit \'or uns steht

xj _!i.
-d .. , j=1,2, ... ,1I. (4 )
J1
Dies ist das naturlichste und zugleich optimale "orgehen besonders im
Hinblick auf die Einschlie13ungssatze aus § 31, die eine Transformation
des Vektors x = R Y nicht gestatten. 1m allgemeinen jedoch pflegt
man Spalten und Zeilen linear zu kombinieren
L A R Y = L l' mit x = R Y (5)
und hat dann zu unterscheiden:
a) Die Matrix A ist regular und gut konditioniert. Dann trifft dies
auch auf die transformierte :'IIatrix DA im Gleichungssystem
DAy=i' mit DA=LAR, r=L1' (6)
zu, und aus der Zwischenlosung y = D';;I i' folgt der gesuchte
Vektor x = R y.
b) Die :\1atrix A ist singular oder so schlecht konditioniert, da13 sie als
singular angesehen werden mu13. Die Transformation \'erlauft wie
in Abschnitt 28.4 geschildert, wobei der (numerische) Rang uber
das weitere Vorgehen entscheidet. Der Leser stucliere dazu den
Alternativsatz (26.2) und die Ausfuhrungen im Abschnitt 8.2 .
• 32.3. Der GauBsche Algorithmus in Blocken
Bei Matrizen gro13er Ordnung (sog. J1 a11l1llutmatrizen) ist eine
Blockunterteilung (Partitionierung) 1m allgemeinen unerlaJ3Iich aus
folgenden Grunden:
a) Speicherorganisation. Die :\Iasse der zu verarbeitenden Elemente
sowohl der l\Iatrix A wie cler rechten Seiten 1'1' 1'2' . . . mu13 in einem
Au13enspeicher (Platte, Band o. a.) untergebracht werden und zum
Abruf bereitstehen.
b) Die Gesamtoperationskette ist in eine moglichst groBe Anzahl mog-
lichst kurzer Ketten zu zerlegen.
c) Der Algorithmus ist so zu steuern, daB in seinen Hauptpartien
ParaUelrechnung moglich wird.
Es existiert insbesondere fur schwach besetzte :'IIatrizen (spezieU
1nzidellzmatrizen, das sind solche, die nur N ullen und Einsen ent-
32.3. Der GAusssche Algorithmus in Bl6cken 153
halten) eine umfangreiche Literatur liber die verschiedensten Tech-
niken, deren Ziel es ist, das Auffiillen (jill ill), also die Zerstorung der
Nullen und Einsen oder wie man auch sagt des ~Vltlleltmltsters so weit
wie durchfUhrbar zu vermeiden. Diesen Gesichtspunkt berlicksichtigen
wir hier nicht, sondern gehen da\"on aus, daB die ~Iatrix (nahezu) voll-
besetzt ist, so daB spezielle Anweisungen entfallen. Es handelt sich
somit im folgenden lediglich urn den in BlOcken formulierten GAL"SS-
schen Algorithmus mit einem in fUnf Schritten aufgegliederten Ablauf-
programm fUr die Aufgabe A X = B mit mehreren rechten Seiten. *)
1. Zunachst werden die Spalten so umsortiert (umnumeriert), daB
die (im allgemeinen nur wenigen) interessierenden Komponenten Xj des
Losungsvektors x an das Ende geraten. 1st .-1 hermitesch (reell-
symmetrisch), so werden die Zeilen in gleicher 'Yeise umgeordnet.
2. Die ~Iatrix A wird in Blocke so zerlegt, daB die Hauptdiagonal-
blOcke quadratisch sind; entsprechend werden die zur ~Iatrix B zu-
sammengefaBten rechten Seiten "I' 1'~, . . . unterteilt, schematisch dar-
gestellt in (7a) fUr den Sonderfall m = 5.

t
I
I.
AllA12 A 13 Au AIm Bl 1- 1\-
J- A 13 1114 AIm Bl
III A121
I A2l 0 .I. i

.
I

A31 0 II I.
,
1. Schritt
A41 I 0 i i
I

AmI 0
a) i I b)
3. Das Grundkonzept fUr alle Partitionierungsaufgaben besteht in
der A.quivalenztransformation der Hauptdiagonalblocke .-I jj
L j AiiRj = ..i jj
Aj./ = R j j;"/ L j
-+ (8)
auf eine ~Iatrix Aij , die numerisch sicher und mit moglichst geringem
.\ufwand zu invertieren ist; im allgemeinen wird man eine (Block-)
Diagonalmatrix Aii = D jj erzeugen, die leicht erkennen laBt, ob der
Block Ajj und damit der transformierte Block Aj j hinreichend gut
konditioniert ist. Trifft dies nicht zu, so muB die Blockordnung 1lj ver-
groBert oder verkleinert werden. Cber die beiden Transformations-
matrizen L j und R j wird auBer der Regularitat nichts vorausgesetzt;
insbesondere kann R j oder L j gleich der Einheitsmatrix I J sein, dann
werden die Zeilen bzw. Spalten von Ajj allein kombiniert. Sind die
Hauptdiagonalblocke hermitesch, so wahlt man zweckmaBig R j = L"j.
*) Wir schreiben voriibergehend B statt R, urn Ycrwcchsclungcn mit der
Transformationsmatrix R zu ycrmeidcn.
154 § 32. Endliche Algorithmen zur Auflosung linearer Gleichungssysteme

4. Transformation auf obere Blockdreiecksmatrix. Die erste Block-


zeile von (7a) wird von links mit jill multipliziert. Die einzelnen Bli:icke
gehen dann liber in

..112 = R1 .4 iiI L] .-112 , . . . ,A]m = R1 Au1 L1 A]", ;


(9)
HI = R 1 ·4u1 L1 B1 .
Sodann wird die erste Blockspalte nach unten reduziert; das heiBt die
Bli:icke A 2v A 3v ... ,AmI werden durch Kullmatrizen ersetzt, die lib-
rigen (m - 1) . (m - 1) Bli:icke dagegen nach der Vorschrift
o _

Ajk = .4 jk - Ajl Alk , (10)


und diese (m - 1)2 Ersetzungen ki:innen parallel erfolgen. Damit hat die
Matrix die Gestalt (7b) angenommen. Die auf diese 'Weise entstandene
Hauptdiagonalmatrix
(11)
wird nach der Vorschrift (8) transformiert. Erweist sie sich als hin-
reichend gut konditioniert, so wird die Blockunterteilung beibehalten,
andernfalls muB sie geandert werden; zweckmaBig so, daB die Index-
summe n 2 + 113 erhalten bleibt. Dieser ProzeB wird fortgefUhrt, bis
nach 111 Schritten die obere Blockdreiecksform erreicht ist, deren ein-
zelne Bli:icke wir mit C jk bezeichnen wollen.

Xl X 2 X3 X4 X",
I
I C12 C131 C14 C 1". JJ 1
,
0 I C23 ! C24 C 2m B2
, (12)
CX = B; 113 0 0 I C34 C 3m B3
,
0 0 0 I C 4m B4

,
,
tt,,, 0 0 0 0 I B",

5. Das Gleichungssystem wird aufgeli:ist in der Reihenfolge


o
XIII =Bm ,
o
X"'_1 = B",_l - Cm~.l,m X In ,
o
X m- 2 = B m- 2 - (~m-2. m-l..olYm -1 - cm - 2, m X tn J (13)

o
Xl = B1 - C 12 X 2 - C13 X 3 - ••• - C1mX""
32.4. Partitionierun g einer Block-HEsSEXBERG-J.Iatrix 155

und hier kann wieder streckenweise parallel gerechnet werden, indem


einmal fUr jede der rechten Seiten aus B gleichzeitig und unabhangig
die Auflosung (13) geschieht und zum andern die Produkte P'.,f : = C,."X"
in ihre einzelnen Spalten aufgelost werden. 1st die :\Iatrix A. hermitesch
(reellsymmetrisch), so reduziert sich der Rechenaufwand auf fast die
Halfte, sofern auch die Blockspalten transformiert werden wie im
Abschnitt 28.6 vorgefuhrt. Allerdings ist zum SchluB eine Rucktrans-
formation der Unbekannten erforderlich. ~
6. Schachtelprinzip. Von der Blockmatrix Au aus (8) verlangten wir
lediglich numerisch stabile 1nvertierbarkeit; ansonsten darf sie von sehr
groBer Ordnung und vollbesetzt sein ; sie wird dann ihrerseits so ver-
arbeitet wie soeben fUr die Gesamtmatrix .4 beschrieben. Auf diese
Weise laBt sich vom GroBen ins Kleine forts chreitend eine mehrmalige
Unterteilung vornehmen. Sei etwa 11 = 1000000, so zerlegt man .4
in 100 Blocke der Ordnung 10000, die ihrerseits unterteilt werden in
100 Blocke der Ordnung 100. "Cber weitere Techniken find et der Leser
Auskunft in [40, S. 201-210]'

32.4. Partitionierung einer Block-Hessenberg-Matrix


Eine zentrale Rolle innerhalb der Partitionierungstechnik spielt die
obere (oder auch untere) Block-HE ssE:\BERG-JIatrix, im Schema (14)
exemplarisch dargestellt fur den F all von 8 X 8 = 64 Blacken , wo
die Hauptdiagonalblocke eben so \Vie die Kodiagonalblocke rechts

Xl X2 X3 X4 X5 XG X7 XS

All [X RI

~ >< R2

\ A33
X 113

----- I · l>< R4 a) (14)

r\ X A55 Rs

l~ X R6

~ A77

'~
X 11 7

Il
156 § 32. Endliche Algorithmen zur Aufl6sung lincarer Gleichungss)'steme

X1 X3 Xs X7 .X 2 X 4 X s X

JIll
X Rl

A33
\X R3

A5s
:\ X ns b) (14)

I
An
\X Jl 7

----
~ 2< R2
>< R4

~IX I Rs

I~ Rs

oberhalb und links unterhalb der Hauptdiagonale gesondert heraus-


gehoben wurden. Die get6nten Teile oben rech ts sind im allgemeinen
vollbesetzt, der linke untere Teil besteht aus ~ullbI6ck e n.
Die Partitionierung geht in folgenden Schritten vonstatten.
1. Schritt. Cmordnung der Blockzeilen und -spalten. Die Teil-
l6sungsbl6cke der Cnbekannten Xl' X 3 , . . • mit ungeradem Index
werden zusammengefa13t zum Block Xu und die Bl6cke X 2 , X 4 , ••• mit
geradem Index zum Block X g , wodurch die neue Spaltenordnung fest-
gelegt ist. Ordnen wir auch die Zeilen in gleicher \Veise urn , so entsteht
das Blockgleichungssystem
(15)
A g"X" + A gg X g = Rg, (16)
wie im Schema (14b) dargestellt. \Vir sehen: A"" und .4 gg sind obere
Blockdreiecksmatrizen, A" g und A i' '' aber sind obere Block-HEssEN-
BERG-:\Iatrizen. Die beschriebene Cmordnung braucht im Rechen-
automaten nicht explizit durchgefiihrt zu werden, sondern wird ein-
facher realisiert durch Cmbenennung der Indizes.
2. Schritt. Das Grundkonzept. Ebenso wie in (8) und (9) geschildert,
werden die oberen Blockzeilen \'on links mit den Inversen von
An, A 33 , . . . multipliziert, das Gleichungssystem (15) wird dadurch
transformiert in
- - -
A"" X" + A" g.I"g = RII ' (17)
32+ Partitionierung eincr Block-HEsSEXBERG-:\Iatrix 157

wo das Zeichen - auf diese Operation hinweist. Damit gehen .4 n = In,


A33 = 133 , . . • in Einheitsmatrizen, somit der Block .4" u insgesamt in
eine normierte obere Dreiecksmatrix uber.
3. Schritt. Inversion der oberen Blockdreiecksmatrix A"u. Dies ge-
schieht nach dem Muster (13) formal dadurch, daB aIle rechts von Auu
-
stehenden Spalten, sei es aus der :\Iatrix Aug oder aus dem Block R"
-
nach der folgenden Vorschrift berechnet werden, wobei die Spalte S
stellvertretend fUr aIle stehen moge

t7 = 1
l
S7 ,

ts = Ss - .~S7 17 , _
t3 = Sa - Aa5 15 - .4 37 t7 , I (18)

t1 = Sl - A13 ta - ..lIS Is - .417 t7 , J


und damit lautet das Gesamtsystem (15) und (16)

( /uu AUg) (Xu) _ (flu) (19)


Agu Agg Xg - Rg .
4. Schritt. Elimination der TeilIosung Xu. K ach (22.17) gewinnen wir
das gestaffelte Blocksystem

(20)

mit den beiden SCHuR-Komplementen


A gg, red = Agg - Agu Aug;
- (21)
die explizit zu berechnen sind nach dem Schema

[
(22)
[Agu] [Agu .4 ug : Agu flu].
Aus der zweiten Gleichung (20) folgt dann die Teillosung Xg
(23)
undim
5. Schritt die Restlosung Xu aus der ersten Gl. (20)
(24)

Eine der wichtigsten Anwendungen der oberen Block-HEsSE~BERG­


Matrix werden wir im § 33 bei den halbiterativen Yerfahren kennen-
lernen. Dort wird die vorgegebene :\Iatrix ...1 = H - X additiv so zer-
legt, daB H die Form (14a) bekommt.
158 § 32. Encllichc Algorithmcn zur Auflosung lincarer Gleichungssysteme

32.5. Partitionierung einer Blocktridiagonalmatrix


Es sei nun noch einfacher A. eine Blocktridiagonalmatrix, dann sind
aile getonten Teile in (14) Nullmatrizen. Wieder erfolgt die Part i-
tionierung in der angegebenen \\"eise, abermals exemplarisch vor-
gefuhrt fUr 8 X 8 = 64 Blocke nach (25).

RI
R2

R3

a)
R4

Rs

Rs

R7

Rs
(25)

RI

R3

Rs b)

R7
R2
R4
Rs
Rg
32.5. Partitionierung einer Blocktridiagonalma trix 159

1. Schritt. Umordnung der Blockspalten und -zeilen. Auu und A~g


sind Blockdiagonalmatrizen.
2. Schritt. Multiplikation der oberen Blockzeilen mit den Kehrmatri-
zen von Au, A 33 , . .. fiihrt auf die Form (25b), wo nun A,,,, eine Ein-
heitsmatrix, ist in Formeln
- -
Xu + A/I~Xg = R u ' (26)
AguXU + AggXg = R g . (27)
3. Schritt. Elimination der Teillosung XU" Rier HiBt sich die ~Iatrix

AguAug =
r(A21 A12 + A 23 ..432) - -
o o
(A43 A34 + A45 A54) A45 A56 0
o A65 A54
-
(A65 ·-t 56
- A 76 )
+ ..1·67 AS7 A78
o o

ebenso wie der transformierte Block der rechten Seiten

- + A67 R7
A65 R 5
- (29)

A87 R7
explizit angeben. Aus dem Gleichungssystem
(30)
mit
A gg, red = Agg - AguAug; (31 )
wird die Teillosung Xg errechnet.
4. Schritt. Damit folgt nach (26)
Xu
- -
= Ru - AugXg • (32)
Nun ist Agg blockdiagonal und Agu Aug blocktridiagonal, somit ist
auch A gg , red blocktridiagonal. Diese :\Iatrix kann daher ihrerseits wie
beschrieben partitioniert werden und so fort ad libitum. Auf diese
Weise gelingt es, selbst l\Iatrizen der Ordnung n = 1000000 und groBer
zumindest organisatorisch in den Griff zu bekommen; die zu erreichende
Genauigkeit hangt dabei in erster Linie ab von der moglichst genauen
Invertierung der Rauptdiagonalblocke Au, .4 33 , ••• usw. auch in den
nachfolgenden Unterpartitionierungen.
Ihre eigentliche Bedeutung erlangt die vorgefiihrte Partitionierungs-
technik im Zusammenhang mit einer Riille. Falls diese schmal genug
160 § 32. Endliche Algorithmen zur Aufl6sung linearer Gleichungssysteme

ist, laBt sie sich von auBen umfassen durch eine Blocktridiagonalmatrix
nach (33), womit der Anschlu13 an (25) bis (2) erreicht ist:

(3)

Ein in den Anwendungen haufig auftretender Sonderfall der Hulle


ist die Bandmatrix der Breite b. Hier gelingt eine (fast) regelma13ige
Unterteilung von abwechselnd groBen Blacken gleicher Ordnung N,
uber die noch frei verfugt werden kann, und kleinen Blacken, deren
Ordnung gleich der vorgegebenen Bandbreite b ist. Der letzte Block
unten rechts (der Pufferblock) habe die Ordnung fJ.
N b N b N ... bf3 bNb.Yb
" i I
" ,
" "-
" "
" ", "" "-

Je nachdem , ob man links oben mit ~Y oder b beginnt, entstehen die


beiden F olgen
a) A' b l.Y b N b ... lY b lY fJ '
b; (5)
b) b N b N b J\' . .. b 1.Y b N; fJ (36)
-.,....- -.,....-
a~--
~

1 2 3 - 1 a
mit der Gesamtordnung
n = a(X + b) + f3 . (37)
Die Partitionierung wird optimal, wenn moglichst 'i.'iele Gleichungs-
systeme von moglichst kleiner Ordnung zu losen sind. \\,ir verlangen
deshalb, daB auch die koppelnde :\Iatrix .4 g g. red von der Ordnung lY ist
a b = lY. (38)
32.5. Partitionierung einer Blocktridiagonalmatrix 161

Dies in (37) eingesetzt fiihrt auf eine quadratische Funktion In G, In


welcher die noch offene GroSe f3 nicht negativ sein darf:
f3 = n - (G + 1) G b ~ 0 . (39)
Von allen natiirlichen Zahlen G, die dieser Cngleichung geniigen,
wahlen wir die groSte G max , und damit sind N und f3 optimal festgelegt.
N oP ! = G max b, f3 = 11 - (G max + 1) Sopt. (40)
Wir sehen: je schlanker die Bandmatrix, desto feiner laSt sich das
System unterteilen, wahrend ab einer gewissen maximalen Breite b eine
Aufteilung nach dem Schema (34) iiberhaupt nicht mehr moglich ist.
Erstes Beispiel. Die Finitisierung einer Kurbelwelle fiihrt auf ein Gleichungs-
system der Ordnung n = 100000 mit der Bandbreite b = 400. Gesucht ist die
optimale Partitionierung.
Die Ungleichung (39) {3 = 100000 - (a "7" 1) a b ~ 0 wird erfiiIIt yon den ganzen
Zahlen 1 bis 15 = amax. Damit wird nach (40) SOP! = 15' 400 = 6000, ferner
{3 = 100000 - (15 + 1) 6000 = 4000. Es sind demnach zu rechnen: 16 Gleichungs-
systeme der Ordnung N = 6000 und ein Puffersystem der Ordnung {3 = 4000.
Zweites Beispiel. Vorgelegt ist das Gleichungssystem
3 0
-2
0
0
0
0
0
()
0
()
0
U
0
()
0
0
1r-~1 3

x2
() 1 -1 4 () 0 0 () 0 0
() 0 0 2 II 1I U (J 0 x3 (J

(J 0 0 -3 II (I (I
Ax = 1"--> (a)
0 0 0 0 2 2 II (I (I £1 8
0 0 0 0 2 3 -I II I) 13
(J 0 0 (I () 0 2 () Xo

0 0 0 () 0 () 0 -3 3 0

lo 0 0 0 0 0 0 0 2 1
X6
J 2J
Da die Matrix A eine ausgepragte Hiillenstruktur besitzt, nehmen wir die in (a)
angegebene Unterteilung vor, wobei gegeniiber den im Text gebotenen Anweisungen
u mit g vertauscht wurde, was im foIgenden zu beachten ist.
1. Schritt. Umordnung der Blockzeilen und -spalten fiihrt auf

(~;:I ~;:) =

r 0
0
0
0
0
0
0
7
3
0
I)
0

()
0

0
2
0
0
0
0
I)
II

0
2
0
U
I)
r 31
I)
1"1

:~
,
I
11 r
Tu
Xl
X3

X5
Xu

l:, I
" 1
() I) -2 0 (I 0 n ()
2 £2

r
I) 4 () -1 I) I) (I U II
----,-- (b)
I) -3 I) I) 0 n I)

I) I) I) I) I) 2 2 II II 8 r4 x4
13
I
0 I) -1 0 0 2 3 (I ()

(I 0 -3 I) I) I) I) I) 3 0
rs
l I) () I) I) 0 0 I) I) 2 2 J
rrs
162 § 32. Endliehe Algorithmen zur Auf/osung linearer Gleiehungssystemc

2. Schritt. Da sich die Reziproken yon .4 22 ' .1 44 und .466 leicht angeben lassen,
wahlen wir als Rechtsmatrizen R j die Einheitsmatrizen und als Linksmatrizen L j
die Reziproken selbst:

= (-1 2),
-1 1

(c)

:\Iit diesen multiplizieren wir die untercn clrei B10ckzeilen aus (b) und bekommcn

() II 3 0 0 0 0 0 (J
31 Y1

0 0 II (I 2 (I (I 0 0 0 Y3

0 1I 7 0 (j n 0 2 0 Ys
~----

-5 S () u u 0 (I 0 0
(AuuIAu~ ru)= -5 4 u 0 0 0 0 0 0 }T2
(d)

tJ
- I .
Agu\ Igg \ Tg 0 -6 0 0 0 0 0 0 0
0 3 0 0 0 0 0 0
4
0 II -1 0 0 0 0 0 0

0
0 (I

0
-3
6
(I

0
0
0
0
n
0
0
0
0
1
0
0 -2
6
}r6
und das ist die Form (26) und (27), wo nur It und g yertauscht erseheinen.
3. Sehritt. Berechnung der Subtrahend en (28) und (29)

(e)

Daraus ergeben sich die reduzierten GroGen (31) .4 uu , red = .4uu - AugAgu;
r", red = ru - Aug r g , in Zahlen

(: ") (" ") C :)


0 24 -24

,.4 u It, red = II o _ -) -8 o = ) 8


'of) II 7 II II -7 0 0 14

'r u , red =
(} (~:) CD (f)

Vlie es sein muG, ist Au II, red yon Tridiagonalform, und nun folgt nach leichter
Rechnung der Teilvektor x" mit den drei Komponenten Xl' = 0, X3 = 1 und X5 = o.
4. Sehrit~ l\Iit dem nun bekannten Vektor Xu bereehnen wir zunachst den Sub-
irahenden Agu Xu und daraus nach (32) den Teilvektor x g.
32 .6. Vierteilun g ein c r B andm a trix 163

s 1
f 4
-6
A gu x " = 3
0
0
oj
~l Xl

9
f s
.1:2
~ } X2
4 4 0
X3
- 6 -6 u

}x.
0
Xg = ig-Aguxu = 2 3 - 1 X4 - 1
(g)
- J.' =
5 C
0 - 2
l-~ J 0 6
.r6
-2
() x;

6
} X6
Der Leser b estatige durch Einsetzen in (a) d ie Hich t ig keit der Losung .

• 32.6. Vierteilung einer Bandmatrix


Eine ganze andere Technik, die vollshindig auf eine Zerlegung ver-
zichtet, kommt bei sehr schmalen Bandm atrizen in B teracht. Voraus-
gesetzt, daB mindestens eine der \uBenschragzeilen
. ( etwa die obere)
nicht zu kleine Elemente besitzt , nimmt man die Blockunterteilung

Xl
l'1
rl1n l'1
- - (41 )
X2
/'2 0 1'2

vor und multipliziert die obere Blockgleichung von links mit L so, daB
L AI2 = I , LAn = : An ' L "1 =: rl (42)
wird. Wegen A21= 0 haben wir da nn das gestaffelte Gleichungssystem
Au X l + X 2 = i\ -> X 2 = ,\ - .:ill X I ' (43)
A 22 X Z = " 2 -> ·.f 22 ("1 - .in XI) = " 2' (44)
Man berechnet also zunachst aus derumgest ellten Gl. (44)
A22 An X I = .4 22 " 1 - "2 (4 5)
den Teilvektor Xl und sodann den T eilvektor x 2 aus (43)·
164 § 32. Endliche Algorithmen zur .\uflosung linearer Gleichungssysteme

Ein Beispiel. Das Feder-:\Iasse-System der Abb.


bedingung A x = T mit
32.1 fiihrt auf die Gleichgewichts-

2
-1 I) 0

-1 3 3
I)

-2 II u
mg
.4 0 -2 -I 3
3
= U T=
c
0 n -I -2

0 0 0 -2 2 2

Ig

Abb. 32. t. Feder·)[ass('-System im Schwercfdd

Der Vektor x der Auslenkungen ist durch Yierteilung der Matrix A zu berechnen.
Mit der unteren Dreiecksmatrix L, die mittels des GAussschen Algorithmus so
bestimmt wird, daf3 L A]2 in die Einheitsmatrix I iibergeht, berechnen sich die
Vektoren L an = un und L r] = r l wie folgt:

f-1 o 0
1 If -2
o o o -1

-1,5 o o o
=~:~:
-2
[-2,5 -1,5 -1 : 1
-0,5 0
L mg
('n o o -7
-3 -2 -1,5 -0,5 + 0 (I o -10
c

o () o -2 2 2

Jetzt erst beginnt die Losung des Gleichungssystems. Wir berechnen die Skalar-
produkte al2 un = -1 und al2 r l = - 6 mg/c, haben damit nach (47) die Gleichung

- l · xI = -6mg/c - 2mg/c~xI = 8mg/c,

und daraus folgt nach (45) der Restyektor

( _1) 111 g
(-2 5)\
- 2, g _ (15) 111 g
-3,5 21
_ _ _ _ - 2 111 18
x2 - TI - a ll x l - -- 8--- --.
-7 c c c
-In -+ 22

Wie grof3 wird der Yerschiebungs,"ektor, x, wenn die letzte Feder c = 2 c


c
durch = 20 c und die letzte ~Iasse 1115 = 2 III durch iila = 20111 ersetzt wird?
Anmerkung: in der ~Iatrix ..1. andern sich durch diese :\laf3nahme vier Elemente!
32.7. Die Aquivalenztransformation als dyadische Zerlegung 165

32.7. Die .Aquivalenztransformation als dyadische Zerlegung.


Exogene und endogene Algorithmen

Eine zweite Gruppe von direkten (endlichen) Verfahren benutzt die


folgende Ausgangsbasis. Nach einer Aquivalenztransformation auf
Diagonalform

LA R = A mit A= Diag (a}i> ; a)} = 'T A J'} =*= 0; j =1, 2, ... , It ,


(46)
j, k = 1,2, ... ,n (47)

erscheint die Inverse von A nach Lesart 3 (24.17) in der dyadischen


Zerlegung
A-I = R A-I L = 1.:" t'j a;/ IJ ' (48)
j~1

oder wenn A hermitesch ist, nach einer Kongruenztransformation mit


L=R*
(49)

wo nun alle Summanden ihrerseits hermitesche Dyaden sind.


Dazu ein einfaches Beispiel. Die lIvlatrix "4 ist zu invertieren. 'Vir wahlen die
Transformation A = L A R = DA, in Zahlen

.1'=(12-2)(0
1 1-1)(1
1 1-1,5)=(-5
1 0 -2,05)=(a° ~));
11
a22

TI = (1)
1; T2 = (-1.5)
1 ; 'F = (1 -2), II = (2 1)

und haben damit die dyadische Zerlegung (48)

IT + (-0,2
A -I --1
= TI all 1 T2
--1
a 22
T
'2 =
-0,2 0,4 \
0,4j'
'( 1,2
-n,S

Es sei nun das Gleichungssystem "4 x = a oder allgemeiner das


iibergeordnete System A k = d mit dem Defekt do = "4 Zo - a vor-
gelegt. Dann berechnet sich der Korrekturvektor k nach (48)
II

k = A -IdO=.::..,Jlajjj~O
\~.--IITl
(50)
i~l

als Summe von n Teilvektoren und ebenso die Lasung x = Zo - k


selbst

(51 )
166 § 32. Endliche Algorithmen zur Auflosung linearer Gleichungssysteme

Multiplizieren wir dies yon links mit .4 und subtrahieren auf beiden
Seiten den Vektor a, so entsteht fur den Defekt die Identitat

= do - .4 .4 -1 do = 0 , (52)
doch folgt daraus nicht, daB das Lingenquadrat d! d v der Teilsumme
abnehmen muB; dies ist nur unter SondermaBnahmen gewahrleistet,
die wir im § 33 herleiten werden. Die Abb.32.2 zeigt die Zerlegung des
Losungsvektors x und des Defektes d im anschaulichen reellen Raum
der Dimension n = 3.

Abb.32.2. Die beidcll Folgell Zj und dj fUr 11 0-,0 3 im Reellen

Urn noch eine wichtige Beziehung herzuleiten, multiplizieren wir die


Teilsumme zum Index k - 1 der Defektfolge (52)
k-l
dk- 1 = do - L A t'j aj/ If do (53)
i~1

von links mit If und bekommen


k-l k-l
T d
Ik k-l =
,T
k do - L 'k
T
A --1 T
t'j ajj 'i do = 'k
T ~
do - ...... --1 lTd
akjaiii 0'
(54)
i-I i-I

und hier verschwinden zufolge der Forderung (47) aIle Bilinearformen


des Subtrahenden, so daB verbleibt
If d k - 1 = If (10 • (55)
Bezuglich der Wahl der beiden Transformationsmatrizen

L = (ll ' 2 , •• In) ; (56)


unterscheidet man zwei ~Iethoden:
32.8. Die Kongruenztransformation als dyadische Zerlegung 167

a) Exogene Transformation. Die Vektoren I j und 1'j werden unab-


hangig von der rechten Seite b erzeugt, beispielsweise so, da/3 L = ~
und R = "\I wird (GAussscher Algorithmus) oder auch R = I bzw.
L = I.
b) Endogene Transformation. 1m Verlaufe der Rechnung werden die
Vektoren lj und 1'j nach einer Verfahrensregel aufgebaut, die auf
dem aktuellen Defekt d j (oder was dassel be ist, auf der aktuellen
Naherung Zj) und damit letztlich auf der rechten Seite b basiert.
Dies hat den N achteil, da/3 fUr j ede nelle rechte Seite der Algorithmus
mit zwei neuen Transformationsmatrizen Lund R gestartet werden
mu/3, ohne da/3 Resultate aus dem Vorlauf verwertet werden kan-
nen.
1st die Matrix A vollbesetzt, so ergibt sich die folgende Bilanz fur Q
rechte Seiten.
a) Exogene Transformation nach GAUSS (per Elevator): n 3 /6 +
e . n2
Operationen.
b) Endogene Transformation mit vollbesetzten :\Iatrizen Lund R:
e . n 3 Operationen. Bei vielen rechten Seiten werden daher die
endogenen Transformationen immer unwirtschaftlicher, doch bieten
sie grundsatzlich folgende Vorteile:
1. Die Matrix A wird nicht zerstart. Bei nur schwach besetzten ::Vla-
trizen geht der Rechenaufwand zur Ermittlung der Bilinear-
form en aii daher stark zuruck.
2. 1st Zo eine gute Naherung, so wird der Defekt dd schon nach weniger
als n Schritten so klein, da/3 za eine brauchbare Naherung fur die
Lasung x ist.
3. 1st die Matrix A ein zusammengefa/3tes Gebilde, etwa ein Polynom
A = P(B) oder dergleichen, so braucht dieses nicht explizit erstellt
zu werden, da die Elemente ii = a If
P(B) 1'j u. a. auf direkte Weise
entstehen.

32.8. Die Kongruenztransformation als dyadische Zerlegung.


Das Verfahren von Hestenes und Stiefel
Ein Spezialfall der im letzten Abschnitt vorgefUhrten :\Iethode ist die
Kongruenztransformation mit L = R* bzw. L = RT im Reellen. Damit
diese ausnahmslos gelingt, wird das vorgelegte Gleichungssystem
A x = a vorweg zeilenkombiniert auf die G.\usssche Gleichung

A*NAx=A.*i\'a mit X* = X pos. def., (57)


"-" ~ '-.,-'

wo N eine hermitesche und positiv definite 'X ormierungsmatrix ist, die


der numerischen Stabilisierung dient. 1st namlich .4. schlecht kondi-
168 § 32. Endliche Algorithmen zur Aufl6sung linearer Gleichungssystemc

tioniert, so trifft dies auf A * A im verstarkten :\laBe zu; es ist daher


N so zu bestimmen, daB A * .V A moglichst diagonaldominant ausfallt,
wozu verschiedene Techniken zur Yerfiigung stehen. Nur bei gut
konditionierter ~latrix .4 wird man diesen vorweg zu leistenden Auf-
wand vermeiden und einfach N = I set zen ; dies fUhrt dann auf die
schon oft herangezogene G.\Usssche Transformation (2-39).
Hat A seIber die Qualitat einer Kormierungsmatrix
A = A * pos. de£. , (58)
(und ist zudem gut konditioniert), so wahlt man N = A-I, womit
wegen AN = A * N = I die GAusssche Gleichung mit dem Original-
system A x = a iibereinstimmt, wie durch Unterklammerung in (57)
bereits angedeutet; diese Notation werden wir auch im folgenden kon-
sequent beibehalten.
Wir vermerken noch, daB die ::'Ilatrix A nicht quadratisch zu sein
braucht und unterscheiden drei Falle:

1~ 7~ x t !• ~ x
, 0~
x

t QJOa
t D~a
n+ a
m
__ n __ (59)
__ n __
__ n __

uberbestimmt m > n bestimmt 11l = 1t unterbestimmt m < n


Die Transformation (57) liefert in jedem Fall eine quadratische hermi-
tesche Matrix A * NAder Ordnung 1t. 1st diese regular, so ist das
Gleichungssystem lOsbar, wenn nicht, so ist zu unterscheiden, ob die
neue rechte Seite A * N a vertraglich ist oder nicht; der Leser studiere
dazu den Abschnitt 8.2 und den Alternativsatz (26.2).
Fur das folgende setzen wir voraus, daB A * N A regular ist, so daB
die reellen Hauptdiagonalelemente ajj von Null verschieden sind,
a
JJ
= r*J A * NAt'J = b*J ]V b J =!= 0 fUr J' = 1, 2, ... , n , (60)
(wo zur Abkurzung Aj t' =: b j gesetzt wurde.) Dagegen solI
fUr j=!=k;j,k=1,2, ... ,n(61)

sein. Mit anderen Worten, die Kongruenztransformation mit der Ma-


trix R iiberfiihrt die vorgelegte (quadratische oder rechteckige)
Matrix A auf eine reelle Diagonalmatrix A, deren Inversion elementar
durchfUhrbar ist, und dies war der Zweck der Obung. }lit den aus der
32.8. Die Kongruenztransformation als dyadiscbe Zerlegung 169

Linkstransformation (57) folgenden Ersetzungen

----- -----
A--+A*NA, a--+A*Xa, (/--+ •.f*Xd, (62)
~
ferner IT --+ 1'* fassen wir die Ergebnisse aus Abschnitt 32.7 zusammen
zur Programmieranleitung (63), die auch ohne theoretisches Hinter-
grundwissen anwendbar bleibt.

PROGRAMMIERUNG EINER DYADISCHEX KO~GRCENZ-


TRANSFOR~IATION (63)
GEGEBEN die Matrix A und die rechte Seite a, eine hermitesche und
positiv definite Normierungsmatrix .v, ferner ein Nahe-
rungsvektor ZOo
GESUCHT ist die Losung des Gleichungssystems A.;E = a bzw.
*N *
START
A
~
A ;E = A
----- N a.
1. Berechne den Originaldefekt (/0 = A Zo - a
2. und daraus den transformierten Defekt = A * N do. io
3. Wahle einen Transformationsvektor 1'1' berechne den -----
BildvektOI b1 = .41'1 und daraus die hermitesche Form
all = rt A * N A 1'1 = bt N b1 .
-----
Die erst en Summanden der beiden Reihen (51) und (52)
liegen damit fest:
4. Zl = Zo - 1'1 au
--1 * A
)'1 (/0 '

5. d1 = do - A 1'1 aliI l,t do .


"ITERATION" Gultig fur j = 2,3, ... , fl; fl ~ It.
6. Bestimme den nachstfolgenden Transformations-
vektor 1'j so, daB
1'r .4 * NArk = br N b k = 0 fUr k < jist.
,"""",--'

7. Berechne damit den Bildvektor b j = .41'i' weiter die


hermitesche Form
a- j j -- l'*A* ."A"
• j -- b*j~'
;"'b i
-----
j ,

und setze die beiden Reihen (51) und (52) fort:


8a) Zj = Zj_l - --1
1'; ajj 1'j* d j _ 1
A
,

8b) Zj = Zj-I - l'j a;/ l,r do ,


9a) d.1 = d.1- 1 - A a:- 1'* i.
1'.
1 11
1
1
1
1-'

9b)
A
di = dj _ 1 - A l'j ai-? l,r do·
ENDE wenn d j = o.
170 § 32. Endliche Algorithmen zur Auflosung linearer Gleichungssysteme

Wieder haben wir zu unterscheiden zwischen der exogenen Trans-


formation (etwa mit Hilfe des Reflektors nach HOUSEHOLDER) und der
endogenen. Wichtigster Vertreter dieser zweiten Gruppe ist die Kon-
gruenztransformation von HESTENES und STIEFEL =155J mit der Be-
sonderheit

(64)

j = 2,~, ... ; eli : = .4 * N eli (65)


---,..-

Diese spezielle Wahl der Vektoren "'j hat zur Folge, daB die Defekte
unitarisiert werden
~*dAk -_
"1 o..T* o..TA
oJ*A* ~'H
"1
oJ
Uk -
- 0 f··ur J,
. do k ; J,. k = 1?
,_, ... ,11 (66)
---,..-~

und daB iiber (55) hinaus gilt


",*i d0 -- ",*j dj-I -..;*
- Ui-I dj-I,. j = 1,2, ... , (67)
eine fUr den Taschenrechner willkommene Kontrolle, auf die man nicht
verzichten soUte.
1st A hermitesch und positiv definit und wahlt man N = A-l (was
keineswegs zwingend ist!), so entfallen die Ersetzungen (62), womit
sich das Programm in einigen Punk ten vereinfacht (die unterklammer-
ten Produkte sind durch I zu ersetzen), doch wird der Rechenaufwand
kaum geringer, da die Bildvektoren b i = A rj so oder so erstellt
werden miissen; bei voUbesetzter :\Iatrix erfordert dies allein n 3 Opera-
tionen.
AbschlieBend noch einige Ratschlage zum Programm (63).
1. Man hat zufolge der Beziehung (55) die Wahl zwischen 8a/9a und
8b/9b, doch ist die erste Version vorzuziehen, da der gegeniiber dem
exakt vorliegenden Ausgangsdefekt elo verfalschte aktuelle Defekt eli - I
besser in die verfalschte Situation paBt.
2. Da der Algorithmus sich nicht selbst korrigiert, ist nach einer
Anzahl von Schritten ein neuer Start mit dem aktuellen Naherungs-
vektor z anzuempfehlen.
3. 1nfolge der Rundungsfehler wird (namentlich bei groBen Glei-
chungssystemen mit schlecht konditionierter Matrix A) d n =f= 0; man
setzt das Verfahren dann einfach in der eingeleiteten Weise fort, wes-
halb die dyadische Kongruenztransformation von manchen Autoren
den Iterationsverfahren zugeordnet wird; aus diesem Grund steht in
der Programmieranleitung das Wort Iteration in AnfUhrungsstrichen.
Andererseits ist es moglich, daB der Defekt schon nach weniger als
n Schritten zu Null wird. Dieser (auch bei der iiblichen, d. h. nic/zt
32.8. Die Kongruenztransformation als dyadische Zerlegung 171

dyadisch durchgefiihrten Kongruenztransformation mogliche) vor-


zeitige Abbruch ist abhangig sowohl von der Wahl des Startvektors 1'1
wie der rechten Seite a.
Aufgrund einer geometrischen Interpretation an einer Ellipse wird
der Algorithmus von HESTEXES und STIEFEL als \' erfahren der kon-
jugierten Gradienten bezeichnet; naheres dazu in 24, S. 71-78'.
Wir rechnen ein einfaches Beispiel im Kopf. Gegeben

A = G ~) = .4 T , b = ( - :) , Zo = (~) .
1. Endogene Kongruenztransformation Yon HESTEXES und STIEFEL nach (63)
mit Zusatzyorschriften (64) und (65). \Yir wahlen X = .4- 1 , somit ist liberal!
AT N = I zu setzen.

START. 1. Dcr Defekt ist do = .-I Zo - b ~ .40 - b = - b = ( _:) .

2. entfallt. Wegen AT X = I ist do = do'


3. Mit 1'1 = do nach (64) wird = 1'[ .41'1 all = 1.

4. Zl = Zo - 1'1. 1- 1 (1'[ do) = Zo - "1. 2 = C>') - (_:). 2 = (-~).


5. d 1 = do - .4 1'1 . 1- I (r[ do) = d o - .1 r l . 2 = ( _ : ) - Cl) 2 = ( =:).
Kontrol!e (66): d'; d 1 = 0, wic cs sein muS. Siehc auch .\bb. 32.3a.

Zl

\':\

a b
Abb.32.3. a) Endogene Transformation yon HESTE~E~ und STIEFEL; b) ('xogene Transformation yon GACSS

"ITERATION"
6. Es ist 1'2 zu berechnen nach der \'orschrift (65). :'Ilit dem Quoticntcn

d[ d 1/d'; do = 2/2 = 1 wird }'2 = d1 + 1 . 1'1 = (=:) + (_:) = ( _ ~),


7. Esista22 = 1'[ Ll1'2 = 4.
8a) Z2 = ZI - 1'2.4-1(1'[ d 1) = ZI - 1'24-1 . 2

= (- ~) - ( _ ~) 0,5 = (- ~) = .r .
172 § 32. Endlichc .\lgorithmcn zur Auflasung lincarcr Gleichungssysteme

Der Leser rechne dasselbe nach S b und ') b. \Vir machen noch die Doppelkontrolle
(67): r[ do = r[ d 1 = d[ d 1 = 2.
2. Exogene Transformation nach GAt:SS. Anstelle der Yorschriften (64) und (65)
ist R als normierte obere Dreiecksmatrix (unabhangig von der rechten Seite a!)
aufzubauen. Wir schreiben die Einheitsmatrix I unter A auf und addieren die mit
- 0, 5 multiplizierte erste Spalte zur zweiten, das gibt

~ r1 = 1) '
(0 T2 =
(-0,5)
1 '

womit r 1 und 1'2 festliegen. ~ach dem Programm (63) wird dann:

START. 1) ~= A Zo - b = .40- b = -b = (_ ~).

2) do = do·

3) r 1 = (~) ~ an = r[.4 r 1 = 2.

4) Zl = Zo - r 1 · rl(r[ do) = Zo - r 1 · 0,5 = C:) - (~) 0,5 = (-~,5).


5) d 1 = do - .4 r 1 . rl(r[ do)

= do - Ar1 • 0,5 = (_~) - C)0,5 = (-~,5)'


Dieser Schritt ist hier uberflussig, da der Defekt fur den weiteren
Aufbau nicht benatigt wird. Wir machen ihn nur zur Freude und der
Kontrolle (55) wegen.
"ITERATION"
6) r 2 = ( -~' 5) (siche oben) .

7) a22 = r[ A r2 = O,S.
8b) Z2 = Zl - r 2 · (0,5)-1 (r[ do)
= Zl - r 2 . (0,5) -1 (- 1,5) = ( -~' 5) + ( -~' 5) 3 = ( - ~) = x .

9b) oder auch 9a) kann entfallen. Der Leser fUhre dies trotzdem durch;
es muJ3 d 2 = d" = 0 sein.
Kontrolle (55): r[ do = r[ d 1 = -1,5; siehe auch Abb. 32.3b.
Der Leser beachte, daJ3 beim Cbcrgang von nach do ;;1
das Defektquadrat und
damit die Lange des Dcfektvektors sclbst nicht kleiner und bei GAUSS sogar graJ3er
geworden ist!
Zweites Beispiel. T6 x = a mit der DEKKER-~ratrix (24.73) und der rechten Seite
a = (-1 -1 -1 -1 -1 _1)T.
Die Lasung ist
x = (-1 -1 -1
a) Wir wahlen N = I (Katastrophe, da T~ Ts unvcrgleichlich schlechter kondi-
tioniert ist als Ts selbst) und bekommen mit dem Startvektor Zo = 0, somit
do = -a die folgenden Ergebnisse nach jeweils sechs vollen Zyklen:
32.8. Die Kongruenztransformation als dyadisehe Zerlegung 173

-0.990005938376231 -0.991975210190671
0.952322382705707 0.957936855015409
-0.854643281138120 -0.864753475394955
1. Zyklus 0.647204996058425 2. Zyklus 0.660125189059094
-0.259146202172682 -0.2b8311013b70231
-0.405130229939319 -0.414119696112011

-0.100001172b66303 -0.100000019917695
0.100003405764954 0.100000430994426
-0.100006403339245 -0.100001405177494
3. Zyklus 0.100008895915909 6. Zyklus 0.100003561835b91
-0.100008396812638 -0.100007713728b60
0.100000890588116 0.100014973392694

b) Die Matrix T6 wird per JACOBI stabiIisiert. Es liegt dann das neue Gleiehungs-
system A] x = a] vor, ,,"0 .... ] anniihernd unitiir ist, und zwar wurde bis zur
Niveauhahe 0,7 rotiert, wozu 43 Teildrehungen crforclcrlieh warcn. ~Iit dem so \'cr-
besserten Gleiehungssystem wiederholen wir die l{eehnung und bekommen nach
dem ersten Zyklus

0.999999999999214
-1.000000000020581
1.000000000020682
-1.0a0000000104612
1.000000000200214
-1.000000000404730

Die helle Freude! Die - wenn aueh aufwendigcn - J ACOBI-Rotationen habcn sieh
gelohnt. Der Leser reehne noeh einen weiteren Zyklus.
Drittes Beispiel. .... R X = en mit der ~Iatrix .... R (24.81), 11 = So. Start mit
Zo = 0, somit do = -e so ' Da .... R reellsymmetriseh ist, setzen wir den unterklammer-
ten Teil AT N = I, womit die GAl:sssehe Transformation entfallt. ::\aeh dem
ersten Durehlauf ist der Lasungs\,ektor ;r T = (1 2 3 ... 48 49 51l) auf aile
gereehneten 16 Dezimalen genau, der Defekt\'cktor d enthiilt in allen 50 Kompo-
nenten die 16-stellige Null.
Viertes Beispiel. A x = en mit .... = .... R "J, wo .... R die ~latrix (24.81) ist und "J
die normierte obere Dreieeksmatrix mit zwci alternicrenden Kodiagonalen .

-1 (I () (I
.. 1
-1 0 U ... I
"J= -1 (l

-1 ...
US\\-. J
Fiir n = 50 wurde das Produkt ~IR '\J ausmultipliziert und cingespeichert. Die
Lasung ist ganzzahlig und in der folgenden Tabelle ausgedruckt. Es wurden acht
Zyklen gerechnet. Der erste liefert Lottozahlen; selbst nach dem zweiten sind
siimtliche 50 Vorzeichen negati\', somit die Hiilfte falsch. Erst nach dem \'ierten
Zyklus stimmen die Vorzeichen und durchwcg die ersten beiden Dezimalstellen.
Naeh dem aehten Zyklus schliel3lieh bilde sieh dcr Betrachtcr sein Crtcil selbst im
Hinbliek auf die unten ausgedruekte maximalc Defektkomponente und die beiden
Postulate am Sehlul3 des Absehnitts 25.6, abgesehwiieht dureh den ~Ierksatz in
Absehnitt 31.1. Wir bekommen hicr drastisch \'or Augen gefiihrt: ohne Ein-
schliel3ungssatz geht es nicht!
174 § 32. Endliche Algorithmen zur Aufl6sung linearer Gleichungssysteme

Tabelle zum vierten Beispiel HESTEXES und STIEFEL

4. Zyklus 8. Zyklus Losung


-0.1454908862824920007 -0.1455065201236660-07 -0.1412449000000000+01
0.2354101346893200-07 0.2354354264201260+07 0.2382482000000000 007
0.8991914960145310006 0.8992880149613900+06 0.9100320000000000_06
-0.1454907874788210-07 -0.1455064225219350_01 -0.1412448000000000-07
-0.5557193428703420_06 -0.5557190963240420-06 -0.5624190000000000-06
0.8991924839803980 0 06 0.8992890570492430_06 0.9100330000000000'06
0.3434682011298630_06 0.3435050504210090+06 0.3476090000000000+06
-0.5557183550107530+06 -0.5557781141092210006 -0.5624180000000000 006
-0.2122570695212540_06 -0.2122799384946860+06 -0.2148160000000000+06
0.3434691888716800+06 0.3435060328252250_06 0.3416100000000000+06
0.1312032282882770006 0.1312172546081700 006 0.1327S50000000000+06
-0.2122560819233330+06 -0.2122789558566450006 -0.2148150000000000-06
-0.8106371977766270+05 -0.8107250638679750005 -0.8204100000000000+05
0.1312042156398870-06 0.1312182375430690006 0.1321860000000000+06
0.5012765517009210_05 0.5013295991946200-05 0.5013200000000000005
-0.8106273275858430 005 -0.8107152309981610+05 -0.8204000000000000-05
-0.3094989212263230_05 -0.3095330106863530 005 -0.3132300000000000+05
0.5012864177204060 005 0.5013394361556270-05 0.5013300000000000-05
0.1916196216250860_05 0.1916393704013340005 0.1939300000000000+05
-0.3094890604102030 005 -0.3095231690699180_05 -0.3132200000000000-05
-0.1180570325805770_05 -0.1180705400961450 005 -0.1194800000000000+05
0.1916294768664340 005 0.1916492172435430_05 0.1939400000000000+05
0.7336514296437750_04 0.1337223921895270 0 04 0.7425000000000000+04
-0.1180471834565950 005 -0.1180606814167130+05 -0.1194700000000000-05
-0.4490903686849020004 -0.4491459452950810-04 -0.4545000000000000-04
0.7337498596324970+04 0.7338209818757110+04 0.7426000000000000004
0.2821926881421200004 0.2822163606369740-04 0.2856000000000000-04
-0.4489919760912480 0 04 -0.4490412864818640+04 -0.4544000000000000-04
-0.1694628677426100+04 -0.1694869560940180-04 -0.1115000000000000+04
0.2822910109298360+04 0.2823150942205840_04 0.2851000000000000+04
0.1099678526016310_04 0.1099146012256420-04 0.1113000000000000+04
-0.1693644659997060_04 -0.1693881421114480-04 -0.1114000000000000+04
-0.6245319193480890_03 -0.6246474808949430003 -0.6320000000000000-03
0.1100663109012840+04 0.1100735012821150_04 0.1114000000000000+04
0.4435838623281880_03 0.4435910075781400-03 0.4490000000000000-03
-0.6235525193951460-03 -0.6236515636802010_03 -0.6310000000000000+03
-0.2144812791115750003 -0.2145313949473200-03 -0.2170000000000000-03
0.4445703251066680 003 0.4445878981233550+03 0.4500000000000000+03
0.1936028125804270+03 0.1936033754503900-03 0.1960000000000000003
-0.2134935270948410-03 -0.2135394748291120_03 -0.2160000000000000-03
-0.5835300833893710_02 -0.583736051032513D+02 -0.5900000000000000+02
0.1945920075519350 003 0.1945963832145610+03 0.1970000000000000-03
0.9519165991056810_02 0.9579869432584180-02 0.9700000000000000-02
-0.5736241417223560-02 -0.5131945689452120_02 -0.5800000000000000-02
-0.3988083223369330_01 -0.3993738121250410+01 -0.4000000000000000_01
0.9678987384536400-02 0.9619404528291290_02 0.9800000000000000-02
0.4839320292529920_02 0.4839601351134460-02 0.4900000000000000+02
-0.2994134730062690 001 -0.2991137491400600_01 -0.3000000000000000-01
-0.9984663641285900_00 -0.9992751394723140-00 -0.1000000000000000+01
0.4938929566502410-02 0.4939393568908120_02 0.5000000000000000-02

0.4799172641633620-04 0.6591070095057520-09

32.9. Mehrschrittverfahren

Oft ist es problemgerecht, sich mit einer Aquivalenztransformation


auf Blockdiagonalmatrix zu begniigen. Zu diesem Zweck zerlegen wir
die ~Iatrizen Lund R in 1n < 1t Streifen und die :\latrix A in dazu
32.10. Z usammenfassung 175

passende Blocke
-
All ) nl
L= R dito; L TAR =A= ( .42~ '. _ n2 •

_4 .. m nm

(68)

Sodann werden Lund R in exogener oder endogener Technik so be-


stimmt, daB die transformierte :\latrix A = L A R blockdiagonal wird

bzw. .i jj = Rj .4 * .Y.4 R j
~ (69)
regular fUr j = 1, 2, . . . , III ,

Ajk = LJ ARk = 0 bzw . •4jk = Rj A* N .4R k = 0


-..-
fUr j =!= k; j, k = 1, 2, ... , III , (70)

und nu~ sind anstelle der skalaren Bilinearformen ii jj = A '"j die 'T
Blocke Aii (69) zu invertieren; die Summen (51) und (52) gehen damit
tiber in
m _

zm = Zo - 1: Ri A;/ LJ d j _ 1
i~l = JJ }
bzw. (71)
=JJ

und

bzw.
dm = do -
In

\-, A R ]. A II
.::..,
_

-:-1 R* d· 1
I 1-
A

= 0
} (72)

j~l

mit
d.
1
= A*
~J
l\'d .. (73)

.32.10. Zusammenfassung

Die Bezeichnung "endliche :\1:ethode" darf nicht dariiber hinweg-


tauschen, daB bei groBen Ordnungszahlen n und/oder schlechter
Kondition der Matrix A die exakte Losung eben nicht mit abzahlbar
endlich vielen OpeIationen erreicht werden kann. :\Iindestens eine der
folgenden MaBnahmen ist daher an schlie Bend erforderlich.
176 § 33. Iterative und halbiterative :Ylethoden

1. Regeneration (Auffrischung). Die fehlerbehaftete Transformation

LA = '\J bzw. LA = D A bzw. LA R = D A usw. (74)


wird durch \Viederholung mit genaueren Leitvektoren verbessert wie
im Abschnitt 27.5 dargestellt.
2. Nachiteration. Unter Beibehaltung der erst en (oder der nach der
letzten Regeneration noch immer fehlerbehafteten) Transformations-
matrizen Lund R (74) wird die Kaherungsl6sung z iterativ verbessert.
Solche Verfahren schildern wir im nachfolgenden § 33.
3. Immer sollte die Rechnung enden mit einer der im § 31 beschrie-
benen EinschlieBungen der wenigen (oft einer einzigen) in den Anwen-
dungen allein interessierenden Komponenten XI des L6sungsvektors ;r.

§ 33. Iterative und halbiterative Methoden


zur Auflosung von linearen Gleichungssystemen

.33.1. Allgemeines. Uberblick


Ein ganz anderes Vorgehen zur Gleichungsaufl6sung als das in § 32
beschriebene besteht darin, von vornherein auf die "exakte" L6sung
durch endlich viele, vorweg abzahlbare Operationen zu verzichten und
sich der L6sung iterativ zu nahern, wobei zwei Klassen von Verfahren
zu unterscheiden sind.
1. Halbiterative Algorithmen
Die regulare :\Iatrix A wird wie in (31.30) additivaufgeteilt

bzw.
A ;r = }' -+ (H - N) ;r = }' -+ H ;r = r + N;r} H regular (1)
A k = d -+ (H - A') k = d -+ H k = d +N k
und die Transformation (oder Dreieckszerlegung) auf die :\Iatrix H
geworfen. Die Iteration besteht darin, die jetzt vom unbekannten
Vektor ;r bzw. k abhangige rechte Seite in jedem Schritt zu ver-
bessern.
2. Iterative Algorithmen (Relaxation mit Defektminimierung).
Ohne die l\Iatrix A oder einen Teil davon zu verandern, wird aus-
gehend von einer Naherung z der Defektvektor
d:=Az-}'

bzw. seine Norm von Schritt zu Schritt verkleinert.


Aus der Fiille der bis heute bekanntgewordenen Varianten und
Modifikationen zu beiden Klassen stellen wir in den folgenden Ab-
schnitten die wichtigsten Vertreter vor.
33.2. Stationiire Treppeniteration (G.HJSS-SElDEL-iihnlichc Ycrfahren) 177

.33.2. Stationare Treppeniteration (GauB-SeideI-ahnliche Verfahren)


Die Idee zu dieser altesten und einfachsten Vorgehensweise ist fol-
gende. Das Gleichungssystem (2) wird formal von links mit 11- 1 multi-
pliziert, urn die Iterationsmatrix.ll (24.25) zu gewinnen
(1 - ill) k = H-l d mit .11: = II-l X . (4)
Sodann multiplizieren wir die linke Seite der Gleichung (24.26a) von

---
rechts mit (1- }U) k und die rechte Seite mit H-l d, das gibt
(1 - ill') k = (1W~1 + .1l'"~2 -l- ... + .1/2 + .11 + I) H-l d. (5)
~..--:

Wird dies, wie durch Unterklammerung angedeutet, von rechts nach


links abgearbeitet, so entsteht die FoIge
ko = H-ld, (6)
k j-c 1 =illk j +lI- l d; j=0,1,2, ... ,v-2, (7)
(1 - illV) k = k"~l , (8)
oder wenn wir die ersten beiden dieser Gleichungen von links mit H
multiplizieren
------- ---_ .. -_._- -- --.--

I Hko = d (9)
I Hk j+ 1 =Nkj+d; j=0,1,2, ... ,v-2 (10)
k = (I - .1/")~l k,._l (11)
- - - - - --_._- ~~

und dies ist noch immer die exakte Losung fur den Korrekturvektor
k=z-x. (12)
Ein Naherungsverfahren wird daraus, wenn in (11) die ;\Iatrix ~llv
durch die Nullmatrix ersetzt wird; das Verfahren bricht dann selbst-
tatig ab mit k = 1~"~1' Es konvergiert nach (24.31), wenn samtliche
Eigenwerte des Paares N; H innerhalb des Einheitskreises der kom-
plexen Zahlenebene liegen. Bis auf diese Bedingung, die wir ohnehin
nur auf Verdacht erfullen konnen, sind wir bezuglich der Aufspaltung
von A vollig frei. Damit ein praktikabler Algorithmus entsteht, ist
jedoch zweierlei zu fordern.
1. Die Betrage der Eigenwerte des Paares X; II sind deutlich kleiner
als Eins. Dies wird erreicht, wenn N eine moglichst groBe Anzahl
betragskleiner Elemente (am besten Kullen) besitzt.
2. Der regulare Hauptteil H del" :'.Iatrix A ist gut konditioniert.
Mit einer problemgerechten Aufteilung der :'.Iatrix A. steht und tallt
somit das Verfahren. Die nachstliegende und einfachste Vorgehensweise
178 § 33. ltcratin und halbiteratiyc .\Iethoden

ist die von GAliSS (1832) - spater auch SEIDEL '163J (1874) und
NEKRASSOW [158J (1885) - die darin besteht, als Hauptteil die
Diagonalmatrix der Hauptdiagonalelemente herauszulasen, doch kon-
vergiert diese - quasi kostenlose - :\Iethode, wenn uberhaupt, nur
bei kleinen Ordnungszahlen. :\Ian nimmt daher mindestens das obere
(oder untere) Dreieck der :\Iatrix A. mit zu II, doch wird auch das
selten ausreichen. Als Faustregel gilt: je gral3er die Ordnung n, desto
mehr Kodiagonalen mul3 man zu II schlagen. Aus eben diesem Grunde
haben wir die Hessenbergblockmatrix (32.14) und die Blocktridiagonal-
matrix (32.25) so ausfiihrlich behandelt; beide dienen hier bei den halb-
iterativen Verfahren als abzutrennender Hauptteilll.
Da die Treppeniteration nur halbiterativ arbeitet, somit urn die
"exakte" oder endliche Auflasung eines Gleichungssystems nicht
herumkommt, ist auch jetzt ebenso wie bei den im § 32 geschilderten
Methoden eine Transformation der :\Iatrix II auf obere Dreiecksform
zu leisten, am zweckmal3igsten in alternativer :\lanier.
Abschliel3end noch einige Worte zum Start (9) und zum Abbruch (11)
der 1teration. 1st keine bessere Naherung Zo fur x bekannt, so wahlt man
Zo = 11- 1 1' --> d = (II - 1\') Zo - l' = - N Zo (13)
und geht mit diesem Defekt in (9) ein. Es wird so lange iteriert, bis sich
innerhalb einer vorgegebenen Stellenzahl der Vektor hi nicht mehr
andert. Mit der letzten Naherung k hat man nach (12) x = Z - k.
Urn den Mechanismus der Treppeniteration besser zu verstehen,
wiederholen wir alles Gesagte fur den trivialen Fall n = 1. Die vor-
gelegte skalare Gleichung a x = r wird wie in (1) aufgespalten
ax = r --> (h - 11) x = r --> hx = r +nx (14)

und durch h =f= °dividiert


n
r 1Il:= -- (15)
oder auch
---
1·x=r+1Ilx
..-' --
mit
h

(15 a)
Die Abszisse x
des Schnittpunktes 5 dieser beiden Geraden ist die
gesuchte Lasung. Diese gewinnt man nun iterativ durch eine Tleppen-
iteration nach Abb. 3).1. :\Ian startet mit einem beliebigen Wert Xo
und schreitet nach der Yorschrift )'1(.'" d = )'2(X.) , somit
X".1 = r+ 11lX.; v = 0, 1, 2, ... (16)
voran, wobei die zwischen den beiden Geraden befindliche Treppenlinie
sich dem Punkt 5 urn so rascher nahert, je schwacher die Gerade )'2(X)
geneigt, d. h. je kleiner deren Steigung /1l = nih ist. Damit dieses
Verfahren konvergiert, ist notwendig und hinreichend (der Leser ver-
33.2. Stationare Treppeniteration (G.H·SS-SEIDEL-ahnliche Verfahren) 179

gleiche [45, S. 25J) die Bedingung Iml = In/hi < 1, mit anderen \Vorten:
der einzige Eigenwert des Zahlenpaares n; h muB innerhalb des Ein-
heitskreises der komplexen Zahlenebene liegen wie in (24.}4) verlangt.

Xo X2· X
START ZIEL
A.hh. 33.1. Tr('ppt'niteratiol! illl :;kalan'll Fall 1/

Dazu ein Beispicl. .4;r ~- J' mit .1 = " 1-:- K2 aus (2+.i2a). \Yir crklaren den
oberen Dreiecksteil einschliel3lich dcr Hauptdiagonalc zu II; dann ist X cine
Matrix, dic auf3er Nullcn nur eine mit - 1 besctztc Schragzeilc cnthalt. Spcziell sei
a = 10 und n = 10, ferner l' = {'5.
\Vir starten mit z = 0, somit d = -1' = -f'5 und bekommen nach (9) bis (11)
eine Reihc von Korrekturvektoren, von clencn wir "I' uncl angcben. Die "3 "7
Naherung Z7 = 0 - "7 ist bercits auf 13 Dczimalen genau.

ki k3 k7
-0.000644864044485 -0.000645158247582 -0.000645158379615
0.000000000000000 0.000000000000000 0.000000000000000
0.007093504489338 0.007096740723404 0.007096742175763
0.000000000000000 0.000000000000000 0.000000000000000
-0.084490740740741 -0.084515736538555 -0.084515747729537
0.000000000000000 0.000000000000000 0.000000000000000
0.006944444444444 0.007092164897431 0.007092230578689
0.000000000000000 0.000000000000000 0.000000000000000
0.000000000000000 -0.000590760030864 -0.000591019214840
0.000000000000000 0.000000000000000 0.000000000000000

-0.000645158379615
0.000000000000000
0.007096742175763
0.000000000000000
U:isung X
-0.084515747729539
0.000000000000000
0.007092230578703
0.000000000000000
-0.000591019214892
0.000000000000000
180 § 33. Iterative und halbiterath'e Methoden

Zur Dbung. Der Leser transformiere mit Hilfe der Modalmatrix X = XT (17.51)
das Gleichungssystem auf X A X Y = X r = r. Es wird dann X.4 X = Diag
< 10 + a'> mit den Eigenwerten (17 AS). )Ian berechnet YJ = rj/ (10 + daraus alL
;£ = X y, und dies stimmt in allen Dezimalcn mit der ausgedruckten Naherung

Z7 = ;£ ii berein.

33.3. Instationare Treppeniteration. Der Algorithmus "Siebenmeilenstiefel"

Iterationsverfahren mit festgehaltener Iterationsmatrix ill heiBen


stationar, dagegen instationar, wenn diese :\Iatrix bei jedem Schritt
oder doch nach jeweils einel Anzahl von Schritten zwecks Konvergenz-
beschleunigung geandert wird. Das einfachste Verfahren dieser Klasse
arbeitet eben falls auf der Basis der geometrischen Reihe, benutzt jedoch
an stelle der additiven nunmehr die multiplikative Form (24.29); es
wird dann nach dem Vorgehen des letzten A bschnittes
(/- .U20") k

= (I + M 20"-1) ... (I + .1lS) (I + .114) (I + .1l2) (I + .ll) H-l d. (17)


----.
Bezeichnen wir die Inhalte der geschweiften Klammern mit kl' k2'
--
k3' k4' ... , so schreibt sich (17) in einzelne Schritte aufgelOst als
SIEBENMEILENSTIEFEL

ko = H-l d, (18)
kjl=kj+M2ikj; j=0,1,2, ... ,o-1 (19)
k = (I - .1l")-1 k"_1 ; V = 20" (20)

Auch dies stellt die exakte Lasung dar. Erst wenn man ebenso wie in
(11) den Subtrahenden in (20) durch die Nullmatrix ersetzt, entsteht
eine Naherungslasung k = 1."'_1'
Wahrend in (7) die einmal festgewahlte :\Iatrix.ll steht, erscheint in
(19) die sich mit jedem Schritt andernde, somit instationiire }Iatrix
(21)
deren Eigenwerte die zur Potenz 2i erhobenen Eigenwerte Ok des
Paares lll; 1 und damit des Paares X; H sind und daher mit fortlaufen-
dem Indexj mehr und mehr an den Nullpunkt heranriicken (sofern, wie
vorausgesetzt, die Eigenwerte Ok des Paares N; H innerhalb des Ein-
heitskreises liegen), wodurch die Konvergenz laufend verbessert wird,
allerdings urn den hohen Preis der expliziten Berechnung der Iterations-
matrix III = H-l N und deren Potenzierung in der Reihenfolge
.1l111 = ~1l2 , .1l2.112 = .ll~ , .1l4 JJ4 = ills, ... usw. (22)
33.3. Instationare Treppeniteration. Der .\Jgorithmus SIEBE"~!EILE"STIEFEL 181

Das Verfahren ist daher nur lohnend, wenn im Gleichungssystem


A X = R mit X: = (.Tl x 2 •..• r,'); R: = (J'l "2 ... 1',') (23)
relativ viele rechte Seiten gegeben und die dazugehorigen Korrekturen
und Defekte
D : = (dl lI2 ... d,') (24)

zu berechnen sind. Die Iterationsvorschrift (18) bis (20) geht dann liber
In
--~--~ ... _---

I'
(25)
Kjc 1 = Kj + Jl zi Ki ; j = 0, 1,2, ... , (1 - 1 (26)
K = (1 - "'l")-l K"_l ; V = 2° (27)

oder wenn mit den Naherungswerten und rechten Seiten selbst iteriert
wird

(28)
Xi-i-l = Xi + M Zi Xj ; j = 0, 1, 2, ... , (1 - 1 (29)
X = (1 - "'l"t l X"_l; V = 2° (30)
Erstes Beispiel. Das Gleichungssystem .4 J' = r ist itcrati" zu Jasen. Gegebcn:

")_(11
1 I -II,I)=II_X, II

.1I = H-I X = (0 11,1) ;


° -11,1

Die Eigenwerte des Paares .1I; I bz\\,. X; H sind )'1 = 0 und )'2 = - n, 1, so daB eine
ausgezeichnete Konvergenz zu erwarten ist.
a) Direkte Iteration mit J'v und r. "'ir rechnen "ier Schrittc:

1. J'o = H-l r = C~) .


2. J'l = J'o + ill J'o = (1,1) .
9,9
, '1 2
.)...
_
-
(0 -0,(1)., _
J'2 - J'l '
,2
.'ll J'I =
(1,001) .
o 0,01 9,999

." - °
4 M4 _ (0 -0,0001) .
0,0001'
_ . U4
J'3 - J'2 " •
_ (1,0000001)
J'2 - 9,9999999
t tt
s a
_ ( 1)
J' - 10 .

b) ::a~iOrn : i : ~ u(g~ )d. Zur 'Xahcrung z = (1 ~:~) gchart der Defekt


0,1
1. ko = H-l d = (0,1) .
0,0
182 § 33· Iterative und halbiteratiyc :\Iethoden

2. kI = ko + .11/~o = ko wegen .11 ko = o. Die Rechnung bleibt stehen, weil die


exakte Lasung bercits erreicht wurcle. In cler Tat ist

;c = z - k = C(l)::») - C;'1) C(1»)


= 1

Zweites Beispiel. Es sei wieder ... = 1(1 1 - K2 wic im letzten Abschnitt. Die
beiclen zur Matrix R zusammengefa13ten rechten Seiten sincl R = (TI T 2 ) mit TI = e 5
und 1'2 = (1 1... 1 1) T :\Iit cler Start matrix Z = (0 0), somit cler Dcfekt-
matrix n = -R rechnen wir nach clem Programm (25) bis (27) filr die Korrektur-
matrix K = (k, k 2 ) yier Schritte j = 0, 1, 2, 3 entsprechend den Korrektur-
matrizen K I • K 3 , K7 uncl K Io cler gewahnlichen Treppeniteration. Die letzte Naherung
X """ 0 - K I5 ist auf aile angegebenen Dczimalen genau. Man yergleiche auch clas
Beispiel in Abschnitt 33.2.

0 -0.0006451582~758< -0.000645158379615 -0.000645158379615


0 0.000000000000000 0.000000000000000 0.000000000000000
0 0.007096740723404 0.007096742175763 0.007096742175763
0 0.000000000000000 0.000000000000000 0.000100000000000
1 -0.OB45157365JB555 -0.084515747729539 -0.084515747729537
Tl 0 0.000000000000000 0.000000000000000 U.OOOOUOOOOOUOJOO
0 0.007092164897431 0.00709223U578703 0.00709223J578689
0 0.000000000000000 0.000000000000000 0.000000000000000
0 -0.000590760030864 -0.000591019214892 -0.000591019214840
0 O.OOOOOOOOUOOOOOG 0.000000000000000 O.OOOOOOUOOOOOOOO

-0.084515744824169 -0.084515747729538 -0.084515747729539


-0.a77423514943892 -0.077423517150836 -0.077423517150836
1 -0.070326806934141 -0.070326774975080 -0.070326774975073
1 -0.070917820613296 -0.070917794189970 -0.0709177941d9965
1 -0.071562716926974 -0.071562952569533 -0.071562952569580
1'2 1 -0.07156274919~166 -0.071562952569539 -0.071562952569580
-0.070918995372982 -0.070917794190242 -0.070917794189965
1 -0.070327850977407 -0.07U326774975322 -0.070326774975073
1 -0.077420179299911 -0.077423517149749 -0.077423517150836
1 -0.084512507622416 -0.084515747728474 -0.084515747729539

• 33.4. Korrektur und Diskrepanz, Nachiteration


'Wiederholen wir: das vorgelegte Gleichungssystem A;r = " oder
auch A k = d wird aufgespalten in
A k = (If - X) k = d (31 )
und sodann der reguHire (und moglichst gut konditionierte) Haupt-
teil If transformiert auf eine theoretisch angestrebte, praktisch jedoch
unerreichbare Zielmatrix Z, das ist im einfachsten Fall eine obere
(oder untere) Dreiecksmatrix oder anspruchsvoller eine Diagonal-
matrix, speziell die Einheitsmatrix I. Diese Transformation uberfiihrt
die vorgelegte G1. (31) in
(L If R - L A" R) R-l k = L d (32)
oder kurz
(If N ) R-l k = Ld. (3)
33.5· Abgeandertc (benachbartc, gestorte) Glcichungssysteme 183

Nun zeigt die auf einer Vorwartsrechnung basierende und daher


relativ vertrauenswiirdige Einsetzprobe
II := L II R = Z + ,1 -+ ,1 = L II R - Z , (34)
daB trotz noch so genauer Rechnung das dreifache Produkt L II R
eben nicht gleich der Zielmatrix Z ist, sondern es verbleibt eine Dis-
krepanz ,1, die zur Matrix N zu schlagen ist
L ARR-1 k = (L II R - A -+- ,1 - L X R) R-1 k = L d, (35)
-.,-
Z
und damit lautet die korrigierte Iterationsvorschrift (Xachiteration)
----_._-----

Z R-1 kV+l = L d + L AT 1." - ,;J R-1 k,.; v = 0, 1, 2, . . . ,(36)

wo das Produkt L N natiirlich nicht explizit erstellt werden darf, viel-


mehr ist N Rv und an schlie Bend L(X k,,) zu berechnen.
Kommt man von einer endlichen :'IIethode aus § 32, so gilt alles
Gesagte sinngemaB; es ist dann A. = II und X = O. :\Iit der Dis-
krepanz ,1 = LA R - Z wird aus (36)

- L1 11-1 1.,.; v=0,1,2, ... ,(37)

doch kann bei extrem hohen Ordnungszahlen und schlechter Kon-


dition von A = II die Diskrepanz noch immer so groB ausfallen, daB
Konvergenz verhindert wird. Es bleibt dann nichst anderes iibrig,
als die ;\fatrizen Lund R (als Produkt von jeweils 11 - 1 alternativ zu
wahlenden dyadischen Elementarmatrizen) mindestens einmal zu
regenerieren, urn die Norm von ,1 zu verkleinern. Eine andere :\IaB-
nahme besteht darin, vor Durchfiihrung der Aquivalenztransformation
durch einige JACoBI-Rotationen die Kondition von A = II zu ver-
bessern, doch geht dabei die eventuell vorhandene Band- oder Hiillen-
struktur von A natiirlich verloren .

• 33.5. Abgeanderte (benachbarte, gestorte) Gleichungssysteme

Das Gleichungssystem A x = 1· sei gelost worden, und nachtraglich


werden die Matrix A sowie die rechte Seite I' (geringfiigig) geandert,
dann entsteht das benachbarte (gestorte, abgeanderte) System
(A + B) x = I' +S , (38)
x
dessen Losungsvektor gesucht ist. Benutzen wir x als Naherung, so
wird wegen A x = I' der Defekt
d = (A + B) x - (I' + s) = B x - S , (39)
184 § 33. Iterative und halbiterath·e :\Iethoden

der urn so kleiner ausHillt, je kleiner die Storungen B und s sind. Die
Gleichung
(A + B) k = d mit k = ~ - i (40)
wird dann vorteilhaft halbiterativ nach der Yorschrift

A kv.cl = d - B kv ; v= 0, 1, 2, ...
(41)
mit d = B~ - s

ge16st, beginnend mit ko = o. Der Yorteil der :\Iethode besteht darin,


daB die erforderliche Transformation LA R = Z aus der Original-
aufgabe bereits vorliegt, falls nach einem endlichen Verfahren gerechnet
wurde.
1st die durch die :\Iatrix B verursachte Storung zu groB, so kann
dies die Konvergenz vereiteln. In diesem Fall ist man genotigt, die
Summen A + B und l' + s explizit zu bilden und damit neu zu
starten.
Abgeanderte Gleichungssysteme treten bevorzugt auf bei der Ma-
trizenhauptaufgabe F(A) ~ = l' infolge kleiner Anderung des Para-
meters von A in A + e. Es ist dann
A :=F(A) , B : = F(A + e) - F(A) . (42)
Der Parameter A kann physikalischer ~ atur sein wie beispielsweise
die Frequenz erzwungener Schwingungen oder aber ist gewahlter
Schiftpunkt bei den iterativen Eigenlosern, hier insbesondere im
Zusammenhang mit einer mehrfach zu wiederholenden Bereinigung,
wie sie etwa erforderlich wird bei der RITz-Iteration bzw. dem Algo-
rithmus BONAVENTURA und dem dar auf basierenden Globalalgorithmus
SECURITAS; man kommt dann oft mit einer einzigen Dreieckszerlegung
zum Ziel, sofern nach (41) iteriert wird.
Erstes Beispiel. Der Amplitudenvektor i£ einer erzwungenen gedampften
Schwingung mit n = 3 Freiheitsgraden nach Abb. 23.1 *) bzw. Abb. 33.2
werde berechnet aus der zeitfrei gemachtcn Bewegungsgleichung
d
= -+- DA + .lIA2) = = =
F(A) i£ (C i£ r mit A
ycm
2, - - 2.

2c

Abb. 33.2. Gcdampftes Schwingung:;system mit drei Freihcitsgraden

*) Diese Abbildung wurde versehentlich an drei Stellen fchlcrhaft beschriftct.


33.5. Abgeanderte (benachbarte, gestarte) Gleichungssysteme 185
Mit den dort angegebenen :'.Iatrizen C, D, ill und der rechten Seite ,. findet man

A = F(2) = (~: -~ =~) + ( 1~ o


()
-+) + (3°
II 2
II

-2 -1 12 -+ ° 8 () u

A = ( ~:
-18 -1
-3 -18)
16 -1 ,
+8
,{)
und daraus als Lasung des Gleichungssystems A. ;r = ,. die Komponenten
Xl = 0,001393800170354, X2 = 0,0628758743514957,
Xa = 0,001832589112872.
Nun werde die Zwangsfrequenz A abgeandert in A + e sowie die (zeitfrei gemachte)
Zwangskraft ,. in ,. + s. Die gestorte Aufgabe lautet dann

F(A + e) Ii: = [C + D(A + c) + .1I(A + c)2~ x = ,. + s;


mit der Zusatzmatrix B (42) und dem Defekt d (39)
B = c(D + 2AM) + E2.1I = c(D..L +.1I) + E2.1I

c(' 4~ -8) + (3 0)
o
o
B= 8 0 e2 0 2 o ,
-8 o 20 0 o 1

0,052241695273985) (0,00+ 181 +0051 ... ) (51)


d=B;r-s=e· ( 0,503006994811966 +e2 0,1257517+87 .. · - 52 ,
0,025501380894613 0,001832589112872 5a

wo fiber e und s noch frei verffigt werden kann.


Der Leser wahle insbesondere e = 0,01, 51 52
= = und a = - 0,05 und ermittle ° 5
die Lasung des benachbarten Systems nach der Iterationsvorschrift (41).
Zweites Beispiel. Die Gleichgewichtsbedingung der durch eine Einzelkraft yom
Betrage Pi belasteten homogenen Kette nach Abb. 33.3a lautet A;r = ,. mit der
Tridiagonalmatrix (24.81) und der rechten Seite ,. = (Pile) ej. Der L6sungsvektor
ist demnach
p. p'. T
;r = A-I,. = A-I....!... f'j = ....!... (1 23 ... ) - 1 j j ... j j) .
c c

V'O'\fV'VV\/'OV
C C

c c c c
• • • \j'Q"y'/'/'
: ~
:
'
ac /.
,;

b ~
Abb. 33.3. a) Homogene Federkette, links eingespannt, rechtsfrei: h) dic'selbe l~dtt', rcchts cingespannt
186 § 33. Iterativc und halbiteratiye ;\Iethodcn

Wir bringen jetzt am rcchten Ende nach Abb. 33.3b eine Feder cx can, wodurch
die Auslenkung x" am rechten Ende begrenzt wird. Die :'IIatrix des Systems lautet
jetzt

A= "4 + cx ell e~ = H - (-cx ell er) = H - X mit H = A , ". = -cx e" er .


Mit dieser Aufteilung wird die Iterationsmatrix nach (24.81)

]~1 = 11- 1 X = "4- 1 ( -cx e" e~) = -cx(.4- 1 e,J eJ = -cx h" eJ;
h" = (1 23 ... n - 1 n)T.
Diese Dyade zum Partncr 1 hat den (11 - 1 )-fachcn Eigenwcrt ""uIl und als wei-
teren Eigenwert das Skalarprodukt -cx(eJ h,,) = -cx n, folglich muf3 -cx n inner-
halb des Einheitskrcises liegen, d. h., cs muJ3 cx < l/n sein, damit die Trcppenitera-
tion oder der SIEBEXMEILEXSTlEFEL konvergiert: je groJ3er n, clesto schwacher
die Zusatzfeder cx c! Fiir 11 = 1000 diirftc somit hochstcns cx = 0,001 sein. Der
Leser erkennt daraus, wie vorsichtig man mit clem Begriff cler "kleinen Sto-
rung" bzw. der ,,~achbarschaft" eines Problcms operieren muJ3.

33.6. Der restringierte Ritz-Ansatz


Wahrend bei den halbiterativen Verfahren der Defekt gewissermaI3en
nebenher verkleinert wird durch Berechnung immer besserer Naherun-
gen zi' geschieht dies bei den nun zu schildernden echten iterativen
Verfahren auf sehr viel direktere Weise, indem das Defektquadrat
langs einer Folge von RITz-Ansatzen gezielt minimiert wird.
Wie immer gehen wir aus von einer zu verbessernden Naherung Zo
und den dazugehorigen Gleichungen
do = A Zo - a (43)
und machen wie im § 26 vorgefiihrt den - zunachst einmaligen -
restringierten oder unvollstiindigen RITz-Ansatz (den vollstiindigen RITz-
Ansatz stellen wir bis zum Abschnitt 33.10 zuruck) mit a < n vor-
gegebenen unabhangigen RITz-Vektoren (Ansatzvektoren, auch Such-
oder Richtungsvektoren genannt)
R = (1'11'2 . . . 1'0) , (44)
wahrend die a zum Vektor ;, zusammengefaBten RITz-Variablen
(45)
frei verfiigbar sind. Der Ansatz fur den angenaherten Korrektur-
vektor ko

ko = R;. (46)
____. _ J
wird in die Originalgleichung bzw. in die GAusssche Gleichung

A ko = do bzw. A *N A ko = A * ~y do (47)
33.7. Das normierte Defektquaclrat 187

eingefUhrt und ergibt


A R ). = do bzw. •... * .Y .... R ). = .... * .Y do. (48)
-.-'

em dieses iiberbestimmte System von 11 Gleichungen fUr die a < It


Unbekannten (45) eindeutig lasbar zu machen, kondensieren wir mit

----
Hilfe einer geeigneten Linksmatrix L bzw. R* .... .Y das System und
nennen die dadurch festgelegte spezielle Lasung p; es wird dann
LARp=Ldo bzw. R*.4*.Y .... Rp=R*A*.Ydo , (49)
'-.-

wobei natiirlich so zu kondensieren ist, daJ3 die dadurch entstehende


quadratische Matrix
-
A:=LAll bzw. A:=R*Il*X .... R=:B*.YB mit B:=.4R
(50)
der Ordnung a maglichst gut konditioniert wird. }Iit dem Lasungsvektor
-
p """ A-I L do bzw. P = .4-- 1 R* A * .Y do = .",-1
-
B* X do (51)
wird somit der angenahelte Korrekturvektor nach (46)
'""' '""' -- -
k o =Rp=RA-ILdo bzw. "o=Rp=R .... -IB*Xdo , (52)
und diese Naherungen sind urn so besser, je geeigneter die a Yektoren
(44) gewahlt wurden. Als wichtigstes Ergebnis halten wir fest, daJ3 fiir
den RITz-Ansatz an der GAcss-Gleichung der Lasungsvektor p nach
(51) und (50) der Gleichung

B:=AR (53)
gehorcht.

33.7. Das normierte Defektquadrat


Fiir den exakten Korrekturvektor ko verschwindet der Defekt, denn
es ist d = do - A ko = o. Set zen wir in diese Gleichung anstelle von
ko die RITz-Naherung ko (46) ein, so wird der Defekt
d().) = do - AR). = do - B). mit B:= .4R (54)
und ebenso das normierte Defektquadrat
b~.().) = d*().) .Vd(J.) = (do - B ).)* X(d o - B).) (55)
bzw.
b~()') = dt Nd o - dt NB). - ).*B* Nd o + ).*B* NB). (56)
eine Funktion des RITz-Vektors ). (45), iiber den noch frei verfiigt
werden kann. Wahlen wir speziell den Vektor ). = p aus (53), so laJ3t
188 § 33. Iteratiye und halbiterative :Ylethoden

sich das Defektquadrat (56) schreiben als Summe zweier nichtnegativer


Zahlen
b~.()..) = d*()..) N d()") = ~dt ~V do - p* B* ~V do] + ~(p - )..)* N(p - ).)]
= b~(o) + bL (57)
denn rechnet man dies aus, so tilgen von den insgesamt sechs Termen
sich zwei, und die iibrigen vier stimmen mit dem ausmultiplizierten
Produkt (56) iiberein. Da der erste Summand von).. unabhangig ist und
der zweite fiir ).. = p verschwindet, stellt b~.(p) das durch Variation
des Vektors ).. erreichbare absolute :\Iinimum dar, und diese fiir das
folgende grundlegende Erkenntnis wollen wir aussprechen als
Sa tz 1. Der Losungsvektor p des hermiteschen Kondensates B * N B P
= B* N do minimiert das Defektquadrat im Ra1tm Ra der Dimension
1 ~ (J ~ n.
Speziell der eingliedrige RITz-Ansatz mit der jetzt als Relaxations-
punkt bezeichneten Variablen A
d(A) = do - A l'A = do - b}. mit b:= A I' (58)
fiihrt auf das skalare Kondensat
b~(A) = d*(A) N d(A) = (do - A b) * l\'(do - A b); b~ = d6 N do, (59)
und dieses Relief iiber der komplexen Zahlenebene stellt das uns wohl-
bekannte rotationssymmetrische Vektorparaboloid (25.61) dar. (Dort
hatten wir der Einfachheit halber N = I gesetzt, und statt do steht der
Vektor a.) In der Tat folgen alle dort abgeleiteten Beziehungen als
Sonderfall der Gleichungen (54) bis (57) auch hier, namlich: die
Gleichung des Defektquadrates
b~(A) = [dt N do - PP . b* N bJ + [b* N b IP - AI 2J = b~.(o) + b~
(60)
mit dem FuBpunkt (l\Iinimalpunkt) p, welcher der Gleichung
b * N b . P = b * N do (61)
gehorcht, und der minimalen Ordinate, die fiir A = P angenommen wird
b;"in = b2 (P) = d~ N do - Pp . b* N b = b~ - P. b* N b . p. (62)
Die Abb. 33.4 macht diese Verhaltnisse nochmals deutlich.
Wir sehen: jeder Relaxationspunkt A innerhalb des Konvergenz-
kreises K iiber dem Durchmesser 21PI fiihrt zu einem Defektquadrat,
das kleiner ist als b~. Es wird am kleinsten fiir A = P (Minimalrelaxation),
ansonsten unterscheidet man nach Abb.33.4b die Cnterrelaxation
(heller Halbkreis) von der Vberrelaxation (getonter Halbkreis). Punkte
auBerhalb des Kreises K fiihren zu einem gro13eren Defektquadrat und
sind daher in dem hier verfolgten Zusammenhang kaum von Interesse.
33·8. Der zyklisch fortgcsctztc RITz-Ansatz . :-'finimalrclaxation 189

Dagegen sind zwei Extremfalle von besonderer Relevanz:


1. Volltreffer. Es sei l' = k o. Dann ist b = A l' = A ko = do, somit
folgt aus (61) p = 1 und weiter aus (59) wegen do - 1 . b = 0 das
Verschwinden des Defektquadrats, \Vie es sein muf3. Zusammengefaf3t :

1' = ko --+ P= 1 --+ b~.(1) = 0 (6~)

Wahlt man allgemeiner l' = 0:: ko' so setzt das Paraboloid im Punkte 1 /0::
auf, siehe Abb. 33.4a.

iv
B
...... k~:-::.-;;~--J Uber-
relaxalian 0
Un er- u
a b reloxolion c
Abb. 33.4. Das Skalarparaboloid mit d('m :\linimalpunkt p und l":oIl\"e rgenzkreis K
a) Yolltreffer ; b) Treffer; cJ :\i("tc

2. Niete. Es sei b* N do = 1'* A * N do, somit l' unitar zum Vektor


A * N do. Dann ist nach (61) p = O. Das Paraboloid
b2 ().) = b~ + b* Nb IW = d~ Ndo + b*.vb 1}.1 2 (64)
nimmt nach Abb. 33.4c im Nullpunkt der komplexen Zahlenebene sein
Minimum an, der Konvergenzkreis schrumpft auf den Kullpunkt zu-
sammen, das Defektquadrat laf3t sich daher nicht verkleinern.

33,8, Der zyklisch fortgesetzte Ritz-Ansatz. Minimalrelaxation

Ein einmaliger RITz-Ansatz mit 1 ~ m < It Yektoren (44) kann im


allgemeinen nicht viel bewirken. Es liegt daher nahe, mit der neuen
Naherung ZI und dem dazugeh6rigen Defekt d 1 einen zweiten Ansatz
durchzufiihren und so fort . Wir sagen: die Folge von III Rnz-Ansatzen
ist zyklisch, wenn die m ~ n Streifen der :\Iatrizen
R = [R 1 R 2 .•• R",]; L, R regular (65)
an der Reihe gewesen sind. Es entstehen dann an der Originalgleichung
A x = a bzw. an der GAcssschen Gleichung .4* X A x = A * N a
190 § 33. Iteratin und halbiterative :\Iethoden

nach (52) die Zyklen


m _

zm = Zo - I RI Ai/ LJ d j _ l
j~l

bzw. (66)
m _
Zm = Zo - I Rj .4;/ Bj N dj_ l ,
j~l
m _

dm = (/0 - I A Ri .4i/ LJ d j - l
j~l

bzw. (67)
m _
dm = do - I." RI A·ii l Bj N d j _ l .
j~l

Zu un serer Uberraschung steBen wir fest, daB dies wegen


Bj Xd j _ l = Ri A* X d j _ 1 = Ri dj - 1 (68)
~.-'

nichts anderes ist als die dyadisch gelesene Aquivalenz - bzw. Kon-
gruenztransformation aus (32.71) bis (32.73), und das heiBt: wenn die
Matrizen (65) so gewahlt wurden, daB LT A R bzw. R*.4 * N A R die
(Block-)Diagonalform wird, so ist das exakte Ergebnis d m = 0 und
Zm = x nach m RITz-Ansatzen erreicht. \Yurde dagegen die Trans-
formation auf (Block-)Diagonalmatrix unvoBkommen durchgeftihrt
oder von vornherein unterlassen, so resultiert aus
L AR = A - A bzw. R * A * X .4 R = A - A (69)
--.-
eine Diskrepanzmatrix A, welche die beabsichtigte Inversion der
)Iatrix A und damit auch die L6sung des Gleichungssystems A x = a
verfalscht. Man wird daher das RITzsche Yerfahren tiber den Index m
hinaus in immer neuen Zyklen fortsetzen; beispielsweise lautet dann
die zweite Gleichung (66) mit B := .4 R
m1 1 _ 1 tn2 2 _ 2
Zm= Zo - I RiAi/Rj(A* Nd j _ 1 ) - IR j Ajjl Ri(A* l\Td j _ 1) -'"
j~l '--'.- j~l ~.--
" - - - - - endlich
- - - - - - - - - - - - . - - - - ih'rati\' - - - - - - - - - •••
Inv I'
A;i R i (·.. * X d
I'

... - I Rj j _ 1) • (70)
1=1 "--.--

Ist.4 hermitesch und positiv definit, so kann wie stets A * N = I gesetzt


werden. ~.-- u
Das Verfahren heiBt stationar, wenn die Transformationsmatrizen L
u u
undR bzw. R aBe einander gleich sind, sonst instationar. Offensichtlich
kann eine endogene Transformation (im allgemeinen) nicht stationar
'j aus Lund
u (] (] (J

sein, da ja die Vektoren 1'; aus R in Abhangigkeit yom


33.8. Der zyklisch fortgesetzte HITz-Ansatz. ~Iinil1lalrelaxation 191

Defekt aufgebaut werden. Die :\Iehrzahl alIer Verfahren kniipft an die


GAusssche Gleichung an. Die einfachste Version wurde bereits von
GAUSS seIber praktiziert und spater von SOl"THWELL : 164J unter der
Bezeichnung Relaxation wiederentdeckt.
Nun zur Konvergenz der Reihe (70). Einerlei ob die :\Iatrix R exogen
oder endogen aufgebaut wird, sofern sie nur regular ist, kann im Verlauf
eines volIstandigen Zyklus nicht jeder der n linear unabhangigen Vek-
a a
toren r i aus R unitar zum aktuelIen \'ektor Bj ti j _ 1 = Rj A * tij_l>
somit p = 0 nach (64) sein, also mu/3 mindestens einmal wahrend
eines Zyklus die Situation "Treffer" nach A.bb. nAb eintreten. Wir
haben damit den
Sa tz 2: Die zyklisch fortgesetzte KOllgrllellztransformation an der
] 2 v
GAussschen Gleichung konvergiert, sofem die Jlatrizen R, R, ... , R
regttliir sind. Die Konvergenz ist 11m so besser, je kleiner die Diskrepanz-
matrix LI bzw. ihre Norm IILlII allsfiillt.
Diese letzte Aussage ist evident, denn bei verschwindender Diskrepanz
endet die Transformation nach dem ersten Zyklus mit dem exakten
Ergebnis z", = ~ und dem Defekt ti", = o.
Fassen wir zusammen: Ziel jeder auf der Basis der Kongruenztrans-
formation arbeitenden Relaxation ist es, das Defektquadrat schrittweise
zu verkleinern und damit die aktuelle Naherung z zu verbessern. Dazu
stehen pro Zyklus zur Verfiigung:

Mehrkomponentenrelaxation Einkomponentenrelaxation
-----------~~-~ ---

Die III Ansatzmatrizen Die n Ansatzvektoren


R = (Rl R2 ... Rm) regular R = ("I "2 ... "n) regular
Die Relaxationsvektoren Die Relaxationsparameter
Al A2 ••• A", Al )'2 . . . )'n
Die N ormierungsmatrix X = X* pos. def.
Aus der FiilIe der denkbaren :\Iodifikationen und Yarianten ragen
zwei markante Vertreter heraus: die stationare exogene S palteniteration
(auch Spaltenapproximation) und das instationare endogene Gra-
dientenverfahren (oder Verfahren des starksten Abstiegs.)
Bei der Spalteniteration wird auf eine Transformation von vorn-
a
herein verzichtet, also R = 1 gesetzt, mithin an der :\Iatrix A * N A
'--v--'
selbst iteriert. 1st A helmitesch und positiv definit, und setzt man
A * N = 1, so ist die Einkomponentenrelaxation identisch mit dem
'--v--'
GAUSS-SEIDEL-Verfahren an der :\Iatrix A. Die Spalteniteration wird
ausfiihrlich diskutiert bei :\IAEss und PETERS ~ 15 7J.
192 § 33. Iterative und halbiterative :\Iethoden

Beim Gradientenverfahren dient der aktuelle Defekt d i als Rich-


tungsvektor rio Einzelheiten dazu findet der Leser bei SCHWARZj
RUTISHAUSERjSTIEFEL [24, S. 66-67] und :YIAESS [37, S. 125-135J.
Ein dem Satz 2 entsprechender einfacher Konvergenzbeweis fUr die
zyklisch fortgesetzte Aquivalenztransformation existiert iibrigens nicht,
weshalb das Verfahren in der Literatur kaum propagiert wird, doch
kann es im konkreten Fall durchaus befriedigend arbeiten. Dies erhellt
schon daraus, daJ3 bei passender \Yahl der beiden TransfOlmations-
matrizen Lund R die Iteration nach dem ersten Zyklus mit dem
exakten Ergebnis abbrechen muJ3.

33.9. Uber- und Unterrelaxation


Neben dem Minimalverfahren existiert eine zweite Gruppe von
Algorithmen mit dem Ziel, das Defektquadrat mit jedem Schritt zu
verkleinern aber nicht zu minimieren, und hier unterschieden wir nach
Abb. 33.4b innerhalb des Konvergenzkreises den Bereich der Uber- von
dem der Unterrelaxation. Es mag im ersten ~loment iiberraschen, daJ3
ein solches Vorgehen Erfolg haben kann, doch ist zu bedenken, daJ3
die im Augenblick beste Strategie nicht auch aufs Ende gesehen die
beste sein muJ3. Allerdings ist nur bei speziellen Klassen von l\'Iatrizen
von vornherein entscheidbar, ob eine Uber- oder Unterrelaxation
schneller zum Ziele fiihrt als die ~1inimierung. Grundlegende Dar-
stellungen zu diesem Fragenkreis finden sich bei BU~SEjBcNSE­
GERSTNER [31, S. 131-142], SCHWARZ [40, S.214-218J, sowie bei
SCHWARZjRuTISHAUSERjSTIEFEL [24, S. 208-223J.
Es ist nicht uninteressant, unter dies em Gesichtspunkt die end-
lichen Algorithmen zu beleuchten. Bei der Kongruenztransformation
von HESTENES und STIEFEL wird der Defekt keineswegs in jedem
Schritt minimiert, ja er wird unter Umstanden nicht einmal kleiner,
wie die Abb. 32.3 zeigt, beim GAL'ssschen Algorithmus sogar gr6J3er!
Dennoch kommen be ide Verfahren nach n Schritten zum exakten
Resultat. Mit anderen Worten: bei den (theoretisch) endlichen Trans-
formationen spielt der Trend des Defektquadrats prinzipiell nicht die
mindeste Rolle, selbst dann nicht, wenn wie bei HESTENES und STIEFEL
der endogene Algorithmus iiber den aktuellen Defekt gesteuert wird.

33.10. Der vollstiindige Ritz-Ansatz


Was sich bei allen beschriebenen Algorithmen nachteilig auswirkt,
ist die von vornherein vorgenommene Verkiirzung des RITz-Ansatzes,
der nach RUGE [160J (zunachst fiir a = 1) vollstandig lauten miiJ3te

Z(IX, (3) = Zo IX - l' {3 = T IZ (71)


33.10. Der yollstiindige RITz-Ansatz 193
mit
T:= (ZO 1'), (72)
Nach Abb. 33.5 bedeutet dies, daS der Vektor Zo nicht mit 1 sondern

Y
mit der noch zu bestimmenden Variablen IX zu multiplizieren ist, wo-
durch eine sehr viel bessere Naherung erreicht werden kann (fiir n = 2
-i.r

Zc x

o
r
a b
Abb.33.5. a) Restringierte[ RITz·.\nsatz; b) H)llstdndiger RITz-AIlsatz nach ReGE

selbstredend beim erst en Schritt das exakte Ergebnis). Fiihren wir in


die Gleichung A ko = do den Ansatz (71) ein und multiplizieren von
links mit einer geeigneten ?lIatrix LT, so entsteht das zweireihige RITz-
Kondensat
(73)
und die Lasung IX ergibt den angenaherten Korrekturvektor
ko~TIX=TA-rLTdo. (74)
1st a > 1, so wird aUgemeiner
T = (zo; rr r 2 · .. 1'a) = (zO;Ra); IX = (IX; -f3r -f32'" -f3a)T, (74a)
das Kondensat (73) hat daher die Ordnung a 1. +
Analog geht man vor bei del Kongruenztransformation. Die durch
die Mitnahme der ersten Variablen IX bewirkte Konvergenzbeschleuni-
gung ist bei kleinen Ordnungszahlen durchaus beachtlich, faUt aber
schon ab n ~ 10 kaum mehr ins Gewicht.

33.11. Eine generelle Kritik

Ziehen wir eine Zwischenbilanz. Die hier unter dem iibergeordneten


Gesichtspunkt des RITzschen Verfahrens wiedergegebenen Relaxations-
methoden mit ihren zahlreichen Varianten und }Iodifikationen sind,
wie numerische Tests immer wieder bestatigen, enttauschend. Sie sind
entweder zu aufwendig oder aber zu langsam, meistens beides zu-
sammen und kannen daher den Praktiker "drauSen" wenig befriedigen.
Erst im optimalen Zusammenspiel der drei Grundgegebenheiten

: Aquivalenztransformation ~ Geometrische Reihe ~ Defektquadrat


194 § 33. Iterath'e und halbiterative ~fethoden

entsteht ein Algorithmus, der allen Anforderungen der Praxis gerecht


wird und den wir im nachsten Abschnitt beschreiben werden .

• 33.12. Der Algorithmus RapidoJRapidissimo


Wir lernen jetzt einen Algorithmus kennen, der fUr das spezielle
Gleichungssystem
(I - .1/) J: = a bzw. (I - .ll) k = d (75)
konzipiert ist. Den Korrekturvektor
k = (I - .ll)-1 d (76)
entwickeln wir in eine geometrische Reihe entweder additiv nach
(24.27) oder multiplikativ nach (24.29) und machen mit der so ge-
wonnenen Naherung eine :\Iinimalrelaxation mit N = I. Da nach (63)
der Parameter A ungeHi.hr gleich Eins sein muB, ist es zweckmaBig,
+
A = 1 e zu setzen, so daB e eine kleine GroBe wird. Damit ist die
Idee des Verfahrens beschrieben, Wir fassen das Gesagte zusammen zu
einer Programmieranleitung, die auch fUr den Leser verstandlich ist,
der den theoretischen Hintergrund des Verfahrens erst spater (oder
auch gar nicht) erarbeiten mochte.

Programmieranleitung zum Algorithmus RAPIDOjRAPIDISSIMO (77)


Gegeben das Gleichungssystem (I - .ll) J: = a, eine Naherung z und
ein Schwellwert ex.
START 1. Berechne den Defekt d = z - ~ll z - a.
ITERATION 2. Aufbau eines angenaherten Korrekturvektors J'i

RAPIDO RAPIDISSDlO
J'o = d J'o = d
J'1 = d + ill J'o .ll = : .110 -- J'1 = )'0 + .llo To
T2 = d + .11 J'1 illo .1/0 = : .lll -- J'2 = J'1 + .1I1 "'1
T._ 2 = d + ill "',__ 3 .1111 _ 3 11/11 _ 3 =: .11 11 _ = 1'a-2 + 1Ua _ 2 T a _2
2 -- "'11-1

T._ 1 = d + .11J·._ 2 J'11-1 = "'11-1 + ~11a_l(111a_l T a-l)

3. Aus dem letzten Yektor,,' berechne den Bildvektor


b = ). - .11 ". ,
4. den Differenzvektor
/=d-b,
33.12. Der Algorithmus RAPIDO/RAPIDISSBIO 195
5. den Parameter
b*f
e = b* b'
6. den verbesserten Xaherungsvektor
Z=Z-j'-ej'

7. und damit den verbesserten Defekt d nach Punkt 1.


ZIEL 8. Priife, ob
"
max Idjl
- ~ ex
j~l

erfUllt ist. Wenn nicht, wiederhole die Iteration ab 2.

Damit ist ein Durchlauf festgelegt. Der Algorithmus ist selbst-


korrigierend; zu Anfang darf daher gerundet werden (wichtig fUr den
Taschenrechner!) Der Index v kann in jedem Durchlauf gewechselt
werden. 1m erst en Durchlauf nicht zu hoch ansetzen, urn unnotige
Rechnerei zu vermeiden.
Die Giite des Verfahrens hangt in erster Linie ab von den Eigen-
schaften der :\Iatrix .11. \Vie wir wissen, konvergiert die geometrische
Reihe nur dann, wenn aIle Eigenwerte des Paares .11; 1 innerhalb des
Einheitskreises liegen; die Vektorfolge " j konvergiert dann gegen den
Korrekturvektor k. Trifft dies nicht zu, so wird mit jedem Iterations-
schritt die minimale Ordinate des Paraboloids der Abb. 33.4 b an-
gehoben, doch konvergiert das Yerfahren auch dann, falls nicht auf-
grund der erfUllten Lnitaritatsbedingung nach (64) die Situation der
Abb. 33.4c eintritt, was leicht zu vermeiden ist. Fazit: liegen einige
oder aIle Eigenwerte des Paares .11; 1 au13erhalb oder auf dem Rande
des Einheitskreises, so wird die Konvergenz so schleichend, da13 das
Verfahren praktisch zum Erliegen kommt.
Starthilfe. 1st keine bessere Xaherung Z fUr;r bekannt, so startet man
mit Z = 0, somit d = -.11 u.
Eine Bilanz. Die l\1atrix.l1 habe die Ordnung n, und es seien Q rechte
Seiten gegeben. Die Anzahl der yorgesehenen Iterationsschritte sei
v - 1 entsprechend der Entwicklung der geometrischen Reihe bis
(I - lW). Dann gilt bei vollbesetzter :\Iatrix .11
~ 0 RAPIDO
V = 2" ,; (2" - a-i) Q - (a - 2) n { - (77a)
~~~-----'
I ~ 0 RAPIDISSDIO.
1st lU hermitesch, so trifft dies auch fUr die Potenzen von .11 zu,
so da13 sich der Aufwand beim RAPIDISSDIO etwa halbiert, wahrend der
RAPIDO davon nicht profitieren kann. Wir haben dann die Bilanz

(2" - a-i) e- (a - 2) -n }
-~ 0 KUIDO ; .11 = .11* , (77b)
2 ~ 0 RAPIDISSDIO
196 § 33. IteratiYC und halbiteratiye :'IIethoden

1. Durchlauf 'P =8 2. Durchlauf v = 8


-0.111111110000000 -0.000000001096419
O.OOOOOOOOOOOOO~O 0.000000000000000
-2.366666670000000 0.000000003646280
0.454545450000000 0.000000004485349
-0.112424220000000 -0.000000022409376
0.000000000000000 r 0.000000000000000
0.000000000000000 0.000000000000000
-0.111111110000000 -0.000000001096419
0.000000000000000 0.000000000000000
-0.124242450000000 0.000000025774004

-0.099999999000000 -0.000000000986777
0.000000000000000 0.000000000000000
-2.400000002999999 0.000000003317355
0.499999995000000 0.000000004933884
-0.099999975000000 -0.000000024986777
0.000000000000000 b 0.000000000000000
0.000000000000000 0.000000000000000
-0.099999999000000 -0.000000000986777
0.000000000000000 0.000000000000000
0.099999972000000 0.00000002798677b

-0.000000001000000 0.000000000000000
0.000000000000000 0.000000000000000
0.000000003000000 0.000000000000000
0.000000005000000 0.000000000000000
-0.000000025000000 0.000000000000000
0.000000000000000 f 0.000000000000000
0.000000000000000 O.OOOOOOOOOOOOOJO
-0.000000001000000 0.000000000000000
0.000000000000000 0.000000000000000
0.000000028000000 0.000000000000000

0.132231335367145E-09 e 0.986776859042825E-08

1.111111110014692 1.111111111111111
0.000000000000000 0.000000000000000
2.366666670312947 2.366666666666666
4.545454549939895 4.545454545454545
1.112424220014866 1.112424242424242
0.000000000000000 Z
0.000000000000000
0.000000000000000 0.000000000000000
-7.888888889985308 -7.888888888888889
0.000000000000000 0.000000000000000
1.124242450016429 1.124242424242424

-0.000000000986777 0.000000000000000
0.000000000000000 0.000000000000000
0.000000003317355 0.000000000000000
0.000000004933884
-0.000000024986777
d
- 0.000000000000000
0.000000000000000
0.000000000000000 0.000000000000000
0.000000000000000 0.000000000000000
-0.000000000986777 0.000000000000000
0.000000000000000 0.000000000000000
0.000000027986777 0.000000000000000
Defektquadrat
0.144489421060098118E-14 0.40b3712182b 5 70b7b5E-30
33.13. ~ochmals ~achiteration. Abgeiinclerte Gleichungssysteme 197

und dies bleibt gultig auch bei nichthermitescher ~Iatrix "11, wenn die
Matrizenmultiplikation von WI,,"OGRAD nach Abschnitt 24.6 heran-
gezogen wird, die ebenfalls die Anzahl der ~Iultiplikationen halbiert.
Bei Bandmatrizen leidet der RAPIDISSDlO unter dem Kachteil, daB
bei jeder Potenzierung sich die Bandbreite von JIi verdoppelt, wahrend
der RAPlDO die Bandform erhalt. Die Bilanz gestaltet sich etwas platz-
raubend und sei daher dem Leser uberlassen.
Ein Beispiel. Gegeben"U und a, Start mit Zo = o. Algorithmus HAPIDO.

0,1 0 000 (1,1 0 () () 0 1


o 0 o (J 0 \I 0,2 (J I) 0
o () 000 (I u -n,3 I) n
o 0 o -0,1 0 U 0 I) 0,1 U
o o o o U I) \I IJ \I 0,1
o o o o o (I
" o
o o o o 0,2 0 () 0
o o o o o 0 o (I

o o o o o () o 0
0,1 o o o o (I () - 0, 1

r -0,1
o 0,0
o -2,4
0,5
-0,1
a= do = -.Ua = d[ do = 6,05·
o 0,0

I 0,0
-0,1
o,n
J

l n,1

Die Tabelle auf Seite 196 enthiilt die Resultate filr zwci Durchliiufe yon je
sieben Schritten (d. h. v = 8; Ziihlung im Programm (77) beachten!). Das Ergeb-
nis ist zufriedenstellend. Der Leser filhre noch kleinere Defekte herbei.

.33.13. Nochmals Nachiteration.


Abgeanderte (benachbarte, gestorte) Gleichungssysteme

\Vir kommen nochmals auf die bereits in Abschnitt 33.4 diskutierte


Fragestellung zuruck. Das vorgelegte Gleichungssystem .4 x = l' bzw.
A k = d wird transformiert auf

LARy = L1'; x=Ry (78)


bzw.
LARv=Ld; k =Rv, (79)
198 § 33. Iterative und halbiteratiYe Method en

wo LA Reine theoretiseh angestrebte, infolge der Rundungsfehler


jedoeh nieht erreiehbare Zielmatrix Z ist, etwa eine obere oder untere
Dreieeksmatrix, Diagonalmatrix oder aueh eine formelmaf3ig inver-
tierbare Matrix wie etwa (24.81), und andere. Auf jeden Fall solI Z
gut konditioniert und sieher invertierbar sein. In der ~lasehine ent-
steht nun das dreifaehe Produkt
LAR=Z-d; d=Z-LAR (80)
mit einer Diskrepanzmatrix ,1, die explizit zu bereehnen ist. Multipli-
zieren wir die Gleiehung
L.4 R 1" = (Z - d) v = L d (81)
von links mit der Inyersen yon Z, so wird
(I - Z-1 d) 1" = Z-1 L d (82)
oder
(I - .ll ) 1) = a, (83)
wodureh die Matrix ill und die reehte Seite a aus (75) identifiziert sind,
und damit gehen wir in den Algorithmus RAPIDO ein:
1'j = d +.ll 1'j_1 = cl + Z-1 ,1 1'j_l . (84)
Ohne daf3 die :'IIatrix ill selbst bekannt sein miif3te, vollzieht sieh daher
der Sehritt 2 aus dem Programm (77) in drei Partikeln:
2a) Reehne
,1 1'j_l =: %-1 . (85)
2b) Lase das Gleiehungssystem
Z Pj-l = qj-1 -+ Pi-1 . (86)
2 e) Iteriere
1'j = cl + (1'j_1 - Pi-I) , (87)
wo der in Klammern gesetzte Differenzvektor gegen Kull strebt.
Nun zum Start. 1st keine bessere Naherung y fUr y bekannt, so
ersetzt man L A R dureh die Zielmatrix Z und hat damit naeh (78)
Z Y= L l' -+ Y= Z-1 L l' (88)
mit dem Defekt
d = L A R Y- L l' = L .4 R . Z-1 L l' - L l' =
= (L .4 R Z-1 - I) L l' = -.ll L r . (89)

Wir sehen: bei fehlerfreier Reehnung ist L .4 R = Z, somit ill = 0; es,


verschwindet damit der Defekt d, und y ist gleich der Lasung y = R- 1 x
wie es sein muf3.
33.13. Nochmals Nachiteration. :\bgeanderte Gleichungssysteme 199

Der RAPIDIssnlO Iohnt sich vor allem bei yielen rechten Seiten und
wenn die Norm von ill so groB ist, daB yoraussichtlich sehr viele
Durchlaufe mit relativ hohem Index v zu fahren sind. \'orweg muB die
:Matrix ill nach (84) explizit berechnet werden, sonst yerHiuft alles wie
in (77) beschrieben; siehe auch die Bilanz im Absclmitt 33.9. Fur
jeden neuen Start wird mit der letzten :;\"aherung z am Originalsystem
der Defekt d = .4 z - )' bereclmet, was einer totalen Regeneration
(Auffrischung) gleichkommt.
An unserer Vorgehensweise stort noch, daB der Yektor y und nicht x
seIber berechnet wird. Bei der erforderlichen Rucktransformation
x = R Y entstehen namlich neue FehIer, die die erreichte Genauigkeit
wieder in Frage stellen. ::\Ian wird daher wenn irgend moglich R = 1,
somit y = x set zen und sich entweder mit Z = '\J (Elevator, Reflektor,
Kalfaktor) zufriedengeben oder aber die <'ollstiilldige Reduktion per
Elevator auf eine Diagonalmatrix Z = D durchhihren; der Leser ver-
gieiche dazu Abschnitte 28.2 und 28.5. Bei hermitescher ::\Iatrix .4
faUt die Entscheidung schwer; denn hier ist einerseits L = R *, was
hir die Kongruenztransformation R * ..I R = Z - d nur etwa den
halben Aufwand bedeutet, doch ware dafiir der geschilderte Nachteil
in Kauf zu nehmen. Dies wird man auch dann tun, wenn A extrem
schwach besetzt ist (Inzidenzmatrizen!) und die Basis R entweder an A
seIber oder an A * IV A, speziell A * A mit Hilfe der endogenen Kon-
gruenztransformation von HESTENES und STIEFEL erzeugt wird, welche
im Gegensatz zur exogenen Transformation per EleyatorjReflektorj
Kalfaktor die Matrix A nicht zerstort.
Zur Konvergenz. Die Eigenwerte des Paares .ll; 1 sind dieselben wie
die des Paares d; Z. Sie sind samtlich gieich ~ull, wenn die Diskrepanz
verschwindet; in praxi werden sie daher urn so kleiner ausfallen, je
kleiner die :Norm von A und je besser die Kondition yon Z ist. Erst bei
extrem schlechter Vortransformation konnen einige oder alle Eigen-
werte auBerhalb des Einheitskreises liegen, doch konvergiert das Ver-
fahren selbst dann noch.
Wir kommen jetzt zu den abgeanderten Systemen. Es sei die
Gieichung A x = )' mittels Aquivalenztransformation gelost worden
und nachtraglich - oder auch zeiihrend der Rechnung, was durchaus
praktikabelist !! - werden A undjoder)' abgeandert in A -'- B undjoder
r + s. Man behalt dann die jetzt falschen Transformationsmatrizen L
und R bei (sie waren beim Originalsystem schon falsch infolge der
Rundungsfehler) und ersetzt im nachsten Durchlauf des RAPIDOj
RAPIDISSDIO Iediglich A durch .4 + B undjoder )' durch )' + s. Neu
gestartet wird mit d = (A + B) z - (J' -+- s), wo z die Ietzte Kaherung
ist.
200 § 33. Iterati"e und halbiteratiw :\Iethoden

Ein Beispiel. Die Abb. 33.6 zeigt ein Gewicht am Ende einer (durch Diskreti-
sierung eines Seiles entstand enen) homogenen Federkette. Die Gleichgewichts-
bedingung lautet AR;r = T = ell' III gle mit der :\Iatrix (24.81). Gesucht ist der
Vektor ;r der Auslenkungen. \Vir unterlassen jede Trans formation, set zen also
L = R = lund erklaren die Hauptdiagonalmatrix Z = Diag (222 . .. 22 1)

c
,J
c
c

c ::t
c

.-\bb.33.6. Homogenc Federkette mit Endgewicht

zur Zielmatrix. Die Diskrepanz ist somit .1 = K (17.39). Fiir 1Z = 50 wurd e nach
dem RAPlDlSSIMO gerechnet (vgl. S. 201). Das exakte Ergebnis ist nach (24.81)
;r = (1 2 3 . . . 48 49 50) T .
Empfehlung. Als Zielmatrix die obere Dreiecksmatrix wahlen und die striktc un-
tere Dreiecksmatrix als Diskrepanz. Die Konvergenz ist bedeutend besser .

• 33.14. Zusammenfassung
Die Dbersicht auf Seite 202 zeigt den Inhalt der §§ 32 und 33, auf-
gegliedert in die drei Grundgegebenheiten
Aquivalenztransformation /Geometrische Reihe/Defektminimierung.
:Ylehr als das halt die numerische lineare Algebra - zur Zeit - nicht
bereit, sieht man einmal ab von kurzlebigen :'IIodeerscheinungen wie der
:Monte-Cario-Methode und einigen anderen Varianten von neben-
geordneter Bedeutung. die wir nicht beschrieben haben. }Ian darf aber
auf die Entwicklung in den kommenden Jahren gespannt sein, denn
vermutlich wurde das letzte Wort zur Gleichungsauflosung noch nicht
gesprochen.
33.14. Zusammcnfassung 201

1. Naherung 5. Naherung 9. Naherung


0.839216853255766 0.999999721626216 0.999999999999533
1.678769460993081 1.999999443833743 1.999999999999067
2.516322068730389 2.999999166041271 2.999999999998600
3.358880614845710 3.999998889990441 3.999999999996137
4.199439160961017 4.999998613939612 4.999999999997674
5.041669659380236 5.999998340783881 5.999999999997216
5.883900557199434 6.999998067628151 6.999999999996759
6.728463023241292 7.999997798509550 7.999999999996301
7.573025488683123 8.999997529390950 8.999999999995856
8.420570133466190 9.999997265435579 9.999999999995412
9.268114778249221 10.999997001480207 10.999999999994968
10.119280245415864 11.9999967~3793783 11.999999999994533
10.970445712582466 12.999996486107356 12.999999999994096
11.825856355469965 13.999996235770862 13.999999999993671
12.681266998357418 14.999995985434366 14.999999999993245
13.541530416563057 15.999995743499775 15.999999999992831
14.401793834768643 16.999995501565177 16.999999999992411
15.267~98476233139 17.999995269051304 17.999999999992010
16.133203117697573 18.999995036537431 18.999999999991605
17.004915956370255 19.999994614425921 19.999999999991221
17.676628795042669 20.999994592314408 20.999999999990836
16.754693093293799 21.999994381545839 21.999999999990472
19.63315739154~646 22.999994170717274 22.999999999990109
20.518490556154426 23.999993972247466 23.999999999989765
21.403823720764120 24.999993773717666 24.999999999989424
22.296715260952903 25.999993588274140 25.999999999989100
23.189606601141604 26.999993402830619 26.999999999988781
24.090516396696142 27.999993231269244 27.999999999988482
24.991425992250591 28.999993059707876 28.999999999988181
25.900781679373615 29.999992902769746 29.999999999987914
26.610137366496530 30.999992745831619 30.999999999987644
27.726333848538291 31.999992604200106 31.999999999987395
26.6~6530330579942 32.999992462566589 32.999999999987150
29.573927420318888 33.999992336866658 33.999999999986933
30.501324510057710 34.999992211164724 34.999999999986716
31.436245709678029 35.999992101952476 35.999999999986528
32.375166909298223 36.999991992740224 36.999999999986336
33.321898133668721 37.999991900512679 37.999999999986180
34.268629358039085 38.999991608265134 38.999999999966020
35.225411806332143 39.999991733470285 39.999999999985892
36.182206254625079 40.999991658655436 40.999999999985761
37.149259434729220 41.999991601612553 41.999999999985661
38.116312614833234 42.999991544569674 42.999999999985562
39.093797524409538 43.999991505587897 43.999999999985494
40.071282433985715 44.999991466606119 44.999999999985427
41.059324901400366 45.999991445903298 45.999999999985391
42.047361368814893 46.999991425200477 46.999999999985356
43.046051556548985 47.999991422922328 47.999999999985352
44.044735744282956 48.999991420644132 48.999999999985345
45.044735744283017 49.999991420644182 49.999999999985345

-0.010641720319565 -0.000000016424672 -0.000000000000036

AR X = en (24.81) mit n = 50. RAPIDISSIYlO Start mit z = 0, jeweils a = 13,


neun DurchUiufe, davon die I., 5. und 9. Niiherung ausgedruckt. Ganz unten das
betragsgrol3te Defektelement.
tv
o
tv
Endlich ("exakt") Halbiterativ Iterativ
--,~---

Konzept Ahnlichkeitstransformation geometrische Reihe Defektverkleinerung


-----

additiv I muJtiplikativ
Durchgeffihrt an (stationar) (instationar)
W>
der Gleichung AlI~r (11 _.. N) x = ,. .1 * N A x = .1 * N ,. vJ
-.--- -.--- v,
A ~~ IJ .1 Il, :r = L ", x ,- 1111 mit Sonderfall A * N ' , I ffir ......
-.--- ....
A· ,- .1 pos. clef. '"...
~
~-~--

::to
Konvergenz entfallt (}(N; 11) < 1 uneingeschrankt -:
'<="
::I
.1 Po
::I"
Zu invertieren ist ~
.·1 . ~ (iii hzw . .1 jj 11 fiji hzw. Ajj
0::
;:;:
gewi\hnlich dyadisch
~
...'"
....
exogen: Treppen- SIEBENMEILEN- :::"
Tllinimalreiaxation I 'Oller- oder
(;AUSS, i iteration STIEFEL
Unterrelaxation ':::::"
HOUSEHOLDER, unfihlich GAUSS, SCHULZ
exogen: Spalten- ....
'::I""
Algorithmus i. allg. altcrnativ . SElI>EL,
I NEKRASSOW iteration 8-
cndogcn: '"::I
unfiblich HESTENES endogen: (;raclien-l
unci STIEFEL tenverfahren u. a.
--_. ~-- -" ---

Algorithmus Ao~/JAIl=Z-!l HAPlI>O RAPIDISSIMO Dcfcktminimicrung


(}(!l; Z) < 1

Bei schlechter Konclition ist in jedem Fall cine vorgezogcnc J Al'OBI-Hotation erfordcrlich mit Nivcauh6hc E ~ II.S his 11/).
34.2. Auflosung des Gleichungssystems A.K = I 203

§ 34. Kehrmatrix. Endliche und iterative Methoden


• 34.1. Ubersicht. Zielsetzung
Die explizite Berechnung der Inversen einer regularen quadratischen
Matrix wird bei gewissen Anwendungen erforderlich und stellt besonders
dann ein Problem dar, wenn die Elemente der :\Iatrix A. bzw. F(A)
keine vorgegebenen Zahlen sondern formelmaf3ig gegebene Ausdriicke

. .•• ),
sind, etwa

A ~ C~"~' :~,;
"(A) ~ C.~.~. ~~: . . ;~ ~~~:~: . ),
wo F(A) beispielsweise die :\latrix (21.45) der gedampften Schwingung
(1)

mit vorgegebener Kreisfrequenz A sein kann; Kreisfunktionen treten


auf beim Knickstab der Abb. 41.2.
Wie wir im Abschnitt 3.2 sahen, stehen der formelmaf3igen Berech-
nung auch solcher Inversen iiber den "'eg der adjungierten :\Iatrix
grundsatzlich keine Schwierigkeiten entgegen, doch wachst der dazu
erforderlich Rechenaufwand mit steigender Ordnungszahl n rasch ins
Uferlose und fiihrt mit jedem Schritt auf langer werdende Formelaus-
driicke. Wir beschranken uns daher in den folgenden Abschnitten auf
Matrizen mit vorgegebenen komplexen oder reellen Zahlen.
Ein bewahrtes Standardverfahren besteht in der Auflosung von n
separaten Gleichungssystemen (3) nach irgendeinem der in den voran-
gegangenen §§ 32 und 33 geschilderten :\Iethoden mit nachfolgender
Einschlief3ung der einzelnen Elemente, siehe dazu auch (34.4). Typisch
fiir die echten oder direkten Inversionsverfahren ist aber gerade die
Nichtzerlegbarkeit des Algorithmus in seine n Spalten nach 0). \Yir
beschreiben als die wichtigsten Vertreter dieser Klasse den ESC.\U.TOR
und die halbiterative :\Iethode von SCHULZ. Ihr nicht zu iibersehender
Nachteil besteht darin, daf3 Parallelrechnung nicht moglich ist, wahrend
die Auflosung des Gleichungssystems .4 K = I diese wenigstens
streckenweise gestattet .

• 34.2. Auf16sung des Gleichungssystems .-lK = I


Schreibt man die Inverse von A spaltenweise
A-1 = K = (k1 k 2 • •• kn) , (2)
so geniigen die 11 Spalten k i den 11 separaten Gleichungen
Aki=e j ; j=1,2, ... ,11, (3)
die gleichzeitig und unabhangig voneinander aufzulOsen sind, sobald die
204 § 34. Kehrmatrix. Endliche und iterative ~rethoden

Matrix A auf eine gut zu invertierende Zielmatrix LA R = Z trans-


formiert wurde. Da dies bei groBen und schlecht konditionierten Ma-
trizen nicht fehlerfrei abHi.uft, empfiehlt sich als Nachkorrektur der
Algorithmus RAPIDO/RAPIDISSDIO aus Abschnitt 33.13. Da dieser mit
n rechten Seiten durchzufuhren ist, taUt in der Bilanz (33.77) der Faktor
e = n heraus, und es zeigt sich, daB bei vollbesetzter :\Iatrix A der
RAPIDISSIMO fur jede OIdnungszahl n wirtschaftlicher arbeitet. Bei
schmalen Bandmatrizen und nicht zu hohem I terationsindex v dagegen
kann der RAPIDO im Vorteil sein.
Ein Beispiel. Die Matrix (24.81) ist fiir 11 = 10 zu invertieren mit Hilfe des
RAPIDISSIMO. Wir unterlassen die Aquh'aIenztransformation und machen die
Aufteilung A = Z - A mit Z = Diag (222 ... 2 1), ein radikales Yorgehen, das
dennoch zum Ziel fiihrt. Gerechnet wurde fiir jede rechte Seite e 1 . . . e 10 ein Durch-
Iauf mit v = 12. Das Ergebnis zeigt die nachfolgende Tabelle; man yergleiche die
exakte Inverse (24.81). Unterhalb jeder Spalte wurde das betragsgro13te Element
des letzten Defekts ausgedruckt.
1.000000000000000 0.999999999999999 1.0009000U00000JI
1.000000000000000 1.999999999999999 2.000000000000001
1.000000000000000 1.999999999999996 3.000000000000002
1.000000000000000 1.999999999999996 3.000000000000002
1.000000000000000 1.999999999999993 3.000000000UOOU02
1.000000000000000 1.999999999999996 3.000000000000002
1.000000000UOOOOO 1.999999999999998 3.000000000000002
1.000000000000000 1.999999999999993 3.0000000000000U2
1.000000000000000 1.999999999999998 3.000000000000001
1.000000000000000 1.99999999999999d 3.00JOOOODOOOOOJ2

0.000000000000000 0.000000000000000 0.OOOOOOOJO~1UD~1

0.999999999999999 0.999999999999999 1.0000000UOOOOOOO


1.999999999999997 1.99999999999999~ 1.999999999999997
2.999999999999997 2.999999999999997 2.999999999999999
3.999999999999996 3.999999999999997 3.999999999999999
3.999999999999996 4.999999999999997 4.999999999999999
3.999999999999996 4.9~9999999999996 6.JOOOOOOJOOOOOOO
3.999999999999996 4.999999999999996 5.999999999999999
~.999999999999995 4.9~999999q~99996 5.999999999999999
!.999999999999996 4.999999999999996 5.999999999999999
3.999999999999996 4.999999999999995 5.999999999999999

0.000000000000001 0.000000000000002 -0.000000000000002

1.000000000000001 0.999999999999999 1.000000000000001


2.000U00000000002 1.999999999999998 2.000000000000002
3.000000000000004 2.999999999999997 3.000000000000003
4.000000000000005 3.999999999999996 4.000000000000004
5.000000000000007 4.999999999999996 5.000000000000006
6.000000000000008 5.999999999999996 6.000000000000006
7.000000000000010 6.999999999999995 7.000000000000008
7.000000000000010 7.999999999999995 6.000000000000009
7.000000000000010 7.999999999~99994 9.000000000000010
7.000000000000010 7.999999999999994 9.000000000UOOOIO

-O.OOOOOOOOOOOOOUI -0.000000000000001 0.000000000000001


34.3. Die Eskalatormethode der sukzessiyen Randerung 20;

O.999999999999ry98 Die ,\nordnung der Spalten "'j der Kehrmatrix


1.999999999~99996
2.9~9999999999994
K = .,1- 1 ist auf S. 204 nach dem Schema
3.99999999,999993 H1 I~:! k3
4.999999999999992 H,,
5.999ry99999999990
k4 k6
6.999999999999988 H, k8 k9
7.999999999999987
erfolgt. Links ist k '0 ausgedruckt.
g.999999999999986
9.9999999999999U6

-O.OOOOOOOOOOOuOOl

Dem Leser sei empfohlen, als Zielmatrix die Hauptdiagonale und dazu die obere
(untere) Kodiagonale zu wahlen; die Diskrepanzmatrix enthalt dann auGer ::-':ullen
nur die negative untere (obere) Kodiagonalc yon ...1. Die KOl1\'ergenz ist jetzt
weitaus besser, da die Eigenwerte des Paares j ; Z sehr yiel betragskleiner sind als im
obigen Beispiel, wie man sich leicht uberlegt.

.34.3. Die Eskalatormethode der sukzessiven Randerung

Dieser Algorithmus, dessen Entstehungsgesehiehte bei ZIELKE ~28,


S. 54J naehzulesen ist, basiert auf der geranderten :\Iatrix (22.57) und
ihrer Inversen (22,58). Ersetzen wir dort die Kehrmatrix von A 22 , red
naeh (22.43 d) und fiihren die folgenden Abklirzungen ein
(4)
(5)
so wird

(6)

1st also C 22 = Ail bereehnet worden, so gelingt die Inversion der


geranderten Matrix ohne Sehwierigkeit. Geht man, mit der zwei-
reihigen Untermatrix unten reehts in .4 beginnend, rekursiv von unten
reehts naeh oben links vor - was der Kame Eskalator besagt -, so ist
der Algorithmus bereits ausreiehend besehrieben. Yoraussetzung ist
allerdings, daB samtliche Hauptminoren der regularen :\Iatrix "4 ihrer-
seits regular und damit die reduzierten Elemente (5) von Null ver-
schieden sind, was in praxi nicht immer zutreffen wird.
Es sei nun A und dam it J{ hermitesch. Dann ist au ebenso wie b
reell, und (6) geht liber in

-b-l1"~l )
(7)
1
(22,b
I -1 '" <1*
'21 1 21
'
206 § 34. Kehrmatrix. Endhche und iterative )Iethoden

und da nun alles hermitesch abHiuft, braucht nur die Hauptdiagonale


und der rechte obere (oder linke untere) Dreiecksteil berechnet und
gespeichert zu werden. 1st insbesondere A positiv definit, so sind auch
alle Hauptminoren positiv definit und damit regular, so daB der AIgo-
rithmus sicher zum Ziele fUhl t.
Die :\lethode zeichnet sich durch einen storungsfreien automatischen
Ablauf aus und erfordert bei vollbesetzter :\Iatrix rund n 3 Operationen,
das ist nach Tabelle 24.1 das gleiche wie beim GAussschen Algorithmus.
Bei diesem reduziert sich der Aufwand fiir hermitesche (reellsymmetri-
sche) Matrizen auf rund 2 /13/3 Operationen, beim Eskalator dagegen
auf n 3 /2. Dieser Rechenvorteil riihrt daher, daB die Symmetrie der
:\latrix zufolge der Yorgehensweise nach (7) vollstandig - und nicht
nur teilweise wie bei GAUSS bzw. CHOLESKY - genutzt wird.
1st A bandformig, so ist zwar die Kehrmatrix im allgemeinen voll-
besetzt, doch geht der Rechenaufwand genau so zuriick wie beim
GAussschen Algorithmus bzw. der Dreieckszerlegung nach BANACHIE-
WICZ bzw. CHOLESKY.
Erstes Beispiel. Zu im'ertieren ist die recllsymmctrische vierreihige )Iatrix KR
(24.81)

RR r
= ( : : : :)'
.
123 3
1 23+
1. Schritt. Vorbereitung nach (+) und (5). Die zweircihige )Iatrix untcn rechts in A
wird nach (3.19) exphzit invcrtiert, sod ann der Vektor 1: 21 , ferner der Skalar (j be-
rechnet.

c
22
= (3 3)-1 = (4/3 -11) ,
3 4 -1

Mit diesen GraBen beginncn wir:


Element oben links ku = 0- 1 = 3/2,

linker Rand k21 = -0- 1 1'21 = _ 3-


-2 (2(/,)3) -_ (-0 1 ),

)Iatrix unten rechts

= (4/3
-1
-1) +- ~(4/9 0)o
120
= (
-1
2 -1),
1

und damit ist die dreircihige )Iatrix unten rechts in B invertiert:

2 2 2' (3/2
(
: : ;) ~ -:,
-I
34.4. Das \"crfahren yon SCHULZ 207

2. Schritt. Mit
3/2
V 21 = C 22 a 21 = ( - 1
, 0
folgt der Reihe nach:
Element oben links

linker Rand

:VIatrix unten rechts K22 = ('22 - ,)-l t'l2 rL


{}CJ
= (:: -: _I:) _ 2(1:::: ::) = (_~ -: _~I),
o -1 1 II n II II -1 1
und damit wird endgultig

KRI = AR = ( _~I -: _I; -1 2-1


;11)

II II -1 1
man vergleiche (24.81).
Zweites Beispiel. Die Tridiagonalmatrix ;IN (24.81) wird maschinell inycrtiert
fur n = 500 bei 16-stelliger :\Iantisse. Die 500 Elemente dcr letzten Spalte aus KR
(24.81) werden ausgedruckt als
1,00000000000000000 2,00000000110111 111111 I on . .. SIIII,OoOnOI 1(1111) O()()OUO .
Der Algorithmus arbeitet rundungsfehlerfrei, da aile Hauptabschnittsdcter-
minanten von rechts unten aufsteigcnd den \Yert Eins haben, so daLl nicmals di\'i-
diert werden muLl. Der Leser yertausche die Elemcnte all und a,,,, oder ziehe den
Eskalator von oben links nach unten rechts durch (was beides auf dasselbe hinaus-
lauft) und uberzeuge sich yon dem Auftreten der jetzt um'enneidlichen Rundungs-
fehler, entstanden durch Diyision. Ein lchrreicher \" erglcich!

34,4, Das Verfahren von Schulz


SCHULZ [161] benutzt den auf der multiplikativen Form (24.29) der
geometrischen Reihe basierenden Algorithmus SIEBE:'OIEILENSTIEFEL
und hat damit die Iterationsvorschrift 03.28) bis 03-30), wo nun die
spezielle rechte Seite R = 1 einzusetzen ist
SIEBENlIIEILENSTIEFEL

Xo = H-l (8)
X i + 1 = (1 + .U2i) Xi j = 0, I, 2, ... , a - I (9)
X = (1 - .UV) X,'_l; v = 2" (10)
208 § 34. Kehrmatrix. Endliche und iterative :Vlethoden

Die Iterationsmatrix ill wird hier gleich der Defektmatrix


1U = 1l- 1 N = 1l- 1 (.4 - Il) = 1l- 1 A - 1=: LJ , (11)
was so oder so aufgefaJ3t werden kann:
a) entweder ist die }Iatrix Xo als erste Naherung vorgegeben, dann
ist ill = 1l- 1 A - I zu berechnen;
b) oder man trennt von A einen geeigneten regularen Hauptteil II ab
und hat damit Xo = 1l- 1 und ill = H-1 N.
Auf jeden Fall aber lautet die Iterationsfolge mit den explizit zu
berechnenden Potenzen von .ll oder aber, was dasselbe ist, den Pro-
dukten Mv M,. wie schon in 03.77)
a = 0: .1I = : J/o
a = 1: ~llo "llO = : .1I1
(12)
a = 2: il/1 J/1 = : "1l2
usw.
Das Verfahren konvergiert - und zwar quadratisch -, wenn samtliche
Eigenwerte des Paares N; H bzw. "1I; I innerhalb des Einheitskreises
der komplexen Zahlenebene liegen. Da dies im allgemeinen nicht
nachprufbar ist, startet man die Folge (12) auf \' erdacht und erkennt
am Zuruckgehen der Potenzen von "'1, ob Konvergenz vorliegt oder
nicht. Falls nein, hat man entweder eine bessere Naherung Xo zu
wahlen oder eine normkleinere ?lIatrix N = A - II von "4 abzu-
trennen.
N ach dem letzten Iterationsschritt erfolgt eine EinschlieJ3ung der
Kehrmatrix X pauschal bzw. einiger oder aller ihrer Elemente einzeln,
naheres dazu im Abschnitt 34.5.
Ein interessanter Zusammenhang zwischen der Iteration von SCHL:LZ
und der Identitat von WOODBURY (22.69) wird von ZIELKE 128, S. 77J
aufgezeigt.
Erstes Beispiel. Zu invertieren ist die :Vlatrix A nach der :Vfethode von SCHVLZ.
'Vir wahlen die nachfolgende Aufteilung und starten mit der ersten Naherung
Xo = H-l, \Vomit auch die Iterationsmatrix .ll festliegt .

.4=( -1/2
1 -1/3),
1
1 I)),
II=( -1/2 I
s=n-cl=(U() 1/3) , ()

II-I = (1
1/2 1
I)) , .ll = H-l S = (0
()
1/3).
1/6
Die Eigenwerte cles Paares .11; 1 sind i' I = 0 unci i' 2 = 1/6, so daf.l eine hervorragende
Konvergenz zu er\Varten ist. Die Potenzen cler :Vlatrix .11 lassen sich hier explizit
angeben, unci zwar ist

.lJ>=6-'(~ ~), cx=I,2,3,oO'

1. Schritt. Xl = Xo + .1lXo = ~(14 4).


12 7 14
34·5. Einschlief3ung der Elemente einer Kehrmatrix 209

2. Schritt. X 2 = Xl = lU2XI = __1__ (5 1 8 17 2 ) = (1,1990N 0,398148).


12· 36 259 518 0,;99537 1,199074

Diesc Naherung fiir A-I = (1,2 0,4) ist schon ausgezeichnet. Der Leser rechne
noch einige Schritte. 0,6 1,2

34.5. EinschlieBung der Elemente einer Kehrmatrix


Wurde fUr die Inverse von A nach irgendeinem Algorithmus eine
Naherungsmatrix Z = (Zl Z2 . . . zn) berechnet oder liegt aus einem
abgeanderten (benachbarten, gestorten) Problem eine solche Naherung
vor, so hat man die n Gleichungen
a = 1, 2, ... , II (13)
und damit die n Korrekturgleichungen
A k" = do; a = 1,2, ... ,It. (14)
SolI nun das Element rxik der Inversen A-I = (rx jk ) eingeschlossen
werden, so wahle man a = k und gehe damit in die EinschlieBungen
(31.19) bzw. (31.20) ein.
Ein Beispiel. Zur Matrix A gehore die Nahcrungsim'crse Z:
20 -1
° ° ° 0,050 0,002
° ° °
A=
-1 20 -1
° ° 0,002 0,050 0,002
° °
° -1 20 -1
° Z=
°0 0,002 0,050 0,002
° (a)

° °-1 20 -110 ° 0,002 0,050 0,005

° ° ° -1 ° 0
Wir berechnen die Matrix der Defekte (13) und bekommen
0 0,005 0,100

0,002 0,010 0,002 0 0


0,010 0,004 0,010 0,002 0
"4Z-I=D= - 0,002 0,010 0,004 0,010 0,005 = (d jk )· (b)

°
0
0,002
0
0,010
0,002
0,007
0
0
0,005
Fiir die Kehrmatrix K = (kjk) bekommt man nach einiger Rechnung Schranken
fiir aile 25 Elemente; sieben von ihnen sind in der nachfolgenden kleinen Tabelle
zusammengestellt.

Untere
Schranke
Exakt Obere
Schranke
~----.--
JNah:~~
kll 0,050042 0,050126 0,050158 0,050
k22 0,050083 0,0502;2 0,050317 0,050 (c)
k33 0,050082 0,050252 0,050318 0,050
ku 0,050252 0,050378 0,050448 0,050
kaS 0,100421 0,100504 0,100579 0,100
k21 0,002418 0,002513 0,002582 0,002

°
k ls - 392,8 . 10- 7 6,329' 10- 7 392,9' 10- 7
X. Kapitel

Die lineare Eigenwertaufgabe

In diesem Kapitel befassen wir uns mit den numerischen Aspekten


der !inearen Eigenwertaufgabe
F(}.) x = (A -), B) x = 0;
wo nun unsere Kenntnisse und Erfahrungen aus den Kapiteln VIII und
IX in mehrfacher Weise zusammenflie13en:
--------------
Transformation ¢=} Auflosen von Gleichungssystemen !

Eigenwertproblem

Zwei ihrem Wesen nach verschiedene .-1.ufgabenstellungen sind dabei zu


unterscheiden:
a) Die vollstandige Eigenwertaufgabe, d. h. die Ermittlung des ge-
sam ten Spektrums und - falls erforderlich - auch der :\Iodal-
matrizen der Links- und Rechtseigenvektoren bzw. Hauptvektoren.
b) Die unvollstandige oder partielle Eigenwertaufgabe, sogenannte
selektive oder Extraktionsmethoden. Hier werden nur einige wenige
Eigenwerte mit oder ohne die zugehorigen Eigen- (bzw. Haupt-)
vektoren ermittelt.
Beziiglich der numerischen Durchfiihrung unterscheiden wir vier
Klassen:
I. Determinantenalgorithmen, § 37,
II. Extremalalgorithmen, § 38,
III. Unterraumtransformationen, § 39,
IV. Potenzalgorithmen, § 40.
Einige Algorithmen gehoren gleichzeitig in mehr als eine dieser Klassen,
so die Rotation von JACOBI (II und III) und andere.
Unabhangig von dieser Klassifizierung ist yom Standpunkt des
Anwenders die Einteilung in drei Arbeitsgange von sehr vie I gr613erer
Bedeutung:

1. Arbeitsgang 2. Arbeitsgang 3. Arbeitsgang


Sondieren Berechnen Einschliessen
---- ------ .. ------ - - -
35.2. Cmordnung des Spektrums mit Hilfe yon ~Iatrizenfunktionen 211

Zur Sondierung werden Algorithmen Yerwendet, die zunachst die Ei-


genwerte gruppenweise oder einzeln zu trennen versuchen. Sowie diese
Trennung erkennbar wird, werden diese im allgemeinen vie I zu auf-
wendigen Algorithmen verlassen, und man geht zur gezielten Berech-
nung einiger oder aller interessierenden Eigenwerte iiber. 1m dritten
Arbeitsgang schlief31ich erfolgt eine unerlaf31iche EinschlieBung der
Eigenwerte und, wenn moglich, auch der Eigenvektoren.
Bevor wir in den §§ 37 bis 40 die wichtigsten der heute bekannten
Eigenwertalgorithmen (im Jargon der ::\ umeriker "Eigenloser") be-
schreiben, stellen wir im § 35 einige immer wieder benotigte Grundtat-
sachen zur Spektralumordnung und im § 36 eine Reihe von Ein-
schlieBungssatzen vor.

§ 35. Spektralumordnung und Partitionierung


.35.1. Uberblick. Zielsetzung
Zahlreiche Eigenwertalgorithmen mach en eine vorangehende oder
intermittierende partielle Cmordnung des Spektrums erforderlich oder
lassen sie zumindest geraten erscheinen. Dies kann auf zwei ihrem
'Vesen nach grundsatzlich verschiedene A.rten geschehen, und zwar
1. mit Hilfe von :\Iatrizenfunktionen ohne Kenntnis von Eigen- (bzw.
Haupt-)vektoren und daher fehlerfrei durchfiihrbar, oder aber
2. unter Verwendung einiger Links- undjoder Rechtseigenvektoren
(bzw. -hauptvektoren), die im allgemeinen jedoch nur als Xaherun-
gen vorliegen, so daB alle darauf basierenden l\achfolgerechnungen
fehlerbehaftet sind. Hier unterscheiden wir
2 a) additive :Methode: Spektralumordnung per Eigendyaden,
2b) multiplikative :\Iethode: Partielle oder unvollstandige Haupt-
achsentransformation. In diese Gruppe gehort auch die Me-
thode des sukzessiven AuslOschens unter gleichzeitiger Produkt-
zerlegung der Modalmatrizen r und X.
Wir erinnern bei dieser Gelegenheit daran, daB bei normalen Paaren
A; B die LinkseigenYektoren
Yj=x i bzw. Yj=,rj,
T *. .
)=1,2, ... ,11 (1)
ohne zusatzliche Rechnung anfallen, womit der fiir die Prozeduren der
zweiten Gruppe erforderliche Rechenaufwand sich durchweg halbiert .

• 35.2. Umordnung des Spektrums mit Hilfe von Matrizenfunktionen.


Schiftstrategien
Die Grundidee dieser Verfahren besteht darin, das Spektrum eines
vorgegebenen Paares A; B mit regularer :\Iatrix B nach (20.3) zu er-
setzen durch
B . f(B-l A); B --> xi = f(l); j = 1, 2, ... , 11 • (2)
212 § 35. Spcktralumordnung und Partitionierung

Das links stehende Paar hat somit die Eigenwerte "'i zu den gleichen
Links- und Rechtseigenvektoren (bzw. -hauptvektoren) des Original-
paares A; B. In praxi beschrankt man sich auf Polynome nach (13.35)
P(B-l A) = a o 1+ a l B-1 "4 + ... + am (B-1 A)'" (3)
und hat damit die Eigenwerte des Paares B . P(B-l "4); B als
"'i=aO+al}'j+···+amA)"; j=1,2, ... ,n. (4)
Diese sind den \\'erten }'i eindeutig zugeordnet, doch gilt dies auJ3er im
linearen Fall nicht umgekehrt, was ein gewisser N'achteil dieser \'or-
gehensweise ist.
Zwei Extreme der Spektralumordnung sind
1. Die lineare Funktion, m = 1 mit a o = -A, a l = 1, somit
B . P(B-l A) = A - AB; "'j = }'i - A , (5)
und dies ist nichts anderes als die schon oft herangezogene Spektral-
verschiebung (oder Schiftung) in den Punkt A nach Abb. 35.1.
til.) 1

~---
"j I-

Abb. 35.1. Spektralyerscbiebung

2. Das charakteristische Polynom mit den Nullstellen Ai' Hier ist nach
dem Satz von CAYLEY-HA~!ILTOX (14.25) P(B-l A) die Nullmatrix,
die den n-fachen Eigenwert x = 0 besitzt.
Die Konstruktion geeigneter Polynome geschieht zweckmaJ3ig in
Form ihrer Produktzerlegung (Faktorisierung), also mit Hilfe ihrer
Nullstellen, und hier werden nach Abb. 35.2 drei Strategien praktiziert:
a) stationarer Schift
Pa(A) = (). - A)tn , (6)
b) sequentieller Schift
Pb(l.) = (A - AI)"" (). - A 2)"" ••• (I, - Ak)m k , ( 7)
c) progressiver Schift
Pc (A) = (A - AI) (A - A 2 ) ••• (). - Av) . (8)
35.2. Umordnung des Spektrums mit Hilfe von ~Iatrizenfunktionen 213

Die Abb. 35.3 zeigt die Beibehaltung bzw. den \Yechsel des Schifts
iiber der Schrittzahl n eines iterativen Prozesses.

"
I.

Abb. 35.2. Polynome mit stationarem, sequentielkm und progrc S~\ vern Schift

,~
t
-IlL---_"
.IJ
•••• 4 _12
.I,+=!:::;::::~

a n b n c n
Abb.35.3. Zur Schiftstrategie. a) stationarer; b) sequentieller; c) progressiver Schift

Von besonderem praktischen Interesse sind auBer diesen Polynomen


selbst ihre reziproken (rational gebrochenen) Funktionen; im einfach-
sten Fall ist dies die der Geraden von Abb. 35.1 zugeordnete Hyperbel
von Abb. 35.4. Das Paar
(B-1 A - A It1; I bzw. (A - A Btl; B (9)
besitzt offenbar die Eigenwerte

I
== (A.I - A)-I.' j == 1, 2, ... , n , (10)
eine Zuordnung, die der inversen (oder gebrochenen) Iteration von
WIELA~DT i 199J zugrundeliegt. Der dem Schiftpunkt A nachstgelegene
Eigenwert ).} wird nach Abb. 35.4 auf einen Eigenwert x} von groBem
Betrage abgebildet, worauf die \Yirkungsweise des in Abschnitt 40.1
beschriebenen Algorithmus beruht.
214 § 35. Spektralumordnung und Partitionierung

Die Beziehungen (2) bis (10) gelten selbstredend auch im Kom-


plexen.

Abb.35.-1. Zur ill\TrSen (gebrochellcIl) Iteration VOIl \YIELA:\DT

35.3. Umordnung des Spektrums mit Hilfe von Eigendyaden. Deflation


Wir betrachten vorbereitend die spezielle Eigenwertaufgabe F(A) x
= (A - A I) x, wo A diagonal ist, und addieren zu irgend m Haupt-
diagonalelementen - es seien einfachheitshalber die ersten - beliebige
Werte Xl' . . . , X m . Es wird dann

Die ersten m Eigenterme Ai - A wurden dadurch in Ai + xi - A. abge-


andert, die Eigenwerte somit ersetzt durch ai' wahrend die iibrigen Eigen-


Abb.35.5. Spektralurnordnung
35.3. Umordnung des Spektrums mit Hilfe yon Eigendyaden. Deflation 215

terme und Eigenwerte unverandert geblieben sind:


aj:=Aj+lt j ; j=1,2, ... ,m; }'jsonst. (12)
Die Abb. 35.5 veranschaulieht diese Yerlegung fUr n = 9 und m = 3.
Insbesondere kann man Itj = -A j wahlen, dann wird a j = 0; diesr
Ma13nahme wird als Deflation bezeiehnet, siehe Abb. 35.6 .

Abb. 35.6. Deflation

Damit ist bereits alles gesagt, und wir uberlegen uns die Dbertragung
des Verfahrens auf ein beliebiges diagonalahnliehes Paar .4; B. Zu
diesem Zweek formulieren wir die Gleiehung (11) in der dyadisehen
Darstellung
L"
In

F(A) +Z = (;'j - ;,) D j + l.' ItjD j (13 )


j-I j-I

mit den aus den Links- und Reehtseigenvektoren - hier den Einheits-
vektoren - gebildeten Eigendyaden
T
ej ej T. )
D·=-T-=e.e·
7 e j ej 7) ,
j=1,2, ... ,I1, (14
die im allgemeinen Fall dureh die Eigendyaden (14.50) zu ersetzen sind
D = B;rjyf B. (15)
7 yf B;rj
Ziehen wir noeh die Aufspaltung (14.57) in Betraeht, so konnen wir die
Umordnung (13) aueh so sehreiben
n 11': Il _

F(A) + Z =1: }'jD j + 1: ItjD j -}, 1: 1 . D j =.4 -}, B. (16)


1-1

Mit anderen Worten: das abgeanderte Paar


i~l
--- j-I

m
A : = .4 + 1: 'X j D}; B (17)
! i-I

hat das Spektrum (12) zu den Links- und Reehtseigenvektoren des


Originalpaares A; B. 1m Gegensatz zu den ~[ethoden des Abschnit-
216 § 35. Spel,tralumordnung und Partitionierung

tes 35.2 ist hier also die Kenntnis von m Links- und Rechtseigenvek-
toren erforderlich, was ein offensichtlicher N achteil ist; denn da diese
Vektoren und mit ihnen die Eigendyaden in praxi fast immer nur als
Naherungen vorliegen, wird die jlattix A mehr oder weniger fehler-
behaftet und damit das gesamte Spektrum des Paares A; B (ein-
schliel3lich der nicht ausgetauschten Eigenwerte!) unter Umstanden
betrachtlich verfalscht.

Abb.35.7. Kurbelwelle mit Schwungrad in schematischer Darstellung

Dazu ein Beispiel. Die Abb. 35.7 zeigt das stark vereinfachte :\Iodell einer Kurbel-
welle mit Schwungrad. Die zeitfrci gemachte Bewegungsgleichung fuhrt auf die
Eigenwertaufgabe
A x =}. B x mit A = w 2 BjC ,

wo die Drehsteifigkeitsmatrix .4 tridiagonal und die Tragheitsmatrix B diagonal


ist. Aufgrund des Drallsatzes ist eine reine Rotation zum Eigenwert Al = 0 mit dem
Eigenvektor (der Eigenschwingungsform) x T = (1 1 1 ... 1) moglich. Da .4 und
B reellsymmetrisch sind, ist YI = Xl'
Fur viele numerische Yerfahren (z. B. die Potenziteration nach vox ]\1ISES) ist
es nun erforderlich, den Eigenwert Null zu verlegen. Man operiert dann mit dem
:\Iatrizcnpaar A; B, wo nach (17) mit m = 1
- , Bxlx[ B
A = A + "IDI = A -, "1 ~ T - - - -
Xl BXI

ist. Der Eigenwert Null ist damit nach a l = i' l + "1 = 0 + "1 = "1 verlegt worden,
z. B. nach a l = too .

• 35.4. Partitionierung durch unvollstiindige Hauptachsentransformation.


Ordnungserniedrigung

J edes Matrizenpaar mit regularer jlatrix B laJ3t sich zufolge der


zweimal n erfUllten Eigenwertgleichungen, kompakt geschrieben in der
Form
yT A =JyT B, AX=BXJ ( 18)

simultan transformieren auf die Normalform


yT AX=J, yT BX= I. (19)

Unterteilen wir die beiden jlodalmatrizen Y und X ebenso Wle die


JORDAx-jIatrix J (die bei yorhandener Diagonalahnlichkeit in die
35.4. Partitionierung durch ul1yollstandige Hauptachscl1transformation 217

Spektralmatrix A iibergeht) in Streifen auf folgendc \\"eise

J = (II J 2 ) = (J~ Jo )'"


22 H-m'
m n-m In II-In In Jl-m m tl-m

(20)
so zerfallen die Gleichungen (19) in die vier Blocke

1'T AX = 1'T BXJ = (Y[ B X I JI


ITI B Xl ,11
bzw.
rTBX=
r[ BX2
r{ BX2
0),
122
(22)

und wir fragen, was geschieht, wenn wir nur III und nicht aIle n Eigen-
bzw. Hauptvektoren in die Basis I einfiihren, also anstatt mit den
Modalmatrizen Y und X transformieren mit den ~Iatrizen

wo E2 die schon oft benutzte Einheits1'ektormatrix ist.


Fiihrt man diese sogenannte partielle oder um'ollstiindige H aupt-
achsentransjormation analog zu (21) und (22) durch, so ist dart nur
Y z durch E z und X 2 durch E2 zu ersetzen, und man erhalt wegen (19)

r[ .4Ez)
.4 22

(24)

wo die Rechteckmatrizen

(26)

in Erscheinung tretcn. Wir sehen: die beiden Blocke oben links sind
auf Narmalform transformiert worden, unten rechts stehen unvcrandcrt
die beiden Blocke .422 = A22 und B22 = B22 des Paares .4; B, wahrcnd
die Rander BI2 und B21 bzw. I n BI2 und H2I ,In im allgemeinen voll-
besetzt sein werden. Wir haben damit das folgende Bild des trans-
formierten Paares, das wir als bandfCirmig annehmen wollen, urn die
218 § 35. Spektralumardnung und Partitianierung

Invarianz des Blockes P 22 ().) = .422 - J. B22 deutlich hervortreten zu


lassen:

A =LT AR = Ii = LT BR = . (2i)

SKYLLA
Fiir die weitere Verfolgung des Problems hat man nun die Wahl zwischen
zwei Dbeln, namlich
~~~~~~- ------- ~---- .. -.---.--.-

Methode I. SKYLLA ::\Iethode II. CHARYBDIS


Rander in Kauf nehmen, Rander beseitigen, dafiir Prafil- (28)
dafiir Prafil erhalten zerstorung in Kauf nehmen

Beschreiben wir die zweite Methode. ::\Iit Hilfe der GAL:ssschen Trans-
formation in Blacken beseitigen wir die Rander in B und bekommen

P8 Q = ( ~1
- B21
0) {In
122 \ B21
8 12) (In
B22 0
-BI2)
122 =
(In
0 B22 -
0
8 21 8 12
)
'

(29)
womit P und Q festgelegt sind. Die Matrix A geht bei dieser Trans-
formation wegen ..112 = J[l B12 und A2l = B21 J u nach (24) iiber in

P AQ = (Jon
.4 22 -
0)
B21 J u B12 '
(30)

und wir haben damit in der Tat die Form

PAQ= PBQ= (31)

CHARYBDIS

gewonnen. Unten rechts werden somit in A und B m Dyaden subtra-


hiert, die im allgemeinen vollbesetzt sein werden; die Beseitigung der
Rander zerstart daher das Profil der Blockmatrix P22 ().) wie in (28)
angekiindigt.
Da man zufolge der Partitionierung unabhangig von der :'IIatrix Pu(J.)
oben links im weiteren Verlauf der Rechnung allein mit dem ver-
bleibenden Block P 22 (J.) der Ordnung n - m operieren kann, wird die
hier vorgefiihrte "orgehensweise auch als Ordnungsemiedrigung oder
35,S, Elementarmatrizen und Austauscln'erfahren 219

Reduktion bezeichnet, Setzt man das Yerfahren in immer weiter par-


titionierten Unterraumen fort, so fuhrt dies zum Schlul3 auf eine Block-
JORDAN-Matrix bzw, Blockdiagonalmatrix bei Diagonalahnlichkeit

(32)

1J
Globalalgorithmen wie die progressive simultane Potenziteration nach
VON MISES und \VIEL\XDT sowie die darauf aufbauenden, als deren
Erweiterung geltenden Dreiecksalgorithmen streben diese Form
iterativ an.
Schliel3lich stellen wir die Frage, ob nicht beide Yorteile des :'IIetho-
denpaares (28) gleichzeitig zu haben sind: Einfuhrung von m Eigen-
bzw. Hauptvektoren und Beseitigen der Rinder. Dies gelingt in der
Tat, allerdings unter erheblichem Rechenaufwand; die einfach ge-
bauten Matrizen (23) sind dann zu ersetzen durch
L = (YI L 2 ) , R = (Xl R 2) (33)
mit im allgemeinen vollbesetzten Blacken L2 und R 2 • Fur das spezielle
reellsymmetrische Paar A; I siehe dazu die Arbeit von RUTISHAUSER
[191] .
Es ist wohl kaum natig zu erwahnen, dal3 bei hermiteschen Paaren in
den vorstehenden Beziehungen L = R* und P = Q* zu setzen ist, urn
die Hermitezitat auch der transformierten :'IIatrizen zu gewahrleisten .

• 35.5. Elementarmatrizen und Austauschverfahren


Urn den folgenden Abschnitt besser verstehen zu kannen, betrachten
wir vorweg ein Austauschverfahren von fundamentaler Bedeutung, auf
das zum ersten :\Ial B UDICH [168J aufmerksam machte und das fur den
im § 37 beschriebenen Determinantenalgorithmus SECURITAS grund-
legend ist.
Es handelt sich dabei urn folgendes. Eine beliebige quadratische
Matrix 8 werde transformiert
8 m = L~8Rm (34)
mit Hilfe der beiden speziellen :\Iatrizen
Rm = [e1 ... e",_l zm em-'-l ... en] ,
(35)
220 § 35. Spektralumordnung und Partitionierung

die im Aufbau an die dyadischen Elementarmatrizen erinnern und in


der Tat sich als so1che formulieren lassen, namlich

(36)

wo das Dach ~ darauf hinweist, daJ3 im Yektor wm bzw. zm die Kom-


ponente del" Nummer m urn 1 zu vermindern ist.
Wir berechnen nun zunachst das Produkt

(37)
und stellen fest, daJ3 die Spalte sm von S durch den Yektor S zm
ersetzt wurde, wahrend aIle ubrigen Spalten erhalten blieben. Sodann
folgt

Sm = L~(SRm)

und dies bedeutet, daJ3 aIle Zeilen von S R", erhalten bleiben mit Aus-
nahme der Zeile der Nummer 111; insgesamt wurde somit das Kreuz der
Nummer tit (das fur 111 = 1 und 111 = n in einen Winkel entartet)
ausgetauscht auf folgende Weise
__ m _ _

fSZl
t
Sm = L~SRm = ~ [WTS wTSz wTS ]1 n (39)

lS JZ

~.r---------"--------~~~
I
ein sehr sinnfalliger und einfach zu programmierender Vorgang, wo-
bei die eckigen Klammern den Zusammenhang auf einer Blockzeile
bzw. Blockspalte symbolisieren sollen. (Stunde die m-reihige Matrix
w T S Z oben links oder unten rechts in der Ecke, so waren diese
Klammern uberflussig.)
Wir schalten nun mehrere Transformationen nach Art von (34) in
naturlicher Reihenfolge hintereinander. Auf diese \\'eise entsteht
35.5. Elementarmatrizcn unci .\ustauschycrfahrcn 221

eine Folge von Matrizenpaaren


A B
A] = L[ AR] B] = L[ BR]
A2 = LJ L[ AR]R2 B2 = LJ L[ B R1 R 2 , (40)

--- ---
~.~ ~ ~

Am = L~ ... LJ L[ A R] R2 ... Rm Bm = L~ ... LJ L[ B R] R2 ... Rm


---..----
deren letztes, wie durch Cnterklammerung angedeutet, sich schreiben
laBt als
B1II=P~BQm (41)
mit den beiden Produktmatrizen

die den gesamten m-fachen Austauschvorgang reprasentieren, und


deren einzelne Spalten durch :\Iultiplikation mit dem Einheitsvektor
gleicher Nummer gewonnen werden
m III

Pj = Pm e j = L] L2 ... Lm e j ; qj= Qm e j=R]R 2 ···R m e j ;


j = 1,2, ... ,n. (43)
Nun ergibt die Multiplikation der Elementarmatrizen (35) von rechts
mit einem Einheitsvektor e j , dessen Index j =l= lIZ ist, offensichtlich
Lm e j = e j , Rm e j = ej fUr j =l= 111 , (44)
und das bedeutet flir die Vektoren (43) die willkommene Rechenver-
einfachung
m m
PI = L]L 2 ·•• L j_ 1 Wj; qj = R]R 2 ·· .Rj_ 1 Zj flir i = 1,2, .. 11, (45)
111 m
wah rend PI = WI und ql = ZI ist.
1st nun em beliebiger Vektor 1" vorgegeben, so berechnet sich das
Produkt
Rm v = [e]··· e m - 1 z",e m + 1 ••· en~ 1." (46)

wie leicht einzusehen als Summe zweier Yektoren


Rm v = 't' + 'L'", • zm ' (47)
wo der Vektorv aus v entsteht, indem die Komponente der Kummer lit
durch Null ersetzt wird, und das Analoge gilt ftir die :\Iatrix Lm.
Oft ist zweckmaJ3ig, gleich mehrere - am einfachsten aufeinander
folgende - Zeilen und Spalten auf einmal auszutauschen. Die Elemen-
222 § 35. Spektralumordnung und Partitionierung

tarmatrizen (35) sind dann zu verallgemeinern dUI ch

+--- I -----""

Rm entsprechend, womit die Darstellung (36) ubergeht in

(49)
Hier weist das Dach darauf hin, daB von den l zu IV bzw. Z zu-
A

sammengefaBten Vektoren U"j und z; die l Zeilen der ~ummern In bis


m + (l - 1) zu streichen sind. Die Transformation (34) bewirkt jetzt
den l-fachen Austausch


I

fSZml
iI
Sm = L~ S R,,, = t r~s W;!;SZm IV;!;SJ
(50)

lSZmJ
wobei es zweckmaBig ist, zunachst den Block S Zm der Breite lund
der Hohe n zu berechnen und sodann den Block W~ S der Breite n
und der Hohe l; dieser enthalt seinerseits den :\Iittelteil Jr~ S Z"" der
zu streichen ist.
Wir leiten jetzt einen hochwichtigen Satz her. :\Iacht man nach
BUDICH die als von ~ull verschieden vorausgesetzte Komponente Zm
des Vektors z zu Eins, so ergibt diese, urn Eins vermindert, die Null, und
nun gilt das folgende:

= I + (.~ Zm,.) e~ , (51 )

zm
denn da im Vektor ,. an der Stelle In eine ~ull steht, verschwindet das
unterklammerte Skalarprodukt, und dies gilt augenscheinlich fur
beliebig viele, sagen wir k Faktoren. \Yie haben somit als Ergebnis den
Additionssatz

(52)
35.6. Sukzessive Aus16schung. Procluktzerlegung c1er ~Iodalmatrizen 223

der uns spater noch gute Dienste leisten wird. Er besagt nebenbei,
daB die k Faktorenlinker Hand vertauschbar sind, weil die Summanden
rechter Hand es sind und laBt sich selbstredend auf Blocke verall-
gemeinern :

(53)

• 35.6. Sukzessive Ausloschung. Produktzerlegung der Modalmatrizen


Wir kehren nun zu unserer eigentlichen Aufgabe zuriick und kniipfen
an die Form (27) an. Nachdem 11l Links- und Rechtseigenvektoren (bzw.
-hauptvektoren) mit Hilfe der unvollstandigen ~Iodalmatrizen Lund
R (23) eingefiihrt wurden, sind in dem so transformierten System
LT A R ir = A. LT B R ir mit .r = R ir (54)
oder kurz
(55)
die ersten m Links- und Rechtseigenvektoren (-hauptvektoren) iiber-
gegangen in die ersten In Einheitsvektoren. Fiihren wir nun ein beliebi-
ges Eigen-(Haupt-)vektorpaar It"me-l' Zm-l zur ~latrix Ji'm().)
= Am - A. Bm ein, so stehen nach erfolgtem Austausch im Kreuz der
Nummer m + 1 der :Matrix Bm_ 1 links und oberhalb yom Haupt-
diagonalelement als neue Elemente die Bilinearformen
b,.,m_l=e; BZm~,1 =0; v = 1,2, ... , J1l ,

(56)
die zufolge der Orthonormalitatsbedingung (19) verschwinden miissen,
und dasselbe gilt fUr die -'latrix .4 m1 , deren erste m + 1 Zeilen und
Spalten kollinear zu den erst en 1Il + 1 Zeilen und Spalten der l\Ia-
trix Bm+l sind; hier kann allenfalls oberhalb des Hauptdiagonal-
elementes eine 1 anstelle der Null stehen, sofern es sich um die Spalte
m + 1 eines JORDAx-Kastchens handelt, weshalb die Null im Schema
(57), welches den Austausch nochmals verdeutlicht, in Klammern
gesetzt wurde.
_ m_ _m+l _

1'\
t
m
0
0
t 000
[0]
. ... (57)
A", =

:~
224 § 35 . Spektralumordnung und Partitionierung

Da in den nachfolgenden Austauschaktionen die Matrix oben links


ungeandert bleibt, bedeutet dies, wenn wir mit m = 0 beginnen, einen
UmformungsprozeB der Matrix F(}.) = A - ). B nach folgendem
Muster

ein Vorgang, den wir als sukzessive Auslaschung, bewirkt durch die
spezieUe Transformation (34) bezeichnen. Nach n-maligem Austausch
haben wir dann
An = L~ ... LI L[ A Rl R2 ... Rn = J;
-,- -.---- (59)
Bn = L,~ ... LI L[ B Rl R2 . . . Rn = I
-.---- ~

oder kurz
r T AX = J; yT BX = I, (60)
und dies ist die Hauptachsentransformation (19), von der wir aus-
gingen. Die beiden !vlodalmatrizen erscheinen somit zeriegt in das
Produkt von jeweils n Elementarmatrizen
y = L 1 L 2 ·· · L n; X=R 1 R 2 ···R n , (61)
aus denen sich die Links- und Rechtseigen(haupt)vektoren nach (45)
leicht berechnen

(62)
Trivialerweise ist Yl = Zl und Xl = WI'
Es erubrigt sich nach den im Abschnitt 35.5 gemachten Ausfuhrun-
gen hervorzuheben, daB das Ganze eben so in Blacken voUzogen werden
kann.
Die hier vorgesteIlte ::'Ilethode der sukzessiven Auslaschung wurde
von BUDIeR [168J zu einem Globalalgorithmus ausgebaut, der aIle bis
heute bekanntgewordenen vergleichbaren Algorithmen an Zuveriassig-
keit, Anwendungsbreite und Geschwindigkeit zu ubertreffen scheint.
Wir kommen im Abschnitt 37.7 darauf zuruck .
Dazu ein Beispiel. Das Paar .4; I mit

.4 = (~ ~):

n n
35.6. SukzessiYe Aus16schung. Procluktzcrlegung der :r.lodalmatrizen 225

hat die Eigenwerte -Vi 0 und V2: Es ist durch Austausch auf Diagonalform zu
transformieren.
Erster Austausch am Originalpaar ... ; I. \Vir wahlen den Eigenwert }'l = + V2
und berechnen den dazugeharigen Eigenyektor (der nicht normiert zu sein braucht)
Xl = Zl' bilden daraus die Transformationsmatrix RI und berechnen die Bild-
vektoren A Zl und B Zl = Zl;
o

o
Kongruenztransformation oder was dasselbe ist, Austausch des erst en Kreuzes (resp.
Winkels) ergibt

Zweiter Austausch. \Vir wahlen den Eigcnwert i' 2 = 0, berechnen dazu den
Eigenvektor Z2 zum Paar .41 ; BI und finden wie oben der Reihl' nach
-1

R2 = (e l Z2 e a)
~G }'2
2 ~) 1'2 = R 2; I,z, ~ (:) B,z, ~ (:)

(' I:)
Das gibt

(: :)
0 0
A2 = L[ .41 R2 = 0 0 B2=L[BIR2= 2

J2 0

Dritter Austausch. Als letzten Eigenwert haben wir }.a = -1'2 mit dem Eigen-

c:)
vektor za zum Paar .42 ; B 2 • Man findet

Ra = (e l e 2 za)
~G
0

0 -4
:) La = Ra; ",z, ~ (:) B,z, ~

CO )
und we iter

~C
~ L[
:)
0

~1a = L[ A2 Ra = 0 0 "
o ; n, B, B, 2

o 0 -4V:2 () 0

Damit ist das Paar Aa; Ba diagonalsiert. Die drei RA YLEJGH-Quotienten sind gleich
den drei Eigenwerten, wie es sein muf3. Die :-'Iodalmatrix X der Rechts- (und damit
wegen der Symmetrie von A auch der Links-)eigenvektoren ist nach (61)

RIR2Ra = (~ -~ ~.~) = X = (Xl J'2 J'a),

, 1 -1

wovon der Leser sich iiberzeugen mage; es gilt in der Tat ... Xj = i'i 1 J'j fUr
j = 1,2,3. Zur "Obung: man fiihre den Austausch in anderer Reihenfolge durch.
226 § 35. Spektralumordnung und Partitionierung

35.7. Bereinigung und lokaler Zerfall einer Matrix


Es ist nicht uninteressant, die Ergebnisse aus dem Abschnitt 26.5
unter dem neuen Gesichtspunkt des Austauschvorganges zu rekapitu-
lieren. Der einfachen Darstellung halber sei m = 1, dann wird nach (39)
der Austausch vorgenommen mit
8 = (S11 S[2) , L 8 R = (WT 8 z
S 21 8 22 1 1 '8zlJ
L

[8 zJ = 0, (63)
und wir verlangen, daJ3 aIle Elemente im Kreuz auJ3er dem Diagonal-
element verschwinden, wodurch die Teilvektoren tV und aus (36) z
festgelegt sind
w T 8 = (S11 + w T S21: [S[2
~---,
+ w T 8 22J) .
[w T 8J = OT
(64)
S11 + s[zz )
8 z=
(
rs~ +-8~2-ZJ L8 zJ = 0,

und das ist genau die in (26.37) geforderte Bereinigung, die speziell mit
8 = F(A) = A - A B auf den lokalen Zerfall der MatrixF(A) fiihrt .

• 35.8. Besonderheiten bei singularer Matrix B


Wie in Abschnitt 22.8 gezeigt wurde, treten bei singuHiren Paaren,
ja selbst dann, wenn allein B singular ist, gewisse Schwierigkeiten auf,
die sich verstandlicherweise in der Kumerik niederschlagen miissen.
Zunachst ein grundlegender
Merksatz: Nicht die Eigenwerte, sondern die Eigenterme
j = 1,2, ... , n (65)
sind die Kenngr6(Jen des singllliiren Paares A; B.
Dabei unterscheiden wir:
1. Definierte Eigenterme.
1 a) Es ist bii =l= 0, somitiii(A) = a ii - A . bii eine Gerade, welche die
A-Achse im Endlichen schneidet. Den Schnittpunkt bezeichnen wir als
Eigenwert Ai"
1 b) Es ist bii = 0, somit iii = aii = const. Dies ist eine yom Para-
meter A unabhangige Eigenkonstante, geometrisch eine Gerade parallel
zur A-Achse nach Abb. 35.8.
Man kann hier versucht sein zu sagen, die Gerade schneide die A-
Achse im Unendlichen und der Eigengeraden somit den Eigenwert 00
zuordnen; eine Interpretation, vor der wir uns indessen hiiten wollen.
Sie ist erstens zu nichts niitze, zweitens schlimmer: besitzt das Paar
35.S. Besonderheiten bei singuHirer :\Jatrix B 227

A; B mehrere Eigenkonstanten, etwa all = 3, a 66 = -18 und


ass = 4 + 5 i, so hatten diese alle denselben Eigenwert 00, waren also
nicht mehr unterscheidbar, wodurch sich die obige Interpretation als

, ; '"I
unannehmbar erweist. Urn die Eigenkonstanten eindeutig zu machen,

Eigenkonstonte

Eigenwert

i
Abb. 35.8. Definierte Eigenterme im Reellen

ist es allerdings erforderlich, mit Hilfe einer belie big wahlbaren regula-
ren Normierungsmatrix N, am einfachsten N = 1, die abgewandelten
RAYLEIGH -Quotienten

R... - y!
J
A~'
1 bzw. R... - Yj
TA
~j (66)
j- yT N~. j - yT~.
J 1 J 1
zu bilden.
2. Nichtdefinierte Eigenterme. Es ist all = 0 und bjj = 0 (bzw.
numerisch Null). Die Gleichung (65) in der Form
111()') = 0 - ). . 0 (67)
ist fUr jeden Parameterwert ). identisch erfii11t; jeder Wert der kom-
plexen Zahlenebene ist damit Eigenwert, wenn man es so sehen will,
doch fiihrt eine solche Auffassung nicht weiter. Dagegen ist es von
groBter Wichtigkeit, festzuhalten, daB die charakteristische Gleichung
det F()') = det (A - ). B) = 0 nach wie vor eine zwar notwendige, bei
singularer Matrix B jedoch keineswegs hinreichende Bedingung zur
Definition der Eigenterme darstellt -: allein in diesem Fakt liegt die
eigentliche Problematik begriindet. Beispielsweise sei
12 3-2). )
3 - 5). 5 + (4 + i)A . (68)
o o+d
Die charakteristische Gleichung
detF().) = o· (3 - 5 ).) (d) = 0 (68 a)
unterdriickt zufolge des Faktors Null die beiden wohldefinierten Eigen-
terme 122().) und 133().) und erweist sich damit zur Beschreibung der
Struktur der Matrix als nicht ausreichend. An ihre Stelle hat der
schon oft herangezogene Defektvektor d()', z) = F().) z zu treten.
228 § 35. Spektralumordnung und Partitionierung

35.9. Transformation auf obere Dreiecksmatrix

Jedes Paar A; B mit regularer :\Iatrix B laBt sich, wie wir wissen,
mit Hilfe der beiden Modalmatrizen r T und X simultan transformieren
auf das spezielle Paar

yTAX=J; r T BX = I mit rT= (BX)-l, (69)

und dies bedeutet, daB die vorgelegte Eigenwertaufgabe A;r = ). B;r


durch EinfUhrung neuer Rechtsvektoren

;r =Xc (70)

und anschlieBender Multiplikation von links mit I'T (und das heiBt
eigentlich durch EinfUhrung neuer Linksvektoren) iibergeht in

A X c = }. B X c -. rTA Xc = A yT B X c (71)

oder nach (69)


J c = A II c, (72)

woJ die JORDAN-Matrix ist, die bei Diagonalahnlichkeit iibergeht in die


Spektralmatrix ,1.
Wir nehmen jetzt eine weitere Transformation vor mit Hilfe einer
regularen, aber sonst beliebigen oberen Dreiecksmatrix

tn t12 t 13 tIn 1
o t22 123 t 2n
lij=l=O fUr j=1,2, ... ,n (73)

o 0 0 ... tnn
und set zen
c = Tn -.;r =Xc =XTn =Rn (74)
mit
R=XT (75)

so daB die Originalaufgabe iibergeht in


A;r=AB;r-.ARn=}.BRn. (76)

Nach Multiplikation von links mit T-Il'T = (B R)-l wird daraus

T-IyT AXTn = A(BR)-IBRn (77)


--.,.,.-;' --"
oder
J Tn=), I n. (78)
35.9. Transformation auf oberc Dreiecksmatrix 229

Die auf diese 'Weise transformierte JORDA~-}Iatrix

)'1 * * * 1
A
0 *
1'2 *
J:= T-1JT = = R-1.4 R (79)
0 0 1'3 *
o 0 0 ... I'n I
ist als Produkt von drei oberen Dreiecksmatrizen ihrerseits eine obere
Dreiecksmatrix mit den Hauptdiagonalelementen
tii=t;/)'jtij=I'i; j=1,2, ... ,n (SO)
von J, und es ist leicht zu sehen, daB die aus der Gleichung
J n =;. I It (S1)
zu berechnenden Eigenvektoren

(S2)

Linearkombinationen der erst en j Einheitsvektoren e 1 , •.• ,ei sind,


eine Eigenschaft, welche die Rucktransformation (75)
xi=Rn i ; j=1,2, ... ,n (S3)
nicht nur numerisch erleichtert, sondern von grundlegender Bedeutung
fur die in § 40 beschriebenen Dreiecksalgorithmen ist.
Wir fordern jetzt noch weniger als zuvor, indem \Vir zulassen, daB
die Matrix B nicht in die Einheitsmatrix I, sondern eben so wie A in
eine obere Dreiecksmatrix ubergeht
LAR = ~A; LBR = ~B' (S4)
mithin die zweimal n(n - 1) Bilinearformen
li A 1'k = 0; li B 1'k = 0 fur j = 2, 3, ... , n; k <j (S5)
verschwinden sollen. Dies sind weniger Bedingungen als die ~Iatrizen L
und R insgesamt an frei verfugbaren Elementen enthalten. \Vir ki)nnen
daher noch weitere Forderungen stellen, etwa, daB beide Trans-
formationsmatrizen, jetzt mit Q und Z bezeichnet, unitar seien. DaB
damit die 2 n(n - 1) Bedingungen (85) erfullbar sind, besagt der
Satz 1: (BOLZANO-\VEIERSTRASS) Ein beliebiges (auch singu/ares)
M atrizenpaar A; B lafJt sich mit HiUe :;l£'eier unitarer J[ airizen Q lind Z
simultan auf obere Dreiecksfonn trallsformieren:
Q *AZ=~ A,. Q*BZ = ~B (86)
230 § 35. Spektralumordnung und Partitionierung

mit
Q* Q = Q Q* = I, Z* Z = Z Z* = I. (87)
Auf diesem Satz beruht unter anderem der bekannte Q-Z-Algorithmus,
den wir in Abschnitt 40.15 in seinen Grundzugen kurz erHi.utern
werden.
Es sei nun speziell B = I, dann wird man, obschon nicht erforderlich,
A

zweckmaBigerweise verlangen, daB 1 = Q* 1 Z = 1 erhalten bleibt;


es muB dann offenbar Q = Z sein, so daB (86) ubergeht in
Q* A Q = '\lA ; Q* IQ = I, (88)
und das ist der Satz von SCHUR (16.9), wo Q mit U bezeichnet wurde.
Dazu ein Beispiel. Yorgelegt ist die Eigenwertaufgabe A x = AI x mit

1)
3
und der :\Iodalmatnx X . . = (Xl X 2) = (1 1)
1 -1
(a)

zu den Eigenwerten Al = 4 und A2 = 2. ( _ 1)


Wir wahlen als regulare obere Dreieeksmatrix T = ~ 2 und fiihren als

Linearkombinationen der Eigenvektoren Xl' X 2 naeh (75) neue Yektoren "1'"2 ein:

XT=(l 1)(3 -1)=(3 1)=R; R-l


1 -1 0 2 3 -3
= ~(3 1).
12 3 - 3
(b)

Anstelle der uns geJaufigen Hauptaehsentransformation (e) haben wir jetzt weniger
komfortabel, aber durehaus geniigend die Transformation (d),

(e), (d)

wo auf der Hauptdiagonale dle Eigenwerte in der gleiehen Reihenfolge erseheinen.


Aus dem Gleiehungssystem J" = A In berechnen wir nun die Eigenvektoren (e)
und bekommen mit der Riicktransformation (83) die wahren Eigenvektoren (fl.

x = R T =(3 1) (1 1) =(~ 6) =
3 -3 0 3 ,) -6
(Xl X 2) .

(f)
DaB diese anders normiert sind als unter (a), liegt an der \Vahl der Matrix T. Frage
an den Leser: Wie miiBte diese :-'fatrix normiert werden, damit die Langen Xl und x 2
erhalten bleiben ?
Man beachte noch, daB die RA YLEIGH-Quotienten
PArI
--=4,
PI r l
gIeich den Eigenwerten sind .

• 35.10. Einfiihrung von Linkseigenvektoren


1m Zusammenhang mit den im § 40 beschriebenen Dreiecksalgorith-
men bekommt ein weiteres Austauschverfahren Bedeutung. Vorgelegt
sei das in neun Bl6cke unterteilte Paar A; 1 und eine Transformations-
35.10. Einfiihrung von Linkseigenvektoren 231

matrix L besonderer Bauart


_ j - - o.._ ..... " - _ j----o.._ .... k __

I Imm 0 0

A=
1
.. (89)
L hm Iii" 0

I
-
Akk 0 0 lkk j
mit dem wirksamen Bestandteil

LJzJII=D ~ (90)

Man verifiziert leicht, daB die Inverse von L dadurch entsteht, daB der
Block L hm durch -Lhm ersetzt wird. Die Ahnlichkeitstransformation
A = L AL-l ist daher explizit angebbar und wird in zwei Schritten
d urchgefiihrt.
1. Schritt. Multiplikation von links: A = L A, Zeilenkombination.
Man berechne das Produkt L"m Am" und addiere es zu A an passender
Stelle wie angegeben:
_--11----
0 0 0
(91 )
LA=A=A+

0 0 0
~

2. Schritt. Multiplikation von rechts: AL-l =LAL-l =A, Spal-


-
tenkom~ination. Man berechne das Produkt Allh L hm und subtrahiere
es von A an passender Stelle wie angegeben:

0 0
(92)
A= LAL-l =A- 0 0

0 0
232 § 35. Spektralumordnung und Partitionierung

Es sei nun A von unterer Fastdreiecksform mit b Kodiagonalen ober-


halb der Hauptdiagonale oder wie wir auch sagen, von oberer Band-
breite b, schema tisch:
b

(93)

t
b
I
NIan stellt leicht fest , daf3 dieses Profil erhalten bleibt fUr II = b.
1st A speziell eine untere HESSE:\BERG-~Iatrix mit b = 1, so muf3
demnach h = 1 sein, das heif3t, es darf nur eine einzelne Zeile aus-
getauscht werden, damit diese Form nicht zerstort wird.
Wir gewinnen auf diese Weise ein Pendant zur sukzessiven Aus-
loschung von BUDICH, das im Vergleich zu dieser Vor- und Nachteile
besitzt. Es sei wie dort eine Linearkombination von II Linkseigenvek-
toren zur Matrix F ii (},) der Ordnung 111 + It = j oben links in F(J.)
gegeben
r T = XIIIII : I'll"; ; 1'"" regular, (94)
wahrend wir auf die Rechtseigenvektoren verzichten. Sollte r llh
(numerisch) singular sein, so werden II andere als die letzten Spalten
von yT zu } '1I 11 erklart und dafUr die entsprechenden Zeilen gleicher
Nummer in F ii (}.) zum .-\ustausch herangezogen, so daf3 die Forde-
rung (94) keine Einschrankung der .-\llgemeinheit bedeutet. Die Eigen-
vektoren werden nun normiert gemaf3

Y~ = [Yhi/ Y hm : I hh] = I L hm IS] ; (95)

und damit haben wir den Bestandteil (90) der Transformations-


matrix L vor uns. 1m praktisch wichtigsten und einfachsten Fall II = 1
bedeutet die Kormierung lediglich, daf3 wir den Linkseigenvektor durch
seine letzte Komponente diyidieren; es wird dann

yT -> y.(. = (Yhl~ YIIIII; 1) = C--,:- ; 1). (96)


Es ist selbstverstandlich, daf3 auf analoge Weise anstelle der Links-
eigenvektoren auch Rechtseigenvektoren eingefiihrt werden konnen,
doch wiirde man damit den Anschluf3 an die klassischen Dreiecks-
36.1. t"berblick. \Yozu Einschlief3ungssatzc ? 233
algorithmen verlieren, die seit jORDAX und SCHeR an der oberen
Dreiecksmatrix orientiert sind.
Wir rechnen ein einfaches Beispiel. Gegeben ist das Paar A; I mit A = a I + K,
n = 4, und es soil in die letzte Zeile des dreireihigen Hauptminors oben links ein
dazugehoriger Eigenvektor yT = (-1 0 1), somit = (-1 0) eingefiihrt 11m
werden. Wir berechnen das Produkt (b) und fiihren die Addition (91) durch, \Vomit
die Linkstransformation (c) geleistet ist.

~ (~ ~)
a (I ~:)
A : :
(a) ,
(-1 nH-a-1 I) 0' (b) ,

(0 ~
0 0 0
0 0
L.4 =.4A = A + I :,) = ( a 0 :) . (c)
I-a -1 0 o -a (I a 1

0 0 0 o 0 0 a
A

Es erfolgt die Rechtsmultiplikation von.4 mit L-l.},ach der Yorschrift (92) er-
rechnen wir das Produkt (d) und subtrahieren es yon .4, siehc (e).
(-1 0)

( ~) ~~:
a
1
-a
-1
0
0
(d),

~n () ~) (~ ~~).
0
- A-1
.4 =L.4L-l =.4- ( :: _ a (e)
-a 0 () 0 a 1
-<--- -
-1 () 0 I) 1 () 1 a

In der Tat ist in dcr dreireihigen l\Iatrix obcn links nun Linkscigcl1\'cktor zum eJ
Eigenwert A. = a geworden. \Vie im Text gezeigt, ist die unterc HEssExBERG-Form
erhalten geblieben, doch ging die Symmetric ycrloren. Sic ware nur untcr un-
yerhaltnismaf3ig groBem Aufwand wiederhcrzustellen. Dics leistet bcispielsweise der
im Abschnitt 40.12 beschriebene Diagonalalgorithmus \"on RUTISHAUSER, doeh
werden wir zeigen, daf3 es okonomischer ist, die hier vorgefiihrte Xhnlichkeits-
transformation aueh im reellsymmetrisehen (allgemeiner hermitcschen) Fall heran-
zuziehen.

§ 36. EinschlieBungssatze fUr Eigenwerte und Eigenvektoren

.36.1. Uberblick. Wozu EinschlieBungssatze?


EinschlieBungssatze fUr Eigenwerte und Eigenvektoren der Aufgabe
yT F(A) = OT, yT -=1= OT ; F(I.) ;r = 0 ,;r : 0 (t)
234 § 36. Einschlief3ungssatzc flir Eigenwerte und EigenYektoren

(auch fur das nichtlineare Eigenwertproblem) sind fur den Praktiker


absolut unverzichtbar aus folgenden Grunden.
1. Jeder Algorithmus muf3 irgendwann einmal abgebrochen werden.
Uber die erreichte Genauigkeit der berechneten Eigenwerte oder
-vektoren ist dann im allgemeinen nichts bekannt.
2. Werden die Elemente der :\Iatrix F(A) geringfiigig geandert, so
folgt aus Stetigkeitsgrunden, daf3 auch die Eigenwerte und -vektoren
(von Ausnahmefallen, die praktisch ohne Belang sind abgesehen) sich
nur wenig andern. Mit Hilfe von Einschlief3ungssatzen lassen sich
diese Anderungen (auch im Ausnahmefall) mathematisch exakt
emgrenzen.
3. Der Gesichtspunkt der Wirtschaftlichkeit. Resultate von uner-
wunschter Genauigkeit kosten Zeit und Geld. 1m Hinblick auf die
meist nur auf drei oder vier Dezimalen bekannten Eingangsdaten,
aus denen die 1Iatrixelemente sich ihrerseits mit begrenzter Ge-
nauigkeit ermitteln lassen, ist es sinnlos, vom Eigenwert bzw.
Eigenvektor mehr als drei oder vier Dezimalen erwarten zu wollen.
Die Eingrenzung 4,3 ~ }'7 ~ 4,4 ist aIle mal mehr wert als die mit
dem vagen Zeichen = versehene Aussage A7::::: 4,345678991, die
kein Prufstatiker unterschreiben wurde.
Wir kehren daher die Fragestellung geradezu auf den Ropf und
eroffnen diesen Paragraphen mit einem
Po stu 1at: J eder E igen'lf.'ertalgorithmlts endet mit einem
E il1schliejJul1gssatz.
Dabei ist zu unterscheiden, ob das gesamte Spektrum pauschal oder
nur eine gewisse Anzahl von Eigenwerten selektiv, im Extremfall auch
ein einzelner Eigenwert eingeschlossen wird. Die Tabelle 36.1 gibt
einen Uberblick uber die wichtigsten Satze zur Einschlief3ung der
Eigenwerte von l\iatrizenpaaren A; B.

Tabelle 36.1. Dbersicht liber die wichtigsten Einschlief3ungssatze flir Eigenwerte


yon Matrizcnpaaren

A; B normal A; B belie big

pauschal KRYLOV!BoGOLJUBOV H GERSCHGORD! Z/S


Perturbationssatz H Diagonalsatz H
Satz yon HEI:-'RICH (flir A; 1) N
Kreisringsatz H
-------- -------

selektiv TEMPLE Isolationssatz von


I Acta Mechanica SCH:-'EIDER Z/S und N
I Quotientensatz von COLLATZ Determinantensatz H
36.2. Die Satze von GERSCHGORIX und HEIXRICH. Dcr Kreisringsatz 235

In dieser Tabelle bedeuten nach § 25 Z = Zeilennorm (Norm I),


S = Spaltennorm (Norm II), H = HILBERT- oder Spektralnorm
(Norm III) und N = euklidische Norm .

• 36.2. Die Siitze von Gerschgorin und Heinrich. Der Kreisringsatz


Ein pauschaler Satz von weitreichender Giiltigkeit ist der von
GERSCHGORIN in der Originalarbeit : 182j auf das spezielle Paar A; I
beschrankte Kreisscheibensatz, der sich indessen ohne Schwierigkeit
auf das allgemeine Paar A; B verallgemeinern la13t. ::\Iit den RA YLEIGH-
Quotienten
R. = ajj . j=1,2, ... ,n (2)
J b jj '

berechnet man die reellen positiven Zeilen- (bzw. Spalten-)betrags-


summen
" "
Pi = 27 Ibjkl ,
k~l
k=i

Ti = L" k~l
lakj - Ri bkil; Pi = 2.:" Ibkil ,
k~l
(4)
k*i
die ihrerseits die Gra13en

(!. = __
rp'
J - bJ•J• > PJ• (5a),
1 bjj - Pi'
festlegen. Es gilt dann der
Satz 1: (GERSCHGORIN). Die 1t Eigen'l£'erte der LlzermitesclzenJ ivJatrix
F()') = A - ). B liegen in der Vereinigungsmenge der n Kreise [reellen
KreisdurchmesserJ
j = 1, 2, ... , n. (6b)
Da (6a) und (6b) gleichzeitig gelten, miissen die Eigenwerte im Durch-
schnitt dieser beiden Vereinigungsmengen liegen. Darii berhinaus gilt der
Satz 2: (Separationssatz) Liegen irgend 111 Kreise (die sich ihrerseits
durclzsetzen durien) von den ubrigen getrennt, so liegen in der Vereini-
gungsmenge dieser m Kreise genau m Eigenwerte.
1m Extremfall kannen alle n Kreise isoliert liegen; dann enthalt
jeder Kreis genau einen Eigenwert.
Die au13erordentliche Simplizitat des Satzes, der kaum Aufwand
erfordert, hat allerdings einen hohen Preis. Nur bei ausgepragter
Diagonaldominanz von A und B sind die Einschlie13ungskreise klein
genug, um praktischen Wert zu besitzen, so beispielsweise im Anschlu13
an die Rotation von JACOBI und ahnliche Verfahren.
236 § 36. Einschliel3ungssatze flir Eigenwerte und Eigenvektoren

Der Satz versagt, wenn bij - {3i ~ 0 bzw. bjj - (3i ~ 0 ist, weil dann
die Singularitat der Matrix B nicht ausgeschlossen werden kann, somit
einige oder aIle Eigenwerte des Paares A; B im Unendlichen liegen
konnten. Dieser Fall kann nicht eintreten, wenn Beine regulare
Diagonalmatrix, insbesondere die Einheitsmatrix list, weil dann die
Subtrahenden im Nenner (5) verschwinden.
Der zu (6) analoge Diagonalsatz l177], der die Spektralnorm benutzt.
ist infolge des hohen Rechenaufwandes unpraktikabel, dafUr von urn so
groBerem theoretischen Wert; auf ihm basiert unter anderem der fUr
normale Paare giiltige Perturbationssatz, den wir im Abschnitt 36.5
fiir den wichtigen SonderfaIl der hermit esc hen Paare angeben werden.
Zu einem weiteren pauschalen Satz gelangen wir auf einfachste
Weise durch hermitesche Kondensation im Zusammenspiel mit einer
geeigneten Spektralverschiebung (Schiftung) nach A, sowie ~Iultipli­
kation der Eigenwertgleichung von links mit Lund Einfiihrung neuer
Vektoren w. Aus
L F(A) R w = ~ L BR w mit ~ = }. - A und x = R ft' (7)
foIgt dann
w* R* F*(A) L* LF(A) R Ie = ~ ~ w* R* B* L* L B R U', (8)
und da der zugehorige RAYLEIGH-Quotient
x2 < x2 < ~~* R* F* LALL * L!(A) R w < x 2 < l:e2 (9)
- = 1 = w* R* B* L* L B R tV =" = ,
begrenzt ist durch die singularen Werte xi und x;', haben wir den
Sat z 3: (Kreisringsatz) A lIj3erhalb des Kreisringes
?: ~ 1.,'1 -}) ~ % (10)

mit dem beliebig wiihlbaren JIittelpunkt A und den beiden Radien x


und l:e kann kein Eigenwert des Paares A; B liegen.
In der Wahl der beiden regularen ~Iatrizen Lund R sind wir nun
ganz frei. Setzt man L = R = I, somit n' = x, so geht der Formen-
quotient (9) iiber in
x2 = x* F*(A) F(Ll);}, ,
(11)
x* B* Bx
und das ist das Paar aus (16.83). :\Iit L B R = I dagegen geht der
Nenner von (9) iiber in w* w; man vergleiche dazu die Ausfiihrungen
des Abschnittes 16.7. Dort zeigten wir anhand eines Beispieles, daB
die singularen Werte wesentlich von der \Vahl der ~Iatrizen Lund R
abhangen. Da jedesmal der Satz giiltig bleibt, miissen die Eigenwerte
des Paares A; B im Durchschnitt der auf diese Weise ermittelten
Kreisringgebiete (10) liegen.
36.2. Die Satze von GERSCHGORI:\ und HEI:\RICH. Dcr Kreisringsatz 237

Beim speziellen Paar A; I hat der Schiftpunkt


1
A = - Spur.-t ( 12)
n
als ~littelpunkt der n Eigenwerte eine besondere Bedeutung. Wird im
Satz 3 die Spektralnorm durch die zwar grobere, aber leichter zu
berechnende euklidische Norm K ersetzt und der Radius

Q
. IIF(A)llx l/ll
.= -1
.f - - (13)
11

eingefiihrt, so resultiert unter Yerlust des von Eigenwerten freien


Innenkreises der
Satz 4: (HEINRICH) Sii11ltliche Eigen7.i.'erte der speziellen Jlatrix
F()') = A - }. I liegen innerhalb oder auf delJl Rande des Kreises mit
dem 1111ittelpunkt A (12) und de11l Radius Q (n)
IA -}) ~ g. (1..J.)

"\
\
k zl V,

~:r
Abb. 36.1. Elastisdws \Tierbt'ill
,

Erstes Beispiel. Nach (12.33) berechnet sich die Federmatrix C des elastischen
Vierbeines der Abb. 36.1 mit den Richtungsvektoren a 1 = e 1 , a 2 = e 2 , a 3 = e a und
a 4 = (0,1 0,3 I)T und den Federzahlen c1 = C, c2 = 2 C, c3 = 5c, ct = c als Summe
von vier Dyaden

mit
3
229 :~)' .
30 650
Die drei Eigenfederzahlen Aj = Cj/11O sind cinzuschlie13en a) nach GERSCHGORI);,
b) nach HEINRICH.
a) \,yegen der Symmetrie des Paares "-1; list f{i = ~i und iJj = Pi und wcgcn
B = I wird f3i = {3i = 0 und bji = 1. Aus (5) folgt demnach Qi = ri/ 1 = ri' und
238 § 36. Einschlie13ungssatze fur Eigenwerte und Eigenvektoren

damit geht wegen R j = ajj der Satz (6) uber in


p.-ajjl;;;;'Pj; j=I,2,3.
Wir berechnen nun die drei Summen (3)
Ian - an' 11 + 131 + 1101 = 13;
1101 + 1301 + la3a - aa3·11 = 40
und haben damit, da die Eigenwerte reell sein mussen, die Einschlie13ungen
610 ;;;; Aa ;;;; 690 .
b) Nach (12) wird der Schiftpunkt A = 330 und so mit

F(A) = F(330) = A _ 330. I = (-21~ -10: 10)


30 .
10 30 320
Die euklidische Norm ist die Wurzel aus der Summe der n2 = 9 Quadrate der
Elemente dieser Matrix, und damit wird der Radius (13)

e= V162580. -V ~ = 329,221 ~ 330.


Die Eigenwerte liegen somit innerhalb des Kreises mit dem Mittelpunkt A = 330
nnd dem Radius e = 330. Da sie reell sein mussen, gilt mithin die Einschlie13ung
o ;;;; )'j ;;;; 660 fur j = 1, 2, 3 .
Die exakten Werte sind
Al = 110,763352, A2 = 226,917937, Aa = 652,318738.
Zweites BeispieL Gegeben ist das .\Iatrizenpaar
12 0,1
A = ( 0,2 15
-01)
n,1 , B=(-O~1 0,1 :::./).

0,1 0,3 20 -0,2 0 4


Die Eigenwerte sind mit Hilfc des Satzes yon GERSCHGORIN einzuschlie13en.
1. Zeilenweise. Wir berechnen als erstes aus der .\latrix B die Gri.i13en Pj (3) und
damit die Nenner aus (5):
PI = 10,11+ 10,1 . il = 0,1 + 0,1 = 0,2 ~ N1 = bn - PI = 3 - 0,2 = 2,8 ,
P2 = 1-0,11 + 10,11 = 0,1 + 0,1 = 0,2 ~ N2 = bZ2 - {32 = 5 - 0,2 = 4,8,
P3 = 1-0,21 + 101 = 0,2 + ° = 0,2 ~ Xa = baa - Pa = 4 - 0,2 = 3,8 .
Da alle drei Nenner positiv sind, ist der Satz anwendbar. Die drei '\Iittelpunkte sind
die RAYLEIGH-Quotienten R1 = 12/3 = 4, R2 = 15/5 = 3 und Ra = 20/4 = 5.
Ais nachstes werden die Gri.i13en 'Pj(3) und damit die Zahler aus (5) berechnet:
a1 - R1 b1 = a1 - 4 b1
= (12 0,1 -0,1) - 4· ( 3 0,1 0,1' i) = (0 -0,3 -0,1-0,4·i),
a2 - R2 b2 = a2 - 3 b2
= (0,2 15 0,1) - 3' (-0,1 0,1 ) = (0,5 o -0,2 ),

= (0,1 0,3 20) - 5'(-0,2 ° 4 ) = (1,1 0,3


° ),
36.4. Quotientensatze. Der RAYLEIGH-Quotient 239

if!1 = °+ 0,3 + VO,17 = 0,71231 --> (h = fFl/1'I'1 = 0,71231/2,8 = 0,2544,


if!2 = 0,5 + °+ 0,2 = 0,7 --> (12 = IF2/N2 = 0,7/4,8 = 0,1459,
if!3 = 1,1 + 0,3 + ° = 1,4 --> (13 = if!3 iN3 = 1.4/3,8 = 0,3685,
wo die drei Zeilenradien zur Sicherheit nach oben aufgerundet wurden. Die Abb. 36.2
zeigt die drei EinschlieBungskreise.

iv

/
/
f
I
u

i.:u+iv
Abb.36.2. GERSCHGORls·Kreise fiir ein dreireihiges lIIatrizenpaar

2. Spaltenweise. Hier bekommt man mit den Xennern 1\"1 = 2,7, N2 = 4,9 und
N3 = 3,8 und den gleichen Mittelpunkten R 1 , R 2 , R3 wie oben die Radien
A
(11
9
5
= - = 0,5556, = 0,1021 , e2 = 0,2395. e3
Die zugehodgen Kreise sind gestrichelt eingezeichnet. Die drei Eigenwerte
Al = 3,9929 + 0,0314 i , A2 = 3,0084 - 0,0005 i , )'3 = 4.9905 - 0.0468 i
liegen im jeweils kleineren Kreis. wie es sein muB.

36.3. EinschlieBung isolierbarer Eigenwerte bei Diagonaldominanz


Der Satz von GERSCHGORIN [182J wie der Diagonalsatz [177J leiden
an einem betrachtlichen Schonheitsfehler: je ausgepragter die Diagonal-
dominanz des Paares A; B, urn so mehr iiberschatzen sie die wahre
Entfernung des Eigenwertes vom Kreismittelpunkt. Diese Informa-
tionseinbuBe liegt in der Beweisfiihrung begriindet, die nicht aus-
schlieBt, daB die n Komponenten des zu Ai gehorigen Eigenvektors ;Xi
samtlich auf einem Kreis urn den Kullpunkt der komplexen Zahlen-
ebene liegen, wahrend bei Diagonaldominanz, sofern AI ein einfacher
Eigenwert ist, ;Xi sich vom Einheitsvektor e i bzw. (Xi e j nur wenig
unterscheidet, mithin gerade die diametrale Situation vorliegt. Wird
dieser Umstand mit ins Kalkiil gezogen, so resultieren sehr viel schar-
fere Aussagen bei kaum nennenswertem ~Iehraufwand, siehe dazu
[180J und die Arbeit von SCHNEIDER [194J .

• 36.4. Quotientensatze. Der Rayleigh-Quotient


Die erfiillte Eigenwertgleichung A ;x = A B;x schreibt sich mit den
beiden Bildvektoren
(15)
240 § 36. Einschlief3ungssitze fiir Eigcnwerte und EigenYektoren

komponentenweise ai =;, bi oder auch in leicht verstandlicher Ko-


tation
(16)
1st nun zein Naherungsvektor, so gelten analoge Gleichungen ,~1 z~i
= qi[B zJ i mit dem Cnterschied, dal3 die Quotienten qi im Gegensatz
zu A im allgemeinen voneinander verschieden sind, und es ist zu ver-
muten, dal3 im Streubereich dieser Quotienten sich auch jener Eigen-
wert befindet, fUr dessen Eigenvektor z eine Naherung ist. Allerdings
mussen wir alle Gleichungen der Form 0 = qi . 0 ausschliel3en, deren
Umkehrung nicht moglich ist; die verbleibenden k ~ n Quotienten

j=1,2, ... ,k; k~n (17)

nennen wir definiert. Es gilt dann fUr normale l\latrizenpaare A; D der


Sat z 5: J eder Kreis der komplexen Zahlenebene, der siimtliche k ~ n
definierten Quotienten qi enthiilt, enthiilt altch mindestens einen Eigenwert
des normalen Paares A; D.
1st A hermitesch, so sind die Eigenwerte reell, und wir konnen
schreiben
(18)
Das ist der Einschliel3ungssatz von COLLATZ [169J, der sogar noch fur
eine gewisse nichtnormale Klasse von l\Iatrizenpaaren A; D gultig ist.
Liegt ein allgemeines norm ales Paar vor, so macht man vorweg die
Aquivalenztransformation
L AR = A, L B R = DB mit tc = R z (19)
und wendet den Satz auf das Paar A; DB an, oder aber, wenn man den
Naherungsvektor z beibehalten mochte, so gilt auch fUr die definierten
Quotienten
_ [LA zJi .
qi - [LBZ]j'
j = 1,2, ... , k; k~n (20)

der Satz 5, wie in ~173J gezeigt wurde.


Quotientensatze sind infolge ihrer aul3erordentlichen Einfachheit
besonders wertvoll bei abgeanderten Paaren. l\Ian geht dann mit den
Eigenvektoren des Originalpaares in die Satze ein und erzielt im all-
gemeinen recht brauchbare Einschliel3ungen bei minimalem Rechen-
aufwand.
Wir fragen jetzt, ob es einen Zusammenhang zwischen den hier
betrachteten Quotienten qi und dem uns langst bekannten RA YLEIGH-
Quotienten R gibt. Um der Antwort naherzukommen, fassen wir den
Quotienten qi auf als die Steigung einer durch den Nullpunkt gehenden
Geraden gi(}') = qi}' nach Abb. 36.} a, wo jeder AbszisseD zJ i der
36.4. Quotientensatze. Der RAYLEIGH-Quotient 241

reellen A-Achse die Ordinate ~.4 z~i zugeordnet wurde, so daB in der
Tat gi(A) = qi A gilt. Fuhrt man dies fur alle k definierten Quotienten
durch, so entsteht ein wohlbestimmtes Geradenbuschel, und nun lautet
die geometrische Interpretation des Satzes von COLLATZ: zwischen den
beiden Grenzgeraden g(A) = qrnin}' und g(}.) = qrnax}' der Abb. 36.3 a
liegt mindestens eine G-erade mit der Steigung }'k'

i.

Abb. 36.3a. Die RA YLEIGH-Gerade als bestc Xaherung im Sinn(' der Ausg-Icichsrechnung

Nun erinnern wir uns, daB es eine "beste" Gerade im Sinne der Aus-
gleichsrechnung auf der Grundlage der Methode der kleinsten Quadrate
von GAUSS gibt, beschrieben im Abschnitt 12.1, ferner in [43, S. 314=.
FaBt man die Abszissen W zJ i als gegeben und damit als fehlerfrei und
die Ordinaten [A zJ i als berechnet und damit als fehlerbehaftet auf,
so ist nach den dort abgeleiteten Gesetzen die Ausgleichsgerade
gR(A) = R A, und dies erkHirt ein weiteres :\lal die auBerordentliche
Gute des RA YLEIGH-Quotienten selbst bei nur schlecht geschatztem
Naherungsvektor z. EinschlieBungen mit Hilfe des RA YLEIGH-QUO-
tienten werden wir im Abschnitt 36.5 beschreiben.
Dazu ein einfaches Beispiel. Es sei D = 1 und ..J. reellsymmetrisch.

Fiir a = 0 ist ;e = (1 0 -1)T Eigenyektor zum Eigenwert Null, wie man leicht
nachpriift. Wir wahlen z = ;e als Naherungsyektor und bekommen

Az = (a 0 O)T, lz=Z=(1 0 -I)T.

Der zweite Quotient q2 = % ist nicht definiert und spielt daher im folgenden nicht
mit. Es verbleibt ql = a/I = a, qa = 0/1 = 0, also liegt nach dem Satz von COLLATZ
imBereich zwischen 0 und a mindestens ein Eigenwert, woyon der Leser sich iiber-
zeugen mage.
242 § 36. Einschlie13ungssatze fur Eigcnwerte imd Eigcnvektoren

Wir tragen nun die beiden Punktepaare (1 ; a) und (- 1 ; 0) auf und haben damit
die beiden definierten Geraden der .-\bb. 36.3 b. Der RA YLEIGH-Quotient ist R = al2
und liegt zwischen diescn beiden Grcnzgeradcn, wic es scin mu13.

gli.)
gli.l

a /

Abb. 36.3 b. Die H,'\ YLEIGH-Gerade zwischen zwei Grenzgeraden

.36.5. Der Satz von Krylov und Bogoljubov und seine Verscharfung
von Temple
Dieser Satz gilt ausschlie!3lich fiir normale ~Iatrizenpaare A; B,
die somit dem au/3eren Kriterium (16.35) geniigen
A* B-1 A = A B-1 A*; B = B* pos. def. (21)
und geht aus von einem RITz-Ansatz mit 11l < n linear unabhangigen
Naherungsvektoren
(22)
und der daraus gewonnenen Ersatz-Eigenwertaufgabe, dem Kondensat
(Z* A Z - e Z* B Z) a = 0 -+ el' e2' ... , em . (23)
Sei zunachst A hermitesch, dann sind die Werte ei reell, und nach dem
Ylaximum-Minimum-Prinzip (26.19) besteht die Eingrenzung
Ai~ei; j=1,2, ... ,m. (24)
1st nun das Paar normal, so sind die Eigenwerte im allgemeinen
komplex (genauer: mindestens ein Eigenwert mu/3 komplex ausfallen).
Mit einem belie big wahlbaren Schiftpunkt A hat dann nach (16.41)
das korrespondierende Paar F*(A) B-1 F(A); B die Eigenwerte
D; = 1Ai - A12; j = 1,2, ... ,n (24a)
zu den gleichen Eigenvektoren xi des Paares A; B. Die Aussage (24)
geht damit iiber in den
Sa tz 6: (KRYLOV/BoGOLJUBOV) Das Kondensat Z* F*(A) B-1 F(A) Z;
Z* B Z der Ordnung m < n habe die m Eigenwerte
(25)
36.5. Der Satz von KRYLOV und BOGOLJUBOV und seine \'erscharfung 243

dann liegen im Kreis mit dem beliebig u'iihlbaren J/ittelpunkt A und


dem Radius Llj mindestens j Eigenwerte des normalen Paares A; B:
IAj-AI2;;;;;Lly; j=1,2, .. ,,111. (26)
Fur m = 1 ist das Kondensat skalar und liefert als einzigen Eigenwert
z* F*(A) B-1 F(A) z
02 = - B-1
.._ - = d* - -d mit d:= F(A) z, (27)
z* Bz z* B z
und dies ist nichts anderes als das normierte Defektquadrat (25,61),
das nach Abb, 25,3 b im RAYLEIGH-Quotienten R = z* .4 zjz* B z
seinen minimalen Wert annimmt. \"ir haben damit den
Satz 7: 1m Kreis mit dem Jlittelpunkt A = R und dem Radius OR
liegt mindestens ein Eigenwert des normalen Paares A; B.
Wahlt man n Naherungsvektoren Zl" . , ,zn und liegen die zu-
gehorigen n Kreise getrennt, so gilt, da es insgesamt nur n Eigenwerte
gibt und jeder Kreis mindestens einen Eigenwert enthalten muB,
anstelle von Satz 7 sehr viel scharfer: im Kreis mit dem ~littelpunkt R j
und dem Radius OJ liegt genau ein Eigenwert des normalen Paares.4; B,
1st das Paar A; B diagonaldominant (z. B. nach einer .\nzahl von
JAcoBI-Rotationen), so sind die n Einheitsvektoren e l , ' . . ,en brauch-
bare Naherungen und geben mit minimalem Rechenaufwand oft hervor-
ragende EinschlieBungen.
Von TEMPLE [196J stammt eine Yerscharfung des Satzes von KR YLOV j
BOGOLJUBOV (26) fur den Fall, daB ein Kreis mit dem ~Iittelpunkt R j
und dem Radius hj > OJ existiert, der seinerseits den Eigenwert }'j als
einzigen enthalt. Unter dieser Voraussetzung gilt der
Satz 8: (TEMPLE) 1st h j > bj = cl* B-1 cijz* B z mit d := F(A) z
und existiert ein Kreis K j mit dent JIittelPunkt R j = z* A zlz* B z
und dem Radius hj' der n - 1 Eige1l1rerte allfJerhalb liifJt, so gilt die
EinschliefJung
(28)
Diese Situation ist sichergestellt, wenn die iibrigen It - 1 Eigenwerte
aufgrund irgendeines Satzes in Kreise eingeschlossen wurden wie in
Abb, 36.4a dargestellt.

a b
Abb.36.4. a) Zum Satz von TEMPLE; b) der Satz \'011 TEMPLE fur hermitesche Paare
244 § 36. Einschlief3ungssiitze fUr Eigenwerte und Eigem'cktorcn

1st auch A hermitesch, so liegen die R-\ YLEIGH-Quotienten auf der


reellen Achse, und es gilt mit den Bezeichnungen von Abb. 36.4 b
anstelle von (28) die EinschlieBung

(29)

Liegen aIle n Kreise getrennt, so verbessert man zunachst die oberen


Schranken G j in der Reihenfolge Gv G2 , ••• , G n mit gn = + 00, sodann
die unteren Schranken in der Reihenfolge F n' F/I_l,"" F1 mit
11 = - 00 und gewinnt dadurch die optimale EinschlieBung, die mit
n Naherungsvektoren Zl' Z2' . . . , zn ohne zusatzliche Information bzw.
weiteren Rechenaufwand iiberhaupt erreichbar ist.
f------- Xl f------------ x]

~ C...A~~~~~~'::
Sm Kopplurc;
J
.
..
, T
. .' I.yy , Erdung
i7c: lie 7c I JOe f
Abb.36.5. ScinvingtTkt'tte mit vier Freiheitsgraden

\Vir rechnen ein Beispiel. Die Eigenkreisfrequenzen Vi der Schwingerkette von


Abb. 36.5 sind einzuschlief3en. \Vir summieren die Fcdermatrizen C e und C k (Er-
dung und Kopplung) zur Gesamtfedermatrix

( 1~U
1~~:7 ~)e+ (-:
() II 0 -1
-: -~ 3-2
~)e,
tl tJ () 311 0 () - 2 2

1S -1

~)
()

c= ( -1 14 -1
e = A e
o -1 1(1 -2
o (I -2 32

und haben mit dcr ]Uassenmatrix

(' ")
II II

(I n
ell = 0 /J/=Bm
II II II

II () II 5
die dimensionslos gemachte rcellsymmetrische Eigen\Vertaufgabe
(..1. - i. B) J: = 0 mit i. = l,2 "'Ie
und

J: = (91 ~3 7r
\vo I eine belie big wiihlbare VergleichsHi.nge ist.
Da ausgepriigte Diagonaldominanz Yorlicgt, sind die Einheitsyektoren geeignete
Niiherungen Pi = Zj. Damit ,,'crden die RAYLEIGH-Quotienten ohne Rechnung
36.6. Der Perturbationssatz fur hermitesche Paare 245

R j = aij/bij, und die Defekte sind

dj = (A - R j B) %j = (.4 - R j B) ('j ~- (lj - Rj b j ; j = 1,2, 3,4.

Zum Beispiel ist

Eine fluchtige Skizze zeigt, daB alle yier EinschlieBungsgebiete getrennt liegen,
mithin gilt die verschiirfte EinschlieBung (29) mit Hilfe der Rechts- und Links-
abstiinde gi und Ii nach Abb. 36.4 b, wo g4 = -i- 00 und II = - 00 gesetzt werden
darf, da garantiert links von Rl eben so wie rechts yon R, kein Eigenwert liegen
kann. Die Ergebnisse zeigt die folgende kleine Tabelle mit der Abkurzung
Pi: = dJ B-1 d i ·
----~-----

: (j2
Rj - -'- ~ )'1
j Ij gi Ai exakt
i
<R-
=
~
1 + Ii

18 3,4286 18 ~ }'1 18,2427


~ 18,2917
2 14 2 2 1,4142 4 3,5 13.5 ~ ;'2 14,0060
~ 14,5714
3 10 1,8 1,8 1,3416 3,5 3,6 9,4857 ~ )'a! 9,9683
~ 10,5 .
4 6,4 4 0,8 0,8944 3,0857 -00 ;;'-1407 ~ A,I 6,1831
~ 6,4

• 36.6. Der Perturbationssatz fUr hermitesche Paare


Die Eigenwerte Aj eines hermiteschen Paares ,:,4; B mit B pos. def.
seien bekannt, und gesucht sind die Eigenwerte Ai eines abgeanderten
(gestorten, benachbarten) Paares .4 S; B +
T, wo auch S und T +
hermitesch sind. Sei zunachst S = s B und T = t B, dann lassen sich
alle vier Matrizen simultan auf die Diagonalmatrix der Eigenterme
transformieren
.....,.., ....""
X*(A - AB +S - }, T) X = Diag (}'j - ), + s - }, t> , (30)
die gleich Null gesetzt die n Eigenwerte

i=Ai+ S •
j=1,2, ... ,n
1 1 +t '
246 § 36. Einschliellungssatze fur Eigenwcrte und Eigenvektoren

liefern, ein Ergebnis, das man auch so ausdriicken kann: man bringe
die n Eigengeraden Ai - ), des Paares A; B zum Schnitt mit der
3
Geraden -s + t. Die Abszissen der n Schnittpunkte Pi sind dann

,
die Eigenwerte )'j des gestorten Paares nach Abb. 36.6.

"
'"
1-:::'..-·
i ' ~
-50.-
\, ' , 01 ~~ ___ _

~/ . ;

~
I .. A

Abb. 36. 6. Zum P erturbationssatz

1m allgemeinen Fall treten an die Stelle der Skalare s und t iiu/3ere


Schranken flir die vVertebereiche der beiden Paare S; B und T; B
nach Abb. 36.8. )Ian hat jetzt die Eigengeraden }'j - A des Paares
A; B zu schneiden mit dem in Abb. 36.7 getonten Gebiet, das begrenzt
wird von vier Geraden, die festgelegt sind durch die iiu/3eren Schranken
s und 5 sowie t und T.

i.

Abb. 36. 7. Zum Perturbationssatz

o s 5
Abb. 36.8. Die \\"ert ebereichc cler Paare S ; B und T; B und ihre auf3eren Schranken

Die Vereinigungsmenge der Projektionen der stark ausgezeichneten


Geradenabschnitte auf die },-Achse enthiilt dann siimtliche Eigenwerte
des gestorten Paares. Liegt die Vereinigungsmenge von m < n solcher
Projektionen von den iibrigen getrennt, so enthiilt sie genau m Eigen-
werte. Man vergleiche diese Aussage mit dem Satz von GERSCHGORIN
in Abschnitt 36.2.
36.6. Der Perturbationssatz fur hermitesche Paare 247

Der Perturbationssatz erlaubt eine niitzliche Anwendung auf ge-


randerte Paare, deren Rander als Storung aufgefa13t werden

F(A) = (lU(A)
o F 22 (A)
OT) + S+ AT, S= (0.a 21
a~l),
0
T = (0 b 2I
boil).
(32)
Beide Matrizen haben offensichtlich den Rang n - 2, und die au13eren
Schranken der Wertebereiche der Paare S; B bzw. T; B sind die beiden
einzigen von Null verschiedenen Eigenwerte
s = -IX, 5 = -!-IX; t = -{J, T = +fJ (33)
mit
(34)

(... i.~
__ ---- - i,~

----
a

".
b
.-\bb.36.9. Eigenwerte einer geranderten ::\latrix. a) Rand aile in in B; b) H.ander in A. und B

wie eine einfache Rechnung zeigt . N'ach Abb. 36.9 besteht damit ein
einfacher Zusammenhang zwischen den Teilspektren Q des Paares
au; bll und aI' ... ,a,, _ l des Paares .4 22 ; B22 und 1.1' ... ,An' vVurde
speziell A bereinigt, so ist mit U 2I = 0 auch IX = 0 und somit s = 5 = o.
Bestehen die Rander aus Blacken, so gelten ahnlich einfache Zusam-
menhange.
Oft wird man das Spektrum des ungestorten Paares A; B nur an-
genahert kennen; auch dann leistet der Perturbationssatz niitzliche
Dienste, wie der Leser sich leicht klarmacht.
Der Beweis des Satzes erfolgt iiber den Diagonalsatz [177J und ist
unschwer auf drei beziiglich B normale :\Iatrizen A , S und T zu verall-
gemeinern, wie in [180J vorgefiihrt.
Dazu ein Beispiel. Das in Abb. 36.10 skizzierte Schwingungssystem habe die
EigenwerteAj = vl m/c. Aile n Massen werden urn 5 bis 10 ~~ \'ergroJ3ert (verkleinert).
die Koppelfeder C12 urn P % vergroJ3ert. \Vas ist uber das Spektrurn des so ab-
geanderten Systems zu sagen?
248 § 36. Einschliei3ungssatze ftir Eigenwerte und Eigenvektoren

Zunachst die Anderung der ~Iassen. Es handelt sich um den \Vertebereich des
Paares T; B, wo beides Diagonalmatrizen sind. Seine Eigenwerte sind die Quotienten
tnneu/tnalt, und dieser Quotient liegt laut Aufgabenstellung zwischen t = 0,05 und
T = 0,10. Die Steigungen der Geraden sind damit eingeschlossen.
mn f,
~. PoorAiB
me
• "OO,Si B

Abb.36.10. Schwingcrkette mit herausgelOstem Zusatz

Nun zum Paar S; B. Da allein die Feder cl2 geandert wird, hat 5 nur vier von
Null verschiedene Elemente im Hauptminor

S _ ( LI Cl2 -LI cn ) .
12- -LlC l2 Llcu
Die Eigenwerte von S - a B sind somit (n - 2}-mal die Null und auJ3erdem die
beiden Eigenwerte des herausgelosten Schwingers von Abb. 36.10, namlich a l = °
(reine Translation) und

2
a = LI Cl2(~ + ~).
tnl tn2
(a)

Damit ist auch der Wertebereich des Paares A; B durch s = und 5 = (]2 ein- °
gegrenzt.
Die Situation ist ahnlich, wenn statt einer einzigen k Koppelfedern geandert
werden, sofern diese nicht untereinander benachbart sind. Man hat dann insgesamt
k herausgeloste Systeme nach Art von (a) zu berechnen und die groi3te Schranke Smax
anstelle von 5 einzusetzen.

a ;. b i.
Abb. 36.11. Zur Schwingerkette yon .\bh. 36.10. Die ~lassen werden a) vergrot3ert, b) verkleinert

Besondere Beachtung verdient das folgende. Es besteht ein in der gesamten


Mechanik (auch der Kontinua) durchgreifendes Gesetz: werden in einem un-
gedampften Schwingungssystem einige oder aile l\Iassen verkleinert (vergroi3ert)
und gleichzeitig einige oder aile Federn (Elastizitaten) vergroi3ert (verkleinert), so
vergroi3ern (verkleinern) sich einige ocler aile Eigenfrequenzen. Die Abb. 36.11 b
ftihrt dies en Satz nicht nur qualitativ sondern quantitativ plastisch vor Augen .

• 36.7. Der Satz Acta Mechanica


fur hermitesche positiv definite Paare
Dieser in [178J bewiesene Satz erfordert deutlich mehr Aufwand als
die bislang beschriebenen Satze und geht in drei Etappen vor.
36.7. Der Satz Acta :\Iechanica fur hermitesche Paare 249

1. Es ist zweckmaBig, wenn auch nicht erforderlich, von der homo-


genen Zentralgleichung (26.5) auszugehen. Das vorgelegte Paar A; B
wird in vier Blocke unterteilt

(35)

und der einfachen Darstellung halber nehmen wir an, die I Eliminations-
zeilen und -spalten seien die I ersten. Aus dem als gutartig voraus-
gesetzten Gleichullgssystem
(36)
berechnet man den Block Zkj und erganzt ihn mit Hilfe der l-reihigen
Einheitsmatrix 111 zum Block
.-1......

Z= ( J..
11
t
) n, (37)
Zkj ~
womit das bereinigte Paar A; jj festliegt:
A- = (A.. _ 1 = (Z* A Z 0 ) . B- = _'I ~tl·)
-" At.)
Aki Au 0 Akk'
_
B kj Bkk
= (Z*_B
_
Bki
(ii.
Z Btl.).
Bkk
(38)
Die l-reihigen Blocke oben links in .4 und Ii sind offenbar RITz-Ansatze
mit dem Block Z. Wahrend man die :\Iatrix
Bii = Z* B Z = Z*(B Z) (39)
mit dem in Klammern stehenden Block B Z berechnet, laBt sich auf-
grund der erfulltell Gleichullg (36), wie in (26.53) gezeigt, die Matrix Ajj
vorteilhafter so gewinnen:

Aii{ = Z* A Z} = Z* Ai mit Ai = (Aii) . (40)


Aki
2. Als nachstes benotigen wir auBere Schranken fUr die reellen
nichtnegativen Wertebereiche W Q und Wa der beiden :'.Iatrizenpaare

Aii; Bii --+ g ~ e. ~ e; v = 1,2, ... ,I (41)

Akk;Bkk --+ ~ ~ (J. ~ a; v = 1,2, ... ,n - I , (42)

die jeweils abgeschlossen werden durch ihre extremalen Eigenwerte.


Eine wesentliche Voraussetzung fur die Gultigkeit des Satzes ist nun,
daB diese beiden Spektren, wie in Abb. 36.12 skizziert, getrennt liegen

(43)
250 § 36. Einschlie13ungssatze fiir Eigenwerte und Eigenvektoren

!; Wr r

--
W~- Wq ----_
I
(j
g ('1 !!t !! !! <T, Ur

Abb. 36.12. Getrennte Wertebereiche irQ und Ira sind die Voraussetzung fur den Satz Acta ~!echanica

Dies ist nur in Sonderfallen, z. B. bei ausgepragter Diagonaldominanz


mit Hilfe des Satzes von GERSCHGORIN oder besser nach KRYLOV/
BOGOLJUBOVjTEl\1PLE ohne allzu groBen Aufwand zu entscheiden. 1m
allgemeinen aber wird man urn den explizit durchzufiihrenden SYL-
VESTER-Test
(44)
nicht herumkommen. Dazu ist erforderlich die linksseitige Trans-
formation auf obere Dreiecksmatrix
(45)
die abgebrochen wird, sobald ein Hauptdiagonalelement von '\J Null
oder negativ wird. In diesem Fall war die vorgenommene Blockunter-
teilung der Matrix F(J.) ungeeignet, der Satz ist somit nicht anwendbar.
e
3. 1st die Trennung < ~ gesichert, so streichen wir im Block B Z
(39) l wohlbestimmte Zeilen

B.:= BZ = -_-(... )1
Bki
1
(46)

und k6nnen mit dem auf diese \Yeise gewonnenen Randblock Bki das
Matrizenpaar
v = 1,2, ... ,l (47)
aufstellen, fUr dessen \\'ertebereich wir zwei auBere Schranken T und T
ben6tigen, und nun laSt sich beweisen: mit Hilfe der jeweils zw;i auSe-
ren Schranken (41), (42) und (47) konstruiere man nach Abb. 36.13 die
beiden Parabeln PI ().) und P2()')' ferner die beiden als Koppelfunktionen

i.

Abb.36.13. Satz Acta ~!echanica original


36.7. Der Satz .\cta Mechanica fur hermitesche Paare 251

bezeichneten Parabeln kl(A) und k2(A). Innerhalb der Projektion des


get6nten Parabelsegmentes QIQ2Q3Q4 auf die }.-Achse liegen dann die
kleinsten 1 Eigen werte des Paares A; B.
In Formeln ausgedrlickt bedeutet dies folgendes. ~Ian berechne aus
den beiden quadratischen Gleichungen

Ql: Pl(A)=(1-~)(1- ~) = T/.2~0<2:~g, (48)

Q2: P2(A)=(1-!i)(1 - ~) = ~J2~0<J.~i? (49)

die jeweils kleinere Wurzel }, bzw. J., dann gilt der


Satz 9: (Acta Mechanical Die kleinsten I Eigenwerte des hermite-
schen und positiv definiten Paares ..t; B If.'erden eingeschlossen dltrch
o< ~ ~ Al ~ }'2 ~ . .. ~ }'I ~ I. . (50)
Flir den wichtigen Sonderfalll = 1, der sich in praxi fast immer reali-
sieren HiSt, wird
z*Az ~
e= - - (=e=e); (51)
z* Bz -

das Segmentviereck entartet nach A bb.'6.1 5 in das Para be 1st lick QIQ2'
und die quadratischen Gin. (48) und (49) gehen liber in

Ql: Pl(A)=(1- ~)(1- :) = TI.2~0<2:~Q' (52)

Q2: P2(A) =(1 - ~)(1 - ~)=d2~0<J.~e. (53)

Da liber das Spektrum des Paares A. u ; Bkk im allgemeinen wenig


oder gar nichts bekannt sein wird, setzen wir ~ = g, was zufolge der
erflillten Voraussetzung (43) erlaubt ist, ferner recht rigoros = 00, a
womit die Parabel P2(A) in die Gerade g2(}.) libergeht, und bekommen
damit die Schnittsituation von .\bb. 36.14. Die beiden quadratischen

I.

gFI
Abb. 36.1 -L Satz Acta :\lechanica \'ergroberun~
252 § 36. Einschlie13ungssatze fUr Eigenwertc und Eigenvektoren

Gleichungen (48) und (49) vereinfachen sich dann wegen A/a = AI 00 = 0


zu
(54)

(55)

= i A2 -> 0 < ~ ~ (} , (56)

= iA2

(57)

t.

.\bb. 36.15. Satz Acta )If'chanica fUr 1 = 1. Die Vergroberung ist gestrichelt cingezeichnet

siehe auch Abb. 36.15. Cbrigens 13.13t sich die kleinste Nullstelle}, der
Gl. (56) explizit angeben; der kleinste Eigenwert Al wird dam£ ein-
geschlossen durch

e
A=--i- (58)
~ 1 + eh
wo wir die zur Einsch1ie13ung benotigten GraBen nochma1s zusammen-
stellen:
au{ = z* A z} = a i z , bij = z* B z , Cjj = b:i A,;-/ bki . (58a)
DaB zufolge der Bereinigung z* A z = a i z ist, hatten wir in (26.54)
gezeigt. In diesem Zusammenhang erinnern wir daran, daB durch die
in Abschnitt 26.6 beschriebene Technik des Splittens einer Matrix
bzw. eines Vektors die in (47) und (51) notwendig werdende - for-
male - Inversion der B10ckmatrix ..1kk sich zuriickfiihren l3.13t auf die
36.7. Der Satz Acta :'IIcchanica fUr hermitesche Paarc 253
Inversion der Gesamtmatrix "4, ein Yorgeben, das sich besonders bei
groBen Matrizen empfiehlt.
AbschlieBend noch eine interessante Bemerkung. 1st die ~Iatrix A.
fastsingular,
_
so kann auch der Hauptminor ...i 11.. fastsingular, bzw. das
Element a jj fast Null werden, womit das Spektrum der Eigenwerte T
gegen unendlich strebt; nach Abb. 36.16 schmiegen sich die Koppel-
funktionen k1(A) und k2(A) eng an die senkrechte Achse, so daB die Ein-
schlieBung besonders scharf ist.

p:I;.1
.0: 1;.1

I.

Abb. 36.16. Der fall T _ X

Erstes Beispiel. A; I mit

1,5 (I )
A = ( 1 1,5 1 .

o 1,5

Wir wahlen j = 2, bereinigen somit die zweite Zeilc und Spalte Yon .4. Dics flihrt
auf das Gleichungssystem Akk Zkj + Ukj = Q mit

1,5 0 -2/3 -2/3)'


.4kk =C) 1.5)~Zki=(_2/3)'-Z= ( 1 '
-2/3
wo der Vektor Zki nach (37) durch Hinzunahme der Komponente 1 an der Stelle
= 2 zu Z vervollstandigt wurde. \Vir berechnen nun den RA YLEIGH-Quotienten (+0)

=boO {= zTzT A:}


e aii
Iz
=azT z =~/6 2
:.
17/9
= ~
3+
=
o,oSS2353
11

und machen den Trennungstest (43). Das Restpaar A kk ; Ikk ist diagonal und hat die
beiden Eigenwerte t11 = t12 = 1,5 > e = n,SS ... , somit ist der Satz an wend bar.
Nach (46) ist der Vektor b z = B z = I z = z zu berechnen und die Komponente
der Nummer j = 2 zu streichen, das gibt den \'cktor b ki und damit den RAYLEIGH-
Quotienten T:

16/2i = 32
;; . = (-2/3) -
C -
ii -
b- T I- ' -b
kj: kk ki 16,2i.
kl -2/3' 1/6 l)
MATRIX A 0 20 -48 -16 92 -68 80 36 46 6 138 84 -100 16 160 124 138 -48 -80 102
32 0 20 16 -20 90 -38 162 76 96 -32 32 -136 -50 20 4 154 tv
20 0 -96
-48 -96 0 0 -32 48 -128 -64 -20 -44 -276 -64 232 0 -256 -208 -140 -48 80 -44 '"
+-
-16 32 0 0 96 -16 32 8 -18 -6 14 8 -36 0 64 24 178 16 -48 -6
92 0 -32 96 0 92 -80 -156 110 14 134 -124 64 -96 -160 -280 74 92 172 78
-68 20 48 -16 92 0 -32 24 -100 -36 -232 -24 52 16 -64 4 148 20 -36 -132
80 16 -128 32 -80 -32 0 48 132 -20 180 176 -8 -32 0 64 -132 -16 80 236
36 -20 -64 8 -156 24 48 0 108 -4 264 64 52 -8 96 -76 -348 4 -12 124 eN
46 90 -20 -18 110 -100 132 108 0 64 210 128 -318 18 264 334 312 -10 -86 104 0
6 -38 -44 -6 14 -36 -20 -4 64 0 -6 40 2 6 -40 30 -24 -74 26 88
138 162 -276 14 134 -232 180 264 210 -6 552 588 -470 -2 384 538 454 -34 48 572 tri
84 76 -64 8 -124 -24 176 64 128 40 588 204 -236 52 364 184 -184 32 -2 142 S·
144 -152 en
-100 96 232 -36 64 52 -8 52 -318 2 -470 -236 112 20 56 86 68 -506 n
16 -32 0 0 -96 16 -32 -8 18 6 -2 52 20 40 -4 8 -162 -40 42 16 g
160 32 -256 64 -160 -64 0 96 264 -40 384 364 56 -4 300 164 -336 -212 310 466
124 -136 -208 24 -280 4 64 -76 334 30 538 184 144 8 164 -80 -710 -164 -36 426 to
"'.
138 -50 -140 178 74 148 -132 -348 312 -24 454 -184 86 -162 -336 -710 272 146 522 236 ::l
-48 20 -48 16 92 20 -16 4 -10 -74 -34 32 68 -40 -212 -164 146 128 16 2 '"
(JQ
en
-80 4 80 -48 172 -36 80 -12 -86 26 43 -2 -152 42 310 -36 522 16 140 -74 en
~,
102 154 -44 -6 78 -132 236 124 104 88 572 142 -506 16 466 426 236 2 -74 216 ri-
N
<1>

I·IATRIX G 19 7 -10 7 -17 4 10 0 11 5 54 10 -13 -7 20 1 -7 11 9 25 2


...,
7 19 10 7 3 8 2 0 0 3 19 -10 -17 -7 4 1 20 27 5 -17 tri
-10 10 40 -4 26 4 -8 -4 -10 0 -32 -44 -6 4 -16 18 42 14 -2 -80 00'
7 7 -4 10 -9 12 -4 -8 3 4 14 -4 -3 -10 -8 -29 -7 19 11 12 <1>
-14 2 -6 10 -5 -17 -32 -7 9 4 31 106 -11 -19 -57 ::l
-17 3 26 -9 75
4 8 4 12 -14 22 -8 -14 1 4 11 -18 6 -12 -16 -50 -21 30 12 -4 :::
Cl
10 2 -8 -4 2 -8 40 0 30 0 112 8 -10 4 80 18 -6 -6 -30 16 ...,
ri-
-14 0 22 -15 -4 -29 26 -6 8 0 46 3 -14 0 4 Cl
O 0 -4 -8 -6
11 0 -10 3 10 1 30 -15 75 -1 147 -5 3 -3 60 -16 -33 1 -19 19 c:
4 -4 -1 10 8 -4 -19 -4 0 -7 1 7 5 10 ::l
5 3 0 4 -5 0 P.
54 19 -32 14 -17 11 112 -29 147 8 455 10 -34 -7 207 -25 -63 30 -47 77
10 -10 -44 -4 -32 -18 8 26 -5 -4 10 89 10 11 19 36 -37 -28 2 87 tri
-13 -17 -6 -3 -7 6 -10 -6 3 -19 -34 10 101 -1 6 -33 -51 -15 -13 -7 00'
<1>
-7 -7 4 -10 9 -12 4 8 -3 -4 -7 11 -1 20 -1 41 3 -27 -8 -8 ::l
4 -16 -8 4 -16 80 0 60 0 207 19 6 -1 235 22 -10 -18 -50 27 <:
20 <1>
1 1 18 -29 31 -50 18 46 -16 -7 -25 36 -33 41 22 187 72 -63 -16 -39 :>;&