Sie sind auf Seite 1von 136

MathematikOnlineKurs

Lineare Algebra

http://www.mathematik-online.org/

http://www.mathematik-online.org/

MathematikOnlineKurs Lineare Algebra


Stand: 9. Oktober 2006

Konzipiert von K. H ollig und W. Kimmerle unter Mitwirkung von A. App, J. H orner, I. Knesch, S. Kreitz, S. Maier, A. Streit und J. Wipper

2006

Mathematik-Online

Diese Ver oentlichung ist urheberrechtlich gesch utzt. Weder Mathematik-Online noch einer der Autoren u ur die Aktualit at, Korrektheit, bernehmen Haftung f Vollst andigkeit oder Qualit at dieser Ver oentlichung. Haftungsanspr uche, welche sich auf Sch aden materieller oder ideeller Art beziehen, die durch die Nutzung oder Nichtnutzung der dargebotenen Informationen bzw. durch die Nutzung fehlerhafter und unvollst andiger Informationen verursacht wurden, sind grunds atzlich ausgeschlossen.

http://www.mathematik-online.org/

http://www.mathematik-online.org/

Vorwort
Diese Brosch ure wurde im Rahmen des Projektes Mathematik Online begleitend zu dem entsprechenden Kursmodul erstellt. Sie richtet sich an Studenten der Ingenieur- und Naturwissenschaften und ist insbesondere zum Selbststudium und zur Pr ufungsvorbereitung geeignet. An der Entwicklung des Kurses haben eine Reihe unserer Mitarbeiter und Studenten mitgewirkt. Wir danken insbesondere J. H orner f ur die technische Leitung, A. App, J. H orner, I. Knesch, S. Kreitz, S.Maier, A. Streit und J. Wipper f ur die Ausarbeitung der mathematischen Grundlagen. Die gemeinsame Arbeit an dem Projekt hat uns viel Freude bereitet, und wir w unschen den Lesern viel Spa mit Mathematik Online und Erfolg in ihrem Studium. Stuttgart, im M arz 2005 Klaus H ollig Wolfgang Kimmerle

http://www.mathematik-online.org/

http://www.mathematik-online.org/

Inhaltsverzeichnis
1 Grundlegende Strukturen 1.1 Gruppen und K orper . . . . . . . . . . . . . . . . . . 1.1.1 Gruppe . . . . . . . . . . . . . . . . . . . . . 1.1.2 Untergruppe . . . . . . . . . . . . . . . . . . . 1.1.3 Verkn upfungstabellen . . . . . . . . . . . . . . 1.1.4 Permutationen . . . . . . . . . . . . . . . . . 1.1.5 Zyklenschreibweise von Permutationen . . . . 1.1.6 Transposition und Signum von Permutationen 1.1.7 Modulus . . . . . . . . . . . . . . . . . . . . . 1.1.8 Restklassen modulo n . . . . . . . . . . . . . . 1.1.9 K orper . . . . . . . . . . . . . . . . . . . . . . 1.1.10 Primk orper . . . . . . . . . . . . . . . . . . . 1.1.11 Galois-K orper . . . . . . . . . . . . . . . . . . 1.1.12 Turniere in Gruppen . . . . . . . . . . . . . . 1.2 Vektorr aume . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Vektorraum . . . . . . . . . . . . . . . . . . . 1.2.2 Vektorraum der n-Tupel . . . . . . . . . . . . 1.2.3 Unterraum . . . . . . . . . . . . . . . . . . . . 1.2.4 Linearkombination . . . . . . . . . . . . . . . 1.2.5 Lineare H ulle . . . . . . . . . . . . . . . . . . 1.2.6 Konvexkombination . . . . . . . . . . . . . . . 1.2.7 Konvexe H ulle . . . . . . . . . . . . . . . . . . 1.3 Skalarprodukt und Norm . . . . . . . . . . . . . . . . 1.3.1 Reelles Skalarprodukt . . . . . . . . . . . . . . 1.3.2 Skalarprodukt . . . . . . . . . . . . . . . . . . 1.3.3 Cauchy-Schwarz-Ungleichung . . . . . . . . . 1.3.4 Norm . . . . . . . . . . . . . . . . . . . . . . 1.3.5 Skalarprodukt - Norm . . . . . . . . . . . . . 1.3.6 Maximum-Norm . . . . . . . . . . . . . . . . 1.3.7 Skalarprodukt reeller Vektoren . . . . . . . . . 1.3.8 Skalarprodukt komplexer Vektoren . . . . . . 1.3.9 Winkel zwischen Vektoren . . . . . . . . . . . 1.3.10 Satz des Pythagoras . . . . . . . . . . . . . . 1.3.11 Pythagor aisches Tripel . . . . . . . . . . . . . 1.4 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Lineare Unabh angigkeit . . . . . . . . . . . . 1.4.2 Basis . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Dimension . . . . . . . . . . . . . . . . . . . . 1.4.4 Orthogonale Basis . . . . . . . . . . . . . . . 11 11 11 12 12 13 13 13 14 14 15 16 17 17 18 18 20 20 21 22 22 23 23 23 24 25 26 26 27 27 28 29 29 30 30 30 32 32 33 7

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

http://www.mathematik-online.org/

INHALTSVERZEICHNIS 1.4.5 1.4.6 Orthogonale Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Verfahren von Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . 36 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 39 40 41 41 43 44 44 45 46 46 46 47 48 50 50 51 51 53 53 54 54 54 55 55 56 56 57 57 57 59 59 60 61 62 63 64 65 66 67

2 Matrizen 2.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . 2.1.1 Lineare Abbildung . . . . . . . . . . . . . . . . . . 2.1.2 Komposition linearer Abbildungen . . . . . . . . . 2.1.3 Matrix . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Matrix einer linearen Abbildung . . . . . . . . . . . 2.1.5 Koordinatentransformation bei Basiswechsel . . . . 2.1.6 Bild und Kern . . . . . . . . . . . . . . . . . . . . . 2.1.7 Dimension von Bild und Kern . . . . . . . . . . . . 2.1.8 Inverse Abbildung . . . . . . . . . . . . . . . . . . . 2.2 Matrix-Operationen . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Vektorraum der Matrizen . . . . . . . . . . . . . . 2.2.2 Matrix-Multiplikation . . . . . . . . . . . . . . . . . 2.2.3 Strassens Algorithmus . . . . . . . . . . . . . . . . 2.2.4 Kommutator . . . . . . . . . . . . . . . . . . . . . 2.2.5 Inverse Matrix . . . . . . . . . . . . . . . . . . . . . 2.2.6 Transponierte und adjungierte Matrix . . . . . . . . 2.2.7 Spur . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.8 Rang einer Matrix . . . . . . . . . . . . . . . . . . 2.2.9 Norm einer Matrix . . . . . . . . . . . . . . . . . . 2.2.10 Zeilensummen-Norm . . . . . . . . . . . . . . . . . 2.3 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Belegungsstruktur von Matrizen . . . . . . . . . . . 2.3.2 Orthogonale und unit are Matrizen . . . . . . . . . 2.3.3 Hadamard-Matrizen . . . . . . . . . . . . . . . . . 2.3.4 Fourier-Matrix . . . . . . . . . . . . . . . . . . . . 2.3.5 Normtreue orthogonaler und unit arer Matrizen . . . 2.3.6 Zyklische Matrizen . . . . . . . . . . . . . . . . . . 2.3.7 Stochastische Matrizen . . . . . . . . . . . . . . . . 2.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Determinante als antisymmetrische Multilinearform 2.4.2 2-reihige Determinante . . . . . . . . . . . . . . . . 2.4.3 Sarrus-Schema . . . . . . . . . . . . . . . . . . . . 2.4.4 Orientiertes Volumen . . . . . . . . . . . . . . . . . 2.4.5 Regeln f ur Determinanten . . . . . . . . . . . . . . 2.4.6 Determinanten spezieller Matrizen . . . . . . . . . . 2.4.7 Umformung von Determinanten . . . . . . . . . . . 2.4.8 Entwicklung von Determinanten . . . . . . . . . . . 2.4.9 Implizite Darstellung einer Ebene durch 3 Punkte . 2.4.10 Basistest . . . . . . . . . . . . . . . . . . . . . . . . 2.4.11 Vandermonde-Determinante . . . . . . . . . . . . .

3 Lineare Gleichungssysteme 69 3.1 Klassikation und allgemeine Struktur . . . . . . . . . . . . . . . . . . . . . . . 69 3.1.1 Lineares Gleichungssystem . . . . . . . . . . . . . . . . . . . . . . . . . . 69 3.1.2 Elektrischer Schaltkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 8 http://www.mathematik-online.org/

INHALTSVERZEICHNIS 3.1.3 L osbarkeit eines linearen Gleichungssystems . . . . . . . . . . 3.1.4 L osung linearer Gleichungssysteme in Matlab . . . . . . . . . 3.1.5 Determinante und L osbarkeit eines linearen Gleichungssystems Direkte Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 R uckw arts-Einsetzen . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Gau-Transformationen . . . . . . . . . . . . . . . . . . . . . 3.2.4 Gau-Elimination . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.5 Echelon-Form . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.6 L osung eines LGS in Echelon-Form . . . . . . . . . . . . . . . 3.2.7 Rang und L osbarkeit von LGS . . . . . . . . . . . . . . . . . Ausgleichsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Ausgleichsgerade . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Ausgleichsl osung u berbestimmter, linearer Gleichungssysteme 3.3.3 Normalengleichungen . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Tomographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . MATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 73 73 74 74 76 76 77 78 80 81 81 81 83 83 85 87 87 87 88 89 90 91 91 92 93 94 94 94 96 97 98 98 99 100 101 101 101 102 103 105 108 109 109 109 110 111 112 9

3.2

3.3

4 Normalformen 4.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . 4.1.1 Eigenwert und Eigenvektor . . . . . . . . . . . . 4.1.2 Ahnlichkeitstransformation . . . . . . . . . . . . 4.1.3 Charakteristisches Polynom . . . . . . . . . . . 4.1.4 Berechnung von Eigenwerten und -vektoren . . 4.1.5 Algebraische und geometrische Vielfachheit . . . 4.1.6 Summe und Produkt von Eigenwerten . . . . . 4.1.7 Rationale Funktionen von Matrizen . . . . . . . 4.1.8 Bestimmung von Eigenwerten und -vektoren mit 4.2 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . 4.2.1 Basis aus Eigenvektoren . . . . . . . . . . . . . 4.2.2 Diagonalisierung zyklischer Matrizen . . . . . . 4.2.3 Potenzen von Matrizen . . . . . . . . . . . . . . 4.2.4 Fibonacci-Folge . . . . . . . . . . . . . . . . . . 4.2.5 Normale Matrizen . . . . . . . . . . . . . . . . . 4.2.6 Unit are Diagonalisierung normaler Matrizen . . 4.2.7 Diagonalform hermitescher Matrizen . . . . . . 4.2.8 Positiv denite Matrizen . . . . . . . . . . . . . 4.2.9 Rayleigh-Quotient . . . . . . . . . . . . . . . . 4.3 Jordan-Normalform . . . . . . . . . . . . . . . . . . . . 4.3.1 Dreiecksform . . . . . . . . . . . . . . . . . . . 4.3.2 Hauptvektoren . . . . . . . . . . . . . . . . . . 4.3.3 Zyklische Basen von Hauptr aumen . . . . . . . 4.3.4 Jordan-Form . . . . . . . . . . . . . . . . . . . 4.3.5 Jordan-Formen von (4x4)-Matrizen . . . . . . . 4.3.6 Potenzen von Matrizen . . . . . . . . . . . . . . 4.4 Singul arwertzerlegung . . . . . . . . . . . . . . . . . . 4.4.1 Singul arwert-Zerlegung . . . . . . . . . . . . . . 4.4.2 Singul arwert-Zerlegung mit MATLAB . . . . . 4.4.3 Pseudo-Inverse . . . . . . . . . . . . . . . . . . 4.4.4 Korrektur topograscher Medaten . . . . . . .

http://www.mathematik-online.org/

INHALTSVERZEICHNIS 4.4.5 Moore-Penrose-Bedingungen . . . . . . . . . . . . . . . . . . . . . . . . . 113 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 . 115 . 115 . 115 . 116 . 117 . 119 . 120 . 121 . 121 . 122 . 122 . 123 . 125 . 126 . 129

5 Analytische Geometrie 5.1 Orthogonale Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Orthogonale und spezielle orthogonale Gruppe . . . . . . . 5.1.2 Spiegelung . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.3 Drehung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.4 Drehachse und Drehwinkel . . . . . . . . . . . . . . . . . . 5.1.5 Faktorisierung einer Drehung . . . . . . . . . . . . . . . . 5.1.6 Drehmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Quadratische Form . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Quadrik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3 Grobeinteilung der Quadriken . . . . . . . . . . . . . . . . 5.2.4 Hauptachsentransformation . . . . . . . . . . . . . . . . . 5.2.5 Kegelschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.6 Euklidische Normalform der zweidimensionalen Quadriken 5.2.7 Euklidische Normalform der dreidimensionalen Quadriken

10

http://www.mathematik-online.org/

Kapitel 1 Grundlegende Strukturen


1.1
1.1.1

Gruppen und Ko rper


Gruppe
deniert

Unter einer Gruppe (G, ) versteht man eine Menge G, auf der eine bin are Operation ist: : G G G ,

d.h. jedem Elementepaar (a, b): a, b G ist ein Element a b G zugeordnet. Ferner m ussen folgende Eigenschaften gelten: Assoziativit at: (a b ) c = a (b c ) a, b, c G a G

Neutrales Element: Es existiert ein eindeutig bestimmtes neutrales Element e G, d.h. e a=a e=a

Inverses Element: Zu jedem Element a G existiert ein eindeutig bestimmtes inverses Element a1 G mit a a1 = a1 a = e . Man nennt eine Gruppe eine kommutative oder abelsche Gruppe, wenn die Operation mutativ ist: a b=b a a, b G . kom-

Wenn aus dem Zusammenhang ersichtlich ist, welche Operation verwendet wird, schreibt man h aug statt (G, ) nur G. Beispiel: Die bijektiven reellen Funktionen f : R R bilden bzgl. der Hintereinanderschaltung eine Gruppe. Man u uft leicht, dass die Hintereinanderschaltung assoziativ ist: berpr ((f g ) h)(x) = f (g (h(x))) = (f (g h))(x) . Das neutrale Element ist oensichtlich die Funktion e: x x. 11

http://www.mathematik-online.org/

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Schlielich existiert zu jeder bijektiven Funktion die Umkehrfunktion f 1 : f (x ) x . g : xx+1

Die Hintereinanderschaltung ist jedoch nicht kommutativ. Beispielsweise ist f ur f : x 2x , f g = g f:

f (g (x)) = 2(x + 1) = 2x + 1 = g (f (x)) .

1.1.2

Untergruppe

F ur eine Gruppe (G, ) bezeichnet man (U, ) als Untergruppe, wenn U Teilmenge von G ist und (U, ) selbst eine Gruppe bildet. Um zu testen, ob U mit der Verkn upfung eine Untergruppe bildet, gen ugt es zu u ufen, berpr dass U bez uglich der Verkn upfung und der Bildung von Inversen abgeschlossen ist: a, b U a b U und a U a1 U .

Beispiel: Die Zahlenmengen sind kommutative Gruppen bzgl. der Addition. Gem a der Inklusionen sind die ganzen Zahlen eine Untergruppe von Q, R und C, die rationalen Zahlen eine Untergruppe von R und C und die reellen Zahlen eine Untergruppe der komplexen Zahlen. Die Multiplikation deniert ebenfalls eine Gruppenstruktur, wenn man die Null ausschliet: Q\{0} R\{0} C\{0} . ZQRC

1.1.3

Verknu pfungstabellen
auf einer endlichen Gruppe G = {g1 , . . . , gn } kann durch die VerA: ai,j = gi gj

Die Operation kn upfungsmatrix

erkl art werden. Die folgende Abbildung zeigt (bis auf Permutation der Elemente) alle m oglichen Verkn upfungsstrukturen f ur Gruppen mit n 4: n=2 e a e e a a a e n=3 e a e e a a a b b b e b b e a n=4 e a b c e a b c a e c b b c e a c b a e n=4 e a b c e a b c a e c b b c a e c b e a

e a b c

e a b c

Alle diese Gruppen sind abelsch, wie man an der Symmetrie der Matrizen A sieht (ai,j = aj,i ). Die erste nicht-abelsche Gruppe hat 6 Elemente und kann mit den Permutationen von {1, 2, 3} identiziert werden. 12 http://www.mathematik-online.org/

1.1. GRUPPEN UND KORPER

1.1.4

Permutationen

F ur eine beliebige Menge M bilden die Bijektionen von M in M , versehen mit der Komposition von Abbildungen als Operation, eine Gruppe, die so genannte symmetrische Gruppe von M . Ist M = {1, 2, . . . , n}, so spricht man von der symmetrischen Gruppe Sn vom Grad n. Die n! Elemente von Sn nennt man Permutationen und benutzt die Schreibweise = 1 2 3 ... n (1) (2) (3) . . . (n) 1 2 3 3 1 2 .

Die Permutationsgruppe ist im Allgemeinen nicht kommutativ, wie aus dem Beispiel 1 2 3 2 1 3 ersichtlich ist. 1 2 3 3 2 1 = = 1 2 3 3 2 1 1 2 3 2 1 3

1.1.5

Zyklenschreibweise von Permutationen

Permutationen werden auch in der so genannten Zyklenschreibweise angegeben. Dabei besteht ein Zyklus aus einem Element und seinen Bildern bei mehrfacher Ausf uhrung der Permutation, bis wieder das urspr ungliche Element erreicht wird. Aus den Elementen, die im ersten Zyklus nicht vorkommen, werden weitere Zyklen gebildet, bis alle Elemente auftreten. Die Zyklen werden nach der Anzahl der Elemente absteigend sortiert und jeweils in runden Klammern hintereinander geschrieben. Zyklen der L ange 1 werden meist weggelassen. Beispielsweise ist = 1 2 3 4 5 6 4 3 2 6 5 1 (1 4 6) (2 3) (5) bzw. = (1 4 6) (2 3) .

1.1.6

Transposition und Signum von Permutationen


= (j k )

Eine Transposition ist eine Vertauschung von j und k . Durch Verkn upfung dieser elementaren Permutationen l asst sich jede Permutation darstellen: Dabei ist die Parit at (gerades oder ungerades m) eindeutig bestimmt, und man deniert als Vorzeichen oder Signum der Permutation . Beweis: F ur mit k = (n) ist 1 m = S n = (k, n) Sn1 , ( ) = (1)m = 1 m .

denn durch die Komposition mit der Transposition wird n fest gelassen. Induktiv kann man annehmen, dass die Parit at in der induzierten Zerlegung von eindeutig bestimmt ist, folglich auch das Vorzeichen von (1)m . http://www.mathematik-online.org/ 13

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Beispiel: Um das Signum der Permutation = zu bestimmen, u uhrt man berf ( (1), . . . , (6)) = (6, 5, 3, 1, 2, 4) durch Transpositionen sukzessive in die kanonische Reihenfolge: (1 6) : (1 5 3 6 2 4) (2 5) : (1 2 3 6 5 4) (4 6) : (1 2 3 4 5 6) . Folglich ist die Identit at, bzw. und (4 6) (2 5) (1 6) = (1 6) (2 5) (4 6) ( ) = (1)3 . 1 2 3 4 5 6 6 5 3 1 2 4

Alternativ kann man die Zyklenschreibweise verwenden: = (1 6 4) (2 5) (3) . Da f ur einen Zyklus der L ange k ( ) = (1)k1 , ist ( ) = (1)2 (1)1 (1)0 = 1 .

1.1.7

Modulus
x mod a = x na [0, a)

F ur a > 0 und x R wird mit x mod a der Rest bei Division von x durch a bezeichnet, d.h. f ur eine ganze Zahl n. Gilt x mod a = y mod a , so sind x und y kongruent modulo a.

1.1.8

Restklassen modulo n
{0, 1, . . . , n 1} Zn = Z mod n

Die Menge bildet eine abelsche Gruppe unter der Addition modulo n und wird mit

bezeichnet. Man beachte, dass die Multiplikation modulo n keine Gruppenstruktur auf Zn deniert, da 0 kein Inverses besitzt. 14 http://www.mathematik-online.org/

1.1. GRUPPEN UND KORPER Beispiel: Man u uft anhand des konkreten Beispiels berpr Z4 = {0, 1, 2, 3} leicht, dass die Addition bzw. Subtraktion mit der Modulo-Operation vertr aglich ist. Beispielsweise ist 1 + 3 mod 4 = 0, 0 2 mod 4 = 2

etc. Allerdings f uhrt die Multiplikation modulo 4 nicht auf eine Gruppenstruktur, denn 1 2 mod 4 = 3 2 mod 4 = 2 . Dies steht im Widerspruch zur Eindeutigkeit des neutralen Elements.

1.1.9

K orper

Eine Menge K , auf der eine Addition + und eine Multiplikation deniert sind, nennt man einen K orper, wenn folgende Eigenschaften gelten: Additive Gruppenstruktur: (K, +) ist eine abelsche Gruppe mit neutralem Element 0 (Nullelement), d.h. f ur alle a, b K gilt a+b (a + b ) + c a+0 a + ( a ) = = = = b+a a + (b + c ) a 0,

wobei (a) das inverse Element zu a bezeichnet. Multiplikative Gruppenstruktur: (K \{0}, ) ist eine abelsche Gruppe mit neutralem Element 1 (Einselement), d.h. f ur alle a, b, c K \{0} gilt ab (a b ) c a1 a a1 = = = = ba a (b c ) a 1,

wobei a1 das inverse Element zu a bezeichnet. Distributivgesetz: a (b + c) = a b + a c f ur alle a, b, c K .

http://www.mathematik-online.org/

15

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Beispiel: Die Mengen der rationalen Zahlen Q, der reellen Zahlen R und der komplexen Zahlen C sind K orper. Die Rechenregeln folgen direkt aus der Denition der entsprechenden Verkn upfungen. Das Nullelement ist jeweils die 0, das Einselement ist 1 bzw. 1 + i0. Das inverse Element bez uglich der Multiplikation einer komplexen Zahl z = x + iy = 0 ist w= denn z w = (x + i y ) x2 x y +i 2 , 2 +y x + y2 x2 i 2 y 2 xy + yx = 2 +i 2 = 1 + i0 . 2 x +y x + y2

y x +i 2 2 2 x +y x + y2

1.1.10

Primko rper
Zp = {0, 1, . . . , p 1}

F ur jede Primzahl p ist die Menge

ein K orper unter der Addition und Multiplikation modulo p. Beweis: Bis auf die Existenz eines inversen Elementes bez uglich der Multiplikation gelten die Rechenregeln f ur K orper bereits in den ganzen Zahlen und werden auf die Restklassen vererbt. F ur a {2, . . . , p 1} kann man a1 wie folgt konstruieren. Man bemerkt zun achst, dass ai = 0 mod p i N . W are n amlich ai = np, so w urde aus der Primfaktorzerlegung folgen, dass p a teilt, was wegen a < p nicht m oglich ist. Betrachtet man nun die Folge ai mod p, i = 0, . . . , p 1 ,

so muss mindestens ein Rest zweimal auftreten, also ai1 = ai2 mod p , gelten. Damit ist aber ai2 i1 = ai2 i1 1 a = 1 mod p , womit das zu a inverse Element gefunden ist. Beispiel: Im Primk orper Z5 sind die inversen Elemente 21 = 3 mod 5 31 = 2 mod 5 41 = 4 mod 5 . 16 http://www.mathematik-online.org/ i 1 < i2

1.1. GRUPPEN UND KORPER Damit ist beispielsweise


(2+4) 3

mod 5 =

1 3

mod 5 = 2 in Einklang mit

2 4 + mod 5 = 2 2 + 4 2 mod 5 3 3 = 4 + 3 mod 5 = 2.

1.1.11

Galois-Ko rper

Der K orper GF[22 ] mit 4 Elementen l asst sich durch die Verkn upfungstabellen der Addition und Multiplikation angeben: + 0 1 a b 0 1 a b 0 1 a b 1 0 b a a b 0 1 b a 1 0 0 1 a b 0 0 0 0 0 1 a b 0 0 0 1 a b a b 1 b 1 a

Das zugrunde liegende Konstruktionsprinzip ist nicht so einfach wie bei den Primk orpern Zp und wurde von Galois gefunden. Es l asst sich allgemein zur Konstruktion von K orpern mit p Elementen, N, f ur beliebige Primzahlen p durchf uhren, und es kann gezeigt werden, dass man so alle endlichen K orper erh alt.

1.1.12

Turniere in Gruppen

In Stuttgart, M unchen und Berlin soll an 4 Terminen ein Turnier unter 9 Mannschaften ausgetragen werden. Dabei soll jeder gegen jeden spielen. Es sind also an jedem Termin 3 Gruppen aus je 3 Mannschaften zu bilden, die jeweils in einer der St adte ihre Spiele untereinander aus tragen. Die Schwierigkeit besteht darin, Uberschneidungen zu vermeiden - jede Paarung soll genau einmal bei den 3 4 Gruppen vorkommen. Mathematisch l asst sich das Problem folgendermaen formulieren: Es sind 3-elementige Mengen S0,k S1,k S2,k = {1, . . . , 9}, k = 0, . . . , 3

zu bestimmen, so dass der Durchschnitt zweier Mengen h ochstens ein Element enth alt. Diese Bedingung vermeidet, dass Mengen, die Gruppen an verschiedenen Spieltagen entsprechen, ein gemeinsames Mannschaftspaar enthalten. Die Mengen Sj,k lassen sich mit Hilfe des Primk orpers Z3 konstruieren. Man identiziert dazu die Mannschaftsnummern 1, . . . , 9 mit den Punkten (, ), , Z3

einer 9-elementigen endlichen Ebene und identiziert die Mengen mit den Geraden in dieser Ebene: Sj,k = {(, k + j mod 3) : = 0, 1, 2}, (Geraden mit Steigung k = 0, 1, 2) Sj,3 = {(j, ) : = 0, 1, 2} (senkrechte Geraden) . Diese Gruppenaufteilung ist in der folgenden Abbildung veranschaulicht: http://www.mathematik-online.org/ 17

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

Das gleiche Problem f ur 16 Mannschaften, 4 St adte und 5 Termine kann analog gel ost werden. Man verwendet den 4-elementigen Galois-K orper GF[22 ] und erh alt folgende Gruppeneinteilung: Spielort 1 1,2,3,4 1,6,11,16 1,10,15,8 1,14,7,12 1,5,9,13 Spielort 2 5,6,7,8 5,2,15,12 5,14,11,4 5,10,3,16 2,6,10,14 Spielort 3 9,10,11,12 9,14,3,8 9,2,7,16 9,6,15,4 3,7,11,15 Spielort 4 13,14,15,16 13,10,7,4 13,6,3,12 13,2,11,8 4,8,12,16

1. 2. 3. 4. 5.

Spieltag Spieltag Spieltag Spieltag Spieltag

Allgemein ist die Argumentation f ur q 2 Mannschaften und q St adte m oglich, wobei q eine Potenz einer Primzahl ist, denn f ur solche q existieren die K orper GF[q ].

1.2
1.2.1

Vektorr aume
Vektorraum

Eine abelsche Gruppe (V, +) heit Vektorraum u orper K oder K -Vektorraum, ber einem K wenn eine Skalarmultiplikation deniert ist, die (, v ) K V das Produkt v V zuordnet und folgende Eigenschaften besitzt. F ur alle Skalare , 1 , 2 K und alle Vektoren v , v1 , v2 V gilt: ( 1 + 2 ) v (v 1 + v 2 ) ( 1 2 ) v 1v = = = = 1 v + 2 v v 1 + v2 1 ( 2 v ) v.

Ist K = R bzw. K = C, so spricht man von einem reellen bzw. komplexen Vektorraum und l asst den Punkt f ur die skalare Multiplikation im Allgemeinen weg. Man beachte, dass das Pluszeichen sowohl f ur die Addition in V als auch f ur die Addition in K benutzt wird. Ebenso wird der Malpunkt auch f ur die Multiplikation in K verwendet.

Erl auterung: Gem a der Denition gelten in einem Vektorraum insbesondere die Gruppenaxiome: Assoziativit at der Addition: (v 1 + v 2 ) + v 3 = v 1 + (v 2 + v 3 ) 18 http://www.mathematik-online.org/

1.2. VEKTORRAUME Nullelement/Nullvektor: Es gibt genau ein Element 0 V mit v+0=v f ur alle v V . Inverses bzgl. der Addition: F ur alle v V gibt es genau ein v V mit v + ( v ) = 0 Kommutativit at der Addition: v1 + v 2 = v 2 + v 1

Die geforderten Eigenschaften garantieren, dass Addition, Subtraktion und Multiplikation den gewohnten Rechengesetzen gen ugen. So kann man Produkte ausmultiplizieren: i
i

vj
j

=
i j

i v j .

Dar uberhinaus gelten die Vorzeichenregeln (v ) = (1) (v ) = v, vi


i

=
i

v i .

Beispiel: Die Polynome vom Grad n p (x ) = a 0 + a 1 x + + a n x n , ai R (ai C), bilden einen reellen (komplexen) Vektorraum, wobei die Addition und die skalare Multiplikation in der nahe liegenden Weise deniert sind: (p + q )(x) = p(x) + q (x), (p)(x) = p(x) .

Die Vektorraumeigenschaften veriziert man leicht. Man beachte, dass die Polynome mit Grad n, d.h. mit an = 0, keinen Vektorraum bilden. Bilden einer Summe kann n amlich zur Gradreduktion f uhren. Beispielsweise ist (2x x2 ) + (3 + x2 ) = 3 + 2x . Beispiel: Die reellen Folgen (an ) mit n N bilden einen reellen Vektorraum mit den Operationen (a n ) + (b n ) = (a n + b n ), (an ) = (an ) . Fordert man zus atzliche Eigenschaften, so kann das die Vektorraumstruktur zerst oren. Beispielsweise bilden monotone Folgen keinen Vektorraum. Summen monotoner Folgen brauchen nicht monoton zu sein, wie das Beispiel (4n) + (n2 ) zeigt. Hingegen w are Beschr anktheit eine zul assige Eigenschaft. http://www.mathematik-online.org/ 19

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

1.2.2

Vektorraum der n-Tupel

und

den K -Vektorraum K n mit der komponentenweise denierten tion, d. h. a1 b1 a1 + b 1 . . . . . . + . . = . an bn an + b n a1 a1 . . . . = . . an an

F ur einen K orper K bilden die n-Tupel oder n-Vektoren a1 . a= . . , ai K an

Addition und Skalarmultiplika

f ur ai , bi , K . Oft ist es bequem, n-Tupel als Zeilenvektor

at = (a1 , . . . , an ) bzw. a = (a1 , . . . , an )t zu schreiben. Durch das Symbol t der Transposition wird von der Standardkonvention als Spaltenvektor unterschieden.

1.2.3

Unterraum

Eine Teilmenge U eines K -Vektorraums V , die mit der in V denierten Addition und Skalarmultiplikation selbst einen Vektorraum bildet, nennt man einen Unterraum von V . Unterr aume U werden oft durch Bedingungen an die Elemente von V deniert: U = { v V : A (v )} , wobei A eine Aussage bezeichnet, die f ur v V erf ullt sein muss. Um zu pr ufen, ob es sich bei einer Teilmenge U von V um einen Unterraum handelt, gen ugt es zu zeigen, dass U bzgl. der Addition und Skalarmultiplikation abgeschlossen ist: u, v U K, u U = = u+v U uU.

Beispiel: Unterr aume entstehen oft durch Spezizieren zus atzlicher Eigenschaften. Betrachtet man den Vektorraum der reellen Funktionen f : R R, so bilden beispielsweise die geraden Funktionen (f (x) = f (x) f ur alle x R) einen Unterraum. Weitere Beispiele bzw. Gegenbeispiele sind in der folgenden Tabelle angegeben: 20 http://www.mathematik-online.org/

1.2. VEKTORRAUME Eigenschaft Unterraum ungerade ja beschr ankt ja monoton nein ja stetig positiv nein ja linear

Beispiel: F ur jeden Vektor d = 0 eines K -Vektorraums bildet die durch 0 verlaufende Gerade v = d, K

einen Unterraum. Allerdings ist eine Gerade, die nicht durch 0 verl auft, kein Unterraum. Beispielsweise liegt (1, 0)t auf der Geraden 0 1 , R, + g:x= 1 0 (2, 0)t jedoch nicht.

1.2.4

Linearkombination
m

F ur Vektoren v1 , v2 , . . . , vm in einem K -Vektorraum V bezeichnet man 1 v 1 + 2 v 2 + + m v m = mit Skalaren i K als Linearkombination der vi . Allgemeiner versteht man f ur W V unter einer Linearkombination aus W eine Linearkombination aus endlich vielen Vektoren von W . Beispiel: Der Vektor v = (1, 2, 3)t ist eine Linearkombination der Vektoren v1 = (3, 4, 5)t , v2 = (1, 1, 1)t , denn Hingegen ist keine Linearkombination der Vektoren v1 = (0, 1)t , v2 = (0, 2)t , http://www.mathematik-online.org/ 21 v = v1 2v2 . v = (1, 0)t i v i

i=1

KAPITEL 1. GRUNDLEGENDE STRUKTUREN denn jede Linearkombination von v1 und v2 hat die Form (0, )t . Schlielich kann v = (0, 0, 0, 0)t auf verschiedene Weise als eine Linearkombination der Vektoren v1 = (1, 1, 0, 0)t , v2 = (0, 2, 2, 0)t , v3 = (0, 0, 3, 3)t , v4 = (4, 0, 0, 4)t dargestellt werden: v = (12v1 6v2 + 4v3 3v4 ) mit R.

1.2.5

Lineare Hu lle

Die Menge aller Linearkombinationen von Vektoren v1 , . . . , vn eines K -Vektorraums V nennt man die lineare H ulle der vi und bezeichnet sie mit
n

span(v1 , . . . , vn ) = {

i=0

i v i : i K }.

Entsprechend deniert man f ur eine Menge U von Vektoren span(U ) als die Menge aller Linearkombinationen von Vektoren aus U . F ur jede Teilmenge U V ist span(U ) ein Unterraum von V . Beispiel: Betrachtet man zwei verschiedene Ursprungsgeraden g1 und g2 im R3 , z. B. g1 : x = 1 (1, 0, 0)t , g2 : x = 2 (0, 1, 0)t , i R,

so sind diese jeweils die lineare H ulle der Richtungsvektoren; hier v1 = (1, 0, 0)t , v2 = (0, 1, 0)t . Die lineare H ulle der Vektoren v1 und v2 ist dann die Ebene E = span(v1 , v2 ), die die Geraden g1 und g2 enth alt; hier also E : x = 1 (1, 0, 0)t + 2 (0, 1, 0)t , bzw. E = {x : x3 = 0}. i R ,

1.2.6

Konvexkombination
1 v 1 + 2 v 2 + + m v m

In einem reellen Vektorraum V bezeichnet man eine Linearkombination

mit i 0, als Konvexkombination der Vektoren vi V . 22 http://www.mathematik-online.org/ i = 1


i

1.3. SKALARPRODUKT UND NORM

1.2.7

Konvexe Hu lle

Die konvexe H ulle einer Teilmenge M eines reellen Vektorraumes V ist die Menge aller Konvexkombinationen 1 v 1 + 2 v 2 + + m v m (i 0, i = 1)
i

mit vi M und wird mit conv(M ) bezeichnet. Geometrisch ist conv(M ) die kleinste M enthaltende Menge, die f ur je zwei Elemente u, v auch deren Verbindungsstrecke S = {u + (1 )v : 0 1} enth alt.

rag replacements u S v M
1.3
1.3.1

conv(M )

Skalarprodukt und Norm


Reelles Skalarprodukt

Ein Skalarprodukt auf einem reellen Vektorraum V ist eine Abbildung , : V V R mit folgenden Eigenschaften: Positivit at: Symmetrie: Linearit at:

v, v > 0 f ur v = 0

u, v = v, u

u + v, w = u, w +

v, w

Dabei sind u, v, w V und , R beliebige Vektoren bzw Skalare. Aufgrund der Symmetrie ist ein reelles Skalarprodukt auch bzgl. des zweiten Argumentes linear, also eine Bilinearform auf V . http://www.mathematik-online.org/ 23

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Beispiel: F ur den Vektorraum der auf [0, 1] denierten, reellwertigen stetigen Funktionen wird mit
1

f, g =
0

f (x)g (x) dx

ein reelles Skalarprodukt deniert. Die Positivit at gilt, da eine stetige Funktion, die an einer Stelle von Null verschieden ist, dies auch in einer Umgebung dieser Stelle ist, und somit das Integral f 2 nicht verschwindet. Die Symmetrie ergibt sich aus der Denition der Multiplikation von Funktionen. Schlielich folgt die Linearit at aus der Linearit at des Integrals. Durch die Einf uhrung einer positiven Gewichtsfunktion w kann die Denition des Skalarprodukts verallgemeinert werden:
1

f, g

=
0

fg w .

Beispielsweise sind in Verbindung mit radialsymmetrischen Funktionen auf der Kreisscheibe und der Kugel die gewichteten Skalarprodukte
1 1

f (r)g (r)r dr,


0 0

f (r)g (r)r 2 dr

von Bedeutung.

1.3.2

Skalarprodukt

Ein Skalarprodukt auf einem komplexen Vektorraum V ist eine Abbildung , : V V C mit folgenden Eigenschaften: Positivit at: Schiefsymmetrie: Linearit at: v, v > 0 f ur v = 0

u, v = v, u

u + v, w = u, w +

v, w

Dabei sind u, v, w V und , C beliebige Vektoren bzw. Skalare. Aufgrund der Schiefsymmetrie ist ein komplexes Skalarprodukt bzgl. der zweiten Variablen nicht linear: u, v + w = u, v + u, w . Lediglich f ur reelle Skalare ist die komplexe Konjugation ohne Bedeutung.

24

http://www.mathematik-online.org/

1.3. SKALARPRODUKT UND NORM Erl auterung: Die resultierende Asymmetrie ist notwendig, um die Positivit at des komplexen Skalarproduktes zu gew ahrleisten. Beispielsweise ist iv, iv = i2 v, v = v, v < 0 f ur v = 0. Vielmehr gilt iv, iv = (i i) v, v = v, v > 0 . Die Positivit at ist wichtig, um via |v | = eine Norm denieren zu k onnen. v, v

Beispiel: F ur Vektoren x, y R2 werden eine Reihe m oglicher Denitionen reeller Skalarprodukte betrachtet. In der nachstehenden Tabelle ist jeweils angegeben, welche der Eigenschaften erf ullt sind. Skalarprodukt Eigenschaften 10x1 y1 + x2 y2 alle x1 y2 Linearit at |x1 y1 | + |x2 y2 | Positivit at, Symmetrie x1 x2 + y 1 y2 Symmetrie Nur die erste Denition besitzt alle geforderten Eigenschaften. In dem komplexen Vektorraum C2 ist dies allerdings nicht der Fall, sowohl die Positivit at als auch die Schiefsymmetrie sind nicht erf ullt: (i, 0), (i, 0) (i, 0), (1, 0) = 10i2 = 10 < 0 = 10i = (1, 0), (i, 0) = 10i

Indem man die Komponenten des zweiten Arguments komplex konjugiert, werden die Probleme behoben. Die Denition x, y = 10x1 y 1 + x2 y 2 liefert die richtige Erweiterung auf den komplexen Fall.

1.3.3

Cauchy-Schwarz-Ungleichung

Das Skalarprodukt l asst sich mit Hilfe der assoziierten Norm absch atzen: | u, v | |u||v |, Gleichheit gilt genau dann, wenn u v. |w | = w, w .

http://www.mathematik-online.org/

25

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Beweis: Ist v = u, so gilt, wie behauptet, die Gleichheit. Durch Multiplikation von u bzw. v mit einem Skalar wird die Ungleichung nicht ver andert. Man kann also annehmen, dass |u | 2 = |v | 2 = 1 . Ist f ur ein komplexes Skalarprodukt (die Argumentation schliet den reellen Fall ein) u, v = r exp(i) , so folgt mit = exp(i) f ur nicht-parallele Vektoren 0 < u v, u v r exp(i) r exp(i) = 1 + = 1+1rr. Damit gilt r = | u, v | < 1, d.h. die Behauptung. r > 0,

1.3.4

Norm

Eine Norm auf einem reellen oder komplexen Vektorraum V ist eine Abbildung : V R mit den folgenden Eigenschaften: Positivit at: Homogenit at: Dreiecksungleichung: . Dabei sind u, v beliebige Vektoren und ein beliebiger Skalar. Mit Hilfe einer Norm kann durch d(u, v ) = u v ein Abstand zwischen zwei Vektoren deniert werden. v > 0 f ur v = 0

v = || v u+v u + v

1.3.5

Skalarprodukt - Norm

Mit einem Skalarprodukt auf einem reellen oder komplexen Vektorraum V ist die Norm |v | = assoziiert. 26 http://www.mathematik-online.org/ v, v , vV

1.3. SKALARPRODUKT UND NORM Beweis: Positivit at und Homogenit at ergeben sich unmittelbar aus den entsprechenden Eigenschaften des Skalarprodukts. Die Dreiecksungleichung folgt aus |u + v | 2 = = u + v, u + v u, u + u, v + u, v + v, v |u| + 2| u, v | + |v |2 |u|2 + 2|u||v | + |v |2 (| u | + | v | ) 2
2 R

Cauchy-Schwarz

durch Wurzelziehen.

1.3.6

Maximum-Norm
z = max |zi |
i

F ur die Vektorr aume Rn und Cn bezeichnet

die Maximum-Norm. Die Dreiecksungleichung ist erf ullt, denn f ur z = x + y gilt max |zi | = max |xi + yi | max (|xi | + |yi |) max |xi | + max |yi | .
i i i i i

Die Maximum-Norm kann durch Einf uhrung von Gewichten wi R+ verallgemeinert werden: z
,w

= max(wi |zi |) .
i

1.3.7

Skalarprodukt reeller Vektoren


n

F ur Vektoren v = (v1 , . . . , vn )t , w = (w1 , . . . , wn )t Rn ist das kanonische Skalarprodukt durch vw=


i=1 t

v i wi = v 1 w1 + + v n wn

deniert mit der assoziierten Norm |v | =


2 2. v1 + + vn

Geometrisch kann man das Skalarprodukt durch v t w = |v ||w| cos denieren, wobei den kleineren der beiden Winkel zwischen v und w bezeichnet, gemessen in der von u und v aufgespannten Ebene.
v w

http://www.mathematik-online.org/

27

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Beweis: Die Eigenschaften des Skalarprodukts u uft man leicht. berpr Die Aquivalenz der geometrischen Denition veriziert man (zun achst f ur n = 2) mit dem t t Cosinussatz. Nach diesem gilt mit v = (v1 , v2 ) und w = (w1 , w2 ) , dass |v w|2 = |v |2 + |w|2 2|v ||w| cos . Setzt man ein, so ergibt sich
2 2 2 2 (v 1 w 1 ) 2 + (v 2 w 2 ) 2 = v 1 + v2 + w1 + w2 2|v ||w| cos

und mit Umformen die Behauptung. F ur n 2 spannen v und w im Rn eine Ebene auf. Die entsprechende Rechnung in dieser Ebene zeigt dann, dass die Behauptung f ur beliebige Dimensionen n 2 richtig ist.

1.3.8

Skalarprodukt komplexer Vektoren


n

F ur Vektoren x = (x1 , . . . , xn )t , y = (y1 , . . . , yn )t Cn ist das kanonische Skalarprodukt durch yx =


j =1

xj y j

deniert mit der assoziierten Norm |z | = |z 1 | 2 + + |z n | 2 .

Das Superskript bezeichnet dabei die Transposition und komplexe Konjugation eines Vektors. Die Denition schliet den reellen Fall ein, bei dem die komplexe Konjugation entf allt.

Beispiel: Bildet man das Skalarprodukt der Vektoren x= aus C2 , so erh alt man x, y = (1 + 2i) 2 + (2 i) 2i = 2 + 4i + 4i + 2i2 = 2 + 8i 2 = 8i . Das Skalarprodukt zweier komplexer Vektoren ist also nicht notwendigerweise reell. Das Konjugieren des zweiten Vektors spielt bei der assoziierten Norm eine wesentliche Rolle. Ohne Konjugation bei den Produkten h atte der erste Vektor die Norm (1 + 2i)2 + (2 i)2 = 1 + 4i 4 + 4 + 4i 1 = 8i R , und f ur den zweiten w are die Norm ebenfalls nicht positiv: 22 + (2i)2 = 4 4 = 0 > 0 . 28 http://www.mathematik-online.org/ 1 + 2i 2 i , y= 2 2i

1.3. SKALARPRODUKT UND NORM

1.3.9

Winkel zwischen Vektoren

F ur einen reelles Skalarprodukt ist durch cos (u, v ) = u, v |u||v |

ein Winkel in [0, ] zwischen u und v deniert. Insbesondere bezeichnet man u und v als orthogonal, uv , wenn u, v = 0. Erl auterung: Die Denition des Winkels ist durch den Cosinussatz f ur Vektoren im R2 motiviert:

v PSfrag replacements u

In einem Dreieck gilt f ur die Seitenl angen |u|, |v |, |w| die Beziehung |w|2 = |u|2 + |v |2 2|u||v | cos (u, v ) . Da andererseits nach Denition des Skalarproduktes |w|2 = |v u|2 = |v |2 + |u|2 2 u, v , ergibt sich durch Vergleich die Denition des Winkels. F ur ein beliebiges reelles Skalarprodukt ist aufgrund der Cauchy-Schwarz-Ungleichung u, v [1, 1] . |u||v | Der Quotient kann also mit dem Cosinus eines Winkels in [0, ] gleichgesetzt werden.

1.3.10

Satz des Pythagoras

F ur eine Skalarprodukt-Norm gilt f ur orthogonale Vektoren u und v |u + v | 2 = |u | 2 + |v | 2 .

http://www.mathematik-online.org/

29

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Beweis: Es gilt: |u + v |2 = u + v, u + v = u, u + u, v


=0, da uv

v, u
=0, da v u

+ v, v = |u|2 + |v |2 .

Der Satz ist heute als Satz des Pythagoras (569-475 v. Chr.) bekannt, obwohl ihn bereits die Babylonier 1000 Jahre fr uher kannten. M oglicherweise war aber Pythagoras der erste, der ihn bewiesen hat.

1.3.11

Pythagor aisches Tripel


l 2 + m 2 = n2 ,

Als Pythagor aisches Tripel bezeichnet man drei nat urliche Zahlen l, m, n mit z.B. (3, 4, 5). Ein Dreieck mit Seitenl angen, die das Verh altnis eines Pythagor aischen Tripels haben, erf ullt den Satz des Pythagoras und ist somit rechtwinklig. Die Agypter sollen dies benutzt haben, um rechte Winkel zu erhalten: Sie verwendeten ein Seil auf dem durch Knoten zw olf gleiche L angenabschnitte markiert waren. Wurde aus diesem Seil ein Dreieck mit drei, vier und f unf L angeneinheiten gebildet, befand sich zwischen den k urzeren Seiten ein rechter Winkel. Jede ungerade Zahl l 3 kann mit den Zahlen m = (l 2 1)/2 und n = (l2 + 1)/2 zu einem Pythagor aischen Tripel erg anzt werden, denn l2 + l4 + 2l2 + 1 l4 2l2 + 1 = = 4 4 l2 + 1 2
2

Durch Multiplikation dieser Tripel mit 2 erh alt man auch Tripel f ur jede gerade Zahl l 6. Das angegebene Konstruktionsprinzip ist der Spezialfall einer Methode, die aus der dritten Binomischen Formel folgt, denn aus erh alt man dann eine ganzzahlige L osung, wenn man a2 in zwei unterschiedliche Faktoren zerlegen kann, die eine gerade Dierenz (= 2b) aufweisen. F ur ungerade a = l ist dies f ur die Aufteilung a2 = a2 1 erf ullt. Man erh alt b= und damit den obigen Spezialfall. a2 1 , 2 c= a2 + 1 2 c2 b2 = (c b)(c + b) = a2

1.4
1.4.1

Basen
Lineare Unabh angigkeit
1 v1 + + m vm = 0

Vektoren v1 , . . . , vm heien linear abh angig, wenn es Skalare 1 , . . . , m gibt mit und mindestens einem i = 0. Andernfalls heien sie linear unabh angig. Allgemeiner bezeichnet man eine Menge M von Vektoren als linear unabh angig, wenn jede endliche Teilmenge von M aus linear unabh angigen Vektoren besteht. Andernfalls heit M linear abh angig.

30

http://www.mathematik-online.org/

1.4. BASEN Erl auterung: Man beachte, dass im Sinne der linearen Algebra zwar unendliche Mengen M zugelassen sind, aber nur endliche Linearkombinationen. So ist z. B. im Vektorraum der Folgen die Menge e = (1, 1, . . .)t , e1 = (1, 0, 0, . . .)t , e2 = (0, 1, 0, . . .)t , . . . linear unabh angig, obwohl e=
nN

en .

Es gibt keine endliche Darstellung der konstanten Folge e mit den kanonischen Einheitsvektoren. Beispiel: Zwei Vektoren im R2 sind genau dann linear unabh angig, wenn keiner der beiden ein Vielfaches t des anderen ist. So sind z. B. die Vektoren (1, 0) und (1, 1)t linear unabh angig, denn der Ansatz (1, 0)t + (1, 1)t = (0, 0)t liefert = = 0 . Hingegen sind die Vektoren (0, 0)t und (2, 3)t linear abh angig, denn (0, 0)t =0(2, 3)t bzw. 1(0, 0)t +0(2, 3)t = (0, 0)t ; es existiert also eine nichttriviale Darstellung des Nullvektors. Drei Vektoren u, v, w im R2 sind immer linear abh angig, denn der Ansatz u+v + w = 0 f uhrt auf ein unterbestimmtes, homogenes lineares Gleichungssystem u1 +v1 + w1 = 0 u2 +v2 + w2 = 0 f ur , , , das immer eine nichttriviale L osung besitzt. Beispiel: Wie im Zweidimensionalen sind zwei Vektoren im R3 linear abh angig, wenn sie parallel sind, d.h. wenn ein Vektor ein Vielfaches des anderen ist. Drei Vektoren sind linear abh angig, wenn zwei Vektoren parallel sind oder wenn ein Vektor in der von den beiden anderen Vektoren aufgespannten Ebene liegt. Beispielsweise gilt f ur u = (1, 2, 3)t , v = (4, 6, 2)t , w = (9, 3, 6)t http://www.mathematik-online.org/ 31

KAPITEL 1. GRUNDLEGENDE STRUKTUREN 6u + 3v + 2w = (0, 0, 0)t ; die Vektoren sind also linear abh angig. Denitionsgem a ist der Test f ur lineare Abh angigkeit aquivalent zu einem homogenen linearen Gleichungssystem x1 xn 0 y1 yn 0 1 + + n = z1 zn 0

f ur die Skalare i . Dies zeigt insbesondere, dass vier Vektoren im R3 immer linear abh angig sind.

1.4.2

Basis

Eine Teilmenge B eines Vektorraumes V heit eine Basis von V , wenn B linear unabh angig und ein Erzeugendensystem von V ist, d.h. wenn jeder Vektor v V eine eindeutige Darstellung als endliche Linearkombination m v=
i=1

i bi

mit bi B besitzt. Ist B endlich (|B | = n), so l asst sich jeder Vektor durch seine Koordinaten bzgl. der Basis beschreiben: v v B = ( 1 , . . . , n ) t . Erl auterung: Durch die Koordinatendarstellung
n

v=
i=1

i b i v B = ( 1 , . . . , n ) t ,

den so genannten kanonischen Isomorphismus, kann man einen endlich dimensionalen K Vektorraum V mit dem Vektorraum K n der n-Tupel identizieren. Insbesondere kann man sich also beim Studium reeller und komplexer Vektorr aume mit endlicher Basis auf die Proton n typen R und C beschr anken. Wie man am Beispiel des Vektorraums der Polynome sieht, muss ein Vektorraum keine endliche Basis besitzen. Es werden jedoch im Rahmen der linearen Algebra nur endliche Linearkombinationen betrachtet. Dies impliziert, dass die Folgen e1 = (1, 0, 0, . . .)t , e2 = (0, 1, 0, . . .)t , . . . keine Basis f ur den Vektorraum der Folgen bilden. Das Betrachten unendlicher Linearkombinationen, wie sie etwa in Fourier-Reihen auftreten, liegt auf der Hand, erfordert jedoch einen Konvergenzbegri, also mehr als nur die bloe Vektorraumstruktur.

1.4.3

Dimension

Besitzt ein Vektorraum V eine endliche Basis B = {b1 , . . . , bn }, so ist die Anzahl der Basisvektoren eindeutig bestimmt und wird als Dimension von V bezeichnet: n = dim V . Man setzt dim V = 0 f ur V = {0} und dim V = f ur einen Vektorraum ohne endliche Basis. Nach dem allgemeinen Basissatz besitzt jeder Vektorraum eine Basis.

32

http://www.mathematik-online.org/

1.4. BASEN Beweis: Um zu zeigen, dass die Dimension im endlichen Fall eindeutig bestimmt ist, gen ugt es, die folgende Aussage zu beweisen: Hat ein Vektorraum eine n-elementige Basis b1 , . . . , b n , so sind n + 1 Vektoren v1 , . . . , vn+1 (und damit auch mehr als n + 1 Vektoren) linear abh angig. W urden n amlich zwei Basen mit unterschiedlich vielen Vektoren existieren, erh alt man einen Widerspruch zur linearen Unabh angigkeit der Basisvektoren. Die obige Behauptung kann durch Induktion nach n bewiesen werden. F ur den Induktionsschritt (der Induktionsanfang n = 1 ist trivial) betrachtet man die Basisdarstellung der Vektoren vi :
n

vi =
j =1

i,j bj ,

i = 1, . . . , n + 1 .

Gilt so ist vi = 0, und die lineare Abh angigkeit ist bereits gezeigt. Also kann man durch geeignete Nummerierung annehmen, dass n+1,n = 0. Ausgehend von obiger Gleichung deniert man nun Vektoren, die sich als Linearkombination der n 1 Vektoren b1 , . . . , bn1 darstellen lassen: i,n vn+1 , i = 1, . . . , n . vi = v i n+1,n Dass der Koezient von bn verschwindet, ist leicht zu sehen. Da kann man die Induktionsvoraussetzung anwenden und erh alt eine nichttriviale Linearkombination 1 v 1 + + n v n = 0 . v1 , . . . , vn V = span {b1 , . . . , bn1 } , i,1 = = i,n = 0 ,

Nach Umformung ergibt sich eine Linearkombination der vi , also die behauptete lineare Abh angigkeit.

1.4.4

Orthogonale Basis
ui , uj = 0, i=j.

Eine Basis B = {u1 , . . . , un } heit orthogonal, wenn

Sind die Basisvektoren normiert, d.h. ist |ui | = 1, so spricht man von einem Orthonormalsystem oder einer Orthonormalbasis. Ein Vektor v besitzt bzgl. einer orthogonalen Basis u1 , . . . , un die Darstellung
n

v=
j =1

c j uj ,

cj =

v, uj . |u j | 2

F ur die Koezienten cj gilt F ur eine normierte Basis fallen die Terme |uj |2 weg, und es ergibt sich cj = v, uj , |c 1 | 2 + + |c n | 2 = |v | 2 . |c 1 | 2 |u 1 | 2 + + |c n | 2 |u n | 2 = |v | 2 .

http://www.mathematik-online.org/

33

KAPITEL 1. GRUNDLEGENDE STRUKTUREN Beweis: Da die u1 , . . . , un eine Basis bilden, existieren Skalare c1 , . . . , cn mit
n

v=
j =1

c j uj .

Bildet man f ur obige Gleichung das Skalarprodukt mit uk und nutzt die Orthogonalit at der Basis aus, so erh alt man v, uk =ck uk , uk bzw. ck = v, uk . uk , u k

Die Identit at f ur die Koezienten ist eine Verallgemeinerung des Satzes von Pythagoras (n = 2). Sie folgt unmittelbar durch Ausmultiplizieren von |v | 2 = c 1 u 1 + + c n u n , c 1 u 1 + + c n u n , wenn man ber ucksichtigt, dass die gemischten Terme c j uj , c k uk , j=k

wegen der Orthogonalit at der Basisvektoren verschwinden. Beispiel: Bzgl. der orthogonalen Basis u1 = besitzt v = (8, 4)t die Darstellung v= v, u1 v, u2 8 + 12 48 + 8 u1 + u2 = u1 + u2 = 2u1 u2 . u1 , u 1 u2 , u 2 1+9 36 + 4 1 3
2

1 3

, u2 =

6 2

F ur die Koezienten gilt |2|2 + | 1|2 6 2


2

= 4 10 + 1 40 =

8 4

Bzgl. der orthonormalen Basis 1 4 8 1 1 1 u 1 = 4 , u 2 = 7 , u 3 = 4 9 9 9 8 4 1 besitzt v = (1, 1, 3)t die Darstellung v = v, u1 u1 + v, u2 u2 + v, u1 u1 = 3u1 u2 u3 . F ur die Koezienten gilt 1 |3|2 + | 1|2 + | 1|2 = 1 3 34
2

http://www.mathematik-online.org/

1.4. BASEN

1.4.5

Orthogonale Projektion
v P U (v ) U

Die orthogonale Projektion auf einen Unterraum U ist durch die Orthogonalit atsbedingung v PU (v ), u = 0, charakterisiert. u U

PSfrag replacements O

PU (v ) U

Ist u1 , . . . , uj eine orthogonale Basis von U , so ist


j

P U (v ) =
k=1

v, uk uk . uk , u k

Beispiel: Durch x1 + x 2 + x 3 + x 4 = 0 wird eine Hyperebene H R4 deniert. Als orthogonale Basis Vektoren 1 1 1 , v = 1 , w = u= 1 1 1 1 f ur H k onnen beispielsweise die 1 1 1 1

verwendet werden. F ur die orthogonale Projektion des Vektors x = (1, 2, 3, 4)t gilt dann PH x = xt v xt w 4 2 0 xt u u + v + w= u+ v+ w 2 2 2 |u | |v | |w | 4 4 4 http://www.mathematik-online.org/ 35

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

1.4.6

Verfahren von Gram-Schmidt

Aus einer Basis b1 , . . . , bn kann wie folgt eine orthogonale Basis u1 , . . . , un konstruiert werden. Man deniert sukzessive bj , u k uk , uj = b j u k , uk k<j f ur j = 1, . . . , n. Die Rekursion vereinfacht sich, wenn man die Basisvektoren nach jedem Schritt normiert: uj In diesem Fall ist uk , uk = 1. Beweis: Man zeigt induktiv, dass u1 , . . . , ul eine orthogonale Basis f ur span (b1 , . . . , bl ) bilden. F ur l = 1 ist dies oensichtlich: u1 = b1 . F ur den Induktionsschritt (l l + 1) bemerkt man zun achst, dass f ur j l ul+1 , uj = bl+1 , uj
kl

uj . |u j |

bl+1 , uk uk , u k

uk , u j = 0 .
k,j |uk |2

Folglich sind u1 , . . . , ul+1 orthogonal. Schlielich ist bl+1 ul+1 span(u1 , . . . , ul ) = span(b1 , . . . , bl ) , womit gezeigt ist, dass beide Basen denselben Unterraum aufspannen. Beispiel: Um eine bzgl. des Skalarproduktes
1

f, g =
1

f (x)g (x) dx

orthogonale Folge von Polynomen p0 , p1 , . . . zu konstruieren, kann man von den Monomen qj (x) = xj ausgehen. Mit dem Verfahren von Gram-Schmidt erh alt man p0 = q 0 p1 = q 1 p2 = q 2 Die allgemeine Formel pn+1 = qn+1 36
1 x 1 dx 1 1=x0 1 1 1 dx 1 1 1 x2 x dx x2 1 dx 1 1 x 1 1 x x dx 1 1 dx 1 1 n

1 1 = x2 0 x . 3

j =0

qn+1 , pj pj pj , p j

http://www.mathematik-online.org/

1.4. BASEN l asst sich stark vereinfachen, wenn man an Stelle von qn+1 (x) = xn+1 das Polynom q n+1 (x) = x pn (x) verwendet. Wegen span{p1 , . . . , pn , qn+1 } = span{p1 , . . . , pn , q n+1 } ist das legitim. In diesem Fall ist nur der Summand mit j = n 1 ungleich Null. 1 ur j < n 1 F ur j = n verschwindet q n+1 , qn = 1 x qn (x) qn (x)dx aufgrund der Symmetrie. F ist [x pj (x)] eine Linearkombination von pk (x), k < n. Wegen pn , pn = 0 ist damit
1

q n+1 , pj =
1

pn (x) [x pj (x)] dx

ebenfalls Null. Die so gewonnenen orthogonalen Polynome werden als Legendre Polynome bezeichnet. Mit etwas anderer Normalisierung p n (x ) = n x n + . . . hat die Zwei-Term-Rekursion die Form pn+1 (x) = mit n =
xpn ,pn
n

n+1 (x n )pn (x) n pn1 (x) n


n

, n =

n+1 n1 2 n n1

und

= pn , pn .

http://www.mathematik-online.org/

37

KAPITEL 1. GRUNDLEGENDE STRUKTUREN

38

http://www.mathematik-online.org/

Kapitel 2 Matrizen
2.1
2.1.1

Lineare Abbildungen
Lineare Abbildung

Eine Abbildung L : V W zwischen K -Vektorr aumen V und W heit linear, wenn sie folgende Eigenschaften besitzt: Additivit at: L (u + v ) = L (u ) + L (v ) Homogenit at: L(v ) = L(v ) Dabei sind u, v V und K beliebige Vektoren bzw. Skalare. Insbesondere gilt L(0 V ) = 0W und L(v ) = L(v ). Beispiel: Wie in der folgenden Abbildung illustriert ist, ist eine Drehung linear.
L(v2 )

rag replacements L(v1 ) L(v ) v1 v2

PSfrag replacements L(v )

L(3v )

3v

Die Summe v = v1 + v2 bildet mit den beiden Vektoren vi ein Dreieck, dessen Form durch die Drehung unver andert bleibt, d.h., die Summe kann vor oder nach der Drehung gebildet werden. Dass eine Streckung um einen Faktor mit der Drehung vertauschbar ist, ist unmittelbar ersichtlich. Analog l asst sich veranschaulichen, dass auch eine Spiegelung linear ist. http://www.mathematik-online.org/ 39

KAPITEL 2. MATRIZEN
v 3v

v1

v2

L(v )

ag replacements L(v1 ) L(v )

PSfrag replacements L(3v )

L(v2 )

Eine Verschiebung von Punkten in der Ebene ist jedoch nicht linear. Weder die Additivit at noch die Homogenit at ist erf ullt. F ur T : (x1 , x2 ) (x1 + 1, x2 ) und v1 = (1, 0), v2 = (0, 1), = 2 gilt beispielsweise T (v1 + v2 ) = (2, 1) = (3, 1) = T (v1 ) + T (v2 ) T (v ) = (3, 0) = (4, 0) = T (v ) .

Beispiel: Die folgende Tabelle zeigt einige Beispiele von Abbildungen reeller Funktionen. Dabei ist jeweils angegeben, welche der beiden Bedingungen f ur Linearit at erf ullt sind. Abbildung f f f |f | 1 f 0 f f max f f f (0) f (max f + min f )/2 additiv X X X homogen X X X X

Ein Beispiel f ur eine Abbildung, die additiv aber nicht homogen ist, ist die Abbildung T , die einer komplexwertigen Funktion ihren Realteil zuweist. Hier gilt T (if ) = iT (f ).

2.1.2

Komposition linearer Abbildungen

F ur zwei lineare Abbildungen S:U V , 40 T :V W .

http://www.mathematik-online.org/

2.1. LINEARE ABBILDUNGEN deniert man die Komposition (auch Hintereinanderausf uhrung genannt) T S : durch (T S )(u) = T (S (u)) , d.h. man wendet auf ein u U die Abbildung S und auf das Ergebnis die Abbildung T an; die Abbildung T wird nach der Abbildung S angewandt. Die Komposition zweier linearer Abbildungen ist wiederum linear. U W

2.1.3

Matrix

Man bezeichnet (ai1 , ai2 , . . . , ain ) als i-ten Zeilen- und (a1j , a2j , . . . , amj )t als j -ten Spaltenvektor von A. Speziell ist eine (n 1)-Matrix ein Spalten- und eine (1 n)-Matrix ein Zeilenvektor. Die Gesamtheit aller (n m)-Matrizen wird mit K nm bezeichnet; Rnm (Cnm ) bezeichnet die reellen (komplexen) Matrizen. Beispiel: Die folgenden Beispiele illustrieren verschiedene Matrixdimensionen. 0 1 0 31 57 , (i, 1 + i, 1, 3i) , 1 + i i , i 97 3 + 3i 7543 17

Unter einer (m n)-Matrix (m, n N) u orper K versteht man ein Rechteckschema ber einem K a11 a12 a1n a21 a22 a2n A = (aij ) = . . . . . . . . . . am1 am2 amn

Die ersten beiden Matrizen sind Spalten- bzw. Zeilenvektoren, d.h. Matrizen, bei denen eine der Dimensionen 1 ist. Rechts ist eine quadratische und eine rechteckige Matrix gezeigt.

11 12 21 22 31 32

2.1.4

Matrix einer linearen Abbildung

Eine lineare Abbildung L : V W zwischen zwei K -Vektorr aumen mit den Basen E = {e1 , . . . , en } und F = {f1 , . . . , fm } ist durch die Bilder der Basisvektoren L(ej ) = a1,j f1 + + am,j fm eindeutig bestimmt. Sie besitzt die Matrixdarstellung
n

wF = AvE wi =

ai,j vj ,
j =1

i = 1, . . . , m ,

wobei vj und wi die Koordinaten von v und w = L(v ) bzgl. der Basen E und F bezeichnen. In der j -ten Spalte der Matrix A stehen also die Koordinaten von L(ej ) bzgl. der Basis F .

http://www.mathematik-online.org/

41

KAPITEL 2. MATRIZEN Beweis: Dass L durch die Bilder einer Basis eindeutig bestimmt ist, ergibt sich unmittelbar aus den Bedingungen f ur Linearit at: w = L (v ) = L
j

vj e j

=
j

v j L (e j ) =
j i

vj ai,j fi .

Schreibt man w=
i

wi f i

und vergleicht die Koordinaten der Basisvektoren wi , so erh alt man auch die behauptete Matrixdarstellung. Beispiel: Im folgenden sind einige lineare Abbildungen L : R2 R2 der Ebene dargestellt, die durch die Bilder der Einheitsvektoren ei (fett) festgelegt sind.

Urbild

rag replacements e2

e1

e1 =

1 0

e2 =

0 1

Streckung

Drehung
PSfrag replacements

Scherung

PSfrag replacements

L(e2 ) = se2 L(e1 ) = re1

L(e1 )

(e2 ) (e1 )
A= 1 cot 0 1

A=

r 0 0 s

A=

L(e2 ) cos sin sin cos

Man kann die Matrixdarstellung A bzgl. der kanonischen Basis e1 , e2 unmittelbar ablesen. Die Spalten der Matrizen enthalten jeweils die Koordinaten der Vektoren L(ei ), i = 1, 2. g replacements 42 http://www.mathematik-online.org/

2.1. LINEARE ABBILDUNGEN Beispiel: Eine lineare Funktion x p (x ) = a 0 + a 1 x ist durch ihre Werte an den Punkten x = 0, 1 bestimmt. Die Abbildung L:p p(0) p(1)

ist linear und kann bzgl. der durch die Koezientenvektoren, a0 a1 denierten Monombasis durch die Matrix 1 0 1 1 dargestellt werden. Verwendet man die Basis p1 (x) = 1 x, p2 (x) = x erh alt man die Matrix p1 (0) p2 (1) p1 (0) p2 (1) Allgemein wird die Auswertung eines Polynoms p (x ) = a 0 + a 1 x + + a n x n vom Grad n an m St utzstellen x = x1 , . . . , xm x0 x1 xn 1 1 1 x0 x1 x n 2 2 2 V = . , . ... . . . . . . . 1 xn x0 m m xm beschrieben. durch die Vandermonde-Matrix a0 p (x 1 ) . . . =V . . . an p (x m ) = 1 0 0 1 . = 1 0 , 0 1

2.1.5

Koordinatentransformation bei Basiswechsel


vE = A1 vE ,

Bei einem Basiswechsel E E transformieren sich die Koordinaten eines Vektors v gem a vE = AvE

wobei die Spalten der quadratischen Matrix A die Koezienten der Basisvektoren e i bzgl. der Basis E enthalten: ei = aj,i ej .
j

http://www.mathematik-online.org/

43

KAPITEL 2. MATRIZEN Beweis: Der Vektor v besitzt bez uglich der Basen E und E die Darstellungen k e k = v =
k k

k e k .

Mit Hilfe der Darstellung der ek bez uglich der Basis E folgt v =
k

k e k =
k

k
j

aj,k ej ej =
j

=
j k

aj,k k

j e j .

Durch Koordinatenvergleich erh alt man vE = AvE .

2.1.6

Bild und Kern


ker L = {v V : L(v ) = 0} V

F ur eine lineare Abbildung L : V W bezeichnet man mit den Kern und mit

das Bild von L. Beide Mengen sind Unterr aume. Beweis:

Bild L = {w W : v V mit L(v ) = w} W

Zu zeigen ist jeweils die Abgeschlossenheit bez uglich der linearen Operationen der KVektorr aume V bzw. W . (i) ker L ist Unterraum von V : F ur u, v ker(L), K , gilt aufgrund der Linearit at von L L ( u ) = L (u ) = 0 = 0 und L (u + v ) = L (u ) + L (v ) = 0 + 0 = 0 . Folglich sind u und u + v ebenfalls Elemente von ker(L). (ii) Bild L ist Unterraum von W : F ur u, v Bild L mit u = L(x), v = L(y ) und K gilt aufgrund der Linearit at von L u = L (x ) = L ( x ) und u + v = L (x ) + L (y ) = L (x + y ) . Da V ein Vektorraum ist, gibt es somit entsprechende Urbilder, und folglich sind u und u + v ebenfalls Elemente von Bild L.

2.1.7

Dimension von Bild und Kern


dim V = dim ker(L) + dim Bild(L) ,

F ur eine lineare Abbildung L : V W gilt falls dim V < . 44

http://www.mathematik-online.org/

2.1. LINEARE ABBILDUNGEN Beweis: Um die Identit at f ur die Dimension zu beweisen, w ahlt man eine Basis E = {e1 , . . . , em } f ur ker L und erg anzt diese durch {em+1 , . . . , en } zu einer Basis E von V . Da
n n

L
i=1

vi e i

=
i=m+1

v i L (e i ),

ist Bild L = span F,


n

Weiter ist F linear unabh angig, also eine Basis von Bild L, denn aus v i L (e i ) = 0
i=m+1

F = {L(em+1 ), . . . , L(en )} .

folgt n i=m+1 vi ei ker L und somit vi = 0. Die behauptete Dimensionsformel ergibt sich nun durch Vergleich der Anzahlen der Basisvektoren. Beispiel: Zur Illustration der Dimensionsformel wird die k -te Ableitung auf dem Raum der Polynome von Grad n betrachtet. Sei zun achst k = 1 und n = 2. F ur den Raum der Polynome vom Grad 2 bildet {1, x, x2 } eine Basis, der Raum hat also Dimension 3. F ur p(x) = a0 + a1 x + a2 x2 ist p (x) = a1 + 2a2 x ein Polynom vom Grad 1. Der Bildraum hat also Dimension 2. Beim Ableiten verschwinden die Konstanten. Diese bilden einen eindimensionalen Unterraum. Der Kern der Abbildung hat also Dimension 1 und somit ist die Dimensionsformel mit 3 = 1 + 2 erf ullt. Im allgemeinen Fall hat das Polynom die Form
n

p (x ) =
l=0

al x l

und die k -te Ableitung p (x ) =


(k)

l=k

l! al xlk . (l k )!

Das Bild ist ein Polynom vom Grad n k und Polynome vom Grad < k werden annulliert. Die Dimensionsformel hat also die Form n + 1 = ((n k ) + 1) +
dim Bild

k
dim ker

2.1.8

Inverse Abbildung

eine inverse Abbildung L1 : Bild L V deniert, die ebenfalls linear ist. Insbesondere gilt L1 L(v ) = v, L L1 (w) = w f ur alle v V und w Bild L. http://www.mathematik-online.org/

Eine lineare Abbildung L : V W ist genau dann injektiv, wenn ker L = 0V . In diesem Fall ist durch w v, w = L(v ) ,

45

KAPITEL 2. MATRIZEN Beweis: Aufgrund der Linearit at von L gilt L (v 1 ) L (v 2 ) = L (v 1 ) + L ( v 2 ) = L (v 1 v 2 ) , und aus dieser Beziehung folgt L(v1 ) = L(v2 ) v1 v2 ker L . F ur eine injektive lineare Abbildung kann also der Kern nur den Nullvektor enthalten. Dass die Umkehrabbildung linear ist, folgt aus L1 (L(v1 ) + L(v2 )) = L1 (L(v1 + v2 )) = v1 + v2 = L1 (L(v1 )) + L1 (L(v2 )) , L1 (L(v1 )) = L1 (L(v1 )) = v1 = L1 (L(v1 )) .

2.2
2.2.1

Matrix-Operationen
Vektorraum der Matrizen

Die (m n)-Matrizen bilden einen Vektorraum, d.h., sie k onnen addiert und mit Skalaren multipliziert werden. Diese Operationen sind komponentenweise deniert: C = A + B ci,j = ai,j + bi,j , B = A bi,j = ai,j .

2.2.2

Matrix-Multiplikation
m

Das Produkt einer (n m)-Matrix A und einer (m s)-Matrix B ist die (n s)-Matrix C = AB , cij =
k=1

aik bkj ,

d.h. zur Denition von cij werden die Produkte der Elemente aus Zeile i von A und Spalte j von B summiert: b 1j . . . cij bkj = ai1 aik aim . . . . bmj

Man beachte, dass dazu die Spaltenzahl von A mit der Zeilenzahl von B u bereinstimmen muss. Die Matrixmultiplikation entspricht der der Komposition der linearen Abbildungen T : u v = Bu, d.h. C ist die Matrixdarstellung von T S . 46 http://www.mathematik-online.org/ S : v w = Av ,

2.2. MATRIX-OPERATIONEN Beweis: F ur die Komposition der durch


m s

wi =
k=1

aik vk ,

vk =
j =1

bkj uj

denierten Abbildungen erh alt man wi =


k j

aik bkj uj =
j k

aik bkj uj .

Der Ausdruck in eckigen Klammern ist das Matrixprodukt und stimmt also mit der Matrix C der Komposition der Abbildungen u berein. Beispiel: Im Folgenden sind einige konkrete Matrix-Produkte angegeben: 1 3 2 321 213 132 1 10 100 2 1 3 = 123 312 231 100 10 1 3 2 1 1 7 13 2 7 13 = 14 26 3 21 39 3 4 3 4 = 25 1 i i 1 1 i 0 2i

2.2.3

Strassens Algorithmus

Berechnet man das Produkt C = AB von zwei (2 2)-Matrizen A, B in der u blichen Weise, so ben otigt man 8 Multiplikationen. Sehr u berraschend hat Strassen gezeigt, dass 7 Multiplikationen ausreichen [V. Strassen: Gaussian elimination is not optimal, Numer. Math. 13 (1969). 357361]. Man berechnet die Produkte p1 p2 p3 p4 p5 p6 p7 = = = = = = = (a1,2 a2,2 )(b2,1 + b2,2 ) (a1,1 + a2,2 )(b1,1 + b2,2 ) (a1,1 a2,1 )(b1,1 + b1,2 ) (a1,1 + a1,2 )b2,2 a1,1 (b1,2 b2,2 ) a2,2 (b2,1 b1,1 ) (a2,1 + a2,2 )b1,1

und erh alt die Elemente der Produktmatrix C durch Bilden der Summen c1,1 c1,2 c2,1 c2,2 = = = = a1,1 b1,1 + a1,2 b2,1 a1,1 b1,2 + a1,2 b2,2 a2,1 b1,1 + a2,2 b2,1 a2,1 b1,2 + a2,2 b2,2 = = = = p1 + p2 p4 + p6 p4 + p5 p6 + p7 p2 p3 + p5 p7 . 47

http://www.mathematik-online.org/

KAPITEL 2. MATRIZEN Wendet man diese Konstruktion in Blockform rekursiv auf Matrizen der Dimension n = 2 k an, so ergibt sich eine Reduktion der Multiplikationen von n3 auf O(nlog2 7 ). Dieses Resultat konnte sogar noch auf O(n2.376... ) verbessert werden [D. Coppersmith, S. Winograd: Matrix Multiplication via arithmetic progressions, J. Symb. Comp. 9 (1990), 251280]. Es wird vermutet, da sogar O(n2 ) m oglich ist der optimale Exponent ist jedoch noch unbekannt. F ur Matrizen von reellen oder komplexen Zahlen hat dieses Resultat heute keine praktische Bedeutung mehr, da die Berechnungen meist mit Hilfe von Computern durchgef uhrt werden, die fast ebenso schnell multiplizieren wie addieren k onnen. Es ist daher nicht sinnvoll, 8 Multiplikationen und 4 Additionen durch 7 Multiplikationen und 18 Additionen zu ersetzen. Der mathematischen Brillianz des Resultates tut das jedoch keinen Abbruch.

2.2.4

Kommutator

Der Kommutator zweier (n n)-Matrizen ist als

[A, B ] = AB BA

deniert und im allgemeinen nicht Null. Im Fall [A, B ] = 0 werden A und B als kommutierende Matrizen bezeichnet.

Beispiel:

Bei der Hintereinanderausf uhrung zweier Spiegelungen S1 und S2 an unterschiedlichen Achsen g1 und g2 ist die Reihenfolge relevant. Das Bild zeigt oben die Bilder der einzelnen Spiegelungen. In der unteren Reihe ist links die Doppelspiegelung S2 S1 dargestellt und rechts die Doppelspiegelung S1 S2 . Die Ergebnisse sind jeweils Drehungen um den doppelten Winkel zwischen den Geraden, allerdings in unterschiedliche Richtungen. 48 http://www.mathematik-online.org/

2.2. MATRIX-OPERATIONEN

g1

g2

g replacements

g1 g2

g1 g2

W ahlt man als g1 die erste Winkelhalbierende und als g2 die y -Achse so haben die Abbildungen die Matrixdarstellungen v = S1 u = v = S2 u = Die Doppelspiegelungen haben die Darstellungen w = S 2 S1 u = = w = S 1 S2 u = = Der Kommutator ist in diesem Fall [S 1 , S 2 ] = 0 1 1 0 0 1 1 0 = 0 2 2 0 . 49 1 0 0 1 0 1 1 0 0 1 1 0 0 1 1 0 u, 1 0 0 1 u. u 0 1 1 0 u 0 1 1 0 1 0 0 1 u, u.

http://www.mathematik-online.org/

KAPITEL 2. MATRIZEN

2.2.5

Inverse Matrix
AA1 = A1 A = E

F ur eine invertierbare lineare Abbildung v Av bezeichnet A1 die Inverse der Matrix A, d.h.

mit

der Einheitsmatrix. Die invertierbaren beziehungsweise regul aren Matrizen A K nn bilden bez uglich der Multiplikation eine Gruppe, die lineare Gruppe, die mit GL(n, K ) bezeichnet wird. Es gilt (AB )1 = B 1 A1 f ur A, B GL(n, K ). Beweis: Es gilt B 1 A1 AB = B 1 EB = B 1 B = E , und damit ist also B 1 A1 die Inverse zu AB .

E=

1 0 0 0 1 0 . ... . . . . . 0 0 1

Beispiel: Die Inverse einer Diagonalmatrix erh alt man durch Kehrwertbildung der Diagonal-Elemente, z.B.: 3 0 1/3 0 A= , A1 = . 0 1/7 0 7 F ur Dreiecksmatrizen bleibt die Dreieck-Form bei der Invertierung ebenfalls erhalten, z.B.: B= 1 0 1 1 , B 1 = 1 0 1 1 .

Im allgemeinen ist die Inverse einer Matrix voll besetzt, z.B.: C= 1 2 1 1 , C 1 = 1 2 1 1 .

Die Eintr age m ussen dann durch L osen eines linearen Gleichungssystems bestimmt werden.

2.2.6

Transponierte und adjungierte Matrix

Werden Zeilen und Spalten einer Matrix A vertauscht so spricht man von der transponierten Matrix B = At , d.h. bi,j = aj,i . 50 http://www.mathematik-online.org/

2.2. MATRIX-OPERATIONEN Werden bei einer komplexen Matrix A zus atzlich die Eintr age konjugiert, so ergibt sich die t , d.h. adjungierte Matrix C = A = A ci,j = a j,i . Eine Matrix mit A = At bezeichnet man als symmetrisch, eine Matrix mit A = A als selbstadjungiert oder Hermitesch. F ur reelle Matrizen bedeuten die Begrie hermitesch und symmetrisch also dasselbe. Es gelten folgende Regeln: (AB )t = B t At und (AB ) = B A , (At )1 = (A1 )t und (A )1 = (A1 ) . Beweis: F ur einen Eintrag in C t = (AB )t gilt ct ji = cij =
k

aik bkj =
k

t at ki bjk = k

t bt jk aki

+ b und ab = a b gilt, bleibt dies auch f ur die Adjungierte und damit C t = B t At . Da a + b = a korrekt. Aus t t E = E t = AA1 = A1 At folgt (A1 ) = (At ) . Entsprechendes gilt f ur die Adjungierte.
t 1

2.2.7

Spur
n

Die Summe u ber die Hauptdiagonalenelemente einer n n Matrix A nennt man die Spur von A, Spur(A) =
i=1

aii .

Sind A, B beliebige (n n)-Matrizen, dann gilt: Spur(AB ) = Spur(BA). Hieraus folgt, da f ur eine regul are Matrix T und eine beliebige Matrix A gilt: Spur(T 1 AT ) = Spur(A). Dies bedeutet, dass die Spur unter Koordinatentransformationen invariant bleibt.

2.2.8

Rang einer Matrix

F ur eine (m n)-Matrix A stimmt die maximale Anzahl linear unabh angiger Spalten mit der maximalen Anzahl linear unabh angiger Zeilen u berein und wird als Rang von A, Rang A, bezeichnet. Insbesondere gilt Rang A max{m, n}. http://www.mathematik-online.org/ 51

KAPITEL 2. MATRIZEN Beweis: Die maximale Zahl linear unabh angiger Spalten v1 , . . . , vn entspricht der Dimension des Vektorraums V = span{v1 , . . . , vn } , denn man kann aus den Spalten eine Basis ausw ahlen. Die analoge Aussage gilt f ur den durch die Zeilen w1 , . . . , wm aufgespannten Vektorraum W . Die Behauptung dim V = dim W wird nun durch Induktion nach n gezeigt. Es ist leicht zu sehen, da dim V und dim W bei folgenden Operationen unver andert bleiben: Permutation von Spalten oder Zeilen; Addition eines skalaren Vielfachen einer Spalte (Zeile) zu einer anderen Spalte (Zeile). Ist die Matrix A = 0 kann man sie durch Anwendung dieser Operationen auf die Form b1,1 0 . . . 0 0 . . . A 0

B=

bringen. Durch Permutationen erreicht man zun achst b1,1 = 0 und annulliert dann die restlichen Elemente der ersten Zeile und Spalte durch geeignete Additionen. Genauer addiert man zun achst das (b1,j /b1,1 )-fache der ersten Spalte zu der j -ten Spalte (j = 2, . . . , n) und verf ahrt dann analog mit den Zeilen. Bezeichnet man mit V und W die entsprechenden Vektorr aume f ur die (m 1) (n 1)-Matrix A , so folgt dim V = dim V + 1, und induktiv die Behauptung. dim W = dim W + 1

Beispiel: Einige typische F alle sind anhand von drei (3 2)-Matrizen veranschaulicht: 0 0 Rang 0 0 = 0 0 0 1 2 Rang 2 3 = 2, 3 4 3 4 Rang = 6 8 = 1 . 9 12

F ur die dritte Matrix gilt 4S1 = 3S2 f ur die Spalten S1 und S2 und 2Z3 = 3Z2 = 6Z1 f ur die Zeilen Z1 , Z2 und Z3 . In beiden F allen ist also die Dimension des entsprechenden Vektorraums gleich 1. 52 http://www.mathematik-online.org/

2.2. MATRIX-OPERATIONEN

2.2.9

Norm einer Matrix


Ax = max Ax x =1 x

Einer Vektornorm ist die Matrixnorm A = sup


x=0

zugeordnet. Zus atzlich zu den Normeigenschaften (Positivit at, Homogenit at, Dreiecksungleichung) gilt AB A B , d.h. die zugeordnete Matrixnorm ist submultiplikativ. Beweis: Im Folgenden werden die einzelnen Eigenschaften veriziert: Positivit at: Durch die Denition u ahrleistet, dass A 0. Ist A ber die Vektornorm ist gew die Nullmatrix, so kommt nur der Nullvektor als Bild vor und die Norm ist 0. Ist andererseits die Norm Null, so tritt nur der Nullvektor als Bild auf, und die Abbildung wird durch die Nullmatrix beschrieben. Homogenit at: A = max Ax = max || Ax
x =1 x =1

= || max Ax = || A .
x =1

Dreiecksungleichung: A+B = max (A + B )x = max Ax + Bx


x =1 x =1

max ( Ax + Bx )
x =1

max Ax + max Bx = A + B .
x =1 x =1

Submultiplikativit at: F ur B = 0 ist AB = 0 und damit die Ungleichung erf ullt. F ur B = 0 ist AB ABx A(Bx) Bx = sup x Bx x x=0 x:Bx=0 Bx Ay sup = A B . sup y x x=0 y =0 = sup

Bei der ersten Umformung wird zwar die Menge u ber die das Supremum gebildet wird eingeschr ankt, es werden aber nur Vektoren entfernt, die den Nullvektor als Bild haben und damit das Supremum nicht beinussen.

2.2.10

Zeilensummen-Norm

Der Maximum-Norm f ur Vektoren v

= max |vi | ist die Zeilensummennorm f ur Matrizen


i

A zugeordnet.

= max
i j

|aij |

http://www.mathematik-online.org/

53

KAPITEL 2. MATRIZEN Beweis: F ur x

= max |xj | = 1 ist


j

Ax und man erh alt A

= max
i j

aij xj max
i

|aij | ,

= max Ax
x =1

max
i

|aij | .

Nimmt man an, dass das Maximum f ur i = k angenommen wird, so folgt die Gleichheit durch die Wahl von xj = sign akj denn damit ist akj xj =
j j

akj | .

2.3
2.3.1

Spezielle Matrizen
Belegungsstruktur von Matrizen

Gem a der Anordnung der von Null verschiedenen Matrixelemente ai,j unterscheidet man zwischen Diagonalmatrizen: ai,j = 0 f ur i = j ; Bandmatrizen: ai,j = 0 f ur |i j | > k mit 2k + 1 der Anzahl der von Null verschiedenen Diagonalen, die als Bandbreite bezeichnet wird; obere (untere) Dreiecksmatrizen: ai,j = 0 f ur i > j (i < j ). Generell bezeichnet man eine (m n)-Matrix als schwach besetzt, wenn nur c max(m, n) Elemente ungleich Null sind, mit einer nicht allzu groen Konstanten c.

2.3.2

Orthogonale und unit are Matrizen


t

Eine komplexe (n n)-Matrix A heit unit ar, falls A1 = A = A , d. h., falls die Spalten von A eine orthonormale Basis von Cn bilden. F ur relle Matrizen entf allt (wie beim Skalarprodukt) die komplexe Konjugation, A1 = At , und man spricht von einer orthogonalen Matrix. Orthogonale (unit are) Matrizen bilden eine Untergruppe von GL(n, R) (GL(n, C)). 54 http://www.mathematik-online.org/

2.3. SPEZIELLE MATRIZEN

2.3.3

Hadamard-Matrizen

Allgemein lassen sich diese Matrizen mit der Rekursion H2k = konstruieren. Hk Hk H k H k

F ur n = 2k existieren bis auf Skalierung orthogonale Matrizen Hk der Dimension n n mit Eintr agen in {1, 1}, die so genannten Hadamard-Matrizen. Die ersten Hadamard-Matrizen sind 1 1 1 1 1 1 1 1 1 1 . H2 = , H4 = 1 1 1 1 1 1 1 1 1 1

2.3.4

Fourier-Matrix
wn = exp(2 i/n)

Durch Bilden von Potenzen der Einheitswurzel

wn ar. Sie ist nach Normierung (Wn Wn / n) unit Beweis:

erh alt man die so genannte Fourier-Matrix 00 wn . . Wn = .

wn wn

0(n1)

. . .

(n1)0

(n1)(n1)

Die Orthogonalit at der Spalten u uft man leicht. Das komplexe Skalarprodukt der (j + 1)berpr ten und (k + 1)-ten Spalten ist
n1 =0

wnj wnk

(j k) wn

wn

(j k)n

j k wn

und da

n wn

= 1 , ist der Z ahler null.

Beispiel: F ur n = 4 ist w4 = exp(2 i/4) = i, und man erh alt 1 1 1 1 1 i 1 i W4 = 1 1 1 1 . 1 i 1 i 1 W4 2 1 W4 2 =E. 55

Nach Division durch 2 ist W4 unit ar, d.h.

http://www.mathematik-online.org/

KAPITEL 2. MATRIZEN

2.3.5

Normtreue orthogonaler und unit arer Matrizen

Eine reelle (komplexe) Matrix A ist genau dann orthogonal (unit ar), wenn sie die euklidische Norm jedes Vektors invariant l asst: |Av | = |v | .

Beweis: Es braucht nur der komplexe Fall betrachtet zu werden, der den reellen Fall einschliet. (i) Ist A unit ar, so gilt (Ay ) (Ax) = y A Ax = y x es folgt also allgemeiner die Invarianz des komplexen Skalarproduktes, was die Normtreue einschliet. (ii) Aus der Normtreue folgt zun achst, dass die Spalten vj von A als Bilder der Einheitsvektoren ej Norm eins haben. Um zu zeigen, dass verschiedene Spalten orthogonal sind, w ahlt man = exp(i), so dass (vk ) vj R . Dann gilt aufgrund der Normtreue und Denition der euklidischen Norm
2 = |ej + ek |2 = |vj + vk |2 = |vj |2 + ||2 |vk |2 + 2 Re(vk ) vj = 2 + 2vk vj ,

folglich muss das Skalarprodukt auf der rechten Seite verschwinden.

2.3.6

Zyklische Matrizen

Die zyklische Struktur bleibt bei Matrixmultiplikation erhalten.

Bei einer zyklischen (n n)-Matrix werden die Spalten durch zyklisches Verschieben der ersten Spalte gebildet: a0 an1 an2 . . . a1 a0 an1 . . . a2 a1 . a . . . 0 . . . . . . . . .

Beweis: Die Elemente eines zyklischen Matrix-Produktes C = AB sind


n

ci,k =
j =1

aij mod n bj k mod n .

Da {0, . . . , n 1} = k + {0, . . . , n 1} mod n , kann man in den Summanden j durch j + k ersetzen, was beweist, da ci,k nur von i k mod n abh angt.

56

http://www.mathematik-online.org/

2.4. DETERMINANTEN Beispiel: Das Produkt der zyklischen Matrizen 3 4 1 A = 1 3 4 , 4 1 3

ist die zyklische Matrix

0 2 5 0 2 B= 5 2 5 0

18 11 23 11 . C = AB = 23 18 11 23 18

2.3.7

Stochastische Matrizen
n

Eine (n n)-Matrix P heit stochastisch, falls pi,j 0 und pi,j = 1,


j =1

i = 1, . . . , n .

Stochastische Matrizen beschreiben die Anderung von Wahrscheinlichkeiten xi gem a xj =


i

xi pi,j .

Beweis: Aufgrund der Eigenschaften von P ist auch x ein Vektor von Wahrscheinlichkeiten, d.h. xj 0, xj = 1 .
j

Die Nicht-Negativit at ist oensichtlich und die Invarianz der Summe folgt aus xi pi,j =
j i i

xi
j

pi,j .
=1

2.4
2.4.1

Determinanten
Determinante als antisymmetrische Multilinearform
det A = det(a1 , . . . , an )

Die Determinante einer quadratischen Matrix A mit Spalten aj kann durch folgende Eigenschaften deniert werden. Multilineari at: det(. . . , aj + bj , . . .) = det(. . . , aj , . . .) + det(. . . , bj , . . .) . http://www.mathematik-online.org/ 57

KAPITEL 2. MATRIZEN Antisymmetrie: det(. . . , aj , . . . , ak , . . .) = det(. . . , ak , . . . , aj , . . .) . Normierung: det(e1 , . . . , en ) = 1 , (ek ) = k .

Mit diesen Regeln l asst sich eine Determinante als Summe n-facher Produkte entwickeln: det A =
iSn

(i)ai1 ,1 ain ,n ,

wobei u ber alle Permutationen (i1 , . . . , in ) von (1, . . . , n) summiert wird und das Vorzeichen der Permutation bezeichnet. Man benutzt ebenfalls die Schreibweisen det A = |A| = a1,1 . . . an,1 a1,n . . . an,n .

Beweis: Wegen der hohen Anzahl der Summanden (es exisitieren n! Permutationen) ist die explizite Darstellung der Determinante f ur die praktische Berechnung schlecht geeignet. Sie ist jedoch unmittelbar mit den denierenden Eigenschaften verkn upft und wird zum Beweis sowie zur Herleitung einiger anderer Eigenschaften ben otigt. Deshalb wurde sie als aquivalente Denition mit angegeben. Es ist zun achst zeigen, dass die gefordeten Eigenschaften notwendig auf die Entwicklung der Determinante mit Hilfe von Permutationen f uhrt. Dazu stellt man die Spalten von A als Linearkombinationen der Einheitsvektoren ei dar:
n

aj =
i=1

ai,j ei .

Aufgrund der Multilinearit at gilt dann


n n

det A =
i1 =1

in =1

ai1 ,1 ain ,n det(ei1 , . . . , ein ) .


=:di

Diese Summe kann man wie folgt vereinfachen. Sind zwei der Einheitsvektoren gleich, so ist d i aufgrund der Antisymmetrie Null: det(. . . , ek , . . . , ek , . . .) = det(. . . , ek , . . . , ek , . . .) . Sind alle i verschieden, d.h. ist (i 1 , . . . , i n ) eine Permutation von (1, . . . , n), so gilt di = (1) (i) , 58 http://www.mathematik-online.org/

2.4. DETERMINANTEN wobei (i) die modulo 2 eindeutig bestimmte Anzahl von Vertauschungen bezeichnet, um die Einheitsvektoren in die kanonische Reihenfolge zu bringen. Nach Denition des Vorzeichens einer Permutation ist also det(ei1 , . . . , ein ) = (i) det(e1 , . . . , en ) = (i) , d.h. man erh alt die angegebene Entwicklung. Umgekehrt kann man nachpr ufen, da die Entwicklung konsistent mit den geforderten Regeln ist. Die Multilinearit at gilt, da in den Produkten ai1 ,1 ain ,n aus jeder Spalte jeweils genau ein Element vorkommt. Die Antisymmetrie folgt, da eine Vertauschung von Spalten die Anzahl der Vertauschungen bei der R uckf uhrung auf die kanonische Reihenfolge um 1 ver andert. Schlielich reduziert sich die Summe bei der Einheitsmatrix auf den einen Summanden a1,1 an,n = 1 1 = 1.

2.4.2

2-reihige Determinante
a b c d

Die Determinante einer (2 2)-Matrix ist = ad bc.

Dies sieht man leicht aus der Entwicklung nach Permutationen, denn es gibt nur 2 Summanden. Alternativ kann man die Determinante auch mit Hilfe der denierenden Eigenschaften berechnen. Stellt man die Spalten als Linearkombinationen der kanonischen Einheitsvektoren e k dar, so folgt aus der Multilinearit at det(ae1 + ce2 , be1 + de2 ) = a det(e1 , be1 + de2 ) + c det(e2 , be1 + de2 ) = ab det(e1 , e1 ) + ad det(e1 , e2 ) + cb det(e2 , e1 ) + cd det(e2 , e2 ) = ab 0 + ad 1 + cb (1) + cd 0 = ad bc .

2.4.3

Sarrus-Schema

Die Determinante einer (3 3)-Matrix ist wie in der Abbildung illustriert eine Summe von Produkten, die den verschiedenen Diagonalen entsprechen.

            

http://www.mathematik-online.org/

59

KAPITEL 2. MATRIZEN Ein Analogon dieses nach Sarrus benannten Schemas in h oheren Dimensionen n existiert nicht. Bereits f ur n = 4 ist die Determinante eine Summe von 24 Produkten. Das Sarrus-Schema l asst sich leicht durch Entwicklung nach Permutationen nachpr ufen. Die folgende Tabelle zeigt alle Summanden, sowie die mit den Permutationen i assoziierten Vertauschungen, aus denen sich das Vorzeichen ergibt. i (1, 2, 3) (2, 3, 1) (3, 1, 2) (3, 2, 1) (1, 3, 2) (2, 1, 3) Vertauschungen (3, 2, 1) (1, 2, 3) (2, 1, 3) (1, 2, 3) (1, 2, 3) (1, 2, 3) (1, 2, 3) (i ) + + + Summand +a1,1 a2,2 a3,3 +a2,1 a3,2 a1,3 +a3,1 a1,2 a2,3 a3,1 a2,2 a1,3 a1,1 a3,2 a2,3 a2,1 a1,2 a3,3

2.4.4

Orientiertes Volumen

Der Betrag der Determinante einer reellen Matrix A stimmt mit dem n-dimensionalen Volumen des von den Spalten ai aufgespannten Spats u berein:
n

| det A| = vol

i=1

i ai : 0 i 1

= vol (A[0, 1]n ) .

Beweis: Man kann leicht nachpr ufen, dass das orientierte Volumen vol A := sign(det A) vol(A[0, 1]n ) alle drei denierenden Eigenschaften der Determinante (Multilinearit at, Antisymmetrie, Normierung) besitzt. Folglich mu vol A = det A gelten. Beispiel: F ur Vektoren u, v , w im R3 stimmt die Determinante mit dem Spatprodukt u berein: det(u, v, w) = [u, v, w] . Alternativ l at sie sich mit Hilfe des -Tensors ausdr ucken: det(u, v, w) =
i j k

i,j,k ui vj wk .

W ahlt man beispielsweise die Vektoren 2 1 1 2 , u= , v= 1 1 60

1 w= 1 2

http://www.mathematik-online.org/

2.4. DETERMINANTEN ergibt das Spatprodukt

Mit dem -Tensor erh alt man die Darstellung

3 1 1 (2, 1, 1) 2 1 = (2, 1, 1) 1 = 6 1 1 = 4 . 1 2 1 det(u, v, w) = 1,2,3 2 2 2 + 1,3,2 2 1 1 + 2,1,3 1 1 2 +2,3,1 1 1 1 + 3,1,2 1 1 1 + 3,2,1 1 2 1 = 8 2 2 + 1 + 1 2 = 4.

2.4.5

Regeln fu r Determinanten
det A = det A

F ur (n n)-Matrizen A und B gilt: det A = det At , det(AB ) = (det A)(det B ). A ist genau dann invertierbar, wenn det A = 0, und det(A1 ) = (det A)1 .

Beweis: (i) Die Symmetrieeigenschaft folgt aus der Entwicklung nach Permutationen: det At =
iSn

(i)a1,i1 an,in .

Durchl auft man bei den Summanden die Indizes {1, . . . , n} jeweils in der Reihenfolge der zu i inversen Permutation j , so ergibt sich eine ver anderte Anordnung der Faktoren: aj1 ,ij1 ajn ,ijn = aj1 ,1 ajn ,n . Da (i) = (j ) erh alt man die gleiche Entwicklung wie f ur det A. Beispielsweise sind i = (1 2 3) j = (1 3 2) zueinander inverse Permutationen in Zyklenschreibweise, und a1,i1 a2,i2 a3,i3 = a1,2 a2,3 a3,1 = a3,1 a1,2 a2,3 = aj1 ,1 aj2 ,2 aj3 ,3 . Das Vorzeichen ist positiv, denn i = (1 3) (1 2), j = i1 = (1 2) (1 3) ,

d.h. die Anzahl der Vertauschungen ist jeweils 2. (ii) Ist A nicht invertierbar, so folgt die Multiplikativit at aus der dritten Eigenschaft. F ur det A = 0 zeigt man, da die Abbildung B f (B ) := det(AB )/ det(A) http://www.mathematik-online.org/ 61

KAPITEL 2. MATRIZEN alle die Determinante charakterisierenden Eigenschaften hat, folglich mit det B u bereinstimmen muss. Die Normierung f (En ) = 1 ist oensichtlich. Zum Beweis der Multilinearit at und Anitsymmetrie bemerkt man, dass die Abbildung B AB linear in den Spalten von B ist und dass eine Vertauschung zweier Spalten einer Vertauschung der entsprechenden Spalten von AB entspricht. (iii) Eine quadratische Matrix A ist genau dann nicht invertierbar, wenn Ax = 0 f ur einen nicht-trivialen Vektor x, d.h. wenn es eine nicht-triviale Linearkombination der Spalten a j von A gibt: x 1 a1 + + x n an = 0 . Gegebenenfalls nach Permutation der Spalten kann man x1 = 0 annehmen, d.h. a1 = y 2 a2 + + y n an , Aus der Multilinearit at folgt nun
n

yj = xj /x1 .

det A =
j =2

yj det(aj , a2 , . . . , an ) = 0 ,

denn alle Determinanten auf der rechten Seite enthalten zwei gleiche Spalten, m ussen also wegen der Antisymmetrie verschwinden. Dass die Determinante einer invertierbaren Matrix ungleich Null ist, folgt aus der geometrischen Interpretation der Determinante als orientiertes Volumen des von den Spalten von A aufgespannten Parallelepipeds. Schlielich impliziert die bereits bewiesene Multiplikativit at die Formel f ur det (A1 ) .

2.4.6

Determinanten spezieller Matrizen

F ur einige spezielle (n n) Matrizen A l at sich die Determinante unmittelbar angeben. Dreiecksmatrix: Ist ai,j = 0 f ur i < j oder i > j , so gilt det A = a1,1 an,n . Blockdiagonalmatrix: Hat die Matrix B Blockstruktur mit Ai,j = 0, i = j und quadratischen Diagonalbl ocken Ai,i , so gilt
k

det B =
i=1

det Ai,i .

Orthogonale und unit are Matrix: F ur eine unit are Matrix U gilt | det U | = 1 . Speziell ist f ur eine orthogonale Matrix (ui,j R) det U {1, 1} .

62

http://www.mathematik-online.org/

2.4. DETERMINANTEN Beweis: Dreiecksmatrix: Da det A = det At ist, gen ugt es eine obere Dreiecksmatrix zu betrachten. F ur eine Permutation i von (1, . . . , n), die nicht die Identit at ist, folgt, dass es mindestens ein Element ik mit ik > k geben muss, das heit aik ,k = 0. Somit reduziert sich die Summe auf den Eintrag f ur die Identit at, und die Determinante ergibt sich als das Produkt der Diagonalelemente. Blockdiagonalmatrix: Betrachtet man zun achst nur eine Aufteilung in 2 Diagonalbl ocke der Gr oe n1 und n2 , so reicht es aus u ber die Permutationen zu summieren, die die ersten n1 Elemente unter sich und damit auch die letzten n2 Elemente unter sich vertauschen, da die anderen zu einem Summanden 0 f uhren. Die verbleibenden Summanden lassen sich als Produkt einer Permutation k der ersten n1 und einer Permutation l der letzten n2 Elemente schreiben: det B =
iSn

(i)(ai1 ,1 ain1 ,n1 )(ain1 +1 ,n1 +1 ain ,n ) (k )(ak1 ,1 akn1 ,n1 ) (l)(an1 +l1 ,n1 +1 an1 +ln2 ,n )

= det A1,1 det A2,2 .

kSn1

lSn2

Induktiv erh alt man daraus die Aussage f ur eine Aufteilung in mehr als zwei Bl ocke. Orthogonale und unit are Matrix: Da sich die Komplexkonjugation in Summen und Produkte hineinziehen l asst und det U = det U t gilt, folgt aus der Multiplikativit at der Determinanten 1 = det E = det (U U ) = det U det U = det U t det U = det U det U = | det U | . Im reellen Fall ist die Determinante reell und damit nur 1 und 1 m oglich.

2.4.7

Umformung von Determinanten

Die Determinante einer Matrix mit zwei gleichen Spalten oder Zeilen ist Null. Daraus folgt insbesondere, dass sich die Determinante nicht a ndert, wenn man ein Vielfaches einer Spalte (Zeile) zu einer anderen Spalte (Zeile) addiert. Beweis: Da durch das Transponieren einer Matrix Spalten in Zeilen u uhrt werden und det A = det At berf gilt, gen ugt es den Spaltenfall zu betrachten. Beim Vertauschen zweier Spalten muss die Determinante nach Denition das Vorzeichen wechseln. Vertauscht man die beiden identischen Spalten miteinender, andert sich die Matrix nicht und die Determinante muss also Null sein. Wird ein -faches der Spalte aj zu der Spalte ai , i = j addiert, so erh alt man die Matrix A = (a1 , . . . , ai + aj , . . . , aj , . . . , an ) . Aufgrund der Linearit at kann die Determinante aufgeteilt werden in det A = det (a1 , . . . , ai , . . . , aj , . . . , an ) + det (a1 , . . . , aj , . . . , aj , . . . , an ) . Die zweite Matrix enth alt zwei identische Spalten und hat somit Determinante Null.

http://www.mathematik-online.org/

63

KAPITEL 2. MATRIZEN Beispiel: Durch Addition von Vielfachen von Zeilen einer Matrix zu anderen Zeilen kann die Matrix auf Dreiecksform gebracht werden und die Determinante dann als Produkt der Diagonalelemente gewonnen werden. F uhrt man dabei Vertauschungen von Spalten oder Zeilen durch, a ndert sich das Vorzeichen. Beispielsweise l asst sich 1 4 0 2 0 8 0 4 A= 3 3 3 2 0 6 0 4 1 4 0 8 det A = det 0 9 0 6 0 2 0 4 3 4 0 4 0 4 0 8 3 9 0 6

so wie folgt berechnen. Zeile 3 - 3 Zeile 1:

Vertauschen von Spalte 2 und Spalte 4:

Zeile 3 + Zeile 2, Zeile 4 - Zeile 2:

1 2 0 4 det A = det 0 4 0 4 2 4 0 0

1 0 det A = det 0 0

0 4 0 8 = (1 4 3 (2)) = 24 . 3 1 0 2

2.4.8

Entwicklung von Determinanten

Die Determinante einer (n n)-Matrix A l asst sich nach einer beliebigen Zeile oder Spalte entwickeln:
n

det A =
j =1 n

k,j (Entwicklung nach Zeile k ) (1)k+j ak,j det A (Entwicklung nach Spalte l) ,

=
i=1

i,l (1)i+l ai,l det A

i,j die Matrix bezeichnet, die durch Streichen der i-ten Zeile j -ten Spalte von A entsteht. wobei A

Beweis: Wegen det A = det At gen ugt es, die Entwicklung nach einer Spalte zu betrachten. Spaltet man die l-te Spalte in
n

al =
i=1

ai,l ei

64

http://www.mathematik-online.org/

2.4. DETERMINANTEN auf, folgt aufgrund der Multilinearit at f ur die Determinante


n

det A =
i=1

ai,l det (a1 , . . . , al1 , ei , al+1 , . . . , an ) .


=Bi

Eine Multiplikation der Summanden mit 1 = (1)2l+2i2n liefert dann die angegebene Entwicklungsformel. Beispiel: Entwickelt man f ur die Matrix 2 1 1 A= 1 2 1 1 1 2 2 1 1 2 1 1 1 2

Bei der Determinante auf der rechten Seite liefern nur die Permutationen aus Sn einen Beitrag, die als n-ten Eintrag n haben. Dies entspricht aber den Permutationen Sn1 und damit ist 0 . . i,l A . i,l . det = det A 0 ai,1 ai,l1 ai,l+1 ai,n 1

Betrachtet man nun eine Matrix Bi , so kann man f ur diese durch n l Spaltenvertauschungen die l-te Spalte an das Ende bringen ohne die Reihenfolge der anderen Spalten unter sich zu ver andern. Entsprechend l at sich die i-te Zeile mit n i Zeilenvertauschungen zur letzten Zeile machen: 0 . . i,l A . det Bi = (1)nl (1)ni det 0 ai,1 ai,l1 ai,l+1 ai,n 1

die Determinante nach der ersten Zeile, so erh alt man det A = (1)2 2 det + (1)3 1 det + (1)4 1 det

1 2 1 1 = 2(4 1) 1(2 1) + 1(1 2) = 6 1 1 = 4 .

2.4.9

Implizite Darstellung einer Ebene durch 3 Punkte

Eine Ebene im R3 , die durch die drei Punkte P1 = (x1 , y1 , z1 ), P2 = (x2 , y2 , z2 ) und P3 = (x3 , y3 , z3 ) gegeben ist, kann in impliziter Form durch x y z x1 y1 z 1 x2 y2 z 2 x3 y3 z 3 1 1 1 1

E:

=0

http://www.mathematik-online.org/

65

KAPITEL 2. MATRIZEN dargestellt werden. Durch Entwicklung nach der ersten Zeile, erh alt man E : ax + by + cz = d mit a= y1 z 1 1 x1 z 1 1 y2 z 2 1 , b = x2 z 2 1 , c = y3 z 3 1 x3 z 3 1 x1 y1 1 x2 y2 1 , d = x3 y3 1 x1 y1 z 1 x2 y2 z 2 . x3 y3 z 3

2.4.10

Basistest

Die Vektoren a1 , . . . , an K n bilden genau dann eine Basis, wenn die Determinante der Matrix A = (a1 , . . . , an ) nicht verschwindet. Beweis: Ist die erste Zeile von A Null, so ist die Behauptung oensichtlich. Andernfalls kann man nach einer eventuellen Permutation der Spalten annehmen, da a1,1 = 0 und die Spalten aj wie folgt modizieren: a1,j a1 , j = 2, . . . , n . aj a j = a j a1,1 Diese Spaltenoperationen lassen sowohl die Determinante als auch die Basiseigenschaft der Spalten unver andert. Die modizierte Matrix hat die Form A = Nach dem Entwicklungssatz gilt det A = a1,1 det B , und da a1,1 = 0 sind die Spalten von A genau dann eine Basis von K n , wenn die Spalten von B eine Basis von K n1 sind. Die Behauptung kann also induktiv bewiesen werden. Beispiel: Am Beispiel von A= a b c d a1,1 0 c B 0 .

l asst sich der Basistest verdeutlichen. Besteht eine der Spalten oder Zeilen nur aus Nullen ergibt sich f ur die Determinante 0. In diesem Fall ist der Rang der Matrix maximal 1 und damit bilden die Spalten keine Basis. Andererseits folgt aus ad = bc a b d b a c = ab ba ad bc =0

und damit sind die Spalten linear abh angig. Sind die Spalten von A linear abh angig, gilt also b d so berechnet sich die Determinante zu =

a c

det A = ad bc = ac ac = 0 . 66 http://www.mathematik-online.org/

2.4. DETERMINANTEN

2.4.11

Vandermonde-Determinante
1 1 x1 . . . x n 1 1 1 x2 . . . x n 2 . . . . . . . . . n1 1 xn . . . x n

Die Determinante der an n Punkten xi ausgewerteten Monome 1, x, . . . xn1 ist

=
i>j

(x i x j ) .

Beweis: F ur n = 2 ist die Determinnte der Vandermonde-Matrix det 1 x1 1 x2 = x2 x1 .

F ur ein allgemeines n zieht man die erste Zeile von allen weiteren Zeilen ab:
1 1 x1 . . . x n 1 1 1 x2 . . . x n 2 . . . . . . . . . n1 1 xn . . . x n 1 1 x1 ... xn 1 1 1 0 x2 x 1 . . . x n xn 2 1 . . . . . . . . . 1 n1 0 xn x 1 . . . x n x n 1

Die Entwicklung nach der ersten Spalte ergibt dann


1 1 x2 x 1 . . . x n xn 2 1 . . . . . .

xn x 1 . . .

1 xn n

1 xn 1

wobei sich aus der k -ten Zeile der Faktor xk x1 herausziehen l at:
2 1 x 2 + x 1 x2 2 + x 2 x1 + x 1 . . . n 2 1 x 3 + x 1 x2 3 + x 3 x1 + x 1 . . . n2 i=0 n2 i=0 n2 i=0 2i i xn x1 2 2i i xn x1 3

k=2

(x k x 1 )

. . .

. . .

. . .

. . .
2i i x1 xn n

2 1 x n x 1 x2 n + x n x1 + x 1 . . .

Subtrahiert man nun von jeder Spalte das x1 -fache der vorhergehenden Spalte, bekommt die Determinante wieder die urspr ungliche Form
n 2 1 x2 . . . x n 2 2 1 x3 . . . x n 3 . . . . . . . . . n2 1 xn . . . x n

k=2

(x k x 1 )

, und die Formel kann nun u ber Induktion bewiesen werden.

http://www.mathematik-online.org/

67

KAPITEL 2. MATRIZEN

68

http://www.mathematik-online.org/

Kapitel 3 Lineare Gleichungssysteme


3.1
3.1.1

Klassikation und allgemeine Struktur


Lineares Gleichungssystem
a1,1 x1 . . . + . . . + a1,n xn = b1 . . . . . . . . . . . . + am,n xn = bm

Ein lineares Gleichungssystem u orper K hat die Form ber einem K

am,1 x1 +

Ax = b

mit einer Koezientenmatrix A = (ai,j ) K mn , zu bestimmenden Unbekannten xj K und einer rechten Seite b K m . Das lineare Gleichungssystem nennt man homogen, wenn b = 0, sonst bezeichnet man es als inhomogen. F ur ein reelles (K = R) oder komplexes (K = C) lineares Gleichungssystem wird K nicht explizit angegeben. Welcher Fall vorliegt, ist meist aus dem Zusammenhang ersichtlich. Besitzt das Lineare Gleichungssystem keine L osung (im Allgemeinen f ur m > n), so bezeichnet man es als u berbestimmt. Man spricht in diesem Fall auch von einem Ausgleichsproblem. Ein Lineares Gleichungssystem mit keiner eindeutigen L osung (im Allgemeinen f ur m < n) nennt man unterbestimmt. Beispiel: Eine Funktion f (x) kann aus Daten (x i , f i ), i = 1, . . . , n ,

durch Interpolation n aherungsweise rekonstruiert werden. Verwendet man einen linearen Ansatz
n

f (x ) p (x ) =

c j p j (x )
j =1

mit geeigneten Basisfunktionen pj , so ergibt sich aus den Interpolationsbedingungen


n

f i = p (x i ) =
j =1

c j p j (x i ),

i = 1, . . . , n 69

http://www.mathematik-online.org/

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME das lineare Gleichungssystem f ur die cj als Ac = b , mit ai,j = pj (xi ) und bi = fi .
700

  !"$# % &  "('*),+.-0/

600

500

400

300

200

 
 #1
  6 -  %/ 23-0( 4 576%
98:6%/  6.-0;-=<>
?@  5 4 /
A -0

100

  -0 5  B%C DFEHG
40 45 50

10

15

20

25

30

35

In dem abgebildeten Beispiel einer Tour-de-France-Etappe ist mit jedem Datenpunkt eine Exponentialfunktion pi (x) = exp x xi 10
2

assoziiert. Durch das starke Abklingen von pi f ur |x xi | wird erreicht, dass sich bei der Interpolation Anderungen in Datenpunkten vorwiegend lokal auswirken.

3.1.2

Elektrischer Schaltkreis

Bezeichnet man in einem elektrischen Schaltkreis mit xi die Kreisstr ome mit Flierichtung entgegen dem Uhrzeigersinn, mit Ri,j den gemeinsamen Widerstand der i-ten und j -ten Schleife und mit Ui die angelegten Spannungen, so ergibt sich aus dem Ohmschen und dem Kirchhoschen Gesetz das lineare Gleichungssystem xi Ri,0 +
i0 ij

(xi xj )Ri,j = Ui .

Dabei bedeutet i j , dass die i-te und j -te Schleife einen gemeinsamen Widerstand haben, und xi xj ist der Strom durch diesen Widerstand. Mit Ri,0 , i 0, werden Widerst ande bezeichnet, die nur in der i-ten Schleife liegen. 70 http://www.mathematik-online.org/

3.1. KLASSIFIKATION UND ALLGEMEINE STRUKTUR

70

x2

40

x4

60

110V

x1

10 20 80 x3 50

30

x5

220V

90

Die Koezientenmatrix enth alt in der Diagonale jeweils die Summe der zu einer Schleife geh origen Widerst ande und in Position (i, j ) den negativen gemeinsamen Widerstand der Schleifen i und j . Die L osung f ur das betrachtete Beispiel ist 1.0157 0.5641 . 0 . 0358 x 0.0940 1.1595

Beispielsweise erh alt man 150 70 80 0 0

f ur den abgebildeten Schaltkreis das lineare Gleichungssystem 70 80 0 0 x1 110 120 10 40 0 x2 0 10 160 0 70 x3 = 0 . 40 0 130 30 x4 0 0 70 30 190 x5 220

3.1.3

L osbarkeit eines linearen Gleichungssystems


Ax = 0,

Die L osungsmenge eines homogenen linearen Gleichungssystems u orper K , ber einem K

mit einer m n Koezientenmatrix A ist ein Unterraum U von K n . Besitzt das inhomogene lineare Gleichungssystem Ax = b eine L osung v , so gilt f ur die allgemeine L osung xv+U, d.h. die L osungsmenge ist ein aner Unterraum von K n . Insbesondere kann also ein inhomogenes lineares Gleichungssystem entweder keine, eine (U = ) oder unendlich viele (dim U > 0) L osungen besitzen.

http://www.mathematik-online.org/

71

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME Beweis: Sind x, y L osungen des homogenen linearen Gleichungssystems und K , so erh alt man A(x + y ) = Ax + Ay = 0 + 0 = 0 sowie A(x) = Ax = 0 = 0 , d.h. die L osungsmenge des homogenen linearen Gleichungssystems bildet einen Unterraum U . Falls v eine L osung des inhomogenen linearen Gleichungssystems ist und u U , so ist x = v + u wegen Ax = A(v + u) = Av + Au = b + 0 = b ebenfalls eine L osung des inhomogenen linearen Gleichungssystems. Umgekehrt ist mit zwei L osungen v und w des inhomogenen linearen Gleichungssystems die Dierenz v w wegen A(v w) = Av Aw = b b = 0 eine L osung des homogenen linearen Gleichungssystems. Man erh alt somit alle L osungen eines inhomogenen linearen Gleichungssystems, indem man f ur eine beliebige L osung des inhomogenen linearen Gleichungssystems die Summen mit allen L osungen des homogenen linearen Gleichungssystems bildet.

Beispiel: Die folgenden einfachen F alle veranschaulichen die verschiedenen Typen von linearen Gleichungssystemen: (i) Das lineare Gleichungssystem 3 5 7 4 besitzt die eindeutige L osung x1 = 8, x2 = 1. (ii) Das lineare Gleichungssystem 1 2 4 3 2 4 x1 x2 = x3 2 6 x1 x2 = 29 60

besitzt keine L osung. Die letzte Zeile liefert x2 = 4, setzt man dies aber in die anderen Zeilen ein, so erh alt man aus der ersten Zeile x1 = 2, aus der zweiten hingegen x1 = 1. 72 http://www.mathematik-online.org/

besitzt keine eindeutige L osung. W ahlt man x3 = t beliebig, so erh alt man x2 = 2t, x1 = 2 als L osung. (iii) Das lineare Gleichungssystem 1 1 6 3 1 x1 = 7 x2 0 2 8

3.1. KLASSIFIKATION UND ALLGEMEINE STRUKTUR

3.1.4

L osung linearer Gleichungssysteme in Matlab

Ein lineares Gleichungssystem Ax = b kann in Matlab mit dem Befehl x = A \b gel ost werden. Ist A eine (n n)-Matrix, so wird die L osung mit Gau-Elimination bestimmt. F ur eine (m n)-Matrix A mit m = n, wird die Ausgleichsl osung des u ber- bzw. unterbestimmten Gleichungssystems berechnet, d.h. es wird die euklidische Norm des Fehlers Ax b bzw. der L osung x minimiert. Bei numerisch instabilen Matrizen oder Systemen mit Rangverlust wird eine Warnung ausgegeben (Matrix is close to singular or badly scaled).

3.1.5

Determinante und L osbarkeit eines linearen Gleichungssystems


Ax = b

Ein lineares Gleichungssystem

mit quadratischer Koezientenmatrix A besitzt genau dann eine eindeutige L osung f ur jede rechte Seite b, wenn det A = 0 bzw. wenn das homogene System Ax = 0 nur die triviale L osung x = 0 besitzt. Ist det A = 0, so existieren L osungen nur f ur rechte Seiten b in dem von den Spalten von A aufgespannten Unterraum. Die L osung ist in diesem Fall nicht eindeutig.

Beweis: Die Behauptung folgt aus den Eigenschaften der Determinante. Aquivalent zu det A = 0 ist n amlich, dass die Spalten a1 , . . . , an von A linear unabh angig sind. Denitionsgem a bedeutet das x 1 a1 + . . . + x n an = 0 x 1 = = x n = 0 , bzw. Ax = 0 x = 0 . Um die Aquivalenz zur eindeutigen L osbarkeit des inhomogenen Systems zu erhalten, nutzt man aus, dass die Spalten eine Basis bilden, d.h. jede rechte Seite b ist eindeutig als Linearkombination x1 a1 + . . . + xn an = b Ax = b darstellbar. http://www.mathematik-online.org/ 73

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME Beispiel: Das lineare Gleichungssystem a b c d x y = u v

hat genau dann eine eindeutige L osung, wenn die Determinante ad bc = 0 ist. In diesem Fall lautet die L osung du bv av cu , y= . ad bc ad bc Falls die Determinante ad bc gleich 0 ist, hat das lineare Gleichungssystem im allgemeinen keine L osung. In diesem Fall k onnen L osungen nur existieren, wenn x= av = cu und bv = du gilt. Ist dann z. B. a = 0, so kann man y beliebig w ahlen und erh alt f ur x x= u by . a

3.2
3.2.1

Direkte Methoden
Cramersche Regel
xi det A = det(a1 , . . . , ai1 , b, ai+1 , . . . , an ) ,

F ur ein quadratisches lineares Gleichungssystem Ax = b ist

wobei aj die Spalten der Koezientenmatrix A bezeichnen. Insbesondere kann f ur det A = 0 die Inverse C = A1 durch ci,j = bestimmt werden. Beweis: Aufgrund der Multilinearit at und der Antisymmetrie der Determinante, erh alt man:
n

det(a1 , . . . , ai1 , ej , ai+1 , . . . , an ) det A

det(a1 , . . . , ai1 , b, ai+1 , . . . , an ) = det(a1 , . . . , ai1 ,


n

ai xi , ai+1 , . . . , an )
j =1

=
j =1

xj det(a1 , . . . , ai1 , aj , ai+1 , . . . , an )

= xi det(a1 , . . . , ai1 , ai , ai+1 , . . . , an ) Speziell ergibt sich mit b = ej die j -te Spalte x = (ci,j , . . . , cn,j )t der Inversen.

74

http://www.mathematik-online.org/

3.2. DIREKTE METHODEN Beispiel: F ur die Inverse C einer (2 2)-Matrix A= folgt mit der Cramerschen Regel 1 b 0 d d = , det A det A a 1 c 0 c = , det A det A 1 ad cb 0 b 1 d b = , det A det A a 0 c 1 a = , det A det A a b c d

c1,1 =

c1,2 =

c2,1 = bzw. mit det A = ad cb

c2,2 =

A1 =

d b c a

Beispiel: F ur die Inverse G der (3 3)-Matrix 1 0 2 A= 4 1 0 2 3 3 0 0 1 1 4 2 0 1 3 0 1 3 2 0 3 2 0 3

erh alt man mit der Cramerschen Regel 1 0 0 1 4 2 1 4 2 1 4 2 0 1 3 0 1 3 0 1 3 0 1 3 2 0 3 2 0 3 0 1 0 2 0 3

c1,1 =

3 , 25

c1,3 =

2 , 25

c3,2 =

3 , 25

...

Insgesamt ergibt sich A1

3 6 2 1 12 1 8 . = 25 14 3 1 75

http://www.mathematik-online.org/

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

3.2.2

Ru arts-Einsetzen ckw
r1,1 x1 + r1,2 x2 + r2,2 x2 + + r1,n xn + r2,n xn rn,n xn = b1 = b2 = bn ,

F ur ein lineares Gleichungssystem in Dreiecksform,

mit ri,i = 0 lassen sich die Unbekannten sukzessive bestimmen. F ur i = n, n 1, . . . , 1 erh alt man xi = (bi ri,i+1 xi+1 ri,n xn )/rn,n , wobei auf der rechten Seite die jeweils bereits berechneten Unbekannten eingesetzt werden.

Beispiel: F ur das lineare Gleichungssystem 4x1 + 3x2 + x3 = 6 2x2 + 2x3 = 0 7x3 = 7 in Dreiecksform erh alt man durch R uckw artseinsetzen die L osung x3 = 1 x2 = (0 2)/2 = 1 x1 = (6 3(1) 1) = 2 .

3.2.3

Gau-Transformationen

Folgende Operationen lassen die L osungsmenge eines linearen Gleichungssystems unver andert: Vertauschung zweier Gleichungen, Multiplikation einer Gleichung mit einem Faktor = 0, Subtraktion einer Gleichung von einer anderen Gleichung. Durch Kombination der letzten beiden Operationen ist auch die Addition eines Vielfachen einer Zeile zu einer anderen Zeile eine zul assige Operation.

Beispiel: Die L osung des linearen Gleichungssystems 3x1 2x2 + 2x3 = 11 x1 + 7x2 + 4x3 = 6 6x1 x2 5x3 = 8 ver andert sich nicht bei 76 http://www.mathematik-online.org/

3.2. DIREKTE METHODEN Vertauschung der ersten und der zweiten Gleichung x1 + 7x2 + 4x3 = 6 3x1 2x2 + 2x3 = 11 6x1 x2 5x3 = 8 Multiplikation der zweiten Gleichung mit dem Faktor 2 x1 + 7x2 + 4x3 = 6 6x1 4x2 + 4x3 = 22 6x1 x2 5x3 = 8 Subtraktion der dritten von der zweiten Gleichung x1 + 6x1 7x2 + 4x3 = 6 4x2 + 4x3 = 22 3x2 + 9x3 = 30

3.2.4

Gau-Elimination

Durch Gau-Transformationen l asst sich ein lineares Gleichungssystem mit invertierbarer (n n)-Koezientenmatrix A in maximal n 1 Schritten auf obere Dreiecksform bringen. Dazu werden sukzessive die Koezienten unterhalb der Diagonalen annulliert, d.h. nach 1 Schritten hat das LGS die Form a1,1 x1 + a1,2 x2 + . . . + a2,2 x2 + . . . + a1, a2, a, a +1, an, x x x x x + ... + a1,n + ... + a2,n . . . . . . + ... + a ,n + . . . + a +1,n . . . . . . + ... + xn = b 1 xn = b 2 . . . xn = b xn = b +1 . . .

an,n xn = bn

Im einzelnen verl auft der -te Eliminationsschritt wie folgt. Ist das -te Diagonalelement, das so genannte Pivot-Element, Null, so wird die -te mit einer der folgenden Gleichungen vertauscht, so dass a , = 0 gilt. F ur i > wird von der i-ten Gleichung ein Vielfaches der -ten Gleichung subtrahiert, so da ai, Null wird: ai,j ai,j qi a ,j , f ur j . bi bi qi b (qi = ai, /a , )

http://www.mathematik-online.org/

77

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME Beispiel: F ur das lineare Gleichungssystem 0 3 3 6 4 2 1 1 1 2 0 1 x = 3 1 2 1 2 4 1 1

l auft der Gau-Algorithmus folgendermaen ab:

Vertauschung der ersten und zweiten Zeile: 3 2 0 1 0 2 1 1 3 1 2 1 6 4 1 1 (3.Zeile) - (1.Zeile) und (4.Zeile) - 2(1.Zeile): 3 2 0 1 0 2 1 1 0 1 2 0 0 0 1 1 2(3.Zeile) + (2.Zeile): 3 0 0 0 3 0 0 0

1 x = 4 3 2 1 x = 4 4 0 mit Gau

3(4.Zeile) - (3.Zeile):

1 2 0 1 4 2 1 1 x= 4 0 3 1 0 0 1 1 2 0 1 1 2 1 1 4 x= 0 5 1 4 0 0 2 4

3.2.5

Echelon-Form

Ein lineares Gleichungssystem mit einer (m n)-Koezientenmatrix l asst sich Transformationen auf Echelon-Form transformieren: 0 . . . 0 p1 . . . c1 x1 0 0 . . . 0 p2 . . . . . Ax = b . = . . . 0 0 . . . 0 p . . . 3 cm xn ...
A

Dabei sind die so genannten Pivots p1 = a1,j1 , . . . , pk = ak,jk , k m, 1 j1 < < jk n ,

ungleich Null und k ist der Rang von A. Der k -te Transformationsschritt verl auft wie folgt: 78 http://www.mathematik-online.org/

3.2. DIREKTE METHODEN 1. Ein von Null verschiedenes Matrixelement pk mit kleinstem Spaltenindex und Zeilenindex k wird als Pivotelement gew ahlt und durch Zeilenvertauschung in die Position (k, jk ) gebracht. Existiert kein Pivotelement, ist die Echelon-Form erreicht. 2. Durch Subtraktion von Vielfachen der Zeile k werden die Matrixelemente unterhalb des Pivots annulliert.

Beispiel: 0 0 0 1 5 3 0 9 0 2 3 0 1 4 1 2 0 4 6 1 3 5 2 5 0 2 3 1 6 7 1 6 0 0 0 1 5 3 0 9 l auft die Transformation auf Echelon-Form folgendermaen ab: Vertauschung der ersten und zweiten Zeile: 0 2 3 0 0 0 0 4 6 0 2 3 0 0 0 0 1 4 1 2 1 5 3 0 9 1 3 5 2 5 1 6 7 1 6 1 5 3 0 9 4 3 3 3 3 1 2 0 9 0 1 0 4 0 9 F ur die Matrix

(3.Zeile): (4. Zeile) - 1 2

(3.Zeile) - (2.Zeile), (4.Zeile) - (2.Zeile) und (5.Zeile) 0 2 3 0 1 4 1 0 0 0 1 5 3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 3 0 0 0 0

(3.Zeile) - 2(1.Zeile) und (4.Zeile) + (1.Zeile): 0 2 3 0 1 0 0 0 1 5 0 0 0 1 5 0 0 0 1 5 0 0 0 1 5

(2.Zeile): 2 9 10 5 0

0 1 4 1 2 1 5 3 0 9 0 0 0 0 10 0 0 0 0 0 0 0 0 0 0

Die Echelon-Form hat 3 = Rang A nicht-triviale Zeilen mit den Pivotelementen p 1 = 2, p2 = 1 und p3 = 10. http://www.mathematik-online.org/ 79

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

3.2.6

L osung eines LGS in Echelon-Form

mit Pivots p1 , . . . , pk ist genau dann l osbar, wenn ck+1 = = cm = 0. Die L osung ist eindeutig, falls k = n. F ur k < n gibt es n k linear unabh angige L osungen des homogenen linearen Gleichungssystems (ci = 0). Die Unbekannten, die den Spalten ohne Pivots entsprechen, k onnen frei gew ahlt werden. Beispiel: Im Folgenden werden mehrere typische F alle diskutiert. k=n=4 1 0 0 0 5 0 4 1 0 2 0 0 3 x1 x2 3 7 x3 1 x4 1 0 = 9 1

Ein lineares Gleichungssystem Dx = c in Echelon-Form, 0 . . . 0 p1 . . . 0 0 . . . 0 p2 . . . 0 0 . . . 0 p3 . . . ...

x1 . . . = xn

c1 . . . cm

Durch R uckw arts-Einsetzen erh alt man rekursiv die eindeutige L osung x = (1, 1, 1, 1)t . 3 = k < n = 5, c4 = 0 4 0 0 0 1 1 2 2 2 0 7 1 0 0 1 1 0 0 0 0 x1 x2 x3 x4 x5 2 3 = 5 1

In der letzten Zeile ergibt sich 0 x = 1, damit hat das lineare Gleichungssystem keine L osung. 3 = k < n = 5, c4 = 0 4 0 0 0 1 1 2 2 2 0 7 1 0 0 1 1 0 0 0 0 x1 x2 x3 x4 x5 5 2 = 2 0

Da ck+1 = 0, ist das lineare Gleichungssystem Dx = c l osbar. Wegen Rang D = 3 = n 2 ist die L osung x jedoch nicht eindeutig. Es existieren 2 linear unabh angige L osungen vi des homogenen Systems und die allgemeine L osung hat die Form x = x s + 1 v1 + 2 v2 , j R 80 http://www.mathematik-online.org/

3.3. AUSGLEICHSPROBLEME mit xs einer speziellen L osung des inhomogenen Systems. Die Vektoren vi bestimmt man durch kanonische Wahl der nicht zu den Pivot-Spalten geh origen Unbekannten und berechnet die restlichen Koezienten u ber das homogene System: 1/4 7/4 0 3 , (x3 = 0, x5 = 1) v2 = 0 . 1 (x3 = 1, x5 = 0) v1 = 0 1 0 1 5/4 6 0 2 0

Eine spezielle L osung

erh alt man durch Setzen von x3 = x5 = 0.

xs =

3.2.7

Rang und L osbarkeit von LGS

Sei A Rmn , b Rm . Das lineare Gleichungssystem Ax = b hat eine L osung Rang A = Rang(A, b). Das lineare Gleichungssystem Ax = b ist eindeutig l osbar Rang A = Rang(A, b) = n. Das lineare Gleichungssystem Ax = b hat mehrere L osungen Rang A = Rang(A, b) = k < n.

Beachte hierzu, dass die R ange von A und von der erweiterten Matrix (A, b) invariant sind unter elementaren Umformungen. Daher kann man annehmen, dass das lineare Gleichungssystem in Echelon - Form ist. In dieser Form lassen sich die Resultate unmittelbar ablesen.

3.3
3.3.1

Ausgleichsprobleme
Ausgleichsgerade
p(t) = u + vt ,

Eine Gerade die Daten (ti , fi ), i = 1, . . . , n, bestm oglichst approximiert, kann durch Minimierung der Fehlerquadratsumme
n i=1

(fi p(ti ))2

ermittelt werden. http://www.mathematik-online.org/ 81

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

f p(t) = u + vt

p(ti ) PSfrag replacements fi

ti
Man erh alt f ur den Achsenabschnitt u und die Steigung v die Formeln u= ( t2 fi ) ( ti )( ti fi ) i )( n( t 2 ti )2 i) ( ti fi ) ( ti )( fi ) , n( t 2 ti )2 i) (

v=

n(

wenn mindestens zwei Abszissen ti verschieden sind.

Beweis: Bei einem Minimum m ussen die Ableitungen der Fehlerquadratsumme sowohl nach u als auch nach v Null sein: 0=2
i

(u + vti fi ) ti (u + vti fi ) .

0=2
i

In Matrixform lauten diese beiden Gleichungen n ti ti t2 i u v = fi t i fi .

Falls mindestens zwei ti verschieden sind ist die Determinante


2

(1 + +
n mal

1 )| (t 1 , . . . , t n ) t | 2 2

1 ti

> 0,

und man erh alt mit der Cramerschen Regel die angegebene L osung. 82 http://www.mathematik-online.org/

3.3. AUSGLEICHSPROBLEME

3.3.2

Ausgleichsl osung u berbestimmter, linearer Gleichungssysteme

Ist die rechte Seite b eines linearen Gleichungssystems Ax = b nicht in der linearen H ulle der Spalten der (m n)-Matrix A enthalten (typischerweise f ur m > n), d. h., ist Rang A < Rang (A, b) , so besitzt das Gleichungssystem keine L osung. Man spricht von einem u berbestimmten System. In diesem Fall kann eine Approximation durch L osen des Ausgleichsproblems |Ax b| min bestimmt werden. Die Berechnung der Ausgleichsl osung ist mit Hilfe der Normalengleichungen oder der Singul arwertzerlegung m oglich.

3.3.3

Normalengleichungen

F ur eine beliebige m n Matrix A erf ullt jede L osung x des Ausgleichsproblems |Ax b| min die Normalengleichung At Ax = At b , d.h. das Residuum r = Ax b ist orthogonal zu dem von den Spalten von A aufgespannten Unterraum Bild A

Bild A Ax PSfrag replacements 0 Ax b

b
Die L osung ist genau dann eindeutig, wenn Rang A = n m. http://www.mathematik-online.org/ 83

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME Beweis: Aus |A(x + ty ) b|2 |Ax b|2 folgt mit (Ax b)t y = y t (Ax b), die aquivalente Ungleichung 2ty t At + t2 y t At Ay 0 f ur alle t R und Vektoren y . Fat man die linke Seite der Ungleichung als Parabel in t auf, so ist Nichtnegativit at gleichbedeutend mit y t (At ) = 0 . Dies kann nur dann f ur alle Vektoren y gelten, wenn der Ausdruck in Klammern der Nullvektor ist. = Ax b

Beispiel: F ur 2 0 A = 1 1 , 0 2 5 1 1 5 x1 x2 0 b= 3 0 3 3

erh alt man die Normalengleichungen

.
1 2 1 2 t

Dieses lineare Gleichungssystem hat die eindeutige L osung x = ( 1 2 1 ) t . Hat A linear abh angige Spalten, wie in dem Beispiel 2 2 A = 1 1 , 0 0 so sind die Normalengleichungen singul ar: 5 5 5 5 Die L osung x=
3 5

. Der Fehler ist =

0 b= 3 , 0 3 3

x1 x2

t t

t R,
6 5

ist in diesem Fall nicht eindeutig, wohl aber der Fehler = ( 84

12 0 )t . 5

http://www.mathematik-online.org/

3.3. AUSGLEICHSPROBLEME

3.3.4

Tomographie

Wie in der Abbildung illustriert ist, wird bei der Computer-Tomographie die Dichte x(u, v ) des Zellgewebes rekonstruiert, indem man den Intensit atsverlust von R ontgenstrahlen entlang von B undeln paralleler Geraden gi : (ui , vi ) + R(cos i , sin i ), i = 1, . . . , m ,

mit. Man approximiert die Dichteverteilung durch eine st uckweise konstante Funktion auf einem Raster von Quadraten Qj und ersetzt die aus den Intensit atsmessungen gewonnenen Linienintegrale durch die N aherung
n

bi =
R

x(ui + t cos i , vi + t sin i ) dt

ai,j xj ,
j =1

wobei xj eine Approximation von x(u, v ) auf Qj ist und ai,j = |gi Qj | die L ange des Durchschnitts der Geraden gi mit dem Quadrat Qj bezeichnet. Da die Anzahl der Messungen m im allgemeinen sehr viel gr oer ist als die Anzahl n der Quadrate des Rasters und die Integrale nicht exakt berechnet werden, erh alt man ein Ausgleichsproblem zur Bestimmung von x aus den Daten b.

Die Abbildung zeigt rechts eine auf einem 11 11 Raster berechnete Approximation f ur die links abgebildete Dichteverteilung. Dabei wurden f ur die Winkel = 0, /16, /8, . . . 11 parallele Scan-Richtungen im Abstand der Rasterquadratbreite verwendet.

http://www.mathematik-online.org/

85

KAPITEL 3. LINEARE GLEICHUNGSSYSTEME

86

http://www.mathematik-online.org/

Kapitel 4 Normalformen
4.1
4.1.1

Eigenwerte und Eigenvektoren


Eigenwert und Eigenvektor

Ein Skalar heit Eigenwert einer quadratischen Matrix A, wenn Av = v, v = 0.

Die Vektoren v = 0 mit Av = v werden als Eigenvektoren zum Eigenwert bezeichnet. Die Eigenvektoren zu einem Eigenwert bilden zusammen mit dem Nullvektor einen linearen Raum, den so genannten Eigenraum V = ker(A E ) von .

Beispiel: Die Matrix 1 2 1 0 2 0 1 2 1

hat die Eigenwerte 1 = 0 und 2 = 2, denn und

1 2 1 1 0 1 0 2 0 0 0 = =0 0 1 2 1 1 0 0 1 2 1 1 2 1 0 2 0 1 = 2 = 2 1 . 1 2 1 1 2 1 http://www.mathematik-online.org/ 87

KAPITEL 4. NORMALFORMEN Beispiel: Die folgenden Beispiele illustrieren die f ur reelle (2 2)-Matrizen m oglichen F alle. zwei reelle Eigenwerte: A= 1 2 2 1 , 1 = 1 , v 1 = 1 1 , 2 = 3 , v 2 = 1 1 .

ein reeller Eigenwert, zwei linear unabh angige Eigenvektoren: A= 2 0 0 2 , = 2 , v1 = 1 0 , v2 = 0 1 .

ein reeller Eigenwert, ein Eigenvektor: A= 1 1 0 1 , = 1 , v1 = 1 0 .

zwei konjugiert komplexe Eigenwerte und Eigenvektoren: A= 1 1 1 1 , 1,2 = 1 i , v1,2 = 1 i .

Beispiel: Die folgenden Beispiele illustrieren die f ur komplexe (2 2)-Matrizen m oglichen F alle. zwei Eigenwerte und zwei Eigenvektoren: A= i 2 2 i , 1 = 2 + i , v 1 = 1 1 , 2 = 2 + i , v 2 = 1 1 .

ein Eigenwert, zwei linear unabh angige Eigenvektoren: A= 2i 0 0 2i , = 2i , v1 = 1 0 , v2 = 0 1 .

ein Eigenwert, ein Eigenvektor: A= i 1 0 i , = i , v1 = 1 0 .

4.1.2

Ahnlichkeitstransformation
A B = Q1 AQ ,

Bei einer Ahnlichkeitstransformation einer quadratischen Matrix A,

bleiben die Eigenwerte erhalten. Die Eigenvektoren werden gem a dem durch die invertierbare Matrix Q beschriebenen Basiswechsel transformiert, d.h. einem Eigenvektor v von A zum Eigenwert entspricht der Eigenvektor w = Q1 v von B zum selben Eigenwert.

88

http://www.mathematik-online.org/

4.1. EIGENWERTE UND EIGENVEKTOREN Beweis: Ist v ein Eigenvektor von A zum Eigenwert , also Av = v , so folgt f ur w = Q1 v Bw = Q1 AQw = Q1 AQQ1 v = Q1 Av = Q1 v = Q1 v = w .

Beispiel: Gegeben sei die quadratische Matrix A= 1 2 1 4

mit den Eigenwerten 1 = 2 und 2 = 3 und den zugeh origen Eigenvektoren v1 = Q= 1 2 2 1 2 1 , v2 = 1 1 .

ergibt eine Ahnlichkeitstransformation mit B = Q1 AQ = 1 3


2 3 2 3

1 3 1 3
2 3

1 2 1 4

1 2 2 1

7 4 5 2
4 3

Die Eigenvektoren w1 und w2 von B berechnet man mit w1 = Q1 v1 = bzw. w2 = Q1 v2 = 1 3 1 3


2 3 2 3

2 1 1 1

5 3

1 3
2 3

1 1

4.1.3

Charakteristisches Polynom
a11 a12 a21 a22 . . . . . . an1 an2 ... ... ... a 1n a 2n . . .

Die Eigenwerte einer (n n) Matrix A sind die Nullstellen des charakteristischen Polynoms pA () = det(A E ) = .

. . . ann

Insbesondere bleiben die Eigenwerte bei Transposition der Matrix invariant. Beweis: Ein Skalar ist genau dann Eigenwert der (n n)-Matrix A, wenn Av = v , v = 0, d.h. wenn das homogene lineare Gleichungssystem (AE )v = 0 eine von 0 verschiedene L osung besitzt. Dies ist genau dann der Fall, wenn (A E ) singul ar ist, also wenn det(A E ) = 0. http://www.mathematik-online.org/ 89

KAPITEL 4. NORMALFORMEN

4.1.4

Berechnung von Eigenwerten und -vektoren

Um das Eigenwertproblem f ur eine quadratische Matrix A zu l osen, bestimmt man zun achst die Eigenwerte als Nullstellen des charakteristischen Polynoms pA () = det(A E ) . F ur jeden Eigenwert erh alt man die dazu geh origen Eigenvektoren v als nichttriviale L osungen des homogenen linearen Gleichungssystems (A E )v = 0 . Um eine Basis f ur den Eigenraum V zu erhalten, kann man das System auf Echelon-Form transformieren. Im allgemeinen ist dim V = 1. Der bis auf einen skalaren Faktor eindeutig bestimmte Eigenvektor v kann dann bestimmt werden, indem man eine geeignete Komponente von v vorgibt. Beispiel: Zur Bestimmung der Eigenwerte der Matrix 0 2 1 2 1 A= 2 0 2 2 2 1 2 2 1 0 2 2

bildet man das charakteristische Polynom det(A E ) =

= (2 )2 4 + 8 2 = 3 + 42 6 + 4 .

und bestimmt dessen Nullstellen. Durch Raten (Teiler des Absolutgliedes) erh alt man als erste Nullstelle 1 = 2. Abdividieren dieser Nullstelle, (3 + 42 6 + 4)/( 2) = 2 + 2 2, und Einsetzen in die Mitternachtsformel ergibt 2 4 8 2,3 = = 1 i. 2

und somit z.B. w1 = (1 i, 1 + i, 2)t . Da A reell ist, kann der Eigenvektor zu = 1 i durch komplexe Konjugation gebildet werden: w2 = w1 = (1 + i, 1 i, 2)t . 90 http://www.mathematik-online.org/

bestimmen. Die L osung v = (1, 0, 2)t ist leicht zu sehen. Ein Eigenvektor w1 zum Eigenwert 1 + i erh alt man aus 1 i 2 1 2 1i 1 w1 = 0 . (A (1 + i)E )w1 = 0 2 1i

Ein Eigenvektor zum Eigenwert 2 l asst sich u osung des homogenen Gleichungssystems ber die L 2 2 1 0 1 v = 0 (A 2E )v = 2 0 2 0

4.1. EIGENWERTE UND EIGENVEKTOREN

4.1.5

Algebraische und geometrische Vielfachheit

Ist ein Eigenwert der (n n) Matrix A, dann heit die Vielfachheit von als Nullstelle des charakteristischen Polynoms pA () = det(A En ) die algebraische Vielfachheit m des Eigenwerts . Die Dimension d des Eigenraums V eines Eigenwertes nennt man die geometrische Vielfachheit von . Es gilt d m , sowie d = n Rang(A E ) . m = n ,

Beispiel: Die Matrizen 4 0 0 A1 = 0 4 0 , 0 0 4 4 0 0 5 1 , A2 = 0 0 1 3 4 4 0 4 6 A3 = 3 0 2 4

haben alle das charakteristische Polynom (4 )3 = (4 )(5 )(3 ) + 4 = (4 )3 + 12(4 ) 12(4 ) und damit ist jeweils m4 = 3. Anhand des Rangs der Matrizen 0 0 0 0 0 0 1 1 , (A1 4E ) = 0 0 0 , (A2 4E ) = 0 0 0 0 0 1 1 0 4 0 0 6 (A3 4E ) = 3 0 2 0 erkennt man d4 = 3 f ur A1 , d4 = 2 f ur A2 und d4 = 1 f ur A3 .

4.1.6

Summe und Produkt von Eigenwerten

F ur die Eigenwerte i einer (n n)-Matrix A gilt


n n

i = Spur A,
i=1 i=1

i = det A ,

wobei mehrfache Eigenwerte entsprechend ihrer algebraischen Vielfachheit gez ahlt werden.

http://www.mathematik-online.org/

91

KAPITEL 4. NORMALFORMEN Beweis: Aufgrund der Multilinearit at der Determinante ergibt sich f ur das charakteristische Polynom pA () = det(A E ) = ()n + Spur A()n1 + + det A . Andererseits l asst sich das Polynom in der Form
n

p A ( ) =
i=1

( i )

darstellen. Durch Ausmultiplizieren der zweiten Formel und Koezientenvergleich erh alt man die angegebenen Identit aten.

Beispiel: Die Matrix A= hat das charakteristische Polynom pA () = 2 (a + d) + (ad bc) mit den Nullstellen (a + d)2 4(ad bc) . 2 Bildet man die Summe der Eigenwerte, f allt der Wurzelausdruck weg, und man erh alt 1,2 = (a + d) 1 + 2 = (a + d) + (a + d) = a + d = Spur A . 2 a b c d

Multipliziert man die Eigenwerte erh alt man mit der dritten Binomischen Formel 1 2 = (a + d)2 (a + d)2 + 4(ad bc) = ad bc = det A . 4

4.1.7

Rationale Funktionen von Matrizen

Ist ein Eigenwert einer Matrix A keine Polstelle der rationalen Funktion r (t ) = so ist r() ein Eigenwert von r(A) = q (A)1 p(A) = p(A)q (A)1 . Insbesondere ist k ein Eigenwert der Matrix-Potenz Ak und 1/ ein Eigenwert von A1 f ur eine invertierbare Matrix. 92 http://www.mathematik-online.org/ a0 + a 1 t + p (t ) = , q (t ) b0 + b 1 t +

4.1. EIGENWERTE UND EIGENVEKTOREN Beweis: Aus Av = v folgt f ur k 0 dass Ak v = k v und allgemeiner dass ck A k
k

v=
k

c k k

v.

Weiter gilt falls A invertierbar ist. Ist keine Nullstelle des Nennerpolynoms q , so gilt q (A)v = q ()v, also q (A)1 p(A)v = q ()1 p()v = p(A)q (A)1 v wie behauptet. Av = v v = A1 v , q (A)1 v = q ()1 v ,

4.1.8

Bestimmung von Eigenwerten und -vektoren mit MATLAB

Die Eigenwerte und Eigenvektoren einer Matrix k onnen in Matlab mit dem Befehl eig bestimmt werden. w=eig(A) liefert die Eigenwerte der Matrix A [Q,D]=eig(A) liefert in V eine Matrix mit normierten Eigenvektoren von A und in D eine Diagonal-Matrix mit den Eigenwerten als Eintr agen. Die Anwendung der Befehle ist in dem folgenden Beispiel illustriert: >> A=[2 1 1;1 1 0;1 0 1]; >> w=eig(A) w = 0.0000 1.0000 3.0000 >> [V,D]=eig(A) V = -0.5774 -0.0000 0.5774 -0.7071 0.5774 0.7071 D = 0.0000 0 0 1.0000 0 0 >> V^-1*A*V ans = -0.0000 0.0000 0.0000

0.8165 0.4082 0.4082 0 0 3.0000

0.0000 1.0000 -0.0000

-0.0000 -0.0000 3.0000 http://www.mathematik-online.org/ 93

KAPITEL 4. NORMALFORMEN

4.2
4.2.1

Diagonalisierung
Basis aus Eigenvektoren
V 1 AV = diag(1 , . . . , n ), V = (v 1 , . . . , v n ) ,

Existiert zu einer Matrix A eine Basis aus Eigenvektoren vj mit Eigenwerten j , so ist

d.h. bzgl. der Basis {v1 , . . . , vn } hat A Diagonalform. Beweis: Zu zeigen, dass V 1 AV = diag(1 , . . . , n ) gilt, ist aquivalent zu AV = V diag(1 , . . . , n ) = (1 v1 , . . . , n vn ) . Da die Spalten vj von V Eigenvektoren von A zum Eigenwert j sind, ist dies sofort einzusehen. Beispiel: Die Matrix 2 6 6 1 A = 1 5 1 2 5 5 1

Mit V = (v1 , v2 , v3 ) ergibt sich

besitzt die Eigenwerte 2, 2 und 3. Zugeh orige Eigenvektoren sind z. B. 1 1 6 1 , 0 , 1 . 0 1 5 2 0 0 V 1 AV = 0 2 0 . 0 0 3

4.2.2

Diagonalisierung zyklischer Matrizen


W = (wjk )j,k=0,...,n1 , w = exp(2 i/n) ,

Eine zyklische (n n)-Matrix A kann mit Hilfe der Fourier-Matrix diagonalisiert werden: 1 W n 94 a0 a1 . . . an1 a0 ... a1 a2 . . . a0 W = 1 . ... . . 0 0 . . . , n

an1 an2

http://www.mathematik-online.org/

4.2. DIAGONALISIERUNG mit = den Eigenwerten von A. Beweis: Man rechnet leicht nach, dass die -te Spalte von W ein Eigenvektor von A ist. F ur die j -te Komponente von Aw erh alt man
n1 k=0 j

n1 k=0

ak wk ,

= 0, . . . , n 1 ,

aj k mod n w(kj ) wj = wj

ak
k =j n+1

mod n w

Da die Indizes modulo n interpretiert werden, kann der Summationsbereich der letzten Summe durch k = 0, . . . , n 1 ersetzt werden. Folglich ist die Summe gleich wie behauptet. Damit ist gezeigt, dass 1 0 . .. . . AW = W . . . . . 0 n
1 Da W unit ar ist, d.h. n Diagonalform. 1 n

W =

1 n

, erh alt man die gew unschte Transformation auf

Beispiel: Gem a der allgemeinen Theorie l asst sich die zyklische 2 1 0 1 1 2 1 0 A= 0 1 2 1 1 0 1 2 Matrix

mit der Fourier-Matrix

auf Diagonalform transformieren:

1 1 1 1 1 i 1 i W = 1 1 1 1 1 i 1 i 0 1 0 W AW = 0 4 0 0 2 0 0 0 0 4 0 0 0 0 2

mit 0, 2, 2 und 4 den Eigenwerten von A. Da A 1 i 1 , i

reell ist, m ussen die komplexen Eigenvektoren 1 i 1 i 95

http://www.mathematik-online.org/

KAPITEL 4. NORMALFORMEN (zweite und vierte Spalte von W ) einen gemeinsamen Eigenwert besitzen. So kann durch Bilden von Linearkombinationen eine reelle Basis f ur den Eigenraum konstruiert werden: 1 1 2 1 1 0 i i 0 + = , i i i i = 2 . 1 1 2 1 1 0 i i 0 i i 2

4.2.3

Potenzen von Matrizen


An x = n (cv + o(1)), n ,

Besitzt A einen betragsm aig gr oten Eigenwert mit Eigenvektor v , so gilt

falls x eine nichttriviale Komponente im Eigenraum von hat, d.h. x = cv + w mit c = 0 und v w. Beispiel: Die Abbildung zeigt die j ahrliche Ver anderung der Marktanteile xi konkurrierender Firmen. So gewinnt beispielsweise die Firma A j ahrlich 80% der Marktanteile der Firma D, und die Firma C vergr oert ihre Marktanteile um 90% durch Erschlieung neuer Absatzm oglichkeiten, verliert jedoch gleichzeitig Marktanteile an die Firmen A und D.

 


 

     

Aus dem Schaubild entnimmt man die neuen Marktanteile: Aneu Bneu Cneu Dneu Eneu Mit x = (A, B, C, D, E )t ergibt dies: xneu = 0.7A + 0.4C + 0.8D = 0.5B + 0.2A = 0.9C + 0.2B = 0.1D + 0.6C + 0.2E = 0.8E + 0.3B + 0.1A .

0.7 0 0.4 0.8 0 0.2 0.5 0 0 0 0 = 0 0.2 0.9 0 x. 0 0 0.6 0.1 0.2 0.1 0.3 0 0 0.8

96

http://www.mathematik-online.org/

4.2. DIAGONALISIERUNG Multiplikation mit der n-ten Potenz der Iterationsmatrix liefert also die Marktanteile nach n Jahren. Die normierten Vektoren x0 konvergieren gegen einen Eigenvektor vmax zum betragsm aig gr oten Eigenwert max der Matrix. Man erh alt max = 1.1 und den zugeh origen Eigenvektor vmax = (0.75, 0.25, 0.25, 0.25, 0.5)t . Langfristig wird der Markt also von A bestimmt. Die prozentualen Anteile erh alt man durch die Normierung, vmax / vmax 1 , als A : 37.5%, B, C, D : 12.5%, E : 25% .

4.2.4

Fibonacci-Folge
a0 = 0, a1 = 1, an+1 = an + an1 ,

Die Folge der FibonacciZahlen ist deniert durch f ur n 1 ,

d. h. jede FibonacciZahl ist die Summe ihrer beiden Vorg anger. Die ersten FibonacciZahlen sind 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181, 6765, . . . . W ahlt man als Startwerte a1 = 1 und a2 = 3 so erh alt man die so genannten LucasZahlen: 1, 3, 4, 7, 11, 18, 29, 47, 76, 123, 199, 322, 521, 843, 1364, 2207, 3571, 5778, 9349, . . . . Fat man jeweils zwei aufeinanderfolgende FibonacciZahlen zu einem Vektor xn = (an , an1 )t zusammen, so kann man die Rekursion auch als xn+1 = Axn mit A= 1 1 1 0

schreiben. Mit Hilfe der Matrixformulierung l asst sich das asymptotische Verhalten der Fibonacci-Zahlen bestimmen. Dazu berechnet man die Eigenwerte und Eigenvektoren von A: 1 5 = , v = . 1 2 2 Stellt man den Startvektor der Rekursion als Linearkombination von v+ und v dar, a1 a0 so folgt 1 1 1 1 n an = + n + 5 5 n 1 1 5 = + + o ( n ) . 2 5 2 http://www.mathematik-online.org/ 97 = 1 0 1 1 = v+ v , 5 5

KAPITEL 4. NORMALFORMEN

4.2.5

Normale Matrizen
AA = A A ,

Eine komplexe Matrix A heit normal, falls

t . Insbesondere sind unit mit A = A are und hermitesche Matrizen normal. F ur relle normale Matrizen ist AAt = At A , was insbesondere f ur orthogonale und symmetrische Matrizen erf ullt ist. Beweis: Die Normalit at unit arer und hermitescher Matrizen folgt unmittelbar aus den Denitionen. F ur eine unit are Matrix A ist AA = AA1 = E = A1 A = A A . F ur eine hermitesche Matrix A ist AA = AA = A A .

4.2.6

Unit are Diagonalisierung normaler Matrizen


U 1 AU = diag(1 , . . . , n ) ,

Eine Matrix A ist genau dann normal, wenn A unit ar diagonalisierbar ist, d. h., wenn

wobei die Spalten von U eine orthonormale Basis aus Eigenvektoren zu den Eigenwerten j bilden. Beweis: Ist A = U DU , so ist A normal, denn AA = (U DU )(U DU ) = U D(U U )D U = U (D D)U = (U D U )(U DU ) = A A . Umgekehrt l asst sich die Existenz einer Orthonormalbasis aus Eigenvektoren durch Induktion bzgl. der Dimension zeigen. F ur den Induktionsschritt wird eine unit are Matrix V konstruiert mit 0 . V AV = 0 B Nach Induktionsannahme kann B durch eine unit are Matrix W auf Diagonalform transformiert werden, so dass man 1 0 U =V 0 W 98 http://www.mathematik-online.org/ U = U 1 ,

4.2. DIAGONALISIERUNG setzen kann. Zur Konstruktion von V geht man von der Existenz eines normierten Eigenvektors v zum Eigenwert aus und setzt ), V = (v | V den Vektor v zu einer Orthonormalbasis erg wobei die Spalten von V anzen. Es folgt V AV = v V v AV = c 0 B .

Es bleibt zu zeigen, dass B normal ist und c = 0. Beides folgt aus der Normalit at von A. Diese von bleibt unter Ahnlichkeitstransformationen erhalten, gilt also auch f ur die rechte Seite D obiger Gleichung. Bildet man D = D = D D || 2 + |c | 2 c B Bc BB ||2 c c B B ,

so erh alt man die gew unschten Eigenschaften durch Vergleich der Diagonalbl ocke der obigen Matrizen. Beispiel: Die Matrix A= 3 + 2i 3 2i 3 2i 3 + 2i 26 10 10 26

ist normal, was man durch direktes Nachrechnen best atigt. AA = = A A

Folglich muss A unit ar diagonalisierbar sein. Man erh alt die Eigenwerte 6 und 4i und zugeh orige normierte Eigenvektoren sind z. B. v1 =
1 2 1 2

v2 =

1 2 1 2

Erwartungsgem a ist v1 v2 , und mit der unit aren Matrix U = (v1 , v2 ) erh alt man die Diagonalform: 1 1 1 1 6 0 3 + 2i 3 2i 2 2 2 2 = . 1 1 1 1 0 4i 3 2i 3 + 2i 2 2 2 2

4.2.7

Diagonalform hermitescher Matrizen

Die Eigenwerte i einer hermiteschen Matrix A (A = A ) sind reell und es existiert eine Orthonormalbasis aus Eigenvektoren vi . Folglich ist U AU = diag(1 , . . . , n ) , mit der unit aren Matrix U = (v1 , . . . , vn ). Im Spezialfall reeller symmetrischer Matrizen (A = At ) sind die Eigenvektoren ebenfalls reell.

http://www.mathematik-online.org/

99

KAPITEL 4. NORMALFORMEN Beweis: Die unit are Diagonalisierbarkeit folgt aus dem entsprechenden allgemeinen Resultat u ber normale Matrizen, das den hermiteschen Fall einschliet. Es bleibt zu zeigen, dass ein Eigenwert reell ist. Ist v der entsprechende Eigenvektor, so folgt dies aus v v = v (v ) = v (Av ) = (A v ) v = (Av ) v = (v ) v = v v , denn = R. Beispiel: Die hermitesche Matrix A= 2 1 i 1 + i 1 1 1i

hat Determinante 0. Folglich ist = 0 ein Eigenwert und man sieht unmittelbar, dass v=

ein zugeh origer Eigenvektor ist. Aus Spur A = 3 = + erh alt man = 3 als zweiten Eigenwert. Ein zugeh origer Eigenvektor ist der zu v bzgl. des komplexen Skalarprodukts orthogonale Vektor w= 1+i 1 .

Durch Normierung erh alt man die unit are Matrix 1 U= 3 Folglich gilt A=U mit 1 U = 3 0 0 0 3 U , 1 1+i 1 i 1 .

1 1i 1 + i 1

der Inversen von U .

4.2.8

Positiv denite Matrizen


v Av > 0 v = 0 .

Eine quadratische Matrix A heit positiv denit, falls

Ist v Av lediglich nichtnegativ, so bezeichnet man A als positiv semidenit. Eine positiv denite Matrix A hat ausschlielich positive Diagonalelemente und und Eigenwerte. Insbesondere ist A invertierbar und die Inverse ist ebenfalls positiv denit. 100 http://www.mathematik-online.org/

4.3. JORDAN-NORMALFORM

4.2.9

Rayleigh-Quotient

F ur eine hermitesche positiv denite Matrix S sind die Extremwerte des so genannten RayleighQuotienten x Sx r S (x ) = , x = 0 , xx der kleinste und gr ote Eigenwert von S . Beweis: Die Matrix S l asst sich durch eine unit are Matrix U auf Diagonalform transformieren: U SU = D, wobei Svi = i vi i = und 1 n angenommen werden kann. Substituiert man S = U DU und x = U y , so ist r S (y ) = Dies zeigt, dass wobei Gleichheit f ur die entsprechenden Einheitsvektoren y = en und y = e1 gilt. min rS (y ) max , y Dy = y (U U )y
i

D = diag(1 , . . . , n ) ,
vi Svi >0 vi vi

i |y i | 2 . 2 i |y i |

4.3
4.3.1

Jordan-Normalform
Dreiecksform

transformieren, wobei die Diagonale die Eigenwerte i von A enth alt. Beweis:

Eine komplexe quadratische Matrix A l asst sich durch eine Ahnlichkeitstranformation auf obere Dreiecksform 1 r1,2 r1,n . ... ... . . 0 R= . . = Q1 AQ . . . . . . rn1,n . 0 0 n

Der Beweis l asst sich durch Induktion u uhren, ausgehend von ber die Dimension n der Matrix f dem trivialen Fall einer (1 1)-Matrix. Betrachtet man eine (n n)-Matrix A, so besitzt diese mindestens einen Eigenvektor v . Dieser l asst sich nach Normierung zu einer orthonormalen Basis {v, w1 , . . . , wn1 } erg anzen. In dieser Basis hat die Abbildung die Form = T AT = A x 0 B . 101

http://www.mathematik-online.org/

KAPITEL 4. NORMALFORMEN F ur die (n 1) (n 1) -Matrix B , existiert nach Induktionsvoraussetzung eine unit are Transformation Q gibt mit Q B Q = Rn1 . Somit folgt mit Q=T dass Q AQ = = = = 1 0 0 Q 1 0 0 Q 1 0 0 Q x Q BQ 0 Q T AT x 0 B x Q 0 BQ = x Q 0 Rn1 = R. 1 0 0 Q 1 0 0 Q 1 0 0 Q

4.3.2

Hauptvektoren

Ist ein Eigenwert der komplexen (n n)-Matrix A mit algebraischer Vielfachheit m so nennt man einen Vektor v mit (A E )m v = 0 , v = 0

Hauptvektor zum Eigenwert . Alle Hauptvektoren zu einem Eigenwert bilden zusammen mit dem Nullvektor einen Untervektorraum der Dimension m, den Hauptraum H zum Eigenwert . Dieser ist invariant unter der linearen Abbildung A. Der Gesamtraum ist die direkte Summe der Hauptr aume: Cn =

Beweis: Der Beweis gliedert sich in mehrere Teilschritte. (i) Da die Einheitsmatrix E mit jeder Matrix kommutiert, gilt f ur das Bild Av eines Vektors v H : (A E )m Av = Am+1 + + m E m A v = A (Am + + m E m ) v = A(A E )m v = A 0 = 0 .

Folglich ist Av H . (ii) Um die Dimension zu bestimmen, transformiert man die Matrix A auf obere Dreiecksform: ... A B = Q1 AQ = . 0 R 102 http://www.mathematik-online.org/

4.3. JORDAN-NORMALFORM Da f ur v H

transformieren sich die Hauptvektoren gem a v w = Q1 v . Aus der Form von B ist aber oensichtlich, dass die Einheitsvektoren ei f ur i m im Hauptraum Q1 H von B liegen. Weiter wird ein Vektor v mit vi = 0 f ur ein i > m durch (B E )m nicht auf 0 abgebildet. Folglich gilt dim H = m. dim H gleich der Summe der algebraischen Vielfachheiten ist, also gleich n, gen ugt (iii) Da es f ur die Basiseigenschaft die lineare Unabh angigkeit der Hauptr aume zu zeigen. Dazu wird benutzt, dass f ur = (A E )v = 0 v H v = 0. Verschwindet eine Summe von Vektoren aus den verschiedenen Hauptr aumen, v + v + v + . . . = 0, so folgt ((A E )m (A E )m . . .) v = 0. Da die einzelnen Faktoren H invariant lassen, ist die obige Bemerkung anwendbar, und man erh alt v = 0. Analog folgt v = v = . . . = 0 und damit ist der Nullvektor nur auf die triviale Weise darstellbar.

0 = Q1 (A E )m Q(Q1 v ) = (B E )m (Q1 v ) ,

4.3.3

Zyklische Basen von Hauptr aumen

Ein Hauptraum einer komplexen quadratischen Matrix A l asst sich in eine direkte Summe zyklischer Teilr aume zerlegen: H = V 1 V , d.h. jeder der Teilr aume Vi besitzt eine Basis der Form B ki vi , . . . , Bvi , vi , B = A E,

mit wi = B ki vi einem Eigenvektor zum Eigenwert . Die Matrix A l asst die Teilr aume Vi invariant und hat dort die Matrixdarstellung 1 0 . .. Ji = . . .. 1 0 Beweis: Denitionsgem a besteht H aus Vektoren v mit B k+1 v = 0, wobei k kleiner als die algebraische Vielfachheit m von ist. Die gew ahlte Form der Basis ist deshalb naheliegend. Um die Vektoren wi ker B , die die Basis festlegen, zu bestimmen, betrachtet man die Teilr aume Uj = ker B Bild B j http://www.mathematik-online.org/ 103

KAPITEL 4. NORMALFORMEN des Eigenraums ker B zu . Oensichtlich ist Die Vektoren wi werden nun, ausgehend von der leeren Menge, induktiv konstruiert. Sind w1 , . . . , wi1 bereits festgelegt, so bestimmt man das gr ote ki , f ur dass Uki nicht in der linearen H ulle Wi1 dieser wj liegt, d.h. es gibt vi = 0 mit Auf diese Weise entsteht schlielich eine Basis {w1 , . . . , w } f ur den gesamten Eigenraum ker B und entsprechende zyklische Basen f ur die R aume Vi . Die Invarianz der R aume Vi unter Multiplikation mit B (bzw. A) ist oensichtlich. Die behauptete Matrixdarstellung von A auf Vi folgt aus A(B j vi ) = (E + B )B j vi = B j vi + B j +1 vi , wenn man die Basisvektoren, wie angegeben, nach absteigenden Potenzen ordnet. Zur Rechtfertigung der Konstruktion mu noch die Basiseigenschaft der Vektoren B j vi gezeigt werden. Dies geschieht in zwei Schritten. (i) Zun achst wird die lineare Unabh angigheit bewiesen. Das etwas technische Argument l asst sich am Beispiel zweier zyklischer Ketten, B 2 v1 , Bv1 , v1 , veranschaulichen. Nimmt man an, dass 2,1 B 2 v1 + 1,1 Bv1 + 0,1 v1 + 1,2 Bv2 + 0,2 v2 = 0, so folgt durch Multiplikation mit B 2 wegen B 3 v1 = Bw1 = 0 und B 2 v2 = Bw2 = 0. Multiplikation mit B ergibt nun wegen der konstruktionsgem aen linearen Unabh angigkeit der Eigenvektoren wi . Schlielich folgt 2,1 = 1,2 = 0 wiederum wegen der linearen Unabh angigkeit der Eigenvektoren wi . Im allgemeinen Fall verf ahrt man analog. Beim Analysieren einer Linearkombination der Basisvektoren multipliziert man mit geeigneten Potenzen von B , um bis auf Eigenvektoren alle Terme zu annullieren. (ii) Es bleibt zu zeigen, dass jeder Vektor u H mit den Basisvektoren darstellbar ist. Sei also Bku = 0 , mit k m. F ur k = 1 ist nichts zu zeigen, da die Vektoren wi nach Konstruktion eine Basis f ur den Eigenraum ker B bilden. Induktiv kann man also annehmen, dass Vektoren in ker B k1 darstellbar sind. Ebenfalls darstellbar ist der Eigenvektor B k1 u: B k1 u =
i

= Um Um1 U0 = ker B .

B ki v i = w i / Wi1 ,

Bwi = 0 .

Bv2 , v2 ,

0,1 w1 = 0 = 0,1 = 0 ,

1,1 w1 + 0,2 w2 = 0 = 1,1 = 0,2 = 0

i wi .

Daraus folgt, dass B k1 (u i B ki k+1 vi ) = 0 .


i u

Folglich ist u darstellbar und damit auch u. 104 http://www.mathematik-online.org/

4.3. JORDAN-NORMALFORM

4.3.4

Jordan-Form

Eine komplexe quadratische Matrix A l asst sich durch eine Ahnlichkeitstranformation auf die Blockdiagonalform J1 0 1 ... J = = Q AQ 0 Jk transformieren. Dabei haben die Jordanbl ocke i 1 0 i Ji = 0 die Form 1 ... ... i 0

mit einem Eigenwert i von A. Bis auf Permutation der Bl ocke ist die Jordan-Form eindeutig.

, 1 i

Beweis: Da die Hauptr aume H invariant unter der Abbildung A sind, kann bzgl. einer Basis aus Hauptvektoren Blockform erzielt werden. Durch Verwendung der speziellen zyklischen Basen B ki vi , . . . , Bvi , vi , erhalten die Bl ocke die gew unschte Form. B = A i E ,

Beispiel: Die Matrix 1 0 4 0 A = 2 1 3 2 1

hat das charakteristische Polynom

pA () = (1 )3 + 4(4 3(1 )) = 3 32 + 9 + 27 mit der doppelten Nullstelle = 3 und der einfachen Nullstelle Matrix 2 0 4 (A E ) = 2 2 0 3 2 2 = 3. Da der Rang der

gleich 2 ist, existiert zu = 3 nur ein Eigenvektor. Folglich hat A die Jordanform 3 1 0 Q1 AQ = J = 0 3 0 , Q = (w, v, w ) . 0 0 3 http://www.mathematik-online.org/ 105

KAPITEL 4. NORMALFORMEN Durch L osen der linearen Gleichungssysteme 0 w1 2 0 4 2 2 0 w2 = 0 0 w3 3 2 2 0 w 1 4 0 4 2 4 0 w 2 = 0 0 w 3 3 2 4 2 w= 2 , 1 2 w = 1 . 2

und

erh alt man die Eigenvektoren

Der Hauptvektor erf ullt

was durch die Probe A = QJQ1 best atigt wird.

d.h. man erh alt z.B. v = (3, 4, 1)t . Damit ist 2 3 2 4 1 , Q= 2 1 1 2

2 2 0 4 v1 2 = 2 2 0 v2 , 1 3 2 2 v3

Beispiel: F ur eine komplexe (2 2)-Matrix A gibt es 3 qualitativ verschiedene Jordan-Normalformen J : 1 0 , 0 0 , 0 0 , ( = ) .

Im ersten Fall ist ein doppelter Eigenwert mit nur einem (bis auf skalare Vielfache) Eigenvektor w, d.h. Rang(A E ) = 1. Einen zugeh origen Hauptvektor v und damit die Transformationsmatrix Q = (w, v ) erh alt man durch L osen von w = (A E )v 4 4 9 8

bzw durch Bestimmung von ker(A E )2 . F ur das konkrete Beispiel

A= ist das charakteristische Polynom

PA () = 2 4 + 4 106 http://www.mathematik-online.org/

4.3. JORDAN-NORMALFORM mit der doppelten Nullstelle = 2. Durch L osen von 6 4 9 6 erh alt man w = (2, 3)t und aus 2 3 = 6 4 9 6 v1 v2 w1 w2 = 0 0

einen zuge origen Hauptvektor v = (1, 2)t . Dies wird durch die Probe A = QJQ1 = best atigt. Beispiel: F ur eine komplexe (3 3)-Matrix A gibt es die folgenden qualitativ verschiedenen JordanNormalformen J = Q1 AQ: (i) paarweise verschiedene Eigenwerte , , : 0 0 0 0 . 0 0 1 0 0 0 0 0 , 0 0 . 0 0 0 0 Im zweiten Fall ist Rang(A E ) = 2 und Q = (w, v, w ) mit Eigenvektoren w und w und einem Hauptvektor v , die durch das L osen der Gleichungssysteme (A E )w = 0, bestimmt werden k onnen. (iii) ein dreifacher Eigenwert 0 0 : 1 0 1 0 0 0 0 , 0 0 , 0 1 . 0 0 0 0 0 Rang(A E ) = 1 und man erh alt einen Hauptvektor v durch L osen von (A E )2 v = 0 , (A E )v = 0. 107 w = (A E )v, (A E )w =0 2 1 3 2 2 1 0 2 2 1 3 2

(ii) ein doppelter Eigenwert :

Im zweiten Fall ist

http://www.mathematik-online.org/

KAPITEL 4. NORMALFORMEN Der zugeh orige Eigenvektor ist w = (A E )v , und ein weiterer linear unabh angiger Eigenvektor w erf ullt (A E )w = 0 , ww . Rang(A E ) = 2 w = (A E )v , v = (A E )u .

Schlielich ist Q = (w, v, w ). Im dritten Fall ist und Q = (w, v, u) mit

(A E )w = 0 ,

4.3.5

Jordan-Formen von (4x4)-Matrizen

Die folgende Abbildung zeigt die insgesamt 14 m oglichen Belegunsstrukturen f ur JordanFormen von (4 4)-Matrizen. Vier verschiedene Eigenwerte 1 , 2 , 3 , 4 1 0 0 0 0 2 0 0 0 0 3 0 0 0 0 4

Ein vierfacher Eigenwert 1 1 1 1 1 0 0 1 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 1 1 1 0 0 1 1 0 0 0 1 0 0 0 1 1 0 0 0 1 1 0 0 1 1 0 0 0 1 0 0 0 1 108 http://www.mathematik-online.org/

Zwei zweifache Eigenwerte 1 0 0 0 1 0 0 0 2 0 0 0

Ein dreifacher Eigenwert 1 und ein 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 2 1 , 2 0 0 0 2

Ein zweifacher Eigenwert 1 und zwei einfache Eigenwerte 2 , 3 1 1 0 0 1 0 0 0 0 1 0 0 0 1 0 0 0 0 2 0 0 0 2 0 0 0 0 3 0 0 0 3

einfacher Eigenwert 2 1 1 0 0 1 1 0 0 0 1 0 0 0 1 1 0 0 0 1 0 0 0 1 0 0 0 0 2 0 0 0 2 1 1 0 0 1 1 0 0 0 1 0 0 0 1 0 0 0 0 2 0 0 0 2 1 0 0 0 2 0 0 0 2

0 0 1 0 1 0 0 1

4.4. SINGULARWERTZERLEGUNG

4.3.6

Potenzen von Matrizen

Die Potenzen An , n = 0, 1, . . ., einer komplexen Matrix konvergieren genau dann gegen die Nullmatrix, wenn der Betrag aller Eigenwerte kleiner als 1 ist. Die Folge (An ) bleibt beschr ankt, wenn || 1 und f ur Eigenwerte mit Betrag 1 die algebraische gleich der geometrischen Vielfachheit ist. Andernfalls divergiert die Folge, insbesondere dann, wenn ein Eigenwert mit Betrag gr oer als 1 existiert. Beweis: Mit der Jordan-Form J = Q1 AQ von A lassen sich die Matrix-Potenzen in der Form An = (QJQ1 )(QJQ1 ) (QJQ1 ) = QJ n Q1 schreiben. Es braucht also nur die Konvergenz der Potenzen von J untersucht zu werden. Aufgrund der Blockform von J kann man jeden Block Ji separat betrachten. Dazu schreibt man J i = ( i E ) + D , wobei D die Nebendiagonale mit Einsen enth alt. Wie man leicht nachweist, ist D m = 0 f ur einen Block der Dimension m. Folglich gilt (J i ) n = n iE + n n1 n i D + + nm+1 Dm1 . 1 m1 i

Aus dieser Identit at lassen sich die Konvergenzeigenschaften ablesen. F ur |i | < 1 ist n nj i = 0 , lim n j

j da n nur polynomial w achst, hingegen n exponentiell f allt. i j Ist |i | = 1 bleibt die Folge nur beschr ankt, wenn m = 1, d.h., wenn keine Nebendiagonale mit Einsen existiert.

4.4
4.4.1

Singul arwertzerlegung
Singul arwert-Zerlegung

Zu jeder komplexen (m n)-Matrix A existieren unit are Matrizen U und V mit s1 0 s2 U AV = S = . ... 0 Die singul aren Werte sind die Wurzeln der Eigenwerte von A A und k ist der Rang von A. Die Spalten uj von U und vj von V sind Eigenvektoren von AA bzw. A A und es gilt Avj = sj uj f ur 1 j k . Im Spezialfall einer reellen Matrix A sind die Matrizen U und V orthogonal. s1 s2 sk > sk+1 = = 0

http://www.mathematik-online.org/

109

KAPITEL 4. NORMALFORMEN Beweis: Durch Diagonalisierung der hermiteschen Matrix A A erh alt man
2 t V A AV = diag(s2 1 , . . . , sk , 0, . . . , 0) = S S ,

wobei man annehmen kann, dass die Eigenwerte der Gr oe nach geordnet sind. Da A A positiv semi-denit ist, kann man die ausschlielich nichtnegativen Eigenwerte als Quadrate ansetzen und so die m n Diagonalmatrix S denieren. Aus obiger Gleichung folgt, dass die Spalten von AV orthogonal sind und Norm si haben: AV = s 1 u1 s k uk 0 0 = US mit einer unit aren Matrix U . Nachdem die behauptete Darstellung A = U SV konstruiert wurde, lassen sich die restlichen Aussagen leicht nachpr ufen. Da unit are Transformationen den Rang einer Matrix nicht ver andern, gilt Rang A = Rang S = k . Weiter ist AA uj = U (SS t )U uj = uj (sj )2 und A Avj = V (S t S )V vj = vj (sj )2 . Schlielich ist Avj gleich der j -ten Spalte von U S , also gleich uj sj .

4.4.2

Singul arwert-Zerlegung mit MATLAB

Die Singul arwert-Zerlegung einer Matrix A kann in Matlab mit dem Befehl >> [U,S,V]=svd(A) bestimmt werden. Beispielsweise erh alt man f ur >> A = [0 die Matrizen U = -0.7071 0.7071 S = 1.7321 0 V = -0.4082 -0.4082 -0.8165 >> U*S*V ans = 0 1 -1 0 110 -0.7071 0.7071 -0.0000 -0.5774 -0.5774 0.5774 0 1.0000 0 0 0.7071 0.7071 1 1; -1 0 -1]

Denitionsgem a erh alt man eine Faktorisierung von A:

1 -1 http://www.mathematik-online.org/

4.4. SINGULARWERTZERLEGUNG

4.4.3

Pseudo-Inverse

Mit der Singul arwert-Zerlegung U SV einer komplexen (m n)-Matrix A l asst sich die L osung des Ausgleichsproblems |Ax b| min mit minimaler Norm in der Form x = A+ b, A+ = V S + U ,

schreiben, wobei A+ als Pseudo-Inverse von A bezeichnet wird, und S + = diag(1/s1 , . . . , 1/sk , 0, . . . , 0) die (n m)-Diagonalmatrix mit den reziproken singul aren Werten bezeichnet. Beweis: Wegen der Invarianz der 2-Norm unter unit aren Transformationen, kann man Ax b von links mit U multiplizieren. Mit c = U b, y = V x ergibt sich das aquivalente Minimierungsproblem s 1 y1 c 1 . . . s y ck |Sy c| = k k ck+1 . . . c m

Das Minimum erh alt man durch L osung der ersten k Gleichungen: yi = ci /si , i = 1 : k . Wegen der Normtreue der unit aren Matrix V (|x| = |y |), ist f ur die L osung minimaler Norm yk+1 = = yn = 0 . Insgesamt folgt y = S + c, s+ i,j = 1/si 0 f ur i = j k sonst

min .

Beispiel: Es soll das Ausgleichproblem f ur 2 4 5 6 0 3 A= 2 4 5 , 6 0 3 1 3 b= 1 3 111

gel ost werden.

http://www.mathematik-online.org/

KAPITEL 4. NORMALFORMEN Zur Berechnung der Singul arwert-Zerlegung bestimmt man zun achst die Eigenwerte und Eigenvektoren von 80 16 56 32 40 At A = 16 56 40 68
2 2 s2 1 = 144, s2 = 36, s3 = 0,

und erh alt

Daraus folgt 12 0 S= 0 0 0 6 0 0 0 0 , 0 0

2 2 1 1 2 2 . V = 1 3 2 1 2

Die ersten zwei Spalten von U erh alt man durch Division der entsprechenden Spalten von AV durch die singul aren Werte (dabei m ussen Einheitsvektoren entstehen), die restlichen Spalten (nicht eindeutig bestimmt) durch Erg anzen zu einer orthonormalen Basis: 1 1 1 1 1 1 1 1 1 . U= 1 1 2 1 1 1 1 1 1 Damit ist die Pseudo-Inverse und
1 12

6 3 0 6 3 0 AV = 6 3 0 = U S . 6 3 0

A+ = V 0 0

2 6 2 6 0 0 0 1 1 0 0 Ut = 5 3 5 3 6 72 0 0 0 4 0 4 0 2 1 x = A+ b = 1 4 0

die L osung minimaler Norm.

4.4.4

Korrektur topograscher Medaten

Zur Kontrolle topographischer H ohendaten hi werden H ohendierenzen di,j gemessen. Aufgrund von Messfehlern gilt in der Regel di,j = hi hj . Geeignete H ohenkorrekturen xi lassen sich durch L osen des Ausgleichsproblems di,j (hi + xi ) (hj + xj )
2

(i,j )

min .

Zur Illustration der Vorgehensweise wird ein Modellproblem mit wenigen Daten gel ost. 112 http://www.mathematik-online.org/

4.4. SINGULARWERTZERLEGUNG
 
     ! 
  


 

F ur die H ohen und Dierenzwerte h = (834, 561, 207, 9)t , d = (276, 631, 822, 356, 549)t

mit d = (d1,2 , d1,3 , d1,4 , d2,3 , d2,4 )t , erh alt man das u berbestimmte System 1 1 0 0 1 0 1 0 1 0 0 1 . 0 1 1 0 0 1 0 1

A(h + x) = d,

A :=

Die gesuchte L osung minimaler Norm ist dann 1 1 x = A+ (d Ah) = 3 . 3 Die Berechnung der Minimum-Norm-L osung ist f ur die betrachtete Anwendung sinnvoll, denn es soll eine m oglichst kleine Korrektur bestimmt werden.

4.4.5

Moore-Penrose-Bedingungen

Die Pseudo-Inverse A+ wird durch die folgenden Identit aten eindeutig charakterisiert: AA+ A = A A+ AA+ = A+ (AA+ ) = AA+ (A + A ) = A + A

http://www.mathematik-online.org/

113

KAPITEL 4. NORMALFORMEN Beweis: Es l asst sich leicht nachpr ufen, dass die durch A+ = V S + U , A = U SV

denierte Pseudo-Inverse die angegebenen Bedingungen erf ullt. Beispielsweise folgt die erste Identit at aus (U SV )(V S + U )(U SV ) = U [SS + S ]V , denn das Produkt der verallgemeinerten Diagonalmatrizen in eckigen Klammern wird durch Multiplizieren der Diagonalelemente gebildet und es ist s+ i,i = 1/si,i , i Rang A .

Alle anderen Identit aten folgen ebenfalls durch direktes Nachrechnen. Zu zeigen, dass A+ durch die angegebenen Bedingungen eindeutig charakterisiert wird, ist allerdings weitaus schwieriger und soll hier nicht ausgef uhrt werden.

114

http://www.mathematik-online.org/

Kapitel 5 Analytische Geometrie


5.1
5.1.1

Orthogonale Gruppen
Orthogonale und spezielle orthogonale Gruppe

Die Menge aller orthogonalen (n n)-Matrizen Q wird als orthogonale Gruppe O(n) bezeichnet. F ur Q O(n) gilt Q1 = Qt , | det Q| = 1

und bei einer Koordinatentransformation x x = Qx bleiben L ange und Skalarprodukt erhalten. Die Menge aller orthogonalen (n n)-Matrizen Q mit det Q = 1 wird als Drehgruppe oder spezielle orthogonale Gruppe SO(n) O(n) bezeichnet.

5.1.2

Spiegelung

Eine Spiegelung an der zu einem Einheitsvektor d = 0 orthogonalen Hyperebene H : dt x = 0 im Rn wird durch die symmetrische orthogonale Matrix Q = E 2ddt mit E der Einheitsmatrix beschrieben. http://www.mathematik-online.org/ 115

KAPITEL 5. ANALYTISCHE GEOMETRIE

Beweis: Die Symmetrie von Q ist oensichtlich. Damit folgt QQt = Q2 = (E 2ddt )2 = E 2 4ddt + 4ddt ddt = E , d.h. Q ist orthogonal. Zum Beweis der Spiegelungseigenschaft bemerkt man zun achst, dass der Vektor x Qx = x x + 2ddt x = 2(dt x)d parallel zu d ist, und der Mittelpunkt zwischen x und Qx in der Hyperebene liegt: dt (x + Qx) = dt x + dt x 2dt ddt x = 0 . Damit ist Qx die Spiegelung von x an der Hyperebene durch den Ursprung, die zu d orthogonal ist.

5.1.3

Drehung
Zeile i Zeile j

Die orthogonale (n n)-Matrix 1 ... c ... s 0 s c ... 1 0

mit c = cos und s = sin beschreibt eine Drehung um in der xi xj -Ebene des Rn .

116

http://www.mathematik-online.org/

5.1. ORTHOGONALE GRUPPEN Beweis: Einfaches Nachrechnen und Ber ucksichtigung von cos2 + sin2 = 1 best atigt, dass die Rotationsmatrix R orthogonal ist: 1 0 ... c2 + s 2 sc + sc ... RRt = sc + sc c 2 + s2 ... 0 1

=E.

5.1.4

Drehachse und Drehwinkel

Insbesondere gilt f ur den Drehwinkel

Jede Drehung Q im R3 besitzt eine Drehachse, d.h. l asst einen Einheitsvektor u invariant, und entspricht einer ebenen Drehung um einen Winkel in der zu u orthogonalen Ebene. Bez uglich eines orthonormalen Rechtssystems u, v, w besitzt Q die Matrixdarstellung 1 0 0 = 0 cos sin . Q 0 sin cos 1 (Spur Q 1) . 2

cos =

Beweis: F ur eine Drehmatrix Q ist Q1 = Qt , | det Q| = 1 . Da die Eigenwerte i einer orthogonalen Matrix Betrag 1 haben und 1 2 3 = det Q = 1 ist, folgt, dass mindestens ein Eigenwert 1 ist. Es gilt n amlich bei geeigneter Numerierung entweder 1 = 2 , oder i {1, 1} . Der normierte Eigenvektor u zum Eigenwert 1 bestimmt die Drehachse. F ur ein orthonormales Rechtssystem u, v, w gilt Qu = u Qv = v + w Qw = v + w . http://www.mathematik-online.org/ 117 1 2 = 1

KAPITEL 5. ANALYTISCHE GEOMETRIE Dass Qv, Qw keine u-Komponente enthalten, folgt dabei aus der Winkeltreue orthogonaler Matrizen x u Qx Qu = u . Schreibt man die obige Gleichungen in Matrixform, 1 0 0 Q(u, v, w ) = (u, v, w) 0 , 0 P
Q

= P 1 QP , dass folgt aus Q eine Drehmatrix ist. Man erh alt ebenfalls = 1 + 2 cos Spur Q = Spur Q aufgrund der Invarianz der Spur.

Beispiel: Die Matrix 1 2 1 1 Q= 2 0 2 2 1 2 1 4 0 0 1 Qt Q = 0 4 0 = E Q t = Q 4 0 0 4 1 2 1 1 det Q = det 2 0 2 = +1 . 2 1 2 1

ist eine Drehmatrix, denn

und

Die Drehachse bestimmt man als Eigenvektor u zum Eigenwert = 1: 1 2 1 0 u 1 1 1 1 2 2 2 u 2 = 0 u = 0 . 2 2 u3 0 1 1 2 1


QE

Den Drehwinkel bestimmt man aus 1 1 cos = (Spur Q 1) = (1 1) = 0 2 2 als = . 2 118 http://www.mathematik-online.org/

5.1. ORTHOGONALE GRUPPEN Das Vorzeichen von h angt von der Orientierung der Drehachsenrichtung u ab und kann mit Hilfe eines Rechtssystems {u, v, w} bestimmt werden: wt Qv = wt (cos v + sin w) = sin . Mit 0 v= 1 , 0
1 2 w= 0 1 2 1 2 1 ) 0 = 1 2 1 2

folgt f ur das betrachtete Beispiel

1 sin = ( 2 also = . 2

5.1.5

Faktorisierung einer Drehung

Eine Drehung Q im R3 l asst sich als Produkt von Drehungen um die Koordinatenachsen darstellen: Q = D z Dy Dx .

Beweis: Die Drehungen D lassen sich bestimmen, indem man sukzessive die Elemente q21 , q31 , q32 von Q annulliert: 1 1 1 Dy Dz Q = 0 0 1 1 1 1 0 1 Dx Dy Dz Q = 0 0
1 Dz Q = 0

Dabei wurde ausgenutzt, dass sich ein beliebiger Einheitsvektor (v1 , v2 )t durch eine ebene Drehung D auf (1, 0)t abbilden l asst. Da det R = 1 ist folgt r33 = 1 und wegen der Normierung der Spalten muss R die Einheitsmatrix sein. Damit ergibt sich die gew unschte Darstellung. Beispiel: Um die Faktorisierung der Drehmatrix
3 1 0 2 2 1 46 84 Q = 2 6 6 1 2 4 8

= R.

http://www.mathematik-online.org/

119

KAPITEL 5. ANALYTISCHE GEOMETRIE zu bestimmen, annuliert man zuerst das Element q2,1 durch eine Drehung um 1 0 1 0 2 1 0 0 Q = 0 1 0 0 1 2 Anschlieend dreht man um
4 6 4 1 2 6 4 6 8 6 8 2

um die z -Achse:

3 . 2

um die y -Achse: 1 1 0 2 0 1 0 Dz Q = 1 0 0 2 0
1 2 3 2

1 2 1 2

0 23 .
1 2

Die resultierende Matrix ist eine Drehung Dx um die x-Achse. Insgesamt erh alt man f ur die Faktorisierung 0 1 0 1 0 0 0 0 1 Dz 0 0 1 1 2 0 Dy
1 2 1 2 1 2

Q=

1 0 0

0
1 2 3 2

Dx

0 23
1 2

5.1.6

Drehmatrix

Eine Drehung im R3 mit normierter Drehachsenrichtung u und Drehwinkel , orientiert wie eine Rechtsschraube, bildet einen Vektor x auf Qx = cos x + (1 cos )uut x + sin u x ab, wobei v x das Kreuzprodukt von u und x bezeichnet. Die entsprechende Drehmatrix ist Q: qik = cos ik + (1 cos ) ui uk + sin ijk uj .
j

mit dem Kroneckersymbol ik und dem -Tensor ijk .

Beweis: Es gen ugt nachzupr ufen, dass Qu = u und ein zu u orthogonaler Vektor v um einen Winkel um die Achse u gedreht wird. Die erste Behauptung ist unmittelbar einsichtig. Als Bild von v erh alt man Qv = cos v + sin u v , was einer Drehung um in der von v und u v aufgespannten Ebene entspricht. 120 http://www.mathematik-online.org/

5.2. QUADRIKEN Beispiel: Gem a der allgemeinen Formel setzt sich die Matrix Q einer Drehung um = u = 13 (1 1 1)t aus 3 Termen zusammen: cos ik 0 0 0 : 0 1 2 0 0 1 2 1 1 1 1 1 1 1 : 6 1 1 1 0 1 1 1 1 0 1 : 2 1 1 0
1 2 3

um die Achse

(1 cos )ui uk sin


j

ijk uj

Insgesamt erh alt man

2 1 2 1 2 1 . Q= 2 3 1 2 2

5.2
5.2.1

Quadriken
Quadratische Form
(x) = xt Ax

F ur eine reelle symmetrische Matrix A bezeichnet man

als quadratische Form. Je nach Vorzeichen der Eigenwerte von A unterscheidet man zwischen drei Typen: elliptisch: Alle Eigenwerte haben das gleiche Vorzeichen. parabolisch: Mindestens ein Eigenwert ist Null und die anderen Eigenwerte haben das gleiche Vorzeichen. hyperbolisch: Es gibt Eigenwerte mit verschiedenem Vorzeichen.

Erl auterung: Die Symmetrie von A muss nicht vorausgesetzt werden. F ur eine allgemeine Matrix l asst sich die quadratische Form als xt Ax =
j,k

xj aj,k xk =
j

aj,j x2 j +
j<k

(aj,k + ak,j )xj xk

schreiben. Man kann also jeweils zwei Terme zusammenfassen und die quadratische Form symmetrisieren: 1 xt Ax = xt (A + At )x . 2 http://www.mathematik-online.org/ 121

KAPITEL 5. ANALYTISCHE GEOMETRIE Quadratische Formen treten beispielsweise als die ersten Terme der Taylor-Entwicklung einer skalaren Funktion f auf: 1 f (x) = f (0) + grad f (0)t x + xt (H f (0)) x . 2 In diesem Fall ist H f die Hesse-Matrix der zweiten partiellen Ableitungen, die aufgrund der Vertauschbarkeit symmetrisch ist. Beispiel: Die symmetrische Matrix A= besitzt die Eigenwerte 2 und 2. Die quadratische Form 1+ 1 1 1+ (x) = xt Ax ist also elliptisch f ur > 0, parabolisch f ur = 0 und hyperbolisch f ur < 0.

5.2.2

Quadrik
Q = {x Rn : (x) + 2 (x) + = 0}

Die Punktmenge heit Quadrik, wobei eine quadratische Form, eine Linearform und eine Konstante ist. In Matrixschreibweise l asst sich Q als Q: xt Ax + 2bt x + c = 0 schreiben, mit (x) = xt Ax und (x) = bt x. Die Darstellung von Q ist nicht eindeutig. Beispielsweise kann die denierende Gleichung mit einer beliebigen Konstanten multipliziert werden.

5.2.3

Grobeinteilung der Quadriken


Q: xt Ax + 2bt x + c = 0 = A c bt b A .

Ausgehend von der Gleichung einer Quadrik

setzt man

Mit x t = (1, x1 , . . . , xn ) kann man Q auch in der homogenen Form Q: schreiben. Man unterscheidet die folgenden Typen: = Rang A, kegelige Quadrik Rang A x x t A =0

= Rang A + 1, Mittelpunktsquadrik Rang A

= Rang A + 2, parabolische Quadrik Rang A http://www.mathematik-online.org/

122

5.2. QUADRIKEN Beispiel: Gegeben sei die Quadrik Q: mit R, bzw. in Matrixschreibweise Q: mit A= 1 0 0 , b= 0 1 , c = , xt Ax + 2bt x + c = 0 0 1 = 0 1 0 . A 1 0
2 x2 1 + x2 + 2x2 + = 0

= 2, ansonsten F ur = 0 ist Rang A = 1, ansonsten ist Rang A = 2. F ur = 1 ist Rang A ist Rang A = 3. Somit ist Q f ur = 0 eine parabolische, f ur = 1 eine kegelige und f ur alle anderen Werte von eine Mittelpunktsquadrik.

5.2.4

Hauptachsentransformation

Durch eine Drehung und Verschiebung kann eine Quadrik im Rn auf Normalform transformiert werden: m xt Ax + 2bt x + c =
i=1 2 i wi + 2wm+1 + ,

x = Uw + v ,

wobei m = Rang A und = 0 gilt.

x2 w2 w1

acements

u2 u1 x1

http://www.mathematik-online.org/

123

KAPITEL 5. ANALYTISCHE GEOMETRIE Dabei enthalten die Spalten der Drehmatrix U die Eigenvektoren ui zu den Eigenwerten i von A, deren Richtungen als Hauptachsen bezeichnet werden. Der Verschiebungsvektor v ist der Mittelpunkt der Quadrik. Beweis: Zu der symmetrischen Matrix A existiert eine orthonormale Basis aus Eigenvektoren u i mit det(u1 , . . . , un ) = 1, wobei zuerst die Eigenvektoren zu den Eigenwerten i = 0 genommen werden. Nach der ersten Substitution x = U y = (u1 , . . . , un )y erh alt man somit die Diagonalform y t diag(1 , . . . , m , 0, . . . , 0)y + 2( U t b )t y + c .
b

F ur von Null verschiedene Eigenwerte i = 0 lassen sich durch die weitere Substitution yi = z i bi /i die linearen Terme eliminieren (quadratische Erg anzung). Die Konstante andert sich dabei gem a
m

c =c Somit hat man nun die Form


m n

b2 i /i .
i=1

i zi2
i=1

+
i=m+1

2 bi z i + .

Existiert nun ein bi = 0 mit i m + 1, so erh alt man nach einer weiteren Drehung mit zi = z i , im
n

zm+1 = (1/ )
m+1

bi z i ,

= | b|

und entsprechend orthogonal erg anzt f ur zm+2 , . . . , zn


m

i (zi )2 + 2zm+1 + .
i=1

Dabei wird das Vorzeichen f ur so gew ahlt, dass nach Division der Gleichung durch mindestens so viele postive wie negative Terme i / auftreten. Die anschlieende Verschiebung wm+1 = zm+1 + /(2 ) wi = z i , i = m + 1 eliminiert noch die Konstante und liefert schlielich
m 2 i wi + 2wm+1 . i=1

124

http://www.mathematik-online.org/

5.2. QUADRIKEN Beispiel: Die Quadrik Q:


2 2 8x2 1 + 17x2 + 20x3 + 20x1 x2 + 8x1 x3 + 28x2 x3 48x1 114x2 78x3 + 207 = 0

soll auf Normalform transformiert werden. In Matrixschreibweise ergibt sich Q: mit xt Ax + 2bt x + c = 0 24 b = 57 , 39

Die Matrix A hat die Eigenwerte 36, 9 und 0, zugeh orige normierte Eigenvektoren ui mit det(u1 , u2 , u3 ) = 1 sind z.B. 1 u1 = (1, 2, 2)t , 3 1 u2 = (2, 1, 2)t , 3 1 u3 = (2, 2, 1)t . 3

8 10 4 A = 10 17 14 , 4 14 20

c = 207 .

Nach der Transformation x = U y mit U = (u1 , u2 , u3 ) erh alt man Q:


2 2 36y1 + 9y2 144y1 18y2 + 18y3 + 207 = 0 .

Durch die quadratische Erg anzung z1 = y1 + 2, z2 = y2 1, z3 = y3 ergibt sich Q:


2 2 36z1 + 9z2 + 18z3 + 54 = 0 .

Die Verschiebung w1 = z1 , w2 = z2 , w3 = z3 + 3 liefert schlielich die Normalform Q:


2 2 36w1 + 9w2 + 18w3 = 0 .

Die Verschiebung ist also

Insgesamt hat die Transformation die Form 2 2 0 x = Uy = Uz = U 1 = Uw + U 1 + U 0 . 0 0 3 2 2 v=U 1 = 1 3 3

und entspricht dem Mittelpunkt der Quadrik.

5.2.5

Kegelschnitt
K : (x p)t v = cos |x p||v | 2

Der Schnitt eines Doppel-Kegels

mit Spitze p (p3 = 0), Richtung v und Onungswinkel mit der Ebene E : x3 = 0 ist eine quadratische Kurve
2 K E : a1,1 x2 1 + 2a1,2 x1 x2 + a2,2 x2 + 2b1 x1 + 2b2 x2 + c = 0 .

http://www.mathematik-online.org/

125

KAPITEL 5. ANALYTISCHE GEOMETRIE

PSfrag replacements p
2

v E

Der Typ des Kegelschnitts h angt von der Gr oe des Winkels zwischen E und der Geraden p + tv , t R, ab.

Ellipse: > /2

Parabel: = /2

Hyperbel: < /2

5.2.6

Euklidische Normalform der zweidimensionalen Quadriken

Es existieren 9 verschiedene Typen ebener Quadriken mit den folgenden Normalformen: Kegelige Quadriken Normalform
x2 1 a2 1 x2 1 a2 1

Bezeichnung Punkt schneidendes Geradenpaar Doppelgerade

x2 2 a2 2 x2 2 a2 2 x2 1 a2 1

=0 =0 =0

Mittelpunktsquadriken Normalform
x2 1 a2 1 x2 1 a2 1 x2 1 a2 1 x2 2 a2 2 x2 2 a2 2 x2 2 a2 2 x2 1 a2 1 x2 1 a2 1

Bezeichnung

+ 1 = 0 (leere Menge) + 1 = 0 Hyperbel + 1 = 0 Ellipse + 1 = 0 (leere Menge) + 1 = 0 paralleles Geradenpaar

126

http://www.mathematik-online.org/

5.2. QUADRIKEN Parabolische Quadriken Normalform


x2 1 a2 1

Bezeichnung Parabel

+ 2x2 = 0

Die Normalformen sind eindeutig bis auf Permutation der Indizes und bei kegeligen Quadriken bis auf Multiplikation mit einer Konstanten c = 0. Die Gr oen ai werden positiv angesetzt und heien Hauptachsenl angen der Quadrik.

schneidendes Geradenpaar

Doppelgerade

x2

x2

a2 a1 x1 x1

ag replacements

PSfrag replacements

Hyperbel

Ellipse

x2
x2

ag replacements

a2 PSfrag replacements x1 a1

a2 a1 x1

http://www.mathematik-online.org/

127

KAPITEL 5. ANALYTISCHE GEOMETRIE paralleles Geradenpaar Parabel

x2

x2

a1

x1

ag replacements PSfrag replacements x1

Beispiel: Es soll die Normalform und der Typ der Quadrik Q: 2 3x2 1 + 3x2 + 10x1 x2 12 2x1 4 2x2 8 = 0

bestimmt werden. Ausgehend von der Matrixform der quadratischen Form, 3 5 x + 2 2 (6, 2) x 8 xt Ax + 2bt x + c = xt 5 3 bestimmt man zun achst die Eigenwerte und Eigenvektoren der Matrix A. Das charakteristische Polynom (3 )2 25 = 9 6 + 2 25 = 2 6 16 hat die Nullstellen 1,2 = 6 36 + 64 =35 2

1 als v1 = (1, 1)t . Da der zweite Eigenvektor senkrecht auf dem ersten stehen muss, folgt 2 1 (1, 1)t , wobei das Vorzeichen so gew ahlt wurde, dass die Determinante der Transformav2 = 2 tionsmatrix

Einen normierten Eigenvektor zu 1 = 2 erh alt man durch L osen des linearen Gleichungssystems 5 5 v1 = 0 5 5

1 1 1 U= 2 1 1

128

http://www.mathematik-online.org/

5.2. QUADRIKEN positiv ist. Die mit x = U y transformierte Gleichung hat die Form + 2 0 = y t Ay bt y + c = y t U t AU y + 2 bt U y + c 2 2 = 2y1 + 8y2 8y1 16y2 8 . Quadratisches Erg anzen liefert
2 2 0 = 2y1 + 8y2 8y1 16y2 8 2 = 2(y1 2) + 8(y2 1)2 8 2 2 = 2z1 + 8z2 8

beziehungsweise

2 2 z1 z2 + 1 = 0. 22 12 Die Gleichung stellt also eine Hyperbel dar.

5.2.7

Euklidische Normalform der dreidimensionalen Quadriken

Es existieren 17 verschiedene Typen r aumlicher Quadriken mit folgenden Normalformen: Kegelige Quadriken Normalform
x2 1 a2 1 x2 1 a2 1

Bezeichnung Punkt (Doppel-)Kegel Gerade schneidende Ebenen Doppelebene

+ +

x2 2 a2 2 x2 2 a2 2 x2 1 a2 1 x2 1 a2 1

+ +

x2 3 a2 3 x2 3 a2 3 x2 2 a2 2 x2 2 a2 2 x2 1 a2 1

=0 =0 =0 =0 =0

Mittelpunktsquadriken Normalform
x2 1 a2 1 x2 1 a2 1 x2 1 a2 1 x2 1 a2 1 x2 2 a2 2 x2 2 + a2 2 x2 2 a2 2 x2 2 a2 2 x2 1 a2 1 x2 1 a2 1 x2 1 a2 1

Bezeichnung (leere Menge) zweischaliges Hyperboloid einschaliges Hyperboloid Ellipsoid (leere Menge) hyperbolischer Zylinder elliptischer Zylinder (leere Menge) parallele Ebenen

x2 3 a2 3 x2 3 a2 3 x2 3 a2 3 x2 3 a2 3 x2 2 + a2 2 x2 2 a2 2 x2 2 a2 2 x2 1 a2 1 x2 1 a2 1

+1=0 +1=0 +1=0 +1=0 +1=0 +1=0 +1=0 +1=0 +1=0

http://www.mathematik-online.org/

129

KAPITEL 5. ANALYTISCHE GEOMETRIE Parabolische Quadriken Normalform


x2 1 a2 1 x2 1 a2 1

Bezeichnung

x2 2 a2 2 x2 2 a2 2 x2 1 a2 1

+ 2x3 = 0 elliptisches Paraboloid + 2x3 = 0 hyperbolisches Paraboloid + 2x2 = 0 parabolischer Zylinder

Die Normalformen sind eindeutig bis auf Permutation der Indizes und bei kegeligen Quadriken bis auf Multiplikation mit einer Konstanten c = 0. Die Gr oen ai werden positiv angesetzt und heien Hauptachsenl angen der Quadrik.

(Doppel-)Kegel

schneidende Ebenen

130

http://www.mathematik-online.org/

5.2. QUADRIKEN zweischaliges Hyperboloid einschaliges Hyperboloid

Ellipsoid

hyperbolischer Zylinder

http://www.mathematik-online.org/

131

KAPITEL 5. ANALYTISCHE GEOMETRIE elliptischer Zylinder elliptisches Paraboloid

hyperbolisches Paraboloid

parabolischer Zylinder

Beispiel: Es soll die Normalform und der Typ 5 Q : xt 4 0 bestimmt werden. 132 der Quadrik 4 0 3 4 x + 2 (2, 1, 2) x + 2 = 0 4 1

http://www.mathematik-online.org/

5.2. QUADRIKEN Das charakteristische Polynom der Matrix, p() = 3 92 9 + 81 , hat die Nullstellen 1 = 9 , 2 = 3 , 3 = 3 . Entsprechende normierte Eigenvektoren zu den Eigenwerten i sind 2 2 1 1 1 1 v 1 = 2 , v 2 = 1 , v 3 = 2 3 3 3 1 2 2

Quadratisches Erg anzen liefert

Die mit x = U y transformierte Gleichung hat die Form 9 0 0 t y 0 3 0 y + 2 (0, 3, 0) y + 2 = 0 . 0 0 3

wobei die Vorzeichen so gew ahlt sind, dass ein Rechtssystem entsteht. Als orthogonale Transformationsmatrix erh alt man 2 2 1 1 U= 2 1 2 . 3 1 2 2

2 2 2 0 = 9y1 + 3y2 3y3 + 6y2 + 2 2 2 2 = 9y1 + 3(y2 + 1) 6y2 3 3y3 + 6y2 + 2 2 2 2 = 9z1 + 3z2 3z3 1

beziehungsweise

2 z3 1 3

2 z1 1 9

2 z2 1 3

+ 1 = 0.

Die Gleichung stellt also ein einschaliges Hyperboloid dar.

http://www.mathematik-online.org/

133

KAPITEL 5. ANALYTISCHE GEOMETRIE

134

http://www.mathematik-online.org/

5.2. QUADRIKEN

http://www.mathematik-online.org/

135

http://www.mathematik-online.org/