Sie sind auf Seite 1von 4

Basistransformation

Definition: Wir bezeichnen mit Mn die Menge aller n × n−Matrizen. Die Menge aller invertier-
baren Matrizen (also aller a ∈ Mn , so daß es ein A−1 ∈ Mn gibt, mit A · A−1 = A−1 A = E)
bezeichnen wir mit GLn .
Definition: Für Vektoren ~v1 , . . . , ~vm ∈ Rn bezeichnen wir mit

[~v1 , . . . , ~vm ]

die n × m−Matrix, die die ~vi als Spaltenvektoren hat.


Erinnerung: Ist A eine Matrix, so daß das folgende Produkt definiert ist, so gilt:

A[~v1 , . . . , ~vm ] = [ A~v1 , . . . , A~vm ]

und  
λ1
 λ2  n
[~v1 , . . . , ~vn ]   = λ1~v1 + λ2~v2 + . . . + λn~vn = ∑ λk~vk
 
..
 .  k =0
λn

Erinnerung: Die Vektoren ~v1 , . . . , ~vn ∈ Rn heißen eine Basis von R, wenn gilt:

[~v1 , . . . , ~vn ] ∈ GLn .


 
x1
Ist nun ~x =  ...  ∈ Rn und ~v1 , . . . , ~vn ∈ Rn eine Basis von Rn , so ist
 
xn

~x = λ1~v1 + . . . + λn~vn

mit eindeutig bestimmten λ1 , . . . , λn ∈ R.


Grund:  
λ1
~x = λ1~v1 + . . . + λn~vn ⇔ ~x = [~v1 , . . . , ~vn ]  ... 
 
λn

 
λ1
⇔  ...  = [~v1 , . . . , ~vn ]−1 · ~x
 
λn

Definition: Bezeichnen wir eine Basis mit A und die zugehörige Matrix, deren Spalten die
Vektoren aus A sind mit PA , so ist
−1
~xA := PA · ~x

der Koeffizientenvektor von ~x bezüglich A.


Basiswechsel: Es ist für A ∈ Mn und eine Basis A von Rn :
−1 −1
~y = A~x ⇔ E~y = AE~x ⇔ PA PA ~y = APA PA ~x

⇔ PA~yA = APA~xA
−1
⇔ ~yA = PA · A · PA~xA

Definition:
−1
MA ( A) := PA APA

heißt Darstellungsmatrix von A bezüglich der Basis A.


Es gilt:
−1 −1
MA ( A) = [ PA ( A~v1 ) , . . . , PA ( A~vn )]

wenn A = [~v1 , . . . , ~vn ] ist. In den Spalten von MA ( A) stehen also die Koeffizienten (bzgl. A)
der Bilder der Basisvektoren.
−1
Sei nun B eine weitere Basis von Rn . Dann ist MA ( A) = PA APA und MB ( A) = PB−1 APB , also
−1
A = PA MA ( A) PA und somit:
−1
MB ( A) = PB−1 PA MA PA −1
PB = ( PA PB )−1 MA ( PA
−1
PB )

Satz: Für zwei Matrizen A, B ∈ Mn gilt:

∃ P ∈ GL N : B = P−1 AP ⇔

A und B sind Darstellungsmatrizen derselben Matrix zu verschiedenen Basen

Grund: Die Richtung ” ⇐ ” haben wir oben gesehen. Um die Richtung ” ⇒ ” einzusehen,
wählen wir als Basis C die Spaltenvektoren von P. Dann gilt MC ( A) = B = ME ( B), d.h. B ist
die Darstellungsmatrix von A in der Basis und von B zur Basis E .
Dies motiviert die folgende
Definition: Zwei Matrizen A, B ∈ Mn heißen ähnlich, wenn es eine invertierbare Matrix P gibt,
mit:
B = P−1 AP

Bemerkung: Diagonalmatrizen sind in mehrfacher Hinsicht besonders einfach.


Beispiele:
diag(λ1 , . . . , λn )k = diag(λ1k , . . . , λkn )

für alle k ∈ Z.
Spezialfall:
1 1
diag(λ1 , . . . , λn )−1 = diag( ,..., )
λ1 λn
falls alle λi 6= 0 sind.
Was ist die nächstbeste, naheliegende Eigenschaft? Ist A ∈ Mn ähnlich zu einer Diagonalmatrix,
so gilt:
Ak = P−1 DP · P−1 DP · . . . · P−1 DP = P−1 D k P

und
A −1 = P −1 D −1 P

Definition: Eine n × n−Matrix heißt diagonalisierbar, wenn sie ähnlich zu einer Diagonalma-
trix ist.
Bemerkung: Ist A diagonalisierbar, so gilt

AP−1 = P−1 D

Sind ~p1 , . . . , ~pn die Spaltenvektoren von P−1 , so heißt das:

( A~p1 , . . . , A~pn ) = (λ1~p1 , . . . , λn~pn )

bzw.:
A~pi = λi~pi

Dies wir später die Begriffe Eigenvektoren und Eigenwerte begründen, also Vektoren 6= ~0, die
auf ein Vielfaches von sich selbst abgebildet werden.
Nicht alle Matrizen sind diagonalisierbar: Eine Drehung in der Ebene um den Winkel ϕ bildet
Vektoren nicht auf Vielfaches von sich selbst ab (bis auf die Spezialfälle ϕ = 0 und ϕ = π).
Es stellt sich also die Frage, ob es eine hinreichend große Klasse von diagonalisierbaren Matri-
zen gibt. Das erfreuliche Ergebnis: Alle symmetrischen Matrizen sind diagonalisierbar.
Definition: Für eine n × n−Matrix und einen Vektor ~v 6= ~0. Dann heißt ~v, A~v, . . . , Ak−1~v eine
Krylov-Sequenz von A und ~v, wenn die Vektoren linear unabhängig sind und die Vektoren
~v, A~v, . . . , Ak−1~v, Ak~v linear abhängig sind. Die Menge κ ( A, ~v) := {λ0~v + . . . + λk−1 Ak−1~v|λi ∈
R} heißt der von A und ~v aufgespannte Krylovraum.
Satz: Ein Krylovraum ist invariant unter Linksmultiplikation mit A.
Grund: Sei w ~ = λ0~v + . . . + λk−1 Ak−1~v. Es sind ~v, A~v, . . . , Ak−1~v, Ak~v linear abhängig, also gibt
es ai nicht alle gleich 0, mit:

a0~v + . . . ak−1 Ak−1~v + ak Ak~v = ~0

Dabei ist ak 6= 0, da sonst ~v, A~v, . . . , Ak−1~v linear abhängig wären. Also ist
1  
Ak~v = − a0~v + . . . ak−1 Ak−1~v =: b0~v + . . . bk−1 Ak−1~v
ak

Letztere Gleichung bezeichnen wir als Krylovgleichung des von ~v aufgespannten Krylovrau-
mes.
Es ist , für ein Element ~x = λ0~v + . . . + λk−1 Ak−1~v des Krylovraumes
 
k −1
A~x = A λ0~v + . . . + λk−1 A ~v = λ0 A~v + . . . + λk−1 Ak~v
 
= λ0 A~v + . . . + λk−2 Ak−1~v + λk−1 b0~v + . . . bk−1 Ak−1~v
∈ κ ( A, ~v)

Beispiel: Ist der von ~v aufgespannte Krylovraum der ganze Rn , ist also ~v =: ~b1 , . . . , An−1~v =: ~bn
eine Basis, so gilt:
A~b1 = ~b2 , . . . , A~bn−1 = ~bn

und
A~bn = b0 b~1 + . . . bn−1 An−1~bn

(die Koeffizienten bi sind die aus der Krylovgleichung). Die Darstellungsmatrix von A bezüg-
lich der Basis ~b1 , . . . ,~bn ist also:

0 b0
 
 1 0 
.
 
1 ..
 
 

 . .. 0


1 bn − 1