Sie sind auf Seite 1von 5

Hauptachsentransformation

Erinnerung: A ∈ Mn ist genau dann nicht invertierbar, wenn es ein~x ∈ Rn , ~x 6= ~0 gibt, mit
A~x = ~0.
Definition. Sei A ∈ Mn eine Matrix. Ein Vektor ~v ∈ Rn , ~v 6= ~0 heißt Eigenvektor von A zum
Eigenwert λ ∈ R, wenn gilt:
A~v = λ~v

Bemerkung: Existiert so etwas, so muß gelten:

( A − λE)~v = ~0

mit ~v 6= ~0. D.h. aber, daß die Matrix nicht invertierbar ist, also

det( A − λE) = 0

Definition: Der Ausdruck det( A − λE) heißt das charakteristische Polynom von A. Seine
Nullstellen sind also genau die Eigenwerte von A.
Definition: Eine Matrix A ∈ Mn heißt symmetrisch, wenn A = At gilt. Sie heißt orthogonal,
wenn A−1 = At gilt.
Satz: Für eine Matrix A ∈ Mn sind äquivalent:
1) A ist symmetrisch
2) ( A~v)t · w
~ = ~vt · ( Aw ~ ∈ Rn
~ ) für alle ~v, w
Grund: 1 ⇒ 2: ( A~v)t · w
~ = ~vt At · w
~ = ~vt · ( Aw
~)
2 ⇒ 1: Gilt 2) für alle ~v und w ~ , so speziell für ~v = ~ei und w ~ = ~e j . Beide Seiten ausgerechnet
sind:
~eit · A~e j = ~ei t ·~a• j = aij und ( A~ei )t ·~e j = (~a•i )t ·~e j = a ji

Bemerkung:Für eine Matrix A ∈ Mn sind äquivalent:


1) A ist orthogonal
2) Die Spalten ~a•1 , . . . ,~a•n bilden eine Orthonormalbasis des Rn , d.h.:
(
0 für i 6= j
~a•i ·~a• j =
1 für i = j

Grund: Übung
 
a b
Beispiel: Sei A = ∈ M2 symmetrisch. Dann ist
b c
 
a−λ b
det( A − λE) = det = ( a − λ)(c − λ) − b2 = λ2 − ( a + c)λ + ac − b2
b c−λ

Die Nullstellen hiervon sind


r
a+c ( a + c )2
λ1,2 = ± − ac + b2
2 4
p
a+c ( a − c)2 + 4b2
= ±
2 2

Bemerkung: Ist α2 < 4β für α, β ∈ R, so gilt:

α2
 
2 α 2

x + αx + β = x + + β− >0
2 4

Lemma: Sei A = At eine symmetrische Matrix und α2 < 4β, dann ist

A2 + αA + βE

invertierbar.
Grund: Sei ~v 6= ~0. Es ist:
( A2 + αA + βE)~v · ~v
= A2~v · ~v + αA~v · ~v + β~v · ~v = ( A2~v)t~v + αA~v · ~v + β|~v|2
= ~vt At A~v + αA~v · ~v + β|~v|2 = | A~v|2 + α Av
~ · ~v + β|~v|2

|α||~v| 2 α2
   
2
≥ | A~v| − |α|| A~v||~v| + β|~v| = | A~v| − + β− |~v|2 > 0
2 4

Dabei folgt die erste Ungleichung aus:

~x · ~y
−1 ≤ cos ](~x, ~y) = ≤1
|~x ||~y|

also
~x · ~y ≥ −|~x ||~y|

Insgesamt haben wir also ( A2 + αA + βE)~v 6= ~0 für alle ~v 6= ~v. Also ist A2 + αA + βE
invertierbar (Dies ist die Kontraposition zu A2 + αA + βE ~v = ~0 ⇒ A2 + αA + βE ~v ·
  

~v = 0)
Satz:
A = At ⇒ A hat einen Eigenwert λ zu einem Eigenvektor w
~

Grund: Sei ~v 6= ~0. Dann sind die n + 1 Vektoren

~v, A~v, . . . , An~v

im Rn linear abhängig. Also gibt es eine Gleichung

( a0~v + a1 A~v + . . . + an An~v) = ( a0 E + a1 A + . . . + an An )~v = ~0

Wir betrachten das Polynom

p ( x ) : = a0 + a1 x + . . . + a n x n
Nach dem Fundamentalsatz der Algebra gilt:
! !
r s
p( x ) = c ∏ x 2 + αi x + β i ∏ x − λj
i =1 j =1

mit αi , β i , λ j ∈ R und ai < 4β i . Daher haben die quadratischen Faktoren keine Nullstellen,
denn für diese würde gelten: s
αi α2i
x1,2 = − ± − βi
2 4

Aber der Ausdruck unter der Wurzel ist echt negativ. Weiter ist
! !
r s
P( A)~v = c ∏A 2
+ αi A + β i E ∏ A − λj E ~v = ~0
i =1 j =1

Das vordere Produkt ist aber nach dem ersten Lemma invertierbar. Wir können die Glei-
chung als mit der Inversen von links multiplizieren und erhalten:
!
s
∏ A − λj E ~v = ~0
j =1

Das heißt aber, daß das Produkt nicht invertierbar ist (Ein Vektor ~v 6= ~0 wird auf ~0 abgebil-
det). Ist ein Produkt nicht invertierbar, so muß aber mindestens ein Faktor nicht invertierbar
~ 6= ~0
sein. Also gilt für ein w
( A − λk E)~
w=0
⇔ Aw
~ = λk w
~

~ ist Eigenvektor von A zum Eigenwert λk .


Oder anders gesagt: w
Damit ergibt sich der folgende
Satz: Eine symmetrische Matrix hat einen Eigenwert.
Bemerkung: Ergänzen wir den Vektor w ~ mit auf w~ senkrecht stehenhenden Vektoren
~e2 , . . . , ~en , So hat die Darstellungsmatrix von A bezüglich dieser Basis A die Gestalt

λk ? ? · · ·
 
?

 0 

MA ( A ) = 
 0 B 

 .. 
 . 
0

Satz: Hat A = At einen Eigenwert λ mit Eigenvektor ~v. Dann definieren wir:

S := {µ~v|µ ∈ R}

und
S⊥ := {~s ∈ Rn |(µ~v) ·~s = 0}
Dann gilt:
~ ∈ S⊥ für alle w
Aw ~ ∈ S⊥

~ = 0 für alle µ ∈ R.
~ ∈ S⊥ ⇒ (µ~v) · w
Grund: Sei nun w
Es ist A~v = λ~v, also Aµ~v = µλ~v ∈ S. Also ist S abgeschlossen unter Linksmultiplikation mit
A
Weiter ist ( At µ~v) ·~s⊥ = ~0 für alle µ und ~s⊥ ∈ S⊥ .
Andererseits ist ( Aw ~ · (µAt~v) = w
~ ) · (µ~v) = w ~ · (µA~v) = w ~ ∈ S⊥ .
~ · (µλ~v) = 0, also Aw
~ n−1 eine Basis von S⊥ , so ist ~v, w
~ 1, . . . , w
Bemerkung:i) Ist w ~ n−1 eine Basis des Rn .
~ 1, . . . , w
Daher hat die Darstellungsmatrix von A bzgl. die Basis A die Gestalt
 
λ 0 ··· 0

 0 b11 ··· b1,n−1 

 .. .. ... .. 
 . . . 
0 bn−1,1 · · · bn−1,n−1

Grund: i) Ist λ1 w ~ 1 . . . + λ n −1 w
~ n−1 + λn~v = 0, so gilt (λ1 w ~ n−1 + λn~v) · (λn~v)
~ 1 . . . + λ n −1 w
~ 1 ) · (λn~v) + . . . + (λn−1 w
= (λw 2 2 2
~ n−1 ) · (λn~v) + λn~v · ~v = λn |~v| = 0.
Da für ~v als Eigenvektor ~v 6= ~0 gilt, folgt λn = 0, also λ1 w ~ n−1 = ~0, also λ1 =
~ 1 . . . + λ n −1 w
~ 1, . . . , w
. . . = λn−1 = 0, da w ~ n−1 eine Basis ist. Damit ist ~v, w ~ n−1 eine Basis von Rn .
~ 1, . . . , w
~i ·w
Ist nun w ~ j = δij (δij = 1, falls i = j und 0 sonst), so gilt automatisch w ~ i ⊥ ~v für alle i, da
w ⊥ ~v
~ i ∈ S . Daher ist die Matrix P = ( |~v| , w
~ 1, . . . , w
~ n−1 ) eine orthogonale Matrix.
Wir haben !
~v λ ~0t
AP = (λ , Aw~ 1 , . . . , Aw
~ n −1 ) = P ~0 B
|~v|

Also !t
λ ~0t t
~0 B = Pt AP = Pt At P = Pt AP

Damit ist die Teilmatrix B ebenfalls symmetrisch. Wir erhalten durch Induktion den folgen-
den
Satz über die Haupachsentransformation: Für eine symmetrische Matrix A gibt es eine
Orthogonalbasis des Rn aus Eigenvektoren von A. Anders gesagt, gibt es eine orthogonale
Matrix P, mit
Pt AP = diag(λ1 , . . . , λn )

Dabei sind die λi die Eigenwerte zu den Eigenvektoren ~p•i .


 
0 1
Beispiel: A = . Das charakteristische Polynom von A ist χ A ( x ) =
1 0
 
−x 1
determinant( ) = x2 − 1. Die Eigenwerte sind also λ = ±1.
1 −x
Die Eigenvektoren ergeben sich aus
         
1 1 x 0 −1 1 x 0
= und =
1 1 y 0 1 −1 y 0

 
1
Das liefert die normierten Eigenvektoren v1 = √1 (zum EW −1) und ~v2 =
2 −1
 
1 1
√ (zum EW 1). Also ist
2 1
 
1 1 1
P= √
2 −1 1
      
2 0
1 1 −1 0 1 1 1
Es ist PPt= und Pt AP = √1 √1 =
2
0 2 2 1 1 1 0 2 −1 1
    
1 −1 1 1 1 1 −2 0
2 = 2 .
1 1 −1 1 0 2