Sie sind auf Seite 1von 10

Lineare Algebra – Zusammenfassung

Lennart Elsen

WS07/FS08

D-ITET

Zusammenfassung der Vorlesung von:

Prof. Dr. Horst Knörrer

Inhaltsverzeichnis

1 Vektoren 3

1.1 Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2 Lineare Hülle (Span) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.3 Lineare Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.4 Erzeugendensystem (des Rn ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.5 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.6 Teilräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Matrizen 3

2.1 Einheitsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.2 Transponierte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2.3 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2.4 Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2.5 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Abbildungen 5

3.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3.2 Kern, Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1
2

3.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3.4 Basis des Kerns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3.5 Basis des Bildes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3.6 Koordinatenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3.7 Koordinatentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

4 Verfahren 7

4.1 Inverse bilden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4.2 Orthonomalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4.3 Orthonomalbasis, Gram-Schmidt-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4.4 QR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

4.5 Methode der kleinsten Quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

5 Determinanten 8

5.1 Spezielle Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

5.2 Eigenschaften von n-reihigen Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

5.3 Berechnung der Determinante von n × n Matrizen . . . . . . . . . . . . . . . . . . . . . . . . 9

5.4 Lösbarkeit von linearen Gleichungssystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

6 Eigenwerte 9

6.1 Eigenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

6.2 Eigenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

6.3 Anfangswertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 3

1 Vektoren 1.5 Basis

1.1 Vektorraum Ein linear unabhängiges Erzeugendensystem des Rn


heißt Basis des Rn :
     
Ein Vektorraum im Rn ist ein n-Tupel reeler Zahlen: 1 0 0
  0 1 0
x1      
 ..  ,  ..  , · · · ,  .. 
 x2  . . .
 
~x =  .  0 0 1
 .. 
xn Diese Einheitsvektoren ~e1 , ~e2 , · · · , ~en bilden die Stan-
dardbasis des Rn .
mit der Linearkombination
~v = λ1~v1 + λ2~v2 + · · · + λn~vn 1.6 Teilräume

Die Länge eines Vektors ist gegeben durch: Ein Teilraum des Rn hat folgende Eigenschaften (T
q ist Teilraum):
|~v | = v12 + v22 + · · · + vn2
• T 6= 0. Der Teilraum ist eine nichtleere Menge

1.2 Lineare Hülle (Span) • ∀ ~x, ~y ∈ T ist ~x + ~y wieder in T .


• ∀ ~x ∈ T und alle λ ∈ R ist λ~x wieder in T .
span(~v1 , ~v2 , · · · , ~vn ) = {λ1~v1 + λ2~v2 + · · · + λn~vn }

Die Menge der Vektoren, die sich aus den Vektoren 2 Matrizen
~v1 , ~v2 , · · · , ~vn kombinieren lassen.
Eine Matrix ist gegeben durch m Zeilen und n Spal-
ten:  
1.3 Lineare Abhängigkeit a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
 .. .. .. .. 
Wenn das Gleichungssystem  . . . . 
λ1~v1 + λ2~v2 + · · · + λn~vn = ~0 am1 am2 · · · amn
Eine n × n Matrix heißt quadratisch.
als alleinige Lösung λ1 = λ2 = · · · = λn = ~0 hat,
heißen ~v1 , ~v2 , · · · , ~vn linear unabhängig. RECHENREGELN:

(A + B) + C = A + (B + C)
1.4 Erzeugendensystem (des Rn ) λ(µA) = (λµ)A
λ(A + B) = λA + λB
Gilt span(~v1 , ~v2 , · · · , ~vn ) = Rn dann spannen die Vek-
toren ~v1 , ~v2 , · · · , ~vn den Rn auf.

 BEISPIEL: Erzeugendensystem des R2 2.1 Einheitsmatrix


   
1 0
Die Vektoren und spannen R2 auf: Die Einheitsmatrix In ist gegeben durch
0 1
         
x1 1 · x1 + 0 · x2 1 0 1 0 ··· 0
~x = = = x1 + x2  0 1 ··· 0
x2 0 · x1 + 1 · x2 0 1 1 falls n = m  
In = ⇒ . . .. .. 
0 falls n 6= m  .. .. . .
Man kann jeden Vektor durch diese beiden erzeugen-
den Vektoren ausdrücken. 0 0 ··· 1
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 4

2.2 Transponierte  BEISPIEL: Matrizenmultiplikation

Zu der Matrix A = [ai,j ] ∈ Km,n ist die zugehörige      


Transponierte gegeben durch a b d e ad + bf ae + bg
· =
c d f g cd + df ce + dg
A = [aj,i ] ∈ Kn,m
Im Prinzip spiegelt man alle Matrixelemente an der
Diagonalen um die Transponierte zu erhalten.
2.4 Inverse
 BEISPIEL: Transponierte einer Matrix
 
2 3 9 Eine Matrix heißt invers, wenn es eine Matrix B gibt
Gegeben sei die Matrix A = . Ihre zu-
1 6 7 bei der gilt
gehörige Transponierte ist dann
 
2 1 A · B = In [A, B ∈ Kn,m ]
AT = 3 6
9 7 Somit gilt A · A−1 = In wenn A invertierbar ist.

Eine Matrix heißt symmetrisch wenn AT = A und Damit A invertierbar ist muss det(A) 6= 0 gelten.
antisymmetrisch wenn −AT = A.
Die Inverse einer 2 × 2 Matrix kann man wie folgt
Die adjungierte Matrix ist gegeben durch A∗ := AT berechnen:
bzw. [a∗i,j ] = [ai,j ]  
1 d −b
A−1 =
det(A) − c a
2.3 Matrizenmultiplikation

Die Matrizenmultiplikation kann wie folgt veran-


schaulicht werden:
2.5 Orthogonale Matrizen

Eine Matrix heißt orthogonal wenn gilt

   
a11 a12 ··· a1n b11 b12 ··· b1p AT · A = I n A ∈ Rn,m
 a21 a22 ··· a2n   b21 b22 ··· b2p 
   
 .. .. .. ..  ·  .. .. .. .. 
 . . . .   . . . .  Bei orthogonalen Matrizen ist das Skalarprodukt
am1 am2 ··· amn bn1 bn2 ··· bnp
zweier Spaltenvektoren stets null.
c11 = a11 b11 + a12 b21 + · · · + a1n bn1
c12 = a11 b12 + a12 b22 + · · · + a1n bn2 EIGENSCHAFTEN:
..
. AT = A−1
c1m = a11 b1p + a12 b2p + · · · + a1n bnp
allgemein
A(BC) = (AB)C
Die resultierenden Elemente der Ergebnismatrix C
A(B + C) = AB + AC
sind jeweils Skalarprodukte der Zeilenvektoren von A
mit den Spaltenvektoren von B. A(λB) = λAB
Daraus folgt die wesentliche Vorgabe für die Matri- (AB)T = B T AT
zenmultiplikation: die inneren Dimensionen der Ma- (AB)−1 = B −1 A−1
trizen müssen übereinstimmen. In der obigen Abbil-
AIn = A
dung ist es m × n · n × p.
Im A = A
T −1
Die Matrizenmultiplikation ist also nicht kommuta- (A ) = (A−1 )T
tiv.
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 5

3 Abbildungen Nicht-Kopfvariablen aus:


 
λ − µ
3.1 Lineare Abbildungen  λ 
 
 λ  λ, µ ∈ R = Kern(A)

Eine Abbildung µ

Kn → Km
L:
~x 7 → L~x
3.3 Dimension
heißt linear wenn gilt
Über die Dimension eines Vektorraumes kann man
L(~x + ~y ) = L(~x) + L(~y ) ∀ ~x, ~y ∈ Kn
folgende Aussagen treffen:
L(λ~x) = λ L ~x

• dim(V )=
ˆ Anzahl Basisvektoren
3.2 Kern, Bild
• dim(V ) = n führt zu folgenden Folgerungen:

Der Kern ist die Menge aller Vektoren im Km , die – mehr als n Vektoren sind linear unabhängig
durch L auf den Nullvektor abgebildet werden:
– weniger als n Vektoren sind nicht erzeugend
Kern(L) := { ~x ∈ K | L~x = ~0 }
m
– n Vektoren sind linear unabhängig wenn sie
erzeugend sind
Das Bild ist die Menge aller Vektoren, die ein Urbild
• dim(V ) = dim(Kern(V ))+ dim(Bild(V ))
unter L haben:

Bild(L) := { L~x ∈ Km | ~x ∈ Kn }
3.4 Basis des Kerns
Einer Matrixabbildung:
Die Spaltenvektoren {~a1 , ~a2 , · · · , ~a3 } Um die basis des Kerns zu bestimmen muss man fol-
gende Schritte unternehmen:
Bild(L) := span {~a1 , ~a2 , · · · , ~a3 }.

 BEISPIEL: Kern und Bild 1. Den Kern mit Parametern bestimmen (λ, µ, · · · )
Normal-Zeilen-Stufen-Form!
Eine Abbildung L sei gegeben
    2. 1-ten Parameter = 1 setzen, Rest = 0.
x   x  
y  7→ a 1 0 y  = ax + y
b 0 0 bx 3. 2-ten Parameter = 1 setzen, Rest = 0.
z z ..
.
  usw.
1    
1 ∈ Kern(A) → a+1 0
=
b 0 Merke: Die Anzahl Nicht-Kopfvariablen ist
1
äquivalent zur Anzahl Basisvektoren.
a = −1 b=0
     
1 ax + y 1
∈ Bild(A) → = 3.5 Basis des Bildes
1 bx 1
1−y 1
a= b= 1. Matrix auf Zeilen-Stufen-Form bringen.
x x
2. Alle Spalten der ursprünglichen Matrix A, wel-
Man löst das Gleichungssystem mit dem Gauss- che in ZSF eine Kopfvariable enthalten bilden die
Algorithmus. Dann drückt man Kopfvariablen durch Basis
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 6

3.6 Koordinatenvektor  BEISPIEL: Koordinatentransformation

Gegeben seien die Basen B1 und B2


 BEISPIEL: Koordinatenvektor von p(x)
bezüglich B1        
  3 2 1 1
2x2 B1 := , B2 := ,
1 −1 3 2
p(x) = x2 + 2x R≤2 [x] B1 := 6(x + 1)
−8  
2 1
und die darstellende Matrix LB1 = . Be-
Nun bestimmt man die Koeffizienten a, b, c mittels − 3 −2
Koeffizientenvergleich: stimme die darstellende Matrix von L bezüglich B2 .
   
a a = ··· Es gilt:
 b  · B1 = x2 + 2x ⇒  b = · · · 
c c = ··· LB2 = S ◦ LB1 ◦ S −1

Man muss nun S finden. Die Spaltenvektoren ~s1 und


3.7 Koordinatentransformation ~s2 sind gesucht. Mit dem Gauss-Algorithmus löst man
folgende Gleichungssysteme:
Lineare Abbildung L : R2 → R2 .      
    3 2 1
~s1 : = λ1 + λ2
a c 1 −3 −2
Sei B1 eine Basis mit B1 := , mit der      
b d 2 2 1
darstellenden Matrix LB1 bezüglich B1 ~s2 : = λ3 + λ2
−1 −3 −2
     
x1 x2 e g
LB1 = B2 := ,
x3 x4 f h
Die Parameter λ1 –λ4 sind die Lösungen für die bei-
und LB2 die darstellende Matrix bezüglich B2 dann den Spaltenvektoren. Die obigen Lösungen beschrei-
gilt: ben S:
LB2 = S ◦ LB1 ◦ S −1    
λ1 λ3 −5 −5
mit S = (~s1 , ~s2 ), ~si Spaltenvektoren von S. S = =
λ2 λ4 8 7
       
a e g λ1
~s1 : = λ1 + λ2 → ~s1 =
b f h λ2 Nun muss man noch S −1 mittels Gauss-Algorithmus
        bestimmen und kann LB2 berechnen.
c e g λ3
~s2 : = λ3 + λ4 → ~s2 =   
d f h λ4
1
Für L gilt:
  0
x
Berechnung von L :     
y 1 −1 1
L = (KB2 ) ◦ LB1 ◦ KB2
    0 0
x x
L = (KB1 ) ◦ LB1 ◦ KB1
−1
y y Danach sind folgende Schritte notwendig:
               
x x a c 1 1 1 1
1. KB1 : = µ1 + µ2 KB2 : = µ1 + µ2 (1)
y y b d 0 0 3 2
         
x µ1 1 µ1 hier −2
KB1 = KB2 = =
y µ2 0 µ2 3
   
    1 µ1
x τ LB2 ◦ KB2 = (2)
0 µ2
2. LB1 ◦ KB1 = 1      
y τ2
1 1 1
      L = τ1 + τ2 (3)
x a c 0 3 2
L = τ1 + τ2
y b d
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 7

4 Verfahren 4. Das Lot von ~b3 auf w ~ 2 bilden:


D E D E
~l3 = ~b3 − ~b3 , w
~2 w ~ 2 − ~b3 , w
~1 w~1

4.1 Inverse bilden 5. Das Lot ~l3 normieren:

~l3
Um die Inverse zu bilden muss man das Lineare Glei- w
~3 =
chunssystem (A | In ) lösen. Den linken Teil muss man ||~l3 ||
zur Inverse umformen:
 
a b c 1 0 0 Diese Schritte sind zur Bestimmung einer Ortho-

(A | I3 ) = d e f 0 1 0  nomalbasis im R3 für die k-te Dimension kann man
g h i 0 0 1 das Lot ~lk allgemein ausdrücken

Der Endzustand der “rechten” Matrix beschreibt D E D E


dann A−1 . ~lk = ~bk − ~bk , w
~ k−1 w~ k−1 − · · · − ~bk , w
~1 w~1

4.2 Orthonomalität
4.4 QR-Zerlegung
Zwei Vektoren ~a und ~b sind orthonomal wenn sie so-
wohl orthogonal zueinander sowie auch normiert sind: Um eine Matrix A = (~a1 , ~a2 , ~a3 ) zu diagonalisieren
D E D E braucht man die QR-Zerlegung. Zunächst muss man
~a, ~b = ~b, ~a = 0 orthogonal überprüfen ob die Spaltenvektoren von A linear un-
D E abhängig sind.
h~a, ~ai = ~b, ~b = 1 normiert
Die Q-Matrix erhält man, indem man das Gram-
Schmidt-Verfahren mit den Spaltenvektoren
4.3 Orthonomalbasis, Gram-Schmidt- durchführt:
Verfahren Q := (w
~ 1, w
~ 2, w
~ 3)

n o
INPUT: Vektorraum mit V mit Basis ~b1 , · · · , ~bn . Die R-Matrix hat die diagonalisierte Form:
 
r11 r12 r13
OUTPUT: Orthonomalbasis von V : {w
~ 1, · · · , w
~ 1 }.
R :=  0 r22 r23 
0 0 r33
Gram-Schmidt-Verfahren

1. Den ersten Basisvektor normieren: Die Elemente von R kann man über folgendes LGS
ermitteln:
~b1
w
~1 = ~a1 = r11 · w
~1
||~b1 ||
~a2 = r12 · w
~ 1 + r22 · w
~2
~a3 = r13 · w
~ 1 + r23 · w
~ 2 + r33 · w
~3
2. Das Lot von ~b2 auf die Gerade von w ~ 1 bilden:
D E
~l2 = ~b2 − ~b2 , w
~1 w~1
4.5 Methode der kleinsten Quadrate
3. Das Lot ~l2 normieren:
Wenn man eine Funktion f (t) = at + b konstruieren
~l2 möchte, die im quadratischen Mittel einem gegebenen
w
~2 = Output-Vektor am nächsten kommt, so benutzt man
||~l2 || die Methode der kleinsten Quadrate.
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 8

 BEISPIEL: Methode der kleinsten Qua- besonders leicht berechnen:


drate  
a11 λ · · · λ
Vorhanden sind Input-Vektor ~x und Output-Vektor n,n
Y  .. 
 λ a22 . 
~y . Man soll nun die Funktion finden die einen Output det(A) = ai,j A=  .


 .. ..
produziert die im quadratischen Mittel ~y am nächsten i,j=1 . λ 
kommt. λ ··· λ ann
   
1 1
2 5  
    mit λ ∈ R. Es empfiehlt sich zu versuchen eine Matrix
~x = 3  ~y =  6  ~v = a
    b soweit mit Gauss zu vereinfachen, dass sie obige Form
4 9
annimmt.
5 14

Das bedeutet für die Funktion f (x): 5.2 Eigenschaften von n-reihigen De-
  terminanten
1 1
2 1
 
~y =   1. Der Wert einer Determinante ändert sich nicht
3 1 · ~v = A · ~v
4 1 wenn Zeilen und Spalten vertauscht werden.
5 1
2. Bei vertauschen zweier Zeilen (oder Spalten)
ändert eine Determinante ihr Vorzeichen.
Der Fehler ||~y − A · ~v || soll möglichst klein werden.
Dies erreicht man über folgende Operation 3. Werden die Elemente einer beliebigen Zeile (oder
Spalte) mit einem reelen Skalar λ multipliziert,
AT A · ~v = AT A · ~y
so multipliziert sich die Determinante mit λ:

π π 2 1 1
= π · π2
5 Determinanten 2π 4π 2 2 4

5.1 Spezielle Determinanten 4. Eine Determinante wird mit einem reelen Ska-
lar λ multiplizier, indem man die Elemente einer
Bei einer 2 × 2 Matrix lässt sich die Determinante beliebigen Zeile (oder Spalte) mit λ multipliziert.
einfach berechnen:
5. Besitzen die Elemente einer Zeile (oder Spalte)
a b einen gemeinsamen Faktor λ, so darf dieser vor
det(A) = = ad − bc
c d die Determinante gezogen werden (siehe oben).

6. Der Fall det(A) = 0 tritt ein wenn:


Dies kann man für die Inverse A−1 benutzen (siehe
2.4).
• alle Elemente einer Zeile (oder Spalte) 0
Bei 3 × 3 Matrizen kann man die Regel von Sarrus sind.
verwenden: • Zwei Zeilen (oder Spalten) gleich sind.
• Zwei Zeilen (oder Spalten) proportional zu-
  − − −
a11 a12 a13 a11 a12 einander sind.
a21 a22 a23  a21 a22 • Eine Zeile (oder Spalte) als Linearkombina-
a31 a32 a33 a31 a32 tion der übrigen Zeilen (oder Spalten) dar-
+ + + stellbar ist.

7. Der Wert einer Determinante ändert sich bei Zei-


Bei Dreiecksmatrizen lässt sich die Determinante lenoperationen nicht.
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 9

RECHENREGELN: 5.4 Lösbarkeit von linearen Glei-


chungssystemen
det(A) · det(B) = det(A · B)
det(A) = det(AT )
Man betrachte ein beliebiges (m, n)-System mit dem
det(In ) = 1 dazugehörigen linearen Gleichungssystem A · ~x = ~c.
det(rA) = r · det(A) Folgende Grafik veranschaulicht wann das LGS lösbar
det(kA) = k n · det(A) ist:

A orthogonal: A · !x = !c Rg(A) != Rg(A|!c) keine Lösung

det(A) = ±1
r=n
Genau eine Lösung

r<n
Rg(A) = Rg(A|!c) = r
5.3 Berechnung der Determinante von Unendlich viele
Lösungen mit
n × n Matrizen n − r Parametern

Für n×n Matrizen mit n > 3 gilt die Regel von Sarrus
nicht mehr. Man greift nun zu einem Berechnungsal-
gorithmus bei dem man die Determinante der Matrix 6 Eigenwerte
durch Unterdeterminanten ausdrückt. Dabei gilt für
das algebraische Komplement:
Die Eigenwerte sind Lösungen der charakteristischen
Aik = (−1)i+k Dik Dik : Unterdeterminante Gleichung
chp(λ) = det(A − λ In ) = 0
Die Unterdeterminante ist die Determinante der Ma-
trix A bei der die i-te Zeile und k-te Spalte gestrichen wobei chp(A) das charakteristische Polynom von A
wurden. Für det(A) gilt schließlich: beschreibt. Dessen Nullstellen bestimmen die Eigen-
werte λ1 , λ2 , · · · , λn .
X
det(A) = aik Aik EIGENSCHAFTEN:
i,k=1
Pn
• Spur(A) = i=1 λi
 BEISPIEL: Determinantenberechnung Qn
• det(A) = i=1 λi
 
1 3 0 • λi 6= λj ; i 6= j ⇒ Eigenvektor ist linear un-
Gegeben ist die Matrix A = 2 2 4. Man be- abhängig
5 0 4
rechne ihre Determinante.
Ist eine Matrix M symmetrisch und λ ihr zugehöriger
Zunächst vereinfacht man A mit dem Gauss- Eigenwert so gilt:
Algorithmus: kM k2 = sup {|λ| | λ Eigenwert von M }

  E −2·E1   kM k22 = sup |µ| µ Eigenwert von M M T (4)
1 3 0 2 1 3 0
A = 2 2 4 = 0 −4 4
5 0 4 0
E3 −5·E1
−15 0
6.1 Eigenraum

Jetzt entwickelt man nach Zeile 1: Der zu den Eigenwerten zugehörige Eigenraum wird
durch
det(A) = 1 · (−4 · 4 − (−15) · 4)    
 x 
−0 · (3 · 4 − (−15) · 0) + 0 · (3 · 4)
Vλ = ~x = y  ∈ C3 A~x = λ~x
= 44  
z
Lennart Elsen, WS07/FS08 Lineare Algebra – Zusammenfassung 10

beschrieben.

6.2 Eigenvektor

Der zum Eigenwert λi zugehörige Eigenvektor ~xi


spannt unter anderem Vλ auf und ergibt sich aus dem
Gleichungssystem

(A − λ In )~x = 0

Die Basis des Kerns kann man nur finden wenn λ = 0


gilt.

6.3 Anfangswertproblem

Eine Differentialgleichung sei gegeben durch

d~y
(•) = A · ~y (•) A ∈ Kn,m
dt
mit dem Anfangswert ~y (t0 ) := ~y0 t0 ∈ R, ~y0 ∈ Kn .
Die Lösung der Differentialgleichung ist dann gegeben
durch

~y (t) := e(t−t0 )A ~y0 = S · e(t−t0 )D · S −1 ~y0

mit A = SDS −1 .

Falls ~y0 ein Eigenvektor von A zum Eigenwert λ ist


gilt:
~y (t) = e(t−t0 )λ ~y0