Sie sind auf Seite 1von 10

Lineare Algebra Zusammenfassung

Cédric Waldburger, D-ITET


21. August 2008

Inhaltsverzeichnis
1 Begriffe 2

2 Matrizen 2
2.1 Schreibweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 Quadratische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2.1 Diagonalmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2.2 Obere und Untere Dreiecksmatrix . . . . . . . . . . . . . . . . . . . . . . . 2
2.2.3 Symmetrische Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2.4 Reguläre Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2.5 Inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.6 Orthogonale Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.7 Konjugiert Komplexe Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.8 Adjungierte Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.9 Selbsadjungierte Matrix = Hermitesche Matrix . . . . . . . . . . . . . . . . 3
2.2.10 Unitäre Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.3 Matrix-Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.3.1 Transponierte AT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.3.2 Matrix-Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.3.3 Multiplikation mit Skalaren . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3.4 Matrix- Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3.5 Gesetze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3.6 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4.1 Idee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4.2 2reihige Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4.3 3reihige Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4.4 Regeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.5 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.5.1 Charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Aufgaben 6
3.1 Vektor ω durch v1 , v2 , v3 ausdrücken . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2 Lineare Abhängigkeit/Unabhängigkeit von Vektoren . . . . . . . . . . . . . . . . . 6
3.3 Teilräume überprüfen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.4 Überprüfen, ob eine Abbildung linear ist . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5 Basis und Kern berechnen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.6 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.7 Gleichung für ein System aufstellen (analog zur Salzrohr-Aufgabe . . . . . . . . . . 7
3.8 Berechnen einer Basis des Kerns/des Bildes . . . . . . . . . . . . . . . . . . . . . . 7
3.9 Linear-Kombination / Basis / Lineare Unabhängigkeit . . . . . . . . . . . . . . . . 8
3.10 Koordinatenvektor im Raum der Polynome . . . . . . . . . . . . . . . . . . . . . . 8
3.11 Darstellende Matrix einer Abbildung berechnen . . . . . . . . . . . . . . . . . . . . 8
3.12 Orthonormalbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.13 Gram-Schmidt-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.14 QR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1
1 Begriffe
• Surjektivität: Jeder Punkt im Zielbereich wird mindestens 1x angenommen
(f ist surjektiv, falls im(f) = B, d.h. ∀ y ∈ B existiert ein x ∈ A mit f(x) = y)
• Injektivität: Jeder Punkt wird nur 1x angenommen
falls f (x1 ) = f (x2 ) ⇒ x1 = x2
• Bijektiv: f ist surjektiv und injektiv

• Beispiel: sin(x) : R → R ist weder sur-, noch injektiv


aber sin(x) : [− π2 , π2 ] → [−1, 1] ist bijektiv

2 Matrizen
2.1 Schreibweise
 
a1,1 0 a1,n
Matrix A(m,n) = 0 0 0  m=
b Zeilen, n=
b Spalten
am,1 0 am,n
 
a1 
Spaltenvektor ak = Am,1 =  a2  Zeilenvektor ai = A1,n = a1 a2 a3
a3

2.2 Quadratische Matrizen


Immer A(n,n)    
1 0 0 0 0 1
Beispiel: A =  0 1 0  (nur Hauptdiagonale) oder A =  0 1 0  (nur Nebendiagonale)
0 0 1 1 0 1

2.2.1 Diagonalmatrizen
Nur Elemente 6=0 in den Diagonalplätzen
  
a12 0 0 1 0 0
Form: A(n,n) =  0 a22 0  Sonderfall: Einheitsmatrix E = I(n,n) =  0 1 0 
0 0 a23 0 0 1

2.2.2 Obere und Untere Dreiecksmatrix


   
a11 a12 a13 a11 0 0
Obere Dreiecksmatrix: A(n,n) =  0 a22 a23  Untere Dreiecksmatrix: A(n,n) =  a21 a22 0 
0 0 a33 a31 a32 a33

2.2.3 Symmetrische Matrix


Matrix ist symmetrisch, falls gilt aik = aki Es gilt A = AT

2.2.4 Reguläre Matrix


Eine n-reihige, quadratische Matrix, ist
• regulär, falls Determinante 6= 0

• singulär, falls Determinante = 0

2
2.2.5 Inverse Matrix
System: A|E →Gauss = E|A−1
A · A−1 = A−1 · A = E
• Eine quadratische Matrix besitzt eine oder keine Inverse

• Es existiert eine Inverse, falls die Matrix regulär ist (det(A) 6= 0) → Eine reguläre Matrix ist
invertierbar (notwendig & hinreichend)

2.2.6 Orthogonale Matrix


A heisst orthogonal, falls A · AT = E d. h. AT = A−1

2.2.7 Konjugiert Komplexe Matrix



A → A (Konjugation) aik = bik + icik → a∗ik = bik − icik
(A ) = A (A + B) = A∗ + B ∗ (A · B)∗ = A∗ · B ∗
∗ ∗ ∗

2.2.8 Adjungierte Matrix


Konjugiert Transponierte Matrix A = (A∗ )T
A = A (A + B) = A + B (A · B) = B · A

2.2.9 Selbsadjungierte Matrix = Hermitesche Matrix


Eine n-reihige, komplexe Matrix A heisst hermitesch, wenn A = A = (A∗ )T Eigenschaften:
• alle Hauptdiagonalelemente ai,i sind reell
• Der REalteil B ist eine symmetrische, der Imaginärteil C ist eine schiefsymmetrische Matrix
(schiefsymmetrisch: aik = −aki )
• det(A) einer komplexen Matrix A ist stets reell
• Im Reellen hermitesch =
b symmetrisch
Schief-hermitesch: A = −A Eigenschaften:

• alle Haupt-Diagonalelemente sind imaginär


• Realteil B: schiefsymmetrisch, Imaginärteil C: symmetrisch

2.2.10 Unitäre Matrix


Komplexe, quadratische Matrix, deren Spalten orthonormal zueinander sind. Unitär entspricht
orthogonal im Komplexen!
Determinante muss gleich 1 sein!
Die Inverse einer unitären Matrix ist wieder eine unitäre Matrix. Das Produkt von 2 unitären
Matrizen ist wieder eine uniträe Matrix.
Dies ist der Fall, wenn A · A = E

2.3 Matrix-Transformationen
2.3.1 Transponierte AT
Zeilen und Spalten
 werden vertauscht
  
a b c a d g
Beispiel: A =  d e f  AT =  b e h 
g h i c f i

2.3.2 Matrix-Addition
A + B + C = aik + aik + cik A+B =B+A A + (B + C) = (A + B) + C

3
2.3.3 Multiplikation mit Skalaren
λ · A = λ · aik = (λ · aik ) λ · (µ · A) = (λ · µ) · A (µ + λ) · A = λ · A + µ · A

2.3.4 Matrix- Multiplikation

 Die Spaltenzahl von A =


Voraussetzung b der Zeilenanzahl von B
B B B

 B B B  
Falkschema: 
 B B B  
 A A A C C C 
A A A C C C

2.3.5 Gesetze
A(BC) = (AB)C A(B + C) = AB + AC (A + B)C = AC + BC
(AB)T = B T AT AE = EA = A

2.3.6 Eigenschaften
(AB) = B −1 A−1
−1
A, B ∈ K n,n
(AT )−1 = (A−1 )T
A−1 ist orthogonal A, B ∈ Rn,n
AB ist orthogonal

2.4 Determinanten
Determinanten können nur aus quadratischen Matrizen gebildet werden!

2.4.1 Idee

a11 x1 +a12 x2 = c1 c1 a22 −c2 a12 c2 a11 −c1 a21
a21 x1 +a22 x2 = c2 kann umgeformt werden zu x1 = a11 a22 −a12 a21 , x2 =

a11 a22 −a12 a21

Nenner =b Determinante! → Gleichungssystem nur lösbar, wenn det(A) 6= 0

2.4.2 2reihige Determinante



a11 a12
D= = a11 a22 − a12 a21
a21 a22

2.4.3 3reihige Determinante



a11 a12 a13

D = a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a31 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12
a31 a32 a33
Entspricht Addition der Hauptdiagonalen und Subtraktion der Nebendiagonalen

2.4.4 Regeln
• Der Wert ändert sich nicht, wenn A → AT det(A) = det(AT )
• Beim Vertauschen von Zeilen und Spalten ändert sich das Vorzeichen der Determinante!
• det(λA) = λ2 · det(A)bei der zweireihigen Determinante

• wird eine Zeile/eine Spalte mit λ multipliziert → λ · det(A)


• det(A) = 0, falls
– 1 ganze Spalte/Zeile = 0
– beide Spalten/Zeilen identisch
– Spalten/Zeilen zueinander proportional

4
• det(A) 6= 0 → { ~a1 , ~a2 , ..., ~an } sind linear unabhängig
• det(A · B) = det(A) · det(B) = det(B · A)

• det verändert sich nicht, wenn zu einer Zeile ein Vielfaches einer anderen Zeiel addiert wird
• det einer 2reihigen Dreiecks- /Diagonalmatrix: det(A) = a11 · a22
• detAn = (detA)n
• det − A = (−1)AnzahlZeilen · detA

• Für eine orthogonale oder unitäre Matrix A gilt: |det(A)| = 1

2.5 Eigenwerte und Eigenvektoren


Definition: Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor ver-
schiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor
wird also nur gestreckt, und man bezeichnet den Streckungsfaktor als Eigenwert der Abbildung.
Eigenwerte charakterisieren wesentliche Eigenschaften linearer Abbildungen, etwa ob ein entspre-
chendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschrei-
ben Eigenwerte auch physikalische Eigenschaften eines mathematischen Modells.

2.5.1 Charakteristische Polynom


chp(λ) = det(λE − A)
für 2reihige Matrizen: chp(λ) = λ2 − spur(A) · λ + det(A)
für 3reihige Matrizen: chp(λ) = λ3 −spur(A)·λ2 +(det(A1 ) + det(A
 2 ) + det(A
 3 ))·λ−det(A)
1 0 1
Beispiel Gesucht ist das charakteristische Polynom der Matrix A = 2 2 1.
4 2 1
Gemäß der obigen Definition
rechnet man wie
folgt:
λ − 1 0 −1

chp(λ) = det(λE − A) = −2 λ−2 −1 = λ3 − 4λ2 − λ + 4 = (λ − 1)(λ + 1)(λ − 4)
−4 −2 λ − 1
Damit sind 1, -1 und 4 die Nullstellen des charakteristischen Polynoms chp(λ) und somit auch
die Eigenwerte der Matrix A.

5
3 Aufgaben
3.1 Vektor ω durch v1 , v2 , v3 ausdrücken
       
3 3 0 −2
1. Gleichungssystem ω
~ = λ1~v1 + λ2~v2 + λ2~v3 = λ1 + λ2 + λ3
−3 0 3 −2
2. Ein λ frei bestimmen → λ3 = 1
3. Gleichungssystem nach λ1 , λ2 lösen

3.2 Lineare Abhängigkeit/Unabhängigkeit von Vektoren


          
1 0 0 0 1 1
• unabh.:  0  ,  1  ,  0  oder  1  ,  1  ,  0 
0 0 1 1 0 1
     
1 1 0
• abh.:  0  ,  0  ,  0 
−1 0 1

3.3 Teilräume überprüfen


  
 x

Beispiel: T1 :=  y  xyz = 2
z
 

1. Ist der Teilraum nicht leer? → ja für x = 2, y = 1, z = 1 existiert ein Element


2. Ist der ~0-Vektor enthalten? → nein! 0 · 0 · 0 6= 2
   
x1 x2
3. Ist die Addition auf dem Teilraum definiert? → Elemente  y1  und  y2  addieren
z1 z2
und überprüfen, ob sie immer noch im Teilraum sind
4. Ist die Multiplikation auf dem Teilraum definiert? → ein Objekt mit λ multiplizieren und
überprüfen, ob immer noch im Teilraum

3.4 Überprüfen, ob eine Abbildung linear ist


 
  0
x
Bsp: G1 : R2 → R3 → x+1 
y
2x + 2

1. Überprüfe, ob G(( ab11 ) + ( ab22 )) = G( ab11 ) + G( ab22 ) Hier scheitert das Beispiel!

2. Überprüfe, ob G(λ( ab11 )) = G(( λa a1


λb1 )) = λG(( b1 ))
1

3.5 Basis und Kern berechnen


 
a 1 0
Bsp: A :=
b 0 0

1
• Berechne a, b so, dass  1  im Kern von A liegt.
1
 
  1    
a 1 0 a+1 0
1. · 1 = = → a = −1, b = 0
b 0 0 b 0
1
 
1
• Berechne a, b so, dass im Bild von A liegt.
1

6
 
  x  
a 1 0 1 1−y 1
1. · y = →a= x ,b = x
b 0 0 1
z

3.6 Lineare Gleichungssysteme


     
a11 a12 x1 b1
Form: A · ~x = ~b · = Verschiedene Fälle:
a21 a22 x2 b2
     
3 1 0 3
• Genau 1 Lösung: für A = und b = Rg(A) = 2, Rg(A|b) = 2
−4 0 1 −4
   
1 0 0
• Keine Lösung für A = und b = Rg(A) = 2, Rg(A|b) = 2
0 0 1
     
−4 1 0 −4
• Unendlich viele Lösungen inkl für A = und b =
2 0 0 0
Rg(A) = 1, Rg(A|b) = 1

3.7 Gleichung für ein System aufstellen (analog zur Salzrohr-Aufgabe


1. Gleichungen (= Anzahl Unbekannte) aufstellen
 
x1
 x2 
2. Unbekannte in einem Vektor zusammenfassen ~x = 
 ... 

xn
 
0
 0 
3. Ausgang nach Aufgabenstellung (zB 0) setzen =  
 ... 
0
4. Anschliessend Koeffiziennten-Matrix aus den Gleichungen aufstellen

3.8 Berechnen einer Basis des Kerns/des Bildes




−2x2 + 2x3 =0

x1 + x2 − 2x3 + x4 =0
1. Gleichungs-System aufstellen Bsp:
x1 − x2 + x4 =0

2x1 − 2x3 + 2x4 =0

2. 
Als erweiterte Koeffizienten-Matrix
 schreiben:
 
0 −2 2 0 0 1 0 −1 1
0

 1 1 −2 1 0   0 1 −1 0 0 

 1 −1 0 1 0 
 ⇒   
|{z} 0 0 0 0 0 
Gauss

2 0 −2 2 0 0 0 0 0 0

3. Kopf-Variablen durch Nicht-Kopf-Variablen ausdrücken: x1 = x3 − x4 x2 = x3


4. Lösungsmenge
 für den Kern(A):    

 x 1 
  λ−µ 
  
x  λ
  
2 

4

L :=  x3  ∈ R x 1 = x 3 − x 4 , x2 = x 3 =  λ
 λ, µ ∈ Rs


 
  
  
0 µ
  

5. Basis des Kerns. Eine Nichtkopf-Variable = 1 setzen, die anderen = 0 setzen.


x3 = 1, x4 = 0 → x1 = 1, x
2 = 1
1
 1 
Ergibt den 1. Basisvektor 
 1 

7
     
−1 
 1 −1 

 0  
1   0 
6. danach x3 = 0, x4 = 1 → 2. Basis-Vektor 
  ⇒  ,  eine Basis des
0  

 1   0 

1 0 1
 
Kerns

7. Basis des Bildes:  v


 DieSpalten-~ von
 A, die zu einer Kopfvariable gehören, bilden eine Basis

 0 −2 

1   1 

des Bildes: ⇒  ,
 1   −1 


 
2 0
 

3.9 Linear-Kombination / Basis / Lineare Unabhängigkeit


• Beweis der linearen Unabhängigkeit

λ1 x1 + λ2 x2 + λ3 x3 = 0
nur für λ1 = λ2 = λ3 = 0

• Beweis der Linearkombination

λ 1 x1 + λ 2 x2 = x3
für λ1 , λ2 6= 0

• Dim(V)
Prüfe, ob die gegenbenen Elemente linear unabhängig sind!
→ Anzahl linear unabhängiger Basis-Vektoren = dim(V )
   
1 0 1 1
• Basis von R2 Bsp: oder
0 1 0 1

3.10 Koordinatenvektor im Raum der Polynome


Basis B2 := {−2x(x + 1), −5x + 2, x + 1} p(x) = x2 + 2x
Gesucht: Koordinatenvektor von p(x) bezüglich B2

λ1 (−2x2 − 2x) + λ2 (−5x + 2) + λ3 (x + 1) = x2 + 2x


1
x2 : −2λ1 = 1 → λ1 = −
2
1
x : −2λ1 − 5λ2 + λ3 = 2 → λ2 = −
7
2
c : 2λ2 + λ3 = 0 → λ3 =
 1  7
−2
⇒ ~v =  − 17 
0

3.11 Darstellende Matrix einer Abbildung berechnen


Gegeben: L : Euler-Abbildung: R≤2 [x] → R≤2 [x], p(x) → xp0 (x)
Basis: B := {−1 + 2x + 2x2 , 5x + 6x2 , 4x2 }

1. Abbildung auf die Komponenten der Basis anweden:

−1 + 2x + 2x2 → 2x + 4x2
5x + 6x2 → 5x + 12x2
4x2 → 8x2

8
2. Rechte Seite durch linke Seite ausdrücken Mit Zeichnung ergänzen!

2x + 4x2 = a11 (−1 + 2x + 2x2 ) + a21 (2x + 6x2 ) + a31 (4x2 )


5x + 12x2 = a12 (−1 + 2x + 2x2 ) + a22 (2x + 6x2 ) + a32 (4x2 )
8x2 = a13 (−1 + 2x + 2x2 ) + a23 (2x + 6x2 ) + a33 (4x2 )
   
a11 a12 a13 0 0 0
⇒ A :=  a21 a22 a23  =  52 1 0 
2 3
a31 a32 a33 5 2 2

3.12 Orthonormalbasis
 √  √ 
2 − 2
Zeigen Sie, dass ~b1 := 12  1  , ~b2 = 1 
2 1  orthonormal sind
1 1

• Bedingung 1: normiert < ~b1 , ~b1 >= 1, < ~b2 , ~b2 >= 1,
• Bedingung 2: orthogonal < ~b1 , ~b2 >= 0

Ergänze zu einer Orhtonormalbasis!


 
0
1. Finde einen weiteren Vektor, der linear unabhängig zu ~b1 , ~b2 ist → z B ~b3 =  0 
1
~ ~ ~
2. Überprüfen
 √   ab1 + bb2 + cb3 = 0
der√linearen Unabhängigkeit:
 
2/2 − 2/2 0 a 0
⇔  1/2 1/2 0 · b = 0 
1/2 1/2 1 c 0
 √ √   
2/2 − 2/2 0 0 1 0 0 0
⇔  1/2 1/2 0 0  |{z} →  0 1 0 0 
1/2 1/2 1 0 Gauss NZSF 0 0 1 0
⇒ Basisvektoren sind linear unabhängig!
3. Anschliessend Gram-Schmidt anwenden

3.13 Gram-Schmidt-Verfahren
Input: Basis { ~v1 , ~v2 , ..., ~vn } eines euklidischen oder unitären Vektorraums
Output: Orthonormalbasis {~q1 , ~q2 , ..., ~qn }
Anwendung: siehe QR-Zerlegung
~
v1
1. Normiere den Vektor ~v1 : ~q1 = ||~
v1 ||

2. Fälle das Lot von ~v2 auf die Gerade durch ~q1
I~2 = ~v2 − < ~v2 , ~q1 > ~q1
I~2
3. Normiere q~2 = ||I~2 ||

4. Die folgenden 2 Schritte rekursiv für n = 3, 4, ..., n wiederholen:


• Fälle das Lot von ~vk auf die von den Vektoren ~q1 , ~q2 , ~q3 , ..., ~qk−1 aufgespannte Ebene:
I~k = ~vk − < ~vk , ~q1 > ~q1 − ...− < vecvk , ~vk−1 > ~qk−1
• Normiere I~k ⇒ ~qk = q~k ||~
qk ||

9
3.14 QR-Zerlegung
Definition: Eine Zerlegung einer Matrix A ∈ Rm,n in ein Produkt zweier Matrizen A = Q · R
mit Q ∈ Rm,m orthogonal und R ∈ Rm,n Obere Dreiecksmatrix heisst QR-Zerlegung. (Jede
Matrix A ∈Rm,n kann inQR zerlegt werden)      
3 1 4 3 1 4
Bsp: A :=  0 0 −1  mit den Spalten-~v ~a1 :=  0  , ~a2 :=  0  , ~a3 :=  −1 
4 7 −3 4 7 −3
~
a1
p √ √
1. ~q1 := ||~
a ||~a1 || =
1 ||
a211 + a212 + a213 = 32 + 02 + 42 = 25 = 5

3/5
⇒ ~q1 =  0 
4/5
~
2. ~q2 := ||~ll2 || mit ~l2 = ~a2 − < ~a2 , ~q1 > ~q1
2     
1 3/5 −68/25 q
~l2 =  0  − 31  0  =  0  ||~l2 || = 4624 + 0 + 2601
= 17
5 625 625 5
7 4/5 51/25
−68/25
0 1
B
0
C
B C    
@ A
−4/5 −4/5
~l2 51/25
~q2 = ||~l || = 17/5 = 0  ⇒ ~q2 =  0 
2
3/5 3/5
~
3. ~q3 := ||~ll3 || mit ~l3 = ~a3 − < ~a3 , ~q1 > ~q1 − < ~a3 , ~q2 > ~q2
3       
4 3/5 3/5 0
~l3 =  −1  − 0  0  − (−5)  0  =  −1 
−3 4/5 4/5 0
0 1
0
B −1 C
B C
   
@ A
0 0
~ 0
~q3 = ||~ll3 || = 1 =  −1  ⇒ ~q3 =  −1 
3
0 0
4. Jetzt
 QR-Zerlegung! A= Q · R   
a11 a12 a13 q11 q12 q13 < a1 , q1 > < a2 , q2 > < a3 , q1 >
→  a21 a22 a23  =  q21 q22 q23  ·  0 < a2 , q2 > < a3 , q3 > 
a31 a32 a33 q31 q32 q33 0 0 < a3 , q3 >
| {z } | {z } | {z }
 A  Q
  R
3/5 −4/5 0 5 31/5 0
⇒Q= 0 0 −1  R =  0 ber ber 
4/5 3/5 0 0 0 ber

10

Das könnte Ihnen auch gefallen