Sie sind auf Seite 1von 2

4

Spaltenrang: Anzahl der N0-Spalten 3 Vektoren 4.4 Linearkombination

ei
Spaltenraum col(A): Erzeugnis der Spalten, Basis(col(A)) =
* { N0-Spalten }
Ein Vektor ist ein n-Tupel reeller oder komplexer Zahlen, also ein Element
aus dem Kn .
Jeder Vektor v ∈ Kn kann als Linearkombination einer Basis B =
{b1 , . . . , bn } ⊂ Kn dargestellt werden
Lineare Algebra Bild = Spaltenraum: Erzeugnis der Spalten

3.1 Skalarprodukt hv, wi : V × V → R


 
* kann Spuren von Katzen enthalten
nicht für Humorallergiker geeignet
alle Angaben ohne Gewehr

2.6 Matrixpotenzen v = λ1 b1 + · · · + λn bn ⇒ Gauß b1 b2 b3 | v


1. Linear: hu, v + wi = hu, vi + hu, wi ∧ hu, λvi = λhu, vi
Gegeben: A ∈ Rmxn , x ∈ Rn .
Gesucht: Lösung von An . 2. Symmetrisch: hv, wi = hw, vi Linear Unabhängig: Vektoren heißen linear unabhängig, wenn aus:
λ1 v1 + · · · + λn vn = 0 folgt, dass λ1 = · · · = λn = 0
1 Allgemeines 3. Positiv definit: hv, vi ≥ 0 hv, vi = 0 ⇔ v = 0
• Bestimme Eigenwerte λ und Eigenvektoren v von A.
Dreiecksungleichung |x + y| ≤ |x| + |y| Kanonisches Skalarprodukt
4.5 Orthogonalität
Cauchy-Schwarz-Ungleichung: |hx, yi| ≤ kxk · kyk • Bestimme α1 , ..., αk mit x = α1 v1 + ... + αk vk . hv, wi = v > w = v1 w1 + · · · + vn wn
K steht für R und C n B ⊂ V heißt
• A x= α1 λn
1 v1 + ... + αk λn
k vk .
In ist die nxn-Einheitsmatrix. Skalarprodukt bzgl. sym., quadr. und positiv definiter Matrix A ∈ Kn×n
Gegeben: A ∈ R nxn
, A diagonalisierbar. hv, wiA = v > Aw • Orthogonalsystem, wenn ∀v, w ∈ B : v ⊥ w
Gesucht: An . ´1
2 Matrizen  n Skalarprodukt Polynome hp(x), q(x)i = p(x)q(x) dx • Orthogonalbasis, wenn B Orthogonalsystem und Basis von V
λ1 ... 0

0
Die Matrix A = (aij ) ∈ Km×n hat m Zeilen mit Index i und n  . . .  Orthogonalität ha, bi = 0 ⇔ a ⊥ b • Orthonormalsystem, wenn B Orthogonalssystem u. ∀v ∈ B :
Spalten mit Index j. • An = SD n S −1 mit D n = 
 .. . .  .
. .  Orthogonale Zerlegung eine Vektors v längs a: kvk = 1
0 ... λn
k
hv,ai
v = va + va⊥ mit va = ha,ai · a und va⊥ = v − va • Orthonormalbasis(ONB), wenn B Orthonormalsystem u. Basis von
2.1 Allgemeine Rechenregeln
V ist
 
ha,bi ha,bi
Merke: Zeile vor Spalte! (Multiplikation, Indexreihenfolge, etc.) 2.7 Lineares Gleichungssystem LGS Winkel cos φ = kakkbk φ = arccos kakkbk

Das LGS Ax = b kurz (A|b) mit A ∈ Km×n , x ∈ Kn , b ∈ Km hat Matrix A heißt orthogonal, wenn A> A = In
1) A + 0 = A 2) 1 · A = A
3) A + B = B + A 4) A · B 6= B · A (im Allg.) m Gleichungen und n Unbekannte. 3.2 Kreuzprodukt (Vektorprodukt)
5) (A + B) + C = A + (B + C) 6) λ(A + B) = λA + λB   • A−1 = A>
Lösbarkeitskriterium: a2 b3 − a3 b2
Multiplikation von A ∈ Km×r und B ∈ Kr×n : AB ∈ Km×n a × b = a3 b1 − a1 b3  a, b ∈ R3 • det A = ±1
Ein LGS (A|b) ist genau dann lösbar, wenn: rang(A) = rang(A|b)
Die Lösung des LGS (A|b) hat dim(kern(A)) = n − rang(A) frei a1 b2 − a2 b1 • Spalten bilden ONB
2.2 Elementare Zeilenumformungen (EZF) (gilt äquiv. für Spalten) wählbare Parameter. a × b ⊥ a, b (falls a × b = 0 ⇔ a, b linear abhängig) • Zeilen bilden ONB
A ∈ Km×n hat m Zeilen zi ∈ Kn a × b = −b × a
Das LGS hat eine Lsg. wenn det A 6= 0 → ∃A−1 ka × bk = kak · kbk · sin (](a, b)) = b Fläche des Parallelogramms • kAvk = kvk
• Vertauschen von Zeilen Das homogene LGS: (A|0) hat stets die triviale Lösung 0 Graßmann-Identität: a × (b × c) ≡ b · (a · c) − c · (a · b)
Summen und Vielfache der Lösungen von (A|0) sind wieder Lösungen. Orthonormalisierungsvefahren einer Basis {v1 , . . . , vn } nach Gram-
• Multiplikation einer Zeile mit λ 6= 0
Spatprodukt Schmidt
• Addition des λ-fachen der Zeile zi zur Zeile zj n×n [a, b, c] := ha × b, ci = det(a, b, c) =
b Volumen des Spates.
2.8 Determinante von A ∈ K : det(A) = |A| v
[a, b, c] > 0 ⇔ a, b, c bilden Rechtssystem 1. b1 = kv1 k (Vektor mit vielen 0en oder 1en)
n 1
2.3 Transponieren P i+j [a, b, c] = 0 ⇔ {a, b, c} linear abhängig
• |A| = (−1) ·aij ·|Aij | Entwicklung n. j-ter Spalte
c hv ,v i
A = (aij ) ∈ Km×n gilt: A> = (aji ) ∈ Kn×m i=1 2. b2 = kc2 k mit c2 = v2 − hv2 ,v1 i · v1
n 2 1 1
Regeln: 4 Vektorräume (VR)
(−1)i+j · aij · |Aij |
P
• |A| = Entwicklung n. i-ter Zeile c hv ,v i hv ,c i
(A + B)> = A> + B > (A · B)> = B > · A> j=1 3. b3 = kc3 k mit c3 = v3 − hv3 ,v1 i · v1 − hc 3 ,c 2 i · c2
Eine nichtleere Menge V mit zwei Verknüpfungen + und · heißt K- 3 1 1 2 2
(λA)> = λA> (A> )> = A 
A 0
 
A B

Vektorraum über dem Körper K.
• det = det = det(A) · det(D) Bedingung (u, v, w ∈ V λ, µ ∈ R) Orthogonale Projektion auf UVR
C D 0 D
A ∈ Kn×n ist symmetrisch, falls A = A> (⇒ diagbar) Gegeben: Vektorraum V ∈ Rn , v ∈ V , Untervektorraum U ⊂ V


A ∈ Kn×n ist schiefsymmetrisch, falls A = −A> λ1 λ1 0 1. v + w ∈ V λv ∈ V

A ∈ Kn×n ist orthogonal (Spalten-/Zeilenvektoren=ONB), falls:
• .
..

= λ1 · . . . · λn = .
..

2. u + (v + w) = (u + v) + w 1. Basis von U bestimmen
AA> = In ⇔ A> = A−1

⇔ det A = ±1 3. 0 ∈ V : v + 0 = v
>
0 λ ∗ λ 2. Orthogonalisiere Basis {u1 , u2 , u3 , . . .} von U
A ∈ Cn×n ist hermitesch, falls A = A (kmplx. konj. u. transp.) n n
4. v 0 ∈ V : v + v 0 = 0
• A=B·C ⇒ |A| = |B| · |C| hv,u i hv,u i
5. v + w = w + v 3. vU = hu ,u1 i u1 + hu ,u2 i u2 + . . .
1 1 2 2
2.4 Inverse Matrix von A ∈ Kn×n • det(A) = det(A> )
6. λ(v + w) = λv + λw 4. vU ⊥ = v − vU
Für die inverse Matrix A−1 von A gilt: A−1 A = In • Hat A zwei gleiche Zeilen/Spalten ⇒ |A| = 0
7. (λ + µ)v = λv + µv
(A−1 )−1 = A (AB)−1 = B −1 A−1 • det(λA) = λn det(A)

5. Abstand von v zu U = vU ⊥

8. (λµ)v = λ(µv)
(A> )−1 = (A−1 )> • Ist A invertierbar, so gilt: det(A−1 ) = (det(A))−1
9. 1v = v
• det(AB) = det(A) det(B) = det(B) det(A) = det(BA) Alternative Methode
A ∈ Kn×n ist invertierbar, falls: det(A) 6= 0 ∨ rang(A) = n
Umformung Determinante 4.1 Untervektorraum (UVR) U ⊂ V (u, v ∈ U λ ∈ R)
1. Basis {b1 , . . . , br } von U bestimmen
Berechnen von A−1 nach Gauß:
EZF • Vertauschen von Zeilen/Spalten ändert Vorzeichen von |A| 1. U 6= ∅ (0 ∈ U )
AA−1 = In ⇒ (A|In ) −→ (In |A−1 ) 2. Setze A = b1 b2 . . . br ∈ Rn×r

• Zeile/Spalte mit λ multiplizieren, |A| um Faktor λ größer 2. u + v ∈ U
b −1
   
a d −b
2x2-Matrix: 1
= ad−bc • Addition des λ-fachen der Zeile X zur Zeile Y ändert |A| nicht 3. λu ∈ U 3. Löse das LGS A> Ax = A> v und erhalte den Lösungsvektor
c d −c a
2×2 x = (λ1 , . . . , λr )>
Vereinfachung für Spezialfall A ∈ K 4.2 Basis (Jeder VR und jeder UVR besitzt eine Basis!) 4. vU = λ1 b1 + · · · + λr br

2.5 Rang einer Matrix A ∈ Km×n a b
A= ⇒ det(A) = |A| = ad − bc
c d Eine Teilmenge B ⊂ V heißt Basis von V , wenn gilt:
(N0-Zeilen = Nicht-Null-Zeilen)
• span(B) = V , B erzeugt V 5 Norm
2.9 Äquivalente Aussagen für A ∈ Kn×n
Bringe A auf ZSF • B ist linear unabhängig q
a2 2
p
Norm von Vektoren kak = ha, ai = 2
Rang (Zeilrang) rang(A): Anzahl N0-Zeilen 1) A ist invertierbar 2) dim(col(A)) = dim(row(A)) = n 1 + a2 + . . . + an
Zeilenraum row(A): Erzeugnis der Zeilen, Basis(row(A)) = n
3) kern(A) = 0 4) Die strenge ZSF von A ist In 4.3 Dimension ∀v, w ∈ R :
{ N0-Zeilen } 5) det(A) 6= 0 6) Zeilen/Spalten von A linear unabhängig
Kern: kern(A) = {x ∈ Kn | Ax = 0} 7) Ax = b hat eine 8) 0 ist kein Singulärwert von A n = dim(V ) = |B| = Mächtigkeit von B 1. kλvk = |λ| kvk
Dimensionsformel: rang(A) + dim(kern(A)) = n eindeutige Lösung ∀b ∈ Rn 9) Lineare Abbildung ist bijektiv Mehr als n Vektoren aus V sind stets linear abhängig.
Bringe A auf Spaltenstufenform (transponieren, ZSF) 10) rang(A) = n 11) 0 ist kein Eigenwert von A Für jeden UVR U ⊂ V gilt: dim(U ) ≤ dim(V ) 2. kv + wk ≤ kvk + kwk

Homepage: www.latex4ei.de - Fehler bitte sofort melden. Lineare Algebra von Lukas Kompatscher (lukas.kompatscher@tum.de) Stand: 25. Februar 2019 1
6 Lineare Abbildungen 7 Diagonalisierung (Eigenwerte und Eigenvektoren) 9 Kleinstes-Quadrate-Problem
Abbildung f : V → W ist linear, wenn Gegeben: Quadratische Matrix A ∈ Rn×n . Für Ax = b lautet die Normalengleichung AT Ax = AT b
Gilt Av = λv mit v 6= 0, so nennt man ⇒ optimale Lösung mit minimalem quadratischen Fehler (existiert im-
1. f (0) = 0 mer).
2. f (a + b) = f (a) + f (b) • v ∈ V einen Eigenvektor von A zum Eigenwert λ ∈ R und
3. f (λa) = λf (a) • λ ∈ R einen Eigenwert von A zum Eigenvektor v ∈ V 10 Singulärwertzerlegung
⇒ Abbildung als Matrix darstellbar (siehe Abbildungsmatrix) Ist λ ein Eigenwert von A, so nennt man den Untervektorraum Bei der Singulärwertzerlegung wird eine beliebige Matrix A ∈ Rm×n als
n Produkt dreier Matrizen U , S und V geschrieben
Injektiv, wenn aus f (x1 ) = f (x2 ) ⇒ x1 = x2 • EigA (λ) = {v ∈ R |Av = λv} den Eigenraum von A zum
Surjektiv: ∀y ∈ W ∃x ∈ V : f (x) = y Eigenwert λ und >
A = U SV
(Alle Werte aus W werden angenommen.) • dim(EigA (λ)) die geometrische Vielfachheit des Eigenwerts λ
Bijektiv(Eineindeutig): f ist injektiv und surjektiv ⇒ f umkehrbar. mit U ∈ Rm×m , S ∈ Rm×n und V ∈ Rn×n .
• geo(λ) = dim(EigA (λ))
U und V sind orthogonal, S ist eine Diagonalmatrix.
6.1 Koordinatenvektor bezüglich einer Basis B Diagonalisieren von Matrizen
A ist diag.bar falls eine invertierbar Matrix B existiert, sodass 10.1 Rezept: Singulärwertzerlegung
Gegeben: Vektorraum V ∈ Rn , v ∈ V .
Gesucht: [v]B (Koordinaten von v bezüglich der Basis B). −1 −1 Gegeben: A ∈ Rm×n
D=B AB ⇔ A = BDB
1. Bestimme Basis B von V . 1. Bestimme alle Eigenwerte λj und Eigenvektoren vj der Matrix
und D eine Diagonalmatrix ist.
A> A ∈ Rn×n und ordne sie
2. Löse das LGS Bx = v.
• Eine Matrix ist genau dann diagonalisierbar wenn alg(λ) = geo(λ) λ1 ≥ λ2 ≥ · · · ≥ λr > λr+1 = · · · = λn = 0 mit r ≤ n
3. [v]B = x. für jeden Eigenwert λ von A gilt. 2. Bestimme eine ONB des Rn aus den Eigenvektoren vj und erhalte
• Jede Matrix A ∈ Rn×n mit n verschiedenen Eigenwerten ist vn ∈ Rn×n

V = v1 ...
6.2 Abbildungsmatrix (Darstellungsmatrix) diagonalisierbar. p
3. Die Singulärwerte sind σj = λj j = 1, . . . , min{m, n}
Lineare Abbildung f : Rn → Rm  • Eine symmetrische Matrix hat nur reelle Eigenwerte und ist diago-
Abbildungsmatrix spaltenweise: [f ] = f (e1 ) ... f (en ) nalisierbar. 
σ1 0 ... 0

• Die Determinante einer Matrix ist gleich dem Produkt der Eigen-  . . . m×n
Allgemein f : V → W mit V, W Vektorräume S = . . . ∈R m<n
werte: det(A) = λ1 . . . λn . . .
B = (b1 , . . . , bn ) ist eine Basis von V , ∃B −1 .

σm 0 ... 0
[f ]B := B −1 [f ]B.
7.1 Rezept: Diagonalisieren
σ 
1
Gesucht: x ∈ Rn mit f (x) = b und b ∈ Rn . Gegeben: A ∈ Rn×n
.
- Löse das LGS [f ]B x = B −1 b.
 
 . 
1. Bestimme das charakteristische Polynom von A  . 
Folgende Aussagen sind äquivalent:  
 σn 
 ∈ Rm×n
λ1
 
S = m>n
pA (λ) = det(A − λIn ) 0 ... 0 
 λ2  
 .

  . 
a) [f ]B =  . .
 .

. 

 .  2. Charakteristische Polynom pA in Linearfaktoren zerlegen. . .
 . 
ν ν 0 ... 0
λn pA (λ) = (λ1 − λ) 1 . . . (λr − λ) r
b) f (b1 ) = λ1 b1 , ..., f (bn ) = λn bn .
4. Bestimme u1 , . . . , ur aus ui = σ1 Avj für alle j = 1, . . . , r
Es gilt ν1 + · · · + νr = n j
λ1 , . . . , λr sind die Eigenwerte mit algebraischer Vielfachheit (alle σj 6= 0)
C = (c1 , . . . , cn ) ist eine Basis von V .  alg(λi ) = νi 5. Falls r < m ergänze u1 , . . . , ur zu einer ONB, bzw. zu
| | | Ist pA nicht vollständig in Linearfaktoren zerlegbar ⇒ A nicht dia- U = u1 ... um orthogonal.
C ···
⇒ [f ]B = f (b1 )C f (b2 )C f (bn )C  gonalisierbar!
| | | 6. A = U SV >
3. Bestimme zu jeden Eigenwert λi den Eigenraum Vi
ist die Darstellungsmatrix von f bzgl. B und C.
”In der j-ten Spalte der Abbildungsmatrix stehen die Koordinaten des Vi = kern(A − λi In ) = span(Bi ) 11 Lineare Differentialgleichungen
Bildes f (bj ) bzgl. der Basis C = (c1 , . . . , cm )”
Die Vektoren der Basis Bi sind die Eigenvektoren von λi . 11.1 Lösen einer linearen Differentialgleichung
Eigenschaften von f mit Hilfe von [f ] Gegeben: y 0 (t) = λy(t), mit y(0) = c
Einfacher: Der Eigenvektor vi ist Lösung des homogenen LGS
• kern(f ) = {x ∈ Rn : f (x) = 0} Lösung: y(t) = ceλt mit c ∈ R
• im(f ) = col([f ]) (A − λi In )vi = 0
• f injektiv, wenn kern([f ]) = {0} dim(Vi ) = geo(λi ) geometr. Vielfachheit des Eigenwerts λi . 11.2 Lösen eines Systems linearer Differentialgleichungen
• f surjektiv, wenn im([f ]) = Rm Gilt geo(λi ) 6= alg(λi ) für ein i, ist A nicht diagonalisierbar!
Gegeben: y 0 (t) = Ay, mit y1 (0) = c1 , ..., yn (0) = cn
• f bijektiv, wenn [f ] invertierbar 4. B = (v1 . . . vn ) setzt sich aus den Eigenvektoren zusammen. Wobei A ∈ Rnxn , c1 , ..., cn ∈ R, y, y 0 ∈ Rn .
• f ist bijektiv ⇔ f ist injektiv ⇔ f ist surjektiv D = diag(λ1 , . . . , λn ) ist die Diagonalmatrix der Eigenwerte. Lösung:
−1 −1
6.3 Transformationsmatrix D=B AB ⇔ A = BDB
1. Eigenwerte und Eigenvektoren von A bestimmen.
Transformationsmatrix der Koordinaten von B zu C: C TB
8 QR-Zerlegung 
x1 (t)

Regeln und Berechnung:
 . 
A = QR, wobei Q orthogonal und R oben dreieckig. 2.  . 
 = c1 eλ1 t v1 + ... + cn eλn t vn .
• In TB = TB : Vektoren der Basis B . 
Vorgehen
xn (t)
• C TB = C T · TB
• Q berechnen durch Gram-Schmidt mit den Spalten von A, begin-
nend bei der ersten 3. Anfangswerte einsetzen und Werte für c1 , bis cn bestimmen.
• (C TB )−1 = B TC
• Die Koeffizienten von R ergeben sich durch Umstellen der jeweili-
• [v]C = C TB · [v]B gen Gram-Schmidt Gleichungen auf die Spalten von A
• C = B · C TB • Alternativ gilt: R = QT A

Homepage: www.latex4ei.de - Fehler bitte sofort melden. Lineare Algebra von Lukas Kompatscher (lukas.kompatscher@tum.de) Stand: 25. Februar 2019 2