Sie sind auf Seite 1von 45

Skriptenreihe zur Vorlesung

Mathematik für Elektrotechnik

Lineare Algebra

Institut für Analysis


R. Löwen, A.E. Schroth, K.-J. Wirths
Inhaltsverzeichnis

Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
L 1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . 2
L 1.1 Lösungsverfahren: Gauß-Algorithmus . . . . . . . . . . . 3
L 2 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
L 2.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 8
L 2.2 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . 9
L 3 Basen, Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 10
L 3.1 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . 10
L 3.2 Basisdarstellung . . . . . . . . . . . . . . . . . . . . . . . 10
L 3.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . 10
L 3.4 Basisauswahl, Basisergänzung . . . . . . . . . . . . . . . 11
L 3.5 Dimension von Unterräumen . . . . . . . . . . . . . . . . 11
L 3.6 Dimensionsformel für Abbildungen . . . . . . . . . . . . 15
L 4 Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
L 4.1 Wechsel der Basis . . . . . . . . . . . . . . . . . . . . . . 17
L 5 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . 18
L 5.1 Räume von linearen Abbildungen . . . . . . . . . . . . . 19
L 5.2 Produkt von Matrizen, Matrix einer Komposition ψ ◦ ϕ . 19
L 5.3 Matrix von ϕ: V → V bezüglich verschiedener Basen . . 21
L 6 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
L 6.1 Die symmetrische Gruppe . . . . . . . . . . . . . . . . . 22
L 6.2 Definition der Determinante . . . . . . . . . . . . . . . . 22
L 6.3 Eigenschaften der Determinante . . . . . . . . . . . . . . 24
L 6.4 1. Verfahren zur Determinantenberechnung . . . . . . . . 25
L 6.5 2. Verfahren zur Determinantenberechnung;
Laplace-Entwicklung . . . . . . . . . . . . . . . . . . . . 25
L 6.6 Folgerungen aus dem Entwicklungssatz . . . . . . . . . . 26
L 7 Eigenwerte, Eigenvektoren . . . . . . . . . . . . . . . . . . . . . 26
L 7.1 Bestimmung der Eigenwerte . . . . . . . . . . . . . . . . 27
L 8 Skalarprodukt, Länge, Orthogonalität . . . . . . . . . . . . . . . 28
L 8.1 Winkel zwischen Vektoren ~x, ~y ∈ V \ {~0} . . . . . . . . . 29
L 8.2 Orthonormalisierung nach E. Schmidt . . . . . . . . . . . 30
L 8.3 Orthogonale Komplemente . . . . . . . . . . . . . . . . . 30
L 8.4 Orthogonale Projektion in einen Unterraum U . . . . . . 31
L 8.5 Skalarprodukt für komplexe Vektorräume . . . . . . . . . 31
L 8.6 Elementare Analytische Geometrie . . . . . . . . . . . . 31
L 8.7 Vektorprodukt (nur in R3 ) . . . . . . . . . . . . . . . . . 32
L 8.8 Geraden und Ebenen in Rn . . . . . . . . . . . . . . . . 33
L 8.9 Winkel von Geraden und Ebenen in Rn . . . . . . . . . . 33
L 8.10 Abstand . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
L 9 Orthogonale Abbildungen, Drehungen . . . . . . . . . . . . . . . 34
L 9.1 Eulersche Winkel . . . . . . . . . . . . . . . . . . . . . . 35
L 9.2 Drehungen von R2 und komplexe Zahlen . . . . . . . . . 37
L 10 Symmetrische Matrizen, Definitheit . . . . . . . . . . . . . . . . 37
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Einleitung
Der zentrale Begriff in der linearen Algebra ist der Begriff des Vektorraumes
bzw. des Vektors. Dieser Begriff hat sich aus folgendem Modell entwickelt:
Betrachtet wird die Menge der Pfeile ~x im An- ~x
schauungsraum R3 oder in der Ebene R2 . Zwei Pfeile
können aneinandergeheftet werden und ergeben so ~x + ~y ~y
einen neuen Pfeil. Dabei ist es egal, ob der Pfeil ~x ~
y
an den Pfeil ~y , oder ob der Pfeil ~y an den Pfeil ~x
angeheftet wird. Außerdem können Pfeile um einen ~x r · ~x
~x
reellen Faktor gestreckt oder gestaucht werden. Das
führt zu der Beobachtung, daß es einerseits eine Ope-
ration auf der Menge der Pfeile (Vektoren), nämlich
das Aneinanderheften oder auch die Addition zweier Pfeile (Vektoren), und
andererseits eine gemischte Operation, nämlich das Strecken mit einem Fak-
tor oder die Skalarmultiplikation, gibt. Diese Operationen genügen gewissen
Regeln.
Allgemein ist ein Vektorraum eine Struktur mit zwei Mengen und zwei
Operationen, die diesen Regeln gehorchen. Die Bedeutung dieser Abstrakti-
on liegt darin, daß sehr viele, sehr unterschiedliche mathematische Objekte
Vektorräume sind. So bilden alle Lösungen aller homogenen linearen Glei-
chungssysteme in n Unbekannten einen Vektorraum. Aber auch die Gesamt-
heit der Lösungen eines homogenen linearen Gleichungssystems bildet einen
Vektorraum. Dies sind die Vektorräume, die uns hier am meisten beschäfti-
gen werden. Andere Vektorräume sind der Raum aller Folgen, der Raum aller
konvergenten Folgen, der Raum aller Nullfolgen, der Raum aller stetigen Funk-
tionen f : [a, b] → R (für feste a, b), um nur eine kleine Auswahl zu nennen. Es
ist an dieser Aufzählung erkennbar, daß Vektorräume in ganz verschiedenen
Bereichen der Mathematik auftauchen, und genau das macht ihre Stärke aus.
Zwischen Vektorräumen über dem selben Skalarkörper gibt es struktur-
erhaltende Abbildungen, d.h. Abbildungen, die mit den beiden Operationen
verträglich sind. Solche Abbildungen heißen lineare Abbildungen. Drehungen
um eine Achse durch den Nullpunkt sind beispielsweise lineare Abbildungen
in R3 . Homogene lineare Gleichungssysteme können ebenfalls als lineare Ab-
bildungen aufgefaßt werden.
Wenn ein Vektorraum nicht zu groß ist, d.h. wenn es endlich viele Vektoren
gibt, die den Vektorraum erzeugen, so spricht man von einem endlichdimensio-
nalen Vektorraum. Für endlichdimensionale Vektorräume können Koordinaten
eingeführt werden. Lineare Abbildungen zwischen endlichdimensionalen Vek-
torräumen lassen sich durch Matrizen beschreiben.
Matrizen zeichnen sich gegenüber linearen Abbildungen dadurch aus, daß
mit ihnen handfest gerechnet werden kann. Außerdem läßt sich eine Matrix
auch als ein lineares Gleichungssystem interpretieren. Ein wichtiges Rechen-
verfahren beim Umgang mit Matrizen ist der Gauß-Algorithmus. Er liefert, je
nach Betrachtungsweise, die Lösungen eines linearen Gleichungssystems oder
die Menge aller Vektoren, die von der zugehörigen linearen Abbildung auf den
Nullvektor abgebildet werden.
2 Lineare Algebra

Der Anschauungsraum mit der Menge der Pfeile ist ein Vektorraum mit
sehr viel zusätzlicher Struktur. So haben Pfeile eine Länge und zwei Pfeile
schließen einen Winkel ein. Indem diese Sichtweise axiomatisiert wird, gelangt
man zum Begriff des Skalarprodukts. Auch hier ist es so, daß dieser Begriff
in verschiedensten Bereichen der Mathematik auftaucht, etwa bei der Fourier-
Transformation.

L1 Lineare Gleichungssysteme
Nachdem in der Einleitung ein geometrische Motivation für den Begriff des
Vektorraumes gegeben wurde, wird nun der Zugang zu Vektorräumen über
lineare Gleichungssysteme verfolgt.
Ein lineares Gleichungssystem ist ein Menge linearer Gleichungen über
einem gemeinsamen Körper K. Das heißt:
gegeben sind: ein Körper K (z.B. Q, R, C),
n · m Zahlen akl ∈ K, k = 1, . . . , m, l = 1, . . . , n,
m Zahlen bk ∈ K, k = 1, . . . , m.
gesucht sind: n Zahlen x1 , . . . , xn ∈ K,
so daß folgende Gleichungen gelten:

a11 x1 + . . . + a1n xn = b1 n
.. .. .. m X
. . . oder kürzer: ∀: akl xl = bk
k=1
am1 x1 + . . . + amn xn = bm l=1

Ist b1 = b2 = · · · = bm = 0, so spricht man von einem homogenen linearen


Gleichungssystem, anderenfalls von einem inhomogenen linearen Gleichungs-
system.
Indem die Variablen xi und die Pluszeichen ignoriert werden, läßt sich ein
lineares Gleichungssystem auf folgendes Schema reduzieren:

a11 · · · a1n b1
.. .. ..
. . .
am1 · · · amn bm

Beispiel:
0 1 3 8 x2 + 3x3 = 8
2 7 0 9 steht für: 2x1 + 7x2 = 9
0 0 1 13 x3 = 13

Auf der rechten Seite des Schemas steht eine Spalte mit Zahlen aus K und auf
der linken Seite steht ein Feld mit m · n Einträgen aus K. Dies sind typische
Objekte und führen 
zu den Begriffen Vektor
 und Matrix:
b1 x1
~  ..   .. 
So sind b :=  .  ∈ K und ~x :=  .  ∈ Kn Spaltenvektoren der
m

bm xn
Länge m bzw. n.
L 1 Lineare Gleichungssysteme 3
 
0
Der Vektor ~0 =  ...  heißt der Nullvektor.
 
0
Der Körper K wirdGrundkörper oder Skalarkörper genannt und seine Ele-
mente heißen Skalare.

Es gibt folgende Rechenoperationen:


Vektor + Vektor: Für ~b, ~c ∈ Km gilt:
 
b1 + c 1
~b + ~c :=  ..  m
 . ∈K
bm + c m

Skalar · Vektor: Für a ∈ K und ~b ∈ Km gilt:


 
a · b1
a · ~b =  ...  ∈ Km
 
a · bm

Ein Feld mit m Zeilen und n Spalten heißt eine m × n-Matrix:


 
a11 · · · a1n
A=
 .. .. 
. . 
am1 · · · amn
Ist A eine m × n-Matrix und ~x ein Spaltenvektor der Länge n, so kann ~x mit
A multipliziert werden. Es gibt also die Operation
Matrix · Vektor: Für ~x ∈ Kn und A eine m × n-Matrix:
 n 
X
 a1l xl 
 l=1 

A · ~x :=  .
.

 ∈ Km
 . 
 Xn 
 
aml xl
l=1

Ein lineares Gleichungssystem kann nun wie folgt formuliert werden: Zu ge-
gebener m × n-Matrix A und gegebenem Vektor ~b ∈ Km werden alle Vektoren
~x ∈ Kn gesucht, für die A · ~x = ~b gilt!

L 1.1 Lösungsverfahren: Gauß-Algorithmus


Von C.F. Gauß wurde folgendes Verfahren zur Lösung linearer Gleichungssy-
steme entwickelt. Gegenüber von Hand gestrickter ad hoc Verfahren hat dieses
Verfahren den Vorteil, daß es immer funktioniert und daß es keiner eigener Ide-
en bedarf. Somit ist es prinzipiell auch für Computerprogramme zur Lösung
linearer Gleichungssysteme geeignet. Außerdem kann das Verfahren bei einer
Vielzahl von Problemen angewandt werden.
4 Lineare Algebra

Das Verfahren beruht auf folgenden Grundlagen:

1. Die Lösung ist einfach, wenn A eine obere Dreiecksmatrix ist, d.h. wenn
akl = 0 für k > l. In diesem Fall kann man von unten her aufrollen!

2. Andere Systeme bringt man durch ,,elementare Umformungen“ E1,


E2, E3, welche die Menge der Lösungsvektoren nicht ändern, in diese
Gestalt.

E1: Vertauschen von ganzen Zeilen (Gleichungen)

E2: Multiplikation einer ganzen Zeile (Gleichung) mit einem


Skalar a 6= 0

E3: Zeile k ersetzen durch (Zeile k) + (Zeile j)


(Zeile j bleibt dabei stehen!)

Merke: bk gehört zur Zeile k! (muß also mitbehandelt


werden).

Gauß-Algorithmus:
Beginne mit dem Schema:

a11 · · · a1n b1
.. .. ..
. . .
am1 · · · amn bm

1. Schritt: Falls die ersten i Spalten von A nur Nullen enthalten: diese Spal-
ten streichen.

2. Schritt: Zeilen vertauschen, so daß a11 6= 0.

3. Schritt: ,,Abräumen der 1. Spalte nach unten“:


Zeile k für k ≥ 2 ersetzen durch: (Zeile k)·a11 −(Zeile 1)·ak1
ak1
oder durch: (Zeile k) − (Zeile 1) ·
a11

4. Schritt: 1. Zeile und 1. Spalte abtrennen und speichern.

a11 a12 · · · a1n b1


0
..
. X
0

Schritte 1 bis 4 mit dem Restsystem X wiederholen.


L 1 Lineare Gleichungssysteme 5

Zwischenergebnis nach r-maliger Wiederholung von Schritt 1 – 4:




 c11 · · · · · · · · · c1n d1 1≤r≤n

 c2j2 · · · · · · c2n d2 i ≤ ji < ji+1
r . ..


 0 · · · · · · .. . cij i 6= 0
 crjr · · · crn dr


 dr+1
m−r ..
 0 . r≤m
 d m

Ist eine der Zahlen dr+1 bis dm 6= 0, so ist das System unlösbar. In allen
anderen Fällen ist das System lösbar, und man erhält alle Lösungen durch
Schritte 5 und 6:

5. Schritt: Spalten über den ciji abräumen (wie Schritt 3, hinten anfangen)
und dann Zeile i durch ciji teilen

6. Schritt: Schreibe das Schema wieder als Gleichungssystem. In der Spalte


Nr. ji steht nur noch xji , i = 1, . . . , r. Die übrigen Spalten numeriere
durch: k1 , . . . , ks ; (r + s = n) und bringe sie auf die rechte Seite der
Gleichungen.

x1 = e1 + f11 · xk1 + · · · + f1s · xks


xj2 = e2 + f21 · xk1 + · · · + f2s · xks
.. .. .. ..
. . . .
xjr = er + fr1 · xk1 + · · · + frs · xks

Hierin sind xk1 = t1 , . . ., xks = ts ∈ K frei wählbar.


Füge Zeilen ein: xki = 0+ti (an der richtigen Stelle, so daß links x1 , . . . , xn
fortlaufend stehen). Lies ab: ~g , h~1 , . . . , h~s als Koeffizientenspalten auf der
rechten Seite. Mit diesen gilt:
Allgemeine Lösung von A · ~x = ~b:

~x = ~g + t1 · h~1 + · · · + ts · h~s mit ti ∈ K beliebig.

Schritt 6 kann ebenfalls mehr schematisch ausgeführt werden. Allerdings ist


diese Variante erfahrungsgemäß fehleranfällig.

6. Schritt (Variante): Füge in das Schema Nullzeilen so ein, daß insgesamt


n Zeilen entstehen und jede Nichtnullzeile auf der Diagonalen beginnt.
Für jede Spalte ist nun der unterste von null verschiedene Eintrag auf
oder über der Diagonalen, jedoch nie unter der Diagonalen. Sei d~l die
l-te Spalte, deren unterster von null verschiedener Eintrag oberhalb der
Diagonalen steht. Ersetze das Diagonalelement dieser Spalte durch −1.
Dies liefert den Vektor −~hl .
6 Lineare Algebra

Die Zahl r aus dem Zwischenergebnis heißt der Rang von A, r = rg A,


und s = n − r = df A heißt der Defekt von A.
Es ist r ≤ m und r ≤ n , und das System A · ~x = ~b hat

• unendlich viele oder keine Lösungen für df A > 0 ,

• höchstens eine Lösung für df A = 0 ,

• genau eine Lösung für df A = 0 und n = m


sowie für df A = 0 und ~b = ~0

• ~x = ~g ist eine Lösung von A · ~x = ~b. Das zugehörige homogene System


X s
~
A · ~x = 0 hat die allgemeine Lösung ~x = ti · h~i mit denselben h~i .
i=1

Beispiel:
6 10 2 1 16 5 6 10 2 1 16 5 Mit Schritt 3 die
0 0 2 1 6 5 0 0 2 1 6 5 1. Spalte leerräumen.
3 15
3 5 3 2
14 2
=⇒ 0 0 2 1 6 5 Dabei wird die
0 0 2 −1 2 1 0 0 2 −1 2 −1 2. Spalte ebenfalls
3 5 1 0 7 1 0 0 0 − 12 −1 − 32 leer.

Streichen der 1. Zeile und


2 1 6 5 1. Spalte (Schritt 4).
0 0 0 0 Streichen der 2. Spalte
=⇒
0 1 2 3 (Schritt 1).
0 − 2 −1 − 32
1
Neue 1. Spalte leerräumen
(Schritt 3).

Streichen der 1. Zeile und


1 2 3 1. Spalte (Schritt 4).
=⇒ 0 0 0 Vertauschen der Zeilen
0 0 0 (Schritt 2). Neue 1. Spalte
leerräumen (Schritt 3).

6 10 2 1 16 5
2 1 6 5 Zwischenergebnis.
Das System ist lösbar,
=⇒ 1 2 3
rg A = 3,
0 0 0
0 0 0 df A = 2.

5
1 3
0 0 25 0 Mit Schritt 5 die 3. und
=⇒ 1 0 2 1 4. Spalte leerräumen.
1 2 3 Nullzeilen streichen.
L 1 Lineare Gleichungssysteme 7

Dies entspricht dem Gleichungssystem (Schritt 6):


5 5
x1 + · x2 + · x5 = 0
3 3
x2 = 0 + 1 · t1
x3 + 2 · x 5 = 1
x4 + 2 · x 5 = 3
x5 = 0 + 1 · t2

also
x1 = 0 − 53 · t1 − 5
3
· t2
x2 = 0 + 1 · t1
x3 = 1 − 2 · t2
x4 = 3 − 2 · t2
x5 = 0 + 1 · t2
und somit:      
0 − 53 − 53
 0   1   0 
     
~x = 
 1  + t1 · 
 0  + t2 · 
  −2 

 3   0   −2 
0 0 1
| {z } | {z } | {z }
~g ~h1 ~h2
Die Variante zu Schritt 6:
5 5
1 3
0 0 2
0
5
1 3
0 0 52 0 0 0 0 0 0 0
Nullzeilen einfügen.
1 0 2 1 =⇒ 0 0 1 0 2 1
Spalten d~l markieren.
1 2 3 0 0 0 1 2 3
0 0 0 0 0 0
↑ ↑
d~1 d~2
Daher:
 5
    
3
− 53 5
− 35
3
 −1   1   0   0 
       
~h1 = −  0  =  0  und ~h2 = −  2  =  −2 
       
 0   0   2   −2 
0 0 −1 1
8 Lineare Algebra

L2 Vektorräume
Nachdem im vorangegangenen Abschnitt bereits Beispiele für Vektoren aufge-
taucht sind, werden in diesem Abschnitt Vektorräume axiomatisch eingeführt.
Gegeben sei eine Menge V (Vektoren), ein Körper K (Skalare) und Ope-
rationen Vektor + Vektor = Vektor, sowie Skalar · Vektor = Vektor.
Die Struktur (V, +, ·) heißt Vektorraum über K, falls:

1. (V, +) ist kommutative Gruppe.

2. Für a, b ∈ K, ~x, ~y ∈ V gilt: a · (b · ~x) = (a · b) · ~x


a · (~x + ~y) = a · ~x + a · ~y
(a + b) · ~x = a · ~x + b · ~x
1 · ~x = ~x.
Beispiele:

1. V := Kn , Operationen wie in Kapitel L 1.


n = 1 ist erlaubt, d.h. jeder Körper kann auch als Vektorraum aufgefaßt
werden.

2. Funktionenraum V := {f | f : K → K}, Operationen ,,werteweise“, d.h.:


(f + g)(x) := f (x) + g(x), (a · f )(x) := a · f (x), 0(x) = 0, für a ∈ K und
f, g ∈ V .

3. V := Raum der unendlich oft differenzierbaren Funktionen f : R → R. Ope-


rationen werteweise.
P
4. V := { ni=0 ai xi | aP i ∈ K}, Raum Pnder Polynome
Pn vom Gradi ≤ n. PnOperatio-
n i i i
nen
Pn gliedweise, d.h.: a
i=0 i x + b
i=0 i x = (a
i=0 i +b i )x , c· i=0 ai x =
i
i=0 (c · ai )x .
P
5. V := { ∞ i
i=0 ai x | ai ∈ K}, Raum der formalen Potenzreihen. Operationen
gliedweise.

6. V := Raum der Folgen (ak )k∈N mit (ak )k∈N + (bk )k∈N = (ak + bk )k∈N und
c · (ak )k∈N = (c · ak )k∈N .

7. V := Raum der konvergenten Folgen (ak )k∈N . Operationen wie oben.

L 2.1 Lineare Abbildungen


Von besonderem Interesse sind Abbildungen zwischen Vektorräumen, die die
Struktur erhalten, d.h. die mit den Operationen verträglich sind.
Seien V, W Vektorräume über K. Eine Abbildung ϕ: V → W heißt linear,
falls ∀a ∈ K, ~x, ~y ∈ V : ϕ(~x + ~y ) = ϕ(~x) + ϕ(~y) und
ϕ(a · ~x) = a · ϕ(~x).

Beispiele:

1. ϕ: Kn → Km : ~x 7→ A · ~x (A eine m × n-Matrix).
L 2 Vektorräume 9

2. V = W = Raum der unendlich oft differenzierbaren


Funktionen f : R → R.
δ: V → W : f 7→ f 0 ist linear (Ableitungsoperator; A 7.1).

3. V = Raum der konvergenten Folgen (ak )k∈N .


λ: V → K: (ak )k∈N 7→ limk→∞ ak ist linear (A 4).

L 2.2 Unterräume
Eine Teilmenge U ⊂ V heißt Unterraum des Vektorraums V , falls:

1. ~0 ∈ U ,

2. ~x, ~y ∈ U , a ∈ K ⇒ ~x + ~y ∈ U und a · ~x ∈ U .

Beispiele:
n o
1. U = ~0 .

2. Ist ϕ: V → W linear, dann ist


ker ϕ := {~x ∈ V | ϕ(~x) = ~0} Unterraum von V (Kern von ϕ) und
ϕ(V ) := {ϕ(~x) | ~x ∈ V } Unterraum von W (Bild von ϕ).
P
3. Für M ⊂ V ist [M ] := {~x | ~x = i ti · ~
vi mit ti ∈ K, P
~vi ∈ M } ein
Unterraum, der von M aufgespannte Unterraum. Die Summe i ti · ~vi heißt
Linearkombination der ~vi , wobei nur endliche Summen betrachtet werden.
P
Speziell: [~v1 , . . . , ~vk ] = {~x | ~x = ki=1 ti · ~vi mit ti ∈ K}.

4. Speziell sei ϕ: Kn → Km : ~x 7→ A · ~x, und ~ak die k-te Spalte von A. Dann ist
ker ϕ = Menge aller Lösungen von A · ~x = ~0
= [~h1 , . . . , ~hs ] (mit ~hi wie in Abschnitt L 1.1),
ϕ(Kn ) = Menge aller ~b, für die A · ~x = ~b lösbar ist
= [~a1 , . . . , ~an ].

5. Der Raum aller differenzierbarer Funktionen f : R → R ist ein Unterraum


des Raumes aller Funktionen f : R → R.

6. Der Raum der Nullfolgen ist ein Unterraum des Raumes V aller konvergenter
Folgen. Der Raum der Nullfolgen ist nämlich der Kern der linearen Abbildung
λ: V → K: (ak )k∈N 7→ limk→∞ ak .

7. Durchschnitt und Summe von Unterräumen:


Sind U und V Unterräume von W , so gilt:

U ∩ V ist Unterraum und


U + V := {~u + ~v | ~u ∈ U und ~v ∈ V } ist Unterraum.
U ∪ V ist meist kein Unterraum!
10 Lineare Algebra

Kann ein Unterraum U als Lösungsraum eines homogenen linearen Gleichungs-


systems A · ~x = ~0 dargestellt werden, so wird dieses Gleichungssystem ein U
beschreibendes Gleichungssystem genannt.
Die Lösung eines inhomogenen linearen Gleichungssystem A · ~x = ~b 6= ~0 ist
kein Vektorraum. Die Lösungsmenge ~g + [~h1 , . . . , ~hs ] heißt affine Mannigfal-
tigkeit oder auch verschobener Unterraum.

L3 Basen, Dimension
Rechentechnisch spielen Vektorräume, bei denen es eine endliche Menge M von
Vektoren gibt, so daß sich jeder Vektor als Linearkombination mit Elementen
aus M schreiben läßt, eine besondere Rolle. Sie lassen sich koordinatisieren
und sind dann von einem Kn kaum zu entscheiden. Die Frage ist noch, welches
n hierbei gewählt werden muß. Dies führt zum Begriff der Dimension.

L 3.1 Lineare Unabhängigkeit


Vektoren ~a1 , . . . , ~ak ∈ V eines Vektorraums V heißen:
P
linear unabhängig, falls ki=1 ~ai xi = ~0 nur die Lösung ~x = ~0 hat, d.h. alle
xi = 0.
P
linear abhängig, falls ki=1 ~ai xi = ~0 eine Lösung ~x 6= ~0 hat.

Eine Teilmenge A ⊂ V heißt linear unabhängig, falls je endlich viele ~ai ∈ A


unabhängig sind.
Eine Teilmenge B ⊂ V heißt Basis von V , wenn B linear unabhängig und
[B] = V ist.

Jeder Vektorraum hat Basen!

L 3.2 Basisdarstellung
Ist B = {~b1 , . . . , ~bn } eine Basis von V , so läßt sich jeder Vektor ~x ∈ V als
Pn ~
~x = i=1 ti bi mit eindeutig bestimmten ti ∈ K darstellen. In Kapitel L 4
werden wir diesen Aspekt eingehend untersuchen.

L 3.3 Dimension
Wenn V eine Basis mit n Elementen hat, dann bestehen alle Basen aus n
Elementen. Diese Anzahl n heißt die Dimension von V , kurz n = dim V .

Beispiele:

1. V = Kn , B = {~e1 , . . . , ~en } mit eij = 0 für i 6= j und eii = 1.


dim Kn = n.
L 3 Basen, Dimension 11

2. V = ker ϕ = {~h1 , . . . , ~hs } mit ~hi aus dem Gauß-Algorithmus hat


B = {~h1 , . . . , ~hs } als Basis.
dim ker ϕ = s = df A (Defekt).

3. V = Raum der Polynome vom Grad ≤ n hat B = {1, x, x2 , . . . , xn } als eine


Basis, d.h. dim V = n + 1.

Ein Vektorraum, der keine endliche Basis hat, heißt ein unendlichdimensio-
naler Vektorraum.

Beispiele für unendlichdimensionale Vektorräume:

1. Der Vektorraum der Folgen. (L 2 Beispiel 6)

2. Der Vektorraum der stetigen Funktionen f : R → R. (L 2 Beispiel 2)

3. Der Vektorraum der Potenzreihen. (L 2 Beispiel 5)

L 3.4 Basisauswahl, Basisergänzung


Es sei V = [~b1 , . . . , ~bm ].
Dann läßt sich jede linear unabhängige Menge {~c1 , . . . , ~ck } durch Hinzufügen
von ~b0 s zu einer Basis ergänzen. Startet man mit der leeren Menge, so folgt
insbesondere, daß sich aus den ~b’s eine Basis auswählen läßt.

L 3.5 Dimension von Unterräumen


Ein Unterraum U von V mit dim V = n hat höchstens die Dimension n.
Im Falle dim U = n muß U = V sein. Für Unterräume U, W in V gilt die
Dimensionsformel:

dim(U + W ) = dim U + dim W − dim(U ∩ W )

Bestimmung einer Basis von U = [~a1 , . . . , ~am ] ⊂ Kn : Schreibe ~ai als i-te
Zeile (ai1 · · · ain ) einer m × n-Matrix A. Elementare Zeilenumformungen liefern
mit Bezeichnungen wie für den Gauß-Algorithmus in L 1.1:

(c11 . . . . . . . . . . . . . . c1n ) = ~c1


(0 . . . . . . c2j2 . . . . . . c2n ) = ~c2
.. .. .. .
. . . = ..
(0 . . . . 0 . . crjj . . crn ) = ~cr
(0 . . . . . . . . . . . . . . . . . 0) = ~0

Dann ist {~c1 , . . . , ~cr } eine Basis von U , also: dim U = rg A.

Aus einer Basis {~c1 , . . . , ~cr } von U kann wie folgt ein U beschreibendes Glei-
chungssystem bestimmt werden: Die Basisvektoren ~ci werden als Zeilen einer
Matrix C geschrieben. Anschließend wird eine Basis {d~1 , . . . , d~s } des Lösungs-
raums des linearen Gleichungssystems C ·~x = ~0 berechnet. Diese Basisvektoren
12 Lineare Algebra

werden wiederum als Zeilen einer Matrix D geschrieben. Das Gleichungssy-


stem D · ~x = ~0 beschreibt U .
Umgekehrt, ist D · ~x = ~0 ein U beschreibendes Gleichungssystem, so ist U
der Lösungsraum des Gleichungssystems, d.h. jede Basis des Lösungsraums ist
eine Basis von U .

Beispiel in R5 :
Zu gegebenem U, W ⊂ R5 bestimme Basen von U , W , U + W und U ∩ W :
    
1 2
  2   0 
    
U :=   0   1  = [~a1 , ~a2 ] ,
    dim U = 2
  1   3 
1 1
     
0 1 1
 1   1   −1 
     
W := 
  2   2   3 
   
  1   0   3 
2 1 2
Es ist offensichtlich, daß ~a1 und ~a2 linear unabhängig sind, d.h. dim U = 2. Die
Vektoren von W hingegen müssen auf lineare Abhängigkeit hin untersucht werden:
1 1 2 0 1 1 1 2 0 1
1 −1 3 3 2 → 0 −2 1 3 1 Abräumen der 1. Spalte.
0 1 2 1 2 0 1 2 1 2

1 1 2 0 1 Abräumen der 2. Spalte,


→ 0 1 2 1 2 vertauschen der 2. und
0 0 5 5 5 3. Zeile.

1 1 2 0 1
→ 0 1 2 1 2 Normieren der 3. Zeile.
0 0 1 1 1
Somit gilt:
      
1 0 0
  1   1   0 
      
W =
 2   2   1  = [~a3 , ~a4 , ~a5 ] ,
      dim W = 3
  0   1   1 
1 2 1
Für den Summenraum gilt:
          
1 2 1 0 0
  2   0   1   1   0 
          
U +W =
  0   1   2   2   1  .
         
  1   3   0   1   1 
1 1 1 2 1
L 3 Basen, Dimension 13

Auch hier muß auf lineare Abhängigkeit hin untersucht werden und gegebenenfalls
auf eine Basis reduziert werden:
1 2 0 1 1 1 2 0 1 1
2 0 1 3 1 0 −4 1 1 −1
1 1 2 0 1 → 0 −1 2 −1 0 Abräumen der 1. Spalte.
0 1 2 1 2 0 1 2 1 2
0 0 1 1 1 0 0 1 1 1

1 2 0 1 1
0 1 2 1 2
→ 0 0 9 5 7 Abräumen der 2. Spalte.
0 0 4 0 2
0 0 1 1 1

1 2 0 1 1
0 1 2 1 2
Vertauschen der Zeilen und
→ 0 0 1 1 1
abräumen der 3. Spalte.
0 0 0 2 1
0 0 0 −4 −2

1 2 0 1 1
0 1 2 1 2
Abräumen der 4. Spalte,
→ 0 0 1 1 1
produziert eine Leerzeile.
0 0 0 2 1
0 0 0 0 0
Somit:         
1 0 0 0
  2   1   0   0 
        
  0   2   1   0  .
U +W =        
  1   1   1   2 
1 2 1 1
Das bedeutet dim(U + W ) = 4, also, mit der Dimensionsformel:

dim(U ∩ W ) = dim U + dim W − dim(U + W ) = 1.

Um eine Basis für U ∩ W zu finden, ist es geschickter mit den beschreibenden


Gleichungssystemen anstatt mit Basen zu rechnen. Wir bestimmen zuerst beschrei-
bende Gleichungssysteme von U und W :
Basisvektoren ~a1 , ~a2
1 2 0 1 1 1 2 0 1 1
→ von U als Zeilen,
2 0 1 3 1 0 −4 1 1 −1
abräumen der 1. Spalte.

1 2 0 1 1
→ Normieren der zweiten Zeile.
0 1 − 41 − 41 1
4

1 0 42 6
4
2
4
→ Abräumen der 2. Spalte.
0 1 − 14 − 41 1
4
14 Lineare Algebra

Daraus folgt, daß


     
−2 −6 −2
 1   1   −1 
     
~b1 =  4  , ~b2 =  0  , und ~b3 =  0 
     
 0   4   0 
0 0 4

eine Basis des Lösungsraums zu obigem Gleichungssystems bilden. Also ist A·~x = ~0
mit  
−2 1 4 0 0
A :=  −6 1 0 4 0 
−2 −1 0 0 4
ein lineares Gleichungssystem, das U beschreibt. Analog für W :

1 1 2 0 1 1 1 0 −2 −1 Basisvektoren ~a3 , ~a4 , ~a5


0 1 2 1 2 → 0 1 0 −1 0 von W als Zeilen,
0 0 1 1 1 0 0 1 1 1 abräumen der 3. Spalte.

1 0 0 −1 −1
→ 0 1 0 −1 0 Abräumen der 2. Spalte.
0 0 1 1 1

Daraus folgt, daß    


1 1
 1   0 
   
~b4 =  −1  , und ~b5 = 
 −1 

 
 1   0 
0 1

eine Basis des Lösungsraums zu obigem Gleichungssystem bilden. Also ist B ·~x = ~0
mit  
1 1 −1 1 0
B :=
1 0 −1 0 1
ein lineares Gleichungssystem, das W beschreibt.
Ein Vektor ~x liegt genau dann im Schnitt U ∩ W , wenn sowohl A · ~x = ~0 als
auch B · ~x = ~0 gilt. Das heißt, der Vektor ~x löst beide lineare Gleichungssysteme.
Werden daher die beiden Gleichungssysteme zu einem Gleichungssystem vereinigt,
so beschreibt dies den Schnittraum U ∩ W . Mit anderen Worten, wir bilden eine
neue Matrix C, indem wir die Matrizen A und B übereinandersetzen. Dann ist
C·~x = ~0 ein Gleichungssystem, das U ∩W beschreibt. Eine Basis des Lösungsraums
dieses Gleichungssystems ist eine Basis des Schnittraums U ∩ W . Konkret:

1 1 −1 1 0 1 0 −1 0 1
Matrix B über Matrix A,
1 0 −1 0 1 0 1 0 1 −1
vertauschen der 1. und 2.
−2 1 4 0 0 → 0 1 2 0 2
Zeile,
−6 1 0 4 0 0 1 −6 4 0
abräumen der 1. Spalte.
−2 −1 0 0 4 0 −1 −2 0 6
L 3 Basen, Dimension 15

1 0 −1 0 1
0 1 0 1 −1
→ 0 0 2 −1 3 Abräumen der 2. Spalte.
0 0 −6 3 7
0 0 −2 1 5

1 0 −1 0 1
0 1 0 1 −1
→ 0 0 2 −1 3 Abräumen der 3. Spalte.
7
0 0 0 0 2
0 0 0 0 8

1 0 −1 0 0
0 1 0 1 0 Normieren der 5.Zeile,
→ 0 0 2 −1 0 abräumen der 5. Spalte,
0 0 0 0 0 erzeugt eine Leerzeile.
0 0 0 0 1

1 0 0 − 21 0
Streichen der Leerzeile,
0 1 0 1 0
→ normieren der 3.Zeile,
0 0 1 − 21 0
abräumen der 3. Spalte.
0 0 0 0 1
Somit ist  
1
 −2 
 
~y = 
 1 

 2 
0
ein Lösungsvektor des zusammengefaßten Gleichungssystems. Also gilt
 
1
 −2 
 
U ∩W =   1  .
 
  2 
0

L 3.6 Dimensionsformel für Abbildungen


Ist V ein Vektorraum der Dimension n und ϕ: V → W eine lineare Abbildung,
so gilt:
dim ϕ(V ) = n − dim ker ϕ
Wird ϕ durch eine Matrix A beschrieben, so können dim ϕ(V ) und dim ker ϕ
durch den Rang und den Defekt der Matrix A ausgedrückt werden.
Für ϕ: Kn → Km : ~x 7→ A · ~x gilt:
dim ker ϕ = df A (Defekt)
dim ϕ(Kn ) = n − df A = rg A (Rang)
16 Lineare Algebra

L4 Koordinaten
Ist in einem Vektorraum eine Basis ausgewählt worden, so können jedem Vek-
tor Koordinaten zugeordnet werden. Somit kann jeder Vektorraum der Dimen-
sion n über K mit Kn identifiziert werden.
Gegeben sei ein Vektorraum V mit einer Basis B = {~b1 , . . . , ~bn }. Dann kann
jeder Vektor ~x ∈ V durch eine Linearkombination
n
X
~x = ui~bi
i=1

dargestellt werden, und  


u1
.
~u =  ..  ∈ Kn
un
ist durch ~x und B eindeutig bestimmt. Der Spaltenvektor ~u =: η(~x) heißt der
Koordinatenvektor von ~x bezüglich der Basis B.
Die Abbildung η: V → Kn : ~x 7→ ~u ist ein linearer Isomorphismus, d.h. linear
und bijektiv.

Beispiel:
     
1 1 1
1. R3 mit der Basis ~b1 =  1 , ~b2 =  −1 , ~b3 =  1 ;
  1 0 0 
6 1
~x =  2  hat den Koordinatenvektor η(~x) = ~u =  2 .
1 3
Zur Bestimmung von ~u löse das Gleichungssystem:
       
6 1 1 1
 2  = u1 ·  1  + u2 ·  −1  + u3 ·  1  .
1 1 0 0

bzw. in Matrixdarstellung:
     
1 1 1 u1 6
 1 −1 1  ·  u2  =  2 
1 0 0 u3 1

P
2. V := { ni=0 ai xi | ai ∈ K}, Vektorraum der Polynome über K vom Grad
≤ n mit der Basis {1, x, x2 , . . . , xn }. Dann gilt:
 
a0
X n  a1 
ai xi ) =  ..  .
 
η(
i=0
 . 
an
L 4 Koordinaten 17

L 4.1 Wechsel der Basis


Der Koordinatenvektor eines Vektors ~x hängt von der gewählten Basis B ab.
Wir untersuchen nun, wie sich der Koordinatenvektor ändert, wenn die Basis
gewechselt wird.
Angenommen ~u = η(~x) ist der Koordinatenvektor des Vektors x bezüglich
des Basis B = {~b1 , . . . , ~bn }. Weiterhin sei C = {~c1 , . . . , ~cn } eine andere Basis
von V , und wir kennen die Koordinatenvektoren η 0 (~bj ) der Basiselemente ~bj
bezüglich der Basis C. Es sei:
 
a1j X n
0 ~
η (bj ) =  .
..  d.h. ~
bj = aij~ci (∗)
anj i=1

Die Matrix
A = (aij )i=1,...,n
j=1,...,n

heißt die Matrix des Basiswechsels, und der Koordinatenvektor ~v := η 0 (~x)


bezüglich der Basis C berechnet sich wie folgt:
n
X
η 0 (~x) = A · η(~x), also vi = aij uj
j=1

Berechnung der Matrixkoeffizienten aij für V = Rn : Für festes j ist die


Beziehung (∗) ein lineares Gleichungssystem mit Unbekannten a1j , . . . , anj . Die
Koeffizientenmatrix C des Gleichungssystems mit den Spalten ~ci ist für alle
j dieselbe. Die Matrix A wird durch gleichzeitiges Lösen der n Systeme für
j = 1, . . . , n bestimmt. Die Lösungen sind eindeutig.
3
 V = R ,  
Beispiel:  
3 3 9
~b1 =  6 , ~b2 =  3 , ~b3 =  0 ,
0 3 3
     
1 2 0
~c1 = 0 , ~c2 = 1 , ~c3 = 1 
    
1 0 1
1 2 0 33 9 1 0 0 −3 1 5
0 1 1 63 0 wird durch 0 1 0 3 1 2
1 0 1 03 3 Zeilenumformungen 0 0 1 3 2 −2
| {z }|
{z } zu | {z }
~ci ~bi A
       
3 3 3 9
Für ~x =  3  =  6  −  3  + 1/3 ·  0 
−2 0 3 3
     
1 1 −7/3
ist η(~x) =  −1  und η 0 (~x) = A ·  −1  =  8/3 .
1/3 1/3 1/3
18 Lineare Algebra

Die Darstellung im neuen System ist also:


       
1 2 0 3
~x = −7/3 ·  0  + 8/3 ·  1  + 1/3 ·  1  =  3 
1 0 1 −2

L5 Lineare Abbildungen und Matrizen


Lineare Abbildungen von Kn nach Km lassen sich durch Matrizen beschreiben.
Andererseits läßt sich jeder Vektorraum der Dimension n durch die Wahl einer
Basis B koordinatisieren, d.h. mit Kn identifizieren. Dies bietet die Möglichkeit,
jeder linearen Abbildung zwischen endlichdimensionalen Vektorräumen eine
Matrix zuzuordnen.
Seien V, W Vektorräume über K und B = {~b1 , . . . , ~bn } eine Basis von V . Zu
n Vektoren w ~ 1, . . . , w
~ n ∈ W gibt es genau eine lineare Abbildung ϕ: V → W
mit ϕ(~bj ) = w~ j für j = 1, . . . , n. Nun sei C = {~c1 , . . . , ~cm } eine Basis von W ,
und A bestimmt durch:
m
X
ϕ(~bj ) = w
~j = aij~ci , A = (aij )i=1,...,m
i=1 j=1,...,n

Dann heißt A die Matrix von ϕ bezüglich B und C. Sie wird berechnet wie in
Kapitel L 4.
Ist ~t = η(~x) der Koordinatenvektor von ~x ∈ V bezüglich der Basis B, und
~u = η 0 (ϕ(~x)) der Koordinatenvektor von ϕ(~x) bezüglich C so gilt:

η 0 (ϕ(~x)) = A · η(~x), d.h. ~u = A · ~t.

Speziell für V = Kn und W = Km mit Standardbasen ~ei , ~ej ist ϕ(~ej ) die j-te
Spalte von A, und ϕ(~x) = A · ~x.

Bemerkung: Für V = W gilt: Die Matrix der Identität id: V → V bzgl. B, C


ist die Matrix des Basiswechsels.

Wie in Kapitel L 3 gilt für jede lineare Abbildung ϕ: V → W mit Matrix A:

rg ϕ := dim ϕ(V ) = rg A (Rang)


df ϕ := dim ker ϕ = df A (Defekt)
rg ϕ + df ϕ = n = dim V (Dimensionsformel)

Insbesondere ist: ϕ surjektiv ⇐⇒ rg ϕ = dim W = m,


ϕ injektiv ⇐⇒ df ϕ = 0;
ϕ bijektiv ⇐⇒ rg ϕ = m und df ϕ = 0
⇐⇒ m = n = rg ϕ.
L 5 Lineare Abbildungen und Matrizen 19

L 5.1 Räume von linearen Abbildungen


Die Menge der linearen Abbildungen von einem festen Vektorraum V in einen
festen Vektorraum W bildet ihrerseits auf natürliche Weise einen Vektorraum.
Seien V, W Vektorräume über K der Dimension n bzw. m. Dann ist

L(V, W ) := {ϕ | ϕ: V → W linear}

mit der Addition


ϕ + ϑ: ~x 7→ ϕ(~x) + ϑ(~x)

und Multiplikation mit Skalaren

c · ϕ: ~x 7→ c · ϕ(~x)

ein Vektorraum über K mit

dim L(V, W ) = n · m = dim V · dim W.

Ist nämlich B eine Basis von V und C eine Basis von W , und ist S die Matrix
von ϕ und T die Matrix von ϑ bezüglich B, C, so haben ϕ + ϑ bzw. c · ϕ die
Matrix S + T bzw. c · S bezüglich B, C, wobei

S + T := (sij + tij )i=1,...,m


j=1,...,n
c · S := (c · sij )i=1,...,m .
j=1,...,n

L 5.2 Produkt von Matrizen, Matrix einer Komposition ψ◦ϕ


Lineare Abbildungen können nicht nur addiert und mit einem Faktor multi-
pliziert werden, sondern auch hintereinander ausgeführt werden, vorausgesetzt
der Zielbereich der ersten Funktion ist der Urbildbereich der zweiten Funktion.
Werden die zugehörigen Matrizen betrachtet, so führt das zur Multiplikation
von Matrizen.
Seien U , V und W Vektorräume der Dimension n, m bzw. l mit festen
Basen A, B bzw. C. Bezüglich dieser Basen habe

ϕ : U →V die Matrix R = (rjk )j=1,...,m


k=1,...,n
ψ : V →W die Matrix S = (sij )i=1,...,l
j=1,...,m

Dann hat ψ ◦ ϕ bezüglich A, C die Matrix T = (tik )i=1,...,l = S · R mit


k=1,...,n

m
X
tik := sij rjk
j=1
20 Lineare Algebra

Die Spaltenzahl von S muß mit der Zeilenzahl von R übereinstimmen! Sche-
matisch sieht die Multiplikation wie folgt aus:
x← n →


 
 
 

 k R 

 
m 
 
y
x← →  


 i   tik 
l    T 

 S   
y

Spezialfall: U = V = W = Kn mit Standardbasis:


dann ist ϕ(~x) = R · ~x,
ψ(~y) = S · ~y,
(ψ ◦ ϕ)(~x) = (S · R) · ~x.

Die Matrizenmultiplikation ist assoziativ: T · (S · R) = (T · S) · R, aber nicht


kommutativ. Das Neutralelement ist die n-reihige Einheitsmatrix:
 
1 0
..
En :=  . 
0 1
Es gilt En · A = A · En = A.
Bezüglich der bereits bekannten Operationen der Addition zweier Matrizen
und der Multiplikation einer Matrix mit einem Faktor verhält sich die Matri-
zenmultiplikation wie folgt:

R · (S + T ) = R · S + R · T,
(R + S) · T = R · T + S · T,
R · (a · S) = a · (R · S).

Bezüglich fester Basen B und C von V gilt:


Die n×n-Matrix S von ϕ: V → V hat eine Inverse S −1 (d.h. S ·S −1 = S −1 ·S =
En ) ⇐⇒ ϕ ist bijektiv
⇐⇒ rg S = n
⇐⇒ df S = 0.
In diesem Fall heißt S regulär oder invertierbar und S −1 ist die Matrix von
ϕ−1 bezüglich C, B.
Die regulären n × n-Matrizen bilden bezüglich der Multiplikation eine Gruppe
mit Neutralelement En .
Die Berechnung der inversen Matrix S −1 erfolgt durch simultanes Lösen von
n linearen Gleichungssystemen, ähnlich wie beim Basiswechsel (L 4.1):

S kEn ⇒ En kS −1
L 5 Lineare Abbildungen und Matrizen 21

Beispiel:  
1 0 1
S = 1 1 1
1 2 3
Das simultane Lösen der Gleichungssysteme erfolgt schematisch mit dem Gauß-
Algorithmus:

1 0 1 1 0 0 1 0 1 1 0 0
1 1 1 0 1 0 −→ 0 1 0 −1 1 0
1 2 3 0 0 1 0 2 2 −1 0 1

1 0 1 1 0 0
−→ 0 1 0 −1 1 0
0 0 2 1 −2 1

1 0 1 1 0 0
−→ 0 1 0 −1 1
0
0 0 1 1/2 −1 1/2

1/2 1 −1/2
1 0 0
−→ −1 1
0 1 0 0
0 0 1 1/2 −1 1/2

Die zu S inverse Matrix lautet also:


 
1/2 1 −1/2
S −1 =  −1 1 0 
1/2 −1 1/2

Bemerkung: Die Matrix S des Basiswechsels B → C ist invertierbar und S −1


ist die Matrix des Wechsels C → B.

L 5.3 Matrix von ϕ: V → V bezüglich verschiedener Basen


Die Matrix einer linearen Abbildung hängt nicht nur von der Abbildung son-
dern auch von der Wahl der Basen ab. Wir wollen natürlich wissen, wie sich die
Matrix ändert, wenn zu anderen Basen übergegangen wird. Wir beschränken
unsere Betrachtungen auf den Fall von linearen Abbildungen innerhalb eines
Vektorraumes.
Seien B und C Basen des Vektorraumes V und ϕ: V → V eine lineare
Abbildung mit Matrix S bezüglich B, B und Matrix T bezüglich C, C. Ferner
sei X die Matrix des Basiswechsels B → C. Dann ist X invertierbar und es
gilt:
T = X · S · X −1
Die Matrizen S und T heißen in diesem Falle ähnlich.
22 Lineare Algebra

L6 Determinanten
Eine Methode zu entscheiden, ob eine n × n-Matrix S invertierbar ist oder
nicht, ist über den Gauß-Algorithmus den Rang der Matrix zu bestimmen.
Eine andere Möglichkeit bietet die Determinante. Bevor die Determinante für
n × n-Matrizen bzw. lineare Abbildungen eines Vektorraums definiert werden
kann, muß etwas Vorarbeit geleistet werden.

L 6.1 Die symmetrische Gruppe


Die Permutationen der Menge N = {1, . . . , n} (d.h. die bijektiven Abbildun-
gen N → N ) bilden die symmetrische Gruppe Σn . Die Gruppe Σn hat n!
Elemente und ist (für n > 2) nicht kommutativ. Ein Element σ ∈ Σn schreiben
wir in der Form  
1 2 ··· n
σ= .
σ(1) σ(2) · · · σ(n)
Beispiel:    
1 2 3 4 1 2 3 4
n=4: σ := , τ := ,
3 4 1 2 1 2 4 3
   
1 2 3 4 1 2 3 4
σ◦τ = , τ ◦σ = 6= σ ◦ τ.
3 4 2 1 4 3 1 2
Jedes σ ∈ Σn kann auf viele Arten als Produkt einer Anzahl tσ von Ver-
tauschungen dargestellt werden, allerdings ist diese Anzahl entweder immer
gerade oder immer ungerade. Die Anzahl fσ der Fehlstände (d.h. der Paare
i < j mit σ(i) > σ(j)) ist im Gegensatz zu tσ eindeutig bestimmt. Die Zahl
sgn(σ) := (−1)tσ = (−1)fσ heißt Signum von σ.

Beispiele:
1. In obigem Beispiel ist sgn(σ) = 1, sgn(τ ) = sgn(τ ◦ σ) = sgn(σ ◦ τ ) = −1.
 
1 2 3 ... r −1 r
2. Ein r-Zyklus hat das Signum (−1)r−1 .
2 3 4 ... r 1
Für das Signum und die Komposition von Permutationen gilt:
sgn(σ1 ◦ σ2 ) = sgn(σ1 ) · sgn(σ2 ).

L 6.2 Definition der Determinante


Matrizen, bei denen die Anzahl der Spalten gleich der Anzahl der Zeilen ist,
heißen quadratisch. Eine quadratische Matrix
A = (aik )i=1,...,n mitaik ∈ K
k=1,...,n

kann als ein Element des (Kn )n ausgefaßt werden. Dazu wird
 
a1k
.
~xk =  ..  ∈ Kn
ank
L 6 Determinanten 23

gesetzt und
A = (~x1 , ..., ~xn )
als Zeilenvektor mit Einträgen aus Kn betrachtet.

Definition: Eine Funktion


det: (Kn )n → K
heißt Determinante, wenn sie folgende Eigenschaften hat:
1. Die Funktion det ist multilinear, d.h.
det(. . . , r · ~xk + s · ~x0k , . . .) = r · det(. . . , ~xk , . . .) + s · det(. . . , ~x0k , . . .)
(Punkte stehen für unveränderte ~xi .)
2. Ist k 6= l und ~xk = ~xl , so ist det(. . . , ~xk , . . . , ~xl , . . .) = 0.
3. det En = 1.
Aus diesen Regeln folgt für jede Permutation σ ∈ Σn :
det(~xσ(1) , . . . , ~xσ(n) ) = sgn(σ) · det(~x1 , . . . , ~xn )
und:
X
det(aik )i=1,...,n = sgn(σ) · a1σ(1) · · · anσ(n) (∗)
k=1,...,n
σ∈Σn

Es läßt sich zeigen, daß die durch die Formel (∗) gegebene Funktion tatsächlich
die Eigenschaften 1 – 3 hat. Es gibt also genau eine solche Funktion ,,Deter-
minante“.
Zur Berechnung ist die Formel (∗) meist untauglich. Wir werden in den
Abschnitten L 6.4 und L 6.5 handlichere Methoden kennenlernen.
Spezialfälle n ≤ 3: (Hier kann tatsächlich Formel (∗) zur Berechnung her-
angezogen werden.)

n = 1: det(a) = a
 
a11 a12 a a12
n = 2: det = 11 = a11 · a22 − a21 · a12
a21 a22 a21 a22

n = 3: Sarrus’sche Regel (nur für 3 × 3-Matrizen):

a11 a12 a13 a11 a12


a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
a11 · a22 · a33 + a12 · a23 · a31 + a13 · a21 · a32
=
−a31 · a22 · a13 − a32 · a23 · a11 − a33 · a21 · a12

Für n ≥ 4 gibt es keine solche Regel!


24 Lineare Algebra

Die transponierte Matrix AT einer Matrix A erhält man durch Spiegelung


an der Hauptdiagonalen. D.h.:

AT := (bij )i=1,...,n wo bij = aji


j=1,...,n

 T  
1 2 1 3
Beispiel: =
3 4 2 4

L 6.3 Eigenschaften der Determinante


1. det A 6= 0 ⇐⇒ A invertierbar
⇐⇒ rg A = n
⇐⇒ df A = 0;

2. det A = det AT (d.h., alles, was mit Spalten geht, geht auch mit Zeilen)

3. Zeilenoperationen: det A ungeändert bei Addition von Vielfachen einer


Zeile zu einer anderen.
Vorzeichenwechsel bei Vertauschung zweier Zeilen.
det A bekommt einen Faktor c bei Multiplikation einer Zeile mit c.
Analog für Spaltenoperationen.

4. det(c · A) = cn · det A

5. det(A · B) = (det A) · (det B)


det A−1 = (det A)−1

6. Für die Determinante der Summe zweier Matrizen gibt es keine Formel!

Mit Eigenschaft 5 und den Ergebnissen aus Abschnitt L 5.3 kann auch für
lineare Abbildungen eines Vektorraums in sich eine Determinante definiert
werden. Ist V ein n-dimensionaler Vektorraum mit den Basen B und C, und
ist ϕ: V → V eine lineare Abbildung mit der Matrix S bezüglich B, B und der
Matrix T bezüglich C, C so gilt:

det T = det(X · S · X −1 ) = det X · det S · (det X)−1 = det S

Dabei ist X die Matrix des Basiswechsels. Das heißt, die Determinante ähnli-
cher Matrizen ist gleich. Daher kann die Determinante einer linearen Abbildung
ϕ: V → V wie folgt definiert werden:

det ϕ = det A

wobei A die Matrix von ϕ bezüglich einer beliebigen Basis von V ist. Es gilt:

det ϕ 6= 0 ⇐⇒ ϕ bijektiv

Formel (∗) taugt selten zur Berechnung einer Determinante. Es gibt jedoch
zwei Verfahren, die, insbesondere wenn sie kombiniert werden, mit weniger
Aufwand zum Ziel gelangen.
L 6 Determinanten 25

L 6.4 1. Verfahren zur Determinantenberechnung


Aus Eigenschaft 3 ergibt sich folgendes Verfahren zur Determinantenberech-
nung: Für Dreiecksmatrizen
 
a11 ∗
A=  .. ist det A = a11 · · · · · ann ,
. 
0 ann

d.h. keine Permutation σ 6= id liefert einen Beitrag. Eine beliebige Matrix A


wird durch Zeilen- oder Spaltenoperationen in diese Form gebracht. Dabei muß
über die Faktoren -1 (bei Vertauschungen) und c buchgeführt werden!

Beispiel:
   
1 3 0 0 1 3 0 0
0 2 1 3  0 2 1 3 1. Spalte mit Zeilen-

1 1 →  
1 1  0 −2 1 1 operationen leerräumen.
2 4 3 1 0 −2 3 1
 
1 3 0 0
0 2. Spalte mit Zeilen-
2 1 3
→ 
0
 operationen unter der
0 2 4
Diagonalen leerräumen.
0 0 4 4
 
1 3 0 0 Mit Zeilenoperationen
0 2 1 3  Dreiecksgestalt erreicht.
→ 
0

0 2 4  Jetzt Diagonale ausmultipli-
0 0 0 −4 zieren.

⇒ det A = −16

L 6.5 2. Verfahren zur Determinantenberechnung;


Laplace-Entwicklung
Für eine n × n-Matrix A sei Aij die (n − 1) × (n − 1)-Matrix, die aus A durch
Streichen der i-ten Zeile und der j-ten Spalte entsteht, und

Ad(aij ) := (−1)i+j · det Aij

die Adjunkte von aij . Dann hat man die beiden ,,Entwicklungsformeln“ für
det A, durch die die Berechnung von det A schrittweise auf die Berechnung von
2 × 2 - oder 3 × 3 - Determinanten zurückgeführt werden kann:
P
Entwicklung nach der k-ten Zeile: det A = nj=1 akj · Ad(akj )
P
und nach der l-ten Spalte: det A = ni=1 ail · Ad(ail )
26 Lineare Algebra

Dieses Verfahren ist vor allem dann von Nutzen, wenn eine Spalte oder eine
Zeile viele Nullen enthält.

Beispiel: (Kombination beider Verfahren)



1 1 1 2 1 1 1 2

2 2
Abräumen der 1. Spalte mit
3 1 0 0 1 −3

2 4 = 1. Verfahren. Dadurch viele
3 2 0 2 1 −2

3 3
Nullen in 1. und 2. Spalte.
1 2 0 0 −2 −4

0 1 −3
Entwickeln nach 1. Spalte
= 2 1 −2
0 −2 −4 mit 2. Verfahren.


1 −3
= −2 · Direkt berechnen.
−2 −4

= −2 · (−4 − 6) = 20

L 6.6 Folgerungen aus dem Entwicklungssatz


Der Entwicklungssatz ist nicht nur von praktischem, sondern auch von theo-
retischem Nutzen. Aus ihm folgt:

Pn det A für k = l
1. i=1 Ad(ail ) · aik = 0 für k 6= l
1
2. Für det A 6= 0 erhält man A−1 = X durch xli = Ad(ail ) ·
det A
Vertauschung der Indizes beachten!
3. Cramersche Regel für lineare Gleichungssysteme A · ~x = ~b: (nur
für A quadratisch mit det A 6= 0 !)
Die eindeutige Lösung ist ~x mit xi = det Ai / det A, wobei Ai aus A
hervorgeht, wenn man die i-te Spalte durch ~b ersetzt.
Beachte: Folgerungen 2 und 3 sind wichtig für theoretische Zwecke, aber (in
der Regel) ungeeignet zur praktischen Berechnung! Folgerung 2 erfordert Be-
rechnung von n2 + 1 Determinanten, Folgerung 3 die von n + 1 Determinanten.
Ein Gauß-Algorithmus macht nicht mehr Aufwand als 2 Determinanten!

L7 Eigenwerte, Eigenvektoren
Bei linearen Abbildungen spielen oft solche Vektoren eine besondere Rolle,
die auf ein Vielfaches ihrer selbst abgebildet werden. Solche Vektoren nennt
man die Eigenvektoren der linearen Abbildung und die Streckfaktoren sind die
zugehörigen Eigenwerte.
L 7 Eigenwerte, Eigenvektoren 27

Konkreter, gegeben sei eine lineare Abbildung ϕ: V → V mit Matrix A


bezüglich Basis B, B. Für c ∈ K wird folgendes lineare Gleichungssystem be-
trachtet:
ϕ(~x) = c · ~x bzw. (ϕ − c · id)(~x) = ~0
oder, in Koordinaten (~u = η(~x)):

A · ~u = c · ~u bzw. (A − c · En ) · ~u = ~0

Die Zahl c heißt Eigenwert von ϕ bzw. A ⇐⇒ das Gleichungssystem hat


eine Lösung 6= ~0
⇐⇒ df(A − c · En ) > 0
⇐⇒ det(A − c · En ) = 0.
~ ~
Die Lösungen ~x 6= 0 bzw. ~u 6= 0 heißen Eigenvektoren von ϕ bzw. von A
zum Eigenwert c. Zusammen mit ~0 bilden sie den Vektorraum ker(ϕ − c · id)
bzw. ker(~u 7→ (A − c · En ) · ~u) der Dimension nc := df(A − c · En ).
Während per Definition der Nullvektor ~0 kein Eigenvektor sein kann, so ist
Null als Eigenwert zugelassen. Es gilt:
Null ist Eigenwert ⇐⇒ df A > 0
⇐⇒ A nicht bijektiv

L 7.1 Bestimmung der Eigenwerte


Eine Zahl c ∈ K ist Eigenwert von A genau dann, wenn det(A − c · En ) = 0.
Somit sind die Eigenwerte von A genauPdie Nullstellen des charakteristischen
Polynoms p(t) := det(A − t · En ) = nk=0 ak · tk . Dies ist ein Polynom in t.

Es gilt: a0 = det A,
an = (−1)n ,
Pn
an−1 = (−1)n−1 · SpurA mit SpurA = k=1 akk .

Beispiele:
 
−3 −2 4
1. A =  −6 −1 6 
−5 −2 6
−3 − t −2 4

det(A − t · E3 ) = −6 −1 − t 6
−5 −2 6− t
= −t3 + 2 · t2 + t − 2
= −(t − 2)(t2 − 1),
Also: c1 = 2, c2 = 1, c3 = −1 sind die Eigenwerte von A.
Die zu ci gehörenden Eigenvektoren ~ui erhält man durch Lösen von
(A − ci · E3 ) · ~ui = ~0 :
u1 = a · (0, 2, 1), u2 = b · (1, 0, 1), u3 = d · (1, 1, 1); a, b, d ∈ K \ {0}.
28 Lineare Algebra
 
cos(γ) − sin(γ)
2. A = (Drehung um Winkel γ)
sin(γ) cos(γ)

hat für |cos γ| 6= 1 keine reellen Eigenwerte, aber komplexe Eigenwerte


cos γ ± j · sin γ.

Eigenvektoren ~u1 , . . . , ~uk zu paarweise verschiedenen Eigenwerten c1 , . . . , ck


sind stets linear unabhängig. Hat A genau die Eigenwerte c1 , . . . , cr und ist
nc1 + · · · + ncr = n = dim V , so gibt es eine Basis S = {~u1 , . . . , ~un } aus Eigen-
vektoren von A. Dies ist beispielsweise immer dann der Fall, wenn r = n gilt
und die Eigenwerte ci paarweise verschieden sind.
In diesem Fall beschreibt die Matrix U mit den Spalten ~ui den Wechsel von
S zur Standardbasis von V = Kn und es gilt:
 
c1 0
U −1 · A · U =  ..  = Matrix von ~u 7→ A · ~u bezüglich S.
.
0 cr

(Die ci können mehrfach auftreten!) A ist also ähnlich zu einer Diagonalma-


trix.
Generell gilt: Ähnliche Matrizen gehören zur selben linearen Abbildung aber
verschiedenen Basen, also haben sie gleiches charakteristisches Polynom, glei-
che Determinante, dieselben Eigenwerte und gleiche Spur.

L8 Skalarprodukt, Länge, Orthogonalität


Viele Vektorräume haben noch zusätzliche Struktur. Im Anschauungsraum R3
beispielsweise haben Vektoren eine Länge und zwei Vektoren schließen einen
Winkel ein. In vielen anderen Vektorräumen über R lassen sich Länge und
Winkel über ein Skalarprodukt oder eine Eichung einführen.

Definition: Sei V ein Vektorraum über R. Ein Skalarprodukt ist eine Ab-
bildung
V × V → R: (~x, ~y) 7→ ~x · ~y = <~x, ~y>
mit:

1. ~x · ~y = ~y · ~x (Symmetrie)

2. (a · ~x + b · ~y) · ~z = a · (~x · ~z) + b · (~y · ~z) (Linearität)

3. ∀~x 6= ~0: ~x2 := ~x · ~x > 0 (positive Definitheit)

Das Skalarprodukt heißt Skalar produkt, weil es zwei Vektoren auf einen Skalar
abbildet. Für R3 gibt es auch ein Vektorprodukt (L 8.7), bei dem zwei Vektoren
auf einen Vektor abgebildet werden.
L 8 Skalarprodukt, Länge, Orthogonalität 29

Beispiele:
P P
1. ~b1 , . . . , ~bn Basis, ~x = ni=1 xi · ~bi ; ~y = ni=1 yi · ~bi ,
n
X
~x · ~y := xi · y i
i=1


0 für i 6= j
Dann ist ~bi · ~bj = δij , wobei δij :=
1 für i = j
Spezialfall: V = Rn , ~bP i = ~ei Standardbasis. Dann ist das Standardskalar-
n
T
produkt ~x · ~y = ~x · ~y = i=1 xi yi , wobei ~xT · ~y als Produkt einer einreihigen
mit einer einspaltigen Matrix zu verstehen ist.

2. V = Vektorraum der stetigen Funktionen [a, b] → R,


Z b
<f, g> := h(x) · f (x) · g(x) dx
a

mit einer ,,Eichfunktion“ h, wobei h(x) > 0 für x ∈ [a, b]. Die Funktion
h(x) ≡ 1 beispielsweise ist eine solche Eichfunktion.

Mit dem Skalarprodukt kann nun die Länge |~x| eines Vektors wie folgt definiert
werden: √
|~x| := ~x2
Diese Länge erfüllt die Normgesetze, d.h.:

1. |~x| ≥ 0, |~x| = 0 ⇐⇒ ~x = ~0
~x ~y
2. |c · ~x| = |c| · |~x|

3. |~x + ~y| < |~x| + |~y| (Dreiecksungleichung) ~x + ~y

Letzteres folgt aus der Cauchy-Schwarz’schen Ungleichung:

|~x · ~y| ≤ |~x| · |~y|

(,,= “ gilt hierbei, wenn ~x und ~y linear abhängig sind.)


Jede Abbildung V → R mit den Eigenschaften 1 – 3 heißt Norm.

L 8.1 Winkel zwischen Vektoren ~x, ~y ∈ V \ {~0}


Neben der Länge von Vektoren kann mit einem Skalarprodukt auch der Winkel
zwischen zwei Vektoren definiert werden. Der Winkel ^(~x, ~y) zwischen zwei
Vektoren ~x, ~y ∈ V \ {~0} ist definiert durch:

~x · ~y
^(~x, ~y) := arccos ∈ [0, π]
|~x| · |~y |
30 Lineare Algebra

also:
~x · ~y = |~x| · |~y | · cos(~x, ~y)
Zwei Vektoren ~x, ~y heißen orthogonal (~x ⊥ ~y ) wenn ^(~x, ~y) = π/2 oder ~x = ~0
oder ~y = ~0, also:
~x ⊥ ~y ⇐⇒ ~x · ~y = 0.

Für Skalarprodukte gelten folgende klassische Sätze:

Kosinussatz: |~x − ~y|2 = |~x|2 + |~y |2 − 2 · |~x| · |~y| · cos(~x, ~y)


Satz von Pythagoras: ~x ⊥ ~y ⇒ |~x − ~y|2 = |~x|2 + |~y|2

Paarweise orthogonale Vektoren ~x1 , . . . , ~xk 6= ~0 sind stets linear unabhängig.


Eine Basis {f~1 , . . . , f~n } von V heißt Orthonormalbasis wenn f~i · f~j = δij ,
d.h. die f~i haben die Länge 1 und sind paarweise orthogonal.
Beispiele s. oben (1).
Bezüglich einer Orthonormalbasis lassen sich Koordinaten besonders einfach
bestimmen. Es gilt:
n
X
~x = xi · f~i mit xi = ~x · f~i = |~x| · cos(~x, f~i )
i=1

L 8.2 Orthonormalisierung nach E. Schmidt


Orthonormalbasen sind also sehr zweckmäßig. Mit dem folgenden Verfahren
läßt sich aus einer gegebenen Basis ~b1 , . . . , ~bn eine Orthonormalbasis f~1 , . . . , f~n
konstruieren, und zwar so, daß für k = 1, . . . n stets [f~1 , . . . , f~k ] = [~b1 , . . . , ~bk ]
gilt. Dies bedeutet, daß beide Übergangsmatrizen dreieckig sind.
1. Setze f~1 := ~b1 /|~b1 |,

2. Sind f~1 , . . . , f~k mit den verlangten Eigenschaften konstruiert, so setze


zunächst
k
X
~
~ak+1 := bk+1 − (~bk+1 · f~i ) · f~i .
i=1

Dann ist ~0 6= ~ak+1 ⊥ f~1 , . . . , f~k und [~b1 , . . . , ~bk+1 ] = [f~1 , . . . , f~k , ~ak+1 ]
Schließlich setze f~k+1 := ~ak+1 / |~ak+1 |.

L 8.3 Orthogonale Komplemente


Für Teilmengen Für M, N ⊂ V schreibe M ⊥ N falls für m~ ∈ M und ~n ∈ N

stets m
~ ⊥ ~n gilt. Das orthogonale Komplement M := {~x ∈ V | ~x ⊥ M }
ist dann ein Unterraum von V , und es gilt M ⊥ = [M ]⊥ .
Für Unterräume U eines endlichdimensionalen Vektorraums V gilt:
V = U + U⊥ und U ∩ U ⊥ = {~0},
also

dim U ⊥ = dim V − dim U und (U ⊥ ) = U.
L 8 Skalarprodukt, Länge, Orthogonalität 31

L 8.4 Orthogonale Projektion in einen Unterraum U


Ist U ein Unterraum eines Vektorraums mit einem Skalarprodukt, so heißt ein
Vektor ~xU ∈ U orthogonale Projektion von ~x ∈ V nach U , falls ~x = ~xU + ~v
mit ~v ⊥ U ist.
~x
~v

U ~xU

Der Vektor ~xU ist der eindeutig bestimmte Vektor aus U mit dem kürzesten
Abstand zu ~x, d.h. für ~u ∈ U \ {~xU } ist stets |~x − ~u| > |~x − ~xU |. Daher heißt
~xU auch das Proximum von ~x in U . Falls U eine Orthonormalbasis f~1 , . . . , f~k
besitzt, existiert das Proximum und wird dargestellt durch:
k
X
~xU = (~x · f~i ) · f~i
i=1

L 8.5 Skalarprodukt für komplexe Vektorräume


Bis jetzt waren alle Betrachtungen in diesem Abschnitt reell. Damit in komple-
xen Vektorräumen ein Skalarprodukt ebenfalls eine Länge induziert, werden
Skalarprodukte anders definiert: Man ersetzt in der ,,reellen“ Definition die
Symmetrieforderung ~x · ~y = ~y · ~x durch ~x · ~y = ~y · ~x. Insbesondere ist dann ~x · ~x
stets reell, sodaß die Forderung ~x · ~x > 0 für ~x 6= ~0 Sinn hat.
P
Beispiel: ~x, ~y ∈ Cn , ~x · ~y := ni=1 xi · y i Standardskalarprodukt in Cn

L 8.6 Elementare Analytische Geometrie


Ein n-Tupel (~b1 , . . . , ~bn ) von Vektoren aus Rn heißt Rechtssystem, wenn die
Determinante der Matrix mit den Spalten ~b1 , . . . , ~bn positiv ist. Insbesondere
ist jedes Rechtssystem eine Basis.

Beispiel: (~e1 , ~e2 , ~e3 , . . . , ~en ) ist ein Rechtssystem,


denn det(~e1 , ~e2 , ~e3 , . . . , ~en ) = det En = 1.
(~e2 , ~e1 , ~e3 , . . . , ~en ) ist kein Rechtssystem,
denn det(~e2 , ~e1 , ~e3 , . . . , ~en ) = − det(~e1 , ~e2 , ~e3 , . . . , ~en ) = −1.
32 Lineare Algebra

L 8.7 Vektorprodukt (nur in R3 )


Für ~x, ~y ∈ R3 wird das Vektorprodukt ~x × ~y definiert durch:

~x × ~y := (x2 y3 − y2 x3 ) · ~e1 − (x1 y3 − y1 x3 ) · ~e2 + (x2 y2 − y2 x2 ) · ~e3



x1 y1 ~e1

= x2 y2 ~e2
x3 y3 ~e3

~x × ~y ist bestimmt durch die Identität

(~x × ~y) · ~z = det(~x, ~y, ~z),

aus der sich folgende Aussagen ergeben:

1. ~x × ~y ⊥ ~x, ~y

2. ~x × ~y = −(~y × ~x)

3. (a~x + b~y ) × ~z = a(~x × ~z) + b(~y × ~z)

4. ~x × ~y = ~0 ⇐⇒ ~x, ~y abhängig

5. ~x, ~y, ~x × ~y ist Rechtssystem, falls ~x, ~y unabhängig.

|~x × ~y| = |~x| · |~y| · sin(~x, ~y)


6. = Fläche des aufgespannten Parallelogramms.

7. (~x × ~y) × ~z = (~x · ~z) · ~y − (~y · ~z) · ~x



~u · ~x ~v · ~x
8. (~u × ~v ) · (~x × ~y ) =

~u · ~y ~v · ~y

~x × ~y

~y
|~x × ~y |
~x

~y × ~x
L 8 Skalarprodukt, Länge, Orthogonalität 33

L 8.8 Geraden und Ebenen in Rn


Ist ein Skalarprodukt auf Rn gegeben, so können auch Winkel und Abstand
zwischen Geraden und Ebenen definiert werden. Eine Gerade ist ein ver-
schobener 1-dimensionaler Unterraum und eine Ebene ist ein verschobener
2-dimensionaler Unterraum.
Eine Gerade G durch einen Punkt p hat also die Form G = p~ +[~x] = p~ +G0
wo G0 := [~x] die zu G parallele Gerade durch den Nullpunkt ist. Die Gerade
durch p~ und q~ erhält man durch: G = p~ + [~q − p~]
Eine Ebene E hat die Gestalt E = p~ + [~u, ~v ] = p~ + E0 , wo E0 := [~u, ~v ]
der zu E parallele Unterraum ist. Die Ebene durch drei Vektoren p~, ~q, ~r erhält
man durch: E = p~ + [~q − p~, ~r − p~]
Ein Normaleneinheitsvektor ~n einer Geraden G oder Ebene E ist ein
Vektor der Länge 1, der senkrecht auf G0 oder E0 steht. D.h.: ~n ⊥ G0 bzw.
~n ⊥ E0 mit |~n| = 1
Für Gerade in R2 und Ebenen in R3 lassen sich Normaleneinheitsvektoren
direkt berechnen:  
−x2
2
G = p~ + [~x] ⊂ R : ~n = · |~x|−1
x1
G = {~z ∈ R2 | ~z · ~n = p~ · ~n}

~u × ~v
E = p~ + [~u, ~v ] ⊂ R3 : ~n =
|~u × ~v |
E = {~z ∈ R3 | ~z · ~n = p~ · ~n}

Ist ~n ∈ Rn ein Vektor der Länge 1 und p~ ∈ Rn ein beliebiger Vektor, so ist

H := {~z ∈ Rn | ~z · ~n = p~ · ~n}

die Hyperebene durch p~, mit Normalenvektor ~n. Somit ist H ein verschobener
(n − 1)-dimensionaler Unterraum mit p~ ∈ H. Jede Hyperebene läßt sich so
darstellen. Die Darstellung heißt die Hesse Normalform einer Hyperebene.

L 8.9 Winkel von Geraden und Ebenen in Rn


Der Winkel zwischen zwei Geraden Gi = p~i + [~xi ], i = 1, 2 ist definiert durch:
π
^(G1 , G2 ) := min{^(~x1 , ~x2 ), ^(~x1 , −~x2 )} ∈ [0, ]
2
Der Winkel zwischen zwei Ebenen E1 , E2 ist definiert durch:

^(E1 , E2 ) := ^([~n1 ], [~n2 ])

Der Winkel zwischen einer Geraden G und einer Ebenen E ist definiert durch:
π
^(E, G) := − ^([~nE ], G)
2
34 Lineare Algebra

L 8.10 Abstand
Der Abstand eines Vektors ~q zu einer Menge X ⊂ V ist definiert durch:

d(~q, X) := min{|~q − ~z| | ~z ∈ X}

Der Abstand zwischen zwei Mengen X, Y ⊂ V ist definiert durch:

d(X, Y ) := min{|~x − ~y| | ~x ∈ X, ~y ∈ Y }

Der Abstand eines Vektors q~ zu einer Hyperebene läßt sich über die Hesse
Normalform berechnen. D.h. für X = {~z ∈ Rn | ~z · ~n = k} mit |~n| = 1 ist
d(~q, X) = |~n · ~q − k|.
Zwei Geraden Gi = p~i + [~xi ], i = 1, 2, in R3 heißen windschief , wenn sie
nicht parallel sind und sich nicht schneiden. Für windschiefe Geraden sind
die Vektoren ~x1 und ~x2 linear unabhängig. Der Abstand zweier windschiefer
Geraden berechnet sich zu:
~x1 × ~x2
d(G1 , G2 ) = |(~
p1 − p~2 ) · ~n| mit ~n :=
|~x1 × ~x2 |

L9 Orthogonale Abbildungen, Drehungen


Lineare Abbildungen sind die strukturerhaltenden Abbildungen zwischen Vek-
torräumen. Haben die betrachteten Vektorräume noch zusätzliche Struktur,
so will man nur solche lineare Abbildungen betrachten, die diese Struktur
ebenfalls invariant lassen. Speziell, wenn reelle Vektorräume mit einem Ska-
larprodukt betrachtet werden, so sind die linearen Abbildungen, die dieses
Skalarprodukt invariant lassen, von besonderem Interesse. Diese Abbildungen
heißen orthogonale Abbildungen. Wir betrachten also V = Rn mit dem Stan-
dardskalarprodukt. Eine lineare Abbildung ϕ: Rn → Rn und die zugehörige
Matrix A heißen orthogonal, falls ϕ längen- und winkeltreu ist, d.h.:

∀~x, ~y: <~x, ~y> = <A · ~x, A · ~y> (= <ϕ(~x), ϕ(~y)>)

Gleichwertige Beschreibungen dieses Sachverhalts sind:

1. AT · A = En , d.h. AT = A−1 .

2. {ϕ(~e1 ), . . . , ϕ(~en )} ist eine Orthonormalbasis.

3. Für die Spalten ~ai von A gilt ~ai · ~aj = δij .

4. Ebenso für die Zeilen.

Ist A eine orthogonale Matrix so gilt wegen 1:

1 = det En = det(AT · A) = det AT · det A = det A · det A = (det A)2

also:
det A ∈ {1, −1}
L 9 Orthogonale Abbildungen, Drehungen 35

Ist det A = −1 so heißt A eine uneigentliche orthogonale Matrix,


ist det A = 1 so heißt A eine eigentliche orthogonale Matrix und die zugehöri-
ge Abbildung ϕ eine Drehung.
Da eine orthogonale Abbildung längentreu ist, kommen als Eigenwerte nur
1 und −1 in Frage. Aus A · ~x1 = ~x1 und A · ~x2 = −~x2 folgt ~x1 ⊥ ~x2 .

Für n = 2 und n = 3 lassen sich alle orthogonalen Abbildungen überblicken:

n = 2: Sämtliche orthogonalen 2 × 2-Matrizen sind von folgender Gestalt:


 
cos t − sin t Drehung um den Winkel t ∈ [0, 2π]
det A = 1:
sin t cos t (gegen den Uhrzeigersinn!)
   
cos t sin t cos( 2t )
det A = −1: Spiegelung an der Geraden
sin t − cos t sin( 2t )

n = 3: Jede orthogonale Abbildung von R3 ist entweder eine Drehung um eine


Achse [~a] um einen Winkel t (mit cos t = 21 · (Spur A − id)), oder Produkt
einer solchen Drehung mit der Spiegelung an ~a⊥ . Genau im letzteren Fall
ist det A = −1.
Es gibt eine Orthonormalbasis F = {f~1 , f~2 , f~3 } von R3 so, daß ϕ bezüglich
F folgende Matrix hat:
 
1 0 0
Drehung um f~1 :  0 cos t − sin t 
0 sin t cos t
 
−1 0 0
Drehspiegelung:  0 cos t − sin t 
0 sin t cos t

Als Spezialfälle t = π bzw. t = 0 erhält man die Spiegelung an [f~1 ] bzw.



an {f~1 } .

Jede Drehung von R2k+1 hat eine Achse (d.h. hat Eigenwert +1). Die or-
thogonalen Abbildungen von Rn bilden eine Gruppe, ebenso die Drehungen.
Hingegen ist das Produkt von zwei uneigentlichen orthogonalen Abbildungen
eine Drehung.

L 9.1 Eulersche Winkel


Jede Drehung ϕ: R3 → R3 (mit Matrix A) kann zerlegt werden in 3 Drehun-
gen ψ1 , ψ2 , ψ3 um die Achsen ~e1 , ~e3 ,~e1 . Die dabei auftretenden Drehwinkel
α1 , α2 , α3 heißen die Eulerschen Winkel von ϕ (sie sind nicht eindeutig be-
stimmt).
Es gilt also:
ϕ = ψ 3 ◦ ψ2 ◦ ψ1 (Achsen ~e1 , ~e3 , ~e1 !)
36 Lineare Algebra

2
~e3

ϕ(~b)
~e2

3 1 ~e1

~b

oder, in Matrixschreibweise:
     
1 0 0 c2 −s2 0 1 0 0
A = A 3 · A2 · A1 = 0 c 3
 −s3 · s2
  c2 0 · 0 c1
  −s1 
0 s3 c3 0 0 1 0 s1 c1

mit ci = cos(αi ) und si = sin(αi ).

Der Beweis für die Existenz der Zerlegung und das Verfahren zur Berechnung
der αi bei gegebener Matrix A sind hier vollständig wiedergegeben:

Vorbereitung: E := [~e2 , ~e3 ] = ~e⊥ −1 −1


1 , ϕ (E) = ϕ (~e1 )⊥ . Suche einen Ein-
heitsvektor ~b ∈ E ∩ ϕ−1 (E), d.h.:
~b ∈ E und ϕ(~b) ∈ E

Dazu sei ~ai := i-te Zeile von A


= i-te Spalte von AT = A−1 .
Setze
~b = ~e1 × ~a1 falls ~e1 × ~a1 6= ~0, sonst: ~b := ~e3 .
|~e1 × ~a1 |
Jetzt bestimme ψ1 , ψ3 mit Achse ~e1 so, daß:

ψ1−1 (~e3 ) = ~b
ψ3 (~e3 ) = ϕ(~b)

Dann hat ψ2 := ψ3−1 ◦ ϕ ◦ ψ1−1 die Achse ~e3 und es gilt ϕ = ψ3 ◦ ψ2 ◦ ψ1 .

Damit ist die Existenz der Zerlegung von ϕ (und A) bewiesen, und es bleibt
nur, die Werte ci und si abzulesen:
 
0
~ −1 −1 T
1. b = ψ1 (~e3 ) = [3. Spalte von A1 = A1 ] = s1 

c1
Also:
c1 = ~b · ~e3 (= b3 )
s1 = ~b · ~e2 (= b2 )
L 10 Symmetrische Matrizen, Definitheit 37

0
2. ϕ(~b) = ψ3 (~e3 ) = [3. Spalte von A3 ] =  −s3 
c3
Somit gilt: 
c3 = ϕ(~b) · ~e3 = ~b · ϕ−1 (~e3 ) = ~b · AT · ~e3

s3 = −ϕ(~b) · ~e2 = −~b · AT · ~e2
Wegen AT · ~ei = [i-te Zeile von A] := ~ai folgt daher:

c3 = ~b · ~
a3
~
s3 = −b · ~ a2

3. ψ2 (~e1 ) = ψ3−1 ϕψ1−1 (~e1 ) = ψ3−1ϕ(~e1)


c2
ψ2 (~e1 ) = 1. Spalte von A =  s2 
0
Mit A = (aij )i,j folgt daraus:
c2 = (ψ3−1 ϕ)(~e1 ) · ~e1 = ϕ(~e1 ) · ψ3 (~e1 ) = ϕ(~e1 ) · ~e1 = a11
s2 = (ψ3−1 ϕ)(~e1 ) · ~e2 = ϕ(~e1 ) · ψ3 (~e2 ) = a21 · c3 + a31 · s3
| {z }
2. Spalte von A3
Somit:
c2 = a11
s2 = a21 · c3 + a31 · s3

L 9.2 Drehungen von R2 und komplexe Zahlen


Drehungen in R2 können auch als Abbildungen in der Gaußschen Zahlenebene
interpretiert werden und bequem mit komplexen Zahlen beschrieben werden.
Dazu identifiziert man wie üblich C mit R2 so, daß die R-Basis {1, j} der Basis
{~e1 , ~e2 } entspricht. Dann sind die Abbildungen

ϕt : z 7→ ejt · z und ψt : z 7→ ejt · z

die oben beschriebene Drehung um den Winkel t bzw. die Spiegelung an


R · ejt/2 . Multiplikation mit einer komplexen Zahl vom Betrag 1 entspricht
einer Drehung in der Gaußschen Zahlenebene. Multiplikation mit einer belie-
bigen komplexen Zahl induziert ebenfalls eine lineare Abbildung, die aber nicht
mehr orthogonal sein muß. Jede komplexe Zahl z 6= 0 läßt sich schreiben als
z = r · ejt mit r = |z| und t ∈ [0, 2π[ (Polarkoordinaten). Die Multiplika-
tion mit r · ejt entspricht einer Drehstreckung, d.h. der Komposition einer
Drehung um den Winkel ϕ und einer Streckung um den (reellen) Faktor r.

L 10 Symmetrische Matrizen, Definitheit


In diesem Abschnitt wird untersucht, wie mit Matrizen Skalarprodukte auf Rn
definiert werden können. Untersucht werden aber auch Matrizen, die zwar
kein Skalarprodukt, also eine symmetrische und positiv definite Bilinearform
38 Lineare Algebra

induzieren, aber eine symmetrische Bilinearform induzieren. Dies führt zu den


symmetrischen Matrizen. Anwendung haben diese Untersuchungen unter an-
derem bei der Bestimmung lokaler Extrema von (nicht linearen) Abbildungen
f : Rn → R (A 20.2).
Zu einer linearen Abbildung ϕ: Rn → Rn mit Matrix A wird eine bilineare
Abbildung f wie folgt definiert:
n
X
T
f (~x, ~y) := <~x, ϕ(~y)> = ~x · A · ~y = xi · aij · yj
ij=1

Interessant ist, für welche A die Bilinearform f ein Skalarprodukt ist, d.h.
symmetrisch und positiv definit ist. Es gilt:
f ist symmetrisch (d.h. f (~x, ~y) = f (~y, ~x))
⇐⇒ A ist symmetrisch (d.h. AT = A)
⇐⇒ f ist selbstadjungiert, d.h.: ∀~x, ~y: <ϕ(~x), ~y> = <~x, ϕ(~y)>

Beispiele für symmetrische Matrizen:


 
1 0 0
A= 0 1 0 f (~x, ~x) = x21 + x22 + x23 , f positiv definit
0 0 1
 
−1 0 0
A =  0 −1 0  f (~x, ~x) = −x21 − x22 − x23 , f negativ definit
0 0 −1
 
1 0 0
A = 0 1 0 f (~x, ~x) = x21 + x22 , f positiv semidefinit
0 0 0
 
1 0 0
A = 0 1 0  f (~x, ~x) = x21 + x22 − x23 , f indefinit
0 0 −1

Satz: Für symmetrische reelle Matrizen A gilt:

1. Alle Lösungen der Eigenwertgleichung det(A − t · En ) = 0 sind reell.

2. Es gibt eine Orthonormalbasis aus Eigenvektoren von A.

3. f (~x, ~y) := ~xT · A · ~y ist positiv [negativ] definit ⇐⇒ alle Eigenwerte von
A bzw. ϕ sind > 0 [< 0].

Ob die Eigenwertbedingung in (3) erfüllt ist, kann man erkennen, ohne die
Eigenwerte zu berechnen. Dazu dient die Cartesische Zeichenwechselregel
für Polynomnullstellen:
P
Es sei q(x) = ni=0 ai ·xi mit ai ∈Q R und an = 1. Die (unbekannten) Nullstellen
seien x1 , . . . , xn ∈ C, also q(x) = ni=1 (x−xi ) wobei Wiederholungen (xi = xj )
erlaubt sind. Ferner sei:
L 10 Symmetrische Matrizen, Definitheit 39

w die Anzahl der Vorzeichenwechsel in der


Folge a0 , . . . , an (Nullen gestrichen!),
w die Anzahl der Vorzeichenwechsel in der
Folge (−1)i · ai , i = 1, . . . , n (Nullen gestrichen!),
p die (gesuchte) Anzahl der i mit xi > 0.

Die Regel sagt dann:

1. p ≤ w und w − p gerade,

2. falls alle xi ∈ R, ist p = w

Für reelle symmetrische Matrizen A mit q(t) := (−1)n det(A − t · En ) folgt:


A ist positiv definit ⇐⇒ w = n
A ist negativ definit ⇐⇒ w = n
A ist indefinit ⇐⇒ w 6= 0 und w 6= 0
Index

Abstand, 34 Hesse Normalform, 33


Adjunkte, 25 homogen, 2
ähnlich, 21 Hyperebene, 33
affine Mannigfaltigkeit, 10
aufgespannter Unterraum, 9 indefinit, 38
inhomogen, 2
Basis, 10 invertierbar, 20
Basisbestimmung, 11
Basiswechsel, 17, 21 Kern, 9
beschreibendes Gleichungssystem, 10 Koordinatenvektor, 16
Bild, 9 Kosinussatz, 30

Cartesische Zeichenwechselregel, 38 Länge, 29


Cauchy-Schwarz’sche Ungleichung, 29 linear abhängig, 10
charakteristisches Polynom, 27 linear unabhängig, 10
Cramersche Regel, 26 lineare Abbildung, 8
linearer Isomorphismus, 16
Defekt lineares Gleichungssystem, 2
einer linearen Abbildung, 18 Linearität
einer Matrix, 6 eines Skalarprodukts, 28
Determinante Linearkombination, 9
einer linearen Abbildung, 24
Matrix, 2, 3
einer Matrix, 23
ähnlich, 21, 28
Diagonalmatrix, 28
einer linearen Abbildung, 18
Dimension, 10
invertierbar, 20
Dimensionsformel
quadratisch, 22
für lineare Abbildungen, 15, 18
regulär, 20
für Unterräume, 11
Matrix des Basiswechsels, 17
Drehspiegelung, 35
Matrizenmultiplikation, 19
Drehstreckung, 37
Drehung, 28, 35 negativ definit, 38
Dreiecksungleichung, 29 Norm, 29
Normaleneinheitsvektor, 33
Ebene, 33 Nullvektor, 3
Eichung, 28
eigentlich, 35 orthogonal, 30, 34
Eigenvektoren, 27 orthogonale Projektion, 31
Eigenwert, 27 orthogonales Komplement, 30
Einheitsmatrix, 20 Orthonormalbasis, 30
Eulersche Winkel, 35
Permutation, 22
Fehlstand, 22 Polarkoordinaten, 37
positiv definit, 38
Gaußsche Zahlenebene, 37 positiv semidefinit, 38
Gerade, 33 positive Definitheit, 28
Gleichungssystem Proximum, 31
beschreibendes, 10
Grundkörper, 3 quadratische Matrix, 22
Index 41

Rang transponierte Matrix, 24


einer linearen Abbildung, 18
einer Matrix, 6 uneigentlich, 35
Rechtssystem, 31 unendlichdimensional, 11
Regel Unterraum, 9
Cramersche, 26
von Sarrus, 23 Vektor, 2, 8
regulär, 20 Vektoraddition in Kn , 3
Vektorprodukt, 32
Sarrus’sche Regel, 23 Vektorraum, 8
Satz von Pythagoras, 30 verschobener Unterraum, 10
selbstadjungiert, 38 Vertauschung, 22
Signum, 22
Skalar, 3, 8 windschief, 34
Skalarkörper, 3 Winkel, 29, 33
Skalarprodukt, 28 Eulersche, 35
Spaltenoperation, 24
Zeichenwechselregel, 38
Spaltenvektoren, 2
Zeilenoperation, 24
Spiegelung, 35
Standardskalarprodukt, 29, 31
Symmetrie
eines Skalarprodukts, 28
symmetrische Gruppe, 22