Sie sind auf Seite 1von 267

Diskrete Mathematik 1

Dr. Claudia Gotzes

1
Organisation
1 E-mail: claudia.gotzes@uni-due.de

2 Büro: BC 514

3 Sprechstunde: nach Vereinbarung

2
Gruppen
1 Grundlagen Ringe und Körper
Elementare Aussagen und 3 Grundlagen der linearen Algebra
Prädikatenlogik
Vektorräume
Grundlagen der Mengenlehre
Lineare Abbildungen
Relationen und Abbildungen
Matrizen und lineare
Beweis durch Induktion
Gleichungssysteme
2 Algebraische Strukturen Der Gauß- Algorithmus

3
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

4
Definition 1.1.1 (Aussagen)
Aussagen sind Sprachkonstrukte, die entweder wahr oder falsch sind. wahr
(w) bzw. falsch (f) bezeichnen wir als den Wahrheitswert der jeweiligen
Aussage.

Beispiel
Welche der folgenden Formulierungen sind Aussagen?
1 5≤1
2 Wann beginnen die nächsten Ferien?
3 6 < 24.

Lösung
1 ist eine (falsche) Aussage.
2 ist keine Aussage.
3 ist eine (wahre) Aussage.

5
Definition 1.1.2 (Verknüpfungen von Aussagen)
Eine unäre Verknüpfung ist eine Operation, die einer Aussage eine neue
Aussage zuordnet.
Eine binäre Verknüpfung ist eine Operation, die zwei Aussagen eine neue
Aussage zuordnet.
Die wichtigsten Verknüpfungen halten wir in folgenden Definition fest.

Definition 1.1.3
Es seien A und B Aussagen.
(i) Die Negation der Aussage A (in Zeichen: ¬A) ist genau dann wahr,
wenn A falsch ist.
(ii) Die Konjunktion von A und B (in Zeichen: A ∧ B) ist genau dann
wahr, wenn sowohl A als auch B wahr sind.
(iii) Die Disjunktion von A und B (in Zeichen: A ∨ B) ist genau dann
falsch, wenn sowohl A als auch B falsch sind.

6
(iv) Die Implikation von A und B (in Zeichen: A ⇒ B) ist genau dann
falsch, wenn A wahr und B falsch ist.
(v) Die Bijunktion von A und B (in Zeichen: A ⇔ B) ist genau dann
wahr, wenn A und B den gleichen Wahrheitswert haben.

Bemerkungen B1
1 Eine übersichtliche Methode zur Darstellung von Verknüpfungen sind
die sogenannten Verknüpfungstafeln:
A B ¬A A ∧ B A ∨ B A ⇒ B A ⇔ B
w w f w w w w
w f f f w f f
f w w f w w f
f f w f f w w

2 Man beachte, dass die Reihenfolge bei der Implikation durchaus von
Belang ist, d.h. A ⇒ B ist nicht äquivalent zu B ⇒ A. Ferner beachte
man, dass A ⇒ B stets wahr ist, sobald A falsch ist.
7
Definition 1.1.4 (Prädikate)
Ein Prädikat ist ein sprachliches Gebilde, das eine Eigenschaft von einem
oder mehreren Objekten oder Individuen beschreibt.

Beispiel
1 ist ungerade,
2 ist gleich,
3 ist grösser als.
Mit Hilfe von Prädikaten erhält man durch Einsetzen eines Namens eines
Objekts bzw. eines Individuums an geeigneter Stelle eine Aussage
(Prädikate sind selbst keine Aussagen):
1 7 ist ungerade,
2 4 ist gleich 82 ,
3 4 ist grösser als 17.
2 und 3 sind Beispiele für sogenannte zweistellige Prädikate.

8
Eine Aussageform p(x , y , z, ...) besteht aus einem Prädikat p und einer
endlichen Anzahl von Variablen x , y , z, ..., die jene Stellen kennzeichnen,
an denen man Namen von Objekten oder Individuen einsetzen kann, um
Aussagen zu erhalten.
Beispiel
Wir betrachten die folgenden Prädikate:
p: ist ungerade,
q: ist gleich,
r : ist grösser als,

und bilden daraus die Aussageformen


p(x ): x ist ungerade,
q(x , y ): x ist gleich y ,
r (x , y ): x ist grösser als y .

9
Eine weitere Möglichkeit aus Aussageformen Aussagen zu bilden sind die
sogenannten Quantoren:
Definition 1.1.5 (Allquantor)
Ist p(x ) eine Aussageform, dann definieren wir damit die Aussage

(∀x )p(x ) (sprich: Für alle x gilt p(x ))

folgendermaßen:

(∀x )p(x ) ist genau dann wahr, wenn für alle erdenklichen Ersetzungen von
x durch Namen von Objekten oder Individuen, eingesetzt in p(x ), die
daraus resultierende Aussage stets wahr ist.

10
Definition 1.1.6 (Existenzquantor)
Ist p(x ) ein Aussageform, dann definieren wir damit die Aussage

(∃x )p(x ) (sprich: Es gibt ein x so dass gilt p(x ))

folgendermaßen:

(∃x )p(x ) ist genau dann wahr, wenn man (mindestens!) einen Namen
eines Objektes oder Individuums angeben kann, der für x in p(x )
eingesetzt, zu einer wahren Aussage führt.

11
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Der Mengenbegriff
Beschreibung von Mengen
Mengenoperationen
Familien von Mengen
Relationen und Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

12
Georg Cantor (1845-1918) versuchte den Begriff der Menge
folgendermaßen zu definieren:

„Unter einer Menge verstehen wir jede Zusammenfassung M von


bestimmten, wohlunterschiedenen Objekten unserer Anschauung oder
unseres Denkens (welche Elemente von M genannt werden) zu einem
Ganzen.“

Damit obiger Begriff sinnvoll ist, müssen wir voraussetzen, dass wir stets
entscheiden können, ob ein gegebenes Objekt Element einer Menge ist
oder nicht (zumindest prinzipiell, praktisch ist dies in vielen Fällen äußerst
schwierig).
Ist a ein Objekt und M eine Menge die a als Element enthält, so
kennzeichnen wir diesen Sachverhalt durch

a ∈ M (a ist Element von M).

Ist a nicht Element von M (also ¬(a ∈ M)), so schreiben wir dafür

a 6∈ M.
13
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Der Mengenbegriff
Beschreibung von Mengen
Mengenoperationen
Familien von Mengen
Relationen und Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

14
1 Die einfachste Möglichkeit zur Beschreibung einer Menge ist die
Auflistung ihrer Elemente innerhalb geschweifter Klammern:

M = {1, 2, 3, 4},

N = {2, 4, 6, 8, 10, ...}.


N ist ein Beispiel für eine Menge die unendlich viel Elemente enthält.
Die „...“-Schreibweise sollte mit Vorsicht genossen werden und nur dann benutzt werden,
wenn durch die Auflistung endlich vieler Elemente zweifelsfrei feststeht, welche Elemente
die Menge enthalten soll.
2 Ist p(x ) eine Aussageform, so kann man alle Objekte a, für die p(a)
eine wahre Aussage ist, zu einer Menge M zusammenfassen:

M = {x : p(x )}
(M ist die Menge aller x , für die gilt p(x ))

15
Beispiel
p(x ): x ist eine ganze Zahl und 1 ≤ x ≤ 4,
q(x ): x ist eine gerade natürliche Zahl,

dann ist
M = {x : p(x )} = {1, 2, 3, 4},

N = {x : q(x )} = {2, 4, 6, 8, 10, ...}.

Ist eine Menge M durch eine Aussageform p(x ) definiert, d.h.

M = {x : p(x )}

so gilt
a ∈ M ⇔ p(a) ist stets wahr.

16
Beispiel
1 Die Leere Menge ∅ ist diejenige Menge, die kein Element enthält.
Demnach ist a ∈ ∅ stets eine falsche Aussage. Man kann die leere
Menge z. B. durch
∅ = {x : x 6= x }
beschreiben.
2 N := {1, 2, 3, 4, ...} ( Menge der natürlichen Zahlen)
N0 := {0, 1, 2, 3, ...} ( Menge der natürlichen Zahlen mit Null)
Z := {..., −3, −2, −1, 0, 1, 2, 3, ...} ( Menge der ganzen Zahlen)
Q := {q : q = m n ∧ n 6= 0, n, m ∈ Z} ( Menge der rationalen Zahlen)
R := {x : x reell} ( Menge der reellen Zahlen)
C := {z : z = x + iy ∧ x , y ∈ R}
( Menge der komplexen Zahlen, i 2 = −1)
3 „Die Zehn besten Songs aller Zeiten“ ist keine zulässige
Mengenbeschreibung, solange die Terme „bester Song“ bzw. „aller
Zeiten“ nicht näher präzisiert werden.

17
Zwei Mengen M, N heißen gleich, wenn sie die gleichen Elemente
enthalten. Für die Mengen
1
M1 := {1, − , 1066, π},
2
1 1 1
M2 := {1, − , − , π, 1066, − , 1}
2 2 2
gilt daher: M1 = M2 .
Es gibt genau eine leere Menge.
Unter der Mächtigkeit einer endlichen Menge versteht man die
Anzahl der Elemente dieser Menge. Wir schreiben:

|{1, 2, 4}| = 3

Sind p(x ), q(x ) zwei Aussageformen, dann sind die Mengen

M := {x : p(x )} und N := {x : q(x )}.

genau dann gleich, wenn (∀x )[p(x ) ⇔ q(x )] wahr ist.


18
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Der Mengenbegriff
Beschreibung von Mengen
Mengenoperationen
Familien von Mengen
Relationen und Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

19
Definition 1.2.1
Es seien M und N zwei Mengen. M heißt Teilmenge von N (in Zeichen:
M ⊆ N), wenn jedes Element von M auch Element von N ist, d.h. es gilt

(∀x )[x ∈ M ⇒ x ∈ N].

Bemerkungen B2:
1 Ist M ⊆ N, so heißt N auch Obermenge von M.
2 Ist N eine Menge und p(x ) eine Aussageform, so erhalten wir durch

M := {x : x ∈ N ∧ p(x )}

eine Teilmenge von N. M enthält genau diejenigen Elemente von N,


die die Eigenschaft p besitzen.
Schreibweise:

M = {x : x ∈ N ∧ p(x )} =: {x ∈ N : p(x )}.

20
3 Ist M eine beliebige Menge, so gilt

∅ ⊆ M und M ⊆ M.

4 Zwei Mengen M, N sind genau dann gleich, wenn gilt M ⊆ N und


N ⊆ M.

Beispiel
1 Es gilt

N ⊆ N0 ⊆ Z ⊆ Q ⊆ R ⊆ C aber N 6= N0 6= Z 6= Q 6= R 6= C.

2 Es sei M := {1, {1, 2}}. Dann gilt

{1} ⊆ M,

aber {1, 2} ist keine Teilmenge von M. Es gilt {1, 2} ∈ M und damit

{{1, 2}} ⊆ M.
21
Definition 1.2.2
Es sei M eine Menge. Dann heißt

P(M) := {A : A ⊆ M}

Potenzmenge von M. P(M) ist also die Menge aller Teilmengen von M.
Es gilt
A ∈ P(M) ⇔ A ⊆ M.

Beispiel
1 Für jede Menge M gilt ∅ ∈ P(M).

2 Sei M = {a, b, c}, dann gilt

P(M) = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.

22
Definition 1.2.3
Es seien A und B zwei Mengen.
(i) Die Vereinigung von A und B ist die Menge

A ∪ B := {x : x ∈ A ∨ x ∈ B}.

(ii) Der Durchschnitt von A und B ist definiert durch

A ∩ B := {x : x ∈ A ∧ x ∈ B}.

(iii) Die (mengentheoretische ) Differenz von A und B ist die Menge

A \ B := {x : x ∈ A ∧ x 6∈ B}.

23
(iv) Zwei Mengen A und B heißen disjunkt, wenn

A ∩ B = ∅.

(v) Ist M eine Menge und A ∈ P(M), so heißt die Differenzmenge


A ..= M \ A auch Komplement von A (in M).

Bemerkung B3:
Sind p(x ), q(x ) Aussageformen und die Mengen A und B durch

A := {x : p(x )}, B := {x : q(x )}

gegeben, dann gilt


A ∪ B = {x : p(x ) ∨ q(x )},

A ∩ B = {x : p(x ) ∧ q(x )},

A \ B = {x : p(x ) ∧ ¬q(x )}.


24
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Der Mengenbegriff
Beschreibung von Mengen
Mengenoperationen
Familien von Mengen
Relationen und Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

25
Definition 1.2.4 (Geordnete Paare und Kartesisches Produkt)
Es seien M, N zwei Mengen und x ∈ M, y ∈ N.
(i) Dann heißt
(x , y ) := {{x }, {x , y }}
geordnetes Paar.

(ii) Das kartesischea Produkt M × N ist die Menge aller geordneten


Paare (x , y ) mit x ∈ M und y ∈ N, d.h.

M × N := {(x , y ) : x ∈ M ∧ y ∈ N}.

Im Fall M = N schreiben wir auch

M 2 := M × M.
a
René Descartes; 1596-1650

26
Theorem 1.2.5
Es seien M, N Mengen und (x1 , y1 ), (x2 , y2 ) ∈ M × N. Dann gilt

(x1 , y1 ) = (x2 , y2 ) ⇔ [x1 = x2 ∧ y1 = y2 ].

Beweis.
„⇒“ Aus {x1 } ∈ (x1 , y1 ) = (x2 , y2 ) = {{x2 }, {x2 , y2 }} folgt {x1 } = {x2 }
oder {x1 } = {x2 , y2 }. Letzteres kann nur im Fall x2 = y2 eintreten,
also folgt x1 = x2 . Wäre nun y1 6= y2 , so wäre auch
{x1 , y1 } =
6 {x2 , y2 }, also (x1 , y1 ) 6= (x2 , y2 ). Also muß auch y1 = y2
sein.
„⇐“ Es folgt {x1 } = {x2 } und {x1 , y1 } = {x2 , y2 }, also

{{x1 }, {x1 , y1 }} = (x1 , y1 ) = (x2 , y2 ) = {{x2 }, {x2 , y2 }}.

27
Bemerkungen B4:
1 Ist (x , y ) ∈ M × N, so heißt x erste Komponente von (x , y ) und y
zweite Komponente von (x , y ) (aufgrund von Theorem 1.2.4 sind
diese Begriffe wohldefiniert).
2 Für x 6= y ist (x , y ) 6= (y , x ).
3 Es gilt: M × N = N × M ⇔ M = N.
4 Das kartesische Produkt von mehr als zwei Mengen M1 , M2 , ..., Mn
wird rekursiv durch

M1 × M2 × ... × Mn := (M1 × ... × Mn−1 ) × Mn

definiert. Ist x1 ∈ M1 , ..., xn ∈ Mn , so heißt

(x1 , ..., xn ) := ((x1 , ..., xn−1 ), xn ) ∈ M1 × ... × Mn .

geordnetes n-Tupel.
Im Fall M1 = ... = Mn schreiben wir auch

M n := M1 × ... × Mn .
28
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Eigenschaften von Relationen
Äquivalenzrelation
Ordnungsrelation
Abbildungen
Eigenschaften von Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

29
Definition 1.3.1 (Relation)
Es seien N, M Mengen.
Jede Teilmenge R ⊆ M × N heißt Relation von M nach N. Ist
(x , y ) ∈ R, so schreiben wir dafür auch x Ry .

Beispiele
1 Ist M eine beliebige Menge, so heißt die Relation

∆(M) := {(x , x ) ∈ M × M : x ∈ M}
= {(x , y ) ∈ M × M : x = y }

Diagonale auf M. ∆(M) ist nichts anderes als die Gleichheitsrelation


auf M.

30
2 Es sei R := {(x , y ) ∈ Z × Z : x teilt y }. (x , y ) ∈ R (bzw. x Ry )
bedeutet also, dass die Zahl x ∈ Z ein Teiler der Zahl y ∈ Z ist.
Genauer:
a ∈ Z teilt b ∈ Z genau dann wenn, n ∈ Z existiert mit an = b.
Da 0n = 0 ∀n ∈ Z ist 0 ein Teiler von 0.

3 Es sei M = {0, 1, 2, 3, 4} und

R := {(x , y ) ∈ M × M : x < y }
= {(0, 1), (0, 2), (0, 3), (0, 4), (1, 2), (1, 3),
= (1, 4), (2, 3), (2, 4), (3, 4)}

31
Definition 1.3.2
(i) Es seien N, M Mengen und R ⊆ M × N eine Relation zwischen M
und N. Dann ist

R−1 := {(y , x ) ∈ N × M : (x , y ) ∈ R}

eine Relation zwischen N und M, die sogenannte inverse Relation.


(ii) Es seien L, M und N Mengen, sowie R1 ⊆ L × M, R2 ⊆ M × N
Relationen. Dann ist

R2 ◦ R1 := {(x , z) ∈ L × N : (∃y ∈ M)[(x , y ) ∈ R1 ∧ (y , z) ∈ R2 ]}

eine Relation zwischen L und N, die sogenannte Verkettung von R1


und R2 .

32
Beispiel
Es sei L = N = R und M = [0, ∞[. Ferner seien

R1 := {(x , y ) ∈ L × M : y = x 2 }, R2 := {(y , z) ∈ M × N : y = z 2 }.

Es gilt

R−1
1 = {(y , x ) ∈ M × L : (x , y ) ∈ R1 }
= {(y , x ) ∈ M × L : y = x 2 } = R2 ,

R−1
2 = {(z, y ) ∈ N × M : (y , z) ∈ R2 }
= {(z, y ) ∈ N × M : y = z 2 } = R1 .

33
Ferner gilt

R2 ◦ R1 = {(x , z) ∈ L × N : (∃y ∈ M)[y = x 2 ∧ y = z 2 ]}


= {(x , z) ∈ L × N : x 2 = z 2 }
= {(x , z) ∈ R × R : |x | = |z|},

dabei sei für eine reelle Zahl a ∈ R


(
a, a ≥ 0,
|a| :=
−a, a < 0.

R1 ◦ R2 = {(u, w ) ∈ M × M : (∃v ∈ L)[u = v 2 ∧ w = v 2 ]}


= {(u, w ) ∈ M × M : u = w } = ∆(M).

34
Theorem 1.3.3
Es seien K , L, M und N Mengen, sowie R1 ⊆ K × L, R2 ⊆ L × M und
R, R3 ⊆ M × N Relationen. Dann gilt
(i) (R−1 )−1 = R,

(ii) ∆(N) ◦ R = R ◦ ∆(M) = R,

(iii) (R2 ◦ R1 )−1 = R−1 −1


1 ◦ R2 ,

(iv) (R3 ◦ R2 ) ◦ R1 = R3 ◦ (R2 ◦ R1 ).

35
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Eigenschaften von Relationen
Äquivalenzrelation
Ordnungsrelation
Abbildungen
Eigenschaften von Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

36
Definition 1.3.4 (Eigenschaften von Relationen)
Es sei M einen Menge und R ⊆ M × M eine Relation auf M.
(i) R heißt reflexiv, wenn für alle x ∈ M gilt:
x Rx ((∀x ∈ M)(x , x ) ∈ R).

(ii) R heißt symmetrisch, wenn für alle (x , y ) ∈ M × M gilt

x Ry ⇒ y Rx ((∀(x , y ) ∈ R)(y , x ) ∈ R).

(iii) R heißt antisymmetrisch, wenn für alle (x , y ) ∈ M × M gilt

x Ry ∧ y Rx ⇒ x =y
((∀(x , y ) ∈ M × M) [(x , y ) ∈ R ∧ (y , x ) ∈ R ⇒ x = y ]).

(iv) R heißt transitiv, wenn für alle x , y , z ∈ M gilt

x Ry ∧ y Rz ⇒ x Rz ((∀x , y , z ∈ M)[x Ry ∧ y Rz ⇒ x Rz]).


37
(v) R heißt alternativ (oder auch total), wenn für alle (x , y ) ∈ M × M
gilt

x Ry ∨ y Rx ((∀(x , y ) ∈ M × M)[(x , y ) ∈ R ∨ (y , x ) ∈ R]).

Lemma 1.3.5
Es sei M eine Menge und R ⊆ M × M eine Relation auf M. Dann gilt:
(i) R reflexiv ⇔ ∆(M) ⊆ R,

(ii) R symmetrisch ⇔ R ⊆ R−1 ,

(iii) R antisymmetrisch ⇔ R ∩ R−1 ⊆ ∆(M),

(iv) R transitiv ⇔ R ◦ R ⊆ R,

(v) R alternativ ⇔ M × M ⊆ R ∪ R−1 .

38
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Eigenschaften von Relationen
Äquivalenzrelation
Ordnungsrelation
Abbildungen
Eigenschaften von Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

39
Definition 1.3.6 (Äquivalenzrelation)
Es sei M eine Menge und R ⊆ M × M eine Relation auf M. R heißt
Äquivalenzrelation (auf M), wenn R reflexiv, symmetrisch und transitiv
ist.

Beispiele
1 Für jede Menge M ist die Gleichheitsrelation ∆(M) stets eine
Äquivalenzrelation. Eine weitere triviale Äquivalenzrelation auf M ist
R := M × M.

2 Es sei M := R2 \ {(0, 0)}. Für (x1 , y1 ), (x2 , y2 ) ∈ M definieren wir


(x1 , y1 ) ∼ (x2 , y2 ) genau dann, wenn (∃λ ∈ R)[x1 = λx2 ∧ y1 = λy2 ]
(anschaulich: die „Punkte“ (x1 , y1 ) und (x2 , y2 ) liegen auf einer
Geraden durch den Nullpunkt (0, 0)).
Dann ist ∼ eine Äquivalenzrelation auf M.
(i) Reflexivität Für jedes (x , y ) ∈ M gilt (x , y ) ∼ (x , y ), denn mit λ = 1
haben wir
x = λx und y = λy .
40
(ii) Symmetrie: Es seien (x1 , y1 ), (x2 , y2 ) ∈ M gegeben mit
(x1 , y1 ) ∼ (x2 , y2 ). Dann existiert nach Definition ein λ ∈ R, so dass
gilt
x1 = λx2 ∧ y1 = λy2 . (1)
Offensichtlich muß λ 6= 0 sein (ansonsten wäre (x1 , y1 ) = (0, 0) im
Widerspruch zu (0, 0) 6∈ M). Wir setzen λ0 := λ1 und erhalten damit
aus (1)
x2 = λ0 x1 ∧ y2 = λ0 y1 ,
also (x2 , y2 ) ∼ (x1 , y1 ).

(iii) Transitivität: Es seien (x1 , y1 ), (x2 , y2 ), (x3 , y3 ) ∈ M gegeben, so dass


gilt
(x1 , y1 ) ∼ (x2 , y2 ) ∧ (x2 , y2 ) ∼ (x3 , y3 ).
Dann existieren λ, λ0 ∈ R, so dass gilt

(x1 = λx2 ∧ y1 = λy2 ) ∧ (x2 = λ0 x3 ∧ y2 = λ0 y3 ). (2)


41
Mit λ00 := λ · λ0 folgt aus (2)

x1 = λ00 x3 ∧ y1 = λ00 y3 ,

also (x1 , y1 ) ∼ (x3 , y3 ).

Definition 1.3.7 (Äquivalenzklassen)


Es sei R eine Äquivalenzrelation auf der Menge M 6= ∅. Für x ∈ M ist die
Äquivalenzklasse von x (bzgl. R) definiert durch

[x ]R := {y ∈ M : x Ry } = {y ∈ M : (x , y ) ∈ R}.

Die Menge aller Äquivalenzklassen von Elementen aus M bezeichnen wir


mit M/R (M modulo R), d. h. wir setzen

M/R := {[x ]R ∈ P(M) : x ∈ M} ⊆ P(M).

42
Beispiel
Es sei n ∈ N. Dann definieren wir eine Relation Rn auf Z durch

Rn := {(a, b) ∈ Z × Z : n teilt b − a}.

Seien a, b ∈ Z. Dann gibt es eindeutig bestimmte Zahlen q1 , q2 ∈ Z


und r1 , r2 ∈ {0, 1, ..., n − 1}, so dass gilt

a = q1 · n + r1 und b = q2 · n + r2 (Division mit Rest).

Nun gilt

a≡b (mod n) ⇔ (∃k ∈ Z)[b − a = k · n]


⇔ (∃k ∈ Z)[n(q2 − q1 ) + (r2 − r1 ) = k · n]
⇔ (∃k ∈ Z)[r2 − r1 = n(q1 − q2 + k)]
⇔ n teilt r2 − r1 .
43
Wegen −(n − 1) ≤ r2 − r1 ≤ n − 1, haben wir

a≡b (mod n) ⇔ r1 = r2 .

Daraus erhalten wir: Ist a ∈ Z und sind q ∈ Z, sowie


r ∈ {0, 1, ..., n − 1}, so dass gilt

a = q · n + r.
Dann folgt

[a]Rn = {b ∈ Z : a ≡ b (mod n)}


= {s · n + r ∈ Z : s ∈ Z} =: r + nZ.

Ferner gibt es nur n verschiedene Äquivalenzklassen:

Zn : = Z/Rn = {[0]Rn , [1]Rn , ..., [n − 1]Rn }


= {nZ, 1 + nZ, ..., (n − 1) + nZ}.
44
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Eigenschaften von Relationen
Äquivalenzrelation
Ordnungsrelation
Abbildungen
Eigenschaften von Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

45
Definition 1.3.8 (Ordnungsrelation)
Es sei M eine Menge und R ⊆ M × M eine Relation auf M.
(i) R heißt (partielle) Ordnung, wenn R reflexiv, antisymmetrisch und
transitiv ist.

(ii) Eine Ordnung R heißt totale (oder auch lineare) Ordnung , wenn R
außerdem alternativ ist.

46
Beispiele
1 Für jede Menge M ist die Gleichheitsrelation ∆(M) eine Ordnung auf
M.

2 Die übliche ≤ Relation (kleiner oder gleich) ist eine totale Ordnung
auf den Zahlenmengen N, N0 , Z, Q und R.

3 Es sei

R := {(n, m) ∈ N × N : n teilt m}.


Dann ist R eine Ordnung auf N. R ist keine totale Ordnung (es gilt
weder 2|3 noch 3|2).

4 Es sei M eine Menge. Für A, B ∈ P(M) definieren wir eine Relation


R: ARB genau dann, wenn A ⊆ B. Dann ist R eine Ordnung auf
P(M). Sobald M mehr als ein Element enthält, ist R keine totale
Ordnung. Sind nämlich a, b ∈ M und a 6= b, so ist weder {a} ⊆ {b}
noch {b} ⊆ {a}.
47
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Eigenschaften von Relationen
Äquivalenzrelation
Ordnungsrelation
Abbildungen
Eigenschaften von Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

48
Definition 1.3.9
Es seien M, N Mengen und f ⊆ M × N eine Relation zwischen M und N.
Dann heißt f eine Abbildung (oder auch Funktion) von M in N, wenn
gilt:
(F1) Zu jedem x ∈ M existiert ein y ∈ N, so dass gilt (x , y ) ∈ f .

(F2) Für alle x ∈ M und y1 , y2 ∈ N gilt

(x , y1 ) ∈ f ∧ (x , y2 ) ∈ f ⇒ y1 = y2 .

Ist f eine Abbildung von M in N, so schreiben wir dafür

f : M → N.
Bemerkungen B5:
1 Die beiden Bedingungen (F1), (F2) kann man zusammenfassen:

(F3) Zu jedem x ∈ M existiert genau ein y ∈ N, so dass gilt (x , y ) ∈ f .

49
2 Anschaulich bedeuten die definierenden Bedingungen, dass für jedes
x ∈ M die Menge {x } × N die Menge f ⊆ M × N in genau einem
Element schneidet.

3 Ist f : M → N eine Abbildung und x ∈ M, dann bezeichnet man das


nach (F1) existierende und nach (F2) eindeutig bestimmte y ∈ N mit
der Eigenschaft (x , y ) ∈ f auch mit f (x ) (sprich: f an der Stelle x ),
d.h. wir setzen
y = f (x ) :⇔ (x , y ) ∈ f .

4 Ist für jedes x ∈ M das sogenannte Bild von x unter der Abbildung
f : M → N durch eine Abbildungsvorschrift f (x ) gegeben, so
benutzen wir dafür die Schreibweise

f : M → N, x 7−→ f (x ),

oder
f : x ∈ M 7−→ f (x ) ∈ N.
50
5 Ist f : M → N eine Abbildung, dann heißt M Urbildmenge (oder
auch Definitionsbereich) von f und N Wertebereich von f .

6 Zwei Abbildungen f : M → N, g : M 0 → N 0 sind genau dann gleich,


wenn gilt

M = M0 N = N0
und
f (x ) = g(x ) ∀x ∈ M = M 0

51
Beispiele
1 M = {0, 1, 2, 3}, N = Z und

f = {(0, 0), (1, 1), (2, 8), (3, 27)}.

Dann ist f eine Abbildung von M in N.

Ist der Definitionsbereich M einer Abbildung f : M → N endlich, so


bietet sich eine Wertetabelle an:
x 0 1 2 3
f (x ) 0 1 8 27

Im vorliegenden Fall kann man f auch durch eine Abbildungsvorschrift


angeben:
f : x ∈ {0, 1, 2, 3} 7→ x 3 ∈ Z.

52
2 Es sei f die Menge aller Paare (x , y ) ∈ Q × N, die jeder rationalen Zahl
x=m n (m ∈ Z, n ∈ N) ihren Nenner y = n zuordnet, d.h. wir setzen

m
  
f := ,n ∈ Q × N : m ∈ Z ∧ n ∈ N .
n
Dann ist f keine Abbildung.

Zwar besitzt jede rationale Zahl x einen Nenner y , aber dieser ist
nicht eindeutig.
   
1 2 1
Es gilt z. B. 2, 2 , 4, 4 ∈ f , aber 2 = 24 .

n o
3 f : (x , y ) ∈ R × [0, +∞[ x = y 2 ist keine Abbildung,
da es zu x = −1 kein y ∈ [0, +∞[ gibt mit (x , y ) ∈ f .

53
4 Die Betragsfunktion
(
x , x ≥ 0,
f : x ∈ R 7−→
−x , x < 0

ist eine Abbildung f : R → R.

5 Für jede Menge M ist ∆(M) eine Abbildung, die sogenannte


identische Abbildung auf M (kurz: Identität auf M).

Wir bezeichnen die Identität auf M auch mit idM . Es gilt also

idM : x ∈ M 7−→ x ∈ M.

54
Theorem 1.3.10
Es seien K , L, M, N Mengen und f : K → L, g : L → M, h : M → N
Abbildungen. Dann gilt
(i) Die Komposition g ◦ f ist ebenfalls eine Abbildung und es gilt für alle
x ∈K
(g ◦ f )(x ) = g(f (x )).

(ii) idL ◦ f = f ◦ idK = f .


(iii) h ◦ (g ◦ f ) = (h ◦ g) ◦ f .

Beweis.
(i) Es sei x ∈ K beliebig vorgegeben. Dann existiert genau ein y ∈ L,
nämlich y = f (x ), so dass gilt (x , y ) ∈ f . Zu diesem y existiert ferner
genau ein z ∈ M, nämlich z = g(y ), so dass gilt (y , z) ∈ g. Also
existiert zu x ∈ K genau ein z ∈ M mit (x , z) ∈ g ◦ f , nämlich
z = g(y ) = g(f (x )).
(ii), (iii) folgen aus Theorem 1.3.3. (ii), (iv).
55
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Eigenschaften von Relationen
Äquivalenzrelation
Ordnungsrelation
Abbildungen
Eigenschaften von Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

56
Definition 1.3.11
Es sei f : M → N eine Abbildung.
(i) f heißt injektiv, wenn für alle x1 , x2 ∈ M gilt

x1 6= x2 ⇒ f (x1 ) 6= f (x2 ).

(ii) f heißt surjektiv, wenn es zu jedem y ∈ N mindestens ein x ∈ M gibt


mit y = f (x ).

(iii) f heißt bijektiv, wenn f injektiv und surjektiv ist.

Bemerkungen B6:
1 Die Injektivität einer Abbildung f : M → N bedeutet anschaulich, dass
für jedes y ∈ N die Menge M × {y } die Menge f ⊆ M × N mit
höchstens einem Element schneidet.
2 Die Surjektivität einer Abbildung f : M → N bedeutet anschaulich,
dass für jedes y ∈ N die Menge M × {y } die Menge f ⊆ M × N mit
mindestens einem Element schneidet.
57
3 Die Bijektivität einer Abbildung f : M → N bedeutet anschaulich,
dass für jedes y ∈ N die Menge M × {y } die Menge f ⊆ M × N mit
genau einem Element schneidet.

Beispiele
1 Die Abbildung f : x ∈ R 7−→ x 2 ∈ R ist weder injektiv noch surjektiv.
2 Die Abbildung g : x ∈ Z 7−→ 3x ∈ Z ist injektiv. g ist aber nicht
surjektiv.

Theorem 1.3.12
Es seien f : L → M, g : M → N Abbildungen. Dann gilt:
(i) Aus der Injektivität von f , g folgt die Injektivität von g ◦ f .
(ii) Aus der Surjektivität von f , g folgt die Surjektivität von g ◦ f .
(iii) Aus der Bijektivität von f , g folgt die Bijektivität von g ◦ f .

58
Beweis.
(i) Es seien x1 , x2 ∈ L gegeben, so dass gilt

(g ◦ f )(x1 ) = g(f (x1 )) = g(f (x2 )) = (g ◦ f )(x2 ).

Da g injektiv ist, folgt daraus

f (x1 ) = f (x2 ).

Mit der Injektivität von f schließen wir daraus

x1 = x2 .

59
(ii) Es sei z ∈ N beliebig vorgegeben. Da g surjektiv ist, gibt es ein
y ∈ M, so dass gilt
z = g(y ). (3)
Die Surjektivität von f sichert zudem die Existenz eines x ∈ L mit

y = f (x ).

Zusammen mit (3) erhalten wir also z = g(f (x )) = (g ◦ f )(x ).


(iii) Folgt aus (i) und (ii).

60
Theorem 1.3.13
Es sei f : M → N eine Abbildung. Dann sind folgende Aussagen äquivalent:
(i) f ist bijektiv,
(ii) Die inverse Relation f −1 ist eine Abbildung N → M und es gilt

f ◦ f −1 = idN ∧ f −1 ◦ f = idM ,

(iii) Es existiert eine Abbildung g : N → M mit

f ◦ g = idN ∧ g ◦ f = idM .

Bemerkungen B7:
1 Ist f : M → N bijektiv, so heißt die Abbildung f −1 : N → M
Umkehrabbildung von f oder auch inverse Abbildung von f .

61
2 Zu f : M → N gibt es höchstens eine Abbildung g : N → M mit
f ◦ g = idN und g ◦ f = idM . Ist nämlich auch g̃ : N → M eine
Abbildung mit f ◦ g̃ = idN und g̃ ◦ f = idM , dann folgt

g̃ = g̃ ◦ idN = g̃ ◦ (f ◦ g) = (g̃ ◦ f ) ◦ g
= idM ◦ g = g.

Beweis von Theorem 1.3.13.


(i) ⇒ (ii) Offenbar ist f −1 bijektiv. So ist nach Theorem 1.3.12 (iii)
f −1 ◦ f auch bijektiv. Sei nun (x , y ) ∈ f −1 ◦ f . So existiert ein z ∈ N
mit
(x , z) ∈ f ∧ (z, y ) ∈ f −1 .
Daher gilt
(x , z) ∈ f ∧ (y , z) ∈ f .
Aus der Bijektivität von f folgt x = y . Also f −1 ◦ f = idM . Auf
analoge Weise haben wir auch f ◦ f −1 = idN .

62
(ii) ⇒ (iii) (setze g := f −1 ).

(iii) ⇒ (i) Sei (y , y ) ∈ f ◦ g. So existiert z mit (y , z) ∈ g und (z, y ) ∈ f .


Da y ∈ N beliebig ist, ist f nach der Definition surjektiv.
Seien (x , x ), (x 0 , x 0 ) ∈ g ◦ f . So existieren z, z 0 mit
(x , z) ∈ f , (z, x ) ∈ g, (x 0 , z 0 ) ∈ f und (z 0 , x 0 ) ∈ g.
Ist x 6= x 0 , so muß f (x ) = z 6= z 0 = f (x 0 ) sein, denn z = z 0 folgt
x = g(z) = g(z 0 ) = x 0 .
Also ist f auch injektiv. Damit ist f insgesamt bijektiv.

63
Definition 1.3.14
Es sei f : M → N eine Abbildung und A ⊆ M, B ⊆ N.
(i) Das Bild von A unter der Abbildung f ist die Menge

f (A) := {y ∈ N : (∃x ∈ A) y = f (x )}
= {f (x ) ∈ N : x ∈ A}.

Insbesondere nennt man f (M) die Bildmenge der Abbildung f .


(ii) Das Urbild von B unter der Abbildung f ist die Menge

f −1 (B) := {x ∈ M : (∃y ∈ B) y = f (x )}
= {x ∈ M : f (x ) ∈ B}.

(iii) Die Restriktion (Einschränkung) von f auf A ist die Abbildung

f |A : A → N, x 7−→ (f |A )(x ) := f (x ).

64
Bemerkungen und Beispiele B8:
1 Eine Abbildung f : M → N ist genau dann surjektiv, wenn die
Bildmenge f (M) von f mit N übereinstimmt, d.h. wenn gilt

f (M) = N.

2 Sei f : M → N bijektiv, g := f −1 , N → M die Umkehrabbildung von


f und B ⊆ N, dann stimmt das Bild von B unter g mit dem Urbild
von B unter f überein, d.h. es gilt

f −1 (B) = g(B).

3 Für jede Abbildung f : M → N gilt f −1 (N) = M.

65
Beispiele
1 Es sei f : x ∈ Z 7−→ x 2 ∈ Z. Dann gilt

f ({−3, −2, −1, 0, 1, 2, 3}) = {0, 1, 4, 9}


f ({0, 1, 2, 3}) = {0, 1, 4, 9}
f −1 ({4}) = {−2, 2}

f −1 ({5, 6, 7, 8}) = ∅

2 Es sei f : (x , y ) ∈ R2 7−→ x + y ∈ R. Dann gilt

f (R × {0}) = f ({0} × R) = R,

f −1 ({0}) = {(x , y ) ∈ R2 : x + y = 0} = {(x , y ) ∈ R2 : y = −x },

f −1 (] − ∞, 0]) = {(x , y ) ∈ R2 : x + y ≤ 0} = {(x , y ) ∈ R2 : y ≤ −x }.


66
1 Grundlagen
Elementare Aussagen und Prädikatenlogik
Grundlagen der Mengenlehre
Relationen und Abbildungen
Beweis durch Induktion

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

67
Das Induktionsprinzip

Wir nehmen an, dass P(n) eine Aussage mit den folgenden Eigenschaften
ist:
1 P(1) ist wahr (Induktionsbasis)
2 Wenn P(k) war ist (Induktionsannahme) dann ist auch P(k + 1) war
(Induktionsschritt) ∀ k ∈ N.

Dann folgt: P(n) ist wahr ∀n ∈ N.

Beispiel
Beweisen Sie, dass ∀n ∈ N n3 + 5n ein Vielfaches von 6 ist.
1 P(1) ist wahr:
13 + 5 · 1 = 6
ist ein Vielfaches von 6.
2 Angenommen P(k) ist wahr, also

k 3 + 5k = 6m, m ∈ N.
68
Nun müssen wir zeigen, dass P(k + 1) wahr ist.

Setzte n = k + 1 in n3 + 5n:

(k + 1)3 + 5(k + 1) = k 3 + 3k 2 + 3k + 1 + 5k + 5.

Nun wollen wir die Induktionsannahme k 3 + 5k = 6m nutzen und


formen den Ausdruck um:

(k 3 + 5k) + 3(k 2 + k + 2) = 6m + 3k(k + 1) + 6.

Jetzt ist k(k + 1) eine gerade Zahl

2r ⇒ 6m + 3k(k + 1) + 6 = 6m + 6r + 6 = 6(m + r + 1).

Wir haben gezeigt, dass P(1) wahr ist und dass aus P(k) folgt, dass
P(k + 1) wahr ist. Wir können also das Induktionsprinzip anwenden
und es folgt dass P(n) wahr ist ∀n ∈ N.
69
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

70
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Eigenschaften von Gruppen
Verknüpfungstafeln
Untergruppen
Abbildungen in Gruppen
Ringe und Körper

3 Grundlagen der linearen Algebra

71
Definition 2.1.1
Es sei H eine Menge.
(i) Unter einer Verknüpfung ◦ auf H verstehen wir eine Abbildung

◦ : (a, b) ∈ H × H 7−→ a ◦ b ∈ H.

(ii) Eine Verknüpfung ◦ auf H heißt assoziativ, wenn für alle a, b, c ∈ H


gilt
(a ◦ b) ◦ c = a ◦ (b ◦ c).
Eine Menge H zusammen mit einer assoziativen Verknüpfung ◦ auf H
heißt Halbgruppe.

72
Beispiele
1 Es sei H = {0, 1, 2, 3}. Für a, b ∈ H definieren wir a ◦ b := a + b.
Dann ist ◦ keine Verknüpfung auf H (denn 2 ◦ 2 = 2 + 2 = 4 6∈ H).

2 Es sei H := Q \ {0}. Für a, b ∈ H definieren wir


a
a ◦ b := .
b
Dann ist ◦ eine Verknüpfung auf H. ◦ ist nicht assoziativ:
Bsp: Für a = b = 1 und c = 2 gilt: a ◦ (b ◦ c) = 2 6= 12 = (a ◦ b) ◦ c .

73
3 Es sei M eine Menge und H die Menge aller Abbildungen f : M → M.
Als Verknüpfung betrachten wir die übliche Komposition ◦ von
Abbildungen, also

(h, g) ∈ H × H 7−→ h ◦ g ∈ H.

Dann ist H zusammen mit ◦ eine Halbgruppe (siehe Theorem 1.3.10).

4 Die übliche Addition und Multiplikation von Zahlen sind assoziative


Verknüpfungen auf den Zahlenmengen N, N0 , Z, Q, R und C.

74
Definition 2.1.2
Es sei G eine Halbgruppe bzgl. der assoziativen Verknüpfung
◦ : G × G → G. Dann heißt das Paar (G, ◦) Gruppe, wenn gilt:
(G1) Es existiert ein (links-)neutrales Element e ∈ G, so dass gilt

e ◦ a = a für alle a ∈ G.

(G2) Zu jedem a ∈ G existiert ein (links-)inverses Element a0 ∈ G, so dass


gilt
a0 ◦ a = e.
Bemerkung B9:
Wenn klar ist, um welche Verknüpfung es sich handelt, spricht man einfach
von der Gruppe G anstatt (G, ◦). Für g, h ∈ G schreibt man dann auch
gh := g ◦ h.

75
Beispiele
Beispiele für Gruppen sind:

1 (Z, +) mit e = 0 und a0 = −a (a ∈ Z),


2 (Q, +) mit e = 0 und a0 = −a (a ∈ Q),
3 (R, +) mit e = 0 und a0 = −a (a ∈ R),
4 (Q \ {0}, ·) mit e = 1 und a0 = 1
a (a ∈ Q \ {0}),
5 (R \ {0}, ·) mit e = 1 und a0 = 1
a (a ∈ R \ {0}).

Dagegen sind (N0 , +), (N, +), (Z \ {0}, ·) keine Gruppen.

76
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Eigenschaften von Gruppen
Verknüpfungstafeln
Untergruppen
Abbildungen in Gruppen
Ringe und Körper

3 Grundlagen der linearen Algebra

77
Definition 2.1.3
Eine Gruppe (G, ◦) heißt abelschea (oder auch kommutative) Gruppe,
wenn die Verknüpfung ◦ kommutativ ist, d.h. für alle g, h ∈ G gilt
(K) g ◦ h = h ◦ g.
a
Niels Henrik Abel, 1802-1829

Bemerkung B10:
Ist G eine abelsche Gruppe, so benutzt man häufig das + Zeichen als
Verknüpfungssymbol (an Stelle des ◦).

78
Lemma 2.1.4
Es sei G eine Gruppe mit (links-)neutralem Element e ∈ G. Dann gilt:
(i) Ist a ∈ G und a0 ∈ G gegeben mit a0 ◦ a = e, dann gilt auch
a ◦ a0 = e, d.h. jedes linksinverse Element ist auch rechtsinverse.
(ii) Es gilt für alle a ∈ G
a ◦ e = a,
d.h. linksneutrale Elemente sind auch rechtsneutrale Elemente.

79
Beweis.
(i) Es seien a, a0 ∈ G gegeben mit a0 ◦ a = e. Zu a0 gibt es nach (G2) ein
a00 ∈ G mit
a00 ◦ a0 = e.
Damit folgt (vgl. (G1))

a ◦ a0 = e ◦ (a ◦ a0 ) = (e ◦ a) ◦ a0 = ((a00 ◦ a0 ) ◦ a) ◦ a0
= (a00 ◦ (a0 ◦ a)) ◦ a0 = (a00 ◦ e) ◦ a0 = a00 ◦ (e ◦ a0 )
= a00 ◦ a0 = e.

(ii) Sei a ∈ G beliebig vorgegeben. Dann existiert nach (G2) ein a0 ∈ G


mit a0 ◦ a = e. Damit folgt

a ◦ e = a ◦ (a0 ◦ a) = (a ◦ a0 ) ◦ a = e ◦ a = a.

80
Folgerung 2.1.5

Es sei G eine Gruppe. Dann gilt:


(i) Das neutrale Element e ∈ G ist eindeutig bestimmt.
(ii) Ist a ∈ G, so ist das inverse Element a0 ∈ G von a eindeutig bestimmt.
Wir definieren: a−1 := a0 .
(iii) Für jedes a ∈ G gilt
(a−1 )−1 = a.

Beweis.
(i) Ist e 0 ∈ G ein weiteres (links-)neutrales Element, dann folgt nach
Lemma 2.1.4 (ii):
e = e0 ◦ e = e0.

81
(ii) Ist ã ∈ G ein weiteres (links-)inverses Element zu a ∈ G, dann folgt
nach Lemma 2.1.4

a0 = e ◦ a0 = (ã ◦ a) ◦ a0 = ã ◦ e = e ◦ ã = ã.

(iii) Für jedes a ∈ G gilt nach Lemma 2.1.4 (i)

a ◦ a−1 = e,

also folgt aus (ii): a = (a−1 )−1 .

82
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Eigenschaften von Gruppen
Verknüpfungstafeln
Untergruppen
Abbildungen in Gruppen
Ringe und Körper

3 Grundlagen der linearen Algebra

83
Es sei G = {g1 , ..., gn } eine n-elementige Menge und

◦:G ×G →G

eine Verknüpfung auf G.


Dann kann man die endlich vielen „Produkte“

hν,µ := gν ◦ gµ , 1 ≤ ν, µ ≤ n

in einer Verknüpfungstafel zusammenfassen:


◦ g1 g2 · · · gµ · · · gn
g1 h1,1 h1,2 · · · h1,µ · · · h1,n
g2 h2,1 h2,2 · · · h2,µ · · · h2,n
.. .. .. .. ..
. . . . .
gν hν,1 hν,2 ··· hν,µ ··· hν,n
.. .. .. ..
. . . .
gn hn,1 hn,2 ··· hn,µ ··· hn,n

84
Ist (G, ◦) eine Gruppe, so nennt man die Verknüpfungstafel von ◦
auch Gruppentafel.

Folgerung 2.1.6

Es sei ∅ =
6 G = {g1 , ..., gn } eine n-elementige Menge und ◦ : G × G → G
eine assoziative Verknüpfung auf G. Dann sind die folgende zwei
Behauptungen äquivalent:
(i) (G, ◦) ist eine Gruppe.
(ii) In jeder Zeile und in jeder Spalte der Verknüpfungstafel von ◦ tritt
jedes Element von G genau einmal auf.

85
Beispiele
Wir betrachten die Verknüpfungstafeln von ({wahr, falsch}, ∧) und
({wahr, falsch}, ∨). :
∧ wahr falsch
wahr wahr falsch
falsch falsch falsch
∨ wahr falsch
wahr wahr wahr
falsch wahr falsch

Also sind weder ({wahr, falsch}, ∧) noch ({wahr, falsch}, ∨) Gruppen.

86
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Eigenschaften von Gruppen
Verknüpfungstafeln
Untergruppen
Abbildungen in Gruppen
Ringe und Körper

3 Grundlagen der linearen Algebra

87
Definition 2.1.7
Es sei (G, ◦) eine Gruppe und U ⊆ G.
(i) U heißt Untergruppe von G, wenn (U, ◦) selbst wieder eine Gruppe
ist (in Zeichen: U < G).

(ii) Die Linksnebenklasse gU von g ∈ G ist definiert durch

gU := {g ◦ u ∈ G : u ∈ U}.

(iii) Die Rechtsnebenklasse Ug von g ∈ G ist definiert durch

Ug := {u ◦ g ∈ G : u ∈ U}.

(iv) Eine Untergruppe U < G heißt Normalteiler von G, wenn gilt

gU = Ug für alle g ∈ G

(in Zeichen: U / G).


88
Bemerkungen B11:
1 Ist G eine abelsche Gruppe, so ist jede Untergruppe auch ein
Normalteiler.

2 Ist G eine beliebige Gruppe mit neutralem Element e, so sind {e} und
G Normalteiler von G.

3 Für jedes n ∈ N0 ist (nZ, +) ein Normalteiler von (Z, +).

4 Es gilt
(Z, +) / (Q, +) / (R, +)
und
(Q \ {0}, ·) / (R \ {0}, ·).

89
Theorem 2.1.8
Es sei G eine Gruppe und ∅ =
6 U ⊆ G. Dann sind äquivalent:
(i) U ist eine Untergruppe von G.

(ii) Für alle g, h ∈ U gilt


g −1 h ∈ U.

Beweis.
(i) ⇒ (ii) ist klar.
(ii) ⇒ (i) Wegen U 6= ∅, existiert g0 ∈ U. Damit folgt aus (ii) (mit
h := g0 )
e = g0−1 g0 ∈ U,
d.h. U besitzt ein neutrales Element. Ferner gilt für alle g ∈ U

g −1 = g −1 e ∈ U,

also besitzt jedes Element g ∈ U ein inverses Element g −1 ∈ U.

90
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Eigenschaften von Gruppen
Verknüpfungstafeln
Untergruppen
Abbildungen in Gruppen
Ringe und Körper

3 Grundlagen der linearen Algebra

91
Definition 2.1.9
Es seien (G, ∗) und (H, ◦) Gruppen. Eine Abbildung ϕ : G → H heißt
(Gruppen-)Homomorphismus, wenn für alle a, b ∈ G gilt

ϕ(a ∗ b) = ϕ(a) ◦ ϕ(b).

Bezeichnungen B12: Es sei ϕ : G → H ein Homomorphismus.


1 ϕ heißt Monomorphismus, falls ϕ injektiv ist.
2 ϕ heißt Epimorphismus, falls ϕ surjektiv ist.
3 ϕ heißt Endomorphismus, falls G = H.
4 ϕ heißt Isomorphismus, falls ϕ bijektiv ist. In diesem Fall schreibt
man
G∼ = H (G ist isomophismus zu H).

5 ϕ heißt Automorphismus, falls ϕ bijektiv ist und G = H.

92
Beispiele
1 Es sei n ∈ N0 und
ϕ1 : a ∈ Z 7−→ na ∈ Z.
Dann ist ϕ1 ein Endomorphismus auf (Z, +), denn für alle a, b ∈ Z
gilt
ϕ1 (a + b) = n(a + b) = na + nb = ϕ1 (a) + ϕ1 (b).

93
2 Es sei a ∈ R \ {0, −1, 1} und

ϕ2 : n ∈ Z 7−→ an ∈ R \ {0}.

Dann ist ϕ2 ein Monomorphismus von (Z, +) in (R \ {0}, ·).

3 Es sei R+ :=]0, +∞[ und

ϕ3 : x ∈ R+ 7−→ ln(x ) ∈ R.

Dann ist ϕ3 ein Isomorphismus von (R+ , ·) auf (R, +).

94
Definition 2.1.10
Es seien G, H Gruppen, e 0 das neutrale Element von H und ϕ : G → H ein
Homomorphismus. Dann heißt

Ker ϕ := {g ∈ G : ϕ(g) = e 0 }

Kern von ϕ, und

Im ϕ := {ϕ(g) ∈ H : g ∈ G} = ϕ(G)

Bild von ϕ.

95
Lemma 2.1.11
Es seien (G, ∗), (H, ◦) Gruppen mit den neutralen Elementen e ∈ G bzw.
e 0 ∈ H und ϕ : G → H ein Homomorphismus. Dann gilt
(i) ϕ(e) = e 0 ,
(ii) ϕ(g −1 ) = (ϕ(g))−1 , für alle g ∈ G,
(iii) Ker ϕ ist ein Normalteiler von G, d.h.

Ker ϕ / G.

(iv) Im ϕ ist eine Untergruppe von H, d.h.

Im ϕ < H.

96
Beweis.
(i) Es gilt
(G1)
ϕ(e) = ϕ(e ∗ e) = ϕ(e) ◦ ϕ(e).

(G2)
e0 = (ϕ(e))−1 ◦ ϕ(e) = (ϕ(e))−1 ◦ (ϕ(e) ◦ ϕ(e))
(G2) (G1)
= ((ϕ(e))−1 ◦ ϕ(e)) ◦ ϕ(e) = e 0 ◦ ϕ(e) = ϕ(e).

(ii) Sei g ∈ G beliebig vorgegeben, dann gilt


(i) (G2)
e 0 = ϕ(e) = ϕ(g −1 ∗ g) = ϕ(g −1 ) ◦ ϕ(g).

Daraus folgt nach Folgerung 2.1.5 (ii)

ϕ(g −1 ) = (ϕ(g))−1 .

97
(iii) Nach (i) gilt Ker ϕ 6= ∅. Ferner folgt für a, b ∈ Ker ϕ
(ii)
ϕ(a−1 ∗ b) = ϕ(a−1 ) ◦ ϕ(b) = (ϕ(a))−1 ◦ ϕ(b)
= e0 ◦ e0 = e0,

d.h. mit a, b ∈ Ker ϕ ist auch a−1 ∗ b ∈ Ker ϕ. Nach Theorem 2.1.8
gilt daher
Ker ϕ < G.
Ferner gilt für jedes g ∈ G
a ∈ g ∗ Ker ϕ ⇔ g −1 ∗ a ∈ Ker ϕ
2.1.10
⇔ ϕ(g −1 ∗ a) = ϕ(g −1 ) ◦ ϕ(a) = e 0
2.1.4(i)
⇔ ϕ(a) ◦ ϕ(g −1 ) = ϕ(a ∗ g −1 ) = e 0
2.1.10
⇔ a ∗ g −1 ∈ Ker ϕ
⇔ a ∈ ( Ker ϕ) ∗ g,

98
Damit gilt auch
Ker ϕ / G.

(iv) Wegen e 0 = ϕ(e) gilt Im ϕ 6= ∅. Seien u, v ∈ Im ϕ beliebig vorgegeben.


Dann existieren a, b ∈ G, so dass gilt

u = ϕ(a) und v = ϕ(b).

Mit a, b ∈ G ist auch a−1 ∗ b ∈ G also


(ii)
u −1 ◦ v = ϕ(a)−1 ◦ ϕ(b) = ϕ(a−1 ∗ b) ∈ Im ϕ.

Nach Theorem 2.1.8 ist daher Im ϕ eine Untergruppe von H.

99
Beispiele
1 Für ϕ1 : a ∈ Z 7−→ n · a ∈ Z gilt
(
Z, falls n = 0,
Ker ϕ1 =
{0}, falls n > 0

und
Im ϕ1 = n · Z = {n · a ∈ Z : a ∈ Z}.

2 Für ϕ2 : n ∈ Z 7−→ an ∈ R \ {0} (a ∈ R \ {−1, 0, 1}) (nach


(R \ {0}, ·)) gilt

Ker ϕ2 = {0}, Im ϕ2 = {an ∈ R \ {0} : n ∈ Z}.

3 Für ϕ3 : x ∈ R+ 7−→ ln(x ) ∈ R (von (R+ , ·) nach (R, +)) gilt

Ker ϕ3 = {1}, Im ϕ3 = R.
100
Theorem 2.1.12
Es seien G, H Gruppen und ϕ : G → H ein Homomorphismus. Dann sind
äquivalent:
(i) ϕ ist injektiv (d.h. ϕ ist Monomorphismus),
(ii) Ker ϕ = {e}.

Beweis.
(i) ⇒ (ii) ist klar.
(ii) ⇒ (i) Seien a, b ∈ G gegeben, so dass gilt

ϕ(a) = ϕ(b),

dann folgt daraus


2.1.11(ii)
e 0 = ϕ(a)−1 ϕ(b) = ϕ(a−1 b),

also wegen Ker ϕ = {e} ist a−1 b = e. Daher a = b.

101
Theorem 2.1.13
Es seien F , G und H Gruppen , sowie ϕ : F → G, ψ : G → H
Homomorphismus. Dann gilt
(i) ψ ◦ ϕ : F → H ist ebenfalls ein Homomorphismus.

(ii) Ist ϕ bijektiv (also ein Isomorphismus), so ist auch ϕ−1 : G → F ein
Homomorphismus (sogar Isomorphismus).

102
Beweis.
(i) Für all a, b ∈ F gilt

(ψ ◦ ϕ)(ab) = ψ(ϕ(ab)) = ψ(ϕ(a)ϕ(b))


= ψ(ϕ(a))ψ(ϕ(b)) = (ψ ◦ ϕ)(a)(ψ ◦ ϕ)(b).

(ii) Es sei u, v ∈ G beliebig vorgegeben. Dann existieren a, b ∈ F , so dass


gilt
u = ϕ(a) und v = ϕ(b).
Also
a = ϕ−1 (u) und b = ϕ−1 (v ).
Damit folgt

ϕ−1 (uv ) = ϕ−1 (ϕ(a)ϕ(b)) = ϕ−1 (ϕ(ab))


= ab = ϕ−1 (u)ϕ−1 (v ).

103
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Ringe und Körper
Ringe und Unterringe
Ringe und Abbildungen
Körper
Polynome

3 Grundlagen der linearen Algebra

104
Definition 2.2.1 (Ring)

(i) Ein Ring ist ein Tripel (R, +, ·) bestehend aus einer Menge R und
zwei Verknüpfungen auf R

+ : R × R → R, und · : R × R → R,

so dass gilt
(R1) (R, +) ist eine abelsche Gruppe,
(R2) (R, ·) ist eine Halbgruppe,
(R3) Für alle a, b, c ∈ R gelten die Distributivgesetze
(D1) a · (b + c) = a · b + a · c,
(D2) (a + b) · c = a · c + b · c.
(ii) Ein Ring (R, +, ·) heißt Ring mit Eins, wenn es ein Einselement
η ∈ R gibt, so dass für alle a ∈ R gilt
η · a = a · η = a.

(iii) Ein Ring (R, +, ·) heißt kommutativer Ring, wenn die Multiplikation
· kommutativ ist, d.h. für alle a, b ∈ R gilt
a · b = b · a.
105
Bemerkungen B13:
1 Wie schon bei den Gruppen, vereinfachen wir meistens die ausführliche
Notation, und sprechen von einem Ring R anstatt (R, +, ·).

2 Das neutrale Element der Gruppe (R, +) eines Ringes R bezeichnen


wir mit 0R oder auch einfach mit 0. Ist R ein Ring mit Eins, so ist das
Einselement eindeutig bestimmt und wird mit 1R oder auch einfach
mit 1 bezeichnet.

Beispiele
1 Es sei R = {o} eine einelementige Menge mit den trivialen
Verknüpfungen
o + o = o und o · o = o.
Dann ist (R, +, ·) ein kommutativer Ring mit Eins (Es gilt also 1 = o).

2 (Z, +, ·), (Q, +, ·) , (R, +, ·) und (C, +, ·) sind weitere kommutative


Ringe mit Eins.

106
3 Für n ∈ N0 ist (nZ, +, ·) ein kommutativer Ring. Ist n ≥ 2, so besitzt
nZ kein Einselement.

4 Es sei (G, +) eine abelsche Gruppe mit dem neutralen Element 0 ∈ G


und
End(G) = {ϕ : G → G : ϕ ist Endomorphismus}
die Menge aller Endomorphismen auf G. Für ϕ, ψ ∈ End(G) definieren
wir
ϕ + ψ : a ∈ G 7−→ ϕ(a) + ψ(a) ∈ G, ϕ · ψ := ϕ ◦ ψ.
Dann ist (End(G), +, ·) ein Ring mit Einselement 1 = idG .
(End(G), +, ·) ist im Allgemeinen nicht kommutativ.

107
Lemma 2.2.2
Es sei R ein Ring. Dann gilt für alle a, b ∈ R
(i) 0 · a = a · 0 = 0,
(ii) (−a) · b = a · (−b) = −(a · b),
(iii) (−a) · (−b) = a · b.

Beweis.
(i) Es gilt
(D2)
0 · a = (0 + 0) · a = 0 · a + 0 · a.
Daraus folgt
0 = −(0 · a) + (0 · a) = −(0 · a) + (0 · a + 0 · a) = 0 · a.
Analog folgt a · 0 = 0.

108
(ii) Es gilt
(i) (D2)
0 = 0 · b = (−a + a) · b = (−a) · b + a · b.
Nach Folgerung 2.1.5 ist (−a) · b = −(a · b).

Analog folgt a · (−b) = −(a · b).

(iii) Es gilt
(ii) 2.1.5(iii)
(−a) · (−b) = a · (−(−b)) = a · b.

109
Definition 2.2.3
Es sei (R, +, ·) ein Ring.
(i) U ⊆ R heißt Unterring von R, wenn (U, +, ·) selbst wieder ein Ring
ist.
(ii) V ⊆ R heißt (links)Ideal von R, wenn gilt
(I1) (V, +) ist Untergruppe von (R, +).
(I2) Für alle r ∈ R und a ∈ V gilt r · a ∈ V, d. h. für alle r ∈ R gilt r · V ⊆ V.

Bemerkung B14:
Jedes Ideal eines Ringes R ist auch ein Unterring von R. Dagegen ist nicht
jeder Unterring auch ein Ideal, z. B. Ist (Z, +, ·) ein Unterring von
(Q, +, ·), aber kein Ideal von Q.

110
Beispiele
1 Für jeden Ring R sind {0} und R Ideale von R.
2 Für n, m ∈ N sind äquivalent
(i) (nZ, +, ·) ist Ideal von (mZ, +, ·),
(ii) m teilt n, d.h. m|n.

3 Man kann zeigen: V ⊆ Z ist genau dann ein Ideal von Z, wenn es ein
n ∈ N0 gibt mit V = nZ.

111
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Ringe und Körper
Ringe und Unterringe
Ringe und Abbildungen
Körper
Polynome

3 Grundlagen der linearen Algebra

112
Definition 2.2.4
Es seien R und R 0 Ringe. Eine Abbildung ϕ : R → R 0 heißt
(Ring-)Homomorphismus, wenn für alle r , s ∈ R gilt
(i) ϕ(r + s) = ϕ(r ) + ϕ(s),
(ii) ϕ(r · s) = ϕ(r ) · ϕ(s).

Bemerkung B15:
Die Begriffe Mono-, Epi-, Endo-, Iso- und Automophismus werden
analog zu Definition 2.1.9 definiert.

113
Lemma 2.2.5
Es seien R, R 0 und R 00 Ringe, sowie ϕ : R → R 0 , ψ : R 0 → R 00
Homomorphismen. Dann gilt:
(i) ϕ(0) = 00 ,
(ii) ϕ(−r ) = −ϕ(r ) für alle r ∈ R,
(iii) Ker ϕ := {r ∈ R : ϕ(r ) = 00 } ist ein Ideal von R,
(iv) Im ϕ := ϕ(R) = {ϕ(r ) ∈ R 0 : r ∈ R} ist ein Unterring von R 0 ,
(v) ϕ ist genau dann injektiv, wenn gilt Ker ϕ = {0},
(vi) Ist ϕ bijektiv, so ist auch ϕ−1 : R 0 → R ein Homomorphismus,
(vii) ψ ◦ ϕ : R → R 00 ist ein Homomorphismus.

114
Definition 2.2.6
Es sei R ein Ring mit Eins.
(i) a ∈ R heißt Einheit von R, wenn es ein b ∈ R gibt, so dass gilt

a · b = b · a = 1.

(ii) Die Menge aller Einheiten von R wird mit R ∗ bezeichnet. Also

R ∗ = {a ∈ R : (∃b ∈ R)(a · b = b · a = 1)}.

115
Theorem 2.2.7
Es sei R ein Ring mit Eins. Dann gilt (R ∗ , ·) ist ein Gruppe.

Beweis.
Es genügt zu zeigen:
a, b ∈ R ∗ ⇒ a · b ∈ R ∗ .
Zu a, b ∈ R ∗ existiert nach Definition a0 , b 0 ∈ R ∗ , so dass gilt

a0 · a = a · a0 = 1 = b · b 0 = b 0 · b.

Daraus folgt mit c := ab

(b 0 a0 )c = b 0 (a0 c) = b 0 ((a0 a)b) = b 0 (1 · b) = b 0 b = 1,

c(b 0 a0 ) = (c · b 0 ) · a0 = (a(bb 0 ))a0 = (a · 1)a0 = a · a0 = 1,


d.h. es gilt a · b = c ∈ R ∗ .

116
Bemerkung B16:
Ist R 6= {0} mit Eins, dann gilt 0 6∈ R ∗ .

Beispiele
1 Z∗ = {−1, 1}, Q∗ = Q \ {0}, R∗ = R \ {0}, C∗ = C \ {0}.

2 Es sei G eine abelsche Gruppe. Dann gilt

End(G)∗ = Aut(G) = {ϕ : G → G : ϕ ist Automorphismus}.

117
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Ringe und Körper
Ringe und Unterringe
Ringe und Abbildungen
Körper
Polynome

3 Grundlagen der linearen Algebra

118
Definition 2.2.8
Es sei (K , +, ·) ein Ring mit Eins. Dann heißt K Körper, wenn (K \ {0}, ·)
eine kommutative Gruppe ist.
K heißt Schiefkörper, wenn die Multiplikation · nicht kommutativ ist.

Bemerkung B17:
Jeder Körper enthält also mindestens zwei Elemente, nämlich 0 und 1.
Folgerung 2.2.9

Es sei (K , +, ·) ein Ring mit Eins, dann sind äquivalent:


(i) K ist ein Körper,
(ii) K ∗ = K \ {0}.

Beweis.
Folgt aus Theorem 2.2.7 .

119
Beispiele
1 (Q, +, ·), (R, +, ·) und (C, +, ·) sind jeweils kommutative Körper.

2 Es sei F4 := {a0 , a1 , a2 , a3 } eine vierelementige Menge und + bzw. ·


definiert durch
+ a0 a1 a2 a3 · a0 a1 a2 a3
a0 a0 a1 a2 a3 a0 a0 a0 a0 a0
a1 a1 a0 a3 a2 a1 a0 a1 a2 a3
a2 a2 a3 a0 a1 a2 a0 a2 a3 a1
a3 a3 a2 a1 a0 a3 a0 a3 a1 a2 .

Dann ist (F4 , +, ·) ein Körper mit Nullelement a0 und Einselement a1 .

120
Definition 2.2.10
Es sei R 6= {0} ein kommutativer Ring mit Eins (also insbesondere 1 6= 0).
R heißt Integritätsring (oder auch Integritätsbereich), wenn gilt

a, b ∈ R ∧ a 6= 0 ∧ b 6= 0 ⇒ a · b 6= 0

oder dazu äquivalent:

a, b ∈ R ∧ a · b = 0 ⇒ a = 0 ∨ b = 0.

Folgerung 2.2.11

Jeder Körper ist ein Integritätsring.

121
1 Grundlagen

2 Algebraische Strukturen
Gruppen
Ringe und Körper
Ringe und Unterringe
Ringe und Abbildungen
Körper
Polynome

3 Grundlagen der linearen Algebra

122
Es sei R ein Ring und m, n ∈ Z mit m ≤ n. Dann definieren wir für
am , am+1 , ..., an ∈ R
n
X
aj := am + am+1 + ... + an−1 + an .
j=m

Konvention: Für n < m setzen wir


n
X
aj := 0.
j=m

Rechenregeln:
1 Für m, n ∈ Z mit m ≤ n, am , am+1 , ..., an ∈ R und
bm , bm+1 , ..., bn ∈ R gilt
n
X n
X n
X
aj + bj = (aj + bj ).
j=m j=m j=m

123
2 Für k, m, n ∈ Z mit k ≤ m ≤ n und ak , ..., an ∈ R gilt
n
X m
X n
X
aj = aj + aj .
j=k j=k j=m+1

3 Für r , m, n ∈ Z mit m ≤ n und am , ..., an ∈ R gilt


n
X n+r
X
aj = aj−r .
j=m j=m+r

4 Für m, n ∈ Z mit m ≤ n und am , ..., an ∈ R, b ∈ R gilt


 
n
X n
X n
X n
X
b· aj = b · aj , und  aj  · b = aj · b.
j=m j=m j=m j=m

124
5 Für m, n ∈ N0 und a0 , ..., am ∈ R, b0 , ..., bn ∈ R gilt
  !  
m n m n n m
!
X X X X X X
 aµ  bν = aµ bν =  aµ bν 
µ=0 ν=0 µ=0 ν=0 ν=0 µ=0
= a0 b0 + a0 b1 + ... + a0 bn +
+ a1 b0 + a1 b1 + ...a1 bn
...
+ am b0 + am b1 + ... + am bn
 
m+n
XX k m+n
XX k
= aj bk−j = ak−j bj  .
k=0 j=0 k=0 j=0

Dabei setzen wir

am+1 = ... = am+n = 0, falls n ≥ m,

bn+1 = ... = bn+m = 0, falls m ≥ n.

125
Es sei R ein kommutativer Ring.
Unter einem Polynom p(T ) in der Unbestimmten T mit
Koeffizienten in R verstehen wir einen Ausdruck der Form
n
X
p(T ) = av T v , n ∈ N0 , a0 , a1 , ..., an ∈ R.
v =0

Zwei Polynome p(T ) = nv =0 av T v und q(T ) = m u


P P
u=0 bu T sind
genau dann gleich, wenn es ein r ∈ N0 gibt, so dass gilt

aj = bj , 0 ≤ j ≤ r

und
ar +1 = ... = an = 0, br +1 = ... = bm = 0.

126
Insbesondere ist p(T ) = nv =0 av T v genau dann das Nullpolynom
P

(in Zeichen: p = 0), wenn gilt:

av = 0, 0 ≤ v ≤ n.

Definition 2.2.12
Es sei R ein kommutativer Ring. Dann bezeichnen wir die Menge aller
Polynome in der Unbestimmten T mit Koeffizienten in R mit R[T ], also
( n )
X
v
R[T ] := av T : n ∈ N0 ∧ a0 , ..., an ∈ R .
v =0

127
Es sei R ein kommutativer Ring, p(T ) = nv =0 av T v und
P

q(T ) = m u
u=0 bu T zwei Polynome mit Koeffiezienten a0 , ..., an ∈ R bzw.
P

b0 , ..., bm ∈ R.
Es sei o. B. d. A. n ≥ m. Dann gilt mit bm+1 = bm+2 = ... = bn := 0:
m
X n
X
q(T ) = bu T u = bu T u .
u=0 u=0

Die Summe von p(T ) und q(T ) ist definiert durch


n
X
p(T ) + q(T ) := (av + bv )T v .
v =0

Wir definieren das Produkt von p(T ) und q(T ) durch


 
m+n
X Xk
p(T ) · q(T ) :=  aj bk−j  T k .
k=0 j=0

128
Theorem 2.2.13
Es sei R ein kommutativer Ring.
(i) Dann ist R[T ] mit der oben definierten Addition und Multiplikation
ein kommutativer Ring.
(ii) Ist zusätzlich R ein kommutativer Ring mit Eins, so ist auch R[T ] ein
kommutativer Ring mit Eins.

Definition 2.2.14
Pn v
Es sei R ein kommutativer Ring und p(T ) = v =0 av T ∈ R[T ]. Dann ist
der Grad des Polynoms p definiert durch
(
max{v ∈ {0, ..., n} : av 6= 0}, p 6= 0,
grad(p) :=
−∞, p = 0.

129
Lemma 2.2.15 (Gradformel)

Es sei R ein kommutativer Ring und


n
X m
X
p(T ) = av T v , q(T ) = bu T u ∈ R[T ]
v =0 u=0

zwei Polynome mit an · bm 6= 0 (daraus folgt insbesondere n = grad(p) und


m = grad(q)). Dann gilt

grad(p · q) = grad(p) + grad(q).

Beweis.
Folgt aus der Definition.

130
Folgerung 2.2.16

Ist R ein Integritätsring, dann gilt für alle p, q ∈ R[T ]

grad(p · q) = grad(p) + grad(q).

Folgerung 2.2.17

Es sei R ein kommutativer Ring. Dann sind äquivalent:


(i) R ist ein Integritätsring.

(ii) R[T ] ist ein Integritätsring.

131
Lemma 2.2.18 (Division mit Rest)

Es sei K ein Körper und p, q ∈ K [T ] gegeben mit q 6= 0. Dann existieren


eindeutig bestimmte Polynome s, r ∈ K [T ] mit grad(r ) < grad(q), so dass
gilt
p(T ) = s(T )q(T ) + r (T ).

Beweis.
Die Eindeutigkeit ist zu zeigen.

Die Existenz von s, r kann durch den Divisionsalgorithmus bestätigt


werden:

132
Es sei K ein Körper und p, q ∈ K [T ] gegeben mit m := grad(q) ≥ 0
(also insbesondere q 6= 0).

Wir setzen s(T ) := 0, r (T ) := p(T ) und führen folgende


While-schleife aus:
While (grad(r ) ≥ m) do
HK (r ) grad(r )−m
(
s(T ) := s(T ) + HK (q) T ,
HK (r ) grad(r )−m
r (T ) := r (T ) − HK (q) T · q(T )

Dabei bezeichnet HK (f ) den Höchst Koeffizient eines beliebigen


Polynoms 0 6= f ∈ K [T ].

Nach Abbruch der Schleife gilt offenbar

p(T ) = s(T ) · q(T ) + r (T ) ∧ grad(r ) < m.

133
Beispiel
Es sei K = Z7 und

p(T ) = 5T 4 + 3T 3 + 2T 2 + 1 ∈ Z7 [T ], q(T ) = 3T 2 + 4T + 4 ∈ Z7 [T ].

Polynomdivision liefert:

p(T ) = s(T )q(T ) + r (T )

mit

s(T ) = 4T 2 + 5T + 5 ∈ Z7 [T ], r (T ) = 2T + 2 ∈ Z7 [T ].

134
Definition 2.2.19 (Nullstellen von Polynomen)

Es sei R ein kommutativer Ring und


n
X
p(T ) = av T v ∈ R[T ].
v =0

r ∈ R heißt Nullstelle von p, wenn gilt


n
X
p(r ) := av r v = 0.
v =0

135
Theorem 2.2.20
Es sei K ein Körper, 0 6= p ∈ K [T ] und a ∈ K eine Nullstelle von p. Dann
existiert genau ein Polynom s ∈ K [T ] mit grad(s) = grad(p) − 1, so dass
gilt
p(T ) = (T − a) · s(T ).

Beweis.
Nach Lemma 2.2.18 existieren eindeutig bestimmte s, r ∈ K [T ] mit
grad(r ) < grad(T − a) = 1, so dass gilt

p(T ) = (T − a)s(T ) + r (T ).

Daher r (a) = p(a) − (a − a) · s(a) = 0 und wegen grad(r ) ≤ 0 folgt


daraus r = 0.

136
Folgerung 2.2.21

Es sei K ein Körper und p ∈ K [T ] gegeben mit m := grad(p) > 0. Dann


besitzt p höchstens m Nullstellen in K .

Beispiele
1 T 2 − 1 = (T − 1)(T + 1) ∈ Q[T ] hat die Nullstellen −1, 1 ∈ Q.

2 T 2 + 1 ∈ R[T ] hat keine Nullstelle in R.

3 T 2 + 1 = (T − i)(T + i) ∈ C[T ] besitzt die beiden Nullstellen


i, −i ∈ C.

4 T 2 + T + 1 ∈ Z3 [T ] besitzt die Nullstelle 1 in Z3 , denn


T 2 + T + 1 = (T − 1)(T + 2) in Z3 .

137
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra

138
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Vektorraum und Unterraum
Linearkombination von Vektoren
Lineare Unabhängigkeit
Basis von Vektorraum
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus

139
140
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Vektorraum und Unterraum
Linearkombination von Vektoren
Lineare Unabhängigkeit
Basis von Vektorraum
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus

141
Definition 3.1.1 (K -Vektorraum)

Es sei K ein Körper. Ein K -Vektorraum (oder auch Vektorraum über K )


ist ein Tripel (V , +, ·) bestehend aus einer Menge V und zwei
Verknüpfungen

+ : (v , w ) ∈ V × V 7−→ v + w ∈ V ,
· : (α, v ) ∈ K × V 7−→ αv ∈ V ,

so dass gilt:
(V1) (V , +) ist eine abelsche Gruppe,
(V2) Für alle v , w ∈ V und α, β ∈ K gilt
(i) (α + β)v = αv + βv ,
(ii) α(v + w ) = αv + αw ,
(iii) α(βv ) = (αβ)v ,
(iv) 1 · v = v.

142
Bemerkung B18:
Ist V ein Vektorraum über dem Körper K , so heißen die Elemente von V
Vektoren und die Elemente von K Skalare. Das neutrale Element in (V , +)
ist der sogenannte Nullvektor ϑ ∈ V .

Beispiele
1 Es sei K ein Körper, n ∈ N und

V := K n = {(x1 , ..., xn ) : x1 , ..., xn ∈ K }

die Menge aller geordneten n−Tupel von Elementen aus K . Wir


definieren für x = (x1 , ..., xn ) ∈ V , y = (y1 , ..., yn ) ∈ V und α ∈ K

x +y := (x1 + y1 , ..., xn + yn ),
α·x := (αx1 , ..., αxn ).

143
Zusammen mit diesen beiden Verknüpfungen

+:V ×V → V
·:K ×V → V

ist V = K n ein K −Vektorraum.


Der Nullvektor ist ϑ = (0, ..., 0) ∈ K n .
Der zu x = (x1 , ..., xn ) ∈ V inverse ( negative) Vektor ist gegeben
durch −x = (−x1 , ..., −xn ).
Für K = R und n = 2 kann man auch solche Operationen anschaulich
darstellen.
2 Beispiel (1) liefert für n = 1: Jeder Körper K ist ein Vektorraum über
sich selbst.
3 Für jeden Körper K ist die Menge K [T ] aller Polynome zusammen
mit der von uns definierten Addition eine abelsche Gruppe.

144
Pn j
Für p(T ) = j=0 aj T ∈ K [T ] und α ∈ K sei
n
X
(α · p)(T ) := (α · aj )T j .
j=0

Damit wird K [T ] zu einem K −Vektorraum.


4 Es sei K ein Körper, χ 6= ∅ eine Menge und

K χ := {f : χ → K : f ist Abbildung}.

Für f , g ∈ K χ und α ∈ K definieren wir

f +g : x ∈ χ 7−→ f (x ) + g(x ) ∈ K ,
α·f : x ∈ χ 7−→ α · f (x ) ∈ K .

Zusammen mit diesen Verknüpfungen bildet K χ einen


K −Vektorraum mit dem Nullvektor (Nullabbildung)
ϑ : x ∈ χ 7−→ 0 ∈ K .

145
Lemma 3.1.2
Es sei V ein Vektorraum über dem Körper K . Dann gilt
(i) 0 · v = ϑ für alle v ∈ V ,
(ii) λ · ϑ = ϑ für alle λ ∈ K ,
(iii) 0 6= λ ∈ K ∧ ϑ 6= v ∈ V ⇒ λv 6= ϑ,
(iv) (−1) · v = −v .

Beweis
V 2(i)
(i) 0 · v = (0 + 0)v = 0 · v + 0 · v ⇒ ϑ = 0 · v .
V 2(ii)
(ii) λϑ = λ(ϑ + ϑ) = λϑ + λϑ ⇒ ϑ = λ · ϑ.

146
(iii) Angenommen es wäre λ · v = ϑ. Wegen λ 6= 0, existiert
1 −1 ∈ K \ {0}. Damit folgt
λ =λ
1 1 1
 
(ii) V 2(iii) V 2(iv )
ϑ = · ϑ = · (λv ) = ·λ ·v =1·v = v.
λ λ λ
Also λ · v = ϑ ist ein Widerspruch zu v 6= ϑ.
(i) V 2(i) V 2(iv )
(iv) Aus ϑ = 0 · v = (−1 + 1)v = (−1)v + 1 · v = (−1)v + v folgt
−v = (−1) · v .

147
Definition 3.1.3
Es sei V ein K -Vektorraum und U ⊆ V . U heißt Untervektorraum (oder
auch kurz: Unterraum; in Zeichen U < V ) von V , wenn U selbst wieder
ein K −Vektorraum ist.

Theorem 3.1.4
Es sei V ein K −Vektorraum und ∅ =
6 U ⊆ V . Dann sind äquivalent
(i) U ist ein Unterraum von V .
(ii) Für alle u, v ∈ U und α ∈ K gilt

u + v ∈ U ∧ αu ∈ U.

(iii) Für alle u, v ∈ U und α, β ∈ K gilt

αu + βv ∈ U.

148
Beweis.
(i) ⇒ (ii) ist klar.
(ii) ⇒ (iii) Für u, v ∈ U und α, β ∈ K gilt mit (ii)

αu, βv ∈ U.

Wieder nach (ii) folgt daraus αu + βv ∈ U.

(iii) ⇒ (i) Aus (iii) folgt zunächst (mit α = 1, β = −1), dass für alle
u, v ∈ U das Element u − v zu U gehört. Nach Theorem 2.1.8 ist
damit (U, +) eine Untergruppe von (V , +). Ferner folgt aus (iii) (mit
β = 0) αu ∈ U für alle u ∈ U und α ∈ K , d.h.

· : (α, u) ∈ K × U 7−→ α · u ∈ U

ist wohldefiniert. Da die Eigenschaften (V2)(i)-(iv) auf ganz V erfüllt


sind, gelten sie insbesondere auch in U. Damit ist U ein
K −Vektorraum, also ein Unterraum von V .

149
Theorem 3.1.5
Es sei V ein K −Vektorraum und ∅ =
6 V ⊆ P(V ) ein System von
Untervektorräumen von V (d.h. jedes U ∈ V ist Untervektorraum von V ).
Dann ist auch \
W := U
U∈V

ein Untervektorraum von V .

Beweis.
Für jedes U ∈ V gilt ϑ ∈ U, also
\
ϑ∈ U = W.
U∈V

Damit gilt W 6= ∅. Seien nun u, v ∈ W und α, β ∈ K beliebig vorgegeben.


Dann gilt nach Theorem 3.1.4 αu + βv ∈ U für alle U ∈ V. Daher ist
αu + βv ∈ W . Mit Theorem 3.1.4 folgt die Behauptung.

150
Definition 3.1.6
Es sei V ein K −Vektorraum und E ⊆ V . Wir setzen

V := {U < V : E ⊆ U}, V 6= ∅ wegen V ∈ V

Dann ist \
spanE := U
U∈V

nach Theorem 3.1.5 ein Untervektorraum von V .

spanE heißt der von E in V aufgespannte Untervektorraum.

Ist W ein Untervektorraum von V und E ⊆ V , so dass gilt

W = spanE ,

so heißt E Erzeugendensystem von W .


151
Beispiel
Ist V ein K −Vektorraum, dann gilt

span ∅ = span{ϑ} = {ϑ},

spanV = V .

Lemma 3.1.7
Es sei V ein K −Vektorraum und E , E1 , E2 ⊆ V . Dann gilt
(i) E ⊆ span E ,

(ii) E1 ⊆ E2 ⇒ span E1 ⊆ span E2 ,

(iii) U < V ∧ E ⊆ U ⇒ span E ⊆ U,

(iv) span E = E ⇔ E ist Unterraum von V .

152
Beweis.
Es seien
V := {U < V : E ⊆ U},
Vk := {U < V : Ek ⊆ U}, k = 1, 2.

(i) Wegen E ⊆ U für alle U ∈ V folgt


\
E⊆ U = span E .
U∈V

(ii) Aus E1 ⊆ E2 folgt V2 ⊆ V1 und damit


\ \
span E1 = U⊆ U = span E2 .
U∈V1 U∈V2

(iii) folgt recht leicht.

153
(iv) „⇒ “ gilt nach Definition.
„⇐“ Ist E Unterraum von V , dann folgt aus (i) und (iii)

E ⊆ span E ⊆ E .

Bemerkung B19:
Nach Lemma 3.1.7 (iii) ist span E der kleinste Untervektorraum von V
(bzgl. der Ordnungsregel ⊆), der E enthält.

154
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Vektorraum und Unterraum
Linearkombination von Vektoren
Lineare Unabhängigkeit
Basis von Vektorraum
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus

155
Definition 3.1.8
Es sei V ein K −Vektorraum und E ⊆ V . Dann heißt jede endliche Summe
n
X
αj vj = α1 v1 + ... + αn vn
j=1

mit n ∈ N, α1 , ...αn ∈ K und v1 , ..., vn ∈ E Linearkombination von


Elementen aus E . Eine Linearkombination heißt trivial, wenn man
α1 = ... = αn = 0 wählt.

Theorem 3.1.9
Es sei V ein K − Vektorraum und E ⊆ V . Dann gilt
 
Xn 
span E = αj vj ∈ V : n ∈ N ∧ α1 , ..., αn ∈ K ∧ v1 , ..., vn ∈ E ,
 
j=1

d.h. der von E in V aufgespannte Untervektorraum besteht aus allen


Linearkombinationen von Elementen aus E .
156
Beweis.
Wir setzen zunächst
 
n
X 
W := αj vj ∈ V : n ∈ N ∧ α1 , ..., αn ∈ K ∧ v1 , ..., vn ∈ E .
 
j=1

W ⊆ span E : Seien n ∈ N, α1 , ..., αn ∈ K und v1 , ..., vn ∈ E beliebig


vorgegeben. Dann gilt nach Lemma 3.1.7 (i) und Theorem 3.1.4
n
X
α1 v1 + ... + αn vn = αj vj ∈ span E .
j=1

Daraus folgt
W ⊆ span E .

157
span E ⊆ W : Es gilt E ⊆ W , denn sei v ∈ E gegeben, dann gilt mit
n
n = 1, α1 = 1, v1 = v X
αj v j = 1 · v = v ∈ W .
j=1
Außerdem ist W ein Untervektorraum von V (Beweis: Übung), also
folgt mit Lemma 3.1.7 (iii)

span E ⊆ W .

158
Beispiele
1 Es sei K ein Körper und n ∈ N. Für 1 ≤ j ≤ n sei

j−te Stelle
ej := (0, ..., 0, 1 , 0, ..., 0) ∈ K n

und E = {e1 , e2 , ..., en } ⊆ K n . Dann folgt


 
Xn 
3.1.9
span E = αj ej ∈ K n : α1 , ..., αn ∈ K
 
j=1
= {(α1 , ..., αn ) ∈ K n : α1 , ..., αn ∈ K } = K n .

159
2 Es sei K ein Körper. Für k ∈ N0 sei

v0 = 1 ∈ K , und vk := T k ∈ K [T ], k = 1, 2, ...

und
E := {vk ∈ K [T ] : k ∈ N0 } ⊆ K [T ].
Dann gilt
( n )
3.1.9 X
span E = αk vk ∈ K [T ] : n ∈ N0 ∧ α1 , ..., αn ∈ K
k=0
( n )
X
k
= αk T ∈ K [T ] : n ∈ N0 ∧ α1 , ..., αn ∈ K
k=0
= K [T ].

160
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Vektorraum und Unterraum
Linearkombination von Vektoren
Lineare Unabhängigkeit
Basis von Vektorraum
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus

161
Definition 3.1.10
Es sei V ein K −Vektorraum.
(i) Die (endlich vielen ) Vektoren v1 , ..., vn ∈ V heißen linear
unabhängig, wenn aus
n
X
αj vj = ϑ, und α1 , ..., αn ∈ K
j=1

stets folgt α1 = ... = αn = 0 (d.h. der Nullvektor läßt sich nur trivial
aus den Vektoren v1 , ..., vn kombinieren.)

(ii) Eine Teilmenge von Vektoren E ⊆ V heißt linear unabhängig, wenn


je endlich viele paarweise verschiedene Vektoren v1 , ..., vn ∈ E linear
unabhängig sind.

162
(iii) Die Vektoren v1 , ..., vn ∈ V (bzw. die Teilmenge E ⊆ V ) heißt linear
abhängig, wenn sie nicht linear unabhängig sind (ist), d.h. es
existieren Skalare α1 , ..., αn ∈ K mit αl 6= 0 für ein l ∈ {i, 2, ..., n}, so
dass gilt
n
X
αj vj = ϑ
j=1

bzw. es existieren v1 , ..., vn ∈ E und α1 , ..., αn ∈ K mit αl 6= 0 für ein


l ∈ {1, ..., n}, so dass gilt
n
X
αj vj = ϑ.
j=1

Beispiele
1 Für jeden K −Vektorraum V ist der Nullvektor (bzw. E = {ϑ}) linear
abhängig.

163
2 Ist V ein K −Vektorraum und E ⊆ V linear unabängig, so ist auch
jede Teilmenge E 0 ⊆ E linear unabhängig.

3 Es sei K ein Körper, n ∈ N und e1 , ..., en ∈ K n . Dann sind e1 , ..., en


(bzw. E = {e1 , ..., en }) linear unabhängig. In der Tat, seien
α1 , ..., αn ∈ K gegeben mit
n
X
αj ej = ϑ,
j=1

dann folgt
n
X
αj ej = (α1 , ..., αn ) = (0, ..., 0),
j=1

also α1 = ... = αn = 0.

164
4 Es sei K ein Körper und

E := {T k ∈ K [T ] : k ∈ N}.

Dann ist E linear unabängig. Denn seien n ∈ N und α0 , ..., αn ∈ K


gegeben mit
n
X
αj T j = ϑ,
j=1

dann folgt α1 , ..., αn = 0.

5 Die Vektoren (1, 1, 3), (2, 0, 1), (2, 3, 1) ∈ R3 sind linear unabhängig,
denn sind α, β, γ ∈ K gegeben mit

α(1, 1, 3) + β(2, 0, 1) + γ(2, 3, 1) = ϑ,

dann folgt 

 α + 2β + 2γ = 0
α + 3γ = 0

 3α + β + γ = 0
165
Also α = −3γ. Dies in die erste und dritte Gleichung eingesetzt liefert
(
2β − γ = 0
β − 8γ = 0,

also γ = 2β. Eingesetzt in die letzte Gleichung erhalten wir daraus


−15β = 0, d.h. β = 0 und damit auch γ = α = 0.

6 Die Vektoren (1, 1, 3), (2, 0, 1), (2, 3, 1) ∈ Z35 sind linear abhängig,
denn
3 · (1, 1, 3) + 2 · (2, 0, 1) + 4 · (2, 3, 1) = ϑ.

166
Theorem 3.1.11
Es sei V ein K −Vektorraum und E ⊆ V . Dann sind äquivalent:
(i) E ist linear unabhängig.
(ii) Jedes v ∈ span E besitzt eine eindeutige Darstellung der Form
n
X
v= αj vj
j=1

mit n ∈ N, α1 , ..., αn ∈ K und paarweise verschiedenen v1 , ..., vn ∈ E .

Beweis.
(i) ⇒ (ii) Es seien v1 , ..., vn ∈ E und v10 , ..., vm
0 ∈ E jeweils paarweise

verschiedene Vektoren, so dass gilt


n m
αl0 vl0
X X
αj vj = (4)
j=1 l=1

mit α1 , ..., αn ∈ K und α10 , ..., αm


0 ∈ K.
167
Wir dürfen o.B.d.A annehmen, dass m = n und v1 = v10 , ..., vn = vn0
gilt. Dann folgt aus (4)
n n n
αj0 vj = (αj − αj0 )vj ,
X X X
ϑ= αj v j −
j=1 j=1 j=1

also ( E ist linear unabhängig!)

αj − αj0 = 0, 1 ≤ j ≤ n.

Daraus folgt
αj = αj0 , 1 ≤ j ≤ n.

168
(ii) ⇒ (i) Seien v1 , ..., vn ∈ E paarweise verschieden und α1 , ..., αn ∈ K
gegeben mit
n
X n
X
ϑ= 0 · vj = αj vj .
j=1 j=1

Dann folgt aus der Eindeutigkeit der Darstellung α1 = ... = αn = 0.

169
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Vektorraum und Unterraum
Linearkombination von Vektoren
Lineare Unabhängigkeit
Basis von Vektorraum
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus

170
Definition 3.1.12
Es sei V ein K −Vektorraum und B ⊆ V . Dann heißt B Basis von V ,
wenn gilt
(i) B ist linear unabhängig,
(ii) span B = V .

Beispiele
1 Ist V = {ϑ} der Nullraum, so ist B = ∅ ein Basis von V .
2 Es sei K ein Körper. Dann bilden die Vektoren e1 , ..., en ∈ K n eine
Basis von K n . Die Basis e1 , ..., en heißt kanonische (Einheits-) Basis
des Kn .
3 Es sei K ein Körper. Dann bildet

B := {T k ∈ K [T ] : k ∈ N0 }

eine Basis von K [T ].

171
Theorem 3.1.13 (Basisergänzungssatz)

Es sei V ein K −Vektorraum und E ⊆ V linear unabhängig. Dann gibt es


eine Basis B von V mit E ⊆ B (E läßt sich zu einer Basis von V ergänzen).

Folgerung 3.1.14

Jeder K −Vektorraum besitzt eine Basis.

Beweis.
Wende Theorem 3.1.13 auf E = ∅ an.

172
Theorem 3.1.15
Es sei V ein K −Vektorraum und B ⊆ V . Dann sind äquivalent:
(i) B ist Basis von V ,
(ii) B ist eine maximale linear unabhängige Teilmenge von V (d.h. für
jede linear unabhängige Teilmenge E ⊆ V mit B ⊆ E gilt B = E ),
(iii) B ist ein minimales Erzeugendensystem von V (d.h. für jedes
Erzeugendensystem E ⊆ V mit E ⊆ B gilt E = B).

Beweis.
(i) ⇒ (ii) Es sei E ⊆ V linear unabhängig und B ⊆ E . Zu jedem a ∈ E
existieren paarweise verschiedene v1 , ..., vn ∈ B und α1 , ..., αn ∈ K mit
n
X
a= αj vj .
j=1

Nach Theorem 3.1.11 existiert ein eindeutiges j0 ∈ {1, 2, ..., n} mit


αj = 0 für j 6= j0 ∧ αj0 = 1 ∧ a = vj0 , also insbesondere a ∈ B. Da a
beliebig war, folgt E ⊆ B, also E = B.
173
(ii) ⇒ (i) folgt aus Theorem 3.1.13.

(i) ⇒ (iii) Es sei E ⊆ V ein Erzeugendensystem mit E ⊆ B. Zu jedem


a ∈ B existieren paarweise verschiedene v1 , ..., vn ∈ E und
α1 , ..., αn ∈ K mit
n
X
a= αj vj .
j=1

Wie im ersten Teil folgt daraus nach Theorem 3.1.11 a ∈ E und


damit insgesamt B ⊆ E .

(iii) ⇒ (i) Angenommen B wäre nicht linear unabhängig. Dann existieren


paarweise verschiedene v1 , ..., vn ∈ B und α1 , ..., αn ∈ K mit
(o.B.d.A.) αn 6= 0 und
n
X
αj vj = ϑ.
j=1

174
Daher gilt
n−1
X αj

vn = − vj ∈ span(B \ {vn })
j=1
αn

oder
B ⊆ span(B \ {vn }).
Nach Lemma 3.1.7 (iii) ist

V = span B ⊆ span(B \ {vn }),

im Widerspruch zur Minimalität von B.

175
Lemma 3.1.16 (Austauschlemma)

Es sei V ein K −Vektorraum, v1 , ..., vn ∈ V eine Basis von V und


n
X
w= αj vj
j=1

mit α1 , ..., αn ∈ K und αk 6= 0 für ein k ∈ {1, ..., n}. Dann ist auch

v1 , ..., vk−1 , w , vk+1 , ..., vn

eine Basis von V (d.h. wir dürfen vk durch w ersetzen).

Beweis.
Sei o.B.d.A. k = 1. Dann folgt
n
1 X αj
v1 = w− vj ∈ span{w , v2 , ..., vn }.
α1 α
j=2 1

176
So gilt
{v1 , ..., vn } ⊆ span{w , v2 , ..., vn }.
Nach Lemma 3.1.7 (iii) ist

V = span{v1 , ..., vn } ⊆ span{w , v2 , ..., vn } ⊆ V ,

d.h. die Vektoren w , v2 , ..., vn bilden ein Erzeugendensystem von V . Seien


nun λ1 , ..., λn ∈ K gegeben mit
n
X n
X
ϑ = λ1 w + λj vj = λ1 α1 v1 + (λ1 αj + λj )vj ,
j=2 j=2

dann folgt λ1 α1 = λ1 α2 + λ2 = ... = λ1 αn + λn = 0. Damit sind die


Vektoren w , v2 , ..., vn auch linear unabhängig.

177
Das obige Lemma liefert den sogenannten Steinitzschen Austauschsatz1 :
Theorem 3.1.17
Es sei V ein K −Vektorraum, v1 , ..., vn ∈ V eine Basis von V und
w1 , ..., wr ∈ V linear unabhängig. Dann gilt r ≤ n und nach einer
geeigneten Umnummerierung der Vektoren v1 , ..., vn ist
w1 , ..., wr , vr +1 , ..., vn ebenfalls eine Basis von V .

Beweis.
Ist r = 1, dann existieren α1 , ..., αn ∈ K mit αk 6= 0 für ein
k ∈ {1, ..., n}, so dass gilt
n
X
w1 = αj vj .
j=1

Die Aussage des Theorems folgt demnach aus Lemma 3.1.16.

1
Ernst Steinitz, 1871-1928 178
Sei die Aussage bereits für ein r ≥ 1 bewiesen.

Behauptung: Dann ist das Theorem auch für r + 1 richtig.


Seien dazu w1 , ..., wr +1 ∈ V linear unabhängig. Dann sind auch
w1 , ..., wr ∈ V linear unabhängig.

Also gilt nach Induktionsvoraussetzung r ≤ n und


w1 , ..., wr , vr +1 , ..., vn ist nach geeigneter Umnummerierung der
Vektoren v1 , ..., vn wieder eine Basis von V .

Demnach existieren α1 , ..., αn ∈ K mit


r
X n
X
wr +1 = αj wj + αj vj .
j=1 j=r +1

179
Wäre nun αr +1 = ... = αn = 0 oder r = n, so wäre w1 , ..., wr +1 linear
abhängig.

Also gilt r < n (und damit r + 1 ≤ n) und es existiert ein


k ∈ {r + 1, ..., n} mit αk 6= 0.

Sei o.B.d.A. k = r + 1 (Umnummerierung der vr +1 , ..., vn !), dann ist


w1 , ..., wr +1 , vr +2 , ..., vn nach Lemma 3.1.16 ebenfalls eine Basis von
V.

180
Folgerung 3.1.18

Es sei V ein endlich erzeugter K −Vektorraum, d.h. es existieren


u1 , ..., um ∈ V mit
V = span{u1 , ..., um }.
Dann gibt es eine natürliche Zahl n ≤ m, so dass gilt: Jede Basis von V
besteht aus genau n Vektoren.

Definition 3.1.19
Ist V ein endlich erzeugter K −Vektorraum, dann heißt die nach Folgerung
3.1.18 eindeutig bestimmte Anzahl n ∈ N0 der Vektoren einer Basis
Dimension von V , in Zeichen

dimK V := n.

Besitzt V kein endliches Erzeugendensystem, so setzen wir

dimK V := ∞.
181
Beweis von Folgerung 3.1.18.
Es sei

W := {E ⊆ {u1 , ..., um } : E ist Erzeugendensystem}.

Unter den endlich vielen Elementen von W gibt es ein B ∈ W mit


minimaler Elementanzahl n ≤ m.

Offensichtlich ist B ein minimales Erzeugendensystem und damit nach


Theorem 3.1.15 eine Basis.

Ist nun B 0 ⊆ V eine weitere Basis von V , so kann B 0 nach Theorem


3.1.17 höchstens k ≤ n Vektoren enthalten.

Umgekehrt muß nach Theorem 3.1.17 aber auch n ≤ k sein, also


k = n.

182
Theorem 3.1.20
Es sei V ein n− dimensionaler K −Vektorraum und u1 , ..., un ∈ V . Dann
sind äquivalent:
(i) u1 , ..., un ist eine Basis von V ,
(ii) u1 , ..., un ist ein Erzeugendensystem von V ,
(iii) u1 , ..., un sind linear unabhängig.

Beweis.
(i) ⇒ (ii) folgt recht leicht.

(i) ⇒ (iii) folgt recht leicht.

(ii) ⇒ (i) folgt aus Folgerung 3.1.18 und Theorem 3.1.15.

(iii) ⇒ (i) folgt aus Folgerung 3.1.18 und Theorem 3.1.15.

183
Theorem 3.1.21
Es sei V ein n-dimensionaler K -Vektorraum und U ein Untervektorraum
von V . Dann gilt
(i) dimK U ≤ dimK V ,

(ii) dimK U = dimK V ⇔ U = V .

Beweis.
(i) Ist B ⊆ V eine Basis von U, dann kann B nach Theorem 3.1.17
höchstens n Vektoren enthalten, also dimK U ≤ n.

(ii) Falls dimK U = n ist, so ist B nach Theorem 3.1.20 bereits eine Basis
von V , also U = V .

184
Beispiele
1 Für jeden Körper K gilt

dimK K n = n, und dimK K [T ] = ∞.

2 Die Vektoren (1, 1, 3), (2, 0, 1) und (2, 3, 1) bilden nach Theorem
3.1.20 eine Basis von R3 .

185
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Eigenschaften von linearen Abbildungen
Dimensionsformel für Vektorräume
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus

186
Definition 3.2.1
Es seien V , W K −Vektorräume und ϕ : V → W eine Abbildung. Dann
heißt ϕ (Vektorraum-)Homomorphismus oder kürzer: lineare
Abbildung), wenn gilt
(L1) ϕ(v1 + v2 ) = ϕ(v1 ) + ϕ(v2 ) für alle v1 , v2 ∈ V ,

(L2) ϕ(αv ) = αϕ(v ) für alle α ∈ K , v ∈ V .

Bemerkungen B20:
1 Die Begriffe Mono-, Epi-, Endo-, Iso- und Automorphismus werden
analog zu Definition 2.1.9 definiert.
2 ϕ : V → W ist genau dann linear, wenn gilt
(L3) ϕ(αv1 + βv2 ) = αϕ(v1 ) + βϕ(v2 ) für alle v1 , v2 ∈ V , α, β ∈ K .
Aus (L1) und (L2) folgt, für alle v1 , v2 ∈ V , α, β ∈ K

ϕ(αv1 + βv2 ) = ϕ(αv1 ) + ϕ(βv2 ) = αϕ(v1 ) + βϕ(v2 ).

Und aus (L3) folgt mit α = β = 1 (L1) bzw. mit β = 0 (L2).


187
Lemma 3.2.2
Es seien U, V , W K −Vektorraum und ϕ : U → V , ψ : V → W lineare
Abbildung. Dann gilt
(i) ϕ(ϑU ) = ϑV ,
(ii) ϕ(−u) = −ϕ(u) für alle u ∈ U,
(iii) Ker ϕ ist ein Untervektorraum von U,
(iv) Imϕ ist ein Untervektorraum von V

(v) ϕ ist genau dann injektiv, wenn gilt Ker ϕ = {ϑU },


(vi) Ist ϕ bijektiv, so ist auch ϕ−1 : V → U linear,
(vii) ψ ◦ ϕ : U → W ist linear.

188
Beweis.
(i),(ii) folgen aus Lemma 2.1.11(i) und (ii)

(iii) Wegen ϑU ∈ Ker ϕ gilt Ker ϕ 6= ∅. Ferner gilt für α, β ∈ K und


u1 , u2 ∈ Ker ϕ

ϕ(αu1 + βu2 ) = αϕ(u1 ) + βϕ(u2 ) = αϑV + βϑV = ϑV ,

also αu1 + βu2 ∈ Ker ϕ.

(iv) Wegen ϑV = ϕ(ϑU ) ∈ Im ϕ ist Im ϕ 6= ∅. Zu v1 , v2 ∈ Im ϕ existieren


u1 , u2 ∈ U mit
vj = ϕ(uj ) j = 1, 2.
Damit gilt für α, β ∈ K

αv1 + βv2 = αϕ(u1 ) + βϕ(u2 ) = ϕ(αu1 + βu2 ) ∈ Im ϕ.

(v) folgt aus Theorem 2.1.12.


189
(vi) Nach Theorem 2.1.13 (ii) erfüllt ϕ−1 die Bedingung (L1). Seien
α ∈ K und v ∈ V beliebig vorgegeben. Mit u := ϕ−1 (v ) folgt

ϕ−1 (αv ) = ϕ−1 (αϕ(u)) = ϕ−1 (ϕ(αu))


= αu = αϕ−1 (v ).

Also erfüllt ϕ−1 auch (L2).

(vii) Nach Theorem 2.1.13(i) erfüllt ψ ◦ ϕ die Bedingung (L1). Seien


α ∈ K und u ∈ V beliebig vorgegeben. Dann gilt

(ψ ◦ ϕ)(αu) = ψ(ϕ(αu)) = ψ(αϕ(u))


= αψ(ϕ(u)) = α(ψ ◦ ϕ)(u).

Damit erfüllt ψ ◦ ϕ auch die Bedingung (L2).

190
Theorem 3.2.3
Es seien V , W K −Vektorräume, E ⊆ V und ϕ : V → W linear. Dann gilt
(i) spanϕ(E ) = ϕ(spanE ),
(ii) Sind v1 , ..., vn ∈ V linear abhängig, dann sind auch
ϕ(v1 ), ..., ϕ(vn ) ∈ W linear abhängig.

Beweis.
(i) Aus E ⊆ spanE folgt ϕ(E ) ⊆ ϕ(spanE ), also mit Lemma 3.1.7 (iii)
spanϕ(E ) ⊆ ϕ(spanE ) ( ϕ(spanE ) ist Untervektorraum in W ).

Ist umgekehrt w ∈ ϕ(spanE ), dann existiert ein v ∈ spanE mit


w = ϕ(v ).

191
Nach Theorem 3.1.9 existieren α1 , ..., αn ∈ K und v1 , ..., vn ∈ E mit
n
X
v= αj vj .
j=1

Daraus folgt nach (L3)


 
Xn n
X
w = ϕ(v ) = ϕ  αj vj  = αj ϕ(vj ) ∈ spanϕ(E ).
j=1 j=1

Daher gilt auch ϕ(spanE ) ⊆ spanϕ(E ).

192
(ii) Nach der Voraussetzung existieren α1 , ..., αn ∈ K mit αk 6= 0 für ein
k ∈ {1, ..., n}, so dass gilt
n
X
αj vj = ϑV .
j=1

So haben wir
 
n
X n
X
αj ϕ(vj ) = ϕ  αj vj  = ϕ(ϑV ) = ϑW ,
j=1 j=1

also sind auch ϕ(v1 ), ..., ϕ(vn ) linear abhängig.

193
Theorem 3.2.4
Es seien V , W K −Vektorräume, B ⊆ V eine Basis von V und
ϕ0 : B → W eine Abbildung. Dann gibt es genau eine lineare Abbildung
ϕ : V → W mit der Eigenschaft ϕ|B = ϕ0 , d.h.

ϕ(u) = ϕ0 (u) für alle u ∈ B.

Ferner gilt:
(i) Im ϕ = spanϕ0 (B),
(ii) ϕ ist genau dann injektiv, wenn ϕ0 (B) linear unabhängig ist,
(iii) ϕ ist genau dann bijektiv, wenn ϕ0 (B) eine Basis von W ist.

194
Beweis.
Beweis Linearität:
Es sei v ∈ V . Dann existieren nach Theorem 3.1.11 eindeutig
bestimmte α1 , ..., αn ∈ K und u1 , ..., un ∈ B, so dass gilt
n
X
v= αj uj . (5)
j=1

Wir definieren die Abbildung ϕ : V → W durch


n
X
ϕ(v ) := αj ϕ0 (uj ). (6)
j=1

Wegen der Eindeutigkeit der Darstellung (5) ist ϕ wohldefiniert und es


gilt ϕ|B = ϕ0 .

195
Ist v 0 = m 0 0 0 0 0 0
l=1 αl ul mit α1 , ..., αm ∈ K und u1 , ..., um ∈ B ein weiterer
P

Vektor aus V , so dürfen wir o.B.d.A. m = n und uj = uj0 für 1 ≤ j ≤ n


annehmen.

Mit λ, λ0 ∈ K gilt dann


n
0 0
(λαj + λ0 αj0 )uj ,
X
λv + λ v =
j=1

also
n
ϕ(λv + λ0 v 0 ) (λαj + λ0 αj0 )ϕ0 (uj )
X
=
j=1
n n
αj ϕ0 (uj ) + λ0 αj0 ϕ0 (uj )
X X
= λ
j=1 j=1
(6)
= λϕ(v ) + λ0 ϕ(v 0 ).

Damit ist ϕ nach (L3) linear.


196
Beweis Eindeutigkeit:
Wir betrachten eine weitere lineare Abbildung ψ : V → W mit
ψ|B = ϕ|B .
Pn
Dann folgt für jedes v = j=1 αj uj ∈ V mit α1 , ..., αn ∈ K und
u1 , ..., un ∈ B:
 
Xn n
X
ϕ(v ) = ϕ  αj uj  = αj ϕ(uj )
j=1 j=1
 
n
X Xn
= αj ψ(uj ) = ψ  αj uj  = ψ(v ).
j=1 j=1

(i) folgt aus Theorem 3.2.3 (i).


(ii) folgt aus (5) und Theorem 3.2.2 (v).
(iii) folgt aus (i) und (ii).
197
Folgerung 3.2.5

Es seien V , W K −Vektorräume mit dimK V = n ∈ N0 , v1 , ..., vn ∈ V eine


Basis von V und w1 , ..., wn ∈ W beliebig. Dann gibt es genau eine lineare
Abbildung ϕ : V → W mit

ϕ(vj ) = wj für alle j = 1, 2, ..., n

und es gilt:
(i) Im ϕ = span{w1 , ..., wn },
(ii) ϕ ist genau dann injektiv, wenn w1 , ..., wn linear unabhängig sind,
(iii) ϕ ist genau dann Isomorphismus, wenn w1 , ..., wn eine Basis von W
ist.

Beweis.
Wende Theorem 3.2.4 an mit B = {v1 , ..., vn } und ϕ0 : B → W definiert
durch:
ϕ0 (vj ) := wj , j = 1, ..., n.

198
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Eigenschaften von linearen Abbildungen
Dimensionsformel für Vektorräume
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus

199
Theorem 3.2.6
Es seien V , W K −Vektorräume mit dimK V < ∞ und ϕ : V → W linear.
Dann gilt
dimK V = dimK (Ker ϕ) + dimK (Im ϕ).

Beweis.
Es sei v1 , ..., vk ∈ V eine Basis von Ker ϕ. Diese lässt sich nach Theorem
3.1.13 zu einer Basis v1 , ..., vk , vk+1 , ..., vn von V ergänzen.

Behauptung: ϕ(vk+1 ), ..., ϕ(vn ) ist eine Basis von Im ϕ (und damit
dimK (Im ϕ) = n − k = dimK V − dimK (Ker ϕ)).
Pn
Sei dazu w ∈ Im ϕ, dann existiert ein v = j=1 αj vj ∈ V mit
α1 , ..., αn ∈ K , so dass gilt

200
n
X
w = ϕ(v ) = αj ϕ(vj )
j=1
Xn
= αj ϕ(vj ) ∈ span{ϕ(vk+1 ), ..., ϕ(vn )}.
j=k+1

Daraus folgt Im ϕ ⊆ span{ϕ(vk+1 ), ..., ϕ(vn )}.

Die umgekehrte Inklusion ist klar und damit

Im ϕ = span{ϕ(vk+1 ), ..., ϕ(vn )}.

Seien nun αk+1 , ..., αn ∈ K gegeben mit


 
n
X n
X
αj ϕ(vj ) = ϕ  αj vj  = ϑW ,
j=k+1 j=k+1
201
Pn
d.h. j=k+1 αj vj ∈ Kerϕ = span{v1 , ..., vk }.

Dann existieren α1 , ..., αk ∈ K mit


k
X n
X
αj vj = αj vj .
j=1 j=k+1

Also
k
X n
X
− αj vj + αj vj = ϑV ,
j=1 j=k+1

dies liefert α1 = ... = αk = αk+1 = ... = αn = 0, da


v1 , ..., vk , vk+1 , ..., vn eine Basis von V ist.

Damit sind die Vektoren ϕ(vk+1 ), ..., ϕ(vn ) auch linear unabhängig.

202
Definition 3.2.7
Es seien V , W K −Vektorräume mit dimK V < ∞ und ϕ : V → W linear.
Dann heißt
rg(ϕ) := dimK (Im ϕ)
Rang der linearen Abbildung ϕ.

Theorem 3.2.8
Es seien V , W K −Vektorräume mit dimK V = dimK W = n ∈ N0 und
ϕ : V → W linear. Dann sind folgende Aussagen äquivalent:
(i) ϕ ist bijektiv, also ein Isomorphismus,
(ii) ϕ ist injektiv, also ein Monomorphismus,
(iii) ϕ ist surjektiv, also ein Epimorphismus,
(iv) rg(ϕ) = n,
(v) dim(Ker ϕ) = 0.

203
Beweis.
Nach Definition folgen (ii) und (iii) aus (i).

Lemma 3.2.2 (v) liefert (ii) ⇔ (v ).

Aus Theorem 3.2.6 folgt (v ) ⇔ (iv ).

Aus Theorem 3.1.21 (ii) folgt (iii) ⇔ (iv ).

Da (ii) ⇔ (iii) ist, gilt (ii) ⇒ (i) und (iii) ⇒ (i).

204
Bemerkung B21:
Zwei endlich dimensionale K −Vektorräume V und W sind genau dann
isomorph (d.h. es existiert ein Isomorphismus ϕ : V → W , in Zeichen
V ∼= W ), wenn gilt
dimK V = dimK W .
Insbesondere gilt für jeden K −Vektorraum V

dimK V = n ⇐⇒ V ∼
= K n.

205
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Matrizen
Lineare Gleichungssysteme
Der Gauß- Algorithmus

206
Definition 3.3.1
Sei K ein Körper. Ferner seien m, n ∈ N und αi,j ∈ K für
1 ≤ i ≤ m, 1 ≤ j ≤ n. Dann heißt
 
α1,1 α1,2 ··· α1,n

 α2,1 α2,2 ··· α2,n 

A := (αi,j ) 1≤i≤m :=  .. .. .. 
. . .
 
1≤j≤n  
αm,1 αm,2 · · · αm,n

Matrix über K mit m Zeilen und n Spalten. (kurz: m × n Matrix über K ).


Die Menge aller m × n Matrizen über K bezeichnen wir mit Mat(m, n, K ).

Bemerkungen B22:
1 Ist (αi,j ) 1≤i≤m ∈ Mat(m, n, K ) eine m × n Matrix über K , so schreiben
1≤j≤n
wir dafür auch einfach (αi,j ), wenn die Anzahl der Zeilen und Spalten
klar ist.

207
2 Für zwei Matrizen A = (αi,j ) ∈ Mat(m, n, K ) und
B = (βρ,σ ) ∈ Mat(r , s, K ) gilt A = B genau dann, wenn m = r , n = s
und αi,j = βi,j für alle 1 ≤ i ≤ m, 1 ≤ j ≤ n sind.

3 Ist A = (αi,j ) ∈ Mat(m, n, K ), so bezeichnen wir für 1 ≤ i ≤ m mit

Ai := (αi,1 , αi,2 , ..., αi,n ) ∈ Mat(1, n, K )

den i−ten Zeilenvektor der Matrix A und für 1 ≤ j ≤ n mit

α1,j
 
 .. 
Aj :=  .  ∈ Mat(m, 1, K )
αm,j

den j-ten Spaltenvektor der Matrix A.

208
Theorem 3.3.2
Für A = (αi,j ) ∈ Mat(m, n, K ), B = (βi,j ) ∈ Mat(m, n, K ) und λ ∈ K
definieren wir
α1,1 + β1,1 · · · α1,n + β1,n
 
.. ..
A+B := (αi,j +βi,j ) =   ∈ Mat(m, n, K ),
 
. .
αm,1 + βm,1 · · · αm,n + βm,n

bzw.
λα1,1 · · · λα1,n
 
.. ..
λA := (λαi,j ) =   ∈ Mat(m, n, K ).
 
. .
λαm,1 · · · λαm,n

Dann bildet Mat(m, n, K ) zusammen mit den oben definierten


Verknüpfungen einen K − Vektorraum mit

dimK Mat(m, n, K ) = m · n.
209
Bemerkungen B23:
1 Die Nullmatrix
0 ··· 0
 
 .. ..  ∈ Mat(m, n, K )
ϑ :=  . . 
0 ··· 0

ist der Nullvektor in Mat(m, n, K ).


2 Für 1 ≤ i ≤ m, 1 ≤ j ≤ n sei Ei,j die Matrix, welche aus einer Eins in
der i−ten Zeile , j−ten Spalte und sonst aus Nullen besteht, also
 
0 ··· 0 ··· 0
 . .. .. 
 .. . . 
 
Ei,j :=  0 · · · 1 · · · 0  ∈ Mat(m, n, K ).
 
 . .. .. 
 .
 . . . 

0 ··· 0 ··· 0

Dann ist {Ei, j ∈ Mat(m, n, K ) : 1 ≤ i ≤ m, 1 ≤ j ≤ n} eine Basis von


Mat(m, n, K ).
210
3 Nach Theorem 3.3.2 und vorhergehender Bemerkung gilt für n ∈ N

Mat(n, 1, K ) ∼
= Kn ∼
= Mat(1, n, K ).

Wir identifizieren im folgenden den Zeilenvektorraum Mat(1, n, K )


mit dem Vektorraum K n und bezeichnen den Spaltenvektorraum
Mat(n, 1, K ) mit Kn , d.h. wir setzen

Kn := Mat(n, 1, K ).

211
Definition 3.3.3
Es seien l, m, n ∈ N und
A = (αλ,µ ) ∈ Mat(l, m, K ), B = (βµ,ν ) ∈ Mat(m, n, K ).

Dann heißt die Matrix C = (γλ,ν ) ∈ Mat(l, n, K ) mit


m
X
γλ,ν := αλ,µ βµ,ν für 1 ≤ λ ≤ l, 1 ≤ ν ≤ n
µ=1

das Matrixprodukt von A und B in Zeichen

C = A · B.

212
Bemerkung B24:
1 Für l = n = 1 und

A = (α1 , ..., αm ) ∈ K m = Mat(1, m, K ),

β1
 
 .. 
B =  .  ∈ Mat(m, 1, K )
βm
bezeichnen wir das Matrixprodukt

β1
 
m
 ..  X
A · B = (α1 , ..., αm ) ·  .  = αµ βµ ∈ K
µ=1
βm

auch als Skalarprodukt des Zeilenvektor A mit dem Spaltenvektor B.

213
2 Für
A1
 

A = (αλ,µ ) =  ...  ∈ Mat(l, m, K ),


 

Am
B = (βµ,ν ) = (B1 , ..., Bn ) ∈ Mat(m, n, K )
ist der Koeffizient γλ,ν der Produktmatrix C = A · B = (γλ,ν ) für
1 ≤ λ ≤ l, 1 ≤ ν ≤ n gegeben durch das Skalarprodukt des λ−ten
Zeilenvektor von A mit dem ν−ten Spaltenvektor von B, d.h.

β1,ν
 
λ  .. 
γλ,ν = A · Bν = (αλ,1 , ..., αλ,m ) ·  .  .
βm,ν

214
Insgesamt gilt also
 
α1,1 · · · α1,m
 . ..
 .. ··· ···
 
β1,1 β1,ν β1,n

. 
  .. .. .. 
 
A · B =  αλ,1 · · · αλ,m · .

 . . . 
 . .. 
βm,1 · · · βm,ν · · · βm,n
 . .


αl,1 ··· αl,m

A1 · B1 · · · A1 · Bν · · · A1 · Bn
 
 .. .. .. 

 . . . 

=  Aλ · B1 · · · Aλ · Bν · · · Aλ · Bn
 

 .. .. .. 
. . .
 
 
Al · B1 ··· Al · Bν ··· Al · Bn

215
Lemma 3.3.4
Es sei K ein Körper und k, l, m, n ∈ N. Dann gilt für
A, A0 ∈ Mat(k, l, K ), B, B 0 ∈ Mat(l, m, K ), C ∈ Mat(m, n, K ) und λ ∈ K
(i) (A + A0 ) · B = A · B + A0 · B,

(ii) A · (B + B 0 ) = A · B + A · B 0 ,

(iii) (A · B) · C = A · (B · C ),

(iv) λ(A · B) = (λA) · B = A · (λB).

216
Folgerung 3.3.5

Es sei K ein Körper, m, n ∈ N und A ∈ Mat(m, n, K ). Dann ist die


Abbildung
ϕA : x ∈ Kn 7−→ A · x ∈ Km
linear.

Beweis.
Für alle x , y ∈ Kn und α, β ∈ K gilt
3.3.4(ii)
ϕA (αx + βy ) = A · (αx + βy ) = A · (αx ) + A · (βy )
3.3.4(iv )
= α(A · x ) + β(A · y ) = αϕA (x ) + βϕA (y ).

217
Bemerkung B25:
ϕ : Kn → Km sei eine beliebige lineare Abbildung und E = {e1 , ..., en } bzw.
E 0 = {e10 , ..., em
0 } die kanonische Basis von K bzw. K .
n m

Dann gibt es für jedes eν , 1 ≤ ν ≤ n eindeutig bestimmte Skalare


α1,ν , ..., αm,ν ∈ K , so dass gilt (vgl. Theorem 3.1.11)

α1,ν
 
m
X
0  .. 
ϕ(eν ) = αµ,ν eµ =  .  .
µ=1
αm,ν

Damit gilt für jedes

x1
 
n
 ..  X
x = . = xν eν ∈ Kn
ν=1
xn

218
n n n X
m
!
ϕ linear
xν αµ,ν eµ0
X X X
ϕ(x ) = ϕ xν eν = xν ϕ(eν ) =
ν=1 ν=1 ν=1 µ=1
 Pn
ν=1 α1,ν xν

m n
!
=
X X
αµ,ν xν eµ0 = 
 .. 
. 
µ=1 ν=1 Pn
ν=1 αm,ν xν
α1,1 · · · α1,n x1
   
 .. ..  ·  ..  = A · x
=  . .   . 
αm,1 · · · αm,n xn

mit A := (αµ,ν ) ∈ Mat(m, n, K ).

Also lässt sich jede lineare Abbildung ϕ : Kn → Km in der Form


„Matrix mal Vektor“ darstellen.

219
Definition 3.3.6
Es seien K ein Körper, m, n ∈ N und A ∈ Mat(m, n, K ). Dann heißt

rg(A) := rg(ϕA ) = dimK (Im ϕA )

mit ϕA : x ∈ Kn 7−→ A · x ∈ Km Rang der Matrix A.

Bemerkung B26:
Nach Folgerung 3.2.5 gilt für A ∈ Mat(m, n, K )

Im ϕA = span{ϕA (e1 ), ..., ϕA (en )}


= span{Ae1 , ..., Aen }
= span{A1 , ..., An } < Km .

Daraus folgt
rg(A) = dimK (span{A1 , ..., An }).
damit ergibt sich insbesondere

rg(A) ≤ min{m, n}.


220
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Matrizen
Lineare Gleichungssysteme
Der Gauß- Algorithmus

221
Definition 3.3.7
Es sei K ein Körper und m, n ∈ N. Ferner A = (αµ,ν ) ∈ Mat(m, n, K ) und

β1
 
 .. 
b =  .  ∈ Km .
βm

Dann heißt 

 α1,1 x1 + α1,2 x2 + ... + α1,n xn = β1

 α x + α x + ... + α x = β
2,1 1 2,2 2 2,n n 2
(7)

 ...


αm,1 x1 + α1,2 x2 + ... + αm,n xn = βm
ein lineares Gleichungssystem (kurz LGS) mit der Koeffizientmatrix A
und der rechten Seite b.

222
Fasst man die Unbestimmten x1 , ..., xn zu einem Spaltenvektor

x1
 
 .. 
x =  .  ∈ Kn
xn

zusammen, so lässt sich das LGS in der Form

A·x =b (8)

schreiben. Für b = ϑ ∈ Km heißt das LGS (8) homogen, ansonsten nennt


man (8) inhomogen.

223
Fragestellungen:

1 Lösbarkeit, d.h. unter welchen Bedingungen an A bzw, b gibt es ein


x ∈ Kn mit
A · x = b.

2 Universelle Lösbarkeit, d.h. unter welchen Bedingungen an A ist (8)


für alle möglichen b ∈ Km lösbar.

3 Eindeutige Lösbarkeit, d.h. unter welchen Bedingungen an A ist die


Lösung von (8) eindeutig bestimmt.

4 Berechnung der Lösungen.

224
Theorem 3.3.8
Es sei K ein Körper und m, n ∈ N. Ferner sei A ∈ Mat(m, n, K ) und ϑ 6= b ∈ Km .
Dann gilt
(i) Die Lösungsmenge
W := {x ∈ Kn : A · x = ϑ}
des homogenen Gleichungssystems ist ein Untervektorraum von Kn mit

dimK W = n − rg(A).

(ii) Die Lösungsmenge


X := {x ∈ Kn : A · x = b}
des inhomogenen Gleichungssystems ist entweder leer, oder es gilt für jedes
x0 ∈ X
X = x0 + W = {x0 + w ∈ Kn : w ∈ W },
wobei W der in (i) definierte Untervektorraum von Kn ist.

225
Beweis.
(i) Mit ϕA : x ∈ Kn 7−→ A · x ∈ Km gilt W = Ker ϕA . Die Behauptung
folgt daher aus Lemma 3.2.2 (iii) und Theorem 3.2.6.

(ii) Sei x0 ∈ X . Dann gilt

x ∈X ⇔ A·x =b
⇔ A · (x − x0 ) = A · x − A · x0 = b − b = ϑ
⇔ x − x0 ∈ W
⇔ x ∈ x0 + W .

226
Beispiel
Es sei A = (α1 , α2 ) ∈ Mat(1, 2, R) mit α2 6= 0 und 0 6= b ∈ R. Für das LGS

A · x = α1 x1 + α2 x2 = b

gilt
( ! ) ( ! )
x1 x1
W = ∈ R2 : A · x = 0 = ∈ R2 : α1 x1 + α2 x2 = 0
x2 x2
( ! )
x1 α1
= ∈ R2 : x2 = − x1
x2 α2
= span{w0 }

mit !
1
w0 = .
− αα12

227
Ferner ist offensichtlich !
0
x0 = b
α2

eine Lösung der inhomogenen Gleichung

Ax = b.

Also ist

X = {x ∈ R2 : Ax = b} = {x0 + sw0 ∈ R2 : s ∈ R}
( ! )
s
= b−sα1 ∈ R2 : s ∈ R .
α2

228
Definition 3.3.9
Es sei K ein Körper und m, n ∈ N. Für A = (αµ,ν ) ∈ Mat(m, n, K ) und

β1
 
 .. 
b =  .  ∈ Km
βm

heißt
α1,1 · · · α1,n β1
 
 .. .. ..  ∈ Mat(m, n + 1, K )
(A|b) := (A1 , ..., An , b) =  . . . 
αm,1 · · · αm,n βm

die erweiterte Matrix (oder auch Systemmatrix) des LGS A · x = b.

229
Theorem 3.3.10
Für A ∈ Mat(m, n, K ) und b ∈ Km sind folgende Aussagen äquivalent:
(i) Das LGS A · x = b ist lösbar,
(ii) b ∈ span{A1 , ..., An },
(iii) rg(A) = rg(A|b).

Beweis.
Für jedes x ∈ Kn gilt

A · x = x1 · A1 + ... + xn · An ∈ span{A1 , ..., An }.

daher gilt

A · x = b ist lösbar ⇔ b ∈ span{A1 , ..., An }


⇔ span{A1 , ..., An , b} = span{A1 , ..., An }
⇔ rg(A|b) = rg(A).

230
Folgerung 3.3.11

Für A ∈ Mat(m, n, K ) sind folgende Aussagen äquivalent:


(i) Das LGS A · x = b ist universell lösbar (d.h. zu jedem b ∈ Km existiert
ein x ∈ Kn mit A · x = b),
(ii) rg(A) = m.

Beweis.
Es gilt
3.3.10
A · x = b ist lösbar ⇔ b ∈ span{A1 , ..., An } für alle b ∈ Km
⇔ span{A1 , ..., An , b}
= span{A1 , ..., An }, ∀ b ∈ Km
⇔ Km = span{A1 , ..., An }
⇔ m = dim(span{A1 , ..., An })=rg(A).

231
Theorem 3.3.12
Es seien A ∈ Mat(m, n, K ) und b ∈ Km gegeben, so dass A · x = b
mindestens eine Lösung x ∈ Kn besitzt. Dann sind äquivalent:
(i) Das LGS A · x = b ist eindeutig lösbar,
(ii) rg(A) = n,
(iii) Das zugehörige homogene LGS A · x = ϑ besitzt nur die triviale
Lösung x = ϑ ∈ Kn .

Beweis.
Es gilt
3.3.8(ii)
A · x = b ist eindeutig lösbar ⇔ A · x = ϑ besitzt nur die Lösung
x =ϑ
3.3.8(i)
⇔ rg(A) = n.

232
Folgerung 3.3.13

Für eine quadratische Matrix A ∈ Mat(n, n, K ) sind folgende Aussagen


äquivalent:
(i) Das LGS A · x = b ist für alle b ∈ Kn lösbar,
(ii) Das LGS A · x = b ist für (mindestens) ein b ∈ Kn eindeutig lösbar,
(iii) Das LGS A · x = ϑ besitzt nur die triviale Lösung x = ϑ,
(iv) Das LGS A · x = b ist für alle b ∈ Kn eindeutig lösbar,
(v) rg(A) = n.

Beweis.
Folgt aus Folgerung 3.3.11 und Theorem 3.3.12.

233
Definition 3.3.14
Es sei K ein Körper und n ∈ N.
(i) Die quadratische Matrix
 
1 0 ··· 0
.. .
. ..
 
 0 1 
 ∈ Mat(n, n, K )
En :=  ..
 .. .. 
 . . . 0 
0 ··· 0 1

heißt n × n Einheitsmatrix.
(ii) Die quadratische Matrix A ∈ Mat(n, n, K ) heißt invertierbar (oder auch
regulär), wenn es ein A0 ∈ Mat(n, n, K ) gibt, so dass gilt

A0 · A = En .

Die Menge aller invertierbaren n × n- Matrizen bezeichnen wir mit GL(n, K ), d.h.

GL(n, K ) := {A ∈ Mat(n, n, K ) : A ist invertierbar}.


234
Lemma 3.3.15
Es sei K ein Körper und m, n ∈ N.
(i) Für alle A ∈ Mat(m, n, K ) gilt

Em · A = A · En = A.

(ii) GL(n, K ) ist zusammen mit der Matrizenmultiplikation eine Gruppe.

Beweis.
(i) Für µ, ν ∈ N definieren wir das Kroneckera -Symbol δj,k ∈ K durch
(
6 k,
0, falls j =
δj,k :=
1, falls j = k.
a
Leopold Kronecker, 1823-1891

235
Dann gilt für A = (αλ,µ ) ∈ Mat(m, n, K )

Em · A = (δλ,µ )1≤λ,µ≤m · (αµ,ν ) 1≤µ≤m


1≤ν≤n
 
m
X
=  δλ,µ αµ,ν 
1≤λ≤m
µ=1 1≤ν≤n
= (αλ,µ ) 1≤λ≤m = A,
1≤ν≤n

A · En = (αµ,ν ) 1≤µ≤m · (δν,ρ )1≤ν,ρ,≤n


1≤ν≤n
n
!
X
= αµ,ν δν,ρ
1≤µ≤m
ν=1 1≤ρ≤n
= (αµ,ρ ) 1≤µ≤m = A.
1≤ρ≤n

236
(ii) Es genügt zu zeigen: Für A, B ∈ GL(n, K ) gilt A · B ∈ GL(n, K ).
Nach Definition 3.3.14 existieren A0 , B 0 ∈ Mat(n, n, K ) mit

A0 · A = B 0 · B = En .

Setze C := B 0 · A0 ∈ Mat(n, n, K ), dann folgt

C · (A · B) = (C · A) · B = (B 0 · (A0 · A)) · B
(i)
= (B 0 · En ) · B = B 0 · B = En .

237
Bemerkungen B27:
1 Nach Lemma 3.3.15 ist En das neutrale Element von GL(n, K ). Wie
üblich, bezeichnen wir die inverse Matrix zu A ∈ GL(n, K ) mit A−1 .
Es gilt (vgl. Lemma 2.1.4)

A−1 · A = A · A−1 = En .

2 Im allgemeinen ist die Gruppe GL(n, K ) nicht kommutativ. Setze zum


Beispiel ! !
1 1 1 0
A= , B= .
0 1 1 1

238
Dann gilt A, B ∈ GL(2, K ) mit
! !
1 −1 1 0
A−1 = und B −1 =
0 1 −1 1

Sowie ! !
2 1 1 1
A·B = 6= = B · A.
1 1 1 2

Folgerung 3.3.16

Für eine quadratische Matrix A ∈ Mat(n, n, K ) sind folgende Aussagen


äquivalent:
(i) A ist regulär,
(ii) rg(A) = n.

239
Beweis.
(i) ⇒ (ii) Für alle b ∈ Kn gilt

A · x = b ⇔ A−1 · (A · x ) = (A−1 · A) · x = En · x = x = A−1 · b,

d.h. für alle b ∈ Kn ist das LGS A · x = b eindeutig lösbar (mit der
Lösung x = A−1 · b). Nach Folgerung 3.3.13 gilt daher rg(A) = n

(ii) ⇒ (i) Nach Folgerung 3.3.13 existiert für 1 ≤ ν ≤ n genau eine


Lösung Xν ∈ Kn des LGS

A · Xν = eν .

Also erhalten wir mit X := (X1 , ..., Xn ) ∈ Mat(n, n, K )

A · X = (A · X1 , ..., A · Xn ) = (e1 , ..., en ) = En ,

d.h. X ist invers zu A, also X = A−1 und damit A ∈ GL(n, K ).

240
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus
Elementare Zeilenumformungen
Spaltenvertauschungen
Das Gaußsche Eliminationsverfahren
Rücksubstitution

241
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus
Elementare Zeilenumformungen
Spaltenvertauschungen
Das Gaußsche Eliminationsverfahren
Rücksubstitution

242
Lemma 3.4.1
Ist A ∈ Mat(m, n, K ) und b ∈ Km , dann bleibt die Lösungsmenge des LGS

A·x =b

invariant unter folgenden Operationen:


(EZ1) Multiplikation einer Gleichung mit einen Skalar λ ∈ K \ {0},

(EZ2) Addition der i−ten Gleichung

αi,1 x1 + ... + αi,n xn = βi

zur j−ten Gleichung

αj,1 x1 + ... + αj,n xn = βj

für i, j ∈ {1, ..., m} mit i 6= j,

(EZ3) Vertauschung zweier Gleichungen.


243
Bemerkungen B28:
1 Für A ∈ Mat(m, n, K ) und b ∈ Km entsprechen die elementaren
Zeilenumformungen (EZ1)-(EZ2) aus Lemma 3.4.1 folgenden
Umformungen der Systemmatrix (A|b) des LGS A · x = b:
(EZ1) entspricht der Multiplikation einer Zeile von (A|b) mit einem
Skalar λ ∈ K \ {0},
(EZ2) entspricht der Addition der i−ten Zeile von (A|b) zur j−ten
Zeile von (A|b), wobei i, j ∈ {1, ..., m} mit i 6= j ist,
(EZ3) entspricht der Vertauschung zweier Zeilen von (A|b).

244
2 Die Operationen (EZ1), (EZ2) (bzw. die entsprechenden
Umformungen der Systemmatrix (A|b)) kann man zusammenfassen zu
(EZ4) Addition des λ−fachen der i−ten Gleichung

αi,1 x1 + ... + αi,n xn = βi

zur j−ten Gleichung

αj,1 x1 + ... + αj,n xn = βj

mit λ ∈ K \ {0} und i, j ∈ {1, ..., m}, i 6= j.

245
Theorem 3.4.2
Es sei A, à ∈ Mat(m, n, K ) und à entstehe aus A durch elementare
Zeilenumformungen (EZ1)-(EZ3), dann gilt

rg(A) = rg(Ã),

d.h. durch die elementare Zeilenumformungen ändert sich der Rang einer
Matrix nicht.

Beweis.
Nach Lemma 3.4.1 gilt

{x ∈ Kn : A · x = ϑ} = {x ∈ Kn : Ã · x = ϑ}.

Daher folgt aus Theorem (3.2.6)

n − rg(A) = n − rg(Ã).

246
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus
Elementare Zeilenumformungen
Spaltenvertauschungen
Das Gaußsche Eliminationsverfahren
Rücksubstitution

247
Es sei A = (A1 , ..., An ) ∈ Mat(m, n, K ), b ∈ Km und 1 ≤ i < j ≤ n. Ist dann
à := (A1 , ..., Ai−1 , Aj , Ai+1 , ..., Aj−1 , Ai , Aj+1 , ..., An ) ∈ Mat(m, n, K ) diejenige
Matrix, die aus A durch Vertauschung der i−ten Spalte mit der j−ten Spalte
entsteht, so gilt
A · x = b ⇔ Ã · x̃ = b
mit  
x1
 .. 
 . 
 
 xi−1 
 
 xj 
 
 xi+1 
 
x̃ :=  ...  ,
 
 
 xj−1 
 
 xi 
 
 xj+1 
 
 . 
 .. 
xn
d.h. Spaltenvertauschungen in der Matrix A entsprechen einer Umnummerierung
der Koordinaten des Lösungsvektors x .
248
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus
Elementare Zeilenumformungen
Spaltenvertauschungen
Das Gaußsche Eliminationsverfahren
Rücksubstitution

249
Wir wollen nun durch wiederholte Anwendung von elementaren
Zeilenoperationen und Spaltenvertauschungen die Systemmatrix (A|b) des
LGS
A·x =b
auf die Gestalt
 
α̃1,1 α̃1,2 · · · α̃1,r α̃1,r +1 · · · α̃1,n β̃1
0 α̃2,2 · · · α̃2,r α̃2,r +1 · · · α̃2,n β̃2
 
 
 .. .. .. .. .. .. .. 
. . . . . . .
 
 
 
(Ã|b̃) = 
 0 ··· 0 α̃r ,r α̃r ,r +1 · · · α̃r ,n β̃r 

 β̃r +1 

 .. 
0 0 . 
 

β̃m

mit α̃1,1 · α̃2,2 · · · α̃r ,r 6= 0 bringen.

250
Lemma 3.4.3
Es sei A = (αµ,ν ) ∈ Mat(m, n, K ) gegeben mit α1,1 6= 0 und
 
β1
b =  ...  .
 

βm

Dann lässt sich die Systemmatrix (A|b) des LGS

A·x =b
α
durch Addition des (− αµ,1 1,1
)−fachen der ersten Zeile zur µ−ten Zeile für
µ = 2, ..., m auf die Gestalt

α1,1 α1,2 · · · α1,n


 
β1
 0 α̃2,2 · · · α̃2,n β̃2 
(Ã|b̃) =  .
 
.. .. ..
 ..

. . . 
0 α̃m,2 · · · α̃m,n β̃m

bringen,
251
d.h. wir setzen
( α
α̃µ,ν := αµ,ν − αµ,1
1,1
α1,ν für 2 ≤ µ ≤ m, 1 ≤ ν ≤ n,
αµ,1
β̃µ := βµ − α1,1 β1 für 2 ≤ µ ≤ m.

Es gilt
(i) A · x = b ⇔ Ã · x = b̃,
(ii)
α̃2,2 · · · α̃2,n
 
 .. ..  = rg(A) − 1,
rg  . . 
α̃m,2 · · · α̃m,n

(iii)  
α̃2,2 ··· α̃2,n β̃2
 . .. .. 
rg  ..

.  = rg(A|b) − 1.
. 
α̃m,2 · · · α̃m,n β̃m

252
Beweis.
Folgt aus Lemma 3.4.1 und Theorem 3.4.2.

Bemerkung B29:
Die in Lemma 3.4.3 beschriebene Umformung der Matrix (A|b) in die
Matrix (Ã|b̃) entspricht der Matrixmultiplikation

(Ã|b̃) = L · (A|b)

mit
1 0 0 0
 
 − α2,1 1 0 0 
 α1,1 
L :=  ..  ∈ GL(m, K ).
.
. 0 .. 0 
 

α
− αm,1
1,1
0 ··· 1
Wiederholte Anwendung von Lemma 3.4.3 liefert nun das Gaußsche
Eliminationsverfahren.

253
Es sei A = (αµ,ν ) ∈ Mat(m, n, K ) eine Matrix mit r := rg(A) > 0 (d.h.
A 6= ϑ) und
β1
 
 ..
b :=  .  ∈ Km .

βm
Wir setzen
(1)
(
αµ,ν := αµ,ν für 1 ≤ µ ≤ m, 1 ≤ ν ≤ n,
(1)
βµ := βµ für 1 ≤ µ ≤ m

Für k = 1, ..., min{r , m − 1} führen folgende Schritte aus:


1. Bestimme zk ∈ {k, ..., m} und sk ∈ {k, ..., n} mit

αz(k)
k ,sk
6= 0.

(k) (k) (k) (k)


2. Vertausche αk,ν mit αzk ,ν für ν = k, ..., n. Vertausche βk mit βzk .
(k) (k)
Vertausche αµ,ν mit αµ,sk für µ = k, ..., m.
254
3. Für µ = k + 1, ..., m und ν = k + 1, ..., n setze
 (k)
(k+1) (k) αµ,k (k)
 αµ,ν := αµ,ν − α(k) αk,ν



k,k
(k)
 (k+1) (k) αµ,k (k)
 βµ

 := βµ − (k) βk .
α k,k

Dann erhalten wir nach min{r , m − 1}-Schritten die umgeformte


Systemmatrix
 
(1) (1) (1) (1) (1) (1)
α̃1,1 α̃1,2 · · · α̃1,r α̃1,r +1 · · · α̃1,n β̃1
(2) (2) (2) (2) (2)
 

 0 α̃2,2 · · · α̃2,r α̃2,r +1 · · · α̃2,n β̃2 

 .. .. .. .. .. .. .. 

 . . . . . . .


(r ) (r ) (r ) (r ) 
 
(Ã|b̃) = 
 0 ··· 0 α̃r ,r α̃r ,r +1 · · · α̃r ,n β̃r 
 (r +1) 

 β̃r +1  
 .. 

 0 0 . 

(r +1)
β̃m
(1) (r )
mit α̃1,1 · · · α̃r ,r 6= 0.
255
Ferner gilt
(i) rg(A) = rg(Ã), rg(A|b) = rg(Ã|b̃),
(ii) A · x = b ist genau dann lösbar, wenn r = m oder
(r +1) (r +1)
βr +1 = ... = βm = 0 ist,
(iii) Im Fall r = n besitzt das LGS A · x = b höchstens eine Lösung.

Bemerkung B30:
1 Im Vektor (z1 , ..., zr ) bzw. (s1 , ..., sr ) sind die Zeilen- bzw.
Spaltenvertauschungen abgespeichert.
2 Mit Hilfe des Gauß-Algorithmus kann man zeigen, dass gilt

rg(A) = dim(span{A1 , ..., Am }).

Übrigens ist dim(span{A1 , ..., Am } der sogenannte Zeilenrang der


Matrix A.

256
Beispiel
Es sei K = R. Betrachten das LGS A · x = b:


 x1 + 3x2 − 4x3 + 3x4 = 9
3x1 + 9x2 − 2x3 − 11x4 = −3

 4x1 + 12x2 − 6x3 − 8x4 = 6

2x1 + 6x2 + 2x3 − 14x4 = −12.

Wir formen nach dem angegebenen Schema mit z1 = 1, s1 = 1 und z2 = 2, s2 = 3


um:
x1 x2 x3 x4 b (1) x1 x2 x3 x4 b (2)
1 3 −4 3 9 1 3 −4 3 9
3 9 −2 −11 −3 0 0 10 −20 −30
4 12 −6 −8 6 0 0 10 −20 −30
2 6 2 −14 −12 0 0 10 −20 −30

257
x1 x3 x2 x4 b (2)
1 −4 3 3 9
0 10 0 −20 −30
0 10 0 −20 −30
0 10 0 −20 −30

x1 x3 x2 x4 b (3)
1 −4 3 3 9
0 10 0 −20 −30
0 0 0 0 0
0 0 0 0 0

258
1 Grundlagen

2 Algebraische Strukturen

3 Grundlagen der linearen Algebra


Vektorräume
Lineare Abbildungen
Matrizen und lineare Gleichungssysteme
Der Gauß- Algorithmus
Elementare Zeilenumformungen
Spaltenvertauschungen
Das Gaußsche Eliminationsverfahren
Rücksubstitution

259
Es sei A = (αµ,ν ) ∈ Mat(m, n, K ) eine Matrix der Form

α1,1 α1,2 · · · α1,r α1,r +1 · · · α1,n


 

 0 α2,2 · · · α2,r α2,r +1 · · · α2,n 

 .. .. .. .. .. .. 

 . . . . . . 

A=
 0 ··· 0 αr ,r αr ,r +1 · · · αr ,n 

 
 
 
 0 0 

mit α1,1 · · · αr ,r 6= 0 und

β1
 
 ..
b =  .  ∈ Km

βm

ein Vektor mit βr +1 = ... = βm = 0.

260
Ferner seien xr +1 , ..., xn ∈ K beliebig vorgegeben und
 
n
1  X
xν := bν − αν,j xj  , ν = r , r − 1, ..., 2, 1.
αν,ν j=ν+1

Dann ist der Vektor


x1
 
 .. 
x :=  .  ∈ Kn
xn
eine Lösung des LGS A · x = b.

261
Wählt man insbesondere xr +1 = ... = xn = 0, so erhält man die spezielle
Lösung  
x1
 . 
 .. 
 
 xr 
x :=   ∈ Kn
 
 0 
..
 
 
 . 
0
mit  
r
1  X
xν := bν − αν,j xj  , ν = r , r − 1, ..., 2, 1.
αν,ν j=ν+1

262
Fortsetzung Beispiel Folie 122
Bei beliebiger Wahl von x2 , x4 ∈ R gilt: x ist genau dann eine Lösung des
LGS A · x = b, wenn gilt
(
x1 − 4x3 + 3x2 + 3x4 = 9,
0x1 + 10x3 + 0x2 − 20x4 = −30,

d.h.

x3 = −3 + 2x4
x1 = 9 + 4x3 − 3x2 − 3x4
= −3 − 3x2 + 5x4 .

Also
 
−3 − 3x2 + 5x4
 x2 
A·x =b ⇔ x =  = x ∗ + x2 w2 + x4 w4
 
 −3 + 2x4 
x4
263
mit      
−3 −3 5
 0   1   0 
x ∗ :=  w2 :=  w4 :=  .
     
−3 0 2
 
     
0 0 1
Insbesondere ist w2 , w4 eine Basis von

W := {x ∈ R4 : A · x = ϑ}.

Für die Lösungsmenge gilt:


         

 x1 −3 −3 5 


 x   0   1  0 

L= x =  2  ∈ R4 x =   + a   + b   , a, b ∈ R
       

 x3  −3  0  2 

 

x4 0 0 1 

264
Anstelle der beschriebenen Rücksubstitution kann man die Matrix
 
α1,1 α1,2 · · · α1,r α1,r +1 · · · α1,n β1
 0 α2,2 · · · α2,r α2,r +1 · · · α2,n β2 
 .. .. .. .. ..
 
.. .. 
 . . . . . . .
(A|b) =  0
 
 ··· 0 αr ,r αr ,r +1 · · · αr ,n βr 

 
 
 0 0 0 

mit α1,1 · · · αr ,r 6= 0 durch elementare Zeilenumformungen auf die Gestalt


(1) (1) (1)
 
α1,1 0 0 0 α1,r +1 · · · α1,n β1
 . 
α2,2 . .
(2) (2) (2)
 0
 0 α2,r +1 · · · α2,n β2  
 . .. .. .. .. .. 
 . . .
 . 0 . . . 

(Ã|b̃) =  (r ) (r ) (r ) 
 0
 ··· 0 αr ,r αr ,r +1 · · · αr ,n βr  
 
 
 0 0 0 

bringen.
265
Dabei ist (
(r )
αµ,ν := αµ,ν für 1 ≤ µ ≤ r µ + 1 ≤ ν ≤ n,
(r )
βµ := βµ für 1 ≤ µ ≤ r
und für k = r , r − 1, ..., 1
 (k)
(k−1) (k) α (k)
 αµ,ν := αµ,ν − µ,k α für 1 ≤ µ ≤ k − 1 r + 1 ≤ ν ≤ n,


αk,k k,ν

(k)
αµ,k (k)
 βµ(k−1) := βµ(k) −

αk,k βk für 1 ≤ µ ≤ k − 1.

Ein Vektor x ∈ Kn ist demnach genau dann eine Lösung des LGS A · x = b, wenn
gilt !
n
1 (ν)
X (ν)
xν = βν − αν,j xj
αν,ν j=r +1

mit beliebigen xr +1 , ..., xn ∈ K ,

266
d.h.
n
X

x =x + xj wj
j=r +1

mit der speziellen Lösung  (1)



β1
 α1,1 
 .. 

 . 

(r )
(1) ∗
 βr 
 α1,j

x :=  αr ,r
 ∈ Kn
− α1,1  
 0 
..
   

 .

  .. 
   . 
 α(rr ,j) 
 −  0
 αr ,r 
wj :=  0  für r + 1 ≤ j ≤ n,
 
und
 .. 

 . 

 1 
 
 .. 
 . 
0
wobei die Eins in der j−ten Zeile ist. Insbesondere bilden die Vektoren
wr +1 , ..., wn eine Basis von
W := {x ∈ Kn : A · x = ϑ}.
267

Das könnte Ihnen auch gefallen